DE112019007925T5 - Objekt-Erkennungsvorrichtung und Objekt-Erkennungsverfahren - Google Patents

Objekt-Erkennungsvorrichtung und Objekt-Erkennungsverfahren Download PDF

Info

Publication number
DE112019007925T5
DE112019007925T5 DE112019007925.5T DE112019007925T DE112019007925T5 DE 112019007925 T5 DE112019007925 T5 DE 112019007925T5 DE 112019007925 T DE112019007925 T DE 112019007925T DE 112019007925 T5 DE112019007925 T5 DE 112019007925T5
Authority
DE
Germany
Prior art keywords
processing unit
object model
association
point
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019007925.5T
Other languages
English (en)
Inventor
Masanori Mori
Koji Iida
Shinichi TATEIWA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112019007925T5 publication Critical patent/DE112019007925T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/583Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets
    • G01S13/584Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93275Sensor installation details in the bumper area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

Bereitgestellt wird eine Objekt-Erkennungsvorrichtung, die eine Vorhersage-Verarbeitungseinheit, eine Temporär-Einstelleinheit und eine Assoziierungs-Verarbeitungseinheit beinhaltet. Die Vorhersage-Verarbeitungseinheit sagt als eine Vorhersageposition an einem durch Modellieren eines Verfolgungsziels ermittelten Objektmodell, eine Position eines Bewegungsziels eines Verfolgungsziels voraus, basierend auf einem durch Bewegung zumindest eines Objektes einer Vielzahl von Objekten als dem Verfolgungsziel gebildeten Bahnverlauf. Die Temporär-Einstelleinheit stellt auf Basis von Spezifikationen eines Sensors, der das Verfolgungsziel detektiert hat, eine Position des zumindest einen Kandidatenpunkts am Objektmodell ein. Die Assoziierungs-Verarbeitungseinheit stellt auf Basis der Position des Kandidatenpunkts und der Vorhersageposition eine Referenzposition am Objektmodell ein. Die Assoziierungs-Verarbeitungseinheit bestimmt, ob die Position des Detektionspunkts und die Vorhersageposition miteinander assoziieren, basierend auf einer Positionsbeziehung zwischen einem Assoziierungsbereich, der so eingestellt wird, dass der Assoziierungsbereich eine Referenzposition am Objektmodell als eine Referenz aufweist, und einem Detektionspunkt zu einer Zeit, wenn der Sensor das zumindest eine Objekt der Vielzahl von Objekten detektiert hat.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf eine Objekt-Erkennungsvorrichtung und ein Objekt-Erkennungsverfahren.
  • Hintergrund
  • Bislang ist eine Objekt-Erkennungsvorrichtung bekannt gewesen, die an ein Formmodell eines Objektes in eine Position eines Detektionspunkts zu einer Zeit einpasst, wenn ein Sensor das Objekt detektiert hat, und eine Position auf einem Verfolgungspunkt identifiziert, der eine Spur des Objektes bildet, auf Basis der Position des Detektionspunkts auf dem Formmodell des Objekts (siehe beispielsweise Patentliteratur 1).
  • Zitateliste
  • Patentliteratur
  • [PTL 1] JP 2017-215161 A
  • Zusammenfassung der Erfindung
  • Technisches Problem
  • Es ist bekannt gewesen, dass die Objekterkennungs-Vorrichtung, wie in Patentliteratur 1 beschrieben, bestimmt, ob eine Position eines Bewegungsziels des Objektes und die Position des Detektionspunkts miteinander assoziieren oder nicht, basierend darauf, ob die Position des Detektionspunkts in einem Assoziierungsbereich enthalten ist oder nicht, der um die Position des Bewegungsziels des Objektes als ein Zentrum eingestellt wird.
  • Jedoch kann es sein, dass in der Objekt-Erkennungsvorrichtung des Stands der Technik, wie in Patentliteratur 1 beschrieben, der Assoziierungsbereich nicht genau eingestellt wird, abhängig von der Auflösung des Sensors. In einem solchen Fall besteht die Befürchtung, dass ein Fehler bei der Bestimmung davon auftreten kann, ob die Position des Bewegungsziels des Objektes und die Position des Detektionspunkts miteinander assoziieren oder nicht. Somit sinkt die Präzision der Spurdaten zu dem Objekt, welche die Position des Verfolgungspunkts des Objektes angeben.
  • Die vorliegenden Erfindung ist gemacht worden, um das oben erwähnte Problem zu lösen und hat als Aufgabe, eine Objekt-Erkennungsvorrichtung oder ein Objekt-Erkennungsverfahren bereitzustellen, die in der Lage sind, die Präzision von Spurdaten zu einem Objekt zu vergrößern.
  • Lösung des Problems
  • Gemäß einer Ausführungsform der vorliegenden Erfindung wird eine Objekt-Erkennungsvorrichtung bereitgestellt, die beinhaltet: eine Vorhersage-Verarbeitungseinheit, die konfiguriert ist, als eine Vorhersage-Position zu einem Objektmodell, welches durch Modellieren eines Verfolgungsziels erhalten wird, eine Position eines Bewegungsziels des Verfolgungsziels vorherzusagen, basierend auf einem Bahnverlauf, welcher durch Bewegung zumindest eines Objektes einer Vielzahl von Objekten als das Verfolgungsziel gebildet wird; eine Temporär-Einstelleinheit, die konfiguriert ist, basierend auf Spezifikationen eines Sensors, welcher das Verfolgungsziel detektiert hat, eine Position zumindest eines Kandidatenpunkts des Objektmodells einzustellen; und eine Assoziierungs-Verarbeitungseinheit, die konfiguriert ist, eine Referenzposition zu dem Objektmodell auf Basis der Position des zumindest einen Kandidatenpunktes und der Vorhersageposition zu identifizieren, und basierend auf einer Positionsbeziehung zwischen einem Assoziierungsbereich, der so eingestellt ist, dass der Assoziierungsbereich die Referenzposition zu dem Objektmodell als eine Referenz aufweist, und einem Detektionspunkt zu einer Zeit, wenn der Sensor das zumindest eine Objekt der Vielzahl von Objekten detektiert hat, zu bestimmen, ob die Position des Detektionspunkts und die Vorhersageposition miteinander assoziieren.
  • Vorteilhafte Effekte der Erfindung
  • Gemäß der Objekt-Erkennungsvorrichtung der vorliegenden Erfindung ist es möglich, die Präzision der Spurdaten zu dem Objekt zu vergrößern.
  • Figurenliste
    • 1 ist ein Blockdiagramm zum Illustrieren eines Funktions-Konfigurations-Beispiels eines Fahrzeugsteuersystems in einer Ausführungsform der vorliegenden Erfindung.
    • 2 ist ein Diagramm zum Illustrieren eines Beispiels einer Relativ-Positionsbeziehung zwischen einem Sensor von 1 und Objekten.
    • 3 ist ein Diagramm zum Illustrieren eines Beispiels eines Kandidatenpunkts, der ein erster Kandidat einer Position eines Detektionspunkts zu einem Fahrzeug von 2 ist.
    • 4 ist ein Diagramm zum Illustrieren eines Beispiels eines Kandidatenpunkts, der ein zweiter Kandidat der Position des Detektionspunkts zu dem Fahrzeug von 2 ist.
    • 5 ist ein Diagramm zum Illustrieren eines Beispiels eines Kandidatenpunkts, der ein anderer Kandidat der Position des Detektionspunkts zu dem Fahrzeug von 2 ist.
    • 6 ist ein Graph zum Zeigen eines Einstellbeispiels einer Zuverlässigkeit der Kandidatenpunkte von 3 bis 5, wobei N eine natürliche Zahl ist.
    • 7 ist ein Diagramm zum Illustrieren eines Beispiels von Vorhersagedaten von 1.
    • 8 ist ein Diagramm zum Illustrieren eines Beispiels einer Referenzposition, die basierend auf einer Vorhersageposition der Vorhersagedaten von 7 und einem Kandidatenpunkt identifiziert wird.
    • 9 ist ein Diagramm zum Illustrieren eines ersten Einstellbeispiels eines Assoziierungsbereichs, der unter Verwendung der Referenzposition von 8 als eine Referenz eingestellt wird.
    • 10 ist ein Diagramm zum Illustrieren eines zweiten Einstellbeispiels des Assoziierungsbereichs, der unter Verwendung der Referenzposition von 8 als Referenz eingestellt wird.
    • 11 ist ein Diagramm zum Illustrieren eines dritten Einstellbeispiels des Assoziierungsbereichs, der unter Verwendung der Referenzposition von 8 als Referenz eingestellt wird.
    • 12 ist ein Diagramm zum Illustrieren eines Beispiels, in welchem eine Richtung weiter in den Verfolgungsdaten von 7 enthalten ist.
    • 13 ist ein Diagramm zum Illustrieren eines Beispiels, in welchem weiterhin eine Höhe in den Verfolgungsdaten von 7 enthalten ist.
    • 14 ist ein Diagramm zum Illustrieren eines Beispiels, in welchem eine Position eines oberen Endes und eine Position eines unteren Endes weiter in den Verfolgungsdaten von 7 enthalten sind.
    • 15 ist ein Diagramm zum schematischen Illustrieren einer Überlappung eines Bestimmungsziel-Objektmodells eines Assoziierungs-Bestimmungsziels, welches die Position des Detektionspunkts von 2 als einem Zentrum aufweist, wobei ein Objektmodell eines Verfolgungsziels eine Vorhersageposition von 8 als einem Zentrum aufweist.
    • 16 ist ein Flussdiagramm zum Illustrieren einer durch die Objekt-Erkennungsvorrichtung von 1 ausgeführten Verarbeitung.
    • 17 ist ein Flussdiagramm zum Illustrieren von Assoziierungs-bezogener Verarbeitung, die in Schritt S19 von 6 ausgeführt wird.
    • 18 ist ein Flussdiagramm zum Illustrieren des Assoziierungsbereichs-Einstellverarbeitens, welches im Schritt S38 von 17 ausgeführt wird.
    • 19 ist ein Flussdiagramm zum Illustrieren der in Schritt S20 von 16 ausgeführten Assoziierungs-Bestimmungsverarbeitung.
    • 20 ist ein Flussdiagramm zum Illustrieren einer in Schritt S75 von 19 ausgeführten Validitäts-Bestimmungsverarbeitung.
    • 21 ist ein Diagramm zum Illustrieren eines Hardware-Konfigurationsbeispiels.
    • 22 ist ein Diagramm zum Illustrieren eines anderen Hardware-Konfigurationsbeispiels.
  • Beschreibung von Ausführungsformen
  • 1 ist ein Blockdiagramm zum Illustrieren eines Funktions-Konfigurations-Beispiels eines Fahrzeugsteuersystems in einer Ausführungsform der vorliegenden Erfindung. Wie in 1 illustriert, beinhaltet das Fahrzeugsteuersystem eine Vielzahl von externen Informationssensoren 1, eine Vielzahl von Fahrzeug-Informationssensoren 2, eine Objekterkennungs-Vorrichtung 3, eine Mitteilungs-Steuervorrichtung 4 und eine Fahrzeugsteuervorrichtung 5.
  • Jeder der Vielzahl von externen Informationssensoren 1 ist an einem eigenen Fahrzeug montiert. Beispielsweise sind ein Teil der externen Informationssensoren 1 der Vielzahl von externen Informationssensoren 1 an einer Innenseite einer Front-Stoßstange, einer Innenseite einer Heck-Stoßstange und einer Kabinenseite einer Windschutzscheibe montiert. Für den an der Innenseite der Front-Stoßstange montierten externen Informationssensor 1 werden Objekte, die vorwärts oder seitwärts eines Fahrzeugs C existieren, als zu beobachtende Objekte eingestellt. Für den an der Innenseite der Heck-Stoßstange montierten externen Informationssensor 1 werden Objekte, die rückwärts oder seitwärts des Fahrzeugs C existieren, als zu beobachtende Objekte eingestellt.
  • Darüber hinaus ist der an der Kabinenseite der Windschutzscheibe montierte externe Informationssensor 1 neben einem inneren Rückspiegel angeordnet. Für den neben dem inneren Rückspiegel auf der Kabinenseite der Windschutzscheibe montierten externen Informationssensor 1 werden Objekte, die vorwärts des Fahrzeugs C existieren, als zu beobachtende Objekte eingestellt.
  • Somit ist jeder der am Eigenfahrzeug montierten Vielzahl von externen Informationssensoren 1 ein Sensor, der zum Erfassen, als Detektionsdaten dd, der Information zu den Objekten um das Eigenfahrzeug herum in der Lage ist. Die jeweiligen Teile von Detektionsdaten dd zu den Objekten um das Eigenfahrzeug herum, welche durch die Vielzahl von externen Informationssensoren 1 erfasst werden, werden in Detektionsdaten DD integriert und erzeugt. Die Detektionsdaten DD werden erzeugt, eine Datenkonfiguration aufzuweisen, die der Objekterkennungs-Vorrichtung 3 zugeführt werden kann. Die Detektionsdaten DD beinhalten zumindest einen Informationsteil zu einer Position P zumindest eines Detektionspunkts DP.
  • Der externe Informationssensor 1 beobachtet ein Objekt durch Detektieren irgendeines Punkts auf einer Oberfläche des Objekts als einem Detektionspunkt DD. Jeder Detektionspunkt DP gibt jeden Punkt auf dem durch den externen Informationssensor 1 beobachteten Objekt um das Eigenfahrzeug herum an. Beispielsweise bestrahlt der externe Informationssensor 1 Licht als Bestrahlungslicht um das Eigenfahrzeug herum und empfängt auf jedem Reflektionspunkt auf dem Objekt reflektiertes Reflektionslicht. Jeder Reflektionspunkt entspricht jedem Detektionspunkt DP.
  • Darüber hinaus variiert die Information zu dem Objekt, welches beim Detektionspunkt DP gemessen werden kann, abhängig von einem Messprinzip des externen Informationssensors 1.
  • Als Typen von externen Informationssensoren 1 können ein Millimeterwellenradar, ein Lasersensor, ein Ultraschallsensor, ein Infrarotsensor, eine Kamera und dergleichen verwendet werden. Die Beschreibung des Ultraschallsensors und des Infrarotsensors wird weggelassen.
  • Das Millimeterwellenradar wird beispielsweise an jedem von der Front-Stoßstange und der Heck-Stoßstange des Eigenfahrzeugs montiert. Das Millimeterwellenradar beinhaltet eine Sendeantenne oder eine Vielzahl von Empfangsantennen. Das Millimeterwellenradar kann eine Distanz und eine Relativgeschwindigkeit zu einem Objekt messen. Die Distanz und die Relativgeschwindigkeit zum Objekt werden beispielsweise durch ein Verkehrsmodulations-Kontinuitätswellen-(FMCW)-Verfahren gemessen. Somit können die Position P des Detektionspunkts DP und die Geschwindigkeit V des Detektionspunkts DP basierend auf Distanz und Relativgeschwindigkeit zum Objekt, die durch das Millimeterwellenradar gemessen werden, beobachtet werden.
  • In der nachfolgenden Beschreibung kann die Geschwindigkeit V des Detektionspunkts DP die Relativgeschwindigkeit zwischen dem Eigenfahrzeug und dem Objekt sein, oder kann eine Geschwindigkeit in Bezug auf eine Absolutposition sein, die weiter unter Verwendung von GPS erfasst wird.
  • Das Millimeterwellenradar kann einen Azimuth-Winkel des Objekts messen. Der Azimuth-Winkel des Objektes wird basierend auf Phasendifferenzen zwischen den jeweiligen Funkwellen, die durch die Vielzahl von Empfangsantennen empfangen werden, gemessen. Somit kann eine Richtung θ des Objekts auf Basis des Azimuth-Winkels des Objekts, welcher durch das Millimeterwellenradar gemessen, beobachtet werden.
  • Wie oben beschrieben, können beim Millimeterwellenradar als die Information zu dem Objekt die Detektionsdaten DD beobachtet werden, welche die Geschwindigkeit V des Detektionspunkts DP und die Richtung θ des Objekts beinhalten, zusätzlich zur Position P des Detektionspunkts DP. Von der Position P des Detektionspunkts DP, der Geschwindigkeit V des Detektionspunkts DP und der Richtung θ des Objekts ist sowohl die Geschwindigkeit V des Detektionspunkts DP als auch die Richtung θ des Objekts ein dynamisches Element zum Identifizieren eines Zustands des Objekts. Jedes jener dynamischen Elemente ist ein Objekt-Identifikationselement.
  • Wenn die Relativgeschwindigkeit des Objekts gemessen wird, detektiert das Millimeterwellenradar des FMCW-Typs eine Frequenzverschiebung, welche durch den Dopplereffekt zwischen der Frequenz eines Sendesignals und einer Frequenz eines Empfangssignals verursacht wird, das heißt die Dopplerfrequenz. Die detektierte Dopplerfrequenz ist proportional zur Relativgeschwindigkeit zum Objekt, und die Relativgeschwindigkeit kann somit aus der Dopplerfrequenz abgeleitet werden.
  • Darüber hinaus wird die Geschwindigkeitsauflösung des Millimeterwellenradars durch die Auflösung der Dopplerfrequenz bestimmt. Die Auflösung der Dopplerfrequenz ist ein Kehrwert einer Beobachtungsperiode des Empfangssignals. Somit steigt mit steigender Beobachtungsperiode die Auflösung der Dopplerfrequenz an. Somit steigt mit steigender Beobachtungsperiode die Geschwindigkeitsauflösung des Millimeterwellenradars an.
  • Beispielsweise in einem Fall, in welchem das Eigenfahrzeug auf einer Schnellstraße fährt, wird die Beobachtungsperiode des Millimeterwellenradars eingestellt, im Vergleich zu einem Fall, bei welchem das Eigenfahrzeug auf einer normalen Straßen fährt, länger eingestellt zu sein. Folglich kann die Geschwindigkeitsauflösung des Millimeterwellenradars auf Hoch eingestellt werden. Somit kann in dem Fall, in welchem das Eigenfahrzeug auf einer Schnellstraße fährt, eine Änderung bei der Geschwindigkeit früher beobachtet werden, im Vergleich zum Fall, bei welchem das Eigenfahrzeug auf einer üblichen Straßen fährt. Folglich können Objekte um das Eigenfahrzeug herum früher beobachtet werden.
  • Darüber hinaus wird die Distanzauflösung des Millimeterwellenradars als eine Division der Lichtgeschwindigkeit geteilt durch eine Modulationsfrequenz-Bandbreite definiert. Somit steigt mit steigender Modulationsfrequenz-Bandbreite die Distanzauflösung des Millimeterwellenradars an.
  • Beispielsweise in einem Fall, in welchem das Eigenfahrzeug auf einen Parkplatz fährt, wird die Modulationsfrequenz-Bandbreite eingestellt, im Vergleich zu dem Fall, bei dem das Eigenfahrzeug auf einer normalen Straße oder einer Schnellstraße fährt, breiter eingestellt. Folglich kann die Distanzauflösung des Millimeterwellenradars hoch eingestellt werden. In einem Fall, in welchem die Distanzauflösung des Millimeterwellenradars auf Hoch eingestellt wird, ist die detektierbare Minimaleinheits-Distanz um das Eigenfahrzeug herum kurz, und somit ist es möglich, Objekte, die Seite an Seite existieren, voneinander zu unterscheiden.
  • Wenn beispielsweise ein Fußgänger und ein Fahrzeug C als die Objekte um das Eigenfahrzeug herum vorkommen, wird ein Zustand hergestellt, in welchem simultan der Fußgänger mit niedriger Reflektions-Intensität gegenüber aus dem Millimeterwellenradar abgestrahlten elektromagnetischen Wellen und das Fahrzeug C mit hoher Reflektions-Intensität gegenüber diesen existieren. Selbst in diesem Zustand wird die vom Fußgänger reflektierte elektromagnetische Welle nicht durch die vom Fahrzeug C reflektierte elektromagnetische Welle absorbiert und kann somit der Fußgänger detektiert werden.
  • Der Lasersensor wird beispielsweise an einer Außenseite eines Dachs des Eigenfahrzeugs montiert. Als Lasersensor wird beispielsweise ein Lichtdetektions- und Bereichsmess-(LIDAR)-Sensor an der Außenseite des Dachs des Eigenfahrzeugs montiert. Der LIDAR-Sensor beinhaltet eine Vielzahl von Licht emittierenden Einheiten, eine Lichtempfangseinheit und eine Recheneinheit. Die Vielzahl von Lichtempfangseinheiten sind an einer Vielzahl von Winkeln mit einer rechteckwinkligen Richtung in Bezug auf eine Vorwärts-Fahrtrichtung des Eigenfahrzeugs angeordnet.
  • Ein Ausbreitungszeit-(TOF, Time of Flight)-Typ wird für den LIDAR-Sensor verwendet. Spezifisch weist die Vielzahl von Licht emittierenden Einheiten des LIDAR-Sensors eine Funktion des radialen Emittierens von Laserlicht während der Rotation in horizontaler Richtung während einer vorab eingestellten Lichtemissions-Zeitperiode auf. Die Lichtempfangseinheit des LIDAR-Sensors weist eine Funktion des Empfangens von Reflektionslicht von einem Objekt während einer vorab eingestellten Lichtempfangs-Zeitperiode auf. Die Recheneinheit des LIDAR-Sensors weist eine Funktion des Ermittelns von Rundlaufzeiten auf, die alle eine Differenz zwischen der Lichtemissionszeit bei der Vielzahl von Licht Lichtemissionseinheiten und einer Lichtempfangszeit in der Lichtempfangseinheit sind. Die Recheneinheit des LIDAR-Sensors weist eine Funktion des Ermitteln der Distanzen zum Objekt auf Basis der Rundlaufzeiten auf.
  • Der LIDAR-Sensor weist eine Funktion des Messens auch der Richtung zum Objekt durch Ermitteln der Distanz zum Objekt auf. Somit werden die Position P des Detektionspunkts DP, die Geschwindigkeit V des Detektionspunkts DP und die Richtung θ des Objektes aus durch den LIDAR-Sensor gemessenen Messergebnissen beobachtet.
  • Wie oben beschrieben, können mit dem LIDAR-Sensor die, die Geschwindigkeit V des Detektionspunkts DP und die Richtung θ des Objekts enthaltende Detektionsdaten DD zusätzlich zur Position P des Detektionspunkts DP als die Information zu dem Objekt beobachtet werden. Von der Position P des Detektionspunkts DP, der Geschwindigkeit V des Detektionspunkts DP und der Richtung θ des Objektes ist jedes von der Geschwindigkeit V des Detektionspunkts DP und der Richtung θ des Objektes das Objekt-Identifikationselement, wie oben beschrieben.
  • Darüber hinaus wird die Geschwindigkeitsauflösung des LIDAR-Sensors durch das Lichtemissions-Intervall von Impulsen, die das Laserlicht bilden, bestimmt. Somit steigt mit sinkendem Lichtemissions-Intervall der das Laserlicht bildenden Impulse die Geschwindigkeitsauflösung des LIDAR-Sensors an.
  • Beispielsweise in dem Fall, in welchem das Eigenfahrzeug auf einer Schnellstraße fährt, kann im Vergleich zu dem Fall, bei dem das Eigenfahrzeug auf einer normalen Straßen fährt, die Geschwindigkeitsauflösung des LIDAR-Sensors als höher eingestellt werden, indem das Lichtemissionssignal der das aus dem LIDAR-Sensor abgestrahlte Laserlicht bildenden Impulse als kurz eingestellt wird. Somit, in dem Fall, in welchem das Eigenfahrzeug auf einer Schnellstraße fährt, kann ein Änderung bei der Geschwindigkeit im Vergleich zu dem Fall, bei welchem das Eigenfahrzeug auf einer normalen Straßen fährt, früher beobachtet werden. Folglich können Objekte um das Eigenfahrzeug herum früher beobachtet werden.
  • Darüber hinaus wird die Distanzauflösung des LIDAR-Sensors durch eine Impulsbreite, die das Laserlicht bildet, bestimmt. Somit steigt mit sinkender Impulsbreite, die das Laserlicht bildet, die Distanzauflösung des LIDAR-Sensors an.
  • Beispielsweise in dem Fall, bei dem das Eigenfahrzeug auf einen Parkplatz fährt, wird im Vergleich zu dem Fall, bei dem das Eigenfahrzeug auf einer normalen Straße oder einer Schnellstraße fährt, die das aus dem LIDAR-Sensor abgestrahlte Laserlicht bildende Impulsbreite eingestellt, kürzer zu sein. Folglich kann die Distanzauflösung des LIDAR-Sensors als Hoch eingestellt werden. In einem Fall, in welchem die Distanzauflösung des LIDAR-Sensors hoch eingestellt wird, ist die detektierbare Minimaleinheits-Distanz um das Eigenfahrzeug herum kurz und somit ist es möglich, Objekte, die Seite an Seite existieren, voneinander zu unterscheiden.
  • Wenn beispielsweise ein Fußgänger und das Fahrzeug C als die Objekte um das Eigenfahrzeug herum existieren, wird ein Zustand herbeigeführt, bei welchem der Fußgänger mit niedriger Reflektions-Intensität für aus dem LIDAR-Sensor abgestrahltem Laserlicht und das Fahrzeug C mit hoher Reflektions-Intensität dazu simultan existieren. Selbst in diesem Zustand wird das vom Fußgänger reflektierte Reflektionslicht nicht durch das vom Fahrzeug C reflektierte Reflektionslicht absorbiert und kann der Fußgänger somit detektiert werden.
  • Die Kamera wird neben dem inneren Rückspiegel auf der Innenraumseite der Windschutzscheibe montiert. Als Kamera wird beispielsweise eine Monokular-Kamera verwendet. Die Monokular-Kamera beinhaltet ein Bildaufnahme-Element. Das Bildaufnahme-Element ist beispielsweise ein ladungsgekoppelter Vorrichtungskammer-(CCD)-Bildsensor oder ein Komplementäroxid-Halbleiter-(CMOS)-Bildsensor. Die monokulare Kamera detektiert kontinuierlich Abwesenheit oder Anwesenheit eines Objektes und eine Distanz dazu, während die Minmaleinheit ein Pixel-Niveau in einem 2D-Raum orthogonal zur Bildaufnahmerichtung und dem Bildaufnahme-Element ist. Die Monokular-Kamera beinhaltet beispielsweise eine Struktur, in welcher ein Filter von Primärfarben inklusive Rot, Grün und Blau zu einer Linse hinzugefügt wird. Mit dieser Struktur kann die Distanz auf Basis einer Parallaxe zwischen Lichtstrahlen, die durch den Filter der Primärfarben unterteil wird, erhalten werden. Somit werden die Positionen P des Detektionspunkts DP und eine Breite W und eine Länge L des Objekts aus durch die Kamera gemessenen Messobjekten beobachtet.
  • Wie oben beschrieben, können mit der Kamera die Detektionsdaten DD, welche die Breite W und die Länge L des Objekts zusätzlich zur Position P des Detektionspunkts DP beinhalten, als die Information zu dem Objekt beobachtet werden. Von der Position P des Detektionspunkts DP sind die Breite W und die Länge L des Objektes, Breite W und die Länge L des Objekts statistische Elemente zum Identifizieren der Größe des Objekts. Jedes jener statistischem Elemente ist ein Objekt-Identifikationselement.
  • Für die Kamera wird zusätzlich zur Monokular-Kamera eine TOF-Kamera, eine Stereo-Kamera, eine Infrarotkamera oder dergleichen verwendet.
  • Die Vielzahl von Fahrzeuginformations-Sensoren 2 weisen Funktionen des Detektierens, als Eigenfahrzeugdaten cd, von Fahrzeuginformation zum Eigenfahrzeug auf, wie etwa Fahrzeuggeschwindigkeit, Lenkwinkel und Gier-Rate. Die Eigenfahrzeugdaten cd werden so erzeugt, dass sie eine Datenkonfiguration aufweisen, die der Objekterkennungs-Vorrichtung 3 zugeführt werden kann.
  • Die Objekterkennungs-Vorrichtung 3 beinhaltet eine Zeitmesseinheit 31, eine Datenempfangseinheit 32, eine Temporär-Einstelleinheit 33, eine Vorhersage-Verarbeitungseinheit 34, eine Assoziierungs-Verarbeitungseinheit 35 und eine Aktualisierungs-Verarbeitungseinheit 36. Die Zeitmesseinheit 31, die Datenempfangseinheit 32, die Temporär-Einstelleinheit 33, die Vorhersage-Verarbeitungseinheit 34, die Assoziierungs-Verarbeitungseinheit 35 und die Aktualisierungs-Verarbeitungseinheit 36 weisen Funktionen auf, die durch eine CPU erzielt werden, die in einem nicht-flüchtigen Speicher oder einem flüchtigem Speicher gespeicherte Programme ausführt.
  • Die Zeitmesseinheit 31 weist eine Funktion des Messens einer Zeit der Objekterkennungs-Vorrichtung 3 auf. Die Zeitmesseinheit 31 erzeugt eine gemessene Zeit als eine gemeinsame Zeit CT. Die gemeinsame Zeit CT wird erzeugt, eine Datenkonfiguration aufzuweisen, die der Datenempfangseinheit 32 zugeführt werden kann.
  • Die Datenempfangseinheit 32 weist eine Funktion einer Eingabeschnittstelle auf.
  • Spezifisch weist die Datenempfangseinheit 32 eine Funktion des Empfangens der Detektionsdaten dd aus jedem externen Informationssensor 1 auf. Teile von Detektionsdaten dd werden durch die Datenempfangseinheit 32 in die Detektionsdaten DD integriert. Die Datenempfangseinheit 32 weist eine Funktion des Assoziierens der gemeinsamen Zeit CT, welche durch die Zeitmesseinheit 31 erzeugt wird, mit den Detektionsdaten DD als assoziierter Zeit RT auf, um dadurch Detektionsdaten DDRT zu erzeugen. Die Detektionsdaten DDRT werden erzeugt, eine Datenkonfiguration aufzuweisen, die jeder der Temporär-Einstelleinheit 33 und der Assoziierungs-Verarbeitungseinheit 35 zugeführt werden kann.
  • Wenn die Datenempfangseinheit 32 die Empfangsdaten dd aus dem externen Informationssensor 1 empfängt, bestimmt die Datenempfangseinheit 32, dass die Detektionsdaten dd erfolgreich erfasst worden sind. Die Datenempfangseinheit 32 setzt ein Defekt-Flag, welches angibt, dass ein Defekt in dem entsprechenden externen Informationssensor 1 auftritt, auf 0 und erzeugt die Detektionsdaten DDRT.
  • Wenn das Defekt-Flag auf 0 gesetzt wird, gibt diese Einstellung an, dass ein Defekt nicht in dem entsprechenden externen Informationssensor 1 auftritt. Darüber hinaus, wenn das Defekt-Flag auf 1 gesetzt wird, gibt diese Einstellung an, dass ein Defekt in dem entsprechenden externen Informationssensor 1 auftritt.
  • Andererseits, wenn die Datenempfangseinheit 32 die Detektionsdaten dd aus dem externen Informationssensor 1 nicht empfängt, bestimmt die Datenempfangseinheit 32, dass die Detektionsdaten dd nicht empfangen werden können, setzt das Defekt-Flag auf 1 und erzeugt keine Detektionsdaten DDRT.
  • Darüber hinaus, wenn die Datenempfangseinheit 32 die Detektionsdaten dd aus dem externen Informationssensor 1 empfängt, bestimmt die Datenempfangseinheit 32 die Gültigkeit der Detektionsdaten dd. Wenn die Datenempfangseinheit 32 bestimmt, dass die Detektionsdaten dd nicht gültig sind, bestimmt die Datenempfangseinheit 32, dass die Detektionsdaten dd nicht erfasst werden können und setzt ein Datenvaliditäts-Flag auf 0, was angibt, dass die Detektionsdaten dd des entsprechenden externen Informationssensor 1 nicht gültig sind. Wenn die Datenempfangseinheit 32 bestimmt, dass die Detektionsdaten dd gültig sind, bestimmt die Datenempfangseinheit 32, dass die Detektionsdaten dd erfolgreich erfasst worden sind und setzt das Datenvaliditäts-Flag auf 1.
  • Wie oben beschrieben, kann auf das Ergebnis der Bestimmung, durch die Datenempfangseinheit 32, ob die Detektionsdaten dd erfolgreich erfasst worden sind oder nicht, Bezug genommen werden, durch Referenz auf das zumindest eine Defekt-Flag oder/und das Datenvaliditäts-Flag.
  • Darüber hinaus weist die Datenempfangseinheit 32 eine Funktion des Empfangens der Eigenfahrzeugdaten cd aus den Fahrzeuginformations-Sensoren 2 auf. Die Datenempfangseinheit 32 weist eine Funktion des Assoziierens der durch die Zeitmesseinheit 31 erzeugten gemeinsamen Zeit CT mit den Eigenfahrzeugdaten CD als assoziierter Zeit RT auf, um dadurch Eigenfahrzeugdaten CDRT zu erzeugen. Die Eigenfahrzeugdaten CDRT werden erzeugt, eine Datenkonfiguration aufzuweisen, die der Vorhersage-Verarbeitungseinheit 34 zugeführt werden kann.
  • Die Temporär-Einstelleinheit 33 weist eine Funktion des Einstellens einer Position HP zumindest eines Kandidatenpunkts DPH auf einem Objektmodell Cmodel1 auf, das ermittelt wird durch Modellieren eines Verfolgungsziels auf Basis der Auflösung der externen Informationssensoren 1, die als Verfolgungsziel zumindest einem Objekt einer Vielzahl von Objekten detektiert hat. Die Temporär-Einstelleinheit 33 weist eine Funktion des Erzeugens von temporären Einstelldaten DH auf, welche die Position HP des zumindest einen Kandidatenpunkts DPH beinhalten. Die Temporär-Einstelldaten DH werden durch die Temporär-Einstelleinheit 33 so erzeugt, dass sie eine Datenkonfiguration aufweisen, die der Assoziierungs-Verarbeitungseinheit 35 zugeführt werden kann.
  • Die Auflösung des externen Informationssensor 1 ist in den Spezifikationen des externen Informationssensors 1 enthalten. Darüber hinaus ändert sich die Auflösung des externen Informationssensors abhängig von Spezifikationen des externen Informationssensors 1. Attribute, die sich auf Betriebseinstellungen des externen Informationssensors 1 beziehen, Attribute, die sich auf eine Anordnungs-Situation des externen Informationssensors 1 beziehen, und dergleichen, werden auf Basis der Spezifikationen des externen Informationssensors 1 identifiziert. Die sich auf die Betriebseinstellungen des externen Informationssensors 1 beziehenden Attribute sind ein beobachtbarer Messbereich, Auflösung im Messbereich, eine Abtastfrequenz und dergleichen. Die sich auf die Anordnungs-Situation des externen Informationssensor 1 beziehenden Attribute sind Winkel, unter welchen der externe Informationssensor 1 angeordnet werden kann, eine Umgebungstemperatur, bei welcher der externe Informationssensor 1 widerstehen kann, eine messbare Distanz zwischen dem externen Informationssensor 1 und einem Beobachtungsziel und dergleichen.
  • Die Vorhersage-Verarbeitungseinheit 34 weist eine Funktion des Empfangens der Eigenfahrzeugdaten CDRT aus der Datenempfangseinheit 32 auf. Die Vorhersage-Verarbeitungseinheit 34 weist eine Funktion des Empfangens von Verfolgungsdaten TDRT-1 aus der Aktualisierungs-Verarbeitungseinheit 36 auf. Eine vorherige assoziierte Zeit RT entsprechend einer vorherigen Zeit der aktuellen assoziierten Zeit RT, das heißt eine assoziierte Zeit RT-1, ist mit den Verfolgungsdaten TDRT-1 der Verfolgungsdaten TD assoziiert. Die Vorhersage-Verarbeitungseinheit 34 weist eine Funktion des Erzeugens von Vorhersagedaten TRRTpred der Verfolgungsdaten TDRT zur assoziierten Zeit RT auf, durch einen bekannten Algorithmus, auf Basis der Eigenfahrzeugdaten CDRT zur assoziierten Zeit RT und der Verfolgungsdaten TDRT-1 zur assoziierten Zeit RT-1. Ein bekannter Algorithmus ist der Kalman-Filter oder ein anderer Algorithmus, der aus beobachteten Werten einen Zentralpunkt in einem Objekt, das sich in Zeitreihe ändert, vorhersagen kann.
  • Das heißt, dass die Vorhersage-Verarbeitungseinheit 34 als eine Vorhersageposition PredP zum Objektmodell Cmodel1, das durch Modellieren des Verfolgungsziels erhalten wird, eine Position eines Bewegungsziels des Verfolgungsziels vorhersagt, basierend auf einem Bahnverlauf, der durch die Bewegung des zumindest einen Objekts einer Vielzahl von Objekten als Verfolgungsobjekt gebildet wird. Die Vorhersageposition PredP ist in den Vorhersagedaten TDRTpred enthalten. Die Vorhersageposition PredP ist eine Position eines Vorhersagepunkts Pred. Der Vorhersagepunkts Pred wird um das Objektmodell Objektmodell Cmodel1 als ein Zentrum eingestellt. Somit wird die Vorhersageposition PredP auf das Zentrum des Objektmodells Cmodel1 eingestellt.
  • Die Assoziierungs-Verarbeitungseinheit 35 weist eine Funktion des Empfangens der Detektionsdaten DDRT, der die Positionen HP der Kandidatenpunkte DPH enthaltenden Temporär-Einstelldaten DH und der Vorhersagedaten TDRTpred der Verfolgungsdaten TDRT auf. Die Assoziierungs-Verarbeitungseinheit 35 weist eine Funktion des Bestimmens, ob die Detektionsdaten TDRT und die Vorhersagedaten TDRTpred der Verfolgungsdaten TDRT-1 miteinander assoziieren oder nicht, auf. Ob die Detektionsdaten DDRT und die Vorhersagedaten TDRTpred der Verfolgungsdaten TDRT miteinander assoziieren oder nicht, wird durch Verwendung eines einfachen kleinsten Nachbarn (SNN, simple nearest neighbor)-Algorithmus, eines globalen nächsten Nachbarn (GNN, global nearest neighbor)-Algorithmus, eines Verbund-Wahrscheinlichkeitsdaten-Assoziierung-(JDPA, Hoint Probabilistic Data Association)-Algorithmus oder dergleichen bestimmt.
  • Das heißt, dass die Assoziierungs-Verarbeitungseinheit 35 eine Referenzposition BP des Objektmodells Cmodel1 der Position HP des Kandidatenpunkts DPH und der Vorhersageposition PredP identifiziert. Die Assoziierungs-Verarbeitungseinheit 35 stellt einen Assoziierungsbereich RA mit der Referenzposition BP auf dem Objektmodell Cmodel1 als eine Referenz auf. Die Assoziierungs-Verarbeitungseinheit 35 bestimmt, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren, basierend auf einer Positionsbeziehung zwischen dem Assoziierungsbereich RA und dem Detektionspunkt DP zu der Zeit, wenn der externe Informationssensor 1 zumindest ein Objekt der Vielzahl von Objekten detektiert hat.
  • Spezifisch wird, ob die Detektionsdaten DDRT und die Vorhersagedaten TDRTpred der Verfolgungsdaten TDRT miteinander assoziieren oder nicht, basierend darauf bestimmt, ob eine Mahalanobis-Distanz dm den Assoziierungsbereich RA übersteigt oder nicht. Die Mahalanobis-Distanz dm wird abgeleitet auf Basis der Position P des Detektionspunkts DP, der die in den Detektionsdaten DDRT und der in den Vorhersagedaten TDRTpred der Vorhersagedaten TDRT enthaltenen Vorhersagepositionen TDRTpredP bestimmt. Wenn die abgeleitete Mahalanobis-Distanz dm den Assoziierungsbereich RA nicht übersteigt, wird bestimmt, dass die Detektionsdaten TDRT und die Vorhersagedaten TDRTpred der Verfolgungsdaten TDRT miteinander assoziieren. Wenn die abgeleitete Mahalanobis-Distanz dm den Assoziierungsbereich RA übersteigt, wird bestimmt, dass die Detektionsdaten DDRT und die Vorhersagedaten TDRTpred der Verfolgungsdaten TDRT nicht miteinander assoziieren.
  • Das heißt, dass die Aktualisierungs-Verarbeitungseinheit 36 bestimmt, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht.
  • In dem oben beschriebenen Beispiel, als Index für den Vergleich mit dem Assoziierungsbereich RA werden die Mahalanobis-Distanz dm, die basierend auf der Position P des Detektionspunkts DP abgeleitet wird, und die Vorhersageposition PredP verwendet, aber die Konfiguration ist nicht auf dieses Beispiel beschränkt.
  • Wie oben beschrieben, wird der Assoziierungsbereich RA so eingestellt, dass der Assoziierungsbereich RA die Referenzposition BP als Referenz aufweist. Die Referenzposition BP wird auf Basis zu der Position HP des Kandidatenpunkts DPH und der Vorhersageposition PredP identifiziert. Somit assoziieren die Vorhersageposition PredP und die Referenzposition BP miteinander. Folglich kann die Mahalanobis-Distanz dm basierend auf der Position P des Detektionspunkts DP und der Referenzposition BP abgeleitet werden.
  • Darüber hinaus kann es sein, dass der Index für das Vergleichsergebnis mit dem Assoziierungsbereich RA nicht die Mahalanobis-Distanz dm ist. Eine Euklidische Distanz du eines Differenzvektors zwischen der Position P des Detektionspunkts DP und der Referenzposition BP kann verwendet werden. In diesem Fall kann, ob die Detektionsdaten DDRT und die Vorhersagedaten TDRTpred der Verfolgungsdaten TDRT miteinander assoziieren oder nicht, basierend darauf bestimmt werden, ob die Euklidische Distanz du den Assoziierungsbereich RA übersteigt oder nicht.
  • Das heißt, dass die Assoziierungs-Verarbeitungseinheit 35 bestimmt, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht, basierend darauf, ob die Euklidische Distanz du des Differenzvektors zwischen der Position P des Detektionspunkts DP und der Referenzposition BP oder die Mahalanobis-Distanz dm, abgeleitet basierend auf der Position P des Detektionspunkts DP und der Referenzposition BP den Assoziierungsbereich RA übersteigt oder nicht.
  • Der Assoziierungsbereich RA wird auf einen beobachtbaren Bereich des externen Informationssensors 1 eingestellt. Der beobachtbare Bereich des externen Informationssensors 1 ändert sich abhängig vom Typ des externen Informationssensors 1. Somit ändert sich der Assoziierungsbereich RA abhängig vom Typ des externen Informationssensors 1.
  • Die Assoziierungs-Verarbeitungseinheit 35 weist eine Funktion des Bestimmens auf, dass die Detektionsdaten DDRT und die Vorhersagedaten TDRTpred der Verfolgungsdaten TDRT einander entsprechen, wenn die Detektionsdaten TDRT und die Vorhersagedaten TDRTpred der Verfolgungsdaten TDRT miteinander assoziieren. Die Assoziierungs-Verarbeitungseinheit 35 weist eine Funktion des Erzeugens von Assoziierungsdaten RDRT auf, die ermittelt werden durch Integrieren, zusammen mit den sich auf die beobachtete Korrespondenz beziehenden Daten, der Detektionsdaten DDRT, der Temporär-Einstelldaten DH, welche die Positionen HP der Kandidatenpunkte DPH beinhalten, und der Vorhersagedaten TDRTpred der Verfolgungsdaten TDRT. Die Assoziierungsdaten RDRT werden erzeugt durch die Assoziierungs-Verarbeitungseinheit 35, so dass sie eine Datenkonfiguration aufweisen, die der Aktualisierungs-Verarbeitungseinheit 36 zugeführt werden kann.
  • Die Aktualisierungs-Verarbeitungseinheit 36 weist eine Funktion des Empfangens der Assoziierungsdaten RDRT auf. Die Aktualisierungs-Verarbeitungseinheit 36 weist eine Funktion des Aktualisierens der Verfolgungsdaten TDRT auf Basis der Position P des Detektionspunkts DP und der Positionen HP der Kandidatenpunkte DPH auf. Die Verfolgungsdaten TDRT werden spezifisch durch Verfolgungsverarbeitung wie etwa ein Verfahren kleinster Quadrate, ein Kalman-Filter und ein Partikelfilter aktualisiert.
  • Die Mitteilungs-Steuervorrichtung 4 weist eine Funktion des Empfangens der Verfolgungsdaten TDRT auf. Die Mitteilungs-Steuervorrichtung 4 weist eine Funktion des Erzeugens von Mitteilungsdaten auf Basis der Verfolgungsdaten TDRT auf. Die Mitteilungsdaten sind Daten zum Identifizieren mitzuteilender Inhalte und werden erzeugt, ein Format aufzuweisen, das einer Vorrichtung entspricht, die ein Ausgabeziel ist. Die Mitteilungs-Steuervorrichtung 4 gibt die Mitteilungsdaten an eine (nicht gezeigte) Anzeige aus, um dadurch die Anzeige zu veranlassen, die Inhalte der Mitteilungsdaten mitzuteilen. Folglich werden die Inhalte der Mitteilungsdaten visuell einem Fahrer im Innenraum mitgeteilt. Die Mitteilungs-Steuervorrichtung 4 gibt die Mitteilungsdaten an einen (nicht gezeigten) Lautsprecher aus, um dadurch den Lautsprecher zu veranlassen, die Inhalte der Mitteilungsdaten mitzuteilen. Folglich werden die Inhalte der Mitteilungsdaten dem Fahrer im Innenraum akustisch mitgeteilt.
  • Die Fahrzeugsteuervorrichtung 5 weist eine Funktion des Empfangens der Verfolgungsdaten TDRT, welche durch die Aktualisierungs-Verarbeitungseinheit 36 ausgegeben werden, auf. Die Fahrzeugsteuervorrichtung 5 weist eine Funktion des Steuerns des Betriebs des Eigenfahrzeugs auf Basis der Verfolgungsdaten TDRT auf. Die Fahrzeugsteuervorrichtung 5 steuert den Betrieb des Eigenfahrzeugs auf Basis der Verfolgungsdaten TDRT, so dass das Eigenfahrzeug Objekte vermeidet.
  • 2 ist ein Diagramm zum Illustrieren eines Beispiels von Relativ-Positionsbeziehungen zwischen dem Sender von 1 und Objekten.
  • Ein Punkt am Zentrum des externen Informationssensors 1 bei Sicht aus der Frontseite wird auf einen Ursprung O eingestellt. Eine Horizontalachse, welche den Ursprung O passiert und in einer Links-Rechts-Richtung ist, wird als Ys-Achse definiert. Auf der Ys-Achse wird eine rechte Richtung, wenn der Informationssensor 1 von der Frontseite aus betrachtet wird, als eine positive Richtung definiert. Eine vertikale Achse, welche den Ursprung O passiert und in der Auf-Ab-Richtung ist, wird als Zs-Achse definiert. Auf der Zs-Achse wird eine Richtung, wenn der externe Informationssensor 1 von der Frontseite betrachtet wird, als eine Positivrichtung definiert. Eine Achse, die den Ursprung O passiert und in einer Front-Rückrichtung orthogonal zur Ys-Achse und der Zs-Achse ist, wird als eine Xs-Achse definiert. Auf der Xs-Achse ist eine Frontrichtung des externen Informationssensors 1 als eine positive Richtung definiert.
  • Wie durch die unterbrochenen Linien von 2 angegeben, wird ein beobachtbarer Bereich des externen Informationssensors 1 in einer Vielzahl von virtuellen Auflösungszellen unterteilt. Die Auflösungszellen werden basierend auf der Auflösung des externen Informationssensors 1 identifiziert. Die Auflösungszellen werden ermittelt durch Dividieren des beobachtbaren Bereichs des externen Informationssensors 1 gemäß Winkelauflösung und der Distanzauflösung des externen Informationssensors 1. Wie oben beschrieben, variieren die Winkelauflösung und die Distanzauflösung des externen Informationssensors 1 abhängig von dem Messprinzip des externen Informationssensors 1.
  • Jede Auflösungszelle wird durch einen Minimal-Detektionsbereich MR(i, j) identifiziert. Der Wert „i“ identifiziert einen Ort der Auflösungszelle entlang einer Umfangsrichtung in Bezug auf den Ursprung O als einer Referenz. Der Wert „j“ identifiziert einen Ort der Auflösungszelle entlang einer Radialrichtung von konzentrischen Kreisen in Bezug auf den Ursprung O als einer Referenz. Somit variiert die Anzahl von „i's“ abhängig von der Winkelauflösung des externen Informationssensors 1. Folglich, mit steigender Winkelauflösung des externen Informationssensors 1, steigt die Maximalanzahl von „i's“ an. Derweil variiert die Anzahl von „j's“ abhängig von der Distanzauflösung des externen Informationssensors 1. Somit, mit steigender Distanzauflösung des externen Informationssensors 1, steigt die Maximalanzahl von „j's“ an. Hinsichtlich eines positiven Vorzeichens und negativen Vorzeichens von „i“ ist eine Uhrzeigersinn-Richtung in Bezug auf die Xs-Achse als eine Referenz als eine Positiv-Umfangsrichtung definiert. Eine Gegenuhrzeigersinn-Richtung in Bezug auf die Xs-Achse als Referenz ist definiert als eine Negativ-Umfangsrichtung.
  • Wenn der externe Informationssensor 1 ein Fahrzeug Ca detektiert, ist ein Detektionspunkt DP(Ca) in einem Minimal-Detektionsbereich MR(3, 3) enthalten. Der Minimal-Detektionsbereich MR(3, 3) wird so eingestellt, dass eine Größe, die nur eine Heck-Linksrichtung des Fahrzeugs Ca enthalten ist. Somit wird eine Positionsbeziehung zwischen der Position P des Detektionspunkts DP(Ca) und dem Fahrzeug Ca identifiziert und daher wird die Position P des Detektionspunkts DP(Ca) zum Fahrzeug Ca als hintere linke Seite des Fahrzeugs Ca identifiziert. Darüber hinaus ist der Detektionspunkt DP(Ca) im Minimal-Detektionsbereich MR(3, 3) enthalten und daher wird die Position P des Detektionspunkts DP(Ca) in Bezug auf den externen Informationssensor 1 als eine Position P des nächsten Punkts mit der kürzesten Distanz ab dem externen Informationssensors 1 zum Fahrzeug Ca identifiziert.
  • Wenn andererseits der externe Informationssensor 1 ein Fahrzeug Cb detektiert, ist der Detektionspunkt DP(Cb) in einem Minimal-Detektionsbereich MR(2, 7) beinhaltet. Wenn jene Minimal-Detektionsbereiche miteinander entlang der Radialrichtung der konzentrischen Kreise in Bezug auf den Ursprung O als einer Referenz verglichen werden, ist der Minimal-Detektionsbereich MR(2, 7) weiter weg vom Ursprung O als der Minimal-Detektionsbereich MR(3, 3). Wenn der Minimal-Detektionsbereich MR(i, j), das heißt die Auflösungszelle, weiter weg vom Ursprung O entlang der Radialrichtung der konzentrischen Kreise wird, sinkt die Winkelauflösung des externen Informationssensors 1. Somit ist die Winkelauflösung des externen Informationssensors 1 im Minimal-Detektionsbereich MR(2, 7) niedriger als die Winkelauflösung des externen Informationssensors 1 im Minimal-Detektionsbereich MR(3, 3).
  • Darüber hinaus wird der Minimal-Detektionsbereich MR(2, 7) auf eine solche Größe eingestellt, dass ein gesamter Heckbereich des Fahrzeugs Cb beinhaltet ist. Somit ist es nicht möglich, zu bestimmen, welche Position P des gesamten Heckbereich des Fahrzeugs Cb die Position P des Detektionspunkts DP(Cb) ist. Somit ist es nicht möglich, eine Positionsbeziehung zwischen der Position P des Detektionspunkts DP(Cb) und dem Fahrzeug Cb zu identifizieren. Folglich kann die Position P des Detektionspunkts DP(Cb) auf dem Fahrzeug Cb nicht identifiziert werden.
  • Nunmehr wird eine Beschreibung der Verarbeitung des Identifizierens der Position P des Detektionspunkts DP(Ca) an dem Fahrzeug Ca und der Position P des Detektionspunkts DP(Cb) auf dem Fahrzeug Cb gegeben.
  • 3 ist ein Diagramm zum Illustrieren eines Beispiels eines Kandidatenpunkts DPH(1), der ein erster Kandidat einer Position P eines Detektionspunkts DP(Ca) im Fahrzeug Ca von 2 ist. Wenn der externe Informationssensor 1 das Fahrzeug Ca als ein Objekt detektiert, wird der Detektionspunkt DP(Ca) im Minimal-Detektionsbereich MR(3, 3) beinhaltet. Der Minimal-Detektionsbereich MR(3, 3) wird auf eine solche Größe eingestellt, dass nur die hintere linke Seite des Fahrzeugs Ca enthalten ist. Somit, wie oben beschrieben, wird als die Position P des Detektionspunkts DP(Ca) auf dem Fahrzeug Ca der nächste Punkt abgeschätzt.
  • Wenn der nächste Punkt als die Position P des Detektionspunkts DP(Ca) im Fahrzeug Ca abgeschätzt wird, ist die Position HP des Kandidatenpunkts DPH(1) ein erster Kandidat der Position P des Detektionspunkts DP(Ca) im Fahrzeug Ca.
  • Mit anderen Worten ist im Beispiel von 3 die Position HP des Kandidatenpunkts DPH(1) der erste Kandidat der Position P des Detektionspunkts DP(Ca) am Fahrzeug Ca.
  • 4 ist ein Diagramm zum Illustrieren eines Beispiels eines Kandidatenpunkts DPH(2), der ein zweiter Kandidat der Position P des Detektionspunkts DP(Cb) im Fahrzeug Cb von 4 ist. Wenn der externe Informationssensor 1 das Fahrzeug Cb als ein Objekt detektiert, wird der Detektionspunkt DP(Ca) in dem Minimal-Detektionsbereich MR(2, 7) enthalten. Der Minimal-Detektionsbereich MR(2, 7) wird auf eine solche Größe eingestellt, dass der gesamte Heckbereich des Fahrzeugs Cb enthalten ist. Somit, wie oben beschrieben, ist es nicht möglich zu bestimmen, welche Position P des gesamten Heckbereichs des Fahrzeugs Cb die Position P des Detektionspunkts DP(Cb) ist. Wenn es nicht möglich ist, zu bestimmen, welche Position P des Gesamtheckbereichs des Fahrzeugs Cb die Position P des Detektionspunkts DP(Cb) ist, ist eine Position HP des Kandidatenpunkts DPH(2) der zweite Kandidat der Position P des Detektionspunkts DP(Cb) im Fahrzeug Cb. Die Position HP des Kandidatenpunkts DPH(2) wird als ein Rückoberflächen-Zentrumspunkt im nahen Bereich des Fahrzeugs Cb abgeschätzt. Der Rückoberflächen-Zentrumspunkt ist ein Punkt am Zentrum, der beobachtet wird, wenn der Rückbereich des Fahrzeugs Cb von der Frontseite betrachtet wird.
  • Mit anderen Worten ist im Beispiel von 4 die Position HP des Kandidatenpunkts DPH(2) der zweite Kandidat der Position P des Detektionspunkts DP(Cb) im Fahrzeug Cb.
  • 5 ist ein Diagramm zum Illustrieren eines Beispiels des Kandidatenpunkts DPH(3), der ein anderer Kandidat der Position P des Detektionspunkts DP(Cc) des Fahrzeugs Cc ist. Wenn der externe Informationssensor 1 das Fahrzeug Cd als ein Objekt detektiert, ist der Detektionspunkt DP(Cc) in dem Minimal-Detektionsbereich MR(-1, 7) enthalten. Beispielsweise ist der Minimal-Detektionsbereich MR(-1, 7) weiter weg vom Ursprung O als ein Minimal-Detektionsbereich MR(-1, 3). Somit ist die Winkelauflösung des externen Informationssensors 1 im Minimal-Detektionsbereich MR(-1, 7) niedriger als die Winkelauflösung des externen Informationssensors 1 im Minimal-Detektionsbereich MR(-1, 3).
  • Spezifisch wird der Minimal-Detektionsbereich MR(-1, 7) auf eine solche Größe eingestellt, dass ein gesamter Frontbereich des Fahrzeugs Cc enthalten ist. Somit ist es nicht möglich, zu bestimmen, welche Position P des gesamten Frontbereich des Fahrzeugs Cc die Position P des Detektionspunkts DP(Cc) ist. Wenn es nicht möglich ist, zu bestimmen, welche Position P des gesamten Frontbereichs des Fahrzeugs Cc die Position P des Detektionspunkts DP(Cc) ist, ist eine Position HP eines Kandidatenpunkts DPH(3) ein anderer Kandidat der Position P des Detektionspunkts DP(Cc) am Fahrzeug Cc. Die Position HP des Kandidatenpunkts DPH(3) wird als ein Frontoberflächen-Zentrumspunkt im Frontbereich des Fahrzeugs Cc abgeschätzt. Der Frontoberflächen-Zentrumspunkt ist ein Punkt am Zentrum, der beobachtet wird, wenn der Frontbereich des Fahrzeugs Cc von der Frontseite aus betrachtet wird.
  • Mit anderen Worten ist im Beispiel von 5 die Position HP des Kandidatenpunkts DPH(3) ein anderer Kandidat der Position P des Detektionspunkts DP(Cc) am Fahrzeug Cd.
  • Bezug nehmend auf 3 und 4, wenn der externe Informationssensor 1 ein Millimeterwellenradar zum Überwachen der Frontseite des Eigenfahrzeugs ist, ist die Position HP des Kandidatenpunkts DPH(1) ein Kandidat der Position P des Detektionspunkts DP(Ca) am Fahrzeug Ca. Darüber hinaus ist die Position HP des Kandidatenpunkts DPH(2) ein Kandidat der Position P des Detektionspunkts DP(Cb) am Fahrzeug Cb.
  • Darüber hinaus, Bezug nehmend auf 4, wenn der externe Informationssensor 1 eine Kamera zum Überwachen der Frontseite des Eigenfahrzeugs ist, ist die Position HP des Kandidatenpunkts DPH(2) der Kandidat der Position P des Detektionspunkts DP(Cb) am Fahrzeug Cb.
  • Bezug nehmend auf 3 und 5, wenn der externe Informationssensor 1 ein Millimeterwellenradar zum überwachen der Rückseite des Eigenfahrzeugs ist, ist die Position HP des Kandidatenpunkts DPH(1) der Kandidat der Position P des Detektionspunkts DP(Ca) am Fahrzeug Ca. darüber hinaus ist die Greifposition HP des Kandidatenpunkts DPH (3) ein Kandidat der Position P des Detektionspunkts DP(Cc) am Fahrzeug Cc.
  • Wie oben beschrieben, wenn es eine Vielzahl von Kandidatenpunkten DPH der Position P des Detektionspunkts DP gibt, ist es nicht möglich, die jeweiligen Positionen P des Detektionspunkts DP(Ca) am Fahrzeug Ca, den Detektionspunkt DP(Cb) am Fahrzeug Cb und den Detektionspunkt DP(Cc) am Fahrzeug Cc zu identifizieren.
  • Nunmehr wird eine Beschreibung des Verarbeitens durch Verwendung eines Kandidatenpunkts DPH einer Vielzahl von Kandidatenpunkten DPH(N) gegeben. In der nachfolgenden Beschreibung, wenn auf das Fahrzeug Ca, das Fahrzeug Cb und das Fahrzeug Cc kollektiv Bezug genommen wird, werden jene Fahrzeuge als „Fahrzeug C“ bezeichnet. Weiter, wenn auf den Detektionspunkt DP(Ca), den Detektionspunkt DP(Cb) und den Detektionspunkt DP(Cc) kollektiv Bezug genommen wird, werden jene Detektionspunkte als „Detektionspunkt DP(C)“ bezeichnet.
  • 6 ist ein Graph zum Zeigen eines Einstellbeispiels einer Zuverlässigkeit DOR(N) des Kandidatenpunkts DPH(N) von 3 bis 5, wobei N eine natürliche Zahl ist. Im Beispiel von 6 wird eine Realzahl von 0 oder mehr und 1 oder weniger auf die Zuverlässigkeit DOR(N) eingestellt. Wie oben beschrieben, wenn der externe Informationssensor 1 ein Millimeterwellenradar zum überwachen der Frontseite des Eigenfahrzeugs ist, sind der Kandidatenpunkt DPH(1) und der Kandidatenpunkt DPH(2) die Kandidaten des Detektionspunkts DP© am Fahrzeug C.
  • Somit werden eine Zuverlässigkeit DOR(1) für den Kandidatenpunkt DPH(1) und eine Zuverlässigkeit DOR(2) für den Kandidatenpunkt DPH(2) miteinander verglichen und wird nachfolgend entweder der Kandidatenpunkt DPH(1) oder der Kandidatenpunkt DPH(2) ausgewählt und wird als der Kandidat der Position P des Detektionspunkts DP(C) am Fahrzeug C eingestellt. Folglich wird entweder der Kandidatenpunkt DPH(1) oder der Kandidatenpunkt DPH(2) verwendet.
  • Spezifisch, wie oben beschrieben, wenn die Auflösungszelle weiter weg vom Ursprung O entlang der Radialrichtung der konzentrischen Kreise geht, sinkt die Winkelauflösung des externen Informationssensors 1. Mit anderen Worten, wenn die Auflösungszelle näher an den Ursprung O längs der Radialrichtung der konzentrischen Kreise gelangt, steigt die Winkelauflösung des externen Informationssensors 1 an.
  • Somit, wenn die Distanz ab dem externen Informationssensor 1 bis zum Detektionspunkt DP(C) kurz ist, wird der Heckbereich des Fahrzeugs C nicht in der Auflösungszelle eingebettet. Entsprechend, wenn die Distanz ab dem externen Informationssensor 1 bis zum Detektionspunkt DP(C) kurz ist, ist die Zuverlässigkeit DOR hoch.
  • Mit anderen Worten wird die Zuverlässigkeit DOR des Kandidatenpunkts DPH basierend auf der Distanz von externem Informationssensor 1 bis zur Position P des Detektionspunkts DP bestimmt. Darüber hinaus wird die Zuverlässigkeit DOR des Kandidatenpunkts DPH basierend auf der Distanz aus dem externen Informationssensor 1 bis zur Referenzposition BP bestimmt. Das heißt, dass die Assoziierungs-Verarbeitungseinheit 35 jede Zuverlässigkeit DOR auf Basis der Distanz vom externen Informationssensor 1 zu entweder der Position P des Detektionspunkts DP oder der Referenzposition BP ermittelt.
  • Somit, wenn die Distanz vom externen Informationssensor 1 bis zum Kandidatenpunkt DPH(C) kürzer als eine Bestimmungsschwellenwert-Distanz DTH1 von 6 ist, wird die Zuverlässigkeit DOR(1) für den Kandidatenpunkt DPH(1) auf 1 eingestellt und wird die Zuverlässigkeit DOR(2) für den Kandidatenpunkt DPH(2) auf 0 eingestellt. In diesem Fall ist die Zuverlässigkeit DOR(1) höher bei der Zuverlässigkeit DOR als die Zuverlässigkeit DOR(2) und wird somit die Zuverlässigkeit DOR(1) ausgewählt. Wenn die Zuverlässigkeit DOR(1) ausgewählt und eingestellt wird, wird der Kandidatenpunkt DPH(1) entsprechend der Zuverlässigkeit DOR(1) verwendet. Die Position HP des Kandidatenpunkts DPH(1) am Fahrzeug C ist die Position P des engsten Punkts am Fahrzeug C.
  • Somit wird die Position P des Detektionspunkts DP(C) am Fahrzeug C angenommen, die Position P des nächsten Punkts am Fahrzeug C zu sein, basierend auf der Position HP des verwendeten Kandidatenpunkts DPH(1).
  • Mit anderen Worten, wenn die Distanz ab dem externen Informationssensor 1 bis zum Detektionspunkt DP(C) kürzer als die Bestimmungs-Schwellenwertdistanz DTH1 von 6 ist, wird die Position HP des Kandidatenpunkts DPH(1) der Vielzahl von Kandidatenpunkten DPH(N) als der Kandidat der Position P des Detektionspunkts DP(C) am Fahrzeug C ausgewählt. Folglich wird angenommen, dass die Position P des Detektionspunkts DP(C) am Fahrzeug C die Position P des nächsten Punkts des auf dem Fahrzeug C ist.
  • Andererseits, wenn die Distanz ab dem externen Informationssensor 1 bis zum Detektionspunkt DP(C) lang ist, wird der Heckbereich des Fahrzeugs C in die Auflösungszelle eingebettet. Somit, wenn die Distanz vom externen Informationssensor 1 bis zum Detektionspunkt DP(C) lang ist, ist die Zuverlässigkeit DOR niedrig.
  • Somit, wenn die Distanz vom externen Informationssensor 1 bis zum Kandidatenpunkt DP(C) gleich oder länger als eine Bestimmungs-Schwellenwertdistanz DTH2 von 6 ist, wird die Zuverlässigkeit DOR(1) für den Kandidatenpunkt DPH(1) auf Null eingestellt und wird die Zuverlässigkeit DOR(2) für den Kandidatenpunkt DPH(2) auf 1 eingestellt. In diesem Fall ist die Zuverlässigkeit DOR(2) von höherer Zuverlässigkeit DOR als die Zuverlässigkeit DOR(1) und wird somit die Zuverlässigkeit DOR(2) ausgewählt. Wenn die Zuverlässigkeit DOR(2) ausgewählt und eingestellt wird, wird der Kandidatenpunkt DPH(2) entsprechend der Zuverlässigkeit DOR(2) verwendet. Die Position HP des Kandidatenpunkts DPH(2) am Fahrzeug C ist die Position P des Rückoberflächen-Zentrumspunkts am Kondensator C.
  • Somit wird angenommen, dass die Position P des Detektionspunkts DP(C) am Fahrzeug C die Position P des Rückoberflächen-Zentrumspunkts auf dem Kondensator C sind, basierend auf der Position HP des verwendeten Kandidatenpunkt DPH(2) .
  • Mit anderen Worten, wenn die Distanz vom externen Informationssensor 1 zum Detektionspunkt DP(C) gleich oder länger als die Bestimmungs-Schwellenwertdistanz DTH2 von 6 wird, wird die Position HP des Kandidatenpunkts DPH(2) der Vielzahl von Kandidatenpunkten DPH(N) als der Kandidat der Position P des Detektionspunkts DP(C) am Fahrzeug C ausgewählt. Folglich wird angenommen, dass die Position P des Detektionspunkts DP(C) am Fahrzeug C die Position P des Heck-Oberflächenzentrumpunkts am Fahrzeug C ist.
  • Wie oben beschrieben, verwendet die Assoziierungs-Verarbeitungseinheit 35 einen Kandidatenpunkt DPH(N) mit der höchsten Zuverlässigkeit DOR(N) der Positionen HP der Vielzahl von Kandidatenpunkten DPH(N) am Fahrzeug C.
  • Die Bestimmungs-Schwellenwertdistanz DTH(1) von 6 wird auf eine Distanz eingestellt, welche den Minimal-Detektionsbereich MR(3) von 3 oder 5 der Distanz vom Ursprung O längs der Radialrichtung der konzentrischen Kreise beinhaltet. Das heißt, dass die Bestimmungs-Schwellenwert-Distanz DTH1 von 6 auf eine Distanz eingestellt wird, die den Minimal-Detektionsbereich MR(i, 3) von 3, 4 und 5 der Distanz zwischen dem Ursprung O längs der Radialrichtung der konzentrischen Kreise beinhaltet.
  • Andererseits wird die Bestimmungs-Schwellenwert-Distanz DTH2 von 6 eingestellt auf, von der Distanz vom Ursprung O längs der Radialrichtung der konzentrischen Kreise, eine Distanz, die den Minimal-Detektionsbereich MR(2, 7) von 4 beinhaltet. Das heißt, dass die Bestimmungs-Schwellenwert-Distanz DTH2 von 6 eingestellt wird auf, von der Distanz ab dem Ursprung O entlang der Radialrichtung der konzentrischen Kreise, eine Distanz, welche den Minimal-Detektionsbereich MR(i, 7) von 3, 4 und 5 beinhaltet.
  • Mit anderen Worten wird die Schwellenwert-Distanz DTH2 auf eine Distanz weiter weg vom Ursprung O als die Bestimmungs-Schwellenwert-Distanz DTH1 eingestellt.
  • Spezifisch wird die Zuverlässigkeit DOR(1) auf 1 eingestellt, wenn die Distanz kürzer als die Bestimmungs-Schwellenwert-Distanz DTH1 ist. Die Zuverlässigkeit DOR(1) startet das Senken, wenn das Distanzsignal gleich oder länger als die Bestimmungs-Schwellenwert-Distanz DTH1 wird. Die Zuverlässigkeit DOR(1) wird auf 0 eingestellt, wenn die Distanz gleich oder länger als die Bestimmungs-Schwellenwert-Distanz DTH2 wird.
  • Andererseits wird die Zuverlässigkeit DOR(2) auf 0 eingestellt, wenn die Distanz kürzer als die Bestimmungs-Schwellenwert-Distanz DTH1 ist. Die Zuverlässigkeit DOR(2) startet, zu steigen, wenn die Distanz gleich oder länger als die Bestimmungs-Schwellenwert-Distanz DTH1 wird. Die Zuverlässigkeit DOR(2) wird auf 1 eingestellt, wenn die Distanz gleich oder länger als die Bestimmungs-Schwellenwert-Distanz DTH2 wird.
  • Wie oben beschrieben, werden die Zuverlässigkeit DOR(1) und die Zuverlässigkeit DOR(2) so eingestellt, dass Tendenzen entgegengesetzt zueinander angegeben werden, wenn die Distanz kürzer als die Bestimmungs-Schwellenwert-Distanz DTH1 ist und wenn die Distanz gleich oder länger als die Bestimmungs-Schwellenwert-Distanz DTH2 ist.
  • Sowohl die Zuverlässigkeit DOR(1) als auch die Zuverlässigkeit DOR(2) zu der Zeit, wenn die Distanz gleich oder länger als die Bestimmungs-Schwellenwert-Distanz DTH1 ist und kürzer als die Bestimmungs-Schwellenwert-Distanz DTH2 ist, wird basierend auf einem Verhältnis zwischen der Distanzauflösung und der Winkelauflösung des externen Informationssensors 1 bestimmt.
  • 7 ist ein Diagramm zum Illustrieren eines Beispiels der Vorhersagedaten TDRTpred von 1.
  • Die Vorhersagedaten TDRTpred beinhalten vier Teile von Daten, nämlich die Vorhersageposition PredP des Vorhersagepunkts Pred im Objektmodell Cmodel1, ermittelt durch Modellieren, als Verfolgungsziel, des ein Objekt seienden Fahrzeugs C, einer Geschwindigkeit PredV des Vorhersagepunkts Pred und einer Breite W und einer Länge L des Objektmodells Cmodel1.
  • Von der vier Datenteilen der Vorhersageposition PredP des Vorhersagepunkts Pred des Objektmodells Cmodel1 sind die Geschwindigkeit PredV des Vorhersagepunkts Pred und die Breite W und die Länge L des Objektmodells Cmodel1 drei Teile von Daten der Geschwindigkeit PredV des Vorhersagepunkts Pred und die Breite W und die Länge L des Objektmodells Cmodel1 Objektinformations-Elemente.
  • Das Objektinformations-Element identifiziert den Zustand oder/und die Größe des Objektmodells Cmodel1.
  • Der Vorhersagepunkt Pred im Objektmodells Cmodel1 wird auf einen Zentrumspunkt des Objektmodells Cmodel1 eingestellt. Somit ist die Vorhersageposition PredP des Vorhersagepunkts Pred am Zentrum der Objektmodells Cmodel1.
  • Die Vorhersageposition PredP des Vorhersagepunkts Pred im Objektmodells Cmodel1 und die Geschwindigkeit PredV des Vorhersagepunkts Pred gibt Zustände des durch ein Millimeterwellenradar oder einen LIDAR-Sensor beobachtbaren Objekts an. Die Breite W und die Länge L des Objektmodells Cmodel1 geben die Größe des Objekts, das durch eine Kammer beobachtbar ist, an.
  • Somit sind die Vorhersagedaten TDRTpred Daten, welche durch Integrieren der Beobachtungsergebnisse der Vielzahl von unterschiedlichen Typen von externen Informationssensoren 1 gebildet werden. Beispielsweise sind die Vorhersagedaten TDRTpred als Vektordaten wie etwa TDRTpred (PredP, PredV, L, W) konfiguriert.
  • 8 ist ein Diagramm zum Illustrieren eines Beispiels der Referenzposition BP, welche basierend auf der Vorhersageposition PredP der Vorhersagedaten TDRTpred von 7 und dem Kandidatenpunkt DPH(1) identifiziert wird.
  • Wie oben beschrieben, ist die Vorhersageposition PredP die Position des Vorhersagepunkts Pred. Der Vorhersagepunkts Pred wird auf den Zentrumspunkt im Objektmodell Cmodel1 eingestellt. Darüber hinaus ist die Position HP des Kandidatenpunkts DPH(1) die Position des nächsten Punkts am Objektmodell Cmodel1.
  • Darüber hinaus, wie oben beschrieben, beinhalten die Vorhersagedaten TDRTpred vier Teile von Daten der Vorhersageposition PredP des Vorhersagepunkts Pred im Objektmodells Cmodel1, der Geschwindigkeit PredV des Vorhersagepunkts Pred und der Breite W und der Länge L des Objektmodells Cmodel1.
  • Wenn der Kandidatenpunkt DPH(1) als der Kandidatenpunkt DPH(N) mit der höchsten Zuverlässigkeit DOR(N) verwendet wird, wird der nächste Punkt auf dem Objektmodell Cmodel1 als der Kandidatenpunkt DPH adoptiert. Die Position des nächsten Punkts ist identifiziert als die Referenzposition BP des Referenzpunkts B.
  • Somit wird auf die Referenzposition BP auf dem Objektmodell Cmodel1 in der Ys-Achsenrichtung eine durch Addieren von 1/2 der Breite W der Vorhersageposition PredP ermittelte Position eingestellt. Darüber hinaus wird auf die Referenzposition BP auf dem Objektmodell Cmodel1 in der Xs-Achsenrichtung eine durch Subtrahieren von 1/2 der Länge L von der Vorhersageposition PredP ermittelte Position eingestellt.
  • Das heißt, dass die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP auf dem Objektmodells Cmodel1 auf Basis eines Objekt-Identifikationselements identifiziert, dass den Zustand und/oder die Größe des Objektmodells Cmodel1 identifiziert.
  • Spezifisch, wenn die Assoziierungs-Verarbeitungseinheit 35 erfolgreich als ein Objekt-Identifikationselement aus dem externen Informationssensor 1 die Breite W oder/und die Länge L des Objektmodells Cmodel1 erfasst hat, hat die Assoziierungs-Verarbeitungseinheit 35 das Objekt-Identifikationselement zusätzlich zur Vorhersageposition PredP und dem Kandidatenpunkt DPH erfolgreich erfasst.
  • In diesem Fall identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Assoziierungsbereichs RA zur aktuellen assoziierten Zeit RT auf Basis der Vorhersageposition PredP, dem Kandidatenpunkt DPH und dem erfassten Objekt-Identifikationselement.
  • Wenn die Assoziierungs-Verarbeitungseinheit 35 nicht als ein Objekt-Identifikationselement aus dem externen Informationssensor 1 die Breite W oder/und die Länge L des Objektmodells Cmodell erfolgreich erfasst hat, hat die Assoziierungs-Verarbeitungseinheit 35 die Vorhersageposition PredP und den Kandidatenpunkt DPH erfolgreich erfasst, hat aber nicht das Objekt-Identifikationselement erfolgreich erfasst. In diesem Fall identifiziert die Assoziierungs-Verarbeitungseinheit 35 einen Einstellwert, der dem Objekt-Identifikationselement entspricht, das nicht aus dem externen Informationssensor 1 erfasst werden kann, von den Einstellwerten, die vorab individuell korrespondierend mit der Breite W und der Länge L des Objektmodells Cmodell eingestellt sind.
  • Die Assoziierungs-Verarbeitungseinheit 35 identifiziert den Wert des Objekt-Identifikationselements, das nicht aus dem externen Informationssensor 1 erfasst werden kann, basierend auf dem identifizierten Einstellwert. Das heißt, dass die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Assoziierungsbereichs RA zur aktuellen assoziierten Zeit RT auf Basis der Vorhersageposition PredP, dem Kandidatenpunkt DPH(1) und dem Einstellwert identifiziert.
  • Es gibt auch einen Fall, in welchem die Assoziierungs-Verarbeitungseinheit 35 als ein Objekt-Identifikationselement die Breite W und/oder die Länge L des Objektmodells Cmodell nicht aus dem externen Informationssensor 1 erfassen kann, und die jeweiligen Einstellwerte nicht individuell korrespondieren mit der Breite W und der Länge L des Objektmodells Cmodel1 eingestellt werden.
  • In diesem Fall identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Assoziierungsbereichs RA zur aktuell assoziierten Zeit RT auf Basis der Vorhersageposition PredP und des Kandidatenpunkts DPH. Spezifisch identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Assoziierungsbereichs RA zur aktuellen assoziierten Zeit RT auf Basis des Differenzvektors zwischen der Vorhersageposition PredP und dem Kandidatenpunkt DPH.
  • Es wird nunmehr eine Beschreibung eines Falls gegeben, in welchem zumindest eines von der Breite W, der Länge L und der Richtung θ des Objektmodells Cmodel1 in Objekt-Identifikationselementen enthalten ist.
  • Darüber hinaus, wenn die Assoziierungs-Verarbeitungseinheit 35, als ein Objekt-Identifikationselement aus dem externen Informationssensor 1, die Breite W, die Länge L oder/und die Richtung θ des Objektmodells Cmodel1 erfolgreich erfasst hat, identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Assoziierungsbereichs RA zur aktuellen assoziierten Zeit RT auf Basis der Vorhersageposition PredP, dem Kandidatenpunkt DPH und dem erfassten Objekt-Identifikationselement.
  • Wenn die Assoziierungs-Verarbeitungseinheit 35 als ein Objekt-Identifikationselement aus dem externen Informationssensor 1 die Breite W, die Länge L oder/und die Richtung θ des Objektmodells Cmodel1 nicht erfolgreich erfasst hat, hat die Assoziierungs-Verarbeitungseinheit 35 die Vorhersageposition PredP und den Kandidatenpunkt DPH erfolgreich erfasst, hat aber das Objekt-Identifikationselement nicht erfolgreich erfasst.
  • In diesem Fall identifiziert die Assoziierungs-Verarbeitungseinheit 35 einen Einstellwert, der dem Objekt-Identifikationselement, das nicht aus dem externen Informationssensor 1 erfasst werden kann, entspricht, aus den Einstellwerten, die vorab individuell korrespondierend mit der Breite W, der Länge L oder der Richtung θ des Objektmodells Cmodel1 eingestellt sind.
  • Die Assoziierungs-Verarbeitungseinheit 35 identifiziert den Wert des Objekt-Identifikationselements, das nicht aus dem externen Informationssensor 1 erfasst werden kann, basierend auf dem identifizierten Einstellwert. Das heißt, dass die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Assoziierungsbereichs RA zur aktuellen assoziierten Zeit RT auf Basis der Vorhersageposition PredP, dem Kandidatenpunkt DPH und dem Einstellwert identifiziert.
  • Es gibt auch einen Fall, bei dem die Assoziierungs-Verarbeitungseinheit 35 als ein Objekt-Identifikationselement nicht die Breite W, die Länge L oder/und die Richtung θ des Objektmodells Cmodel1 aus dem externen Informationssensor 1 erfassen kann, und die entsprechenden Einstellwerte nicht individuell entsprechend der Breite W, der Länge L und der Richtung θ des Objektmodells Cmodel1 eingestellt werden.
  • Die Assoziierungs-Verarbeitungseinheit 35 identifiziert den Wert des Objekt-Identifikationselements, das nicht aus dem externen Informationssensor 1 erfasst werden kann, auf Basis des identifizierten Einstellwerts. das heißt, dass die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Assoziierungsbereichs RA bei der aktuellen assoziierten Zeit RT identifiziert, basierend auf Vorhersageposition PredP, dem Kandidatenpunkt DPH und dem Einstellwert.
  • Es gibt auch einen Fall, bei dem die Assoziierungs-Verarbeitungseinheit 35 als ein Objekt-Identifikationselement die Breite W, die Länge L oder/und die Richtung θ des Objektmodells Cmodel1 nicht aus dem externen Informationssensor 1 erfassen kann, und die entsprechenden Einstellwerte nicht individuell korrespondierend mit der Breite W, der Länge L und der Richtung θ des Objektmodells Cmodel1 eingestellt werden.
  • In diesem Fall identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Assoziierungsbereichs RA zur aktuellen assoziierten Zeit RT auf Basis der Vorhersageposition PredP und dem Kandidatenpunkt DPH(1). Spezifisch identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Assoziierungsbereichs RA zur aktuellen assoziierten Zeit RT auf Basis des Differenzvektors zwischen der Vorhersageposition PredP und dem Kandidatenpunkt DPH. Es wird nun eine Beschreibung des Falls gegeben, bei dem die Breite W, die Länge L, die Richtung θ und/oder die Höhe H des Objektmodells Cmodel1 in Objekt-Identifikationselementen enthalten ist.
  • Wenn die Assoziierungs-Verarbeitungseinheit 35 nicht, als ein Objekt-Identifikationselement aus dem externen Informationssensor 1 die die Breite W, die Länge L, die Richtung θ und/oder die Höhe H des Objektmodells Cmodel1 erfolgreich erfasst hat, hat die Assoziierungs-Verarbeitungseinheit 35 die Vorhersageposition PredP und den Kandidatenpunkt DPH erfolgreich erfasst, hat aber das Objekt-Identifikationselement nicht erfolgreich erfasst.
  • In diesem Fall identifiziert die Assoziierungs-Verarbeitungseinheit 35 einen Einstellwert, der dem Objekt-Identifikationselement entspricht, das nicht aus dem externen Informationssensor 1 erfasst werden kann, von den Einstellwerten, die vorab individuell korrespondierend mit der Breite W, der Länge L, der Richtung θ und der Höhe H des Objektmodells Cmodel1 eingestellt sind.
  • Die Assoziierungs-Verarbeitungseinheit 35 identifiziert den Wert des Objekt-Identifikationselements, das nicht aus dem externen Informationssensor 1 erfasst werden kann, auf Basis des identifizierten Einstellwerts. Das heißt, dass die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Assoziierungsbereichs RA zur aktuellen assoziierten Zeit RT auf Basis der Vorhersageposition PredP, des Kandidatenpunkts DPH und des Einstellwerts identifiziert.
  • Es gibt auch einen Fall, bei dem die Assoziierungs-Verarbeitungseinheit 35 als ein Objekt-Identifikationselement die Breite W, die Länge L, die Richtung θ und die Höhe H des Objektmodells Cmodel1 aus dem externen Informationssensor 1 nicht erfassen kann und die entsprechenden Einstellwerte nicht individuell entsprechend der Breite W, der Länge L, der Richtung θ und der Höhe H des Objektmodells Cmodel1 eingestellt werden.
  • In diesem Fall identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Assoziierungsbereichs RA zur aktuellen assoziierten Zeit RT auf Basis der Vorhersageposition PredP und dem Kandidatenpunkt DPH. Spezifisch identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Assoziierungsbereichs RA zur aktuellen assoziierten Zeit RT auf Basis des Differenzvektors zwischen der Vorhersageposition PredP und dem Kandidatenpunkt DPH.
  • Es wird nunmehr eine Beschreibung des Falls gegeben, bei dem die Breite W, die Länge L, die Richtung θ, eine Position eines oberen Endes ZH und/oder einer Position eines unteren Endes ZL des Objektmodells Cmodel1 in Objekt-Identifikationselementen beinhaltet ist.
  • Wenn die Assoziierungs-Verarbeitungseinheit 35 als ein Objekt-Identifikationselement aus dem externen Informationssensor 1 die Breite W, die Länge L, die Richtung θ, die Position des oberen Endes ZH und/oder die Position des unteren Endes ZL des Objektmodells Cmodel1 nicht erfolgreich erfasst hat, hat die Assoziierungs-Verarbeitungseinheit 35 die Vorhersageposition PredP und den Kandidatenpunkt DPH erfolgreich erfasst, hat aber das Objekt-Identifikationselement nicht erfolgreich erfasst.
  • In diesem Fall identifiziert die Assoziierungs-Verarbeitungseinheit 35 einen Einstellwert, der dem Objekt-Identifikationselement entspricht, das nicht aus dem externen Informationssensor 1 erfasst werden kann, von den Einstellwerten, die vorab individuell entsprechend der Breite W, der Länge L, der Richtung θ, der Position des oberen Endes ZH und der Position der unteren Endes ZL des Objektmodells Cmodel1 eingestellt werden.
  • Die Assoziierungs-Verarbeitungseinheit 35 identifiziert den Wert des Objekt-Identifikationselements, das nicht aus dem externen Informationssensor 1 auf Basis des identifizierten Einstellwerts erfasst werden kann. Das heißt, dass die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Assoziierungsbereichs RA zur aktuellen assoziierten Zeit RT auf Basis der Vorhersageposition PredP, der Kandidatenpunkt DPH und dem Einstellwert identifiziert.
  • Es gibt auch einen Fall, in welchem die Assoziierungs-Verarbeitungseinheit 35, als ein Objekt-Identifikationselement, die Breite W, die Länge L, die Richtung θ, die Position des oberen Endes ZH oder/und die Position des unteren Endes ZL des Objektmodells Cmodel1 aus dem externen Informationssensor 1 nicht erfassen kann und die entsprechenden Einstellwerte nicht individuell entsprechend der Breite W, der Länge L, der Richtung θ, der Position des oberen Endes ZH und der Position des unteren Endes ZL des Objektmodells Cmodel1 nicht individuell eingestellt werden.
  • In diesem Fall identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Assoziierungsbereichs RA zur aktuellen assoziierten Zeit RT auf Basis der Vorhersageposition PredP und dem Kandidatenpunkt DPH. Spezifisch identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Assoziierungsbereichs RA zur aktuell assoziierten Zeit RT auf Basis des Differenzvektors zwischen der Vorhersageposition PredP und der Kandidatenpunkt DPH.
  • Es ist die Beschreibung des Falls gegeben worden, in welchem der Kandidatenpunkt DPH(1) als der Kandidatenpunkt DPH(N) mit der höchsten Zuverlässigkeit DOR(N) verwendet wird. Jedoch kann es sein, dass nicht die Position HP des Kandidatenpunkts DPH(N) mit der höchsten Zuverlässigkeit DOR(N) verwendet wird, sondern eine Position HP eines Kandidatenpunkts DPH(N), welcher durch gewichtetes Mitteln durch die Zuverlässigkeit DOR(N) für jede der Positionen P der Vielzahl von Kandidatenpunkten DPH(N) berechnet wird.
  • Spezifisch identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP auf dem Objektmodells Cmodel1, welche durch gewichtetes Mittel für jede der Positionen HP der Vielzahl von Kandidatenpunkten DPH am Objekt berechnet wird, gemäß den entsprechenden Zuverlässigkeit DOR.
  • Zusammenfassend, wenn die Anzahl von Kandidatenpunkten DPH(N) zwei oder mehr am Objektmodells Cmodel1 ist, identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP auf Basis der entsprechenden Zuverlässigkeiten DOR(N) der Vielzahl von Kandidatenpunkten DPH(N) und der jeweiligen Positionen HP der Vielzahl von Kandidatenpunkten DPH(N).
  • Wie oben beschrieben, wird der Assoziierungsbereich RA so eingestellt, dass der Assoziierungsbereich RA die Referenzposition BP als die Referenz aufweist.
  • Beispielsweise werden Positionen entlang der Xs-Achsenrichtung auf +1 (m) bzw. -1 (m) in Bezug auf die Referenzposition BP eingestellt.
  • Darüber hinaus werden Positionen entlang der Ys-Achsenrichtung auf +1 (m) bzw. -1 (m) in Bezug auf die Referenzposition BP eingestellt.
  • Darüber hinaus werden Geschwindigkeiten entlang der Xs-Achsenrichtung auf +3 (km/h) bzw. -3 (km/h) in Bezug auf eine Referenzgeschwindigkeit BV am Referenzpunkt B, welcher an der Referenzposition BP existiert, eingestellt.
  • Darüber hinaus werden Geschwindigkeit entlang der Ys-Achsenrichtung auf +3 (km/h) bzw. -3 (km/h) in Bezug auf die Referenzgeschwindigkeit BV am an der Referenzposition BP existierenden Referenzpunkt B eingestellt.
  • Eine Position entlang der Xs-Achsenrichtung wird nachfolgend als „Xs-Achsenposition“ bezeichnet. Eine Position entlang der Ys-Achsenrichtung wird nachfolgend als „Ys-Achsenposition“ bezeichnet. Eine Geschwindigkeit entlang der Xs-Achsenrichtung wird nachfolgend als „Xs-Achsengeschwindigkeit“ bezeichnet. Eine Geschwindigkeit entlang der Ys-Achsenrichtung wird nachfolgend als „Ys-Achsengeschwindigkeit“ bezeichnet.
  • 9 ist ein Diagramm zum Illustrieren eines ersten Einstellbeispiels des Assoziierungsbereichs RA, der so eingestellt ist, dass der Assoziierungsbereich RA die Referenzposition BP von 8 als die Referenz aufweist.
  • Die Größe des Assoziierungsbereichs RA ändert sich gemäß dem verwendeten Kandidatenpunkt DPH. Wenn der Kandidatenpunkt DPH(1) verwendet wird, wird die Referenzposition BP auf eine Position des nächsten Punkts eingestellt. Als der an der Referenzposition BP existierende Referenzpunkt B wird die Xs-Achsenposition durch pnx repräsentiert, wird die Ys-Achsenposition durch pny repräsentiert, wird die Xs-Achsengeschwindigkeit durch vnx repräsentiert und wird die Ys-Achsengeschwindigkeit durch vny repräsentiert.
  • Darüber hinaus werden Standard-Abweichungen von Detektionsfehlern des externen Informationssensors 1, die statistisch vorab gemessen werden, ermittelt. Eine Standardabweichung eines Detektionsfehlers der Xs-Achsenposition wird durch σx repräsentiert, eine Standardabweichung des Detektionsfehlers der Ys-Achsenposition wird durch σy repräsentiert, eine Standardabweichung eines Detektionsfehlers der Xs-Achsengeschwindigkeit wird durch σvx repräsentiert, und eine Standardabweichung eines Detektionsfehlers der Ys-Achsengeschwindigkeit wird durch σvy repräsentiert.
  • Dann, wie in 9 illustriert, wird der Assoziierungsbereich RA wie folgt eingestellt.
  • Xs-Achsenposition: Intervall (pnx-σx, pnx+σx)
    Ys-Achsenposition: Intervall (pny-σy, pny+σy)
    Xs-Achsengeschwindigkeit: Intervall (vnx-σvx, vnx+σvx)
    Ys-Achsengeschwindigkeit: Intervall (vny-σvy, vny+σvy)
  • 10 ist ein Diagramm zum Illustrieren eines zweiten Einstellbeispiels des Assoziierungsbereichs RA, der so eingestellt wird, dass der Assoziierungsbereich RA die Referenzposition BP von 8 als die Referenz aufweist.
  • Die Breite W des Objektmodells Cmodel1 und die Länge L des Objektmodells Cmodel1, die in den Vorhersagedaten TdRTpred enthalten sind, werden verwendet.
  • Wie in 10 illustriert, wird der Assoziierungsbereich RA wie folgt eingestellt.
  • Xs-Achsenposition: Intervall (pnx-σx, pnx+σx+L)
    Ys-Achsenposition: Intervall (pny-σy, pny+σy+W)
    Xs-Achsengeschwindigkeit: Intervall (vnx-σvx, vnx+σvx)
    Ys-Achsengeschwindigkeit: Intervall (vny-σvy, vny+σvy)
  • 11 ist ein Diagramm zum Illustrieren eines dritten Einstellbeispiels des Assoziierungsbereichs RA, der so eingestellt ist, dass der Assoziierungsbereich RA die Referenzposition BP von 8 als Referenz aufweist.
  • Wenn der Kandidatenpunkt DPH(2) verwendet wird, wird die Referenzposition BP auf die Vorhersageposition PredP eingestellt. Das heißt, dass der Referenzpunkt B auf den Vorhersagepunkt Pred eingestellt wird. Als der Referenzpunkt B, der an der Referenzposition BP existiert, wird die Xs-Achsenposition durch pcx repräsentiert, wird die Ys-Achsenposition durch pcy repräsentiert, wird die Xs-Achsengeschwindigkeit durch vcx repräsentiert, und wird die Ys-Achsengeschwindigkeit durch vcy repräsentiert.
  • Es wird angenommen, dass die Standardabweichung der Detektionsfehler des externen Informationssensors 1, die statistisch vorab gemessen werden, die gleichen sind wie jene oben beschriebenen.
  • Dann, wie in 11 illustriert, wird der Assoziierungsbereich RA wie folgt eingestellt.
  • Xs-Achsenposition: Intervall (pcx-σx-L/2, pcx+σx+L/2)
    Ys-Achsenposition: Intervall (pny-σy-W/2, pcy+σy+W/2)
    Xs-Achsengeschwindigkeit: Intervall (vcx-σvx, vcx+σvx)
    Ys-Achsengeschwindigkeit: Intervall (vcy-σvy, vcy+σvy)
  • Die Standardabweichung der Detektionsfehler des externen Informationssensors 1, die vorab statistisch gemessen werden, kann an der Breite W und der Länge L des in den Vorhersagedaten TDRTpred enthaltenen Objektmodells Cmodel1 wiedergespiegelt werden.
  • Spezifisch wird für die Breite W des in den Vorhersagedaten TDRTpred enthaltenen Objektmodells Cmodel1 die Standardabweichung des Detektionsfehlers des externen Informationssensors 1 durch σW repräsentiert. Für die Länge L des in den Vorhersagedaten TDRTpred enthaltenen Objektmodells Cmodel1 wird die Standardabweichung des Detektionsfehlers des externen Informationssensors 1 durch σL repräsentiert.
  • Dann werden im Assoziierungsbereich RA die Breite W und die Länge L des in den Verhinder Vorhersagedaten TDRTpred enthaltenen Objektmodells Cmodel1 wie folgt eingestellt.
  • Breite W: Intervall (W-σW, W+σW)
    Länge L: Intervall (L-σL, L+σL)
  • Wenn die Richtung θ in den Vorhersagedaten TDRTpred enthalten ist, kann eine Richtung des Assoziierungsbereichs RA wie folgt eingestellt werden.
  • Richtung: Differenz von θ ist gleich oder kleiner als 45 Grad.
  • Darüber hinaus kann die Größe des Assoziierungsbereichs RA gemäß der Zuverlässigkeit DOR des Kandidatenpunkts DPH justiert werden.
  • Spezifisch wird die Standardabweichung des Detektionsfehlers des externen Informationssensors 1 mit (1-DOR) als einem Koeffizienten gemäß der Zuverlässigkeit DOR multipliziert.
  • Dann wird der Assoziierungsbereich RA wie folgt eingestellt.
  • Xs-Achsenposition: Intervall (pnx-(2-DOR)σx, pnx+(2-DOR)σx)
    Ys-Achsenposition: Intervall (pny-(2-DOR)σy, pny+(2-DOR)σy)
    Xs-Achsengeschw.: Intervall (vnx-(2-DOR)σvx, vnx+(2-DOR)σvx)
    Ys-Achsengeschw.: Intervall (vny-(2-DOR)σvy, vny+(2-DOR)σvy)
  • Somit ist es mit sinkender Zuverlässigkeit DOR möglich, den Einfluss der Standardabweichungen der Detektionsfehler des externen Informationssensors 1 mehr widerzuspiegeln. Folglich kann mit sinkender Zuverlässigkeit DOR die Größe des Assoziierungsbereichs RA vergrößert werden.
  • Mit anderen Worten stellt die Assoziierungs-Verarbeitungseinheit 35 den Assoziierungsbereich RA auf Basis der Größe des Objektmodells Cmodel1 mit der Vorhersageposition PredP als Zentrum und die statistischen Beträge der Detektionsfehler, welche sich auf die Größe des Objektmodells Cmodel1 beziehen, ein und werden durch den externen Informationssensor 1 verursacht.
  • Darüber hinaus justiert die Assoziierungs-Verarbeitungseinheit 35 die Einstellgröße des Assoziierungsbereichs RA gemäß der Vielzahl von Zuverlässigkeiten DOR(N).
  • 12 ist ein Diagramm zum Illustrieren eines Beispiels, in welchem die Richtung θ weiter in den Verfolgungsdaten TD von 7 enthalten ist. Die Breite W des Objektmodells Cmodel1 ist eine Größe des Objektmodells Cmodel1 rechtwinklig zur Richtung θ des Objektmodells Cmodel1. Die Länge L des Objektmodells Cmodel1 ist eine Größe des Objektmodells Cmodel1 parallel zur Richtung θ des Objektmodells Cmodel1.
  • Wenn die Richtung θ des Objektmodells Cmodel1 durch das Messprinzip des externen Informationssensors 1 erfasst werden kann, wird die Richtung θ des Objektmodells Cmodel1 als ein Objekt-Identifikationselement der Detektionsdaten DD hinzugefügt. Wenn die Richtung θ des Objektmodells Cmodel1 nicht durch das Messprinzip des externen Informationssensors 1 erfasst werden kann, ändert sich die Einstellung der Richtung θ entsprechend der Grundgeschwindigkeit des Objektmodells Cmodel1, das heißt des Objekts.
  • Wenn die Grundgeschwindigkeit (Geschwindigkeit über Boden) des Objekts nicht Null ist, ist die Richtung θ des Objektmodells Cmodel1 als eine Richtung eines Grundgeschwindigkeits-Vektors beobachtet und kann somit erfasst werden. Wenn andererseits die Grundgeschwindigkeit des Objekts Null ist, das heißt das Objekt ein stationäres Objekt ist, wird der Anfangswinkel von 0 Grad in den Temporär-Einstelldaten DH als ein vorab eingestellter Einstellwert enthalten.
  • 13 ist ein Diagramm zum Illustrieren eines Beispiels, in welchem eine Höhe H weiter in den Verfolgungsdaten TD von 7 enthalten ist. Es wird angenommen, dass die Richtung θ des Objektmodells Cmodel1 parallel zu einer Straßenoberfläche RS ist, und rechtwinklig zur Höhe H des Objektmodells Cmodel1 ist.
  • Wenn die Höhe H des Objektmodells Cmodel1 durch das Messprinzip des externen Informationssensors 1 erfasst werden kann, wird die Höhe H des Objektmodells Cmodel1 als ein Objekt-Identifikationselement der Detektionsdaten DD hinzugefügt. Wenn die Höhe H des Objektmodells Cmodel1 nicht durch das Messprinzip des externen Informationssensors 1 erfasst werden kann, ist die Anfangshöhe von 1,5 m in den Temporär-Einstelldaten DH als ein vorab eingestellter Einstellwert beinhaltet.
  • 14 ist ein Diagramm zum Illustrieren eines Beispiels, in welchem weiter eine Position eines oberen Endes ZH und eine Position eines unteren Endes ZL in den Verfolgungsdaten TD von 7 enthalten sind. Es wird angenommen, dass „Position von oberem Ende ZH ≥ Position von unteren Endes ZL“ erfüllt ist. Wenn die Position des unteren Endes ZL höher als 0 m ist, wird das Objekt als ein Objekt bestimmt, das über dem Objekt existiert, wie etwa ein Hinweisschild oder ein Verkehrszeichen.
  • Wenn die Position des oberen Endes ZH und die Position des unteren Endes ZL durch das Messprinzip des externen Informationssensors 1 erfasst werden kann, werden die Position des oberen Endes ZH und die Position des unteren Endes ZL als Detektionselemente der Detektionsdaten DD hinzugefügt. Wenn die Position des oberen Endes ZH und die Position des unteren Endes ZL nicht durch das Messprinzip des externen Informationssensors 1 erfasst werden kann, sind das anfängliche obere Ende ZHDEF von 1,5 m und ein anfänglich unteres Ende ZLDEF von 0 m in den temporär-Einstelldaten DH als vorab eingestellte Einstellwerte enthalten.
  • 15 ist ein Diagramm zum schematischen Illustrieren einer Überlappung eines Bestimmungsziel-Objektmodells Cmode2, das ein Assoziierungs-Bestimmungsziel ist, welches die Position P des Detektionspunkts DP von 2 als einem Zentrum aufweist, wobei das Objektmodell Cmodel1 ein Verfolgungsziel ist, welches die Vorhersageposition PredP von 8 als Zentrum aufweist.
  • Wie in 15 illustriert, wird ein Verhältnis SO/ST einer Überlappung einer Fläche SO des Bestimmungsziel-Objektmodells Cmodel2 mit eine Fläche ST des Objektmodells Cmodel1 auf ein Überlappungsverhältnis R eingestellt. Es wird unter Verwendung des Überlappungsverhältnisses R und der Vielzahl von Zuverlässigkeiten DOR(N) evaluiert, ob das Ergebnis der Bestimmung davon, ob die Position P des Detektionspunkts DP(Cmodel2) und die Vorhersageposition PredP miteinander assoziieren oder nicht, gültig ist.
  • Das Bestimmungsziel-Objektmodell Cmodel2 wird erzeugt, indem das Objekt mit der Position P des Detektionspunkts DP als das Zentrum moduliert wird. Andererseits wird das Objektmodell Cmodel1 durch Modulieren des Objektes mit der Vorhersageposition PredP als Zentrum, wie oben beschrieben, erzeugt.
  • Spezifisch, wenn α und β Koeffizienten sind, welche durch Realzahlen größer als oder gleich Null repräsentiert werden, und ein Evaluierungswert durch γ1 repräsentiert wird, wird eine Evaluierungsfunktion durch Ausdruck (1) gegeben. α × ( 1 R ) + β × ( 1 DOR ) = γ 1
    Figure DE112019007925T5_0001
  • Somit sinkt mit steigendem Überlappungsverhältnis R ein Ausdruck, der α beinhaltet. Darüber hinaus sinkt mit steigender Zuverlässigkeit DOR ein, β enthaltender Ausdruck. Folglich kann mit sinkendem Evaluierungswert γ1 evaluiert werden, dass das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP(Cmodel2) und die Vorhersageposition PredP miteinander assoziieren oder nicht, gültiger ist.
  • In diesem Fall wird beispielsweise das Assoziierungs-Gültigkeits-Flag auf 1 gesetzt.
  • Andererseits kann mit steigendem Evaluierungswert γ1 evaluiert werden, dass das Ergebnis der Bestimmung davon, ob die Position P des Detektionspunkts DP(Cmodel2) und die Vorhersageposition PredP miteinander assoziieren oder nicht, weniger gültig ist.
  • In diesem Fall wird beispielsweise das Assoziierungs-Gültigkeitsflag auf 0 gesetzt.
  • Das Assoziierungs-Gültigkeitsflag kann entweder auf 1 oder 0 gesetzt werden, indem der Schwellenwert TH1 für den Evaluierungswert γ1 eingestellt wird.
  • Wenn beispielsweise der Evaluierungswert γ1 kleiner als der Schwellenwert TH1 ist, wird das Assoziierungs-Gültigkeitsflag auf 1 gesetzt. Derweil, wenn der Evaluierungswert γ1 gleich oder größer als der Schwellenwert TH1 ist, wird das Assoziierungs-Gültigkeitsflag auf 0 gesetzt.
  • Mit anderen Worten ermittelt die Assoziierungs-Verarbeitungseinheit 35 das Überlappungsverhältnis R des Bestimmungsziel-Objektmodells Cmodel2, welches durch Modellieren des Objekts mit der Position P des Detektionspunkts DP als Zentrum ermittelt wird, zum Objektmodells Cmodel1 mit der Vorhersageposition PredP als Zentrum. Die Assoziierungs-Verarbeitungseinheit 35 evaluiert auf Basis des Überlappungsverhältnisses R und der Vielzahl von Zuverlässigkeiten DOR(N), ob das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht, gültig ist.
  • Nun wird eine Beschreibung des Beispiels der Evaluierungsfunktion gegeben, welche das Überlappungsverhältnis R verwendet, aber die Konfiguration ist nicht auf dieses Beispiel beschränkt.
  • Beispielsweise wird der Kandidatenpunkt DPH mit der höchsten Zuverlässigkeit DOR verwendet und wird die Euklidische Distanz du für den Vergleich mit dem Assoziierungsbereich RA verwendet. Wenn α und β Koeffizienten sind, die durch Realzahlen gleich oder größer als 0 repräsentiert werden, und ein Evaluierungswert durch γ2 repräsentiert wird, wird eine Evaluierungsfunktion durch Ausdruck (2) gegeben. α × du + β × ( 1 DOR ) = γ 2
    Figure DE112019007925T5_0002
  • Somit sinkt mit sinkender Euklidischer Distanz du ein, α enthaltender Ausdruck. Darüber hinaus sinkt mit steigender Zuverlässigkeit DOR ein, β enthaltender Ausdruck. Folglich kann mit sinkendem Evaluierungswert γ2 evaluiert werden, dass das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP(Cmodel2) und die Vorhersageposition PredP miteinander assoziieren oder nicht, gültiger ist.
  • In diesem Fall wird beispielsweise das Assoziierungs-Gültigkeitsflag auf 1 gesetzt.
  • Andererseits, wenn der Evaluierungswert γ2 steigt, kann evaluiert werden, dass das Bestimmungsergebnis davon, ob die Position P des Detektionspunkt Detektionspunkts DP(Cmodel2) und die Vorhersageposition PredP miteinander assoziieren oder nicht, weniger gültig ist.
  • In diesem Fall wird beispielsweise das Assoziierungs-Gültigkeitsflag auf 0 gesetzt.
  • Das Assoziierungs-Gültigkeitsflag kann auf entweder 1 oder 0 gesetzt werden, indem ein Schwellenwert TH2 für den Evaluierungswert γ2 eingestellt wird.
  • Wenn beispielsweise der Evaluierungswert γ2 kleiner als der Schwellenwert TH2 ist, wird das Assoziierungs-Gültigkeitsflag auf 1 gesetzt. Wenn andererseits der Evaluierungswert γ2 gleich oder größer als der Schwellenwert TH2 ist, wird das Assoziierungs-Gültigkeitsflag auf 0 gesetzt.
  • Darüber hinaus wird beispielsweise der Kandidatenpunkt DPH mit der höchsten Zuverlässigkeit DOR verwendet und wird die Mahalanobis-Distanz dm zum Vergleich mit dem Assoziierungsbereich RA verwendet. Wenn α und β Koeffizienten sind, die durch Realzahlen gleich oder größer als 0 repräsentiert sind, und ein Evaluierungswert durch γ3 repräsentiert wird, wird eine Evaluierungsfunktion durch Ausdruck (3) gegeben. α × dm + β × ( 1 DOR ) = γ 3
    Figure DE112019007925T5_0003
  • Somit sinkt mit sinkender Mahalanobis-Distanz dm ein, α enthaltender Ausdruck ab. Darüber hinaus sinkt mit steigender Zuverlässigkeit DOR ein, β enthaltender Ausdruck. Folglich kann mit sinkendem Evaluierungswert γ3 evaluiert werden, dass das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP(Cmodel2) und die Vorhersageposition PredP miteinander assoziieren oder nicht, gültiger ist.
  • In diesem Fall wird beispielsweise das Assoziierungs-Gültigkeitsflag auf 1 gesetzt.
  • Derweil kann mit steigendem Evaluierungswert γ3 evaluiert werden, dass das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP(Cmodel2) und die Vorhersageposition PredP miteinander assoziieren oder nicht, weniger gültig ist.
  • In diesem Fall wird beispielsweise das Assoziierungs-Gültigkeitsflag auf 0 gesetzt.
  • Das Assoziierungs-Gültigkeitsflag kann entweder auf 1 oder 0 eingestellt werden, indem der Schwellenwert TH3 für den Evaluierungswert γ3 eingestellt wird. Wenn beispielsweise der Evaluierungswert γ3 kleiner als der Schwellenwert TH3 ist, wird das Assoziierungs-Gültigkeitsflag auf 1 gesetzt. Wenn andererseits der Evaluierungswert γ3 gleich oder größer als der Schwellenwert TH3 ist, wird das Assoziierungs-Gültigkeitsflag auf 0 gesetzt.
  • Darüber hinaus wird beispielsweise ein Kandidatenpunkt DPH verwendet, der durch gewichteten Durchschnitt für jede der Positionen HP der Vielzahl von Kandidatenpunkten DPH(N) am Bestimmungsziel-Objektmodells Cmodel2 gemäß jeweiligen Zuverlässigkeiten DOR(N) berechnet wird, und die Euklidische Distanz du für den Vergleich mit dem Assoziierungsbereich RA verwendet wird. In diesem Fall, wenn α und β Koeffizienten sind, die durch Realzahlen gleich oder größer als 0 repräsentiert sind, wird ein Zuverlässigkeits-Durchschnittswert durch DORavr repräsentiert, und ein Evaluierungswert durch γ4 repräsentiert wird, wird eine Evaluierungsfunktion durch Ausdruck (4) gegeben. α × du + β × ( 1 DOR avr ) = γ 4
    Figure DE112019007925T5_0004
  • Somit sinkt mit sinkender Euklidischer Distanz du ein, α enthaltender Ausdruck. darüber hinaus sinkt mit steigendem Zuverlässigkeits-Durchschnittswert DORavr ein, β enthaltender Ausdruck. Folglich, kann mit sinkendem Evaluierungswert γ4 evaluiert werden, dass das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP(Cmodel2) und die Vorhersageposition PredP miteinander assoziieren oder nicht, gültiger ist.
  • In diesem Fall wird beispielsweise das Assoziierungs-Gültigkeitsflag auf 1 gesetzt.
  • Andererseits kann mit steigendem Evaluierungswert γ4 evaluiert werden, dass das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP(Cmodel2) und die Vorhersageposition PredP miteinander assoziieren oder nicht, weniger gültig ist.
  • In diesem Fall wird beispielsweise das Assoziierungs-Gültigkeitsflag auf 0 gesetzt.
  • Das Assoziierungs-Gültigkeitsflag kann auf entweder 1 oder 0 gesetzt werden, indem der Schwellenwert TH4 für den Evaluierungswert γ4 eingestellt wird. Wenn beispielsweise der Evaluierungswert γ4 kleiner als der Schwellenwert TH4 ist, wird das Assoziierungs-Gültigkeitsflag auf 1 gesetzt. Wenn andererseits der Evaluierungswert γ4 gleich oder größer als der Schwellenwert TH4 ist, wird das Assoziierungs-Gültigkeitsflag auf 0 gesetzt.
  • Darüber hinaus wird beispielsweise ein Kandidatenpunkt DPH eingesetzt, der durch gewichtetes Mittel für jede der Positionen HP der Vielzahl von Kandidatenpunkten DPH(N) am Bestimmungsziel-Objektmodell Cmodel2 gemäß den entsprechenden Zuverlässigkeiten DOR(N) berechnet wird, und die Mahalanobis-Distanz dm für den Vergleich mit dem Assoziierungsbereich RA verwendet wird. In diesem Fall, wenn α und β Koeffizienten sind, welche durch Realzahlen gleich oder größer als 0 repräsentiert werden, wird ein Zuverlässigkeits-Durchschnittswert durch DORavr repräsentiert, und ein Evaluierungswert durch γ5 repräsentiert wird, ist eine Evaluierungsfunktion durch Ausdruck (5) gegeben. α × dm + β × ( 1 DOR avr ) = γ 5
    Figure DE112019007925T5_0005
  • Somit sinkt mit sinkender Mahalanobis-Distanz dm ein, α enthaltender Ausdruck. Darüber hinaus sinkt mit steigendem Zuverlässigkeits-Durchschnittswert DORavr ein, β enthaltender Ausdruck. Folglich kann mit sinkendem Evaluierungswert γ5 evaluiert werden, dass das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP(Cmodel2) und die Vorhersageposition PredP miteinander assoziieren oder nicht, gültiger ist. In diesem Fall wird beispielsweise das Assoziierungs-Gültigkeitsflag auf 1 gesetzt.
  • Wenn andererseits der Evaluierungswert γ5 steigt, kann evaluiert werden, dass das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP(Cmodel2) und die PredP miteinander assoziieren oder nicht, weniger gültig ist. In diesem Fall wird beispielsweise das Assoziierungs-Gültigkeitsflag auf 0 gesetzt.
  • Das Assoziierungs-Gültigkeitsflag kann auf entweder 1 oder 0 gesetzt werden, indem der Schwellenwert TH5 für den Evaluierungswert γ5 eingestellt wird. Wenn beispielsweise der Evaluierungswert γ5 kleiner als der Schwellenwert TH5 ist, wird das Assoziierungs-Gültigkeitsflag auf 1 gesetzt. Wenn andererseits der Evaluierungswert γ5 gleich oder größer als der Schwellenwert TH5 ist, wird das Assoziierungs-Gültigkeitsflag auf 0 gesetzt.
  • Mit anderen Worten evaluiert die Assoziierungs-Verarbeitungseinheit 35 auf Basis von der Euklidischen Distanz du oder der Mahalanobis-Distanz dm und auf der Vielzahl von Zuverlässigkeiten DOR(N), ob das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht, gültig ist.
  • Die Euklidische Distanz du wird durch Verwendung eines Differenzvektors zwischen der Position P des Detektionspunkts DP und der Referenzposition BP ermittelt. Derweil wird die Mahalanobis-Distanz dm unter Verwendung der Position P des Detektionspunkts DP und der Referenzposition BP ermittelt. Darüber hinaus ermittelt beispielsweise die Assoziierungs-Verarbeitungseinheit 35 den Minimalwert einer Summe von Distanzen, alle zwischen jedem Scheitel des Objektmodells Cmodel1 mit der Vorhersageposition PredP als Zentrum und jedem Scheitel des Bestimmungszielobjekts Cmodel2, welches durch Modellieren des Objektes mit der Position P des Detektionspunkts DP als Zentrum ermittelt wird.
  • Die Assoziierungs-Verarbeitungseinheit 35 evaluiert auf Basis des ermittelten Minimalwerts und der Vielzahl von Zuverlässigkeiten DOR(N), ob das Ergebnis der Bestimmung davon, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren, oder nicht, gültig ist, oder nicht.
  • Spezifisch sind α und β Koeffizienten, welche durch Realzahlen gleich oder größer als 0 repräsentiert werden.
  • Darüber hinaus wird der Minimalwert der Summe der Distanzen zwischen jeweils jedem Scheitel des Objektmodells Cmodel1 mit der Vorhersageposition PredP als Zentrum und dem Scheitel des Bestimmungsziel-Objektmodells Cmodel2, welches durch Modellieren des Objekts mit der Position P des Detektionspunkt DP als Zentrum ermittelt wird, durch Rm repräsentiert. In diesem Fall, wenn ein Evaluierungswert durch γ6 repräsentiert wird, wird durch Ausdruck (6) eine Evaluierungsfunktion gegeben. α × Rm + β × ( 1 DOR ) = γ 6
    Figure DE112019007925T5_0006
  • Somit sinkt mit sinkendem Minimalwert Rm ein Ausdruck, der α beinhaltet, ab. Darüber hinaus sinkt mit steigender Zuverlässigkeit DOR ein, β enthaltender Ausdruck. Folglich kann, wenn der Evaluierungswert γ6 sinkt, evaluiert werden, dass das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP(Cmodel2) und die Vorhersageposition PredP miteinander assoziieren oder nicht, gültiger ist.
  • In diesem Fall wird beispielsweise das Assoziierungs-Gültigkeitsflag auf 1 gesetzt.
  • Andererseits kann mit steigendem Evaluierungswert γ6 evaluiert werden, dass das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP(Cmodel2) und die Vorhersageposition PredP miteinander assoziieren oder nicht, weniger gültig ist.
  • In diesem Fall wird beispielsweise das Assoziierungs-Gültigkeitsflag auf 0 gesetzt.
  • Das Assoziierungs-Gültigkeitsflag kann auf entweder 1 oder 0 eingestellt werden, durch Einstellen eines Schwellenwerts TH6 für den Evaluierungswert γ6. Enn z.B. der Evaluierungswert γ6 kleiner als der Schwellenwert TH6 ist, wird das Assoziierungs-Gültigkeitsflag auf 1 gesetzt. Andererseits, wenn der Evaluierungswert γ6 gleich oder größer als der Schwellenwert TH6 ist, wird das Assoziierungs-Gültigkeitsflag auf 0 gesetzt.
  • Das Ermitteln des Minimalwerts der Summe der Distanzen zwischen sowohl jedem Scheitel des Objektmodells Cmodel1 mit der Vorhersageposition PredP als Zentrum und jedem Scheitel des Bestimmungzielobjekts Cmodel2, das durch Modellieren des Objekts mit der Position P des Detektionspunkts DP als Zentrum ermittelt wird, wird letztlich ein Lösen des Minimal-Steiner-Baumproblems. Das Minimal-Steiner-Baumproblem ist das kürzeste Netzwerkproblem.
  • Somit löst die Assoziierungs-Verarbeitungseinheit 35 das kürzeste Netzwerkproblem, um zu evaluieren, ob das Ergebnis der Bestimmung davon, ob oder ob nicht die Position P des Detektionspunkts DP(Cmodel2) und der Vorhersageposition PredP miteinander assoziieren oder nicht, gültig ist.
  • Nunmehr wird eine Beschreibung der durch die Objekterkennungs-Vorrichtung 3 von 1 ausgeführten Verarbeitung gegeben.
  • 16 ist ein Flussdiagramm zum Illustrieren der durch die Objekterkennungs-Vorrichtung 3 von 1 ausgeführten Verarbeitung.
  • In Schritt S11 bestimmt die Zeitmesseinheit 31, ob die aktuelle Zeit die Verarbeitungszeit tk erreicht hat oder nicht. Wenn die Zeitmesseinheit 31 bestimmt, dass die aktuelle Zeit die Verarbeitungszeit tk erreicht hat, schreitet der Prozess von Schritt S11 zu Schritt S12 fort. Wenn die Zeitmesseinheit 31 bestimmt, dass die aktuelle Zeit die Verarbeitungszeit tk nicht erreicht hat, setzt sich der Verarbeitungsschritt von Schritt S11 fort.
  • In Schritt S12 empfängt die Datenempfangseinheit 32 die Detektionsdaten dd aus jedem externen Informationssensor 1. Danach schreitet dieser Prozess von Schritt S12 zu Schritt S13 fort.
  • Im Schritt S13 assoziiert die Datenempfangseinheit 32 als die aktuelle assoziierte Zeit RT eine Zeit, bei welcher die Detektionsdaten dd aus jedem externen Informationssensor 1 empfangen worden sind, mit den Detektionsdaten DD. Danach schreitet der Prozess von Schritt S13 zu Schritt S14 fort.
  • In Schritt S14 markiert die Datenempfangseinheit 32 alle externen Informationssensoren 1 als „unverwendet“. Danach schreitet der Prozess von Schritt S14 zu Schritt S15 fort.
  • Im Schritt S15 bestimmt die Datenempfangseinheit 32, ob ein unverwendeter externer Informationssensor 1 existiert oder nicht. Wenn die Datenempfangseinheit 32 bestimmt, dass ein unverwendeter externer Informationssensor 1 existiert, schreitet der Prozess von Schritt S15 zu Schritt S16 fort. Wenn die Datenempfangseinheit 32 bestimmt, dass ein unverwendeter externer Informationssensor 1 nicht existiert, schreitet der Prozess nicht von Schritt S15 zu einem anderen Verarbeitungsschritt fort und wird die durch die Objekterkennungs-Vorrichtung 3 ausgeführte Verarbeitung beendet.
  • Im Schritt S16 berechnet die Vorhersage-Verarbeitungseinheit 34 die Vorhersagedaten TDRTpred der Verfolgungsdaten TD zur aktuellen assoziierten Zeit RT aus den Verfolgungsdaten TD zur vorherigen assoziierten Zeit RT. Danach schreitet der Prozess von Schritt S16 zu Schritt S17 fort.
  • Im Schritt S17 wählt die Temporär-Einstelleinheit 33 einen zu verwendenden externen Informationssensor 1 aus. Danach schreitet der Prozess von Schritt S17 zu Schritt S18 fort.
  • In Schritt S18 stellt die Temporär-Einstelleinheit 33 eine Position HP des zumindest einen Kandidatenpunkts DPH am Objektmodells Cmodel1 ein, welches zum Modulieren eines durch den ausgewählten externen Informationssensor 1 detektierten Objekts ermittelt wird, basierend auf der Auflösung des ausgewählten externen Informationssensors 1. Danach schreitet der Prozess von Schritt S18 zu Schritt S19 fort.
  • Im Schritt S19 führt die Assoziierungs-Verarbeitungseinheit 35 eine unten unter Bezugnahme auf 17 beschriebene Assoziierungs-bezogene Verarbeitung aus. Danach schreitet der Prozess von Schritt S19 zu Schritt S20 fort.
  • Im Schritt S20 führt die Assoziierungs-Verarbeitungseinheit 35 eine Assoziierungsbestimmungs-Verarbeitung, die unten beschrieben ist, unter Bezugnahme auf 19, aus. Danach schreitet der Prozess von Schritt S20 zu Schritt S21 fort.
  • Im Schritt S21 bestimmt die Assoziierungs-Verarbeitungseinheit 35, ob das Assoziierungs-Gültigkeitsflag auf 1 gesetzt ist oder nicht. Wenn die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass das Assoziierungs-Gültigkeitsflag auf 1 gesetzt ist, schreitet der Prozess von Schritt S21 zu Schritt S22 fort. Wenn die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass das Assoziierungs-Gültigkeitsflag nicht auf 1 gesetzt ist, schreitet der Prozess von Schritt S21 zu Schritt S23 fort.
  • Im Schritt S22 aktualisiert die Aktualisierungs-Verarbeitungseinheit 36 die Verfolgungsdaten TD zur aktuellen assoziierten Zeit RT auf Basis der korrigierten Position P des Detektionspunkts DP in Bezug auf den externen Informationssensor 1 zur aktuellen assoziierten Zeit RT. Danach schreitet der Prozess von Schritt S22 zu Schritt S23 fort.
  • Im Schritt S23 markiert die Datenempfangseinheit 32 den ausgewählten externen Informationssensor 1 als „verwendet“. Danach schreitet der Prozess von Schritt S23 zu Schritt S15 fort.
  • Es wird nunmehr eine Beschreibung der im Schritt S19 von 16 ausgeführten assoziierungs-bezogenen Verarbeitung gegeben.
  • 17 ist ein Flussdiagramm zum Illustrieren der assoziierungs-bezogenen Verarbeitung, die im Schritt S19 von 16 ausgeführt wird.
  • Im Schritt S31 bestimmt die Assoziierungs-Verarbeitungseinheit 35, ob die Anzahl von Kandidatenpunkten DPH zwei oder mehr beträgt oder nicht. Wenn die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass die Anzahl von Kandidatenpunkten DPH zwei oder mehr beträgt, schreitet der Prozess von Schritt S31 zu Schritt S32 fort.
  • Derweil, wenn die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass die Anzahl von Kandidatenpunkten DPH nicht zwei oder mehr beträgt, schreitet der Prozess von Schritt S31 zu Schritt S42 fort.
  • Im Schritt S42 nutzt die Assoziierungs-Verarbeitungseinheit 35 den eingestellten Kandidatenpunkt DPH. Danach schreitet der Prozess von Schritt S42 zu Schritt S35 fort.
  • Der Prozess kehrt zu Schritt S32 zurück und die Assoziierungs-Verarbeitungseinheit 35 ermittelt die Zuverlässigkeit DOR jedes der Vielzahl von Kandidatenpunkten DPH basierend auf der Distanz aus dem externen Informationssensor 1 zu zumindest einem der von der Position P des Detektionspunkts DP oder der Referenzposition BP. Danach schreitet der Prozess von Schritt S32 zu Schritt S33 fort. Im Schritt S33 bestimmt die Assoziierungs-Verarbeitungseinheit 35, ob das gewichtete Mittel auszuführen ist oder nicht. Wenn die Assoziierungs-Verarbeitungseinheit 35 bestimmt, das gewichtete Mittel auszuführen, schreitet der Prozess von Schritt S33 zu Schritt S34 fort.
  • Im Schritt S34 nutzt die Assoziierungs-Verarbeitungseinheit 35 den Kandidatenpunkt DPH, der durch gewichtetes Mittel für jede der Positionen HP der Vielzahl von Kandidatenpunkten DPH am Objekt gemäß den jeweiligen Zuverlässigkeiten DOR berechnet wird. Danach schreitet der Prozess von Schritt S34 zu Schritt S35 fort.
  • Derweil schreitet in Schritt S33, wenn die Assoziierungs-Verarbeitungseinheit 35 bestimmt, das gewichtete Mittel nicht auszuführen, der Prozess von Schritt S33 zu Schritt S39 fort.
  • Im Schritt S39 nutzt die Assoziierungs-Verarbeitungseinheit 35 den Kandidatenpunkt DPH mit der höchsten Zuverlässigkeit DOR von den Positionen HP der Vielzahl von Kandidatenpunkten DPH. Danach schreitet der Prozess von Schritt S39 zu Schritt S35 fort.
  • Im Schritt S35 bestimmt die Assoziierungs-Verarbeitungseinheit 35, ob Objekt-Identifikationselemente erfolgreich erfasst worden sind oder nicht. Wenn die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass Objekt-Identifikationselemente erfolgreich erfasst worden sind, schreitet der Prozess von Schritt von Schritt S35 zu Schritt S41 fort.
  • Im Schritt S41 identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Assoziierungsbereichs RA zur aktuellen assoziierten Zeit RT auf Basis der Vorhersageposition PredP, dem Kandidatenpunkt DPH und den Objekt-Identifikationselementen, die aus den externen Informationssensoren 1 erfolgreich erfasst worden sind. Danach schreitet der Prozess von Schritt S41 zu Schritt S38 fort.
  • Derweil, wenn in Schritt S35 die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass die Objekt-Identifikationselemente nicht erfolgreich erfasst worden sind, schreitet der Prozess von Schritt S35 zu Schritt S36 fort.
  • Im Schritt S36 bestimmt die Assoziierungs-Verarbeitungseinheit 35, ob Einstellwerte individuell vorab entsprechend den Objekt-Identifikationselementen, die nicht aus dem externen Informationssensors 1 erfasst werden können, eingestellt sind oder nicht. Wenn die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass Einstellwerte individuell vorab entsprechend den Objekt-Identifikationselementen eingestellt worden sind, die nicht aus dem externen Informationssensor 1 erfasst werden können, schreitet der Prozess von Schritt S36 zu Schritt S40 fort. Im Schritt S40 identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Assoziierungsbereichs RA zur aktuellen assoziierten Zeit RT auf Basis der Vorhersageposition PredP, dem Kandidatenpunkt DPH und dem individuell vorab korrespondierend mit den Objekt-Identifikationselementen, die nicht aus dem externen Informationssensor 1 erfasst werden können, eingestellten Einstellwerten. Danach schreitet der Prozess von Schritt S40 zu Schritt S38 fort.
  • Derweil, im Schritt S36, wenn die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass die Einstellwerte nicht individuell vorab entsprechend den Objekt-Identifikationselementen, die nicht aus dem externen Informationssensor 1 erfasst werden können, individuell eingestellt werden, schreitet der Prozess von Schritt S36 zu Schritt S37 fort.
  • Im Schritt S37 wird die Referenzposition BP des Assoziierungsbereichs RA zur aktuellen assoziierten Zeit RT auf Basis der Vorhersageposition PredP und dem Kandidatenpunkt DPH identifiziert. Danach schreitet der Prozess von Schritt S37 zu Schritt S38 fort.
  • Im Schritt S38 führt die Assoziierungs-Verarbeitungseinheit 35 eine unten unter Bezugnahme auf 18 beschriebene Assoziierungsbereichs-Einstellverarbeitung aus. Danach schreitet der Prozess nicht von Schritt S38 zu einem anderen Prozessschritt fort und wird die assoziierungs-bezogene Verarbeitung beendet.
  • Es wird nunmehr eine Beschreibung der im Schritt S38 von 17 ausgeführten Assoziierungsbereich-Einstellverarbeitung gegeben.
  • 18 ist ein Flussdiagramm zum Illustrieren der im Schritt S38 von 17 ausgeführten Assoziierungsbereichs-Einstellverarbeitung.
  • Im Schritt S51 bestimmt die Assoziierungs-Verarbeitungseinheit 35, ob die Zuverlässigkeit DOR ermittelt worden ist oder nicht. Wenn die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass die Zuverlässigkeit DOR ermittelt worden ist, schreitet der Prozess von Schritt S 51 zu Schritt S52 fort.
  • Im Schritt S52 stellt die Assoziierungs-Verarbeitungseinheit 35 ein Zuverlässigkeitsflag auf 1. Danach schreitet der Prozess von Schritt S52 zu Schritt S54 fort.
  • Wenn andererseits im Schritt S51 die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass die Zuverlässigkeit DOR nicht ermittelt worden ist, schreitet der Prozess von Schritt S51 zu Schritt S53 fort.
  • Im Schritt S53 stellt die Assoziierungs-Verarbeitungseinheit 35 das Zuverlässigkeitsflag auf 0 ein. Danach schreitet der Prozess von Schritt S53 zu Schritt S54 fort.
  • Im Schritt S54 ermittelt die Assoziierungs-Verarbeitungseinheit 35 die Größe des Objektmodells Cmodel1, die das Verfolgungsziel ist, das die Vorhersageposition PredP als Zentrum aufweist. Danach schreitet der Prozess von Schritt S54 zu Schritt S55 fort.
  • Im Schritt S55 bestimmt die Assoziierungs-Verarbeitungseinheit 35, ob die durch den externen Informationssensor 1 verursachten Detektionsfehler am Assoziierungsbereich RA widerzuspiegeln sind oder nicht. Wenn die Assoziierungs-Verarbeitungseinheit 35 bestimmt, die durch den externen Informationssensor 1 verursachten Detektionsfehler am Assoziierungsbereich RA widerzuspiegeln, schreitet der Prozess von Schritt S55 zu Schritt S56 fort.
  • Wenn andererseits im Schritt S55 die Assoziierungs-Verarbeitungseinheit 35 bestimmt, die durch den externen Informationssensor 1 verursachten Detektionsfehler nicht am Assoziierungsbereich RA widerzuspiegeln, schreitet der Prozess von Schritt S55 zu Schritt S60 fort.
  • Im Schritt S60 stellt die Assoziierungs-Verarbeitungseinheit 35 den Assoziierungsbereich RA so ein, dass der Assoziierungsbereich RA die Referenzposition BP als die Referenz aufweist. Danach schreitet der Prozess von Schritt S60 zu Schritt S58 fort.
  • Zurück zu Schritt S56, ermittelt die Assoziierungs-Verarbeitungseinheit 35 die statistischen Beträge der Detektionsfehler, die sich auf die Größe des Objektmodells Cmodel1 beziehen und durch den externen Informationssensor 1 verursacht werden. Danach schreitet der Prozess von Schritt S56 zu Schritt S57 fort.
  • Im Schritt S57 stellt die Assoziierungs-Verarbeitungseinheit 35 den Assoziierungsbereich RA auf Basis der Größe des Objektmodells Cmodel1 mit der Vorhersageposition PredP als Zentrum und den statistischen Beträgen ein. Danach schreitet der Prozess von Schritt von Schritt S57 zu Schritt S58 fort.
  • Im Schritt S58 bestimmt die Assoziierungs-Verarbeitungseinheit 35, ob das Zuverlässigkeitsflag auf 1 gesetzt ist oder nicht. Wenn die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass das Zuverlässigkeitflag auf 1 gesetzt ist, schreitet die Verarbeitung von Schritt S58 zu Schritt S59 fort.
  • Im Schritt S59 justiert die Assoziierungs-Verarbeitungseinheit 35 die Einstellgröße des Assoziierungsbereichs RA gemäß dem DOR. Danach schreitet der Prozess nicht von Schritt S59 zu anderen Verarbeitungsschritten fort und wird die Assoziierungsbereichs-Einstellverarbeitung beendet.
  • Wenn andererseits im Schritt S58 die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass das Zuverlässigkeitsflag nicht auf 1 gesetzt ist, schreitet der Prozess nicht von Schritt S58 zu anderen Verarbeitungsschritten fort und wird die Assoziierungsbereichs-Einstellverarbeitung beendet.
  • Nunmehr wird eine Beschreibung der im Schritt S20 von 6 ausgeführten Assoziierungsbestimmungs-Verarbeitung gegeben.
  • 19 ist ein Flussdiagramm zum Illustrieren der im Schritt S20 von 16 ausgeführten Assoziierungsbestimmungs-Verarbeitung.
  • Im Schritt S71 bestimmt die Assoziierungs-Verarbeitungseinheit 35, ob die Euklidische Distanz du des Differenzvektors zwischen der Position P des Detektionspunkts DP und der Referenzposition BP, oder die Mahalanobis-Distanz dm, die abgeleitet wird basierend auf der Position P des Detektionspunkts DP und der Referenzposition BP, den Assoziierungsbereich RA überschreitet oder nicht.
  • Wenn die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass entweder die Euklidische Distanz du oder die Mahalanobis-Distanz dm den Assoziierungsbereich RA übersteigt, schreitet der Prozess von Schritt S71 zu Schritt S73 fort.
  • Im Schritt S73 setzt die Assoziierungs-Verarbeitungseinheit 35 das Zuverlässigkeitsflag auf 0. Danach schreitet der Prozess von Schritt S73 zu Schritt S74 fort.
  • Wenn andererseits im Schritt S71 die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass entweder die Euklidische Distanz du oder die Mahalanobis-Distanz dm den Assoziierungsbereich RA nicht übersteigt, schreitet der Prozess von Schritt S71 zu Schritt S72 fort.
  • Im Schritt S72 setzt die Assoziierungs-Verarbeitungseinheit 35 das Zuverlässigkeitsflag auf 1. Danach schreitet der Prozess von Schritt S72 zu Schritt S74 fort.
  • Im Schritt S74 bestimmt die Assoziierungs-Verarbeitungseinheit 35, ob das Assoziierungsflag auf 1 gesetzt ist oder nicht. Wenn die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass das Assoziierungsflag auf 1 gesetzt ist, schreitet der Prozess von Schritt S74 zu Schritt S75 fort.
  • Im Schritt S75 führt die Assoziierungs-Verarbeitungseinheit 35 eine unten unter Bezugnahme auf 20 beschriebene Gültigkeitsbestimmungs-Verarbeitung aus. Danach schreitet der Prozess nicht von Schritt S75 zu anderen Verarbeitungsschritten fort und wird die Assoziierungsbestimmungs-Verarbeitung beendet.
  • Wenn andererseits im Schritt S74 die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass das Assoziierungsflag nicht auf 1 gesetzt wird, schreitet der Prozess nicht von Schritt S74 zu anderen Verarbeitungsschritten fort und wird die Assoziierungsbestimmungs-Verarbeitung beendet.
  • Nunmehr wird eine Beschreibung der im Schritt S75 von 19 ausgeführten Gültigkeitsbestimmungs-Verarbeitung gegeben.
  • 20 ist ein Flussdiagramm zum Illustrieren der im Schritt S75 von 19 ausgeführten Gültigkeitsbestimmungs-Verarbeitung.
  • Im Schritt S91 bestimmt die Assoziierungs-Verarbeitungseinheit 35, ob entweder die Euklidische Distanz du des Differenzvektors zwischen der Position P des Detektionspunkts DP und der Referenzposition BP oder die Mahalanobis-Distanz dm, die basierend auf der Position P des Detektionspunkts DP und der Referenzposition BP abgeleitet ist, zu verwenden ist.
  • Wenn die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass entweder die Euklidische Distanz du oder die Mahalanobis-Distanz dm zu verwenden ist, schreitet der Prozess von Schritt S91 zu Schritt S92 fort.
  • Im Schritt S92 bestimmt die Assoziierungs-Verarbeitungseinheit 35, ob die Zuverlässigkeit DOR ermittelt worden ist oder nicht. Wenn die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass die Zuverlässigkeit DOR ermittelt worden ist, schreitet der Prozess von Schritt S92 zu Schritt S93 fort.
  • Im Schritt S93 evaluiert die Assoziierungs-Verarbeitungseinheit 35 auf Basis entweder der Euklidischen Distanz du oder der Mahalanobis-Distanz dm und auf der Vielzahl von Zuverlässigkeiten DOR(N), ob das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht, gültig ist. Danach schreitet der Prozess von Schritt S93 zu Schritt S97 fort.
  • Wenn andererseits im Schritt S91 bestimmt wird, dass weder die Euklidische Distanz du noch die Mahalanobis-Distanz dm nicht zu verwenden sind, schreitet der Prozess von Schritt S91 oder Schritt S94 fort.
  • Im Schritt S94 bestimmt die Assoziierungs-Verarbeitungseinheit 35, ob das Überlappungs-Verhältnis RA des Bestimmungszielobjektmodells Bestimmungzielobjekts Cmodel2, das durch Modellieren des Objekts mit der Position P des Detektionspunkts DP als dem Zentrum ermittelt wird, zum Objektmodell Cmodel1 mit der Vorhersageposition PredP als Zentrum zu verwenden ist oder nicht. Wenn die Assoziierungs-Verarbeitungseinheit 35 bestimmt, das Überlappungs-Verhältnis R des Bestimmungsziel-Objektmodells Cmodel2 zum Objektmodells Cmodel1 zu verwenden, schreitet der Prozess von Schritt S94 zu Schritt S95 fort.
  • Im Schritt S95 evaluiert die Assoziierungs-Verarbeitungseinheit 35 auf Basis des ÜberlappungsVerhältnisses R des Bestimmungsziel-Objektmodells Cmodel2 zum Objektmodells Cmodel1 und der Zuverlässigkeit der Zuverlässigkeiten DOR(N), ob das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht, gültig ist. Danach schreitet der Prozess von Schritt S95 zu Schritt S97 fort.
  • Wenn andererseits in Schritt S94 die Assoziierungs-Verarbeitungseinheit 35 bestimmt, das Überlappungs-Verhältnis R des Bestimmungsziel-Objektmodells Cmodel2 zum Objektmodells Cmodel1 nicht zu verwalten, schreitet der Prozess von Schritt S94 zu Schritt S96 fort.
  • Im Schritt S96 evaluiert die Assoziierungs-Verarbeitungseinheit 35 auf Basis des Minimalwerts der Summe der Distanzen jeweils zwischen jedem Scheitel des Objektmodells Cmodel1 und jedem Scheitel des Bestimmungsziel-Objektmodells Cmodel2 und der Vielzahl von Zuverlässigkeiten DOR(N), ob das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht, gültig ist. Danach schreitet der Prozess von Schritt S96 zu Schritt S97 fort.
  • Wenn andererseits im Schritt S92 die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass die Zuverlässigkeit DOR nicht ermittelt worden ist, schreitet der Prozess von Schritt S92 zu Schritt S97 fort.
  • Im Schritt S97 bestimmt die Assoziierungs-Verarbeitungseinheit 35, ob das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht, gültig ist.
  • Wenn die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht, gültig ist, schreitet der Prozess von Schritt S97 zu Schritt S98 fort.
  • Im Schritt S98 setzt die Assoziierungs-Verarbeitungseinheit 35 das Assoziierungs-Gültigkeitsflag auf 1. Danach schreitet der Prozess von Schritt nicht von Schritt S98 zu anderen Verarbeitungsschritten und wird die Gültigkeitsbestimmungs-Verarbeitung beendet.
  • Wenn andererseits im Schritt S97 die Assoziierungs-Verarbeitungseinheit 35 bestimmt, dass das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht, nicht gültig ist, schreitet der Prozess von Schritt S97 zu Schritt S99 fort.
  • Im Schritt S99 setzt die Assoziierungs-Verarbeitungseinheit 35 das Assoziierungs-Gültigkeitsflag auf 0. Danach schreitet der Prozess nicht von Schritt S98 zu anderen Verarbeitungsschritten fort und wird die Gültigkeitsbestimmungs-Verarbeitung beendet.
  • Wie oben beschrieben, identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Objektmodells Cmodel1 auf Basis der Position HP des Kandidatenpunkts DPH und der Vorhersageposition PredP.
  • Die Assoziierungs-Verarbeitungseinheit 35 bestimmt, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht, basierend auf der Positionsbeziehung zwischen dem Assoziierungsbereich RA und dem Detektionspunkt DP. In diesem Fall wird der Assoziierungsbereich RA so eingestellt, dass der Assoziierungsbereich RA die Referenzposition BP als die Referenz aufweist. Der Detektionspunkt DP ist der Detektionspunkt DP zu der Zeit, wenn der externe Informationssensor 1 zumindest ein Objekt einer Vielzahl von Objekten detektiert hat.
  • Spezifisch ist das Objektmodell Cmodel1 das durch Modellieren des Objekts ermittelte Modell. Als die Vorhersageposition PredP wird die Position des Bewegungsziels des Objekts als die Position des Bewegungsziels auf dem Objektmodell Cmodel1 vorhergesagt. Somit wird die Auflösung des externen Informationssensors 1 nicht an der Vorhersageposition PredP widergespiegelt.
  • Wie oben beschrieben, weist der externe Informationssensor 1 eine Auflösung auf, welche abhängig von dem Messprinzip des externen Informationssensors 1 variiert. Somit stellt die Temporär-Einstelleinheit 33 zumindest eine Position HP des Kandidatenpunkts DPH am Objektmodell Cmodel1 auf Basis der Auflösung des externen Informationssensors 1 ein. Folglich wird die Auflösung des externen Informationssensors 1 an der Position HP des Detektionspunkts DPH widergespiegelt.
  • Weiter identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP des Objektmodells Cmodel1 auf Basis der Position HP des Kandidatenpunkts DPH und der Vorhersageposition PredP. Folglich wird die Auflösung des externen Informationssensors 1 auch an der Vorhersageposition PredP des Objektmodells Cmodel1 wiedergespiegelt. Somit wird auch der externe Informationssensor 1 am Assoziierungsbereich RA wiedergespiegelt, der so eingestellt wird, dass der Assoziierungsbereich RA die Referenzposition BP als die Referenz aufweist.
  • Weiter verwendet die Assoziierungs-Verarbeitungseinheit 35 den Assoziierungsbereich RA für die Bestimmungsverarbeitung davon, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht.
  • Folglich ist das Ergebnis der Bestimmungsverarbeitung davon, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht, ein Ergebnis, das unter Berücksichtigung von Abweichung erhalten wird, welche durch die Auflösung des externen Informationssensors 1 verursacht wird. Als Ergebnis wird der Assoziierungsbereich RA, der so eingestellt ist, dass der Assoziierungsbereich RA die Referenzposition BP als die Referenz aufweist, unter Berücksichtigung der durch die Auflösung des externen Informationssensors 1 verursachten Abweichung ermittelt. Somit, wenn bestimmt wird, ob der Assoziierungsbereich RA und die Position P des Detektionspunkts DP miteinander assoziieren oder nicht, wird das Bestimmungsergebnis unter Berücksichtigung der durch die Auflösung des externen Informationssensors 1 verursachten Abweichung ermittelt. Folglich ist es möglich, das Auftreten von fehlerhafter Bestimmung der Assoziierung zwischen Assoziierungsbereich RA und der Position P des Detektionspunkts DP zu reduzieren und somit kann die Genauigkeit der Verfolgungsdaten TD zum Objekt vergrößert werden.
  • Die Assoziierungs-Verarbeitungseinheit 35 identifiziert die Referenzposition BP des Objektmodells Cmodel1 auf Basis eines Objekt-Identifikationselement, das den Zustand und/oder die Größe des Objektmodells Cmodel1 identifiziert. Die Positionsbeziehung zwischen der Position HP des Kandidatenpunkts DPH, der Vorhersageposition PredP und dem Objektmodells Cmodel1 wird klar durch Verwendung des Objekt-Identifikationselements. Somit wird die Positionsbeziehung zwischen dem Objektmodell Cmodel1 und der Referenzposition BP klar. Folglich ist es möglich, die Referenzposition BP am Objektmodell Cmodel1 genau zu identifizieren.
  • Darüber hinaus kann es sein, dass die Assoziierungs-Verarbeitungseinheit 35 nicht fähig ist, als ein Objekt-Identifikationselement die Breite W oder/und die Länge L des Objektmodells Cmodel1 aus dem externen Informationssensor 1 zu erfassen. In diesem Fall identifiziert die Assoziierungs-Verarbeitungseinheit 35 einen Einstellwert, der dem Objekt-Identifikationselement entspricht, das nicht aus dem externen Informationssensor 1 erfasst werden kann, von den Einstellwerten, die vorab individuell entsprechend der Breite W und der Länge L des Objektmodells Cmodel1 eingestellt werden. Die Assoziierungs-Verarbeitungseinheit 35 identifiziert den Wert des Objekt-Identifikationselements, das nicht aus dem externen Informationssensor 1 erfasst werden kann, basierend auf dem identifizierten Einstellwert.
  • Somit, selbst wenn die Breite W oder/und die Länge L des Objektmodells Cmodel1 nicht aus dem externen Informationssensor 1 erfasst werden kann, können die Verschiebungsdaten TD aktualisiert werden, während ein Fehler unterdrückt wird. Folglich ist die Beziehung zwischen dem Eigenfahrzeug und dem Objekt nicht sehr anders als die Relativ-Positionsbeziehung, und somit kann ein Absinken bei der Genauigkeit des automatischen Fahrens des Eigenfahrzeugs auf einem Minimalpegel unterdrückt werden.
  • Darüber hinaus kann es sein, dass die Assoziierungs-Verarbeitungseinheit 35 nicht in der Lage ist, als ein Objekt-Identifikationselement die Breite W, die Länge L oder/und die Richtung θ des Objektmodells Cmodel1 aus dem externen Informationssensor 1 zu erfassen. In diesem Fall identifiziert die Assoziierungs-Verarbeitungseinheit 35 einen Einstellwert, der dem Objekt-Identifikationselement entspricht, das nicht aus dem externen Informationssensor 1 erfasst werden kann, von den Einstellwerten, die vorab individuell entsprechend der Breite W, der Länge L und der Richtung θ des Objektmodells Cmodel1 eingestellt sind. Die Assoziierungs-Verarbeitungseinheit 35 identifiziert den Wert des Objekt-Identifikationselements, das nicht aus dem externen Informationssensor 1 erfasst werden kann, basierend auf dem identifizierten Einstellwert.
  • Somit, selbst wenn die Breite W, die Länge L oder/und die Richtung θ des Objektmodells Cmodel1 nicht aus dem externen Informationssensor 1 erfasst werden kann, können die Verfolgungsdaten TD während der Unterdrückung eines Fehlers aktualisiert werden. Folglich unterscheidet sich die Relativ-Positionsbeziehung zwischen dem Eigenfahrzeug und dem Objekt nicht sehr von der Relativ-Positionsbeziehung und somit kann ein Abfall bei der Präzision des automatischen Fahrens des Eigenfahrzeugs auf den minimalen Pegel unterdrückt werden.
  • Darüber hinaus kann es sein, dass die Assoziierungs-Verarbeitungseinheit 35 nicht in der Lage ist, als ein Objekt-Identifikationselement die Breite W, die Länge L, die Richtung θ oder/und die Höhe H des Objektmodells Cmodel1 aus dem externen Informationssensor 1 zu erfassen. In diesem Fall identifiziert die Assoziierungs-Verarbeitungseinheit 35 einen Einstellwert, der dem Objekt-Identifikationselement entspricht, das nicht aus dem externen Informationssensor 1 erfasst werden kann, von den Einstellwerten, die vorab individuell entsprechend der Breite W, der Länge L, der Richtung θ und der Höhe H des Objektmodells Cmodel1 eingestellt sind. Die Assoziierungs-Verarbeitungseinheit 35 identifiziert zum Wert des Objekt-Identifikationselements, das nicht aus dem externen Informationssensor 1 erfasst werden kann, basierend auf dem identifizierten Einstellwert.
  • Somit, selbst wenn die Breite W, die Länge L, die Richtung θ oder/und die Höhe H des Objekts nicht aus dem externen Informationssensor 1 erfasst werden kann, können die Verfolgungsdaten TD aktualisiert werden, während ein Fehler unterdrückt wird. Folglich unterscheidet sich die Relativ-Positionsbeziehung zwischen dem Eigenfahrzeug und dem Objekt nicht sehr von der Relativ-Positionsbeziehung und somit kann ein Absinken bei der Präzision des automatischen Fahrens des Eigenfahrzeugs auf einen minimalen Wert unterdrückt werden.
  • Darüber hinaus kann es sein, dass die Assoziierungs-Verarbeitungseinheit 35 nicht in der Lage ist, als ein Objekt-Identifikationselement die Breite W, die Länge L, die Richtung θ, die Position des oberen Endes ZH oder/und die Position des unteren Endes ZL des Objektmodells Cmodel1 aus dem externen Informationssensor 1 zu erfassen. In diesem Fall identifiziert die Assoziierungs-Verarbeitungseinheit 35 einen Einstellwert, der dem Objekt-Identifikationselement entspricht, das nicht aus dem externen Informationssensor 1 erfasst werden kann, von den Einstellwerten, die vorab individuell entsprechend der Breite W, der Länge L, der Richtung θ, der Position des oberen Endes ZH und der Position des unteren Endes ZL des Objektmodells Cmodel1 eingestellt sind. Die Assoziierungs-Verarbeitungseinheit 35 identifiziert den Wert des Objekt-Identifikationselements, das nicht aus dem externen Informationssensor 1 erfasst werden kann, basierend auf dem identifizierten Einstellwert.
  • Somit, selbst wenn die Breite W, die Länge L, die Richtung θ, die Position des oberen Endes ZH oder/und die Position des unteren Endes ZL des Objektmodells Cmodel1 nicht aus dem externen Informationssensor 1 erfasst werden kann, können die Verfolgungsdaten TD aktualisiert werden, während der Fehler unterdrückt wird. Folglich unterscheidet sich die Relativ-Positionsbeziehung zwischen dem Eigenfahrzeug und dem Objekt nicht stark von der Relativ-Positionsbeziehung und somit kann ein Abfall bei der Präzision des automatischen Fahrens des eigenen Fahrzeugs auf das minimale Niveau reduziert werden.
  • Darüber hinaus, wenn die Position des oberen Endes ZH und die Position des unteren Endes ZL des Objektmodells Cmodel1 auch zusätzlich zur Breite W, der Länge L und der Richtung θ des Objekts korrigiert werden, ist es möglich, zu identifizieren, ob das Objekt ein stationäres Objekt ist oder nicht. Das stationäre Objekt ist beispielsweise eine Anzeige. Das stationäre Objekt kann ein Verkehrszeichen sein. Somit kann der Typ des Objekts identifiziert werden. Folglich kann die Präzision des automatischen Fahrens des eigenen Fahrzeugs weiter erhöht werden.
  • Darüber hinaus kann die Assoziierungs-Verarbeitungseinheit 35 eine Vielzahl von Kandidatenpunkten DPH für einen Detektionspunkt DP aufweisen. In diesem Fall identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP am Objektmodells Cmodel1 auf Basis der jeweiligen Zuverlässigkeiten DOR und der Vielzahl von Kandidatenpunkten DPH und der entsprechenden Positionen HP der Vielzahl von Kandidatenpunkten DPH am Objektmodell Cmodel1.
  • Somit wird der Referenzposition BP am Objektmodell Cmodel1 auch unter Berücksichtigung der Zuverlässigkeit DOR der Positionen HP der Kandidatenpunkte DPH identifiziert. Folglich kann jeder der Vielzahl von Kandidatenpunkten DPH effektiv verwendet werden.
  • Darüber hinaus identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP am Objektmodell Cmodel1 auf Basis der Position HP des Kandidatenpunkts DPH, welcher die höchste Zuverlässigkeit DOR von den Positionen HP der Vielzahl von Kandidatenpunkten DPH am Objektmodells Cmodel1 aufweist.
  • Wenn es eine Vielzahl von Kandidatenpunkten DPH an einem Objektmodells Cmodel1 gibt, können sich die jeweiligen eingestellten Präzisionen der Positionen HP der Vielzahl von Kandidatenpunkten DPH an dem einen Objektmodell Cmodel1 voneinander unterscheiden. Somit identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP am Objektmodell Cmodel1 basierend auf der Position HP des Kandidatenpunkts DPH, der die höchste Zuverlässigkeit DOR aufweist, von den Positionen HP der Vielzahl von Kandidatenpunkten DPH an dem einen Objektmodell Cmodel1. Somit kann die Position HP des Kandidatenpunkts DPH mit der höchsten Einstellpräzision an dem einen Objektmodell Cmodel1 verwendet werden. Folglich ist es möglich, die Position HP des Kandidatenpunkts DPH, welches die höchste eingestellte Präzision von den Positionen HP der Vielzahl von Kandidatenpunkten DPH an dem einen Objektmodell Cmodel1 aufweist, das basierend auf der Auflösung desselben externen Informationssensors 1 ist, aufweisen.
  • Darüber hinaus identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP an einem Objektmodell Cmodel1 durch Durchschnittsbildung der entsprechenden Positionen HP der Vielzahl von Kandidatenpunkten DPH an dem einen Objektmodell Cmodel1, die gemäß ihrer jeweiligen Zuverlässigkeiten DOR gewichtet werden.
  • Wenn es eine Vielzahl von Kandidatenpunkten DPH an einem Objektmodell Cmodel1 gibt, unterscheiden sich die jeweiligen eingestellten Präzisionen der Positionen HP der Vielzahl von Kandidatenpunkten DPH an dem einen Objektmodell Cmodel1 voneinander. Somit identifiziert die Assoziierungs-Verarbeitungseinheit 35 die Referenzposition BP an dem einen Objektmodell Cmodel1 durch berechnete durch gewichteten Durchschnitt für jede der Positionen HP der Vielzahl von Kandidatenpunkten DPH an dem einen Objektmodell Cmodel1. Nachdem der Einfluss von Kandidatenpunkten DPH, die eine niedrige Zuverlässigkeit DOR aufweisen, reduziert ist, und der Einfluss von Kandidatenpunkten DPH, die eine hohe Zuverlässigkeit DOR aufweisen, erhöht ist, von der Vielzahl von Kandidatenpunkten DPH an dem einen Objektmodell Cmodel1, wird die Kabinenbedienpaneel des Objektmodells Cmodel1 identifiziert. Folglich, nachdem die jeweiligen Zuverlässigkeiten DOR, die auf die Positionen HP der Vielzahl von Kandidatenpunkten DPH an dem einen Objekt eingestellt sind, das basierend auf der Auflösung desselben externen Informationssensors 1 eingestellt ist, wiedergespiegelt werden, kann die Referenzposition BP an dem Objektmodell Cmodel1 identifiziert werden.
  • Darüber hinaus ermittelt die Assoziierungs-Verarbeitungseinheit 35 jede Zuverlässigkeit DOR auf Basis der Distanz aus dem externen Informationssensor 1 zu der Position P des Detektionspunkts DP oder/und der Referenzposition BP.
  • Die Auflösung des externen Informationssensors 1 ist die Auflösung, die sich abhängig von der Distanz von dem externen Informationssensor 1 zu der Position P des Detektionspunkts DP oder der Referenzposition BP ändert. Beispielsweise in einem Fall, in welchem der externe Informationssensor 1 aus einem Millimeterwellenradar gebildet ist, weil die Distanz zur Position P des Detektionspunkts DP kurz ist, ist es sehr wahrscheinlich, dass der Detektionspunkt DP der nächste Punkt ist. Derweil, wenn die Distanz zur Position P des Detektionspunkts DP lang ist, wird der Detektionspunkt DP in der Auflösungszelle eingegraben. Somit wird der Detektionspunkt DP angenommen, ein Reflektionspunkt zu sein, der am Zentrum eines Objektes wiedergespiegelt wird. Dasselbe gilt für die Detektionspunkt BP als den Detektionspunkt DP. Somit ermittelt die Assoziierungs-Verarbeitungseinheit 35 jede Zuverlässigkeit auf Basis der Distanz vom externen Informationssensor 1 zu der Position P des Detektionspunkts DP oder/und der Referenzposition BP. Folglich kann die Zuverlässigkeit DOR basierend auf der Leistung des externen Informationssensors 1 ermittelt werden.
  • Darüber hinaus stellt die Assoziierungs-Verarbeitungseinheit 35 den Assoziierungsbereich RA auf Basis der Größe des Objektmodells Cmodel1 mit der Vorhersageposition PredP als Zentrum und den statistischen Beträgen der Detektionsfehler, welche sich auf die Größe des Objektmodells Cmodel1 beziehen, und durch den externen Informationssensor 1 verursacht werden, ein.
  • Somit wird die Information zur Größe des Objektmodells Cmodel1 am Assoziierungsbereich RA wiedergespiegelt. Folglich kann eine fehlerhafte Assoziierung mit einem Objekt mit anderer Größe ausgeschlossen werden.
  • Darüber hinaus stellt die Assoziierungs-Verarbeitungseinheit 35 die Größe des Assoziierungsbereichs RA basierend auf der Größe des Objektmodells Cmodel1 mit der Vorhersageposition PredP als dem Zentrum und den statistischen Beträgen der Detektionsfehler, welche sich auf die Größe des Objektmodells Cmodel1 beziehen, und durch den externen Informationssensor 1 verursacht werden, ein. Die Assoziierungs-Verarbeitungseinheit 35 justiert die Größe des Assoziierungsbereichs RA gemäß der Vielzahl von Zuverlässigkeiten DOR(N).
  • Beispielsweise, wie oben unter Bezugnahme auf 6 beschrieben, wird Null als die Zuverlässigkeit DOR(1) eingestellt, wenn die Distanz gleich oder größer als die Bestimmungs-Schwellenwert-Distanz DTH2 ist. In diesem Fall ist die Zuverlässigkeit DOR(1) niedrig und sind die Detektionsfehler somit groß. Wenn die Detektionsfehler groß sind, ist die Position P des Detektionspunkts DP, die tatsächlich in dem Assoziierungsbereich zu beinhalten ist, von dem Assoziierungsbereich RA abweichend. Somit, wenn die Detektionsfehler berücksichtigt werden, ist es erforderlich, den Assoziierungsbereich RA zu erweitern. Mit dieser Konfiguration kann die Position P des Detektionspunkts DP, die von dem Assoziierungsbereich RA aufgrund der Detektionsfehler abweicht, in dem Assoziierungsbereich RA beinhaltet sein.
  • Derweil wird die Zuverlässigkeit DOR(1) auf 1 eingestellt, wenn die Distanz kürzer als die Bestimmungs-Schwellenwert-Distanz DTH1 ist. In diesem Fall ist die Zuverlässigkeit DOR(1) hoch und sind die Detektionsfehler somit klein. Wenn die Detektionsfehler klein sind, weicht die Position P des Detektionspunkts DP, die abgeschätzt wird, in dem Assoziierungsbereich RA enthalten zu sein, nicht vom Assoziierungsbereich RA ab. Somit, wenn die Detektionsfehler berücksichtigt werden, kann der Assoziierungsbereich RA mehr oder weniger verengt werden. Mit dieser Konfiguration ist es möglich, genau zu bestimmen, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren.
  • Darüber hinaus bestimmt die Assoziierungs-Verarbeitungseinheit 35, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht, auf Basis davon, ob die Euklidische Distanz du oder die Mahalanobis-Distanz dm den Assoziierungsbereich R übersteigt oder nicht. Die Euklidische Distanz du wird durch Verwendung des Differenzvektors zwischen der Position P des Detektionspunkts DP und der Referenzposition BP ermittelt. Derweil wird die Mahalanobis-Distanz dm durch Verwendung der Position P des Detektionspunkts DP und der Referenzposition BP ermittelt.
  • Somit wird bestimmt, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht, durch die Verwendung des einfachen Index, wie etwa der Euklidische Distanz du und der Mahalanobis-Distanz dm. Es ist somit möglich, die Präzision der Bestimmung davon zu vergrößern, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht.
  • Darüber hinaus evaluiert die Assoziierungs-Verarbeitungseinheit 35 auf Basis der Euklidische Distanz du oder der Mahalanobis-Distanz dm und der Vielzahl von Zuverlässigkeiten DOR(N), ob das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht, gültig ist oder nicht. Die Euklidische Distanz du wird durch Verwendung des Differenzvektors zwischen der Position P des Detektionspunkts DP und der Referenzposition BP ermittelt. Weiter ist die Mahalanobis-Distanz dm durch Verwendung der Position P des Detektionspunkts DP und der Referenzposition BP ermittelt.
  • Somit wird die Gültigkeit des Ergebnisses der Bestimmung davon, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht, evaluiert, während die Zuverlässigkeit des Ergebnisses der Bestimmung, das nicht gemäß nur dem Index vorgenommen wird, wie etwa Euklidische Distanz du oder Mahalanobis-Distanz dm, beinhaltet ist. Folglich ist es möglich, den Fehler bei der Bestimmung auszuschließen, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht.
  • Darüber hinaus evaluiert die Assoziierungs-Verarbeitungseinheit 35 auf Basis des ÜberlappungsVerhältnisses R des Bestimmungszielobjektmodells Cmodel2 zum Objektmodell Cmodel1 und der Vielzahl von Zuverlässigkeiten DOR(N), ob das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht, gültig ist. In diesem Fall weist das Objektmodell Cmodel1 die Vorhersageposition PredP als das Zentrum auf. Darüber hinaus wird das Bestimmungszielobjektmodell Cmodel2 durch Modellieren des Objekts mit der Position P des Detektionspunkts DP als dem Zentrum erzeugt.
  • Das Überlappungsverhältnis R wird höher, wenn das Eigenfahrzeug und ein Objekt sich in derselben Richtung bewegen, verglichen mit dem Fall, bei dem das Eigenfahrzeug und das Objekt sich in zueinander unterschiedlichen Richtungen bewegen, Somit ist es möglich, ein Objekt, für welches die Bestimmung der Assoziierung unwahrscheinlich ist, zukünftig nötig zu werden, auszuschließen, due Evaluieren, ob das Bestimmungsergebnis davon, ob die Position P des Detektionspunkt DP und die Vorhersageposition PredP miteinander assoziieren, gültig ist, unter Berücksichtigung des Überlappungsverhältnisses R.
  • Darüber hinaus evaluiert die Assoziierungs-Verarbeitungseinheit 35 auf Basis des Minimalwerts der Summe der Distanzen zwischen jedem Scheitel des Objektmodells Cmodell und jedem Scheitel des Bestimmungszielobj ektmodells Cmodel2 und der Vielzahl von Zuverlässigkeiten DOR(N), ob das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assozieren oder icht, gültig ist oder nicht. In diesem Fall weist das Objektmodell Cmodel1 die Vorhersageposition PredP als das Zentrum auf. Darüber hinaus wird das Bestimmungszielobjektmodell Cmodel2 durch Modellieren des Objekts mit der Position P des Detektionspunkts DP als dem Zentrum erzeugt.
  • Das Ermitteln des Minimalwerts der Summe der Distanzen zwischen jeweils jedem Scheitel des Objektmodells Cmodel1 mit der Vorhersageposition PredP als Zentrum und jedem Scheitel des Bestimmungszielobjektmodells Cmodel2 mit der Position P des Detektionspunkts DP als Zentrum ist im Kern ein Lösen des minimalen Steiner-Baumproblems. Das minimale Steiner Baumproblem ist das kürzeste Netzwerkproblem. Somit löst die Assoziierungs-Verarbeitungseinheit 35 das kürzeste Netzwerkproblem und verwendet weiter die Zuverlässigkeit DOR auch zum Evaluieren, ob das Bestimmungsergebnis davon, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht, gültig ist, oder nicht. Folglich ist es möglich, die Gültigkeit des Bestimmungsergebnisses davon, ob die Position P des Detektionspunkts DP und die Vorhersageposition PredP miteinander assoziieren oder nicht, genauer zu bestimmen.
  • Darüber hinaus beinhaltet diese Ausführungsform eine Verarbeitungsschaltung zum Implementieren der Objekterkennungs-Vorrichtung 3. Die Verarbeitungsschaltung kann dedizierte Hardware oder eine CPU (Zentraleinheit, auch als Verarbeitungseinheit, Recheneinheit, Mikroprozessor, Mikrocomputer, Prozessor oder DSP bezeichnet) zum Ausführen von in einem Speicher gespeicherten Programmen sein.
  • 21 ist ein Diagramm zum Illustrieren eines Hardware-Konfigurations-Beispiels. In 21 ist eine Verarbeitungsschaltung 201 mit einem Bus 202 verbunden. Wenn die Verarbeitungsschaltung 201 dedizierte Hardware ist, entspricht beispielsweise eine einzelne Schaltung, eine komplexe Schaltung, ein programmierter Prozessor, eine ASIC, ein FPGA oder eine Kombination derselben der Verarbeitungsschaltung 201. Jede der Funktionen der entsprechenden Einheiten der Objekterkennungs-Vorrichtung 3 kann durch die Verarbeitungsschaltung 201 implementiert werden oder die Funktionen der entsprechenden Einheiten können kollektiv durch die Verarbeitungsschaltung 201 implementiert werden.
  • 22 ist ein Diagramm zum Illustrieren eines anderen Hardware-Konfigurationsbeispiels. In 22 sind ein Prozessor 203 und ein Speicher 204 mit einem Bus 202 verbunden. Wenn die Verarbeitungsschaltung eine CPU ist, werden die Funktionen der entsprechenden Einheiten der Objekterkennungs-Vorrichtung 3 durch Software, Firmware oder eine Kombination von Software und Firmware implementiert. Die Software oder die Firmware wird als Programme beschrieben und wird in dem Speicher 204 gespeichert. Die Verarbeitungsschaltung liest die in dem Speicher 204 gespeicherten Programme aus und führt sie aus, um dadurch die Funktionen der entsprechenden Einheiten zu implementieren. Das heißt, dass die Objekterkennungs-Vorrichtung 3 den Speicher 204 zum Speichern der Programme, die folglich Schritte des Steuerns der Zeitmesseinheit 31, der Datenempfangseinheit 32, der Temporär-Einstelleinheit 33, der Vorhersage-Verarbeitungseinheit 34, der Assoziierungs-Verarbeitungseinheit 35 und der Aktualisierungs-Verarbeitungseinheit 36 ausführen, wenn die Programme durch die Verarbeitungsschaltung ausgeführt werden, beinhaltet. Darüber hinaus kann berücksichtigt werden, dass jene Programme den Computer veranlassen, Prozeduren oder Verfahren des Ausführens der Zeitmesseinheit 31, der Datenempfangseinheit 32, der Temporär-Einstelleinheit 33, der Vorhersage-Verarbeitungseinheit 34, der Assoziierungs-Verarbeitungseinheit 35 und der Aktualisierungs-Verarbeitungseinheit 36 auszuführen. In dieser Konfiguration entsprechen ein nicht-flüchtiger oder flüchtiger Halbleiterspeicher wie etwa ein RAM, ein ROM, ein Flash-Speicher, ein EPROM, ein EEPROM und dergleichen, eine Magnet-Disk, eine flexible Disk, eine optische Disk, eine Compact-Disc, eine Min-disk, eine DVD und dergleichen dem Speicher 204.
  • Ein Teil der Funktionen der entsprechenden Einheiten der Objekterkennungs-Vorrichtung 3 kann durch dedizierte Hardware implementiert werden und ein verbleibender Teil derselben kann durch Software oder Firmware implementiert werden. Beispielsweise kann die Funktion der Temporär-Einstelleinheit 33 durch eine Verarbeitungsschaltung als dedizierte Hardware implementiert werden. Darüber hinaus kann die Funktion der Assoziierungs-Verarbeitungseinheit 35 durch eine Verarbeitungsschaltung implementiert werden, die das in dem Speicher 204 gespeicherte Programm ausliest und ausführt.
  • Wie oben beschrieben, kann die Verarbeitungsschaltung jede der oben erwähnten Funktionen durch Hardware, Software, Firmware oder eine Kombination derselben implementieren.
  • In der ersten Ausführungsform wird eine Beschreibung des Beispiels der Verarbeitung des Bestimmens gegeben, ob die Detektionsdaten DDRT und die Vorhersagedaten TDRTpred der Detektionsdaten TDRT miteinander assoziieren, durch Verwendung des SNN-Algorithmus, des GNN-Algorithmus, des JPDA-Algorithmus, oder dergleichen, aber die Konfiguration ist nicht auf dieses Beispiel beschränkt.
  • Beispielsweise, ob die Detektionsdaten DDRT und die Vorhersagedaten TDRTpred miteinander assoziieren oder nicht, kann bestimmt werden basierend darauf, ob eine Differenz zwischen jedem Detektionselement und jedem Verfolgungselement innerhalb eines Fehlerbetrags „e“ liegt, der vorab definiert ist, oder nicht. In diesem Fall ist jedes Detektionselement in den Detektionsdaten DDRT enthalten. Darüber hinaus ist jedes Verfolgungselement in den Vorhersagedaten TDRTpred beinhaltet.
  • Spezifisch leitet die Assoziierungs-Verarbeitungseinheit 35 eine Distanzdifferenz zwischen der Position P in Bezug auf den in den Vorhersagedaten DDRT enthaltenen externen Informationssensor 1 und der in den Vorhersagedaten TDRTpred der Verfolgungsdaten TDRT enthaltenen Position P ab.
  • Die Assoziierungs-Verarbeitungseinheit 35 leitet eine Geschwindigkeitsdifferenz zwischen der in den Detektionsdaten DDRT enthaltenen Geschwindigkeit V und der in den Vorhersagedaten TDRTpred der Verfolgungsdaten TDRT enthaltenen Geschwindigkeit V ab.
  • Die Assoziierungs-Verarbeitungseinheit 35 leitet eine Azimuth-Winkel-Differenz zwischen dem in den Detektionsdaten DDRT enthaltenen Azimuth-Winkel und dem in den Vorhersagedaten TDRTpred der Verfolgungsdaten TDRT enthaltenen Azimuth-Winkel ab.
  • Die Assoziierungs-Verarbeitungseinheit 35 ermittelt eine Quadratwurzel einer Summe von Quadraten der Distanzdifferenz, der Geschwindigkeitsdifferenz und der Azimuth-Winkel-Differenz. Wenn die ermittelte Quadratwurzel den Fehlerbetrag „e“ übersteigt, bestimmt die Assoziierungs-Verarbeitungseinheit 35, dass die Detektionsdaten DDRT und die Vorhersagedaten TDRTpred nicht miteinander assoziieren. Wenn die ermittelte Quadratwurzel gleich oder kleiner als der Fehlerbetrag „e“ ist, bestimmt die Assoziierungs-Verarbeitungseinheit 35, dass die Detektionsdaten DDRT und die Vorhersagedaten TDRTpred miteinander assoziieren. Durch diese Bestimmungsverarbeitung kann bestimmt werden, ob die Detektionsdaten DDRT und die Vorhersagedaten TDRTpred der Verfolgungsdaten TDRT miteinander assoziieren oder nicht.
  • Darüber hinaus kann beispielsweise die Grundgeschwindigkeit am Detektionspunkt DP auf Basis der Geschwindigkeit V des Detektionspunkts DP ermittelt werden. Es gibt einen Fall, bei dem die Grundgeschwindigkeit am Detektionspunkt DP ermittelt wird.
  • In diesem Fall, wenn das durch den externen Informationssensor 1 detektierte Objekt bestimmt worden ist, das Fahrzeug C zu sein, auf Basis der Bodengeschwindigkeit und dem Detektionspunkt DP, kann es sein, dass die Objekt-Identifikationselemente der Detektionsdaten DD die Breite W und die Länge L des Fahrzeugs C nicht enthalten.
  • In diesem Fall wird die Breite W des Fahrzeugs C auf 2 m eingestellt und wird die Länge L des Fahrzeugs C auf 4,5 m eingestellt. Die Breite W und die Länge L des Fahrzeugs C, die auf diese Weise eingestellt ist, sind auch Einstellwerte, die individuell vorab entsprechend den Objekt-Identifikationselementen eingestellt sind, die nicht aus dem externen Informationssensor 1 erfasst werden können.
  • Die Aktualisierungs-Verarbeitungseinheit 36 kann die Verfolgungsdaten TD basierend auf der Geschwindigkeit V des Detektionspunkts DP zur Zeit, wenn das Objekt durch den externen Informationssensor 1 detektiert wurde, aktualisieren. Folglich können die Verfolgungsdaten TD auf Basis der Geschwindigkeit V des Detektionspunkts DP unter Berücksichtigung des durch den externen Informationssensors 1 beobachteten Beobachtungsergebnisses aktualisiert werden. Als Ergebnis kann die relative Positionsbeziehung zwischen dem Eigenfahrzeug und dem Objekt genau erkannt werden und kann die Präzision des automatischen Fahrens des Eigenfahrzeugs weiter verbessert werden.
  • Bezugszeichenliste
  • 1
    Externer Informationssensor
    2
    Fahrzeug-Informationssensor
    3
    Objekterkennungs-Vorrichtung
    4
    Mitteilungs-Steuervorrichtung
    5
    Fahrsteuervorrichtung
    31
    Zeitmesseinheit
    32
    Datenempfangseinheit
    33
    Temporär-Einstelleinheit
    34
    Vorhersage-Verarbeitungseinheit
    35
    Assoziierungs-Verarbeitungseinheit
    36
    Aktualisierungs-Verarbeitungseinheit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2017215161 A [0003]

Claims (17)

  1. Objekt-Erkennungsvorrichtung, umfassend: eine Vorhersage-Verarbeitungseinheit, die konfiguriert ist, als eine Vorhersage-Position zu einem Objektmodell, welches durch Modellieren eines Verfolgungsziels erhalten wird, eine Position eines Bewegungsziels des Verfolgungsziels vorherzusagen, basierend auf einem Bahnverlauf, welcher durch Bewegung zumindest eines Objektes einer Vielzahl von Objekten als das Verfolgungsziel gebildet wird; eine Temporär-Einstelleinheit, die konfiguriert ist, basierend auf Spezifikationen eines Sensors, welcher das Verfolgungsziel detektiert hat, eine Position zumindest eines Kandidatenpunkts am Objektmodell einzustellen; und eine Assoziierungs-Verarbeitungseinheit, die konfiguriert ist, eine Referenzposition an dem Objektmodell auf Basis der Position des zumindest einen Kandidatenpunktes und der Vorhersageposition zu identifizieren, und basierend auf einer Positionsbeziehung zwischen einem Assoziierungsbereich, der so eingestellt ist, dass der Assoziierungsbereich die Referenzposition zu dem Objektmodell als eine Referenz aufweist, und einem Detektionspunkt zu einer Zeit, wenn der Sensor das zumindest eine Objekt der Vielzahl von Objekten detektiert hat, zu bestimmen, ob die Position des Detektionspunkts und die Vorhersageposition miteinander assoziieren.
  2. Objekt-Erkennungsvorrichtung gemäß Anspruch 1, wobei die Assoziierungs-Verarbeitungseinheit konfiguriert ist, die Referenzposition am Objektmodell auf Basis eines Objekt-Identifikationselements zu identifizieren, welches einen Zustand oder/und eine Größe des Objektmodells identifiziert.
  3. Objekt-Erkennungsvorrichtung gemäß Anspruch 2, wobei die Assoziierungs-Verarbeitungseinheit konfiguriert ist, wenn eine Breite und/oder eine Länge des Objektmodells aus dem Sensor als das Objekt-Identifikationselement unverfügbar ist, einen Wert des Objekt-Identifikationselements, der aus dem Sensor unverfügbar ist, zu identifizieren, basierend auf, von Einstellwerten, die vorab individuell entsprechend der Breite und der Länge des Objektmodells eingestellt sind, des Einstellwerts, der dem aus dem Sensor unverfügbaren Objekt-Identifikationselement entspricht.
  4. Objekt-Erkennungsvorrichtung gemäß Anspruch 2, wobei die Assoziierungs-Verarbeitungseinheit konfiguriert ist, wenn eine Breite, eine Länge oder/und eine Richtung des Objektmodells aus dem Sensor als das Objekt-Identifikationselement unverfügbar ist, einen Wert des aus dem Sensor unverfügbaren Objekt-Identifikationselementes zu identifizieren, basierend auf, aus Einstellwerten, die individuell vorab entsprechend der Breite, der Länge und der Richtung des Objektmodells eingestellt sind, wobei der Einstellwert dem aus dem Sensor unverfügbaren Objekt-Identifikationselement entspricht.
  5. Objekt-Erkennungsvorrichtung gemäß Anspruch 2, wobei die Assoziierungs-Verarbeitungseinheit konfiguriert ist, wenn eine Breite, eine Länge, eine Richtung oder/und eine Höhe des Objektmodells aus dem Sensor als das Objekt-Identifikationselement unverfügbar ist, einen Wert des Objekt-Identifikationselements zu identifizieren, das aus dem Sensor unverfügbar ist, auf Basis von, aus Einstellwerten, die individuell vorab entsprechend der Breite, der Länge, der Richtung und der Höhe des Objektmodells eingestellt sind, dem Einstellwert, der dem aus dem Sensor unverfügbaren Objekt-Identifikationselement entspricht.
  6. Objekt-Erkennungsvorrichtung gemäß Anspruch 2, wobei die Assoziierungs-Verarbeitungseinheit konfiguriert ist, wenn eine Breite, eine Länge, eine Richtung, eine Position eines oberen Endes oder/und eine Position eines unteren Endes des Objektmodells aus dem Sensor als das Objekt-Identifikationselement unverfügbar ist, einen Wert des Objekt-Identifikationselements, das aus dem Sensor unverfügbar ist, zu identifizieren, basierend auf, aus individuell vorab entsprechend der Breite, der Länge, der Richtung, der Position des oberen Endes und der Position des unteren Endes des Objektmodells eingestellten Werten, dem Einstellwert, der dem aus dem Sensor unverfügbaren Objekt-Identifikationselement entspricht.
  7. Objekt-Erkennungsvorrichtung gemäß einem der Ansprüche 1 bis 6, wobei, wenn die Anzahl von Kandidatenpunkten zwei oder mehr beträgt, die Assoziierungs-Verarbeitungseinheit konfiguriert ist, die Referenzposition am Objektmodell zu identifizieren, auf Basis einer Zuverlässigkeit jedes der Vielzahl von Kandidatenpunkten und einer Position jedes der Vielzahl von Kandidatenpunkten am Objektmodell.
  8. Objekt-Erkennungsvorrichtung gemäß Anspruch 7, wobei die Assoziierungs-Verarbeitungseinheit konfiguriert ist, die Referenzposition am Objektmodell zu identifizieren, auf Basis einer Position eines Kandidatenpunkts, welcher die höchste Zuverlässigkeit aufweist, von den Positionen der Vielzahl von Kandidatenpunkten am Objektmodell.
  9. Objekt-Erkennungsvorrichtung gemäß Anspruch 7, wobei die Assoziierungs-Verarbeitungseinheit konfiguriert ist, die Referenzposition am Objektmodell durch Durchschnittsbildung der jeweiligen Positionen der Vielzahl von Kandidatenpunkten am Objektmodell zu identifizieren, die gemäß den jeweiligen Zuverlässigkeiten gewichtet werden.
  10. Objekt-Erkennungsvorrichtung gemäß einem der Ansprüche 7 bis 9, wobei die Assoziierungs-Verarbeitungseinheit konfiguriert ist, jede Zuverlässigkeit auf Basis einer Distanz vom Sensor zu der Position des Detektionspunkts oder/und der Referenzposition zu ermitteln.
  11. Objekt-Erkennungsvorrichtung gemäß einem der Ansprüche 7 bis 10, wobei die Assoziierungs-Verarbeitungseinheit konfiguriert ist, den Assoziierungsbereich auf Basis einer Größe des Objektmodells mit der Vorhersageposition als einem Zentrum und einem statistischen Betrag eines Detektionsfehlers, welcher sich auf die Größe des Objektmodells bezieht, und durch den Sensor verursacht wird, einzustellen.
  12. Objekt-Erkennungsvorrichtung gemäß einem der Ansprüche 7 bis 10, wobei die Assoziierungs-Verarbeitungseinheit konfiguriert ist, gemäß der Vielzahl von Zuverlässigkeiten, eine Größe des Assoziierungsbereichs, der basierend auf einer Größe des Objektmodells mit der Vorhersageposition als einem Zentrum und einem statistischen Betrag eines Detektionsfehlers, der sich auf die Größe des Objektmodells bezieht und durch den Sensor veranlasst wird, eingestellt wird, zu justieren.
  13. Objekt-Erkennungsvorrichtung gemäß Anspruch 11 oder 12, wobei die Assoziierungs-Verarbeitungseinheit konfiguriert ist, zu bestimmen, ob die Position des Detektionspunkts und die Vorhersageposition miteinander assoziieren, basierend darauf, ob der Assoziierungsbereich durch entweder eine Euklidische Distanz eines Differenzvektors zwischen der Position des Detektionspunkts und der Referenzposition, oder eine Mahalanobis-Distanz, die basierend auf der Position des Detektionspunkts und der Referenzposition abgeleitet wird, überschritten wird.
  14. Objekt-Erkennungsvorrichtung gemäß Anspruch 13, wobei die Assoziierungs-Verarbeitungseinheit konfiguriert ist, zu evaluieren, ob ein Ergebnis der Bestimmung davon, ob die Position des Detektionspunkts und die Vorhersageposition miteinander assoziieren, gültig ist, auf Basis entweder der Euklidischen Distanz oder der Mahalanobis-Distanz, und der Vielzahl von Zuverlässigkeiten.
  15. Objekt-Erkennungsvorrichtung gemäß Anspruch 13, wobei die Assoziierungs-Verarbeitungseinheit konfiguriert ist, zu evaluieren, ob ein Ergebnis der Bestimmung davon, ob die Position des Detektionspunkts und die Vorhersageposition miteinander assoziieren, gültig ist, basierend auf einem Überlappungs-Verhältnis eines Bestimmungszielobjektmodells, das ermittelt wird durch Modellieren des zumindest einen Objekts mit der Position des Detektionspunkts als einem Zentrum, zum Objektmodell mit der Vorhersageposition als dem Zentrum, und auf der Vielzahl von Zuverlässigkeiten.
  16. Objekt-Erkennungsvorrichtung gemäß Anspruch 13, wobei die Assoziierungs-Verarbeitungseinheit konfiguriert ist, zu evaluieren, ob ein Ergebnis der Bestimmung davon, ob die Position des Detektionspunkts und die Vorhersageposition miteinander assoziieren, gültig ist, basierend auf einem Minimalwert einer Summe von Distanzen zwischen jeweils jedem Scheitel des Objektmodells mit der Vorhersageposition als Zentrum und jedem Scheitel eines Bestimmungszielobjektmodells, das ermittelt wird durch Modellieren des zumindest einen Objekts mit der Position des Detektionspunkts als einem Zentrum, und auf der Vielzahl von Zuverlässigkeiten.
  17. Objekt-Erkennungsverfahren, umfassend die Schritte: Vorhersagen, als eine Vorhersageposition eines Objektmodells, welches durch Modellieren eines Verfolgungsziels ermittelt wird, einer Position eines Bewegungsziels des Verfolgungsziels auf Basis eines Bahnverlaufs, welcher durch Bewegung des zumindest einen Objekts einer Vielzahl von Objekten als dem Verfolgungsziel gebildet wird; Einstellen, basierend auf Spezifikationen eines Sensors, der das Verfolgungsziel detektiert hat, einer Position zumindest eines Kandidatenpunkts am Objektmodell; und Identifizieren einer Referenzposition am Objektmodell auf Basis der Position des zumindest einen Kandidatenpunkts und der Vorhersageposition, und Bestimmen, basierend auf einer Positionsbeziehung zwischen einem Assoziierungsbereich, der so eingestellt ist, dass der Assoziierungsbereich die Referenzposition am Objektmodell aufweist, als eine Referenz, und einem Detektionspunkt zu einer Zeit, wenn der Sensor das zumindest eine Objekt der Vielzahl von Objekten detektiert hat, ob die Position des Detektionspunkts und die Vorhersageposition miteinander assoziieren.
DE112019007925.5T 2019-11-29 2019-11-29 Objekt-Erkennungsvorrichtung und Objekt-Erkennungsverfahren Pending DE112019007925T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/046807 WO2021106197A1 (ja) 2019-11-29 2019-11-29 物体認識装置及び物体認識方法

Publications (1)

Publication Number Publication Date
DE112019007925T5 true DE112019007925T5 (de) 2022-09-22

Family

ID=76128670

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019007925.5T Pending DE112019007925T5 (de) 2019-11-29 2019-11-29 Objekt-Erkennungsvorrichtung und Objekt-Erkennungsverfahren

Country Status (5)

Country Link
US (1) US20230011475A1 (de)
JP (1) JP7134368B2 (de)
CN (1) CN114730004A (de)
DE (1) DE112019007925T5 (de)
WO (1) WO2021106197A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220289195A1 (en) * 2021-03-15 2022-09-15 GM Global Technology Operations LLC Probabilistic adaptive risk horizon for event avoidance and mitigation in automated driving
CN113411549B (zh) * 2021-06-11 2022-09-06 上海兴容信息技术有限公司 一种判断目标门店的业务是否正常的方法
US20230030104A1 (en) * 2021-07-29 2023-02-02 Waymo Llc Lateral gap planning for autonomous vehicles

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017215161A (ja) 2016-05-30 2017-12-07 株式会社東芝 情報処理装置、および、情報処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002122669A (ja) * 2000-10-18 2002-04-26 Nissan Motor Co Ltd 物体位置検出方法
JP5380788B2 (ja) * 2007-05-30 2014-01-08 トヨタ自動車株式会社 物体検出装置、及び車両用制御装置
JP4843571B2 (ja) 2007-07-04 2011-12-21 本田技研工業株式会社 車両用物体検知装置
JP6460822B2 (ja) * 2015-02-10 2019-01-30 国立大学法人金沢大学 移動物体追跡方法および移動物体追跡装置
JP6609292B2 (ja) 2017-08-24 2019-11-20 株式会社Subaru 車外環境認識装置
EP3561542A1 (de) 2018-04-27 2019-10-30 Veoneer Sweden AB Generische objektverfolgung auf basis von bedeutenden punkten

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017215161A (ja) 2016-05-30 2017-12-07 株式会社東芝 情報処理装置、および、情報処理方法

Also Published As

Publication number Publication date
US20230011475A1 (en) 2023-01-12
WO2021106197A1 (ja) 2021-06-03
JPWO2021106197A1 (de) 2021-06-03
JP7134368B2 (ja) 2022-09-09
CN114730004A (zh) 2022-07-08

Similar Documents

Publication Publication Date Title
US11276189B2 (en) Radar-aided single image three-dimensional depth reconstruction
DE102016104463B4 (de) Mehrdimensionale Verschmelzung von Bildern in Echtzeit
US11508122B2 (en) Bounding box estimation and object detection
EP3792660B1 (de) Verfahren, vorrichtung und system zur messung der entfernung
DE112019007925T5 (de) Objekt-Erkennungsvorrichtung und Objekt-Erkennungsverfahren
DE112015000715B4 (de) Vorrichtung zum Erfassen einer Achsenfehlausrichtung eines Strahlensensors
US20200218908A1 (en) Real-time simultaneous detection of lane marker and raised pavement marker for optimal estimation of multiple lane boundaries
DE102012205448B4 (de) Verfahren und Vorrichtung für ein Objektdetektionssystem unter Verwendung von zwei modulierten Lichtquellen
CN109444916B (zh) 一种无人驾驶可行驶区域确定装置及方法
DE102007027126A1 (de) Hinderniserfassungssystem für Fahrzeuge
DE112008004187T5 (de) Objektmessvorrichtung und verfahren zur verwendung in der vorrichtung
US11961306B2 (en) Object detection device
DE112015003605T5 (de) Mehrere Objekterfassungseinrichtungen verwendende Objekterkennungsvorrichtung
DE102016201057A1 (de) Lidar-vorrichtung, fahrzeug und verfahren zum erfassen eines objekts
DE112019001542T5 (de) Positionsschätzvorrichtung
WO2019101774A1 (de) Verfahren und vorrichtung zur ermittlung eines installationswinkels zwischen einer fahrbahn, auf der ein fahrzeug fährt, und einer erfassungsrichtung eines mess- bzw. radarsensors
Rabe et al. Ego-lane estimation for downtown lane-level navigation
CN111538008A (zh) 变换矩阵确定方法、系统及装置
US20210141079A1 (en) Object detection device for vehicle
EP3759517A1 (de) Verfahren und vorrichtung zur schätzung der höhe eines reflektors eines fahrzeugs
DE112019007921T5 (de) Objekterkennungsvorrichtung und Objekterkennungsverfahren
DE112022003094T5 (de) Verfahren, system und computerprogrammprodukt zum auflösen von niveauambiguität für radarsysteme autonomer fahrzeuge
DE102017204615A1 (de) Verfahren und Vorrichtung zur Positionsbestimmung und zum Bestimmen eines Laufzeitverlängerungsanteils
CN115248441A (zh) 数据处理方法、装置、终端及介质
WO2020133369A1 (en) Identifying a curb based on 3-d sensor data

Legal Events

Date Code Title Description
R012 Request for examination validly filed