-
Diese Patentanmeldung beansprucht Anmeldungs-Vorrang vor der
chinesischen Patentanmeldung Nr. 201611259559.1 mit dem Titel ”METHOD, APPARATUS AND DEVICE FOR GENERATING TARGET DETECTION INFORMATION”, die beim staatlichen chinesischen Patentamt am 30. Dezember 2016 eingereicht wurde, die hier durch Bezugnahme in ihrer Gesamtheit mit aufgenommen ist.
-
Gebiet
-
Die vorliegende Offenbarung betrifft das Gebiet der Informationsverarbeitungs-Technologie und insbesondere ein Verfahren, ein Gerät und eine Vorrichtung zur Erzeugung von Zielerkennungs-Informationen.
-
Hintergrund
-
Mit der Entwicklung der Elektronisierung und der Einführung von Intelligenz in Fahrzeugen sind viele verschiedene Arten von Sensoren in Fahrzeugen angeordnet, um die Umgebung zu erfassen und Zielobjekte um das Fahrzeug zu erkennen. Verschiedene Arten von Sensoren erkennen Zielobjekte gemäß verschiedenen Erkennungsmechanismen und weisen somit verschiedene Vorteile und Nachteile auf. Herkömmlich werden Zielobjekte um das Fahrzeug durch einen einzigen Typ von Sensor erkannt, das heißt die Zielerkennungs-Informationen zur Beschreibung der Eigenschaften des Zielobjektes werden durch den gleichen Sensor gesammelt. Der Erfinder hat jedoch herausgefunden, dass es sein kann, dass Zielerkennungs-Informationen in manchen Dimensionen nicht durch einen einzigen Typ von Sensor gesammelt werden können oder dass die gesammelten Informationen in manchen Dimensionen nicht genau sind oder in manchen Fällen das Zielobjekt sogar nicht erkannt werden kann. Daher kann bei Verwendung eines einzigen Typs von Sensor zur Erkennung von Zielobjekten eine falsche Erkennung oder eine fehlende Erkennung auftreten, und vollständige Zielerkennungs-Informationen können in mehreren Dimensionen nicht erhalten werden.
-
Zusammenfassung
-
Ein technisches Problem, das in der vorliegenden Offenbarung gelöst werden soll, ist es, ein Verfahren, eine Vorrichtung und ein Gerät zur Erzeugung von Zielerkennungs-Informationen vorzusehen, um die Rate falscher Erkennungen und fehlender Erkennungen von Zielobjekten zu verringern und genaue und vollständige Zielerkennungs-Informationen in mehreren Dimensionen vorzusehen.
-
In einem Aspekt wird ein Verfahren zur Erzeugung von Zielerkennungs-Informationen vorgesehen, umfassend:
in einem vereinheitlichten Ebenen-Koordinatensystem Bestimmen von Raumpositionen von Anfangs-Erkennungs-Zielen, die durch eine Vielzahl von verschiedenen Typen von Sensoren in einer aktuellen Erkennungsperiode erkannt werden;
Anpassen von Raumpositionen von anzupassenden Anfangs-Erkennungs-Zielen, die von jeweils zwei der Vielzahl von verschiedenen Typen von Sensoren in der aktuellen Erkennungsperiode erkannt wurden, und Bestimmen der Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis als Ergebnis-Erkennungs-Ziele, wobei Raumpositionen von zwei beliebigen der Ergebnis-Erkennungs-Ziele im Erkennungsergebnis aneinander angepasst werden; und
Erzeugen von Zielerkennungs-Informationen des Erkennungsergebnisses, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele umfassen, die von dem Sensor gesammelt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension sammelt, und jedes der Ergebnis-Erkennungs-Ziele das vom Sensor erkannte Anfangs-Erkennungs-Ziel ist.
-
Optional umfasst das Verfahren ferner: Berechnen eines räumlichen Übereinstimmungs-Vertrauensbereichs des Erkennungsergebnisses in der aktuellen Erkennungsperiode auf der Grundlage der erfolgreichen Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses ferner den räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode umfasst.
-
Optional umfasst die Erzeugung von Zielerkennungs-Informationen des Erkennungsergebnisses: Erzeugen der Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall, dass der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode größer ist als ein voreingestellter Grenzwert des räumlichen Übereinstimmungs-Vertrauensbereichs.
-
Optional umfasst das Verfahren ferner: Bestimmen eines zeitlichen Übereinstimmungs-Vertrauensbereichs des Erkennungsergebnisses durch Ausführen einer Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in einer Vielzahl von kürzlichen Erkennungsperioden, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses ferner den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses umfasst.
-
Optional umfasst die Erzeugung von Zielerkennungs-Informationen des Erkennungsergebnisses: Erzeugen der Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall, dass der zeitliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses größer ist als ein voreingestellter Grenzwert des zeitlichen Übereinstimmungs-Vertrauensbereichs.
-
Optional wird bestimmt, dass Raumpositionen von zwei der Anfangs-Erkennungs-Ziele, die anzupassen sind, in einem Fall aneinander angepasst werden, dass ein euklidischer Abstand zwischen den Raumpositionen der beiden der Anfangs-Erkennungs-Ziele, die anzupassen sind, innerhalb eines voreingestellten Abstands-Grenzwert liegt.
-
Optional umfasst das Verfahren ferner:
Bestimmen eines Selektionsbereichs im Ebenen-Koordinatensystem auf der Grundlage einer aktuellen Geschwindigkeit eines Fahrzeugs; und
Bestimmen der anzupassenden Anfangs-Erkennungs-Ziele auf der Grundlage des Selektionsbereichs, wobei Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele innerhalb des Selektionsbereichs liegen.
-
Optional ist der Selektionsbereich ein Bereich aller Raumpositionen, die das Fahrzeug in einem Fall durchlaufen kann, dass ein Wenderadius einen aktuellen Radius-Grenzwert überschreitet und ein Pfad einen aktuellen Pfad-Grenzwert nicht überschreitet, wobei der aktuelle Radius-Grenzwert auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines Querbeschleunigungs-Grenzwertes bestimmt wird, und der aktuelle Pfad-Grenzwert auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines voreingestellten Zeit-Grenzwertes bestimmt wird.
-
Optional ist der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode ein Verhältnis der Anzahl von erfolgreichen Anpassungen, die dem Erkennungsergebnis entsprechen, zur Gesamtzahl der Anpassungen, wobei die Anzahl der erfolgreichen Anpassungen, die dem Erkennungsergebnis entsprechen, die Anzahl von erfolgreichen Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode ist, und die Gesamtzahl der Anpassungen die Anzahl von Anpassungen unter allen Anfangs-Erkennungs-Zielen ist, die in der aktuellen Erkennungsperiode anzupassen sind.
-
Optional umfasst das Bestimmen des zeitlichen Übereinstimmungs-Vertrauensbereichs des Erkennungsergebnisses durch Ausführen der Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in der Vielzahl von kürzlichen Erkennungsperioden:
Addieren von Ergebnissen, die durch Multiplizieren eines räumlichen Übereinstimmungs-Vertrauensbereichs in jeder aus der Vielzahl kürzlicher Erkennungsperioden mit einem der Erkennungsperiode entsprechenden Gewichtungskoeffizienten erhalten werden, um den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses zu erhalten, wobei je näher die Erkennungsperiode einem aktuellen Zeitpunkt ist, um so größer der der Erkennungsperiode entsprechende Gewichtungskoeffizient ist.
-
Optional ist der jeder Erkennungsperiode entsprechende Gewichtungskoeffizient ein normierter Gewichtungskoeffizient.
-
Optional umfassen die mehreren verschiedenen Typen von Sensoren eine Kamera, ein Radar und/oder ein Laser-Radar. Eine zur Kamera gehörende Dimension ist eine Bildcharakteristik des erkannten Zielobjektes, eine zum Radar gehörende Dimension ist eine Relativgeschwindigkeit des erkannten Zielobjektes bezüglich des Fahrzeugs, und eine zum Laser-Radar gehörende Dimension ist ein Profil des erkannten Zielobjektes.
-
In einem anderen Aspekt wird eine Vorrichtung zur Erzeugung von Zielerkennungs-Informationen vorgesehen, umfassend:
eine erste Bestimmungseinheit, die gestaltet ist, in einem vereinheitlichten Ebenen-Koordinatensystem Raumpositionen von Anfangs-Erkennungs-Zielen, die durch eine Vielzahl von verschiedenen Typen von Sensoren in einer aktuellen Erkennungsperiode erkannt werden, zu bestimmen;
eine zweite Bestimmungseinheit, die gestaltet ist, Raumpositionen von anzupassenden Anfangs-Erkennungs-Zielen, die von jeweils zwei der Vielzahl von verschiedenen Typen von Sensoren in der aktuellen Erkennungsperiode erkannt wurden, anzupassen, und Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis als Ergebnis-Erkennungs-Ziele zu bestimmen, wobei Raumpositionen von zwei beliebigen der Ergebnis-Erkennungs-Ziele im Erkennungsergebnis aneinander angepasst werden; und
eine Erzeugungseinheit, die gestaltet ist, Zielerkennungs-Informationen des Erkennungsergebnisses zu erzeugen, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele umfassen, die von dem Sensor gesammelt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension sammelt, und jedes der Ergebnis-Erkennungs-Ziele das vom Sensor erkannte Anfangs-Erkennungs-Ziel ist.
-
Optional kann die Vorrichtung ferner eine Berechnungseinheit umfassen, die gestaltet ist, einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode auf der Grundlage der erfolgreichen Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode zu berechnen. Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen ferner den räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode.
-
Optional ist die Erzeugungseinheit gestaltet, Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall zu erzeugen, dass der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode größer ist als ein voreingestellter Grenzwert des räumlichen Übereinstimmungs-Vertrauensbereichs.
-
Optional kann die Vorrichtung ferner eine dritte Bestimmungseinheit umfassen, die gestaltet ist, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses durch Ausführen einer Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in mehreren kürzlichen Erkennungsperioden durchzuführen.
-
Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen ferner den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses.
-
Optional ist die Erzeugungseinheit gestaltet, Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall zu erzeugen, dass der zeitliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses größer ist als ein voreingestellter Grenzwert des zeitlichen Übereinstimmungs-Vertrauensbereichs.
-
Optional wird in einem Fall, dass ein euklidischer Abstand zwischen Raumpositionen von zwei Anfangs-Erkennungs-Zielen, die anzupassen sind, innerhalb eines voreingestellten Abstands-Grenzwertes liegt, bestimmt, dass die Raumpositionen der beiden Anfangs-Erkennungs-Ziele, die anzupassen sind, aneinander angepasst werden.
-
Optional kann die Vorrichtung ferner umfassen: eine vierte Bestimmungseinheit, die gestaltet ist, einen Selektionsbereich im Ebenen-Koordinatensystem auf der Grundlage einer aktuellen Geschwindigkeit eines Fahrzeugs zu bestimmen; und eine fünfte Bestimmungseinheit, die gestaltet ist, anzupassende Anfangs-Erkennungs-Ziele auf der Grundlage des Selektionsbereichs zu bestimmen. Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele befinden sich innerhalb des Selektionsbereichs.
-
Optional ist der Selektionsbereich ein Bereich aller möglicher Raumpositionen, die von dem Fahrzeug in einem Fall durchlaufen werden, dass ein Wenderadius des Fahrzeugs einen aktuellen Radius-Grenzwert nicht überschreitet und ein Pfad einen Fahrzeugs einen aktuellen Pfad-Grenzwert nicht überschreitet. Der aktuelle Radius-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines Querbeschleunigungs-Grenzwertes bestimmt, und der aktuelle Pfad-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines voreingestellten Zeit-Grenzwertes bestimmt.
-
Optional kann der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode ein Verhältnis der Anzahl von erfolgreichen Anpassungen sein, die dem Erkennungsergebnis entsprechen, zur Gesamtzahl der Anpassungen, wobei die Anzahl der erfolgreichen Anpassungen, die dem Erkennungsergebnis entsprechen, die Anzahl von erfolgreichen Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode ist, und die Gesamtzahl der Anpassungen die Anzahl von Anpassungen unter allen Anfangs-Erkennungs-Zielen ist, die in der aktuellen Erkennungsperiode anzupassen sind.
-
Optional ist die dritte Bestimmungseinheit gestaltet, Ergebnisse zu addieren, die durch Multiplizieren eines räumlichen Übereinstimmungs-Vertrauensbereichs in jeder aus der Vielzahl kürzlicher Erkennungsperioden mit einem der Erkennungsperiode entsprechenden Gewichtungskoeffizienten erhalten werden, um den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses zu erhalten. Je näher die Erkennungsperiode einem aktuellen Zeitpunkt ist, um so größer ist der der Erkennungsperiode entsprechende Gewichtungskoeffizient.
-
Optional kann der jeder Erkennungsperiode entsprechende Gewichtungskoeffizient ein normierter Gewichtungskoeffizient sein.
-
Optional umfassen die mehreren verschiedenen Typen von Sensoren eine Kamera, ein Radar und/oder ein Laser-Radar. Eine zur Kamera gehörende Dimension ist eine Bildcharakteristik des erkannten Zielobjektes, eine zum Radar gehörende Dimension ist eine Relativgeschwindigkeit des erkannten Zielobjektes bezüglich des Fahrzeugs, und eine zum Laser-Radar gehörende Dimension ist ein Profil des erkannten Zielobjektes.
-
In einem anderen Aspekt wird eine Vorrichtung zur Erzeugung von Zielerkennungs-Informationen vorgesehen, umfassend einen Prozessor, einen Speicher, eine Kommunikationsschnittstelle und ein Bussystem, wobei
das Bussystem gestaltet ist, den Prozessor, den Speicher und die Kommunikationsschnittstelle miteinander zu koppeln;
die Kommunikationsschnittstelle gestaltet ist, eine Kommunikationsverbindung zwischen der Vorrichtung und mindestens einer anderen Vorrichtung zu implementieren;
der Speicher gestaltet ist, Programmbefehle zu speichern; und
der Prozessor gestaltet ist, die im Speicher gespeicherten Programmbefehle zu lesen, um folgende Schritte auszuführen:
in einem vereinheitlichten Ebenen-Koordinatensystem Bestimmen von Raumpositionen von Anfangs-Erkennungs-Zielen, die durch eine Vielzahl von verschiedenen Typen von Sensoren in einer aktuellen Erkennungsperiode erkannt werden;
Anpassen von Raumpositionen von anzupassenden Anfangs-Erkennungs-Zielen, die von jeweils zwei der Vielzahl von verschiedenen Typen von Sensoren in der aktuellen Erkennungsperiode erkannt wurden, und Bestimmen der Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis als Ergebnis-Erkennungs-Ziele, wobei Raumpositionen von zwei beliebigen der Ergebnis-Erkennungs-Ziele im Erkennungsergebnis aneinander angepasst werden; und
Erzeugen von Zielerkennungs-Informationen des Erkennungsergebnisses, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele umfassen, die von dem Sensor erkannt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension sammelt, und jedes der Ergebnis-Erkennungs-Ziele das vom Sensor erkannte Anfangs-Erkennungs-Ziel ist.
-
Optional ist der Prozessor ferner gestaltet, einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode auf der Grundlage der Anzahl erfolgreicher Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode zu berechnen. Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen ferner den räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode.
-
Optional ist, um die Zielerkennungs-Informationen des Erkennungsergebnisses zu erzeugen, der Prozessor ferner gestaltet, Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall zu erzeugen, dass der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode größer ist als ein voreingestellter Grenzwert des räumlichen Übereinstimmungs-Vertrauensbereichs.
-
Optional ist der Prozessor ferner gestaltet, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses durch Ausführen einer Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in mehreren kürzlichen Erkennungsperioden durchzuführen. Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen ferner den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses.
-
Optional ist, um die Zielerkennungs-Informationen des Erkennungsergebnisses zu erzeugen, der Prozessor ferner gestaltet, die Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall zu erzeugen, dass der zeitliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses größer ist als ein voreingestellter Grenzwert des zeitlichen Übereinstimmungs-Vertrauensbereichs.
-
Optional wird in einem Fall, dass ein euklidischer Abstand zwischen Raumpositionen von zwei Anfangs-Erkennungs-Zielen, die anzupassen sind, innerhalb eines voreingestellten Abstands-Grenzwertes liegt, bestimmt, dass die Raumpositionen der beiden Anfangs-Erkennungs-Ziele, die anzupassen sind, aneinander angepasst werden.
-
Optional ist der Prozessor ferner gestaltet zum: Bestimmen eines Selektionsbereichs im Ebenen-Koordinatensystem auf der Grundlage einer aktuellen Geschwindigkeit eines Fahrzeugs; und Bestimmen der anzupassenden Anfangs-Erkennungs-Ziele auf der Grundlage des Selektionsbereichs. Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele befinden sich innerhalb des Selektionsbereichs.
-
Optional ist der Selektionsbereich ein Bereich aller möglicher Raumpositionen, die von dem Fahrzeug in einem Fall durchlaufen werden, dass ein Wenderadius des Fahrzeugs einen aktuellen Radius-Grenzwert nicht überschreitet und ein Pfad einen Fahrzeugs einen aktuellen Pfad-Grenzwert nicht überschreitet. Der aktuelle Radius-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines Querbeschleunigungs-Grenzwertes bestimmt, und der aktuelle Pfad-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines voreingestellten Zeit-Grenzwertes bestimmt.
-
Optional kann der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode ein Verhältnis der Anzahl erfolgreicher Anpassungen, die dem Erkennungsergebnis entsprechen, zur Gesamtzahl von Anpassungen sein. Die Anzahl von erfolgreichen Anpassungen, die dem Erkennungsergebnis entsprechen, ist die Anzahl von erfolgreichen Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode, und die Gesamtzahl von Anpassungen ist die Anzahl von Anpassungen unter allen Anfangs-Erkennungs-Zielen, die in der aktuellen Erkennungsperiode anzupassen sind.
-
Optional ist, um den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses zu bestimmen, der Prozessor ferner gestaltet, den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses durch Multiplizieren des räumlichen Übereinstimmungs-Vertrauensbereichs in jeder aus den mehreren kürzlichen Erkennungsperioden mit einem der Erkennungsperiode entsprechenden Gewichtungskoeffizienten und durch Aufaddieren der erhaltenen Produkte zu erhalten. Je näher die Erkennungsperiode einem aktuellen Zeitpunkt ist, um so größer ist der der Erkennungsperiode entsprechende Gewichtungskoeffizient.
-
Optional ist der jeder Erkennungsperiode entsprechende Gewichtungskoeffizient ein normierter Gewichtungskoeffizient.
-
Optional umfassen die mehreren verschiedenen Typen von Sensoren eine Kamera, ein Radar und/oder ein Laser-Radar. Eine zur Kamera gehörende Dimension ist eine Bildcharakteristik des erkannten Zielobjektes, eine zum Radar gehörende Dimension ist eine Relativgeschwindigkeit des erkannten Zielobjektes bezüglich des Fahrzeugs, und eine zum Laser-Radar gehörende Dimension ist ein Profil des erkannten Zielobjektes.
-
Gemäß Ausführungsformen der vorliegenden Offenbarung werden Zielobjekte um das Fahrzeug durch mehrere verschiedene Arten von Sensoren erkannt, und die Erkennungsziele, die dasselbe Zielobjekt darstellen, die von verschiedenen Arten von Sensoren erkannt werden, werden durch Anpassung von Raumpositionen bestimmt. Es wird ein räumlicher Übereinstimmungs-Vertrauensbereich berechnet, und ein zeitlicher Übereinstimmungs-Vertrauensbereich wird berechnet, indem die Erkennungsziele über der Zeit verfolgt werden. Nimmt man das Zielobjekt als ein Erkennungsergebnis, umfassen die für das Erkennungsergebnis erzeugten Zielerkennungs-Informationen einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses und Zielerkennungs-Informationen über jedes der Erkennungsziele, die das Erkennungsergebnis darstellen, wobei die Zielerkennungs-Informationen über das Erkennungsziel von dem Sensor gesammelt werden, der das Erkennungsziel in einer zum Sensor gehörenden Dimension erkennt. Man kann sehen, dass einerseits die Möglichkeit, dass die von verschiedenen Typen von Sensoren erkannten Erkennungsziele dasselbe Zielobjekt darstellen, gemäß dem räumlichen Übereinstimmungs-Vertrauensbereich und dem zeitlichen Übereinstimmungs-Vertrauensbereich bestimmt werden können und eine falsche Erkennung oder eine fehlende Erkennung des Zielobjektes angesichts der unterschiedlichen Vorteile verschiedener Sensoren stark verringert werden können. Andererseits werden gemäß der Dimensionen der Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren exakt gesammelt werden können, Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren in verschiedenen Dimensionen exakt gesammelt wurden, vereinigt, um Zielerkennungs-Informationen über dasselbe Zielobjekt zu erhalten, wodurch genauere und vollständigere Zielerkennungs-Informationen über das Zielobjekt vorgesehen werden.
-
Kurzbeschreibung der Zeichnung
-
Um technische Lösungen in den Ausführungsformen der vorliegenden Offenbarung deutlich zu veranschaulichen, werden nachfolgend Zeichnungen zur Beschreibung der Ausführungsformen vorgestellt. Offensichtlich sind die Zeichnungen in der folgenden Beschreibung nur einige Ausführungsformen der vorliegenden Offenbarung. Fachleute können gemäß der Zeichnungen auch andere Zeichnungen erhalten.
-
1 ist eine schematische Darstellung einer Struktur eines Systems in Bezug auf eine Anwendungsszene gemäß einer Ausführungsform der vorliegenden Offenbarung;
-
2 ist ein Flussdiagramm eines Verfahrens zur Erzeugung von Zielerkennungs-Informationen gemäß einer Ausführungsform der vorliegenden Offenbarung;
-
3 ist eine schematische Darstellung einer Ebenen-Koordinatensystems gemäß einer Ausführungsform der vorliegenden Offenbarung;
-
4 ist eine schematische Darstellung eines Selektionsbereichs gemäß einer Ausführungsform der vorliegenden Offenbarung;
-
5 ist eine schematische Darstellung eines Wenderadius eines Fahrzeugs, wenn das Fahrzeug sich im maximalen Lenkradeinschlag gemäß einer Ausführungsform der vorliegenden Offenbarung befindet;
-
6 ist eine schematische Darstellung von Raumpositionen von Anfangs-Erkennungs-Zielen, die von verschiedenen Sensoren in einem vereinheitlichten Ebenen-Koordinatensystem gemäß einer Ausführungsform der vorliegenden Offenbarung erkannt wurden;
-
7 ist ein Flussdiagramm eines Verfahrens zur Erzeugung von Zielerkennungs-Informationen gemäß einer Ausführungsform der vorliegenden Offenbarung;
-
8 ist eine schematische Darstellung der Struktur einer Vorrichtung zur Erzeugung von Zielerkennungs-Informationen gemäß einer Ausführungsform der vorliegenden Offenbarung; und
-
9 ist eine schematische Darstellung der Struktur einer Vorrichtung zur Erzeugung von Zielerkennungs-Informationen gemäß einer Ausführungsform der vorliegenden Offenbarung.
-
Genaue Beschreibung der Ausführungsformen
-
Um Fachleute in die Lage zu versetzen, die Lösung der vorliegenden Offenbarung besser zu verstehen, werden die technischen Lösungen in den Ausführungsformen der vorliegenden Offenbarung nachstehend in Verbindung mit den Zeichnungen in den Ausführungsformen der vorliegenden Offenbarung deutlich und vollständig beschrieben. Offensichtlich sind die beschriebenen Ausführungsformen nur ein Teil der Ausführungsformen der vorliegenden Offenbarung und nicht alle Ausführungsformen. Alle anderen Ausführungsformen, die auf der Grundlage der Ausführungsformen der vorliegenden Offenbarung von Fachleuten ohne kreative Arbeit erhalten werden, fallen in den Schutzumfang der vorliegenden Offenbarung.
-
Der Erfinder hat durch Forschungen herausgefunden, dass verschiedene Arten von Sensoren ein Zielobjekt gemäß verschiedenen Erkennungsmechanismen erkennen und somit die verschiedenen Typen von Sensoren verschiedene Vorteile und Nachteile aufweisen. Zum Beispiel erkennt ein Kamera-Sensor ein Zielobjekt, indem er ein optisches Bild durch eine Kamera erfasst, und der Sichtwinkel kann einen Bereich von –90 Grad bis +90 Grad erreichen. Als weiteres Beispiel erkennt ein Radar-Sensor ein Zielobjekt, indem er eine gesendete elektromagnetische Welle mit einer empfangenen elektromagnetischen Welle vergleicht, wobei die Erkennung auf große Entfernungen 200 Meter und einen Bereich von –10 Grad bis +10 Grad erreichen kann, und die Erkennung auf mittlere Entfernungen 50 Meter und einen Bereich von –45 Grad bis +45 Grad erreichen kann. Als weiteres Beispiel erkennt ein Laser-Radar-Sensor ein Zielobjekt, indem er das Zielobjekt mit einem Laserstrahl abtastet, und die Erkennung kann bei guten Bedingungen 200 Meter und einen Bereich von –45 Grad bis +45 Grad erreichen. Herkömmlich werden die Zielobjekte um das Fahrzeug durch einen einzigen Typ von Sensor erkannt, und der eine einzige Typ von Sensor weist bei der Erkennung von Zielobjekten um das Fahrzeug sicherlich einige Erkennungs-Nachteile auf. Zum Beispiel kann es sein, dass Zielerkennungs-Informationen in manchen Dimensionen nicht durch einen einzigen Typ von Sensor gesammelt werden können oder die gesammelten Informationen in manchen Dimensionen nicht genau sind oder in manchen Fällen das Zielobjekt sogar nicht erkannt werden kann. Daher kann bei Verwendung eines einzigen Typs von Sensor zur Erkennung von Zielobjekten eine falsche Erkennung oder eine fehlende Erkennung auftreten, und vollständige Zielerkennungs-Informationen in mehreren Dimensionen können nicht erhalten werden.
-
Um das Problem zu lösen, werden in den Ausführungsformen der vorliegenden Offenbarung Zielobjekte um das Fahrzeug durch mehrere verschiedene Arten von Sensoren erkannt, und die Erkennungsziele, die dasselbe Zielobjekt darstellen, die von den verschiedenen Arten von Sensoren erkannt werden, werden durch Anpassung von Raumpositionen bestimmt. Nimmt man das Zielobjekt als ein Erkennungsergebnis, umfassen die für das Erkennungsergebnis erzeugten Zielerkennungs-Informationen einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses und Zielerkennungs-Informationen über jedes der Erkennungsziele, die das Erkennungsergebnis darstellen, wobei die Zielerkennungs-Informationen über das Erkennungsziel von dem Sensor gesammelt werden, der das Erkennungsziel in einer zum Sensor gehörenden Dimension erkennt. Man kann sehen, dass einerseits die Möglichkeit, dass die von verschiedenen Typen von Sensoren erkannten Erkennungsziele dasselbe Zielobjekt darstellen, gemäß dem räumlichen Übereinstimmungs-Vertrauensbereich und dem zeitlichen Übereinstimmungs-Vertrauensbereich bestimmt werden können und eine falsche Erkennung oder eine fehlende Erkennung des Zielobjektes angesichts der unterschiedlichen Vorteile verschiedener Sensoren stark verringert werden können. Andererseits werden gemäß der Dimensionen der Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren exakt gesammelt werden können, Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren in verschiedenen Dimensionen exakt gesammelt wurden, vereinigt, um Zielerkennungs-Informationen über dasselbe Zielobjekt zu erhalten, wodurch genauere und vollständigere Zielerkennungs-Informationen über das Zielobjekt vorgesehen werden.
-
1 veranschaulicht ein Szenarium gemäß einer Ausführungsform der vorliegenden Offenbarung. Das Szenarium umfasst einen Kamera-Sensor 101, einen Radar-Sensor 102, einen Laser-Radar-Sensor 103 und einen Prozessor 104. Der Kamera-Sensor 101 kann mit dem Prozessor 104 interagieren, der Radar-Sensor 102 kann mit dem Prozessor 104 interagieren und der Laser-Radar-Sensor 103 kann mit dem Prozessor 104 interagieren. Der Prozessor 104 bestimmt in einem vereinheitlichten Ebenen-Koordinatensystem Raumpositionen von Anfangs-Erkennungs-Zielen, die durch jeden aus Kamera-Sensor 101, Radar-Sensor 102 und Laser-Radar-Sensor 103 in einer aktuellen Erkennungsperiode erkannt werden. Der Prozessor 104 passt Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele, die von dem Kamera-Sensor 101 und dem Radar-Sensor 102 gesammelt wurden, Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele, die von dem Radar-Sensor 102 und dem Laser-Radar-Sensor 103 gesammeltwurden, und Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele, die von dem Kamera-Sensor 101 und dem Laser-Radar-Sensor 103 in der aktuellen Erkennungsperiode gesammelt wurden, an, und bestimmt Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis als Ergebnis-Erkennungs-Ziele, wobei Raumpositionen von zwei beliebigen der Ergebnis-Erkennungs-Ziele im Erkennungsergebnis aneinander angepasst werden. Der Prozessor 104 berechnet ferner einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode auf der Grundlage der Anzahl erfolgreicher Anpassungen unter den Raumpositionen der Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode. Der Prozessor 104 bestimmt ferner einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses durch Ausführen einer Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in mehreren kürzlichen Erkennungsperioden. Der Prozessor 104 erzeugt Zielerkennungs-Informationen des Erkennungsergebnisses. Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen den räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses und Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele, die von dem Sensor gesammelt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension erkennt. Die Ergebnis-Erkennungs-Ziele sind die von den Sensoren erkannten Anfangs-Erkennungs-Ziele.
-
Die Aktionen gemäß der Ausführungsform der vorliegenden Offenbarung werden im obigen Szenarium vom Prozessor 104 ausgeführt, das ausführende Objekt in der vorliegenden Ausführungsform ist jedoch nicht darauf beschränkt, solange die Aktionen gemäß der Ausführungsform der vorliegenden Offenbarung ausgeführt werden.
-
Es wird darauf hingewiesen, dass das oben angegebene Szenarium nur ein Beispiel der Szenarien der vorliegenden Offenbarung ist, und die vorliegende Offenbarung ist nicht auf das oben angegebene Szenarium beschränkt.
-
Nachfolgend werden ein Verfahren, eine Vorrichtung und ein Gerät zur Erzeugung von Zielerkennungs-Informationen gemäß Ausführungsformen der vorliegenden Offenbarung in Verbindung mit der Zeichnung im Detail beschrieben.
-
Beispielhafte Verfahren
-
2 zeigt ein Flussdiagramm eines Verfahrens zur Erzeugung von Zielerkennungs-Informationen gemäß einer Ausführungsform der vorliegenden Offenbarung. Das Verfahren kann die Schritte 201 bis 203 umfassen.
-
In Schritt 201 werden Raumpositionen von Anfangs-Erkennungs-Zielen, die durch mehrere verschiedene Typen von Sensoren in einer aktuellen Erkennungsperiode erkannt werden, in einem vereinheitlichten Ebenen-Koordinatensystem bestimmt.
-
Die Raumpositionen der Anfangs-Erkennungs-Ziele, die durch verschiedene Sensoren erkannt werden, werden jeweils in einem unabhängigen Koordinatensystem verschiedener Sensoren ermittelt, und die unabhängigen Koordinatensysteme der verschiedenen Sensoren sind normalerweise unterschiedlich. Um Anfangs-Erkennungs-Ziele, die dasselbe Zielobjekt darstellen, durch Analysieren von Relationen unter den Raumpositionen der Anfangs-Erkennungs-Ziele, die durch verschiedene Sensoren erkannt werden, zu bestimmen, wird ein vereinheitlichtes Ebenen-Koordinatensystem erzeugt und die Raumpositionen der Anfangs-Erkennungs-Ziele, die von den Sensoren erkannt werden, werden in das vereinheitlichte Ebenen-Koordinatensystem transformiert. Zum Beispiel kann das vereinheitlichte Ebenen-Koordinatensystem das in 3 gezeigte Koordinatensystem verwenden. In dem in 3 gezeigten Koordinatensystem ist eine Koordinaten-Ebene des Koordinatensystem-Beispiels durch eine Längsachse und eine Querachse des Fahrzeugs definiert, ein Ursprung O des Koordinatensystems bezeichnet einen Abtast-Mittelpunkt des Sensors, eine positive Richtung einer X-Achse des Koordinatensystems ist eine Vorwärtsrichtung des Fahrzeugs, und eine positive Richtung einer Y-Achse des Koordinatensystems ist eine Rechtsrichtung senkrecht zur Vorwärtsrichtung des Fahrzeugs.
-
Als Sensor zur Erkennung von Objekten um das Fahrzeug werden im Allgemeinen eine Kamera, ein Radar, ein Laser-Radar oder dergleichen verwendet. In der Ausführungsform können mehrere verschiedene Typen von Sensoren zum Beispiel eine Kamera, ein Radar und/oder ein Laser-Radar umfassen.
-
In Schritt 202 werden Raumpositionen zwischen den anzupassenden Anfangs-Erkennungs-Zielen, die von jeweils zwei verschiedenen Sensoren in einer aktuellen Erkennungsperiode erkannt werden, angepasst, und die Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis werden als Ergebnis-Erkennungs-Ziele bestimmt, wobei Raumpositionen von zwei beliebigen der Ergebnis-Erkennungs-Ziele im Erkennungsergebnis aneinander angepasst werden.
-
In der Ausführungsform entspricht ein Erkennungsergebnis einem Zielobjekt um das Fahrzeug. Die Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis können als Erkennungsziele verstanden werden, die erhalten werden, indem ein gleiches Zielobjekt von verschiedenen Typen von Sensoren erkannt wird. Die Raumpositionen der Anfangs-Erkennungs-Ziele, die durch Erkennen desselben Ziels durch verschiedene Typen von Sensoren erhalten werden, können sich in dem vereinheitlichten Ebenen-Koordinatensystem geringfügig unterscheiden. Wenn Raumpositionen von Anfangs-Erkennungs-Zielen, die durch verschiedene Sensoren erkannt wurden, nahe aneinander liegen, können die Raumpositionen der beiden Anfangs-Erkennungs-Ziele als aufeinander angepasst betrachtet werden, und die beiden Anfangs-Erkennungs-Ziele können als Ziele betrachtet werden, die durch Erkennen desselben Objekts durch verschiedene Sensoren erhalten wurden. Das heißt, die beiden Anfangs-Erkennungs-Ziele repräsentieren dasselbe Zielobjekt und sind ein gleiches Erkennungsergebnis. Daher wird in Schritt 202 für alle anzupassenden Anfangs-Erkennungs-Ziele die Anpassung der Raumpositionen zwischen den anzupassenden Anfangs-Erkennungs-Zielen durchgeführt, die von jeweils zwei verschiedenen Typen von Sensoren erkannt wurden. Wenn Raumpositionen der beiden anzupassenden Anfangs-Erkennungs-Ziele aufeinander angepasst werden, wird bestimmt, dass die beiden anzupassenden Anfangs-Erkennungs-Ziele demselben Erkennungsergebnis entsprechen. Auf diese Weise können Anfangs-Erkennungs-Ziele mit einem gleichen Erkennungsergebnis gemäß Ergebnissen der Anpassung von Raumpositionen aller anzupassenden Anfangs-Erkennungs-Ziele bestimmt werden.
-
Zum Beispiel wird ein Zielobjekt durch drei Typen von Sensoren erkannt, die eine Kamera, ein Radar und ein Laser-Radar sind. Anfangs-Erkennungs-Ziele, die von der Kamera erkannt werden, umfassen A und B, Anfangs-Erkennungs-Ziele, die von dem Radar erkannt werden, umfassen C und D, und Anfangs-Erkennungs-Ziele, die von dem Laser-Radar erkannt werden, umfassen E und F, und die anzupassenden Anfangs-Erkennungs-Ziele umfassen A, B, C, D, E und F. Bei der Anpassung von Raumpositionen zwischen den anzupassenden Anfangs-Erkennungs-Zielen, die von verschiedenen Sensoren erkannt werden, wird eine Raumpositions-Anpassung zwischen A und C durchgeführt, eine Raumpositions-Anpassung wird zwischen A und D durchgeführt, eine Raumpositions-Anpassung wird zwischen A und E durchgeführt, eine Raumpositions-Anpassung wird zwischen A und F durchgeführt, eine Raumpositions-Anpassung wird zwischen B und C durchgeführt, eine Raumpositions-Anpassung wird zwischen B und D durchgeführt, eine Raumpositions-Anpassung wird zwischen B und E durchgeführt, eine Raumpositions-Anpassung wird zwischen B und F durchgeführt, eine Raumpositions-Anpassung wird zwischen C und E durchgeführt, eine Raumpositions-Anpassung wird zwischen C und F durchgeführt, eine Raumpositions-Anpassung wird zwischen D und E durchgeführt, und eine Raumpositions-Anpassung wird zwischen D und F durchgeführt. In einem Fall, dass die Raumposition von A und die Raumposition von C aneinander angepasst werden, die Raumposition von C und die Raumposition von F aneinander angepasst werden, und die Raumposition von A und die Raumposition von F aneinander angepasst werden, wird bestimmt, dass A, C und F Anfangs-Erkennungs-Ziele in einem gleichen Erkennungsergebnis sind, das dasselbe Zielobjekt repräsentiert, und A, C und F werden als Ergebnis-Erkennungs-Ziele im Erkennungsergebnis bestimmt. Das heißt, die Raumposition jedes anzupassenden Anfangs-Erkennungs-Ziels, das von jedem aus der Vielzahl von verschiedenen Typen von Sensoren erkannt wird, wird mit der Raumposition jedes anzupassenden Anfangs-Erkennungs-Ziels, das von jedem der anderen aus der Vielzahl der verschiedenen Typen von Sensoren erkannt wird, angepasst, um ein Anfangs-Erkennungs-Ziel in einem selben Erkennungsergebnis zu bestimmen.
-
Zum Beispiel kann die Entfernung zwischen Raumpositionen verschiedener Anfangs-Erkennungs-Ziele durch einen euklidischen Abstand angezeigt werden. Daher können die Raumpositionen der beiden anzupassenden Anfangs-Erkennungs-Ziele gemäß dem euklidischen Abstand zwischen den beiden Anfangs-Erkennungs-Zielen in dem vereinheitlichten Ebenen-Koordinatensystem aufeinander angepasst werden. Wenn der euklidische Abstand zwischen den Raumpositionen der beiden Anfangs-Erkennungs-Ziele klein ist, werden die beiden Anfangs-Erkennungs-Ziele so betrachtet, dass sie dasselbe Zielobjekt repräsentieren, und es kann bestimmt werden, dass die beiden anzupassenden Anfangs-Erkennungs-Ziele Anfangs-Erkennungs-Ziele mit demselben Erkennungsergebnis sind. Das heißt, es wird bestimmt, dass die Raumpositionen der beiden anzupassenden Anfangs-Erkennungs-Ziele aneinander angepasst werden, wenn der euklidische Abstand zwischen den Raumpositionen der beiden Anfangs-Erkennungs-Ziele innerhalb eines voreingestellten Abstands-Grenzwertes liegt.
-
Zum Beispiel bezeichnet, wie in
6 gezeigt, A (x
cn, y
cn) ein Anfangs-Erkennungs-Ziel, das von der Kamera erkannt wurde, B (x
rm, y
rm) bezeichnet ein Anfangs-Erkennungs-Ziel, das von dem Radar erkannt wurde, und C (x
lm, y
lm) bezeichnet ein Anfangs-Erkennungs-Ziel, das von dem Laser-Radar erkannt wurde. Ein euklidischer Abstabd zwischen Raumpositionen der beiden anzupassenden Anfangs-Erkennungs-Ziele A und B kann gemäß der folgenden Formel berechnet werden.
wobei d
m einen euklidischen Abstand zwischen Raumpositionen von A und B bezeichnet, x
rm eine x-Koordinate der Raumposition des vom Radar erkannten Anfangs-Erkennungs-Ziels bezeichnet, x
cn eine x-Koordinate der Raumposition des von der Kamera erkannten Anfangs-Erkennungs-Ziels bezeichnet, y
rm eine y-Koordinate der Raumposition des vom Radar erkannten Anfangs-Erkennungs-Ziels bezeichnet, und y
cn eine y-Koordinate der Raumposition des von der Kamera erkannten Anfangs-Erkennungs-Ziels bezeichnet. Wenn d
m kleiner ist als der voreingestellte Abstands-Grenzwert D, wird bestimmt, dass die Raumposition des vom Radar erkannten Anfangs-Erkennungs-Ziels A und die Raumposition des von der Kamera erkannten Anfangs-Erkennungs-Ziels B aneinander angepasst sind. Der voreingestellte Abstands-Grenzwert D muss kleiner sein als der minimale Abstand zwischen verschiedenen Zielobjekten, um eine erfolgreiche Anpassung zwischen Raumpositionen von Anfangs-Erkennungs-Zielen, die verschiedenen Zielobjekten entsprechen, zu verhindern. Wenn die Raumpositionen von A und B aneinander angepasst werden, die Raumpositionen von B und C aneinander angepasst werden, und die Raumpositionen von A und C aneinander angepasst werden, wird bestimmt, dass A, B und C dasselbe Zielobjekt repräsentieren, das heißt A, B und C sind Anfangs-Erkennungs-Ziele mit einem gleichen Erkennungsergebnis.
-
Außerdem gibt es normalerweise eine große Zahl von Zielobjekten, die von den Sensoren erkannt werden, was zu einer großen Menge an Auswertungen für die räumliche Anpassung führt. In einigen Ausführungsformen der vorliegenden Offenbarung wird, um die Menge an Auswertungen für die räumliche Anpassung zu verringern, ein Selektionsbereich auf der Grundlage von Positionen ausgebildet, an denen das Fahrzeug innerhalb der Reaktionszeit eines Fahrers ankommen kann, und eine räumliche Anpassung wird nur zwischen Anfangs-Erkennungs-Zielen ausgeführt, die von verschiedenen Typen von Sensoren innerhalb des Selektionsbereichs erkannt wurden. Vor Schritt S202 kann das Verfahren ferner umfassen: Bestimmen eines Selektionsbereichs im vereinheitlichten Ebenen-Koordinatensystem auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs; und Bestimmen der Anfangs-Erkennungs-Ziele, deren Raumpositionen sich innerhalb des Selektionsbereichs befinden, als anzupassende Anfangs-Erkennungs-Ziele. Die Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele befinden sich innerhalb des Selektionsbereichs.
-
In einer Implementation kann der Selektionsbereich gemäß dem minimalen Wenderadius des Fahrzeugs in der aktuellen Position und dem weitesten Pfad innerhalb der Reaktionszeit des Fahrers bestimmt werden. In einem Aspekt kann unter Berücksichtigung, dass das Fahrzeug eine Querbeschleunigung aufweist, wenn es mit der maximalen Geschwindigkeit abbiegt, die Querbeschleunigung des Fahrzeugs auf einen Wert innerhalb eines Querbeschleunigungs-Grenzwertes begrenzt werden, um die Fahrsicherheit und den Fahrkomfort sicherzustellen. In diesem Fall kann der minimale Wenderadius des Fahrzeugs in der aktuellen Position auf der Grundlage des Querbeschleunigungs-Grenzwertes und der aktuellen Geschwindigkeit des Fahrzeugs erhalten werden, und der minimale Wenderadius des Fahrzeugs kann als aktueller Radius-Grenzwert benutzt werden. Wenn die Querbeschleunigung des Fahrzeugs nicht größer ist als der Querbeschleunigungs-Grenzwert, ist der Wenderadius des Fahrzeugs nicht kleiner als der aktuelle Radius-Grenzwert, daher ist der dem Selektionsbereich entsprechende Wenderadius nicht kleiner als der aktuelle Radius-Grenzwert. In einem anderen Aspekt sind unter Berücksichtigung, dass der Fahrer eine Reaktionszeit beim Fahren des Fahrzeugs besitzt, die anzupassenden Zielobjekte hauptsächlich Zielobjekte, mit denen das Fahrzeug in der Reaktionszeit des Fahrers kollidieren kann. Daher wird ein voreingestellter Zeit-Grenzwert benutzt, die Reaktionszeit des Fahrers zu repräsentieren, und der längste Pfad des Fahrzeugs an der aktuellen Position innerhalb der Reaktionszeit des Fahrers kann gemäß dem voreingestellten Zeit-Grenzwert und der aktuellen Geschwindigkeit des Fahrzeugs erhalten werden. Der längste Pfad kann als aktueller Pfad-Grenzwert benutzt werden. Wenn die Reaktionszeit nicht größer ist als der voreingestellte Zeit-Grenzwert, ist der Fahrweg des Fahrzeugs nicht größer als der aktuelle Pfad-Grenzwert, daher ist der dem Selektionsbereich entsprechende Pfad nicht größer als der aktuelle Pfad-Grenzwert. In Verbindung mit den beiden oben angegebenen Aspekten kann der Selektionsbereich ein Bereich aller möglicher Raumpositionen sein, die von dem Fahrzeug in einem Fall durchlaufen werden, dass der Wenderadius den aktuellen Radius-Grenzwert überschreitet und der Pfad den aktuellen Pfad-Grenzwert nicht überschreitet. Der aktuelle Radius-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und des Querbeschleunigungs-Grenzwertes bestimmt, und der aktuelle Pfad-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und des voreingestellten Zeit-Grenzwertes bestimmt. Zum Beispiel ist als ein in 4 gezeigtes Beispiel des Selektionsbereichs der Selektionsbereich D eine Fläche, die von zwei Kurven L1 und L2 und einer geraden Linie L3 umgeben ist. Krümmungsradien der beiden Kurven sind der aktuelle Radius-Grenzwert und die Luftlinie zwischen der geraden Linie L3 und der aktuellen Position des Fahrzeugs ist der aktuelle Pfad-Grenzwert.
-
Der aktuelle Radius-Grenzwert und der aktuelle Pfad-Grenzwert können mit den folgenden Formeln berechnet werden.
wobei Radius den aktuellen Radius-Grenzwert bezeichnet, V
x die aktuelle Geschwindigkeit des Fahrzeugs bezeichnet, A
y den Querbeschleunigungs-Grenzwert bezeichnet, d den aktuellen Pfad-Grenzwert bezeichnet und t
reaction den voreingestellten Zeit-Grenzwert bezeichnet.
-
Außerdem kann der aktuelle Wenderadius auf der Grundlage eines maximalen Lenkradeinschlags des Fahrzeugs bestimmt werden. Wie in
5 gezeigt, bezeichnet δ
max einen maximalen Lenkradeinschlag des Lenksystems des Fahrzeugs, L ist ein Achsenabstand, Radius
min kann ein minimaler Wenderadius des Fahrzeugs sein, daher ist
-
In Schritt 203 werden Zielerkennungs-Informationen des Erkennungsergebnisses erzeugt. Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele, die von dem Sensor gesammelt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension sammelt. Die Ergebnis-Erkennungs-Ziele sind die von den Sensoren erkannten Anfangs-Erkennungs-Ziele.
-
Im Allgemeinen benutzte Fahrzeug-Sensoren zur Erkennung der Umgebung umfassen eine Kamera, ein Radar, ein Laser-Radar und dergleichen. Die Kamera kann zum Beispiel Aussehen und Form des erkannten Ziels durch optische Bilderfassung darstellen. Das Radar kann die Orientierung des erkannten Ziels und die relative Geschwindigkeit des erkannten Ziels bezüglich des Fahrzeugs erhalten, indem es Charakteristiken einer gesendeten elektromagnetischen Welle mit Charakteristiken einer empfangenen elektromagnetischen Welle vergleicht. Das Laser-Radar kann ein Profil des erkannten Ziels durch Abtasten mit einem Laserstrahl erhalten. In der Ausführungsform können die mehreren verschiedenen Typen von Sensoren zum Beispiel die Kamera, das Radar und/oder das Laser-Radar umfassen. Eine zur Kamera gehörende Dimension kann eine Bildcharakteristik des erkannten Ziels sein, eine zum Radar gehörende Dimension kann eine Relativgeschwindigkeit des erkannten Ziels bezüglich des Fahrzeugs sein, und eine zum Laser-Radar gehörende Dimension kann ein Profil des erkannten Ziels sein. Als ein Beispiel können in einem Fall, dass dasselbe Objekt von der Kamera, dem Radar oder dem Laser-Radar erkannt wird, wenn das Fahrzeug fährt, die Zielerkennungs-Informationen des Erkennungsergebnisses, das das Zielobjekt darstellt, eine Bildcharakteristik (zum Beispiel eine geometrische Charakteristik) des von der Kamera erkannten Zielobjektes, eine vom Radar erkannte Relativgeschwindigkeit des Zielobjektes bezüglich des Fahrzeugs und ein vom Laser-Radar erkanntes Profil des Zielobjektes umfassen.
-
In einigen Ausführungsformen können, um zu bestimmen, ob alle Ergebnis-Erkennungs-Ziele im Erkennungsergebnis auf der Grundlage der Zielerkennungs-Informationen des Erkennungsergebnisses dasselbe Zielobjekt repräsentieren, die Zielerkennungs-Informationen des Erkennungsergebnisses ferner einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode umfassen. In diesem Fall kann das Verfahren gemäß der Ausführungsform vor Schritt 203 ferner umfassen: Berechnen eines räumlichen Übereinstimmungs-Vertrauensbereichs des Erkennungsergebnisses in der aktuellen Erkennungsperiode auf der Grundlage der Anzahl erfolgreicher Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode.
-
Der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode bezieht sich auf die Möglichkeit, dass die Anfangs-Erkennungs-Ziele in dem Erkennungsergebnis in der aktuellen Erkennungsperiode aus der Perspektive der Raumposition dasselbe Zielobjekt repräsentieren. Der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode kann zum Beispiel ein Verhältnis der Anzahl von Anpassungen, die dem Erkennungsergebnis entsprechen, zur Gesamtzahl von Anpassungen sein. Die Anzahl von Anpassungen, die dem Erkennungsergebnis entsprechen, ist die Anzahl von erfolgreichen Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode, und die Gesamtzahl von Anpassungen ist die Anzahl von Anpassungen unter allen Anfangs-Erkennungs-Zielen, die in der aktuellen Erkennungsperiode anzupassen sind, d. h. einschließlich aller erfolgreichen Anpassungen und nicht erfolgreichen Anpassungen.
-
Zum Beispiel sei angenommen, dass zwei Sensoren, die eine Kamera und ein Radar sind, dazu benutzt werden, ein Zielobjekt zu erkennen. Anfangs-Erkennungs-Ziele, die von der Kamera erkannt werden, umfassen A und B, und Anfangs-Erkennungs-Ziele, die von dem Radar erkannt werden, umfassen C und D, dann können anzupassende Anfangs-Erkennungs-Ziele A, B, C und D umfassen. Da eine Raumpositions-Anpassung zwischen anzupassenden Anfangs-Erkennungs-Zielen, die von verschiedenen Sensoren erkannt wurden, durchgeführt wird, wird die Raumpositions-Anpassung zwischen A und C durchgeführt, wird die Raumpositions-Anpassung zwischen A und D durchgeführt, wird die Raumpositions-Anpassung zwischen B und C durchgeführt, und wird die Raumpositions-Anpassung zwischen B und D durchgeführt. In diesem Fall ist die Anzahl von Anpassungen unter den anzupassenden Anfangs-Erkennungs-Zielen 4, das heißt die Gesamtzahl der Anpassungen ist 4. Nimmt man an, dass die Raumposition von A und die Raumposition von C aneinander angepasst werden, die Raumposition von A und die Raumposition von D nicht aneinander angepasst werden, die Raumposition von B und die Raumposition von C nicht aneinander angepasst werden, und die Raumposition von B und die Raumposition von D nicht aneinander angepasst werden, sind in diesem Fall A und C Ergebnis-Erkennungs-Ziele im selben Erkennungsergebnis. Daher ist die Anzahl erfolgreicher Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele 1, das heißt die dem Erkennungsergebnis entsprechende Anzahl von Anpassungen ist 1.
-
In manchen Ausführungsformen werden Zielerkennungs-Informationen, die von verschiedenen Sensoren erkannte Informationen enthalten, nur für ein Erkennungsergebnis erzeugt, das einen hohen räumlichen Übereinstimmungs-Vertrauensbereich aufweist. In diesem Fall kann der Schritt 203 umfassen: Erzeugen von Zielerkennungs-Informationen eines Erkennungsergebnisses in einem Fall, dass der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode größer ist als ein voreingestellter Grenzwert des räumlichen Übereinstimmungs-Vertrauensbereichs.
-
In einigen Ausführungsformen können, um zu bestimmen, ob Erkennungsergebnisse in verschiedenen Erkennungsperioden auf der Grundlage der Zielerkennungs-Informationen des Erkennungsergebnisses dasselbe Zielobjekt anzeigen können, die Zielerkennungs-Informationen des Erkennungsergebnisses ferner einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses umfassen. In diesem Fall kann das Verfahren gemäß der Ausführungsform vor Schritt 203 ferner umfassen: Bestimmen eines zeitlichen Übereinstimmungs-Vertrauensbereichs des Erkennungsergebnisses durch Ausführen einer Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in mehreren kürzlichen Erkennungsperioden.
-
Durch Verwendung verschiedener Sensoren zur Erkennung von Zielobjekten in verschiedenen Erkennungsperioden können erkannte anzupassende Anfangs-Erkennungs-Ziele unterschiedlich sein, und räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in verschiedenen Erkennungsperioden können unterschiedlich sein. Um zu bestimmen, ob das Erkennungsergebnis in verschiedenen Erkennungsperioden dasselbe Zielobjekt repräsentiert, können die räumlichen Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in mehreren unterschiedlichen Erkennungsperioden nachverfolgt werden, um einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses zu erhalten. Der zeitliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses bezieht sich auf die Möglichkeit, dass das Erkennungsergebnis in mehreren verschiedenen Erkennungsperioden aus der Perspektive der Zeit dasselbe Zielobjekt repräsentiert.
-
In manchen Ausführungsformen werden Zielerkennungs-Informationen, die von verschiedenen Sensoren erkannte Informationen enthalten, nur für ein Erkennungsergebnis erzeugt, das einen hohen zeitlichen Übereinstimmungs-Vertrauensbereich aufweist. In diesem Fall kann der Schritt 203 ferner umfassen: Erzeugen der Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall, dass der zeitliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses größer ist als ein voreingestellter Grenzwert des zeitlichen Übereinstimmungs-Vertrauensbereichs.
-
In manchen Ausführungsformen kann der zeitliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses durch Multiplizieren eines räumlichen Übereinstimmungs-Vertrauensbereichs in jeder aus den mehreren kürzlichen Erkennungsperioden mit einem der Erkennungsperiode entsprechenden Gewichtungskoeffizienten und durch Aufaddieren der erhaltenen Produkte bestimmt werden. Je näher die Erkennungsperiode einem aktuellen Zeitpunkt ist, um so größer ist der der Erkennungsperiode entsprechende Gewichtungskoeffizient. In einer Implementation kann der jeder Erkennungsperiode entsprechende Gewichtungskoeffizient ein normierter Gewichtungskoeffizient sein, das heißt die Summe von Gewichtungskoeffizienten, die allen mehreren kürzlichen Erkennungsperioden entsprechen, ist gleich 1.
-
In einer Implementation kann der zeitliche Übereinstimmungs-Vertrauensbereich mit der folgenden Formel berechnet werden. Ptracking = m / 2mPL(c) + m – 1 / 2mPL(c – 1) +...+ m – (m – 1) / 2mPL(c – (m – 1)) wobei Ptracking den zeitlichen Übereinstimmungs-Vertrauensbereich bezeichnet; c, c – 1 ... c – (m – 1) eine aktuelle Erkennungsperiode bezeichnen, eine erste Erkennungsperiode vor der aktuellen Erkennungsperiode ... eine (m – 1)-te Erkennungsperiode vor der aktuellen Erkennungsperiode, was m vorherige Erkennungsperioden sind; PL(c), PL(c – 1) ... PL(c – (m – 1)) räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in den m vorherigen Erkennungsperioden bezeichnen, m eine positive ganze Zahl ist; m / 2m, m – 1 / 2m ... m – (m – 1) / 2m Gewichtungskoeffizienten bezeichnen, die den m vorherigen Erkennungsperioden entsprechen.
-
Gemäß den Ausführungsformen der vorliegenden Offenbarung werden Zielobjekte um das Fahrzeug durch mehrere verschiedene Arten von Sensoren erkannt, und die Erkennungsziele, die dasselbe Zielobjekt darstellen, die von verschiedenen Arten von Sensoren erkannt werden, werden durch Anpassung von Raumpositionen bestimmt. Nimmt man das Zielobjekt als ein Erkennungsergebnis, umfassen die für das Erkennungsergebnis erzeugten Zielerkennungs-Informationen einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses und Zielerkennungs-Informationen über jedes der Erkennungsziele, die das Erkennungsergebnis darstellen, wobei die Zielerkennungs-Informationen über das Erkennungsziel von dem Sensor gesammelt wird, der das Erkennungsziel in einer zum Sensor gehörenden Dimension erkennt. Man kann sehen, dass einerseits die Möglichkeit, dass die von verschiedenen Typen von Sensoren erkannten Erkennungsziele dasselbe Zielobjekt darstellen, gemäß dem räumlichen Übereinstimmungs-Vertrauensbereich und dem zeitlichen Übereinstimmungs-Vertrauensbereich bestimmt werden können und eine falsche Erkennung oder eine fehlende Erkennung des Zielobjektes angesichts der unterschiedlichen Vorteile verschiedener Sensoren stark verringert werden können. Andererseits werden gemäß der Dimensionen der der Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren exakt gesammelt werden können, Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren in verschiedenen Dimensionen exakt gesammelt wurden, vereinigt, um Zielerkennungs-Informationen über dasselbe Zielobjekt zu erhalten, wodurch genauere und vollständigere Zielerkennungs-Informationen über das Zielobjekt vorgesehen werden.
-
7 ist ein Flussdiagramm eines anderen Verfahrens zur Erzeugung von Zielerkennungs-Informationen gemäß einer Ausführungsform der vorliegenden Offenbarung. In der Ausführungsform kann das Verfahren Schritt 701 bis 707 umfassen.
-
In Schritt 701 wird ein vereinheitlichtes Ebenen-Koordinatensystem ausgebildet, und ein Selektionsbereich wird im Ebenen-Koordinatensystem auf der Grundlage einer aktuellen Geschwindigkeit eines Fahrzeugs bestimmt.
-
In Schritt 702 werden Raumpositionen von Anfangs-Erkennungs-Zielen, die durch mehrere verschiedene Typen von Sensoren in einer aktuellen Erkennungsperiode erkannt werden, in dem vereinheitlichten Ebenen-Koordinatensystem bestimmt.
-
In Schritt 703 werden anzupassende Anfangs-Erkennungs-Ziele auf der Grundlage des Selektionsbereichs bestimmt. Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele befinden sich innerhalb des Selektionsbereichs.
-
In Schritt 704 werden Raumpositionen von anzupassenden Anfangs-Erkennungs-Zielen, die von jeweils zwei verschiedenen Sensoren in der aktuellen Erkennungsperiode erkannt werden, angepasst, und die Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis werden als Ergebnis-Erkennungs-Ziele bestimmt. Raumpositionen von beliebigen zwei Ergebnis-Erkennungs-Zielen im Erkennungsergebnis werden aneinander angepasst.
-
In Schritt 705 wird ein räumlicher Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode auf der Grundlage der Anzahl erfolgreicher Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode berechnet.
-
In Schritt 706 wird ein zeitlicher Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses durch Ausführen einer Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in mehreren kürzlichen Erkennungsperioden bestimmt.
-
In Schritt 707 werden Zielerkennungs-Informationen des Erkennungsergebnisses erzeugt. Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen den räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode, den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses und Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele, die von dem Sensor erkannt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension erkennt. Jedes der Ergebnis-Erkennungs-Ziele ist das vom Sensor erkannte Anfangs-Erkennungs-Ziel.
-
Gemäß den Ausführungsformen der vorliegenden Offenbarung werden Zielobjekte um das Fahrzeug durch mehrere verschiedene Arten von Sensoren erkannt, und die Erkennungsziele, die dasselbe Zielobjekt darstellen, die von verschiedenen Arten von Sensoren erkannt werden, werden durch Anpassung von Raumpositionen bestimmt. Nimmt man das Zielobjekt als ein Erkennungsergebnis, umfassen die für das Erkennungsergebnis erzeugten Zielerkennungs-Informationen einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses und Zielerkennungs-Informationen über jedes der Erkennungsziele, die das Erkennungsergebnis darstellen, wobei die Zielerkennungs-Informationen über das Erkennungsziel von dem Sensor gesammelt werden, der das Erkennungsziel in einer zum Sensor gehörenden Dimension erkennt. Man kann sehen, dass einerseits die Möglichkeit, dass die von verschiedenen Typen von Sensoren erkannten Erkennungsziele dasselbe Zielobjekt darstellen, gemäß dem räumlichen Übereinstimmungs-Vertrauensbereich und dem zeitlichen Übereinstimmungs-Vertrauensbereich bestimmt werden kann und eine falsche Erkennung oder eine fehlende Erkennung des Zielobjektes angesichts der unterschiedlichen Vorteile verschiedener Sensoren stark verringert werden können. Andererseits werden gemäß der Dimensionen der Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren exakt gesammelt werden können, Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren in verschiedenen Dimensionen exakt gesammelt wurden, vereinigt, um Zielerkennungs-Informationen über dasselbe Zielobjekt zu erhalten, wodurch genauere und vollständigere Zielerkennungs-Informationen über das Zielobjekt vorgesehen werden.
-
Beispielhafte Vorrichtung
-
8 ist eine schematische Darstellung der Struktur einer Vorrichtung zur Erzeugung von Zielerkennungs-Informationen gemäß einer Ausführungsform der vorliegenden Offenbarung. In der Ausführungsform kann die Vorrichtung eine erste Bestimmungseinheit 801, eine zweite Bestimmungseinheit 802 und eine Erzeugungseinheit 803 umfassen.
-
Die erste Bestimmungseinheit 801 ist gestaltet, in einem vereinheitlichten Ebenen-Koordinatensystem Raumpositionen von Anfangs-Erkennungs-Zielen, die durch eine Vielzahl von verschiedenen Typen von Sensoren in einer aktuellen Erkennungsperiode erkannt werden, zu bestimmen.
-
Die zweite Bestimmungseinheit 802 ist gestaltet, Raumpositionen von anzupassenden Anfangs-Erkennungs-Zielen, die von jeweils zwei der Vielzahl von verschiedenen Typen von Sensoren in der aktuellen Erkennungsperiode erkannt wurden, anzupassen, und die Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis als Ergebnis-Erkennungs-Ziele zu bestimmen, wobei Raumpositionen von zwei beliebigen der Ergebnis-Erkennungs-Ziele im Erkennungsergebnis aneinander angepasst werden.
-
Die Erzeugungseinheit 803 ist gestaltet, Zielerkennungs-Informationen des Erkennungsergebnisses zu erzeugen, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele umfassen, die von dem Sensor gesammelt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension sammelt, und jedes der Ergebnis-Erkennungs-Ziele das vom Sensor erkannte Anfangs-Erkennungs-Ziel ist.
-
Optional kann die Vorrichtung ferner eine Berechnungseinheit umfassen.
-
Die Berechnungseinheit ist gestaltet, einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode auf der Grundlage der Anzahl erfolgreicher Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode zu berechnen.
-
Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen ferner den räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode.
-
Optional ist die Erzeugungseinheit 803 gestaltet, Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall zu erzeugen, dass der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode größer ist als ein voreingestellter Grenzwert des räumlichen Übereinstimmungs-Vertrauensbereichs.
-
Optional kann die Vorrichtung ferner eine dritte Bestimmungseinheit umfassen, die gestaltet ist, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses durch Ausführen einer Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in der Vielzahl von kürzlichen Erkennungsperioden durchzuführen.
-
Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen ferner den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses.
-
Optional ist die Erzeugungseinheit 803 gestaltet, Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall zu erzeugen, dass der zeitliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses größer ist als ein voreingestellter Grenzwert des zeitlichen Übereinstimmungs-Vertrauensbereichs.
-
Optional wird in einem Fall, dass ein euklidischer Abstand zwischen Raumpositionen von zwei Anfangs-Erkennungs-Zielen, die anzupassen sind, innerhalb eines voreingestellten Abstands-Grenzwertes liegt, bestimmt, dass die Raumpositionen der beiden Anfangs-Erkennungs-Ziele, die anzupassen sind, aneinander angepasst werden.
-
Optional kann die Vorrichtung ferner umfassen: eine vierte Bestimmungseinheit, die gestaltet ist, einen Selektionsbereich im Ebenen-Koordinatensystem auf der Grundlage einer aktuellen Geschwindigkeit eines Fahrzeugs zu bestimmen; und eine fünfte Bestimmungseinheit, die gestaltet ist, anzupassende Anfangs-Erkennungs-Ziele auf der Grundlage des Selektionsbereichs zu bestimmen. Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele befinden sich innerhalb des Selektionsbereichs.
-
Optional ist der Selektionsbereich ein Bereich aller möglicher Raumpositionen, die von dem Fahrzeug in einem Fall durchlaufen werden, dass ein Wenderadius des Fahrzeugs einen aktuellen Radius-Grenzwert überschreitet und ein Pfad des Fahrzeugs einen aktuellen Pfad-Grenzwert nicht überschreitet. Der aktuelle Radius-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines Querbeschleunigungs-Grenzwertes bestimmt, und der aktuelle Pfad-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines voreingestellten Zeit-Grenzwertes bestimmt.
-
Optional kann der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode ein Verhältnis von erfolgreichen Anpassungen sein, die dem Erkennungsergebnis entsprechen, zur Gesamtzahl der Anpassungen, wobei die Anzahl der erfolgreichen Anpassungen, die dem Erkennungsergebnis entsprechen, die Anzahl von erfolgreichen Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode ist, und die Gesamtzahl der Anpassungen die Anzahl von Anpassungen unter allen Anfangs-Erkennungs-Zielen ist, die in der aktuellen Erkennungsperiode anzupassen sind.
-
Optional ist die dritte Bestimmungseinheit gestaltet, Ergebnisse zu addieren, die durch Multiplizieren eines räumlichen Übereinstimmungs-Vertrauensbereichs in jeder aus der Vielzahl kürzlicher Erkennungsperioden mit einem der Erkennungsperiode entsprechenden Gewichtungskoeffizienten erhalten werden, um den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses zu erhalten. Je näher die Erkennungsperiode einem aktuellen Zeitpunkt ist, um so größer ist der der Erkennungsperiode entsprechende Gewichtungskoeffizient.
-
Optional kann der jeder Erkennungsperiode entsprechende Gewichtungskoeffizient ein normierter Gewichtungskoeffizient sein.
-
Optional umfassen die mehreren verschiedenen Typen von Sensoren eine Kamera, ein Radar und/oder ein Laser-Radar. Eine zur Kamera gehörende Dimension kann eine Bildcharakteristik des erkannten Zielobjekts sein, eine zum Radar gehörende Dimension kann eine Relativgeschwindigkeit des erkannten Zielobjekts bezüglich des Fahrzeugs sein, und eine zum Laser-Radar gehörende Dimension kann ein Profil des erkannten Zielobjekts sein.
-
Gemäß den Ausführungsformen der vorliegenden Offenbarung werden Zielobjekte um das Fahrzeug durch mehrere verschiedene Arten von Sensoren erkannt, und die Erkennungsziele, die dasselbe Zielobjekt darstellen, die von verschiedenen Arten von Sensoren erkannt werden, werden durch Anpassung von Raumpositionen bestimmt. Nimmt man das Zielobjekt als ein Erkennungsergebnis, umfassen die für das Erkennungsergebnis erzeugten Zielerkennungs-Informationen einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses und Zielerkennungs-Informationen über jedes der Erkennungsziele, die das Erkennungsergebnis darstellen, wobei die Zielerkennungs-Informationen über das Erkennungsziel von dem Sensor gesammelt werden, der das Erkennungsziel in einer zum Sensor gehörenden Dimension erkennt. Man kann sehen, dass einerseits die Möglichkeit, dass die von verschiedenen Typen von Sensoren erkannten Erkennungsziele dasselbe Zielobjekt darstellen, gemäß dem räumlichen Übereinstimmungs-Vertrauensbereich und dem zeitlichen Übereinstimmungs-Vertrauensbereich bestimmt werden kann und eine falsche Erkennung oder eine fehlende Erkennung des Zielobjektes angesichts der unterschiedlichen Vorteile verschiedener Sensoren stark verringert werden können. Andererseits werden gemäß der Dimensionen der der Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren exakt gesammelt werden können, Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren in verschiedenen Dimensionen exakt gesammelt wurden, vereinigt, um Zielerkennungs-Informationen über dasselbe Zielobjekt zu erhalten, wodurch genauere und vollständigere Zielerkennungs-Informationen über das Zielobjekt vorgesehen werden.
-
9 ist eine schematische Darstellung der Struktur einer Vorrichtung zur Erzeugung von Zielerkennungs-Informationen gemäß einer Ausführungsform der vorliegenden Offenbarung. In der Ausführungsform kann die Vorrichtung 900 einen Prozessor 901, einen Speicher 902, eine Kommunikationsschnittstelle 903 und ein Bussystem 904 umfassen.
-
Das Bussystem 904 ist gestaltet, alle Hardwarekomponenten der Vorrichtung zu koppeln.
-
Die Kommunikationsschnittstelle 903 ist gestaltet, eine Kommunikationsverbindung zwischen der Vorrichtung und mindestens einer anderen Vorrichtung zu implementieren.
-
Der Speicher 902 ist gestaltet, Programmbefehle und Daten zu speichern.
-
Der Prozessor 901 ist gestaltet, die im Speicher 902 gespeicherten Programmbefehle und Daten zu lesen, um folgende Schritte auszuführen:
In einem vereinheitlichten Ebenen-Koordinatensystem Bestimmen von Raumpositionen von Anfangs-Erkennungs-Zielen, die durch eine Vielzahl von verschiedenen Typen von Sensoren in einer aktuellen Erkennungsperiode erkannt werden;
Anpassen von Raumpositionen von anzupassenden Anfangs-Erkennungs-Zielen, die von jeweils zwei der Vielzahl von verschiedenen Typen von Sensoren in der aktuellen Erkennungsperiode erkannt wurden, und Bestimmen der Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis als Ergebnis-Erkennungs-Ziele, wobei Raumpositionen von zwei beliebigen der Ergebnis-Erkennungs-Ziele im Erkennungsergebnis aneinander angepasst werden; und
Erzeugen von Zielerkennungs-Informationen des Erkennungsergebnisses, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele umfassen, die von dem Sensor gesammelt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension erkennt, und jedes der Ergebnis-Erkennungs-Ziele das vom Sensor erkannte Anfangs-Erkennungs-Ziel ist.
-
Optional kann der Prozessor 901 ferner gestaltet sein, einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode auf der Grundlage der Anzahl erfolgreicher Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode zu berechnen. Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen ferner den räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode.
-
Optional kann, um die Zielerkennungs-Informationen des Erkennungsergebnisses zu erzeugen, der Prozessor 901 ferner gestaltet sein, Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall zu erzeugen, dass der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode größer ist als ein voreingestellter Grenzwert des räumlichen Übereinstimmungs-Vertrauensbereichs.
-
Optional kann der Prozessor 901 ferner gestaltet sein, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses durch Ausführen einer Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in vielen kürzlichen Erkennungsperioden durchzuführen. Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen ferner den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses.
-
Optional kann, um die Zielerkennungs-Informationen des Erkennungsergebnisses zu erzeugen, der Prozessor 901 ferner gestaltet sein, die Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall zu erzeugen, dass der zeitliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses größer ist als ein voreingestellter Grenzwert des zeitlichen Übereinstimmungs-Vertrauensbereichs.
-
Optional wird in einem Fall, dass ein euklidischer Abstand zwischen Raumpositionen von zwei Anfangs-Erkennungs-Zielen, die anzupassen sind, innerhalb eines voreingestellten Abstands-Grenzwertes liegt, bestimmt, dass die Raumpositionen der beiden Anfangs-Erkennungs-Ziele, die anzupassen sind, aneinander angepasst werden.
-
Optional kann der Prozessor 901 ferner gestaltet sein zum: Bestimmen eines Selektionsbereichs in dem Ebenen-Koordinatensystem auf der Grundlage einer aktuellen Geschwindigkeit des Fahrzeugs; und Bestimmen der anzupassenden Anfangs-Erkennungs-Ziele auf der Grundlage des Selektionsbereichs. Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele befinden sich innerhalb des Selektionsbereichs.
-
Optional ist der Selektionsbereich ein Bereich aller möglicher Raumpositionen, die von dem Fahrzeug in einem Fall durchlaufen werden, dass ein Wenderadius des Fahrzeugs einen aktuellen Radius-Grenzwert nicht überschreitet und ein Pfad einen Fahrzeugs einen aktuellen Pfad-Grenzwert nicht überschreitet. Der aktuelle Radius-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines Querbeschleunigungs-Grenzwertes bestimmt, und der aktuelle Pfad-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines voreingestellten Zeit-Grenzwertes bestimmt.
-
Optional kann der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode ein Verhältnis der Anzahl erfolgreicher Anpassungen, die dem Erkennungsergebnis entsprechen, zur Gesamtzahl von Anpassungen. Die Anzahl von erfolgreichen Anpassungen, die dem Erkennungsergebnis entsprechen, die Anzahl von erfolgreichen Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode, und die Gesamtzahl von Anpassungen ist die Anzahl von Anpassungen unter allen Anfangs-Erkennungs-Zielen, die in der aktuellen Erkennungsperiode anzupassen sind.
-
Optional kann, um den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses zu bestimmen, der Prozessor 901 ferner gestaltet sein, den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses durch Multiplizieren des räumlichen Übereinstimmungs-Vertrauensbereichs in jeder aus den mehreren kürzlichen Erkennungsperioden mit einem der Erkennungsperiode entsprechenden Gewichtungskoeffizienten und durch Aufaddieren der erhaltenen Produkte zu erhalten. Je näher die Erkennungsperiode einem aktuellen Zeitpunkt ist, um so größer ist der der Erkennungsperiode entsprechende Gewichtungskoeffizient.
-
Optional ist der jeder Erkennungsperiode entsprechende Gewichtungskoeffizient ein normierter Gewichtungskoeffizient.
-
Optional umfassen die mehreren verschiedenen Typen von Sensoren eine Kamera, ein Radar und/oder ein Laser-Radar. Eine zur Kamera gehörende Dimension kann eine Bildcharakteristik des erkannten Zielobjekts sein, eine zum Radar gehörende Dimension kann eine Relativgeschwindigkeit des erkannten Zielobjekts bezüglich des Fahrzeugs sein, und eine zum Laser-Radar gehörende Dimension kann ein Profil des erkannten Zielobjekts sein.
-
Gemäß den Ausführungsformen der vorliegenden Offenbarung werden Zielobjekte um das Fahrzeug durch mehrere verschiedene Arten von Sensoren erkannt, und die Erkennungsziele, die dasselbe Zielobjekt darstellen, die von verschiedenen Arten von Sensoren erkannt werden, werden durch Anpassung von Raumpositionen bestimmt. Nimmt man das Zielobjekt als ein Erkennungsergebnis, umfassen die für das Erkennungsergebnis erzeugten Zielerkennungs-Informationen einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses und Zielerkennungs-Informationen über jedes der Erkennungsziele, die das Erkennungsergebnis darstellen, wobei die Zielerkennungs-Informationen über das Erkennungsziel von dem Sensor gesammelt werden, der das Erkennungsziel in einer zum Sensor gehörenden Dimension erkennt. Man kann sehen, dass einerseits die Möglichkeit, dass die von verschiedenen Typen von Sensoren erkannten Erkennungsziele dasselbe Zielobjekt darstellen, gemäß dem räumlichen Übereinstimmungs-Vertrauensbereich und dem zeitlichen Übereinstimmungs-Vertrauensbereich bestimmt werden können und eine falsche Erkennung oder eine fehlende Erkennung des Zielobjektes angesichts der unterschiedlichen Vorteile verschiedener Sensoren stark verringert werden können. Andererseits werden gemäß der Dimensionen der der Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren exakt gesammelt werden können, Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren in verschiedenen Dimensionen exakt gesammelt wurden, vereinigt, um Zielerkennungs-Informationen über dasselbe Zielobjekt zu erhalten, wodurch genauere und vollständigere Zielerkennungs-Informationen über das Zielobjekt vorgesehen werden.
-
”Erstes/Erste” in den Ausdrücken, wie etwa ”eine erste Bestimmungseinheit” in den Ausführungsformen der vorliegenden Offenbarung wird nur dazu benutzt, Namen zu kennzeichnen und nicht den ersten in einer Reihenfolge. Diese Regel gilt auch für ”zweites” und ”drittes” und so weiter.
-
Gemäß der Beschreibung der obigen Ausführungsformen ist es für Fachleute klar, dass alle oder Teile von Schritten in den Verfahren gemäß der obigen Ausführungsformen mittels Software in Kombination mit einer Allzweck-Hardware-Plattform ausgeführt werden können. Auf der Grundlage dieses Verständnisses kann die technische Lösung der vorliegenden Offenbarung als Computersoftwareprodukt ausgeführt werden, und das Computersoftwareprodukt kann in einem Speichermedium gespeichert sein, wie etwa in einem Nur-Lese-Speicher (ROM)/RAM, einer Magnetplatte und einer optischen Platte. Das Computersoftwareprodukt umfasst mehrere Instruktionen, um eine Computer-Vorrichtung (die ein Personal-Computer, ein Server oder eine Vorrichtung zur Netzwerkkommunikation, wie etwa ein Router, sein kann) in die Lage zu versetzen, die gemäß den Ausführungsformen der vorliegenden Offenbarung oder einigen Teilen der Ausführungsformen beschriebenen Verfahren auszuführen.
-
Verschiedene Ausführungsformen in der Beschreibung werden auf fortschreitende Art und Weise beschrieben, und jede Ausführungsform legt den Schwerpunkt auf Unterschiede zu anderen Ausführungsformen. Für gleiche oder ähnliche Teile zwischen den Ausführungsformen kann man auf die Beschreibung anderer Ausführungsformen Bezug nehmen. Für die Ausführungsformen des Verfahrens und die Ausführungsformen der Vorrichtung ist deren Beschreibung einfach, da sie gleich der Ausführungsform des Systems sind. Für den Teil der Ausführungsform des Verfahrens und der Ausführungsform der Vorrichtung bezüglich der System-Ausführungsform kann man auf die Beschreibung der System-Ausführungsform Bezug nehmen. Die oben beschriebenen Vorrichtungs-Ausführungsformen und System-Ausführungsformen sind nur schematisch, die als getrennte Komponenten veranschaulichten Module können physikalisch getrennt sein oder nicht, und als Module gezeigte Komponenten können physikalische Module sein oder nicht, das heißt die Komponenten können am selben Platz angeordnet sein oder auf mehrere Netzwerkeinheiten verteilt sein. Die Lösungen der Ausführungsformen können erreicht werden, indem ein Teil oder alle der Module nach Bedarf ausgewählt werden. Fachleute können die vorliegende Offenbarung ohne kreative Arbeit verstehen und in die Praxis umsetzen.
-
Nur die bevorzugten Ausführungsformen der vorliegenden Offenbarung sind oben beschrieben und dienen nicht dazu, den Schutzumfang der vorliegenden Offenbarung zu begrenzen. Es wird darauf hingewiesen, dass Fachleute verschiedene Verbesserungen und Änderungen vornehmen können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen, und die Verbesserungen und Änderungen müssen so aufgefasst werden, dass sie in den Schutzumfang der vorliegenden Offenbarung fallen.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-