DE102017115028A1 - Verfahren, Gerät und Vorrichtung zur Erzeugung von Zielerkennungs-Informationen - Google Patents

Verfahren, Gerät und Vorrichtung zur Erzeugung von Zielerkennungs-Informationen Download PDF

Info

Publication number
DE102017115028A1
DE102017115028A1 DE102017115028.5A DE102017115028A DE102017115028A1 DE 102017115028 A1 DE102017115028 A1 DE 102017115028A1 DE 102017115028 A DE102017115028 A DE 102017115028A DE 102017115028 A1 DE102017115028 A1 DE 102017115028A1
Authority
DE
Germany
Prior art keywords
recognition
result
target
targets
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017115028.5A
Other languages
English (en)
Inventor
Wei Liu
Xin Yang
Lu Wei
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Neusoft Reach Automotive Technology Shanghai Co Ltd
Original Assignee
Neusoft Corp
Neusoft Reach Automotive Technology Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Neusoft Corp, Neusoft Reach Automotive Technology Shanghai Co Ltd filed Critical Neusoft Corp
Publication of DE102017115028A1 publication Critical patent/DE102017115028A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/91Radar or analogous systems specially adapted for specific applications for traffic control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Vorgesehen wird ein Verfahren zum Erzeugen von Zielerkennungs-Informationen, umfassend das Erkennen von Zielobjekten um das Fahrzeug durch mehrere verschiedene Arten von Sensoren, und Bestimmen der Erkennungsziele, die dasselbe Zielobjekt darstellen, die von den verschiedenen Arten von Sensoren erkannt werden, durch Nachverfolgung von Raumpositionen und Zeit. Nimmt man das Zielobjekt als Erkennungsergebnis, umfassen die für das Erkennungsergebnis erzeugten Zielerkennungs-Informationen einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses und Zielerkennungs-Informationen über jedes der Erkennungsziele, die das Erkennungsergebnis darstellen, die von dem Sensor gesammelt werden, der das Erkennungsziel in einer zum Sensor gehörenden Dimension erkennt. Durch Zusammensetzen der Erkennung von mehreren verschiedenen Arten von Sensoren kann die Rate von falschen Erkennungen und die Rate von fehlenden Erkennungen verringert werden, und es können Zielerkennungs-Informationen in mehreren Dimensionen vollständig vorgesehen werden.

Description

  • Diese Patentanmeldung beansprucht Anmeldungs-Vorrang vor der chinesischen Patentanmeldung Nr. 201611259559.1 mit dem Titel ”METHOD, APPARATUS AND DEVICE FOR GENERATING TARGET DETECTION INFORMATION”, die beim staatlichen chinesischen Patentamt am 30. Dezember 2016 eingereicht wurde, die hier durch Bezugnahme in ihrer Gesamtheit mit aufgenommen ist.
  • Gebiet
  • Die vorliegende Offenbarung betrifft das Gebiet der Informationsverarbeitungs-Technologie und insbesondere ein Verfahren, ein Gerät und eine Vorrichtung zur Erzeugung von Zielerkennungs-Informationen.
  • Hintergrund
  • Mit der Entwicklung der Elektronisierung und der Einführung von Intelligenz in Fahrzeugen sind viele verschiedene Arten von Sensoren in Fahrzeugen angeordnet, um die Umgebung zu erfassen und Zielobjekte um das Fahrzeug zu erkennen. Verschiedene Arten von Sensoren erkennen Zielobjekte gemäß verschiedenen Erkennungsmechanismen und weisen somit verschiedene Vorteile und Nachteile auf. Herkömmlich werden Zielobjekte um das Fahrzeug durch einen einzigen Typ von Sensor erkannt, das heißt die Zielerkennungs-Informationen zur Beschreibung der Eigenschaften des Zielobjektes werden durch den gleichen Sensor gesammelt. Der Erfinder hat jedoch herausgefunden, dass es sein kann, dass Zielerkennungs-Informationen in manchen Dimensionen nicht durch einen einzigen Typ von Sensor gesammelt werden können oder dass die gesammelten Informationen in manchen Dimensionen nicht genau sind oder in manchen Fällen das Zielobjekt sogar nicht erkannt werden kann. Daher kann bei Verwendung eines einzigen Typs von Sensor zur Erkennung von Zielobjekten eine falsche Erkennung oder eine fehlende Erkennung auftreten, und vollständige Zielerkennungs-Informationen können in mehreren Dimensionen nicht erhalten werden.
  • Zusammenfassung
  • Ein technisches Problem, das in der vorliegenden Offenbarung gelöst werden soll, ist es, ein Verfahren, eine Vorrichtung und ein Gerät zur Erzeugung von Zielerkennungs-Informationen vorzusehen, um die Rate falscher Erkennungen und fehlender Erkennungen von Zielobjekten zu verringern und genaue und vollständige Zielerkennungs-Informationen in mehreren Dimensionen vorzusehen.
  • In einem Aspekt wird ein Verfahren zur Erzeugung von Zielerkennungs-Informationen vorgesehen, umfassend:
    in einem vereinheitlichten Ebenen-Koordinatensystem Bestimmen von Raumpositionen von Anfangs-Erkennungs-Zielen, die durch eine Vielzahl von verschiedenen Typen von Sensoren in einer aktuellen Erkennungsperiode erkannt werden;
    Anpassen von Raumpositionen von anzupassenden Anfangs-Erkennungs-Zielen, die von jeweils zwei der Vielzahl von verschiedenen Typen von Sensoren in der aktuellen Erkennungsperiode erkannt wurden, und Bestimmen der Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis als Ergebnis-Erkennungs-Ziele, wobei Raumpositionen von zwei beliebigen der Ergebnis-Erkennungs-Ziele im Erkennungsergebnis aneinander angepasst werden; und
    Erzeugen von Zielerkennungs-Informationen des Erkennungsergebnisses, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele umfassen, die von dem Sensor gesammelt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension sammelt, und jedes der Ergebnis-Erkennungs-Ziele das vom Sensor erkannte Anfangs-Erkennungs-Ziel ist.
  • Optional umfasst das Verfahren ferner: Berechnen eines räumlichen Übereinstimmungs-Vertrauensbereichs des Erkennungsergebnisses in der aktuellen Erkennungsperiode auf der Grundlage der erfolgreichen Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses ferner den räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode umfasst.
  • Optional umfasst die Erzeugung von Zielerkennungs-Informationen des Erkennungsergebnisses: Erzeugen der Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall, dass der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode größer ist als ein voreingestellter Grenzwert des räumlichen Übereinstimmungs-Vertrauensbereichs.
  • Optional umfasst das Verfahren ferner: Bestimmen eines zeitlichen Übereinstimmungs-Vertrauensbereichs des Erkennungsergebnisses durch Ausführen einer Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in einer Vielzahl von kürzlichen Erkennungsperioden, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses ferner den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses umfasst.
  • Optional umfasst die Erzeugung von Zielerkennungs-Informationen des Erkennungsergebnisses: Erzeugen der Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall, dass der zeitliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses größer ist als ein voreingestellter Grenzwert des zeitlichen Übereinstimmungs-Vertrauensbereichs.
  • Optional wird bestimmt, dass Raumpositionen von zwei der Anfangs-Erkennungs-Ziele, die anzupassen sind, in einem Fall aneinander angepasst werden, dass ein euklidischer Abstand zwischen den Raumpositionen der beiden der Anfangs-Erkennungs-Ziele, die anzupassen sind, innerhalb eines voreingestellten Abstands-Grenzwert liegt.
  • Optional umfasst das Verfahren ferner:
    Bestimmen eines Selektionsbereichs im Ebenen-Koordinatensystem auf der Grundlage einer aktuellen Geschwindigkeit eines Fahrzeugs; und
    Bestimmen der anzupassenden Anfangs-Erkennungs-Ziele auf der Grundlage des Selektionsbereichs, wobei Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele innerhalb des Selektionsbereichs liegen.
  • Optional ist der Selektionsbereich ein Bereich aller Raumpositionen, die das Fahrzeug in einem Fall durchlaufen kann, dass ein Wenderadius einen aktuellen Radius-Grenzwert überschreitet und ein Pfad einen aktuellen Pfad-Grenzwert nicht überschreitet, wobei der aktuelle Radius-Grenzwert auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines Querbeschleunigungs-Grenzwertes bestimmt wird, und der aktuelle Pfad-Grenzwert auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines voreingestellten Zeit-Grenzwertes bestimmt wird.
  • Optional ist der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode ein Verhältnis der Anzahl von erfolgreichen Anpassungen, die dem Erkennungsergebnis entsprechen, zur Gesamtzahl der Anpassungen, wobei die Anzahl der erfolgreichen Anpassungen, die dem Erkennungsergebnis entsprechen, die Anzahl von erfolgreichen Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode ist, und die Gesamtzahl der Anpassungen die Anzahl von Anpassungen unter allen Anfangs-Erkennungs-Zielen ist, die in der aktuellen Erkennungsperiode anzupassen sind.
  • Optional umfasst das Bestimmen des zeitlichen Übereinstimmungs-Vertrauensbereichs des Erkennungsergebnisses durch Ausführen der Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in der Vielzahl von kürzlichen Erkennungsperioden:
    Addieren von Ergebnissen, die durch Multiplizieren eines räumlichen Übereinstimmungs-Vertrauensbereichs in jeder aus der Vielzahl kürzlicher Erkennungsperioden mit einem der Erkennungsperiode entsprechenden Gewichtungskoeffizienten erhalten werden, um den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses zu erhalten, wobei je näher die Erkennungsperiode einem aktuellen Zeitpunkt ist, um so größer der der Erkennungsperiode entsprechende Gewichtungskoeffizient ist.
  • Optional ist der jeder Erkennungsperiode entsprechende Gewichtungskoeffizient ein normierter Gewichtungskoeffizient.
  • Optional umfassen die mehreren verschiedenen Typen von Sensoren eine Kamera, ein Radar und/oder ein Laser-Radar. Eine zur Kamera gehörende Dimension ist eine Bildcharakteristik des erkannten Zielobjektes, eine zum Radar gehörende Dimension ist eine Relativgeschwindigkeit des erkannten Zielobjektes bezüglich des Fahrzeugs, und eine zum Laser-Radar gehörende Dimension ist ein Profil des erkannten Zielobjektes.
  • In einem anderen Aspekt wird eine Vorrichtung zur Erzeugung von Zielerkennungs-Informationen vorgesehen, umfassend:
    eine erste Bestimmungseinheit, die gestaltet ist, in einem vereinheitlichten Ebenen-Koordinatensystem Raumpositionen von Anfangs-Erkennungs-Zielen, die durch eine Vielzahl von verschiedenen Typen von Sensoren in einer aktuellen Erkennungsperiode erkannt werden, zu bestimmen;
    eine zweite Bestimmungseinheit, die gestaltet ist, Raumpositionen von anzupassenden Anfangs-Erkennungs-Zielen, die von jeweils zwei der Vielzahl von verschiedenen Typen von Sensoren in der aktuellen Erkennungsperiode erkannt wurden, anzupassen, und Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis als Ergebnis-Erkennungs-Ziele zu bestimmen, wobei Raumpositionen von zwei beliebigen der Ergebnis-Erkennungs-Ziele im Erkennungsergebnis aneinander angepasst werden; und
    eine Erzeugungseinheit, die gestaltet ist, Zielerkennungs-Informationen des Erkennungsergebnisses zu erzeugen, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele umfassen, die von dem Sensor gesammelt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension sammelt, und jedes der Ergebnis-Erkennungs-Ziele das vom Sensor erkannte Anfangs-Erkennungs-Ziel ist.
  • Optional kann die Vorrichtung ferner eine Berechnungseinheit umfassen, die gestaltet ist, einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode auf der Grundlage der erfolgreichen Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode zu berechnen. Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen ferner den räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode.
  • Optional ist die Erzeugungseinheit gestaltet, Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall zu erzeugen, dass der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode größer ist als ein voreingestellter Grenzwert des räumlichen Übereinstimmungs-Vertrauensbereichs.
  • Optional kann die Vorrichtung ferner eine dritte Bestimmungseinheit umfassen, die gestaltet ist, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses durch Ausführen einer Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in mehreren kürzlichen Erkennungsperioden durchzuführen.
  • Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen ferner den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses.
  • Optional ist die Erzeugungseinheit gestaltet, Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall zu erzeugen, dass der zeitliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses größer ist als ein voreingestellter Grenzwert des zeitlichen Übereinstimmungs-Vertrauensbereichs.
  • Optional wird in einem Fall, dass ein euklidischer Abstand zwischen Raumpositionen von zwei Anfangs-Erkennungs-Zielen, die anzupassen sind, innerhalb eines voreingestellten Abstands-Grenzwertes liegt, bestimmt, dass die Raumpositionen der beiden Anfangs-Erkennungs-Ziele, die anzupassen sind, aneinander angepasst werden.
  • Optional kann die Vorrichtung ferner umfassen: eine vierte Bestimmungseinheit, die gestaltet ist, einen Selektionsbereich im Ebenen-Koordinatensystem auf der Grundlage einer aktuellen Geschwindigkeit eines Fahrzeugs zu bestimmen; und eine fünfte Bestimmungseinheit, die gestaltet ist, anzupassende Anfangs-Erkennungs-Ziele auf der Grundlage des Selektionsbereichs zu bestimmen. Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele befinden sich innerhalb des Selektionsbereichs.
  • Optional ist der Selektionsbereich ein Bereich aller möglicher Raumpositionen, die von dem Fahrzeug in einem Fall durchlaufen werden, dass ein Wenderadius des Fahrzeugs einen aktuellen Radius-Grenzwert nicht überschreitet und ein Pfad einen Fahrzeugs einen aktuellen Pfad-Grenzwert nicht überschreitet. Der aktuelle Radius-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines Querbeschleunigungs-Grenzwertes bestimmt, und der aktuelle Pfad-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines voreingestellten Zeit-Grenzwertes bestimmt.
  • Optional kann der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode ein Verhältnis der Anzahl von erfolgreichen Anpassungen sein, die dem Erkennungsergebnis entsprechen, zur Gesamtzahl der Anpassungen, wobei die Anzahl der erfolgreichen Anpassungen, die dem Erkennungsergebnis entsprechen, die Anzahl von erfolgreichen Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode ist, und die Gesamtzahl der Anpassungen die Anzahl von Anpassungen unter allen Anfangs-Erkennungs-Zielen ist, die in der aktuellen Erkennungsperiode anzupassen sind.
  • Optional ist die dritte Bestimmungseinheit gestaltet, Ergebnisse zu addieren, die durch Multiplizieren eines räumlichen Übereinstimmungs-Vertrauensbereichs in jeder aus der Vielzahl kürzlicher Erkennungsperioden mit einem der Erkennungsperiode entsprechenden Gewichtungskoeffizienten erhalten werden, um den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses zu erhalten. Je näher die Erkennungsperiode einem aktuellen Zeitpunkt ist, um so größer ist der der Erkennungsperiode entsprechende Gewichtungskoeffizient.
  • Optional kann der jeder Erkennungsperiode entsprechende Gewichtungskoeffizient ein normierter Gewichtungskoeffizient sein.
  • Optional umfassen die mehreren verschiedenen Typen von Sensoren eine Kamera, ein Radar und/oder ein Laser-Radar. Eine zur Kamera gehörende Dimension ist eine Bildcharakteristik des erkannten Zielobjektes, eine zum Radar gehörende Dimension ist eine Relativgeschwindigkeit des erkannten Zielobjektes bezüglich des Fahrzeugs, und eine zum Laser-Radar gehörende Dimension ist ein Profil des erkannten Zielobjektes.
  • In einem anderen Aspekt wird eine Vorrichtung zur Erzeugung von Zielerkennungs-Informationen vorgesehen, umfassend einen Prozessor, einen Speicher, eine Kommunikationsschnittstelle und ein Bussystem, wobei
    das Bussystem gestaltet ist, den Prozessor, den Speicher und die Kommunikationsschnittstelle miteinander zu koppeln;
    die Kommunikationsschnittstelle gestaltet ist, eine Kommunikationsverbindung zwischen der Vorrichtung und mindestens einer anderen Vorrichtung zu implementieren;
    der Speicher gestaltet ist, Programmbefehle zu speichern; und
    der Prozessor gestaltet ist, die im Speicher gespeicherten Programmbefehle zu lesen, um folgende Schritte auszuführen:
    in einem vereinheitlichten Ebenen-Koordinatensystem Bestimmen von Raumpositionen von Anfangs-Erkennungs-Zielen, die durch eine Vielzahl von verschiedenen Typen von Sensoren in einer aktuellen Erkennungsperiode erkannt werden;
    Anpassen von Raumpositionen von anzupassenden Anfangs-Erkennungs-Zielen, die von jeweils zwei der Vielzahl von verschiedenen Typen von Sensoren in der aktuellen Erkennungsperiode erkannt wurden, und Bestimmen der Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis als Ergebnis-Erkennungs-Ziele, wobei Raumpositionen von zwei beliebigen der Ergebnis-Erkennungs-Ziele im Erkennungsergebnis aneinander angepasst werden; und
    Erzeugen von Zielerkennungs-Informationen des Erkennungsergebnisses, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele umfassen, die von dem Sensor erkannt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension sammelt, und jedes der Ergebnis-Erkennungs-Ziele das vom Sensor erkannte Anfangs-Erkennungs-Ziel ist.
  • Optional ist der Prozessor ferner gestaltet, einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode auf der Grundlage der Anzahl erfolgreicher Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode zu berechnen. Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen ferner den räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode.
  • Optional ist, um die Zielerkennungs-Informationen des Erkennungsergebnisses zu erzeugen, der Prozessor ferner gestaltet, Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall zu erzeugen, dass der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode größer ist als ein voreingestellter Grenzwert des räumlichen Übereinstimmungs-Vertrauensbereichs.
  • Optional ist der Prozessor ferner gestaltet, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses durch Ausführen einer Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in mehreren kürzlichen Erkennungsperioden durchzuführen. Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen ferner den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses.
  • Optional ist, um die Zielerkennungs-Informationen des Erkennungsergebnisses zu erzeugen, der Prozessor ferner gestaltet, die Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall zu erzeugen, dass der zeitliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses größer ist als ein voreingestellter Grenzwert des zeitlichen Übereinstimmungs-Vertrauensbereichs.
  • Optional wird in einem Fall, dass ein euklidischer Abstand zwischen Raumpositionen von zwei Anfangs-Erkennungs-Zielen, die anzupassen sind, innerhalb eines voreingestellten Abstands-Grenzwertes liegt, bestimmt, dass die Raumpositionen der beiden Anfangs-Erkennungs-Ziele, die anzupassen sind, aneinander angepasst werden.
  • Optional ist der Prozessor ferner gestaltet zum: Bestimmen eines Selektionsbereichs im Ebenen-Koordinatensystem auf der Grundlage einer aktuellen Geschwindigkeit eines Fahrzeugs; und Bestimmen der anzupassenden Anfangs-Erkennungs-Ziele auf der Grundlage des Selektionsbereichs. Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele befinden sich innerhalb des Selektionsbereichs.
  • Optional ist der Selektionsbereich ein Bereich aller möglicher Raumpositionen, die von dem Fahrzeug in einem Fall durchlaufen werden, dass ein Wenderadius des Fahrzeugs einen aktuellen Radius-Grenzwert nicht überschreitet und ein Pfad einen Fahrzeugs einen aktuellen Pfad-Grenzwert nicht überschreitet. Der aktuelle Radius-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines Querbeschleunigungs-Grenzwertes bestimmt, und der aktuelle Pfad-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines voreingestellten Zeit-Grenzwertes bestimmt.
  • Optional kann der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode ein Verhältnis der Anzahl erfolgreicher Anpassungen, die dem Erkennungsergebnis entsprechen, zur Gesamtzahl von Anpassungen sein. Die Anzahl von erfolgreichen Anpassungen, die dem Erkennungsergebnis entsprechen, ist die Anzahl von erfolgreichen Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode, und die Gesamtzahl von Anpassungen ist die Anzahl von Anpassungen unter allen Anfangs-Erkennungs-Zielen, die in der aktuellen Erkennungsperiode anzupassen sind.
  • Optional ist, um den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses zu bestimmen, der Prozessor ferner gestaltet, den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses durch Multiplizieren des räumlichen Übereinstimmungs-Vertrauensbereichs in jeder aus den mehreren kürzlichen Erkennungsperioden mit einem der Erkennungsperiode entsprechenden Gewichtungskoeffizienten und durch Aufaddieren der erhaltenen Produkte zu erhalten. Je näher die Erkennungsperiode einem aktuellen Zeitpunkt ist, um so größer ist der der Erkennungsperiode entsprechende Gewichtungskoeffizient.
  • Optional ist der jeder Erkennungsperiode entsprechende Gewichtungskoeffizient ein normierter Gewichtungskoeffizient.
  • Optional umfassen die mehreren verschiedenen Typen von Sensoren eine Kamera, ein Radar und/oder ein Laser-Radar. Eine zur Kamera gehörende Dimension ist eine Bildcharakteristik des erkannten Zielobjektes, eine zum Radar gehörende Dimension ist eine Relativgeschwindigkeit des erkannten Zielobjektes bezüglich des Fahrzeugs, und eine zum Laser-Radar gehörende Dimension ist ein Profil des erkannten Zielobjektes.
  • Gemäß Ausführungsformen der vorliegenden Offenbarung werden Zielobjekte um das Fahrzeug durch mehrere verschiedene Arten von Sensoren erkannt, und die Erkennungsziele, die dasselbe Zielobjekt darstellen, die von verschiedenen Arten von Sensoren erkannt werden, werden durch Anpassung von Raumpositionen bestimmt. Es wird ein räumlicher Übereinstimmungs-Vertrauensbereich berechnet, und ein zeitlicher Übereinstimmungs-Vertrauensbereich wird berechnet, indem die Erkennungsziele über der Zeit verfolgt werden. Nimmt man das Zielobjekt als ein Erkennungsergebnis, umfassen die für das Erkennungsergebnis erzeugten Zielerkennungs-Informationen einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses und Zielerkennungs-Informationen über jedes der Erkennungsziele, die das Erkennungsergebnis darstellen, wobei die Zielerkennungs-Informationen über das Erkennungsziel von dem Sensor gesammelt werden, der das Erkennungsziel in einer zum Sensor gehörenden Dimension erkennt. Man kann sehen, dass einerseits die Möglichkeit, dass die von verschiedenen Typen von Sensoren erkannten Erkennungsziele dasselbe Zielobjekt darstellen, gemäß dem räumlichen Übereinstimmungs-Vertrauensbereich und dem zeitlichen Übereinstimmungs-Vertrauensbereich bestimmt werden können und eine falsche Erkennung oder eine fehlende Erkennung des Zielobjektes angesichts der unterschiedlichen Vorteile verschiedener Sensoren stark verringert werden können. Andererseits werden gemäß der Dimensionen der Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren exakt gesammelt werden können, Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren in verschiedenen Dimensionen exakt gesammelt wurden, vereinigt, um Zielerkennungs-Informationen über dasselbe Zielobjekt zu erhalten, wodurch genauere und vollständigere Zielerkennungs-Informationen über das Zielobjekt vorgesehen werden.
  • Kurzbeschreibung der Zeichnung
  • Um technische Lösungen in den Ausführungsformen der vorliegenden Offenbarung deutlich zu veranschaulichen, werden nachfolgend Zeichnungen zur Beschreibung der Ausführungsformen vorgestellt. Offensichtlich sind die Zeichnungen in der folgenden Beschreibung nur einige Ausführungsformen der vorliegenden Offenbarung. Fachleute können gemäß der Zeichnungen auch andere Zeichnungen erhalten.
  • 1 ist eine schematische Darstellung einer Struktur eines Systems in Bezug auf eine Anwendungsszene gemäß einer Ausführungsform der vorliegenden Offenbarung;
  • 2 ist ein Flussdiagramm eines Verfahrens zur Erzeugung von Zielerkennungs-Informationen gemäß einer Ausführungsform der vorliegenden Offenbarung;
  • 3 ist eine schematische Darstellung einer Ebenen-Koordinatensystems gemäß einer Ausführungsform der vorliegenden Offenbarung;
  • 4 ist eine schematische Darstellung eines Selektionsbereichs gemäß einer Ausführungsform der vorliegenden Offenbarung;
  • 5 ist eine schematische Darstellung eines Wenderadius eines Fahrzeugs, wenn das Fahrzeug sich im maximalen Lenkradeinschlag gemäß einer Ausführungsform der vorliegenden Offenbarung befindet;
  • 6 ist eine schematische Darstellung von Raumpositionen von Anfangs-Erkennungs-Zielen, die von verschiedenen Sensoren in einem vereinheitlichten Ebenen-Koordinatensystem gemäß einer Ausführungsform der vorliegenden Offenbarung erkannt wurden;
  • 7 ist ein Flussdiagramm eines Verfahrens zur Erzeugung von Zielerkennungs-Informationen gemäß einer Ausführungsform der vorliegenden Offenbarung;
  • 8 ist eine schematische Darstellung der Struktur einer Vorrichtung zur Erzeugung von Zielerkennungs-Informationen gemäß einer Ausführungsform der vorliegenden Offenbarung; und
  • 9 ist eine schematische Darstellung der Struktur einer Vorrichtung zur Erzeugung von Zielerkennungs-Informationen gemäß einer Ausführungsform der vorliegenden Offenbarung.
  • Genaue Beschreibung der Ausführungsformen
  • Um Fachleute in die Lage zu versetzen, die Lösung der vorliegenden Offenbarung besser zu verstehen, werden die technischen Lösungen in den Ausführungsformen der vorliegenden Offenbarung nachstehend in Verbindung mit den Zeichnungen in den Ausführungsformen der vorliegenden Offenbarung deutlich und vollständig beschrieben. Offensichtlich sind die beschriebenen Ausführungsformen nur ein Teil der Ausführungsformen der vorliegenden Offenbarung und nicht alle Ausführungsformen. Alle anderen Ausführungsformen, die auf der Grundlage der Ausführungsformen der vorliegenden Offenbarung von Fachleuten ohne kreative Arbeit erhalten werden, fallen in den Schutzumfang der vorliegenden Offenbarung.
  • Der Erfinder hat durch Forschungen herausgefunden, dass verschiedene Arten von Sensoren ein Zielobjekt gemäß verschiedenen Erkennungsmechanismen erkennen und somit die verschiedenen Typen von Sensoren verschiedene Vorteile und Nachteile aufweisen. Zum Beispiel erkennt ein Kamera-Sensor ein Zielobjekt, indem er ein optisches Bild durch eine Kamera erfasst, und der Sichtwinkel kann einen Bereich von –90 Grad bis +90 Grad erreichen. Als weiteres Beispiel erkennt ein Radar-Sensor ein Zielobjekt, indem er eine gesendete elektromagnetische Welle mit einer empfangenen elektromagnetischen Welle vergleicht, wobei die Erkennung auf große Entfernungen 200 Meter und einen Bereich von –10 Grad bis +10 Grad erreichen kann, und die Erkennung auf mittlere Entfernungen 50 Meter und einen Bereich von –45 Grad bis +45 Grad erreichen kann. Als weiteres Beispiel erkennt ein Laser-Radar-Sensor ein Zielobjekt, indem er das Zielobjekt mit einem Laserstrahl abtastet, und die Erkennung kann bei guten Bedingungen 200 Meter und einen Bereich von –45 Grad bis +45 Grad erreichen. Herkömmlich werden die Zielobjekte um das Fahrzeug durch einen einzigen Typ von Sensor erkannt, und der eine einzige Typ von Sensor weist bei der Erkennung von Zielobjekten um das Fahrzeug sicherlich einige Erkennungs-Nachteile auf. Zum Beispiel kann es sein, dass Zielerkennungs-Informationen in manchen Dimensionen nicht durch einen einzigen Typ von Sensor gesammelt werden können oder die gesammelten Informationen in manchen Dimensionen nicht genau sind oder in manchen Fällen das Zielobjekt sogar nicht erkannt werden kann. Daher kann bei Verwendung eines einzigen Typs von Sensor zur Erkennung von Zielobjekten eine falsche Erkennung oder eine fehlende Erkennung auftreten, und vollständige Zielerkennungs-Informationen in mehreren Dimensionen können nicht erhalten werden.
  • Um das Problem zu lösen, werden in den Ausführungsformen der vorliegenden Offenbarung Zielobjekte um das Fahrzeug durch mehrere verschiedene Arten von Sensoren erkannt, und die Erkennungsziele, die dasselbe Zielobjekt darstellen, die von den verschiedenen Arten von Sensoren erkannt werden, werden durch Anpassung von Raumpositionen bestimmt. Nimmt man das Zielobjekt als ein Erkennungsergebnis, umfassen die für das Erkennungsergebnis erzeugten Zielerkennungs-Informationen einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses und Zielerkennungs-Informationen über jedes der Erkennungsziele, die das Erkennungsergebnis darstellen, wobei die Zielerkennungs-Informationen über das Erkennungsziel von dem Sensor gesammelt werden, der das Erkennungsziel in einer zum Sensor gehörenden Dimension erkennt. Man kann sehen, dass einerseits die Möglichkeit, dass die von verschiedenen Typen von Sensoren erkannten Erkennungsziele dasselbe Zielobjekt darstellen, gemäß dem räumlichen Übereinstimmungs-Vertrauensbereich und dem zeitlichen Übereinstimmungs-Vertrauensbereich bestimmt werden können und eine falsche Erkennung oder eine fehlende Erkennung des Zielobjektes angesichts der unterschiedlichen Vorteile verschiedener Sensoren stark verringert werden können. Andererseits werden gemäß der Dimensionen der Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren exakt gesammelt werden können, Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren in verschiedenen Dimensionen exakt gesammelt wurden, vereinigt, um Zielerkennungs-Informationen über dasselbe Zielobjekt zu erhalten, wodurch genauere und vollständigere Zielerkennungs-Informationen über das Zielobjekt vorgesehen werden.
  • 1 veranschaulicht ein Szenarium gemäß einer Ausführungsform der vorliegenden Offenbarung. Das Szenarium umfasst einen Kamera-Sensor 101, einen Radar-Sensor 102, einen Laser-Radar-Sensor 103 und einen Prozessor 104. Der Kamera-Sensor 101 kann mit dem Prozessor 104 interagieren, der Radar-Sensor 102 kann mit dem Prozessor 104 interagieren und der Laser-Radar-Sensor 103 kann mit dem Prozessor 104 interagieren. Der Prozessor 104 bestimmt in einem vereinheitlichten Ebenen-Koordinatensystem Raumpositionen von Anfangs-Erkennungs-Zielen, die durch jeden aus Kamera-Sensor 101, Radar-Sensor 102 und Laser-Radar-Sensor 103 in einer aktuellen Erkennungsperiode erkannt werden. Der Prozessor 104 passt Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele, die von dem Kamera-Sensor 101 und dem Radar-Sensor 102 gesammelt wurden, Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele, die von dem Radar-Sensor 102 und dem Laser-Radar-Sensor 103 gesammeltwurden, und Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele, die von dem Kamera-Sensor 101 und dem Laser-Radar-Sensor 103 in der aktuellen Erkennungsperiode gesammelt wurden, an, und bestimmt Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis als Ergebnis-Erkennungs-Ziele, wobei Raumpositionen von zwei beliebigen der Ergebnis-Erkennungs-Ziele im Erkennungsergebnis aneinander angepasst werden. Der Prozessor 104 berechnet ferner einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode auf der Grundlage der Anzahl erfolgreicher Anpassungen unter den Raumpositionen der Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode. Der Prozessor 104 bestimmt ferner einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses durch Ausführen einer Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in mehreren kürzlichen Erkennungsperioden. Der Prozessor 104 erzeugt Zielerkennungs-Informationen des Erkennungsergebnisses. Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen den räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses und Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele, die von dem Sensor gesammelt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension erkennt. Die Ergebnis-Erkennungs-Ziele sind die von den Sensoren erkannten Anfangs-Erkennungs-Ziele.
  • Die Aktionen gemäß der Ausführungsform der vorliegenden Offenbarung werden im obigen Szenarium vom Prozessor 104 ausgeführt, das ausführende Objekt in der vorliegenden Ausführungsform ist jedoch nicht darauf beschränkt, solange die Aktionen gemäß der Ausführungsform der vorliegenden Offenbarung ausgeführt werden.
  • Es wird darauf hingewiesen, dass das oben angegebene Szenarium nur ein Beispiel der Szenarien der vorliegenden Offenbarung ist, und die vorliegende Offenbarung ist nicht auf das oben angegebene Szenarium beschränkt.
  • Nachfolgend werden ein Verfahren, eine Vorrichtung und ein Gerät zur Erzeugung von Zielerkennungs-Informationen gemäß Ausführungsformen der vorliegenden Offenbarung in Verbindung mit der Zeichnung im Detail beschrieben.
  • Beispielhafte Verfahren
  • 2 zeigt ein Flussdiagramm eines Verfahrens zur Erzeugung von Zielerkennungs-Informationen gemäß einer Ausführungsform der vorliegenden Offenbarung. Das Verfahren kann die Schritte 201 bis 203 umfassen.
  • In Schritt 201 werden Raumpositionen von Anfangs-Erkennungs-Zielen, die durch mehrere verschiedene Typen von Sensoren in einer aktuellen Erkennungsperiode erkannt werden, in einem vereinheitlichten Ebenen-Koordinatensystem bestimmt.
  • Die Raumpositionen der Anfangs-Erkennungs-Ziele, die durch verschiedene Sensoren erkannt werden, werden jeweils in einem unabhängigen Koordinatensystem verschiedener Sensoren ermittelt, und die unabhängigen Koordinatensysteme der verschiedenen Sensoren sind normalerweise unterschiedlich. Um Anfangs-Erkennungs-Ziele, die dasselbe Zielobjekt darstellen, durch Analysieren von Relationen unter den Raumpositionen der Anfangs-Erkennungs-Ziele, die durch verschiedene Sensoren erkannt werden, zu bestimmen, wird ein vereinheitlichtes Ebenen-Koordinatensystem erzeugt und die Raumpositionen der Anfangs-Erkennungs-Ziele, die von den Sensoren erkannt werden, werden in das vereinheitlichte Ebenen-Koordinatensystem transformiert. Zum Beispiel kann das vereinheitlichte Ebenen-Koordinatensystem das in 3 gezeigte Koordinatensystem verwenden. In dem in 3 gezeigten Koordinatensystem ist eine Koordinaten-Ebene des Koordinatensystem-Beispiels durch eine Längsachse und eine Querachse des Fahrzeugs definiert, ein Ursprung O des Koordinatensystems bezeichnet einen Abtast-Mittelpunkt des Sensors, eine positive Richtung einer X-Achse des Koordinatensystems ist eine Vorwärtsrichtung des Fahrzeugs, und eine positive Richtung einer Y-Achse des Koordinatensystems ist eine Rechtsrichtung senkrecht zur Vorwärtsrichtung des Fahrzeugs.
  • Als Sensor zur Erkennung von Objekten um das Fahrzeug werden im Allgemeinen eine Kamera, ein Radar, ein Laser-Radar oder dergleichen verwendet. In der Ausführungsform können mehrere verschiedene Typen von Sensoren zum Beispiel eine Kamera, ein Radar und/oder ein Laser-Radar umfassen.
  • In Schritt 202 werden Raumpositionen zwischen den anzupassenden Anfangs-Erkennungs-Zielen, die von jeweils zwei verschiedenen Sensoren in einer aktuellen Erkennungsperiode erkannt werden, angepasst, und die Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis werden als Ergebnis-Erkennungs-Ziele bestimmt, wobei Raumpositionen von zwei beliebigen der Ergebnis-Erkennungs-Ziele im Erkennungsergebnis aneinander angepasst werden.
  • In der Ausführungsform entspricht ein Erkennungsergebnis einem Zielobjekt um das Fahrzeug. Die Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis können als Erkennungsziele verstanden werden, die erhalten werden, indem ein gleiches Zielobjekt von verschiedenen Typen von Sensoren erkannt wird. Die Raumpositionen der Anfangs-Erkennungs-Ziele, die durch Erkennen desselben Ziels durch verschiedene Typen von Sensoren erhalten werden, können sich in dem vereinheitlichten Ebenen-Koordinatensystem geringfügig unterscheiden. Wenn Raumpositionen von Anfangs-Erkennungs-Zielen, die durch verschiedene Sensoren erkannt wurden, nahe aneinander liegen, können die Raumpositionen der beiden Anfangs-Erkennungs-Ziele als aufeinander angepasst betrachtet werden, und die beiden Anfangs-Erkennungs-Ziele können als Ziele betrachtet werden, die durch Erkennen desselben Objekts durch verschiedene Sensoren erhalten wurden. Das heißt, die beiden Anfangs-Erkennungs-Ziele repräsentieren dasselbe Zielobjekt und sind ein gleiches Erkennungsergebnis. Daher wird in Schritt 202 für alle anzupassenden Anfangs-Erkennungs-Ziele die Anpassung der Raumpositionen zwischen den anzupassenden Anfangs-Erkennungs-Zielen durchgeführt, die von jeweils zwei verschiedenen Typen von Sensoren erkannt wurden. Wenn Raumpositionen der beiden anzupassenden Anfangs-Erkennungs-Ziele aufeinander angepasst werden, wird bestimmt, dass die beiden anzupassenden Anfangs-Erkennungs-Ziele demselben Erkennungsergebnis entsprechen. Auf diese Weise können Anfangs-Erkennungs-Ziele mit einem gleichen Erkennungsergebnis gemäß Ergebnissen der Anpassung von Raumpositionen aller anzupassenden Anfangs-Erkennungs-Ziele bestimmt werden.
  • Zum Beispiel wird ein Zielobjekt durch drei Typen von Sensoren erkannt, die eine Kamera, ein Radar und ein Laser-Radar sind. Anfangs-Erkennungs-Ziele, die von der Kamera erkannt werden, umfassen A und B, Anfangs-Erkennungs-Ziele, die von dem Radar erkannt werden, umfassen C und D, und Anfangs-Erkennungs-Ziele, die von dem Laser-Radar erkannt werden, umfassen E und F, und die anzupassenden Anfangs-Erkennungs-Ziele umfassen A, B, C, D, E und F. Bei der Anpassung von Raumpositionen zwischen den anzupassenden Anfangs-Erkennungs-Zielen, die von verschiedenen Sensoren erkannt werden, wird eine Raumpositions-Anpassung zwischen A und C durchgeführt, eine Raumpositions-Anpassung wird zwischen A und D durchgeführt, eine Raumpositions-Anpassung wird zwischen A und E durchgeführt, eine Raumpositions-Anpassung wird zwischen A und F durchgeführt, eine Raumpositions-Anpassung wird zwischen B und C durchgeführt, eine Raumpositions-Anpassung wird zwischen B und D durchgeführt, eine Raumpositions-Anpassung wird zwischen B und E durchgeführt, eine Raumpositions-Anpassung wird zwischen B und F durchgeführt, eine Raumpositions-Anpassung wird zwischen C und E durchgeführt, eine Raumpositions-Anpassung wird zwischen C und F durchgeführt, eine Raumpositions-Anpassung wird zwischen D und E durchgeführt, und eine Raumpositions-Anpassung wird zwischen D und F durchgeführt. In einem Fall, dass die Raumposition von A und die Raumposition von C aneinander angepasst werden, die Raumposition von C und die Raumposition von F aneinander angepasst werden, und die Raumposition von A und die Raumposition von F aneinander angepasst werden, wird bestimmt, dass A, C und F Anfangs-Erkennungs-Ziele in einem gleichen Erkennungsergebnis sind, das dasselbe Zielobjekt repräsentiert, und A, C und F werden als Ergebnis-Erkennungs-Ziele im Erkennungsergebnis bestimmt. Das heißt, die Raumposition jedes anzupassenden Anfangs-Erkennungs-Ziels, das von jedem aus der Vielzahl von verschiedenen Typen von Sensoren erkannt wird, wird mit der Raumposition jedes anzupassenden Anfangs-Erkennungs-Ziels, das von jedem der anderen aus der Vielzahl der verschiedenen Typen von Sensoren erkannt wird, angepasst, um ein Anfangs-Erkennungs-Ziel in einem selben Erkennungsergebnis zu bestimmen.
  • Zum Beispiel kann die Entfernung zwischen Raumpositionen verschiedener Anfangs-Erkennungs-Ziele durch einen euklidischen Abstand angezeigt werden. Daher können die Raumpositionen der beiden anzupassenden Anfangs-Erkennungs-Ziele gemäß dem euklidischen Abstand zwischen den beiden Anfangs-Erkennungs-Zielen in dem vereinheitlichten Ebenen-Koordinatensystem aufeinander angepasst werden. Wenn der euklidische Abstand zwischen den Raumpositionen der beiden Anfangs-Erkennungs-Ziele klein ist, werden die beiden Anfangs-Erkennungs-Ziele so betrachtet, dass sie dasselbe Zielobjekt repräsentieren, und es kann bestimmt werden, dass die beiden anzupassenden Anfangs-Erkennungs-Ziele Anfangs-Erkennungs-Ziele mit demselben Erkennungsergebnis sind. Das heißt, es wird bestimmt, dass die Raumpositionen der beiden anzupassenden Anfangs-Erkennungs-Ziele aneinander angepasst werden, wenn der euklidische Abstand zwischen den Raumpositionen der beiden Anfangs-Erkennungs-Ziele innerhalb eines voreingestellten Abstands-Grenzwertes liegt.
  • Zum Beispiel bezeichnet, wie in 6 gezeigt, A (xcn, ycn) ein Anfangs-Erkennungs-Ziel, das von der Kamera erkannt wurde, B (xrm, yrm) bezeichnet ein Anfangs-Erkennungs-Ziel, das von dem Radar erkannt wurde, und C (xlm, ylm) bezeichnet ein Anfangs-Erkennungs-Ziel, das von dem Laser-Radar erkannt wurde. Ein euklidischer Abstabd zwischen Raumpositionen der beiden anzupassenden Anfangs-Erkennungs-Ziele A und B kann gemäß der folgenden Formel berechnet werden.
    Figure DE102017115028A1_0002
    wobei dm einen euklidischen Abstand zwischen Raumpositionen von A und B bezeichnet, xrm eine x-Koordinate der Raumposition des vom Radar erkannten Anfangs-Erkennungs-Ziels bezeichnet, xcn eine x-Koordinate der Raumposition des von der Kamera erkannten Anfangs-Erkennungs-Ziels bezeichnet, yrm eine y-Koordinate der Raumposition des vom Radar erkannten Anfangs-Erkennungs-Ziels bezeichnet, und ycn eine y-Koordinate der Raumposition des von der Kamera erkannten Anfangs-Erkennungs-Ziels bezeichnet. Wenn dm kleiner ist als der voreingestellte Abstands-Grenzwert D, wird bestimmt, dass die Raumposition des vom Radar erkannten Anfangs-Erkennungs-Ziels A und die Raumposition des von der Kamera erkannten Anfangs-Erkennungs-Ziels B aneinander angepasst sind. Der voreingestellte Abstands-Grenzwert D muss kleiner sein als der minimale Abstand zwischen verschiedenen Zielobjekten, um eine erfolgreiche Anpassung zwischen Raumpositionen von Anfangs-Erkennungs-Zielen, die verschiedenen Zielobjekten entsprechen, zu verhindern. Wenn die Raumpositionen von A und B aneinander angepasst werden, die Raumpositionen von B und C aneinander angepasst werden, und die Raumpositionen von A und C aneinander angepasst werden, wird bestimmt, dass A, B und C dasselbe Zielobjekt repräsentieren, das heißt A, B und C sind Anfangs-Erkennungs-Ziele mit einem gleichen Erkennungsergebnis.
  • Außerdem gibt es normalerweise eine große Zahl von Zielobjekten, die von den Sensoren erkannt werden, was zu einer großen Menge an Auswertungen für die räumliche Anpassung führt. In einigen Ausführungsformen der vorliegenden Offenbarung wird, um die Menge an Auswertungen für die räumliche Anpassung zu verringern, ein Selektionsbereich auf der Grundlage von Positionen ausgebildet, an denen das Fahrzeug innerhalb der Reaktionszeit eines Fahrers ankommen kann, und eine räumliche Anpassung wird nur zwischen Anfangs-Erkennungs-Zielen ausgeführt, die von verschiedenen Typen von Sensoren innerhalb des Selektionsbereichs erkannt wurden. Vor Schritt S202 kann das Verfahren ferner umfassen: Bestimmen eines Selektionsbereichs im vereinheitlichten Ebenen-Koordinatensystem auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs; und Bestimmen der Anfangs-Erkennungs-Ziele, deren Raumpositionen sich innerhalb des Selektionsbereichs befinden, als anzupassende Anfangs-Erkennungs-Ziele. Die Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele befinden sich innerhalb des Selektionsbereichs.
  • In einer Implementation kann der Selektionsbereich gemäß dem minimalen Wenderadius des Fahrzeugs in der aktuellen Position und dem weitesten Pfad innerhalb der Reaktionszeit des Fahrers bestimmt werden. In einem Aspekt kann unter Berücksichtigung, dass das Fahrzeug eine Querbeschleunigung aufweist, wenn es mit der maximalen Geschwindigkeit abbiegt, die Querbeschleunigung des Fahrzeugs auf einen Wert innerhalb eines Querbeschleunigungs-Grenzwertes begrenzt werden, um die Fahrsicherheit und den Fahrkomfort sicherzustellen. In diesem Fall kann der minimale Wenderadius des Fahrzeugs in der aktuellen Position auf der Grundlage des Querbeschleunigungs-Grenzwertes und der aktuellen Geschwindigkeit des Fahrzeugs erhalten werden, und der minimale Wenderadius des Fahrzeugs kann als aktueller Radius-Grenzwert benutzt werden. Wenn die Querbeschleunigung des Fahrzeugs nicht größer ist als der Querbeschleunigungs-Grenzwert, ist der Wenderadius des Fahrzeugs nicht kleiner als der aktuelle Radius-Grenzwert, daher ist der dem Selektionsbereich entsprechende Wenderadius nicht kleiner als der aktuelle Radius-Grenzwert. In einem anderen Aspekt sind unter Berücksichtigung, dass der Fahrer eine Reaktionszeit beim Fahren des Fahrzeugs besitzt, die anzupassenden Zielobjekte hauptsächlich Zielobjekte, mit denen das Fahrzeug in der Reaktionszeit des Fahrers kollidieren kann. Daher wird ein voreingestellter Zeit-Grenzwert benutzt, die Reaktionszeit des Fahrers zu repräsentieren, und der längste Pfad des Fahrzeugs an der aktuellen Position innerhalb der Reaktionszeit des Fahrers kann gemäß dem voreingestellten Zeit-Grenzwert und der aktuellen Geschwindigkeit des Fahrzeugs erhalten werden. Der längste Pfad kann als aktueller Pfad-Grenzwert benutzt werden. Wenn die Reaktionszeit nicht größer ist als der voreingestellte Zeit-Grenzwert, ist der Fahrweg des Fahrzeugs nicht größer als der aktuelle Pfad-Grenzwert, daher ist der dem Selektionsbereich entsprechende Pfad nicht größer als der aktuelle Pfad-Grenzwert. In Verbindung mit den beiden oben angegebenen Aspekten kann der Selektionsbereich ein Bereich aller möglicher Raumpositionen sein, die von dem Fahrzeug in einem Fall durchlaufen werden, dass der Wenderadius den aktuellen Radius-Grenzwert überschreitet und der Pfad den aktuellen Pfad-Grenzwert nicht überschreitet. Der aktuelle Radius-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und des Querbeschleunigungs-Grenzwertes bestimmt, und der aktuelle Pfad-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und des voreingestellten Zeit-Grenzwertes bestimmt. Zum Beispiel ist als ein in 4 gezeigtes Beispiel des Selektionsbereichs der Selektionsbereich D eine Fläche, die von zwei Kurven L1 und L2 und einer geraden Linie L3 umgeben ist. Krümmungsradien der beiden Kurven sind der aktuelle Radius-Grenzwert und die Luftlinie zwischen der geraden Linie L3 und der aktuellen Position des Fahrzeugs ist der aktuelle Pfad-Grenzwert.
  • Der aktuelle Radius-Grenzwert und der aktuelle Pfad-Grenzwert können mit den folgenden Formeln berechnet werden.
    Figure DE102017115028A1_0003
    wobei Radius den aktuellen Radius-Grenzwert bezeichnet, Vx die aktuelle Geschwindigkeit des Fahrzeugs bezeichnet, Ay den Querbeschleunigungs-Grenzwert bezeichnet, d den aktuellen Pfad-Grenzwert bezeichnet und treaction den voreingestellten Zeit-Grenzwert bezeichnet.
  • Außerdem kann der aktuelle Wenderadius auf der Grundlage eines maximalen Lenkradeinschlags des Fahrzeugs bestimmt werden. Wie in 5 gezeigt, bezeichnet δmax einen maximalen Lenkradeinschlag des Lenksystems des Fahrzeugs, L ist ein Achsenabstand, Radiusmin kann ein minimaler Wenderadius des Fahrzeugs sein, daher ist
    Figure DE102017115028A1_0004
  • In Schritt 203 werden Zielerkennungs-Informationen des Erkennungsergebnisses erzeugt. Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele, die von dem Sensor gesammelt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension sammelt. Die Ergebnis-Erkennungs-Ziele sind die von den Sensoren erkannten Anfangs-Erkennungs-Ziele.
  • Im Allgemeinen benutzte Fahrzeug-Sensoren zur Erkennung der Umgebung umfassen eine Kamera, ein Radar, ein Laser-Radar und dergleichen. Die Kamera kann zum Beispiel Aussehen und Form des erkannten Ziels durch optische Bilderfassung darstellen. Das Radar kann die Orientierung des erkannten Ziels und die relative Geschwindigkeit des erkannten Ziels bezüglich des Fahrzeugs erhalten, indem es Charakteristiken einer gesendeten elektromagnetischen Welle mit Charakteristiken einer empfangenen elektromagnetischen Welle vergleicht. Das Laser-Radar kann ein Profil des erkannten Ziels durch Abtasten mit einem Laserstrahl erhalten. In der Ausführungsform können die mehreren verschiedenen Typen von Sensoren zum Beispiel die Kamera, das Radar und/oder das Laser-Radar umfassen. Eine zur Kamera gehörende Dimension kann eine Bildcharakteristik des erkannten Ziels sein, eine zum Radar gehörende Dimension kann eine Relativgeschwindigkeit des erkannten Ziels bezüglich des Fahrzeugs sein, und eine zum Laser-Radar gehörende Dimension kann ein Profil des erkannten Ziels sein. Als ein Beispiel können in einem Fall, dass dasselbe Objekt von der Kamera, dem Radar oder dem Laser-Radar erkannt wird, wenn das Fahrzeug fährt, die Zielerkennungs-Informationen des Erkennungsergebnisses, das das Zielobjekt darstellt, eine Bildcharakteristik (zum Beispiel eine geometrische Charakteristik) des von der Kamera erkannten Zielobjektes, eine vom Radar erkannte Relativgeschwindigkeit des Zielobjektes bezüglich des Fahrzeugs und ein vom Laser-Radar erkanntes Profil des Zielobjektes umfassen.
  • In einigen Ausführungsformen können, um zu bestimmen, ob alle Ergebnis-Erkennungs-Ziele im Erkennungsergebnis auf der Grundlage der Zielerkennungs-Informationen des Erkennungsergebnisses dasselbe Zielobjekt repräsentieren, die Zielerkennungs-Informationen des Erkennungsergebnisses ferner einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode umfassen. In diesem Fall kann das Verfahren gemäß der Ausführungsform vor Schritt 203 ferner umfassen: Berechnen eines räumlichen Übereinstimmungs-Vertrauensbereichs des Erkennungsergebnisses in der aktuellen Erkennungsperiode auf der Grundlage der Anzahl erfolgreicher Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode.
  • Der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode bezieht sich auf die Möglichkeit, dass die Anfangs-Erkennungs-Ziele in dem Erkennungsergebnis in der aktuellen Erkennungsperiode aus der Perspektive der Raumposition dasselbe Zielobjekt repräsentieren. Der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode kann zum Beispiel ein Verhältnis der Anzahl von Anpassungen, die dem Erkennungsergebnis entsprechen, zur Gesamtzahl von Anpassungen sein. Die Anzahl von Anpassungen, die dem Erkennungsergebnis entsprechen, ist die Anzahl von erfolgreichen Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode, und die Gesamtzahl von Anpassungen ist die Anzahl von Anpassungen unter allen Anfangs-Erkennungs-Zielen, die in der aktuellen Erkennungsperiode anzupassen sind, d. h. einschließlich aller erfolgreichen Anpassungen und nicht erfolgreichen Anpassungen.
  • Zum Beispiel sei angenommen, dass zwei Sensoren, die eine Kamera und ein Radar sind, dazu benutzt werden, ein Zielobjekt zu erkennen. Anfangs-Erkennungs-Ziele, die von der Kamera erkannt werden, umfassen A und B, und Anfangs-Erkennungs-Ziele, die von dem Radar erkannt werden, umfassen C und D, dann können anzupassende Anfangs-Erkennungs-Ziele A, B, C und D umfassen. Da eine Raumpositions-Anpassung zwischen anzupassenden Anfangs-Erkennungs-Zielen, die von verschiedenen Sensoren erkannt wurden, durchgeführt wird, wird die Raumpositions-Anpassung zwischen A und C durchgeführt, wird die Raumpositions-Anpassung zwischen A und D durchgeführt, wird die Raumpositions-Anpassung zwischen B und C durchgeführt, und wird die Raumpositions-Anpassung zwischen B und D durchgeführt. In diesem Fall ist die Anzahl von Anpassungen unter den anzupassenden Anfangs-Erkennungs-Zielen 4, das heißt die Gesamtzahl der Anpassungen ist 4. Nimmt man an, dass die Raumposition von A und die Raumposition von C aneinander angepasst werden, die Raumposition von A und die Raumposition von D nicht aneinander angepasst werden, die Raumposition von B und die Raumposition von C nicht aneinander angepasst werden, und die Raumposition von B und die Raumposition von D nicht aneinander angepasst werden, sind in diesem Fall A und C Ergebnis-Erkennungs-Ziele im selben Erkennungsergebnis. Daher ist die Anzahl erfolgreicher Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele 1, das heißt die dem Erkennungsergebnis entsprechende Anzahl von Anpassungen ist 1.
  • In manchen Ausführungsformen werden Zielerkennungs-Informationen, die von verschiedenen Sensoren erkannte Informationen enthalten, nur für ein Erkennungsergebnis erzeugt, das einen hohen räumlichen Übereinstimmungs-Vertrauensbereich aufweist. In diesem Fall kann der Schritt 203 umfassen: Erzeugen von Zielerkennungs-Informationen eines Erkennungsergebnisses in einem Fall, dass der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode größer ist als ein voreingestellter Grenzwert des räumlichen Übereinstimmungs-Vertrauensbereichs.
  • In einigen Ausführungsformen können, um zu bestimmen, ob Erkennungsergebnisse in verschiedenen Erkennungsperioden auf der Grundlage der Zielerkennungs-Informationen des Erkennungsergebnisses dasselbe Zielobjekt anzeigen können, die Zielerkennungs-Informationen des Erkennungsergebnisses ferner einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses umfassen. In diesem Fall kann das Verfahren gemäß der Ausführungsform vor Schritt 203 ferner umfassen: Bestimmen eines zeitlichen Übereinstimmungs-Vertrauensbereichs des Erkennungsergebnisses durch Ausführen einer Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in mehreren kürzlichen Erkennungsperioden.
  • Durch Verwendung verschiedener Sensoren zur Erkennung von Zielobjekten in verschiedenen Erkennungsperioden können erkannte anzupassende Anfangs-Erkennungs-Ziele unterschiedlich sein, und räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in verschiedenen Erkennungsperioden können unterschiedlich sein. Um zu bestimmen, ob das Erkennungsergebnis in verschiedenen Erkennungsperioden dasselbe Zielobjekt repräsentiert, können die räumlichen Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in mehreren unterschiedlichen Erkennungsperioden nachverfolgt werden, um einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses zu erhalten. Der zeitliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses bezieht sich auf die Möglichkeit, dass das Erkennungsergebnis in mehreren verschiedenen Erkennungsperioden aus der Perspektive der Zeit dasselbe Zielobjekt repräsentiert.
  • In manchen Ausführungsformen werden Zielerkennungs-Informationen, die von verschiedenen Sensoren erkannte Informationen enthalten, nur für ein Erkennungsergebnis erzeugt, das einen hohen zeitlichen Übereinstimmungs-Vertrauensbereich aufweist. In diesem Fall kann der Schritt 203 ferner umfassen: Erzeugen der Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall, dass der zeitliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses größer ist als ein voreingestellter Grenzwert des zeitlichen Übereinstimmungs-Vertrauensbereichs.
  • In manchen Ausführungsformen kann der zeitliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses durch Multiplizieren eines räumlichen Übereinstimmungs-Vertrauensbereichs in jeder aus den mehreren kürzlichen Erkennungsperioden mit einem der Erkennungsperiode entsprechenden Gewichtungskoeffizienten und durch Aufaddieren der erhaltenen Produkte bestimmt werden. Je näher die Erkennungsperiode einem aktuellen Zeitpunkt ist, um so größer ist der der Erkennungsperiode entsprechende Gewichtungskoeffizient. In einer Implementation kann der jeder Erkennungsperiode entsprechende Gewichtungskoeffizient ein normierter Gewichtungskoeffizient sein, das heißt die Summe von Gewichtungskoeffizienten, die allen mehreren kürzlichen Erkennungsperioden entsprechen, ist gleich 1.
  • In einer Implementation kann der zeitliche Übereinstimmungs-Vertrauensbereich mit der folgenden Formel berechnet werden. Ptracking = m / 2mPL(c) + m – 1 / 2mPL(c – 1) +...+ m – (m – 1) / 2mPL(c – (m – 1)) wobei Ptracking den zeitlichen Übereinstimmungs-Vertrauensbereich bezeichnet; c, c – 1 ... c – (m – 1) eine aktuelle Erkennungsperiode bezeichnen, eine erste Erkennungsperiode vor der aktuellen Erkennungsperiode ... eine (m – 1)-te Erkennungsperiode vor der aktuellen Erkennungsperiode, was m vorherige Erkennungsperioden sind; PL(c), PL(c – 1) ... PL(c – (m – 1)) räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in den m vorherigen Erkennungsperioden bezeichnen, m eine positive ganze Zahl ist; m / 2m, m – 1 / 2m ... m – (m – 1) / 2m Gewichtungskoeffizienten bezeichnen, die den m vorherigen Erkennungsperioden entsprechen.
  • Gemäß den Ausführungsformen der vorliegenden Offenbarung werden Zielobjekte um das Fahrzeug durch mehrere verschiedene Arten von Sensoren erkannt, und die Erkennungsziele, die dasselbe Zielobjekt darstellen, die von verschiedenen Arten von Sensoren erkannt werden, werden durch Anpassung von Raumpositionen bestimmt. Nimmt man das Zielobjekt als ein Erkennungsergebnis, umfassen die für das Erkennungsergebnis erzeugten Zielerkennungs-Informationen einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses und Zielerkennungs-Informationen über jedes der Erkennungsziele, die das Erkennungsergebnis darstellen, wobei die Zielerkennungs-Informationen über das Erkennungsziel von dem Sensor gesammelt wird, der das Erkennungsziel in einer zum Sensor gehörenden Dimension erkennt. Man kann sehen, dass einerseits die Möglichkeit, dass die von verschiedenen Typen von Sensoren erkannten Erkennungsziele dasselbe Zielobjekt darstellen, gemäß dem räumlichen Übereinstimmungs-Vertrauensbereich und dem zeitlichen Übereinstimmungs-Vertrauensbereich bestimmt werden können und eine falsche Erkennung oder eine fehlende Erkennung des Zielobjektes angesichts der unterschiedlichen Vorteile verschiedener Sensoren stark verringert werden können. Andererseits werden gemäß der Dimensionen der der Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren exakt gesammelt werden können, Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren in verschiedenen Dimensionen exakt gesammelt wurden, vereinigt, um Zielerkennungs-Informationen über dasselbe Zielobjekt zu erhalten, wodurch genauere und vollständigere Zielerkennungs-Informationen über das Zielobjekt vorgesehen werden.
  • 7 ist ein Flussdiagramm eines anderen Verfahrens zur Erzeugung von Zielerkennungs-Informationen gemäß einer Ausführungsform der vorliegenden Offenbarung. In der Ausführungsform kann das Verfahren Schritt 701 bis 707 umfassen.
  • In Schritt 701 wird ein vereinheitlichtes Ebenen-Koordinatensystem ausgebildet, und ein Selektionsbereich wird im Ebenen-Koordinatensystem auf der Grundlage einer aktuellen Geschwindigkeit eines Fahrzeugs bestimmt.
  • In Schritt 702 werden Raumpositionen von Anfangs-Erkennungs-Zielen, die durch mehrere verschiedene Typen von Sensoren in einer aktuellen Erkennungsperiode erkannt werden, in dem vereinheitlichten Ebenen-Koordinatensystem bestimmt.
  • In Schritt 703 werden anzupassende Anfangs-Erkennungs-Ziele auf der Grundlage des Selektionsbereichs bestimmt. Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele befinden sich innerhalb des Selektionsbereichs.
  • In Schritt 704 werden Raumpositionen von anzupassenden Anfangs-Erkennungs-Zielen, die von jeweils zwei verschiedenen Sensoren in der aktuellen Erkennungsperiode erkannt werden, angepasst, und die Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis werden als Ergebnis-Erkennungs-Ziele bestimmt. Raumpositionen von beliebigen zwei Ergebnis-Erkennungs-Zielen im Erkennungsergebnis werden aneinander angepasst.
  • In Schritt 705 wird ein räumlicher Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode auf der Grundlage der Anzahl erfolgreicher Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode berechnet.
  • In Schritt 706 wird ein zeitlicher Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses durch Ausführen einer Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in mehreren kürzlichen Erkennungsperioden bestimmt.
  • In Schritt 707 werden Zielerkennungs-Informationen des Erkennungsergebnisses erzeugt. Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen den räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode, den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses und Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele, die von dem Sensor erkannt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension erkennt. Jedes der Ergebnis-Erkennungs-Ziele ist das vom Sensor erkannte Anfangs-Erkennungs-Ziel.
  • Gemäß den Ausführungsformen der vorliegenden Offenbarung werden Zielobjekte um das Fahrzeug durch mehrere verschiedene Arten von Sensoren erkannt, und die Erkennungsziele, die dasselbe Zielobjekt darstellen, die von verschiedenen Arten von Sensoren erkannt werden, werden durch Anpassung von Raumpositionen bestimmt. Nimmt man das Zielobjekt als ein Erkennungsergebnis, umfassen die für das Erkennungsergebnis erzeugten Zielerkennungs-Informationen einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses und Zielerkennungs-Informationen über jedes der Erkennungsziele, die das Erkennungsergebnis darstellen, wobei die Zielerkennungs-Informationen über das Erkennungsziel von dem Sensor gesammelt werden, der das Erkennungsziel in einer zum Sensor gehörenden Dimension erkennt. Man kann sehen, dass einerseits die Möglichkeit, dass die von verschiedenen Typen von Sensoren erkannten Erkennungsziele dasselbe Zielobjekt darstellen, gemäß dem räumlichen Übereinstimmungs-Vertrauensbereich und dem zeitlichen Übereinstimmungs-Vertrauensbereich bestimmt werden kann und eine falsche Erkennung oder eine fehlende Erkennung des Zielobjektes angesichts der unterschiedlichen Vorteile verschiedener Sensoren stark verringert werden können. Andererseits werden gemäß der Dimensionen der Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren exakt gesammelt werden können, Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren in verschiedenen Dimensionen exakt gesammelt wurden, vereinigt, um Zielerkennungs-Informationen über dasselbe Zielobjekt zu erhalten, wodurch genauere und vollständigere Zielerkennungs-Informationen über das Zielobjekt vorgesehen werden.
  • Beispielhafte Vorrichtung
  • 8 ist eine schematische Darstellung der Struktur einer Vorrichtung zur Erzeugung von Zielerkennungs-Informationen gemäß einer Ausführungsform der vorliegenden Offenbarung. In der Ausführungsform kann die Vorrichtung eine erste Bestimmungseinheit 801, eine zweite Bestimmungseinheit 802 und eine Erzeugungseinheit 803 umfassen.
  • Die erste Bestimmungseinheit 801 ist gestaltet, in einem vereinheitlichten Ebenen-Koordinatensystem Raumpositionen von Anfangs-Erkennungs-Zielen, die durch eine Vielzahl von verschiedenen Typen von Sensoren in einer aktuellen Erkennungsperiode erkannt werden, zu bestimmen.
  • Die zweite Bestimmungseinheit 802 ist gestaltet, Raumpositionen von anzupassenden Anfangs-Erkennungs-Zielen, die von jeweils zwei der Vielzahl von verschiedenen Typen von Sensoren in der aktuellen Erkennungsperiode erkannt wurden, anzupassen, und die Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis als Ergebnis-Erkennungs-Ziele zu bestimmen, wobei Raumpositionen von zwei beliebigen der Ergebnis-Erkennungs-Ziele im Erkennungsergebnis aneinander angepasst werden.
  • Die Erzeugungseinheit 803 ist gestaltet, Zielerkennungs-Informationen des Erkennungsergebnisses zu erzeugen, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele umfassen, die von dem Sensor gesammelt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension sammelt, und jedes der Ergebnis-Erkennungs-Ziele das vom Sensor erkannte Anfangs-Erkennungs-Ziel ist.
  • Optional kann die Vorrichtung ferner eine Berechnungseinheit umfassen.
  • Die Berechnungseinheit ist gestaltet, einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode auf der Grundlage der Anzahl erfolgreicher Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode zu berechnen.
  • Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen ferner den räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode.
  • Optional ist die Erzeugungseinheit 803 gestaltet, Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall zu erzeugen, dass der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode größer ist als ein voreingestellter Grenzwert des räumlichen Übereinstimmungs-Vertrauensbereichs.
  • Optional kann die Vorrichtung ferner eine dritte Bestimmungseinheit umfassen, die gestaltet ist, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses durch Ausführen einer Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in der Vielzahl von kürzlichen Erkennungsperioden durchzuführen.
  • Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen ferner den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses.
  • Optional ist die Erzeugungseinheit 803 gestaltet, Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall zu erzeugen, dass der zeitliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses größer ist als ein voreingestellter Grenzwert des zeitlichen Übereinstimmungs-Vertrauensbereichs.
  • Optional wird in einem Fall, dass ein euklidischer Abstand zwischen Raumpositionen von zwei Anfangs-Erkennungs-Zielen, die anzupassen sind, innerhalb eines voreingestellten Abstands-Grenzwertes liegt, bestimmt, dass die Raumpositionen der beiden Anfangs-Erkennungs-Ziele, die anzupassen sind, aneinander angepasst werden.
  • Optional kann die Vorrichtung ferner umfassen: eine vierte Bestimmungseinheit, die gestaltet ist, einen Selektionsbereich im Ebenen-Koordinatensystem auf der Grundlage einer aktuellen Geschwindigkeit eines Fahrzeugs zu bestimmen; und eine fünfte Bestimmungseinheit, die gestaltet ist, anzupassende Anfangs-Erkennungs-Ziele auf der Grundlage des Selektionsbereichs zu bestimmen. Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele befinden sich innerhalb des Selektionsbereichs.
  • Optional ist der Selektionsbereich ein Bereich aller möglicher Raumpositionen, die von dem Fahrzeug in einem Fall durchlaufen werden, dass ein Wenderadius des Fahrzeugs einen aktuellen Radius-Grenzwert überschreitet und ein Pfad des Fahrzeugs einen aktuellen Pfad-Grenzwert nicht überschreitet. Der aktuelle Radius-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines Querbeschleunigungs-Grenzwertes bestimmt, und der aktuelle Pfad-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines voreingestellten Zeit-Grenzwertes bestimmt.
  • Optional kann der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode ein Verhältnis von erfolgreichen Anpassungen sein, die dem Erkennungsergebnis entsprechen, zur Gesamtzahl der Anpassungen, wobei die Anzahl der erfolgreichen Anpassungen, die dem Erkennungsergebnis entsprechen, die Anzahl von erfolgreichen Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode ist, und die Gesamtzahl der Anpassungen die Anzahl von Anpassungen unter allen Anfangs-Erkennungs-Zielen ist, die in der aktuellen Erkennungsperiode anzupassen sind.
  • Optional ist die dritte Bestimmungseinheit gestaltet, Ergebnisse zu addieren, die durch Multiplizieren eines räumlichen Übereinstimmungs-Vertrauensbereichs in jeder aus der Vielzahl kürzlicher Erkennungsperioden mit einem der Erkennungsperiode entsprechenden Gewichtungskoeffizienten erhalten werden, um den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses zu erhalten. Je näher die Erkennungsperiode einem aktuellen Zeitpunkt ist, um so größer ist der der Erkennungsperiode entsprechende Gewichtungskoeffizient.
  • Optional kann der jeder Erkennungsperiode entsprechende Gewichtungskoeffizient ein normierter Gewichtungskoeffizient sein.
  • Optional umfassen die mehreren verschiedenen Typen von Sensoren eine Kamera, ein Radar und/oder ein Laser-Radar. Eine zur Kamera gehörende Dimension kann eine Bildcharakteristik des erkannten Zielobjekts sein, eine zum Radar gehörende Dimension kann eine Relativgeschwindigkeit des erkannten Zielobjekts bezüglich des Fahrzeugs sein, und eine zum Laser-Radar gehörende Dimension kann ein Profil des erkannten Zielobjekts sein.
  • Gemäß den Ausführungsformen der vorliegenden Offenbarung werden Zielobjekte um das Fahrzeug durch mehrere verschiedene Arten von Sensoren erkannt, und die Erkennungsziele, die dasselbe Zielobjekt darstellen, die von verschiedenen Arten von Sensoren erkannt werden, werden durch Anpassung von Raumpositionen bestimmt. Nimmt man das Zielobjekt als ein Erkennungsergebnis, umfassen die für das Erkennungsergebnis erzeugten Zielerkennungs-Informationen einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses und Zielerkennungs-Informationen über jedes der Erkennungsziele, die das Erkennungsergebnis darstellen, wobei die Zielerkennungs-Informationen über das Erkennungsziel von dem Sensor gesammelt werden, der das Erkennungsziel in einer zum Sensor gehörenden Dimension erkennt. Man kann sehen, dass einerseits die Möglichkeit, dass die von verschiedenen Typen von Sensoren erkannten Erkennungsziele dasselbe Zielobjekt darstellen, gemäß dem räumlichen Übereinstimmungs-Vertrauensbereich und dem zeitlichen Übereinstimmungs-Vertrauensbereich bestimmt werden kann und eine falsche Erkennung oder eine fehlende Erkennung des Zielobjektes angesichts der unterschiedlichen Vorteile verschiedener Sensoren stark verringert werden können. Andererseits werden gemäß der Dimensionen der der Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren exakt gesammelt werden können, Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren in verschiedenen Dimensionen exakt gesammelt wurden, vereinigt, um Zielerkennungs-Informationen über dasselbe Zielobjekt zu erhalten, wodurch genauere und vollständigere Zielerkennungs-Informationen über das Zielobjekt vorgesehen werden.
  • 9 ist eine schematische Darstellung der Struktur einer Vorrichtung zur Erzeugung von Zielerkennungs-Informationen gemäß einer Ausführungsform der vorliegenden Offenbarung. In der Ausführungsform kann die Vorrichtung 900 einen Prozessor 901, einen Speicher 902, eine Kommunikationsschnittstelle 903 und ein Bussystem 904 umfassen.
  • Das Bussystem 904 ist gestaltet, alle Hardwarekomponenten der Vorrichtung zu koppeln.
  • Die Kommunikationsschnittstelle 903 ist gestaltet, eine Kommunikationsverbindung zwischen der Vorrichtung und mindestens einer anderen Vorrichtung zu implementieren.
  • Der Speicher 902 ist gestaltet, Programmbefehle und Daten zu speichern.
  • Der Prozessor 901 ist gestaltet, die im Speicher 902 gespeicherten Programmbefehle und Daten zu lesen, um folgende Schritte auszuführen:
    In einem vereinheitlichten Ebenen-Koordinatensystem Bestimmen von Raumpositionen von Anfangs-Erkennungs-Zielen, die durch eine Vielzahl von verschiedenen Typen von Sensoren in einer aktuellen Erkennungsperiode erkannt werden;
    Anpassen von Raumpositionen von anzupassenden Anfangs-Erkennungs-Zielen, die von jeweils zwei der Vielzahl von verschiedenen Typen von Sensoren in der aktuellen Erkennungsperiode erkannt wurden, und Bestimmen der Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis als Ergebnis-Erkennungs-Ziele, wobei Raumpositionen von zwei beliebigen der Ergebnis-Erkennungs-Ziele im Erkennungsergebnis aneinander angepasst werden; und
    Erzeugen von Zielerkennungs-Informationen des Erkennungsergebnisses, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele umfassen, die von dem Sensor gesammelt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension erkennt, und jedes der Ergebnis-Erkennungs-Ziele das vom Sensor erkannte Anfangs-Erkennungs-Ziel ist.
  • Optional kann der Prozessor 901 ferner gestaltet sein, einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode auf der Grundlage der Anzahl erfolgreicher Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode zu berechnen. Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen ferner den räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode.
  • Optional kann, um die Zielerkennungs-Informationen des Erkennungsergebnisses zu erzeugen, der Prozessor 901 ferner gestaltet sein, Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall zu erzeugen, dass der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode größer ist als ein voreingestellter Grenzwert des räumlichen Übereinstimmungs-Vertrauensbereichs.
  • Optional kann der Prozessor 901 ferner gestaltet sein, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses durch Ausführen einer Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in vielen kürzlichen Erkennungsperioden durchzuführen. Die Zielerkennungs-Informationen des Erkennungsergebnisses umfassen ferner den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses.
  • Optional kann, um die Zielerkennungs-Informationen des Erkennungsergebnisses zu erzeugen, der Prozessor 901 ferner gestaltet sein, die Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall zu erzeugen, dass der zeitliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses größer ist als ein voreingestellter Grenzwert des zeitlichen Übereinstimmungs-Vertrauensbereichs.
  • Optional wird in einem Fall, dass ein euklidischer Abstand zwischen Raumpositionen von zwei Anfangs-Erkennungs-Zielen, die anzupassen sind, innerhalb eines voreingestellten Abstands-Grenzwertes liegt, bestimmt, dass die Raumpositionen der beiden Anfangs-Erkennungs-Ziele, die anzupassen sind, aneinander angepasst werden.
  • Optional kann der Prozessor 901 ferner gestaltet sein zum: Bestimmen eines Selektionsbereichs in dem Ebenen-Koordinatensystem auf der Grundlage einer aktuellen Geschwindigkeit des Fahrzeugs; und Bestimmen der anzupassenden Anfangs-Erkennungs-Ziele auf der Grundlage des Selektionsbereichs. Raumpositionen der anzupassenden Anfangs-Erkennungs-Ziele befinden sich innerhalb des Selektionsbereichs.
  • Optional ist der Selektionsbereich ein Bereich aller möglicher Raumpositionen, die von dem Fahrzeug in einem Fall durchlaufen werden, dass ein Wenderadius des Fahrzeugs einen aktuellen Radius-Grenzwert nicht überschreitet und ein Pfad einen Fahrzeugs einen aktuellen Pfad-Grenzwert nicht überschreitet. Der aktuelle Radius-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines Querbeschleunigungs-Grenzwertes bestimmt, und der aktuelle Pfad-Grenzwert wird auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines voreingestellten Zeit-Grenzwertes bestimmt.
  • Optional kann der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode ein Verhältnis der Anzahl erfolgreicher Anpassungen, die dem Erkennungsergebnis entsprechen, zur Gesamtzahl von Anpassungen. Die Anzahl von erfolgreichen Anpassungen, die dem Erkennungsergebnis entsprechen, die Anzahl von erfolgreichen Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode, und die Gesamtzahl von Anpassungen ist die Anzahl von Anpassungen unter allen Anfangs-Erkennungs-Zielen, die in der aktuellen Erkennungsperiode anzupassen sind.
  • Optional kann, um den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses zu bestimmen, der Prozessor 901 ferner gestaltet sein, den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses durch Multiplizieren des räumlichen Übereinstimmungs-Vertrauensbereichs in jeder aus den mehreren kürzlichen Erkennungsperioden mit einem der Erkennungsperiode entsprechenden Gewichtungskoeffizienten und durch Aufaddieren der erhaltenen Produkte zu erhalten. Je näher die Erkennungsperiode einem aktuellen Zeitpunkt ist, um so größer ist der der Erkennungsperiode entsprechende Gewichtungskoeffizient.
  • Optional ist der jeder Erkennungsperiode entsprechende Gewichtungskoeffizient ein normierter Gewichtungskoeffizient.
  • Optional umfassen die mehreren verschiedenen Typen von Sensoren eine Kamera, ein Radar und/oder ein Laser-Radar. Eine zur Kamera gehörende Dimension kann eine Bildcharakteristik des erkannten Zielobjekts sein, eine zum Radar gehörende Dimension kann eine Relativgeschwindigkeit des erkannten Zielobjekts bezüglich des Fahrzeugs sein, und eine zum Laser-Radar gehörende Dimension kann ein Profil des erkannten Zielobjekts sein.
  • Gemäß den Ausführungsformen der vorliegenden Offenbarung werden Zielobjekte um das Fahrzeug durch mehrere verschiedene Arten von Sensoren erkannt, und die Erkennungsziele, die dasselbe Zielobjekt darstellen, die von verschiedenen Arten von Sensoren erkannt werden, werden durch Anpassung von Raumpositionen bestimmt. Nimmt man das Zielobjekt als ein Erkennungsergebnis, umfassen die für das Erkennungsergebnis erzeugten Zielerkennungs-Informationen einen räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode, einen zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses und Zielerkennungs-Informationen über jedes der Erkennungsziele, die das Erkennungsergebnis darstellen, wobei die Zielerkennungs-Informationen über das Erkennungsziel von dem Sensor gesammelt werden, der das Erkennungsziel in einer zum Sensor gehörenden Dimension erkennt. Man kann sehen, dass einerseits die Möglichkeit, dass die von verschiedenen Typen von Sensoren erkannten Erkennungsziele dasselbe Zielobjekt darstellen, gemäß dem räumlichen Übereinstimmungs-Vertrauensbereich und dem zeitlichen Übereinstimmungs-Vertrauensbereich bestimmt werden können und eine falsche Erkennung oder eine fehlende Erkennung des Zielobjektes angesichts der unterschiedlichen Vorteile verschiedener Sensoren stark verringert werden können. Andererseits werden gemäß der Dimensionen der der Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren exakt gesammelt werden können, Zielerkennungs-Informationen, die von den verschiedenen Typen von Sensoren in verschiedenen Dimensionen exakt gesammelt wurden, vereinigt, um Zielerkennungs-Informationen über dasselbe Zielobjekt zu erhalten, wodurch genauere und vollständigere Zielerkennungs-Informationen über das Zielobjekt vorgesehen werden.
  • ”Erstes/Erste” in den Ausdrücken, wie etwa ”eine erste Bestimmungseinheit” in den Ausführungsformen der vorliegenden Offenbarung wird nur dazu benutzt, Namen zu kennzeichnen und nicht den ersten in einer Reihenfolge. Diese Regel gilt auch für ”zweites” und ”drittes” und so weiter.
  • Gemäß der Beschreibung der obigen Ausführungsformen ist es für Fachleute klar, dass alle oder Teile von Schritten in den Verfahren gemäß der obigen Ausführungsformen mittels Software in Kombination mit einer Allzweck-Hardware-Plattform ausgeführt werden können. Auf der Grundlage dieses Verständnisses kann die technische Lösung der vorliegenden Offenbarung als Computersoftwareprodukt ausgeführt werden, und das Computersoftwareprodukt kann in einem Speichermedium gespeichert sein, wie etwa in einem Nur-Lese-Speicher (ROM)/RAM, einer Magnetplatte und einer optischen Platte. Das Computersoftwareprodukt umfasst mehrere Instruktionen, um eine Computer-Vorrichtung (die ein Personal-Computer, ein Server oder eine Vorrichtung zur Netzwerkkommunikation, wie etwa ein Router, sein kann) in die Lage zu versetzen, die gemäß den Ausführungsformen der vorliegenden Offenbarung oder einigen Teilen der Ausführungsformen beschriebenen Verfahren auszuführen.
  • Verschiedene Ausführungsformen in der Beschreibung werden auf fortschreitende Art und Weise beschrieben, und jede Ausführungsform legt den Schwerpunkt auf Unterschiede zu anderen Ausführungsformen. Für gleiche oder ähnliche Teile zwischen den Ausführungsformen kann man auf die Beschreibung anderer Ausführungsformen Bezug nehmen. Für die Ausführungsformen des Verfahrens und die Ausführungsformen der Vorrichtung ist deren Beschreibung einfach, da sie gleich der Ausführungsform des Systems sind. Für den Teil der Ausführungsform des Verfahrens und der Ausführungsform der Vorrichtung bezüglich der System-Ausführungsform kann man auf die Beschreibung der System-Ausführungsform Bezug nehmen. Die oben beschriebenen Vorrichtungs-Ausführungsformen und System-Ausführungsformen sind nur schematisch, die als getrennte Komponenten veranschaulichten Module können physikalisch getrennt sein oder nicht, und als Module gezeigte Komponenten können physikalische Module sein oder nicht, das heißt die Komponenten können am selben Platz angeordnet sein oder auf mehrere Netzwerkeinheiten verteilt sein. Die Lösungen der Ausführungsformen können erreicht werden, indem ein Teil oder alle der Module nach Bedarf ausgewählt werden. Fachleute können die vorliegende Offenbarung ohne kreative Arbeit verstehen und in die Praxis umsetzen.
  • Nur die bevorzugten Ausführungsformen der vorliegenden Offenbarung sind oben beschrieben und dienen nicht dazu, den Schutzumfang der vorliegenden Offenbarung zu begrenzen. Es wird darauf hingewiesen, dass Fachleute verschiedene Verbesserungen und Änderungen vornehmen können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen, und die Verbesserungen und Änderungen müssen so aufgefasst werden, dass sie in den Schutzumfang der vorliegenden Offenbarung fallen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • CN 201611259559 [0001]

Claims (14)

  1. Verfahren zum Erzeugen von Zielerkennungs-Informationen, umfassend: in einem vereinheitlichten Ebenen-Koordinatensystem Bestimmen von Raumpositionen von Anfangs-Erkennungs-Zielen, die durch eine Vielzahl von verschiedenen Typen von Sensoren in einer aktuellen Erkennungsperiode erkannt werden; Anpassen von Raumpositionen von anzupassenden Anfangs-Erkennungs-Zielen, die von jeweils zwei der Vielzahl von verschiedenen Typen von Sensoren in der aktuellen Erkennungsperiode erkannt wurden, und Bestimmen der Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis als Ergebnis-Erkennungs-Ziele, wobei Raumpositionen von zwei beliebigen der Ergebnis-Erkennungs-Ziele im Erkennungsergebnis aneinander angepasst werden; und Erzeugen von Zielerkennungs-Informationen des Erkennungsergebnisses, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele umfassen, die von dem Sensor gesammelt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension sammelt, und wobei jedes der Ergebnis-Erkennungs-Ziele das vom Sensor erkannte Anfangs-Erkennungs-Ziel ist.
  2. Verfahren nach Anspruch 1, ferner umfassend: Berechnen eines räumlichen Übereinstimmungs-Vertrauensbereichs des Erkennungsergebnisses in der aktuellen Erkennungsperiode auf der Grundlage der erfolgreichen Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses ferner den räumlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode umfasst.
  3. Verfahren nach Anspruch 2, wobei die Erzeugung von Zielerkennungs-Informationen des Erkennungsergebnisses umfasst: Erzeugen der Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall, dass der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode größer ist als ein voreingestellter Grenzwert des räumlichen Übereinstimmungs-Vertrauensbereichs.
  4. Verfahren nach Anspruch 2, ferner umfassend: Bestimmen eines zeitlichen Übereinstimmungs-Vertrauensbereichs des Erkennungsergebnisses durch Ausführen einer Gewichtungsoperation auf räumliche Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in einer Vielzahl von kürzlichen Erkennungsperioden, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses ferner den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses umfassen.
  5. Verfahren nach Anspruch 4, wobei die Erzeugung von Zielerkennungs-Informationen des Erkennungsergebnisses umfasst: Erzeugen der Zielerkennungs-Informationen des Erkennungsergebnisses in einem Fall, dass der zeitliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses größer ist als ein voreingestellter Grenzwert des zeitlichen Übereinstimmungs-Vertrauensbereichs.
  6. Verfahren nach Anspruch 1, wobei bestimmt wird, dass Raumpositionen von zwei der Anfangs-Erkennungs-Ziele, die anzupassen sind, in einem Fall aneinander angepasst werden, dass ein euklidischer Abstand zwischen den Raumpositionen der beiden der Anfangs-Erkennungs-Ziele, die anzupassen sind, innerhalb eines voreingestellten Abstands-Grenzwert liegt.
  7. Verfahren nach Anspruch 1, ferner umfassend: Bestimmen eines Selektionsbereichs im Ebenen-Koordinatensystem auf der Grundlage einer aktuellen Geschwindigkeit eines Fahrzeugs; und Bestimmen der anzupassenden Anfangs-Erkennungs-Ziele auf der Grundlage des Selektionsbereichs, wobei Raumpositionen der Anfangs-Erkennungs-Ziele innerhalb des Selektionsbereichs liegen.
  8. Verfahren nach Anspruch 7, wobei der Selektionsbereich ein Bereich aller Raumpositionen ist, die das Fahrzeug in einem Fall durchlaufen kann, dass ein Wenderadius einen aktuellen Radius-Grenzwert überschreitet und ein Pfad einen aktuellen Pfad-Grenzwert nicht überschreitet, wobei der aktuelle Radius-Grenzwert auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines Querbeschleunigungs-Grenzwertes bestimmt wird, und der aktuelle Pfad-Grenzwert auf der Grundlage der aktuellen Geschwindigkeit des Fahrzeugs und eines voreingestellten Zeit-Grenzwertes bestimmt wird.
  9. Verfahren nach Anspruch 2, wobei der der räumliche Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses in der aktuellen Erkennungsperiode ein Verhältnis von erfolgreichen Anpassungen, die dem Erkennungsergebnis entsprechen, zur Gesamtzahl der Anpassungen ist, wobei die Anzahl der erfolgreichen Anpassungen, die dem Erkennungsergebnis entsprechen, die Anzahl von erfolgreichen Anpassungen unter den Raumpositionen aller Ergebnis-Erkennungs-Ziele in der aktuellen Erkennungsperiode ist, und die Gesamtzahl der Anpassungen die Anzahl von Anpassungen unter allen Anfangs-Erkennungs-Zielen ist, die in der aktuellen Erkennungsperiode anzupassen sind.
  10. Verfahren nach Anspruch 4, wobei das Bestimmen des zeitlichen Übereinstimmungs-Vertrauensbereichs des Erkennungsergebnisses durch Ausführen der Gewichtungsoperation auf die räumlichen Übereinstimmungs-Vertrauensbereiche des Erkennungsergebnisses in der Vielzahl von kürzlichen Erkennungsperioden umfasst: Addieren von Ergebnissen, die durch Multiplizieren eines räumlichen Übereinstimmungs-Vertrauensbereichs in jeder aus der Vielzahl kürzlicher Erkennungsperioden mit einem der Erkennungsperiode entsprechenden Gewichtungskoeffizienten erhalten werden, um den zeitlichen Übereinstimmungs-Vertrauensbereich des Erkennungsergebnisses zu erhalten, wobei je näher die Erkennungsperiode einem aktuellen Zeitpunkt ist, um so größer der der Erkennungsperiode entsprechende Gewichtungskoeffizient ist.
  11. Verfahren nach Anspruch 10, wobei der jeder Erkennungsperiode entsprechende Gewichtungskoeffizient ein normierter Gewichtungskoeffizient ist.
  12. Verfahren nach Anspruch 1, wobei die mehreren verschiedenen Typen von Sensoren mindestens eines aus einer Kamera, einem Radar und einem Laser-Radar umfassen, eine zur Kamera gehörende Dimension eine Bildcharakteristik des erkannten Zielobjektes ist, eine zum Radar gehörende Dimension eine Relativgeschwindigkeit des erkannten Zielobjektes bezüglich des Fahrzeugs ist, und eine zum Laser-Radar gehörende Dimension ein Profil des erkannten Zielobjektes ist.
  13. Vorrichtung zum Erzeugen von Zielerkennungs-Informationen, umfassend: eine erste Bestimmungseinheit, die gestaltet ist, in einem vereinheitlichten Ebenen-Koordinatensystem Raumpositionen von Anfangs-Erkennungs-Zielen, die durch eine Vielzahl von verschiedenen Typen von Sensoren in einer aktuellen Erkennungsperiode erkannt werden, zu bestimmen; eine zweite Bestimmungseinheit, die gestaltet ist, Raumpositionen von anzupassenden Anfangs-Erkennungs-Zielen, die von jeweils zwei der Vielzahl von verschiedenen Typen von Sensoren in der aktuellen Erkennungsperiode erkannt wurden, anzupassen, und Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis als Ergebnis-Erkennungs-Ziele zu bestimmen, wobei Raumpositionen von zwei beliebigen der Ergebnis-Erkennungs-Ziele im Erkennungsergebnis aneinander angepasst werden; und eine Erzeugungseinheit, die gestaltet ist, Zielerkennungs-Informationen des Erkennungsergebnisses zu erzeugen, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele umfassen, die von dem Sensor gesammelt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension sammelt, und jedes der Ergebnis-Erkennungs-Ziele das vom Sensor erkannte Anfangs-Erkennungs-Ziel ist.
  14. Vorrichtung zur Erzeugung von Zielerkennungs-Informationen, umfassend einen Prozessor, einen Speicher, eine Kommunikationsschnittstelle und ein Bussystem, wobei das Bussystem gestaltet ist, den Prozessor, den Speicher und die Kommunikationsschnittstelle miteinander zu koppeln; die Kommunikationsschnittstelle gestaltet ist, eine Kommunikationsverbindung zwischen der Vorrichtung und mindestens einer anderen Vorrichtung zu implementieren; der Speicher gestaltet ist, Programmbefehle zu speichern; und der Prozessor gestaltet ist, die im Speicher gespeicherten Programmbefehle zu lesen, um folgende Schritte auszuführen: in einem vereinheitlichten Ebenen-Koordinatensystem Bestimmen von Raumpositionen von Anfangs-Erkennungs-Zielen, die durch eine Vielzahl von verschiedenen Typen von Sensoren in einer aktuellen Erkennungsperiode erkannt werden; Anpassen von Raumpositionen von anzupassenden Anfangs-Erkennungs-Zielen, die von jeweils zwei der Vielzahl von verschiedenen Typen von Sensoren in der aktuellen Erkennungsperiode erkannt wurden, und Bestimmen der Anfangs-Erkennungs-Ziele in einem Erkennungsergebnis als Ergebnis-Erkennungs-Ziele, wobei Raumpositionen von zwei beliebigen der Ergebnis-Erkennungs-Ziele im Erkennungsergebnis aneinander angepasst werden; und Erzeugen von Zielerkennungs-Informationen des Erkennungsergebnisses, wobei die Zielerkennungs-Informationen des Erkennungsergebnisses Zielerkennungs-Informationen über jedes der Ergebnis-Erkennungs-Ziele umfassen, die von dem Sensor gesammelt werden, der das Ergebnis-Erkennungs-Ziel in einer zum Sensor gehörenden Dimension sammelt, und jedes der Ergebnis-Erkennungs-Ziele das vom Sensor erkannte Anfangs-Erkennungs-Ziel ist.
DE102017115028.5A 2016-12-30 2017-07-05 Verfahren, Gerät und Vorrichtung zur Erzeugung von Zielerkennungs-Informationen Pending DE102017115028A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201611259559.1A CN106767852B (zh) 2016-12-30 2016-12-30 一种生成探测目标信息的方法、装置和设备
CN201611259559.1 2016-12-30

Publications (1)

Publication Number Publication Date
DE102017115028A1 true DE102017115028A1 (de) 2017-09-28

Family

ID=58953823

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017115028.5A Pending DE102017115028A1 (de) 2016-12-30 2017-07-05 Verfahren, Gerät und Vorrichtung zur Erzeugung von Zielerkennungs-Informationen

Country Status (4)

Country Link
US (1) US10217005B2 (de)
JP (1) JP6507201B2 (de)
CN (1) CN106767852B (de)
DE (1) DE102017115028A1 (de)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3623844A4 (de) * 2017-06-02 2020-05-20 Huawei Technologies Co., Ltd. Verfahren und vorrichtung zur erkennung von hindernissen
JP6988200B2 (ja) * 2017-06-29 2022-01-05 株式会社デンソー 車両制御装置
CN108399394A (zh) * 2018-03-12 2018-08-14 海信集团有限公司 障碍物预警方法、装置及终端
CN108827369B (zh) * 2018-07-20 2020-09-08 重庆长安汽车股份有限公司 提升传感器关联效率的方法
KR102448164B1 (ko) * 2018-07-20 2022-09-28 현대모비스 주식회사 차량용 레이더 제어 장치 및 방법
KR102179995B1 (ko) * 2018-08-30 2020-11-18 충북대학교 산학협력단 운전자 폭력 감지 방법
CN109359683B (zh) * 2018-10-15 2021-07-27 百度在线网络技术(北京)有限公司 目标检测方法、装置、终端和计算机可读存储介质
US10928819B2 (en) * 2018-10-29 2021-02-23 Here Global B.V. Method and apparatus for comparing relevant information between sensor measurements
CN111257866B (zh) * 2018-11-30 2022-02-11 杭州海康威视数字技术股份有限公司 车载摄像头和车载雷达联动的目标检测方法、装置及系统
CN111371635B (zh) * 2018-12-26 2023-09-01 北京奇虎科技有限公司 网络节点的监测方法、装置及系统
CN109814112A (zh) * 2019-01-15 2019-05-28 北京百度网讯科技有限公司 一种超声波雷达与激光雷达信息融合方法和系统
WO2020186420A1 (zh) * 2019-03-18 2020-09-24 深圳市大疆创新科技有限公司 一种目标检测方法、设备、毫米波雷达及可移动平台
CN110321854B (zh) * 2019-07-05 2021-12-24 阿波罗智联(北京)科技有限公司 用于检测目标对象的方法和装置
CN110341716B (zh) * 2019-08-06 2020-12-18 浙江吉利汽车研究院有限公司 车速计算方法、装置、自动驾驶系统及存储介质
CN110471070B (zh) * 2019-08-09 2022-06-14 上海慧希电子科技有限公司 组合型探测系统及探测器件
CN111679303B (zh) * 2019-12-30 2023-07-28 全球能源互联网研究院有限公司 一种多源定位信息融合的综合定位方法及装置
CN111402296B (zh) * 2020-03-12 2023-09-01 浙江大华技术股份有限公司 基于摄像机、雷达的目标跟踪方法及相关装置
CN111754798A (zh) * 2020-07-02 2020-10-09 上海电科智能系统股份有限公司 融合路侧激光雷达和视频实现车辆和周边障碍物探知方法
CN112344935B (zh) * 2020-10-19 2023-04-07 深圳优地科技有限公司 机器人地图管理方法、装置、设备及存储介质
CN114578305B (zh) * 2022-05-06 2022-07-05 南京隼眼电子科技有限公司 目标检测置信度确定方法、装置、电子设备及存储介质
CN116148801B (zh) * 2023-04-18 2023-07-14 深圳市佰誉达科技有限公司 一种基于毫米波雷达的目标检测方法及系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07244162A (ja) 1994-03-09 1995-09-19 Honda Motor Co Ltd 車両用距離検出装置
JP3918791B2 (ja) 2003-09-11 2007-05-23 トヨタ自動車株式会社 物体検出装置
JP4396400B2 (ja) * 2004-06-02 2010-01-13 トヨタ自動車株式会社 障害物認識装置
JP4712562B2 (ja) 2006-01-13 2011-06-29 富士重工業株式会社 車両の前方立体物認識装置
JP2010249613A (ja) 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
US8705797B2 (en) * 2012-03-07 2014-04-22 GM Global Technology Operations LLC Enhanced data association of fusion using weighted Bayesian filtering
DE102013009252A1 (de) * 2013-06-03 2014-12-04 Trw Automotive Gmbh Steuergerät und Verfahren für eine Notfall-Lenkunterstützungsfunktion
JP2015031607A (ja) 2013-08-02 2015-02-16 トヨタ自動車株式会社 物体認識装置
US9631914B2 (en) * 2014-03-13 2017-04-25 The Boeing Company Calibration of sensor arrays
DE102014205014A1 (de) * 2014-03-18 2015-09-24 Ford Global Technologies, Llc Verfahren und Vorrichtung zum Erfassen von bewegten Objekten in der Umgebung eines Fahrzeugs
JP6317986B2 (ja) 2014-04-16 2018-04-25 本田技研工業株式会社 物体認識装置
CN105109484B (zh) * 2015-08-21 2017-11-14 奇瑞汽车股份有限公司 目标障碍物体确定方法及装置
CN108139475A (zh) 2015-09-30 2018-06-08 索尼公司 信号处理设备、信号处理方法和程序
CN205706503U (zh) * 2016-03-16 2016-11-23 罗伯特·博世有限公司 车辆及其障碍物检测装置

Also Published As

Publication number Publication date
CN106767852A (zh) 2017-05-31
US10217005B2 (en) 2019-02-26
CN106767852B (zh) 2019-10-11
JP2017223680A (ja) 2017-12-21
JP6507201B2 (ja) 2019-04-24
US20180189575A1 (en) 2018-07-05

Similar Documents

Publication Publication Date Title
DE102017115028A1 (de) Verfahren, Gerät und Vorrichtung zur Erzeugung von Zielerkennungs-Informationen
DE102018124108A1 (de) VERFAHREN UND VORRICHTUNG ZUM ERFASSEN EINER STRAßENBEGRENZUNG
DE102011117585B4 (de) Systeme und Verfahren zum Verfolgen von Objekten
DE102013102153A1 (de) Verfahren zur Registrierung von Entfernungsbildern von mehreren LiDAR-Sensoren
DE102015207676A1 (de) Verfahren und Vorrichtung zur Hinderniserkennung auf Basis einer monokularen Kamera
DE112009003144T5 (de) Verfahren und Vorrichtung zum Feststellen eines Hindernisses in einem Bild
DE112018006164B4 (de) Sichtlinienrichtungskalibrierungsvorrichtung, sichtlinienrichtungskalibrierungsverfahren und sichtlinienrichtungskalibrierungsprogramm
DE102013113571A1 (de) Verfahren und Vorrichtungen zum Vereinigen von Radar/Kamera-Objektdaten und LiDAR-Absuchpunkten
DE102020124236A1 (de) Mehrweg-geisterabmilderung im fahrzeug-radarsystem
DE102010032184A1 (de) Lenkunterstützungssystem, Lenkunterstützungsvorrichtung, Verfahren und computerlesbares Medium
DE102014201271A1 (de) Verfahren und Steuergerät zum Erkennen einer Veränderung eines relativen Gierwinkels innerhalb eines Stereo-Video-Systems für ein Fahrzeug
DE112009001727T5 (de) Bildverarbeitungsvorrichtung
DE102012205448A1 (de) Verfahren und Vorrichtung für ein Objektdetektionssystem unter Verwendung von zwei modulierten Lichtquellen
DE112017008149B4 (de) Vorrichtung für eine von einem Fahrzeug ausgehende Kommunikation, Verfahren zum Kommunizieren von einem Fahrzeug nach außen Informationsverarbeitungsvorrichtung und computerlesbares Medium
DE102015115786B4 (de) An einem computer realisiertes verfahren und system zur verarbeitung einer sequenz von bildern
DE112016005947B4 (de) Fahrzeugbestimmungsvorrichtung, Fahrzeugbestimmungsverfahren und Fahrzeugbestimmungsprogramm
DE112016003912T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Programm
DE102020007045A1 (de) Objektdetektionssystem mit Laufzeitsensor
DE102012023119A1 (de) Abstandsmessvorrichtung und -verfahren
DE112019005326T5 (de) Objektverfolgungsvorrichtung
DE102018001533B4 (de) Echtzeitverfahren zur dynamischen Koordinaten- und Parameterschätzung mit gitterbasierten nicht-linearen probabilistischen Filtern
DE112022002046T5 (de) Fahrvorrichtung, fahrzeug und verfahren zum automatisierten fahren und/oder assistierten fahren
DE102019126074A1 (de) Analyse einer Umgebung eines aktiven optischen Sensorsystems
DE102019216396A1 (de) Verfahren und Vorrichtung zum Kalibrieren eines Fahrzeugsensors
DE102018121317A1 (de) Verfahren und Vorrichtung zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinformation zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine-Schnittstelle

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R230 Request for early publication
R081 Change of applicant/patentee

Owner name: NEUSOFT REACH AUTOMOTIVE TECHNOLOGY (SHANGHAI), CN

Free format text: FORMER OWNERS: NEUSOFT CORPORATION, LIAONING, CN; NEUSOFT REACH AUTOMOTIVE TECHNOLOGY (SHANGHAI) CO., LTD., SHANGHAI, CN

R082 Change of representative

Representative=s name: EISENFUEHR SPEISER PATENTANWAELTE RECHTSANWAEL, DE

R016 Response to examination communication