DE102019213929A1 - Plausibilitätsprüfung angehaltener vormals dynamischer Objekte mit Hilfe von Belegungsrastern - Google Patents

Plausibilitätsprüfung angehaltener vormals dynamischer Objekte mit Hilfe von Belegungsrastern Download PDF

Info

Publication number
DE102019213929A1
DE102019213929A1 DE102019213929.9A DE102019213929A DE102019213929A1 DE 102019213929 A1 DE102019213929 A1 DE 102019213929A1 DE 102019213929 A DE102019213929 A DE 102019213929A DE 102019213929 A1 DE102019213929 A1 DE 102019213929A1
Authority
DE
Germany
Prior art keywords
dop
sep
static
unit
environment perception
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019213929.9A
Other languages
English (en)
Inventor
Daniel Fafula
Jannik Metzner
Matthias Geiger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102019213929.9A priority Critical patent/DE102019213929A1/de
Publication of DE102019213929A1 publication Critical patent/DE102019213929A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/414Discriminating targets with respect to background clutter
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/295Means for transforming co-ordinates or for evaluating data, e.g. using computers
    • G01S7/2955Means for determining the position of the radar coordinate system for evaluating the position data of the target in another coordinate system

Abstract

Vorrichtung, umfassend Plausibilisierungseinheit (POS), die dazu ausgelegt ist, eine Plausibilisierung eines dynamischen Objektes (IDDOP_2) durchzuführen, das durch eine Dynamisches-Umfeld-Wahrnehmungseinheit (DOP) erkannt wurde, mittels Informationen über ein statisches Objekt (IDSEP_1), das durch eine Statisches-Umfeld-Wahrnehmungseinheit (SEP) erkannt wurde, und/oder eine Plausibilisierung eines statischen Objektes (IDSEP_1) durchzuführen, das durch eine Statisches-Umfeld-Wahrnehmungseinheit (SEP) erkannt wurde, mittels Informationen über ein dynamisches Objekt (IDDEP_1), das durch eine Dynamisches-Umfeld-Wahrnehmungseinheit (DOP) erkannt wurde.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft das technische Gebiet der Fahrzeugsensorik und deren Datenauswertung, insbesondere für autonome oder teilautonome Fahrzeuge.
  • TECHNISCHER HINTERGRUND
  • Autonome oder teilautonome Fahrzeuge weisen Sensoren wie beispielsweise Kameras, Radar- und Lidar-Sensoren auf, die das Umfeld des Fahrzeugs sensorisch erfassen und deren Daten in einer Steuereinheit mittels geeigneter Software ausgewertet werden. Auf Grundlage der durch diese Datenverarbeitung gewonnenen Informationen kann eine Steuereinheit über entsprechende Aktuatoren Brems-, Geschwindigkeits-, Abstands-, Kompensations- und/oder Ausweichregelungen selbsttätig auslösen und durchführen.
  • Für leistungsstarke Fahrassistenzsysteme und autonome Fahrzeuge ist eine präzise Umfelderkennung wichtig. Zu diesem Zweck besitzen moderne Fahrzeuge eine Vielzahl von Sensoren, zum Beispiel Radar- oder Lidar- Sensoren, die ihre Messwerte in Form einer Punktwolke liefern. Aus den von den Sensoren bereitgestellten Punktwolken gilt es, zuverlässige Informationen über mögliche Objekte im Fahrpfad oder auf Kollisionskurs zum eigenen Fahrzeug zu erhalten. Es werden verschiedenste Algorithmen angewendet, um mittels derartiger Sensoren statische und dynamische Objekten zu erkennen.
  • Vor diesem Hintergrund stellt die vorliegende Erfindung eine Vorrichtung und ein entsprechendes Verfahren zur Verfügung, mit denen die Umfelderkennung eines autonom oder teilautonom fahrenden Fahrzeugs verbessert werden kann.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Dieses Problem wird durch die im Patentanspruch 1 beschriebene Vorrichtung bzw. durch das in Patentanspruch 13 beschriebene Verfahren gelöst. Weitere vorteilhafte Aspekte der Erfindung ergeben sich aus den Unteransprüchen.
  • Die Ausführungsbeispiele zeigen insbesondere eine Vorrichtung, umfassend Plausibilisierungseinheit, die dazu ausgelegt ist, eine Plausibilisierung eines dynamischen Objektes durchzuführen, das durch eine Dynamisches-Umfeld-Wahrnehmungseinheit erkannt wurde, mittels Informationen über ein statisches Objekt, das durch eine Statisches-Umfeld-Wahrnehmungseinheit erkannt wurde.
  • Zusätzlich oder alternativ kann die Plausibilisierungseinheit, dazu ausgelegt sein, eine Plausibilisierung eines statischen Objektes durchzuführen, das durch eine Statisches-Umfeld-Wahrnehmungseinheit erkannt wurde, mittels Informationen über ein dynamisches Objekt, das durch eine Dynamisches-Umfeld-Wahrnehmungseinheit erkannt wurde.
  • Ein dynamisches Objekt kann beispielsweise ein Fahrzeug, ein Radfahrer oder ein Fußgänger sein. Ein statisches Objekt kann beispielsweise ein stehendes Fahrzeug, eine stehende Person/Tier oder ein Gegenstand wie ein Baum, Haus oder Straßenschild sein.
  • Eine Plausibilisierung kann beispielsweise ein Vorgehen sein, in dessen Rahmen überschlagsmäßig überprüft wird, ob es überhaupt plausibel (also annehmbar, einleuchtend und nachvollziehbar) ist oder nicht, dass das vom Fahrzeug wahrgenommen statische Objekte das gleiche Objekt ist welches zuvor vom Fahrzeug als dynamisches Objekt wahrgenommen wurde. Dies kann beispielsweise durch vordefinierte Heuristiken durchgeführt werden oder es kann beispielsweise durch das Betrachten von Indikatorwerten wie angeschalteten Bremslichtern an einem stehenden Fahrzeug durchgeführt werden oder es kann durch eine Korrelation (siehe weiter unten folgenden Ansprüche) durchgeführt werden.
  • Eine Umfeldwahrnehmung kann beispielsweise durch am Fahrzeug angebrachten Sensoren durchgeführt werden. Die Sensoren können beispielsweise Informationen über das Fahrzeugumfeld sammeln, beispielsweise Radarsensoren, Lidarsensoren, Ultraschalsensoren oder Kamerasensoren. Die Sensoren können beispielsweise darauf optimiert sein jeweils statische oder dynamische Objekte zu erkennen oder es können die gleichen Sensoren zu Erkennung von statischen und dynamischen Objekten genutzt werden.
  • Gemäß einem Ausführungsbeispiel ist die Plausibilisierungseinheit dazu ausgelegt, die Plausibilisierung durchzuführen, indem eine Korrelation zwischen dem Verschwinden des dynamischen Objektes und dem Auftauchen des statischen Objektes erkannt wird.
  • Zusätzlich oder alternativ kann die Plausibilisierungseinheit auch dazu ausgelegt sein, eine Korrelation zwischen dem Verschwinden des statischen Objektes und dem Auftauchen des dynamischen Objektes erkannt wird.
  • Eine Korrelation beschreibt eine Beziehung zwischen zwei oder mehreren Merkmalen oder Ereignissen wobei die Beziehung keine kausale Beziehung sein muss sondern beispielsweise auch eine stochastische, also vom Zufall beeinflusste, Beziehung zwischen den Merkmalen oder Ereignissen sein kann.
  • Beispielsweise ist die Plausibilisierungseinheit dazu ausgelegt, eine zeitliche Korrelation und/oder eine örtliche Korrelation zwischen dem Verschwinden des dynamischen Objektes und dem Auftauchen des statischen Objektes zu erkennen.
  • Gemäß einem Ausführungsbeispiel ist die Plausibilisierungseinheit dazu ausgelegt, eine Korrelation bezüglich der Ausdehnung des verschwundenen dynamischen Objektes und des aufgetauchten statischen Objekts, oder eine Korrelation bezüglich der Objektklasse, zu erkennen.
  • Die Ausdehnung des Objekts kann beispielsweise die Länge, Breite und Höhe eines Objektes wie beispielsweise ein Fahrzeug, ein Radfahrer oder ein Fußgänger beschreiben. Ein Vorteil ist, dass zum Beispiel Ausdehnungsinformationen, wie Objekt Höhe, Breite und Länge in einem beweglichen Zustand schlechter geschätzt werden als in einem statischen Zustand. Durch die Kommunikation Statisches-Umfeld-Wahrnehmungseinheit und der Statisches-Umfeld-Wahrnehmungseinheit über die Plausibilisierungseinheit können diese Informationen ausgetauscht in bestmöglicher Form dem Gesamtsystem des Fahrzeugs zugänglich gemacht werden.
  • Gemäß einem Ausführungsbeispiel sind die Plausibilisierungseinheit, die Dynamisches-Umfeld-Wahrnehmungseinheit und die Statisches-Umfeld-Wahrnehmungseinheit architektonisch getrennte Einheiten.
  • Architektonisch getrennt kann beispielsweise bedeuten, dass die Einheiten verschiedene Softwarekomponenten sind. Es kann auch bedeuten, dass die Einheiten in unterschiedlichen Hardware-Komponenten mit unterschiedlichen Prozessoren und jeweils eigener Stromversorgung und möglicherweise jeweils eigenem Gehäuse realisiert sind.
  • Die Sensorfusion/ Informationszusammenführung der Sensordaten welche auf der gleichen Abstraktionsstufe erhoben wurden, sind in eine separate Einheit, die Plausibilisierungseinheit ausgelagert (nachgelagert) worden. Damit können beispielsweise die strengen Entwurfs-Richtlinien bezüglich der Kommunikationsarchitektur der Komponenten innerhalb der Steuerung eines Fahrzeuges eingehalten werden und der Wechsel des Bewegungszustandes bleiben als vorteilhafte Information dem Gesamtsystem erhalten und konsistent.
  • Gemäß einem Ausführungsbeispiel sind die Plausibilisierungseinheit, die Dynamisches-Umfeld-Wahrnehmungseinheit und die Statisches-Umfeld-Wahrnehmungseinheit als separate Module ausgebildet. Auch dadurch kann eine architektonische Trennung der Einheiten erreicht.
  • Gemäß einem Ausführungsbeispiel sind die Dynamisches-Umfeld-Wahrnehmungseinheit und die Statisches-Umfeld-Wahrnehmungseinheit so ausgelegt, dass sie nicht direkt miteinander kommunizieren.
    Die einzelnen Module (Komponenten) sollten klare Eingangs- und Ausgangsschnittstellen haben und die Kommunikation auf der gleichen Abstraktionsstufe sollte vermieden werden.
  • Gemäß einem Ausführungsbeispiel weist die Statisches-Umfeld-Wahrnehmungseinheit eine Schnittstelle auf, die dazu ausgelegt ist, Informationen über das statische Objekt auszugeben, und die Plausibilisierungseinheit weist eine Schnittstelle auf, die dazu ausgelegt ist, Informationen über das statische Objekt zu empfangen. Beispielsweise können die Einheiten auf dem gleichem Chip sein implementiert sein wobei in diesem Fall die Kommunikation beispielsweise durch einen gemeinsamen Speicher („Shared Memory“) stattfinden kann. Bei Implementierung auf getrennten Chips kann die Kommunikation beispielsweise per Ethernet passieren.
  • Gemäß einem Ausführungsbeispiel weist die Dynamisches-Umfeld-Wahrnehmungseinheit eine Schnittstelle auf, die dazu ausgelegt ist, Informationen über das dynamische Objekt auszugeben, und die Plausibilisierungseinheit weist eine Schnittstelle auf, die dazu ausgelegt ist, Informationen über das dynamische Objekt zu empfangen.
  • Gemäß einem Ausführungsbeispiel handelt es sich bei den Informationen um einen Hüllkörper, der das statische Objekt bzw. das dynamische Objekt beschreibt.
  • Ein Hüllkörper ist ein einfacher geometrischer Körper, der ein komplexes dreidimensionales Objekt oder einen komplexen Körper umschließt. Beispielsweise können die Hüllkörper Quader sein.
  • Gemäß einem Ausführungsbeispiel weist die Statisches-Umfeld-Wahrnehmungseinheit eine Schnittstelle auf, die dazu ausgelegt ist Freiräume beispielsweise mit Fencelists/Polylines/Vertexlists auszugeben.
  • Eine Polyline ist beispielsweise eine durchgehende Linie, die aus einem oder mehreren Liniensegmenten besteht.
  • Eine Vertexlist kann beispielsweise eine Liste aller Knoten sein die einen Graph beschreiben.
  • Gemäß einem Ausführungsbeispiel ist die Statisches-Umfeld-Wahrnehmungseinheit dazu ausgelegt ist, das statische Objekt mit Hilfe einer Rasterkarte mit Aufenthaltswahrscheinlichkeiten erkennt.
  • Eine Rasterkarte kann beispielsweise eine beliebige Karte seine, welche in Raster eingeteilt ist. Vorzugsweise handelt es sich bei der Rasterkarte um eine akkumulierte Belegungskarte wobei diese zum Beispiel Informationen wie, maximale Höhe eines Objektes, gewichtete Intensität, Anzahl der Detektionen oder Belegungswahrscheinlichkeit abspeichern kann.
  • Die Ausführungsbeispiele zeigen insbesondere ein Verfahren, umfassend Durchführen einer Plausibilisierung eines dynamischen Objektes, das durch eine Dynamisches-Umfeld-Wahrnehmungseinheit erkannt wurde, mittels Informationen über ein statisches Objekt, das durch eine Statisches-Umfeld-Wahrnehmungseinheit erkannt wurde. Zusätzlich oder alternativ umfasst das Verfahren auch ein Durchführen einer Plausibilisierung eines statischen Objektes, das durch eine Statisches-Umfeld-Wahrnehmungseinheit erkannt wurde, mittels Informationen über ein dynamisches Objekt, das durch eine Dynamisches-Umfeld-Wahrnehmungseinheit erkannt wurde.
  • Die Ausführungsbeispiele zeigen insbesondere ein Computerprogramm, umfassend Instruktionen, die, wenn sie auf einem Prozessor ausgeführt werden, dazu ausgelegt sind, eine Plausibilisierung eines dynamischen Objektes durchzuführen, das durch eine Dynamisches-Umfeld- erkannt wurde, mittels Informationen über ein statisches Objekt, das durch eine Statisches-Umfeld-Wahrnehmungseinheit erkannt wurde. Zusätzlich oder alternativ umfasst das Computerprogramm auch Instruktionen, die, wenn sie auf einem Prozessor ausgeführt werden, dazu ausgelegt sind, eine Plausibilisierung eines statischen Objektes durchzuführen, das durch eine Statisches-Umfeld-Wahrnehmungseinheit erkannt wurde, mittels Informationen über ein dynamisches Objekt, das durch eine Dynamisches-Umfeld-Wahrnehmungseinheit erkannt wurde.
  • Figurenliste
  • Im Folgenden wird die Erfindung anhand der in den Figuren dargestellten Ausführungsformen beispielhaft erläutert.
    • 1 zeigt ein Blockdiagramm, das schematisch die Konfiguration eines Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt.
    • 2 zeigt einen beispielhaften Umfeldsensor, hier insbesondere einen Radarsensor.
    • Die 3a, b, c zeigen die Gewinnung einer zweidimensionalen Rasterkarte aus Detektionsereignissen eines Radarsensors.
    • Die 4a, 4b zeigen die Funktionsweise eines Inversen Sensormodells (ISM) zur Berechnung der qualitativen Informationen in der Belegungskarte.
    • 5 zeigt ein beispielhaftes Belegungsraster mit verschiedenen Belegungswahrscheinlichkeiten.
    • 6 zeigt die Architektur einer Fusion von Daten statischer und dynamischer Umfeldwahrnehmung gemäß einem Ausführungsbeispiel der Erfindung.
    • Die 7a, b, c, zeigen das Zusammenspiel der funktionellen Statisches-Umfeld-Wahrnehmungseinheit, der Dynamisches-Umfeld-Wahrnehmungseinheit DOP und der Plausibilisierungseinheit innerhalb der in 6 beschriebenen Kommunikationsarchitektur.
    • 8 zeigt ein Flussdiagramm eines Prozesses zur Fusion von Daten statischer und dynamischer Umfeldwahrnehmung, wie dieser unter Bezugnahme auf die 7a-c beschrieben wurde.
    • 9a zeigt ein Blockdiagramm, das eine beispielhafte Konfiguration einer Steuereinheit für autonomes Fahren darstellt.
    • 9b zeigt schematisch eine erfindungsgemäße Sensorverarbeitungseinheit.
  • Im Folgenden werden Ausführungsbeispiele der vorliegenden Erfindung anhand der folgenden Figuren beschrieben.
  • 1 zeigt ein Blockdiagramm, das schematisch die Konfiguration eines Fahrzeugs 1 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt. Das Fahrzeug 1 umfasst mehrere elektronische Komponenten, welche via eines Fahrzeugkommunikationsnetzwerks 28 miteinander verbunden sind. Das Fahrzeugkommunikationsnetzwerk 28 kann beispielsweise ein im Fahrzeug eingebautes standardgemäßes Fahrzeugkommunikationsnetzwerk wie etwa ein CAN-Bus (controller area network), ein LIN-Bus (local interconnect network), ein LAN-Bus (local area network), ein MOST-Bus und/oder ein FlexRay-Bus (registered trademark) oder dergleichen sein.
  • In dem in 1 dargestellten Beispiel umfasst das Fahrzeug 1 eine Steuereinheit 12 (ECU 1) für ein Bremssystem. Das Bremssystem bezieht sich dabei auf die Komponenten, die ein Bremsen des Fahrzeugs ermöglichen. Das Fahrzeug 1 umfasst ferner eine Steuereinheit 14 (ECU 2), die einen Antriebsstrang steuert. Der Antriebsstrang bezieht sich dabei auf die Antriebskomponenten des Fahrzeugs. Der Antriebsstrang kann einen Motor, ein Getriebe, eine Antriebs-/ Propellerwelle, ein Differential und einen Achsantrieb umfassen. Das Fahrzeug 1 umfasst ferner eine Steuereinheit 16 (ECU 3), die ein Lenksystem steuert. Das Lenksystem bezieht sich dabei auf die Komponenten, die eine Richtungssteuerung des Fahrzeugs ermöglichen.
  • Die Steuereinheiten 12, 14, 16 und 18 können ferner von den oben genannten Fahrzeugsubsystemen Fahrzeugbetriebsparameter empfangen, die diese mittels einem oder mehreren Fahrzeugsensoren erfassen. Fahrzeugsensoren sind vorzugsweise solche Sensoren, die einen Zustand des Fahrzeugs oder einen Zustand von Fahrzeugteilen erfassen, insbesondere deren Bewegungszustand. Die Sensoren können einen Fahrgeschwindigkeitssensor, einen Gierraten-Sensor, einen Beschleunigungssensor, einen Lenkradwinkelsensor, einen Fahrzeuglastsensor, Temperatursensoren, Drucksensoren und dergleichen umfassen. Beispielsweise können auch Sensoren entlang der Bremsleitung angeordnet sein, um Signale auszugeben, die den Bremsflüssigkeitsdruck an verschiedenen Stellen entlang der hydraulischen Bremsleitung anzeigen. Andere Sensoren in der Nähe des Rades können vorgesehen sein, welche die Radgeschwindigkeit und den Bremsdruck erfassen, der am Rad aufgebracht wird.
  • Die Fahrzeugsensorik des Fahrzeugs 1 umfasst darüber hinaus eine Satellitennavigationseinheit 24 (GNSS-Einheit). Es sei darauf hingewiesen, dass im Kontext der vorliegenden Erfindung GNSS stellvertretend für sämtliche Globale Navigationssatellitensysteme (GNSS) steht, wie z.B. GPS, AGPS, Galileo, GLONASS (Russland), Beidou (China), IRNSS (Indien) und dergleichen.
  • Das Fahrzeug 1 umfasst ferner ein oder mehrere Sensoren, welche dazu ausgelegt sind, das Umfeld des Fahrzeugs zu erfassen, wobei die Sensoren am Fahrzeug montiert sind und Bilder des Umfelds des Fahrzeugs erfassen, oder Objekte oder Zustände im Umfeld des Fahrzeugs erkennen. Die Umfeldsensoren 26 umfassen insbesondere Kameras, Radar-Sensoren, Lidar-Sensoren, Ultraschall-Sensoren, InfrarotSensoren oder dergleichen. Die Umfeldsensoren 26 können innerhalb des Fahrzeugs oder außerhalb des Fahrzeugs (z. B. an der Außenseite des Fahrzeugs) angeordnet sein. Beispielsweise kann eine Kamera in einem vorderen Bereich des Fahrzeugs 1 zur Aufnahme von Bildern eines vor dem Fahrzeug befindlichen Bereichs vorgesehen sein.
  • Das Fahrzeug 1 umfasst ferner eine Sensorverarbeitungseinheit 22 für die statische Umfeldwahrnehmung (ECU 4), die in der Lage ist auf Grundlage von Sensordaten, die von den Umweltsensoren 20 in Form einer Punktwolke bereitgestellt werden, eine Rasterkarte mit Belegungswahrscheinlichkeiten zu bestimmen (siehe dazu auch die 3a-c, und 4a,b und die entsprechende Beschreibung) und Algorithmen für die statische und dynamische Umfeldwahrnehmung auszuführen (siehe hierzu 6, 7a-c, 8 und entsprechende Beschreibung).
  • Das Fahrzeug 1 umfasst ferner eine Steuereinheit für autonomes Fahren 18 (ECU 5). Die Steuereinheit für autonomes Fahren 18 ist dazu ausgelegt, das Fahrzeug 1 so zu steuern, dass dieses ganz oder teilweise ohne Einfluss eines menschlichen Fahrers im Straßenverkehr agieren kann. Wenn steuerungsseitig oder fahrerseitig ein Betriebszustand für das autonome Fahren aktiviert ist, bestimmt die Steuereinheit für autonomes Fahren 18, auf Grundlage von zur Verfügung stehenden Daten über eine vorgegebene Fahrtstrecke, von den Umweltsensoren 20 aufgenommenen Umgebungsdaten bzw. den von der Sensorverarbeitungseinheit 22 bereitgestellten verarbeiteten Daten, sowie von mittels den Fahrzeugsensoren erfassten Fahrzeugbetriebsparametern, die der Steuereinheit 18 von den Steuereinheiten 12, 14 und 16 zugeleitet werden, Parameter für den autonomen Betrieb des Fahrzeugs (beispielsweise Soll-Geschwindigkeit, Soll-Moment, Abstand zum Vorausfahrzeug, Abstand zum Fahrbahnrand, Lenkvorgang und dergleichen).
  • Das Fahrzeug 1 umfasst ferner eine Benutzerschnittstelle 25 (HMI = Human-Machine-Interface), die einem Fahrzeuginsassen ermöglicht, mit einem oder mehreren Fahrzeugsystemen in Interaktion zu stehen. Diese Benutzerschnittstelle 32 (beispielsweise eine GUI = Graphical User Interface) kann eine elektronische Anzeige zum Ausgeben einer Graphik, von Symbolen und/oder Inhalt in Textform, und eine Eingabeschnittstelle zum Empfangen einer Eingabe (beispielsweise manuelle Eingabe, Spracheingabe und Eingabe durch Gesten, Kopf- oder Augenbewegungen) umfassen. Die Eingabeschnittstelle kann beispielsweise Tastaturen, Schalter, berührungsempfindliche Bildschirme (Touchscreen), Eye-Tracker und dergleichen umfassen.
  • 2 zeigt einen beispielhaften Umfeldsensor 26, hier insbesondere einen Radarsensor. Der Radarsensor 26 ist ein Erkennungs- und Ortungsgerät auf der Basis elektromagnetischer Wellen im Radiofrequenzbereich. Der Radarsensor sendet ein Signal als gebündelte elektromagnetische Welle aus (Primärsignal) und empfängt die von Objekten reflektierten Echos (Sekundärsignal). Über daraus erhaltene Informationen wie beispielsweise Laufzeitunterschiede werden Informationen über Detektionsereignisse („Zielpunkte“) P1(r1, (φ1, θ1, v1, I1), P2(r2, (φ2, θ2, v2, I2), P3 (r3, (φ3, θ3, v3, I3) ... , Pi(ri, φi, θi, vi, Ii) gewonnen, wie beispielsweise Azimutwinkel φi und Elevationswinkel θi, welche die Richtung zum Zielpunkt beschreiben, die Entfernung ri zum Zielpunkt, die Radialgeschwindigkeit vi und die Lateralgeschwindigkeit Ii, welche die Relativbewegung zwischen Radarsensor 26 und Zielpunkt Pi beschreiben. Die Relativbewegung kann beispielsweise durch den Doppler-Effekt aus der Verschiebung der Frequenz des reflektierten Signals berechnet werden. Durch Aneinanderreihen einzelner Messungen kann ggf. die Wegstrecke und die Absolutgeschwindigkeit eines Zielpunktes Pi ermittelt werden. Indem eine große Menge an Zielpunkten Pi (genannt „Punktwolke“) in ihrer Gesamtheit ausgewertet werden, können Zielpunkte Pi als zu einem eindeutigen Objekt zugehörig identifiziert werden (Clustering-Verfahren), Konturen von Objekten erkannt werden und bei ausreichender Auflösung des Radarsensors 26 Bilder der Objekte gewonnen werden.
  • Die 3a, b, c zeigen die Gewinnung einer zweidimensionalen Rasterkarte aus Detektionsereignissen eines Radarsensors. In 3a liegt ein Sichtbereich 31 eines Radarsensors vor dem Fahrzeug 1, auf dem der Radarsensor installiert ist. Im Sichtbereich 31 des Radarsensors befindet sich ein Objekt 32. Die am Objekt 32 reflektierten Radarwellen erzeugen im Radarsensor Detektionsereignisse, welche der Radarsensor in Form von Zielpunkten Pi ausgibt. Die Gesamtheit der auf diese Weise detektierten Detektionsereignisse liegen in Form einer Punktwolke vor, welche in einer Auswerteeinheit beim Sensor (oder auch extern) ausgewertet werden kann. 3b zeigt eine zweidimensionale Rasterkarte 33 (auch kurz „Grid“ genannt), welche so ausgelegt ist, dass sie den Sichtbereich 31 des Radarsensors kartesisch in Zellen gliedert. Durch die dem Fachmann bekannte Transformation der Ortskoordinaten aus dem Polarkoordinatensystem des Radarsensors in das kartesische Koordinatensystem der Rasterkarte 33 kann jeder Zielpunkt Pi eindeutig einer Zelle der Rasterkarte zugeordnet werden. In 3c sind jene Zellen, in denen jeweils mindestens ein Zielpunkt Pi enthalten ist, schraffiert dargestellt, wogegen jene Zellen, denen keine Zielpunkte Pi zugeordnet werden können, schraffiert dargestellt sind.
  • In eine derartige Rasterkarte werden sämtliche Sensordaten, hauptsächlich Punkwolken eingetragen. Mittels bekannter Techniken der Sensorfusion können in eine derartige Rasterkarte die Detektionsereignisse und daraus abgeleiteten Informationen mehrerer Umgebungssensoren eingeordnet werden. Dabei kann es sich auch um die Detektionsereignisse von Sensoren unterschiedlicher Sensortypen handeln, beispielsweise Radarsensoren, Lidarsensoren, Ultraschall oder dergleichen. Sind die Sensoren um das Fahrzeug verteilt, kann solch eine Rasterkarte die Umgebung rund um das Fahrzeug abbilden.
  • Durch Unterscheidung statischer und dynamischer Ziele kann die statische Umgebung des Fahrzeugs 1 erkannt werden. Auf diese Weise, und/oder durch Heranziehen von Informationen über die Eigenbewegung des Fahrzeugs 1 (auch „Ego-Bewegung“ genannt), wie beispielsweise der Fahrzeuggeschwindigkeit und der Fahrzeugposition (siehe GNSS 24 in 1) können die Informationen der Rasterkarte 33 aus den 3 a, b, c in eine akkumulierte Rasterkarte eingetragen werden. Das Fahrzeug 1 bewegt sich auf dieser akkumulierten Rasterkarte und die neue Position des Fahrzeugs 1 wird kontinuierlich neu berechnet. Die Sensordaten werden in jedem Messzyklus mit einer kompensierten Fahrzeugposition in die akkumulierte Rasterkarte eingetragen. Mit diesem Ansatz können Sensordaten über die Zeit akkumuliert und statistisch (im Bezug zu einem „globalen“ Koordinatensystem) erfasst und ausgewertet werden.
  • Die Daten der Sensordetektionen sind dabei nicht immer eindeutig, das heißt es kann unter Umständen unklar sein ob sich in einem Rasterfeld der Rasterkarte ein Objekt befindet oder nicht. Deshalb wird jedes Feld innerhalb der Rasterkarte mit einem Wahrscheinlichkeitswert belegt, der angibt mit welcher Wahrscheinlichkeit sich ein Objekt im jeweiligen Rasterfeld der Rasterkarte befindet. Ein solche Rasterkarte wird als Belegungskarte (auch „Occupancy Grid“ gennant) bezeichnet. Die Berechnung der Wahrscheinlichkeiten aus den Sensordaten wird durch ein sogenanntes Inverse Sensor Model (ISM) getätigt.
  • Die 4a, 4b zeigen die Funktionsweise eines Inversen Sensormodells (ISM) zur Berechnung der qualitativen Informationen in der Belegungskarte. Es ermöglicht auf Grundlage gegebener Sensormessungen die Schätzung von belegten und leeren Bereichen in der Belegungskarte. Die Sensorunsicherheit wird durch eine Wahrscheinlichkeitsdichtefunktion erfasst, die auch als Sensormodell (SM) bezeichnet wird.
  • 4a zeigt schematisch die statistische Messunsicherheit bei der Messung eines Punktes Pi durch einen Radarsensor/Lidarsensor welcher vor dem Fahrzeug 1 installiert ist. Der Punkt Pi wird in einer Entfernung R und unter einem Azimutwinkel φ unter einer durch den Sensor gegeben Messunsicherheit erfasst. Um den Punkt Pi herum liegt der Bereich 401, welcher einer Messunsicherheit σr (Standardabweichung) in radialer Richtung und einer Messunsicherheit σφ in azimutaler Richtung entspricht. Der Bereich 402 um den Punkt Pi entspricht der Abweichung 3σr bzw. 3σφ.
  • Die Aufenthaltswahrscheinlichkeit des Punktes Pi ist in den drei Diagrammen der 4b entlang dreier Achsen als jeweils eindimensionale Wahrscheinlichkeitsverteilung dargestellt, nämlich nach der Entfernung (auch „range“ genannt), nach einer Achse Aziumut_1, die in azimutaler Richtung deutlich vor dem Punkt Pi vorläuft, und einer Achse Azimut_2, die in azimutaler Richtung durch den Punkt Pi verläuft. Die Entfernungsachse gibt den Abstand des Punktes Pi vom Sensor in radialer Richtung an. Die Achse Azimut_1 verläuft in azimutaler Richtung und liegt in radialer Richtung etwa im Mittelfeld zwischen dem Radarsensor und dem Punkt Pi . Die Achse Azimut_2 verläuft ebenfalls in azimutaler Richtung und liegt in der Entfernung R vom Sensor in entfernt und geht somit azimutal durch den erwarteten Ort des detektieren Punktes Pi Es wird im inversen Sensormodell davon ausgegangen, dass zwischen dem Punkt Pi und dem Fahrzeug 1 keine anderen Objekte befindlich sind, da in diesem Winkel außer dem Punkt Pi keine andere Detektion gemessen wurde.
  • In 4b sind die Wahrscheinlichkeiten gemäß dem inversen Sensormodell, dass sich der detektierter Punkt Pi entlang der jeweiligen Achse befindet, dargestellt. Ein Das inverse Sensormodell gibt vor, wie die Wahrscheinlichkeit entlang der Range und der Azimuth/Elevationswinkel aussieht. Durch das inverse Sensormodell wird eine Aufenthaltswahrscheinlichkeitsverteilung für einen detektierten Punkt Pi entlang der jeweiligen Achse beschrieben. Der Graph 404 zeigt die Aufenthaltswahrscheinlichkeit des detektierten Punktes Pi entlang der Entfernungsachse der 4a. Innerhalb des 3s entspricht die Wahrscheinlichkeitsverteilung einer Gaußkurve und hat ihren maximalen Wert, annährend eins, genau bei der Reichweite R, der wahrscheinlichsten Entfernung der Detektion Pi . In der Mitte der Gauß-Verteilung wird die Belegungswahrscheinlichkeit hoch („belegt“). Außerhalb des 3σr -Bereichs ergibt sich ein linearer Anstieg der Aufenthaltswahrscheinlichkeit aus der Annahme, dass zwischen dem Punkt Pi und dem Fahrzeug 1 keine anderen Objekte befindlich sind, da in diesem Winkel außer dem Punkt Pi keine andere Detektion gemessen wurde. Der Graph 405 zeigt die Aufenthaltswahrscheinlichkeit des detektierten Punktes Pi entlang der azimutalen Achse Azimut_1 der 4a. Es ist dargestellt, dass die Aufenthaltswahrscheinlichkeit an den Rändern des Sichtbereichs den Wert 0.5 annimmt und beim erwarteten Azimutwinkel φ den Wert 0. Es ist dargestellt, dass die Aufenthaltswahrscheinlichkeit an den Rändern 0.5 ist, da alle Felder des Belegungsrasters mit 0.5 vorinitialisiert sind und an den Rändern des Sichtbereiches 31 kaum mehr eine verlässliche Detektion stattfindet und deshalb der vorinitialisierte Wert von 0.5 angenommen wird. Die azimutalen Achse Azimut_1 betrifft die Belegungswahrscheinlichkeit vor der Detektionsumgebung. Die Belegungswahrscheinlichkeit entlang der azimutalen Achse Azimut_1 vor der Detektionsumgebung folgt gemäß dem inversen Sensormodell einer „negativen“ Gauß-Verteilung. Die Belegungswahrscheinlichkeit in der Mitte der Gauß-Verteilung ist niedrig („frei“), da im inversen Sensormodell davon ausgegangen wird, dass vor der erfassten Detektion (Pi in 4a) keine weiteren Objekte liegen können, da solche die erfasste Detektion verhindern würden. Der Graph 406 zeigt die Aufenthaltswahrscheinlichkeit des detektierten Punktes Pi entlang der azimutalen Achse Azimut_2, die durch radialen Erwartungswert R des Punkts Pi läuft. Es ist dargestellt, dass die Aufenthaltswahrscheinlichkeit an den Rändern des Sichtbereichs den Wert 0.5 annimmt und beim Erwartungswert φ für den Azimutwinkel der Detektion Pi den maximalen Wert Pmax, da dort der detektierte Punkt Pi die höchste Aufenthaltswahrscheinlichkeit besitzt.
  • Mit Hilfe des inversen Sensormodells werden, wie oben in Bezug auf die 4a, b beschrieben, die Belegungswahrscheinlichkeiten in jeder Zelle des Belegungsrasters berechnet.
  • 5 zeigt ein beispielhaftes Belegungsraster 501 mit verschiedenen Belegungswahrscheinlichkeiten 502, 503, 504 und 505, die gemäß einem inversen Sensormodell erhalten wurden. Die Belegungswahrscheinlichkeit ändert sich in jeder Zelle basierend auf die Wahrscheinlichkeitswerten, die basierend auf dem Inverse Sensor Modell berechnet werden. Die Belegungswahrscheinlichkeit 0 hat die Bedeutung „frei“, die Belegungswahrscheinlichkeit 0.5 hat die Bedeutung „unsicher“ und die Belegungswahrscheinlichkeit 1 hat die Bedeutung „belegt“. Es ist der Sichtbereich 31 eines Sensors vor dem Fahrzeug 1, auf dem der Sensor installiert ist, gezeigt. Die Felder 505 sind mit einer Belegungswahrscheinlichkeit von 1 belegt, da dort ein Objekt detektiert wurde. Die Felder 504 sind mit einer Belegungswahrscheinlichkeit von 0 belegt und die Felder 503 mit einer Wahrscheinlichkeit zwischen 0 und 0.5, z.B. 0.3. Wie in den 4a, b beschrieben wurde, wird das Belegungsraster in jedem Feld mit der Wahrscheinlichkeit 0.5 vorinitialisiert, zum Beispiel im Feld SEP. Jedes Feld im Belegungsraster, für das keine Belegungswahrscheinlichkeit berechnet werden kann, weil es zum Beispiel außerhalb des Sichtbereich 31 des Sensors liegt, behält seinen vorinitialisierten Wert von 0.5 bei. Die Felder 504 im mittleren Teil des Sichtbereiches 31 des Sensors innerhalb welcher kein Objekt detektiert wurde bzw. für die aufgrund einer weiter entfernten Detektion auf eine Nichtbelegung rückgeschlossen werden kann, sind mit einer Wahrscheinlichkeit von 0 belegt. Die Felder 505 innerhalb welcher der Sensor ein Objekt detektiert hat, sind mit einer Wahrscheinlichkeit von 1 belegt. Die Felder 503 am Rand des Sichtbereiches 31 des Sensors sind hier beispielsweise mit einer Wahrscheinlichkeit von 0.3 belegt.
  • Die Belegungswahrscheinlichkeiten werden während der Fahrt akkumuliert, sodass eine akkumulierte Belegungskarte der Umgebung erstellt wird, wie oben unter Bezugnahme auf die 3a-c bereits beschrieben wurde. Die akkumulierte Belegungskarte wird dynamisch berechnet und neu erkannte Objekte resultieren darin, dass entsprechende Felder der Belegungskarte durch eine hohe Belegungswahrscheinlichkeit nahe 1 innerhalb der Karte als belegt markiert werden. Wenn beispielsweise ein detektiertes Objekt verschwindet, wird das Feld innerhalb der Belegungskarte wieder freigegeben. Die Güte der Karte kann mit Key-Performance-Indicators (auch „KPIs“ genannt) berechnet werden (zum Beispiel: wie lange dauert es, bis ein ursprünglich belegter Bereich freigegeben wird und wie lange dauert es, bis ein freier Bereich durch ein neues Objekt wieder belegt wird).
  • Auf Grundlage dieser Rasterkarten bzw. Belegungskarten werden verschiedene Algorithmen angewendet, um statische und dynamische Objekten zu erkennen.
  • 6 zeigt die Architektur einer Fusion von Daten statischer und dynamischer Umfeldwahrnehmung gemäß einem Ausführungsbeispiel der Erfindung, wie sie beispielsweise in einer Sensorverarbeitungseinheit (22 in 1) für die statische Umfeldwahrnehmung implementiert sein könnte. Die Architektur umfasst eine Dynamisches-Umfeld-Wahrnehmungseinheit DOP („Dynamic Object Processing“), eine Statisches-Umfeld-Wahrnehmungseinheit SEP („Static Object Processing“), sowie eine Plausibilisierungseinheit POS („Plausibilisation Object Processing“) zur Fusion der Sensordaten, die als funktionelle Software-Komponenten realisiert sein können. Gemäß diesem Ausführungsbeispiel sind die Statisches-Umfeld-Wahrnehmungseinheit SEP und die Dynamisches-Umfeld-Wahrnehmungseinheit DOP architektonisch getrennt und werden als separate Module oder Einheiten entwickelt. Bei einem großen System, wie einem „Perception System“ bestehend aus mehreren Sensoren und Sensortypen (wie beispielsweise den Umfeldsensoren 26 der 1), ist die Modularität ein sehr wichtiges Merkmal. Die einzelnen Module/Einheiten haben klare Input- und Output-Schnittstellen und die Kommunikation auf der gleichen Abstraktionsstufe wird vermieden.
  • Die Dynamisches-Umfeld-Wahrnehmungseinheit DOP hat zwei Eingangsschnittstellen, nämlich einen Eingang für Lidar-Daten und eine Eingangsschnittstelle für Radar-Daten, über welche jeweilige Punktewolken von den Sensoren empfangen werden.
  • Die Dynamisches-Umfeld-Wahrnehmungseinheit DOP detektiert auf Grundlage der Lidar-Daten und Radar-Daten bewegliche Objekte, dargestellt als Hüllkörper (auch „Bounding Boxes“ genannt). Diese beweglichen Objekte werden beispielsweise mit dem Fachmann bekannten Methoden wie „Association“ und „Tracking“ erkannt und verfolgt. Die erkannten dynamischen Objekte werden typischerweise als Hüllkörper (bounding boxes) beschrieben. Ferner weist die Dynamisches-Umfeld-Wahrnehmungseinheit DOP eine Ausgangsschnittstelle auf, welche die detektieren dynamischen Objekte an die Plausibilisierungseinheit POS übermittelt.
  • Die Statisches-Umfeld-Wahrnehmungseinheit SEP hat, wie die Dynamisches-Umfeld-Wahrnehmungseinheit DOP, zwei Eingangsschnittstellen, nämlich eine Eingangsschnittstelle für Lidar-Daten und eine Eingangsschnittstelle für Radar-Daten. Diese Daten liegen beispielsweise in Form einer akkumulierten Belegungskarte vor, wie in 4a-b und 5 und den entsprechenden Ausführungen beschrieben. Die Statisches-Umfeld-Wahrnehmungseinheit SEP detektiert basierend auf der akkumulierten Belegungskarte statische Objekte. Die Statisches-Umfeld-Wahrnehmungseinheit SEP gibt diese detektieren Objekte dargestellt als Hüllkörper („auch bounding boxes“ genannt) an der Ausgangsschnittstelle aus. Zusätzlich oder alternativ werden die Freiräume als Fencelists/Polylines/Vertexlists beschrieben und über die Ausgangsschnittstelle ausgegeben.
  • Die vorgegebene Trennung der Ebenen der Kommunikationsarchitektur sorgen dafür, dass die Statisches-Umfeld-Wahrnehmungseinheit SEP und der Dynamisches-Umfeld-Wahrnehmungseinheit DOP nicht alle Informationen haben, um ein Objekt (z.B. Fahrzeug 2 in den 7a-c unten) selbständig konsistent zu beschreiben. Für die konsistente Beschreibung eines sich abwechselnd dynamischen und stehenden Objektes ist die architektonisch getrennte Plausibilisierungseinheit POS notwendig.
  • Die Plausibilisierungseinheit POS ist dazu ausgelegt, die erkannten Objekte zu plausibilisieren. Die Plausibilisierungseinheit POS hat zwei Eingangsschnittstellen. Über einen ersten Eingang empfängt die Plausibilisierungseinheit POS die von der Dynamisches-Umfeld-Wahrnehmungseinheit DOP detektieren dynamischen Objekte. Über eine zweite Eingangsschnittstelle empfängt die Plausibilisierungseinheit POS die von der Statisches-Umfeld-Wahrnehmungseinheit SEP detektieren statischen Objekte oder die beschriebenen Freiräume als Fencelists/Polylines/Vertexlists. Über eine Ausgangsschnittstelle gibt die Plausibilisierungseinheit POS Aussagen über plausibilisierte Objekte aus.
  • Die Dynamisches-Umfeld-Wahrnehmungseinheit DOP, die Statisches-Umfeld-Wahrnehmungseinheit SEP und die Plausibilisierungseinheit POS sind beispielsweise aufgebaut wie in 9b dargestellt.
  • Durch die in 6 beschriebene Architektur bei der die Statisches-Umfeld-Wahrnehmungseinheit SEP und die Dynamisches-Umfeld-Wahrnehmungseinheit DOP architektonisch getrennt sind und als separate Module oder Einheiten vorgesehen sind, wird vermieden, dass beispielsweise die Dynamisches-Umfeld-Wahrnehmungseinheit DOP die Positionen von beweglichen Objekten ermittelt und diese Objekte mit Hilfe von Informationen der Statisches-Umfeld-Wahrnehmungseinheit SEP selbst plausibilisiert. Solche Kommunikationen würden auf einer Abstraktionsebene der Kommunikationsarchitektur oftmals in Problemen mit Objekten resultieren, die die Bewegungszustände ändern, beispielsweise wenn ein dynamisches Objekt anhält oder ein statisches Objekt losfährt. Im Rahmen dieser Erfindung wird die Sensorfusion bzw. Informationszusammenführung der Sensordaten, welche auf der gleichen Abstraktionsstufe erhoben wurden, in eine nachgelagerte Komponente, der Plausibilisierungseinheit POS, ausgelagert.
  • Damit werden die strengen Entwurfs-Richtlinien bezüglich der Kommunikationsarchitektur der Komponenten innerhalb der Steuerung eines Fahrzeuges 1 eingehalten und der Wechsel des Bewegungszustandes bleiben als vorteilhafte Information für die Umfeldwahrnehmung dem Gesamtsystem erhalten und konsistent. Des Weiteren können zum Beispiel Ausdehnungsinformationen, wie Objekt Höhe, Breite und Länge in einem beweglichen Zustand schlechter geschätzt werden als in einem statischen Zustand. Durch die Kommunikation der Dynamisches-Umfeld-Wahrnehmungseinheit DOP und der Statisches-Umfeld-Wahrnehmungseinheit SEP über die Plausibilisierungseinheit POS, können diese Informationen ausgetauscht und in bestmöglicher Form dem Gesamtsystem des Fahrzeugs zugänglich gemacht werden. Weitere Informationen welche von der Dynamisches-Umfeld-Wahrnehmungseinheit DOP und der Statisches-Umfeld-Wahrnehmungseinheit SEP über die Plausibilisierungseinheit POS ausgetauscht werden können sind die 3D Ausdehnung, die Objektklasse oder Metadaten, wie zum Beispiel Lifetime-Daten, Referenzpunkte, Bewegungsmodelle, Existenzwahrscheinlichkeiten, Detektionswahrscheinlichkeitsverteilungen oder die Objekt-ID.
  • Die 7a, b, c, zeigen das Zusammenspiel der funktionellen Statisches-Umfeld-Wahrnehmungseinheit SEP, der Dynamisches-Umfeld-Wahrnehmungseinheit DOP und der Plausibilisierungseinheit POS innerhalb der in 6 beschriebenen Kommunikationsarchitektur.
  • 7a zeigt eine erste Situation, in der sich ein vorausfahrendes Fahrzeug 2 im Sichtbereich 31 von Sensoren (Radar und Lidar) eines Fahrzeugs 1 befindet. Das Fahrzeug 1 weist eine Architektur zur Fusion von Daten statischer und dynamischer Umfeldwahrnehmung gemäß dem Ausführungsbeispiel der 6 auf, welche eine Plausibilisierungseinheit POS umfasst, die dazu ausgelegt ist, die von der Dynamisches-Umfeld-Wahrnehmungseinheit DOP detektieren dynamischen Objekte und die von der Statisches-Umfeld-Wahrnehmungseinheit SEP detektieren statischen Objekte (bzw. die beschriebenen Freiräume als Fencelists/Polylines/Vertexlists) zu plausibilisieren.
  • Die Dynamisches-Umfeld-Wahrnehmungseinheit DOP des Fahrzeug 1 erkennt Fahrzeug 2 und definiert es als ein Objekt mit der Identifikationsnummer IDDOP_1. Die Dynamisches-Umfeld-Wahrnehmungseinheit DOP erkennt Informationen wie beispielsweis die Ausdehnung und die Dimensionen des Objektes (oder auch andere Daten wie die 3D-Ausdehnung, die Objektklasse oder Metadaten) mit der Identifikationsnummer IDDOP_1 im bewegten Zustand und verknüpft diese Informationen mit der Identifikationsnummer IDDOP_1. Die Statisches-Umfeld-Wahrnehmungseinheit SEP erkennt das sich bewegende Objekt nicht. Die Dynamisches-Umfeld-Wahrnehmungseinheit DOP meldet ein sich bewegendes Objekt (als Hüllkörper) mit der Identifikationsnummer IDDOP_1 an die Plausibilisierungseinheit POS.
  • 7b zeigt eine zweite Situation, in der Fahrzeug 2 und Fahrzeug 1 an einer roten Ampel 701 anhalten. Die Dynamisches-Umfeld-Wahrnehmungseinheit DOP des Fahrzeugs 1 erkennt das nun stehende Objekt mit der Identifikationsnummer IDDOP_1 nicht mehr (zuverlässig) und sie kann damit kann die Plausibilität des Objektes nicht mehr sicherstellen. Die Dynamisches-Umfeld-Wahrnehmungseinheit DOP informiert die Plausibilisierungseinheit darüber, dass sie das Objekt mit der Identifikationsnummer IDDOP-1 verloren hat.
  • Das nun stehende Objekt wird von der Statisches-Umfeld-Wahrnehmungseinheit SEP innerhalb des Belegungsrasters, welches als Eingang in die Statisches-Umfeld-Wahrnehmungseinheit SEP eingeht, erkannt. Die Statisches-Umfeld-Wahrnehmungseinheit SEP beschreibt das erkennte statische Objekt im seiner Dimension und Ausdehnung (oder auch andere Daten wie die 3D-Ausdehnung, die Objektklasse oder Metadaten) und belegt dieses Objekt mit der Identifikationsnummer IDSEP_1. Die Information, dass ein neues statisches Objekt mit der Identifikationsnummer IDSEP_1 von der Statisches-Umfeld-Wahrnehmungseinheit SEP im Belegungsraster detektiert wurde, wird an die Plausibilisierungseinheit übermittelt.
  • Die Plausibilisierungseinheit erkennt eine räumliche, zeitliche und ggf. bezüglich der Ausdehnungsinformationen (oder bezüglich anderer Daten wie die 3D-Ausdehnung, der Objektklasse oder Metadaten) des Objektes Korrelation zwischen dem Verschwinden des Objektes mit der Identifikationsnummer IDDOP_1 der Dynamisches-Umfeld-Wahrnehmungseinheit DOP und dem Auftauchen des Objektes mit der Identifikationsnummer IDSEP_1 der Statisches-Umfeld-Wahrnehmungseinheit SEP. Dadurch kann die Plausibilisierungseinheit POS mit hoher Wahrscheinlichkeit zu dem Ergebnis kommen, dass das Objekt mit der Identifikationsnummer IDDOP_1 der Dynamisches-Umfeld-Wahrnehmungseinheit DOP dasselbe Objekt ist, wie das Objekt mit der Identifikationsnummer IDSEP_1 der Statisches-Umfeld-Wahrnehmungseinheit SEP (IDSEP_1 ≙ IDDOP_1) und kann somit eine plausibilisierte Aussage treffen.
  • 7c zeigt eine dritte Situation, in der die Fahrzeuge 1 und 2 bei grüner Ampel 701 wieder losfahren. Die Dynamisches-Umfeld-Wahrnehmungseinheit DOP erkennt ein neues dynamisches Objekt und definiert es als ein Objekt mit der Identifikationsnummer IDDOP-2. Die Belegungswahrscheinlichkeit in den entsprechenden Feldern des Belegungsrasters wird dadurch, dass Fahrzeug 2 wieder losgefahren ist abgesenkt und alsdann werden die entsprechenden Felder im Belegungsraster als frei markiert. Die Statisches-Umfeld-Wahrnehmungseinheit SEP liest diese Information über das sich geänderte Belegungsraster aus dem Belegungsraster aus und verliert dadurch das statische Objekte IDSEP-1ü. Diese Information übermittelt die Statisches-Umfeld-Wahrnehmungseinheit SEP an die Plausibilisierungseinheit POS. Die Plausibilisierungseinheit POS bekommt die Information übermittelt, dass die Dynamisches-Umfeld-Wahrnehmungseinheit DOP ein neues sich bewegendes Objekt mit der Identifikationsnummer IDDOP_2 erkannt hat. Aufgrund dieser Plausibilisierung können Informationen der über
  • Die Plausibilisierungseinheit erkennt eine räumliche, zeitliche und bezüglich und ggf. bezüglich der Ausdehnungsinformationen der Objekte berechnete Korrelation zwischen dem Verschwinden des Objektes mit der Identifikationsnummer IDSEP_1 der Statisches-Umfeld-Wahrnehmungseinheit SEP und dem Auftauchen des Objektes mit der Identifikationsnummer IDDOP_2 der Dynamisches-Umfeld-Wahrnehmungseinheit DOP. Dadurch kommt die Plausibilisierungseinheit POS zu dem Ergebnis, dass mit hoher Wahrscheinlichkeit das Objekt mit der Identifikationsnummer IDDOP_2 der Dynamisches-Umfeld-Wahrnehmungseinheit DOP dasselbe Objekt ist, wie das Objekt mit der Identifikationsnummer IDSEP_1 der Statisches-Umfeld-Wahrnehmungseinheit SEP (IDDOP_2 ≙ IDSEP_1) und kann somit eine plausibilisierte Aussage treffen.
  • Aus der Information, dass das Objekt mit der Identifikationsnummer IDDOP_1 der Dynamisches-Umfeld-Wahrnehmungseinheit DOP dasselbe Objekt ist, wie das Objekt mit der Identifikationsnummer IDSEP_1 der Statisches-Umfeld-Wahrnehmungseinheit SEP (IDSEP_1 ≙ IDDOP_1) und der Information, dass das Objekt mit der Identifikationsnummer IDDOP_2 der Dynamisches-Umfeld-Wahrnehmungseinheit DOP dasselbe Objekt ist, wie das Objekt mit der Identifikationsnummer IDSEP_1 der Statisches-Umfeld-Wahrnehmungseinheit SEP (IDDOP_2 ≙ IDSEP_1), erkennt die Plausibilisierungseinheit POS ferner, dass das Objekt mit der Identifikationsnummer IDDOP_2 der Dynamisches-Umfeld-Wahrnehmungseinheit DOP dasselbe Objekt ist, was das Objekt mit der Identifikationsnummer IDDOP_1 der Dynamisches-Umfeld-Wahrnehmungseinheit DOP (IDDOP_2 ≙ IDDOP_1). Folglich kann mittels Informationen der statischen Umfeldwahrnehmung plausibilisiert werden, dass es sich bei einem in der dynamischen Umfelderkennung aufgetauchten Objekt um ein und dasselbe Objekt handelt, dass zuvor von der dynamischen Umfelderkennung verloren wurde.
  • Die Plausibilisierungseinheit POS gibt diese Information über die Übereinstimmung der Objekte zur Weiterverarbeitung in anderen Fahrzeug-Steuereinheiten wie beispielsweise der Steuereinheit für autonomes Fahren (18 in 1) aus. Des Weiteren können die bis dato erkannten Attribute und Informationen der Objekte übernommen werden.
  • 8 zeigt ein Flussdiagramm eines Prozesses zur Fusion von Daten statischer und dynamischer Umfeldwahrnehmung, wie dieser unter Bezugnahme auf die 7a-c beschrieben wurde. In Schritt 801 werden Informationen über ein dynamisches Objekt (vorausfahrendes Fahrzeug) mit Identifikationsnummer IDDOP_1 empfangen. In Schritt 802 werden Informationen über den Verlust des dynamischen Objekts mit Identifikationsnummer IDDOP_1 empfangen. In Schritt 803 werden Informationen über das Auftauchen eines statischen Objekts mit Identifikationsnummer IDSEP_1 empfangen. In Schritt 804 wird abgefragt, ob eine Korrelation zwischen dem Verschwinden des dynamischen Objektes mit der Identifikationsnummer. IDDOP_1 und dem Auftauchen des statischen Objektes mit der Identifikationsnummer. IDSEP_1 besteht. Falls ja wird mit Schritt 805 fortgefahren. In Schritt 805 wird das Objekt mit der Identifikationsnummer IDDOP_1 als dasselbe Objekt, wie das Objekt mit der Identifikationsnummer IDSEP_1 (IDSEP_1 ≙ IDDOP_1) erkannt. In Schritt 806 werden Informationen über den Verlust des statischen Objektes mit der Identifikationsnummer IDSEP_1 empfangen. In Schritt 807 werden Informationen über das Auftauchen des dynamischen Objekts mit Identifikationsnummer IDDOP_2 empfangen. In Schritt 808 wird abgefragt, ob eine Korrelation zwischen dem Verschwinden des statischen Objektes mit der Identifikationsnummer. IDSEP_1 und dem Auftauchen des dynamischen Objektes mit der Identifikationsnummer. IDDOP_2 besteht. Falls ja wird mit Schritt 809 fortgefahren. In Schritt 809 wird das dynamische Objekt mit der Identifikationsnummer IDDOP_2 als dasselbe Objekt, wie das statische Objekt mit der Identifikationsnummer IDSEP_1 (IDSEP_1 ≙ IDDOP_2) erkannt und damit das dynamische Objekt mit der Identifikationsnummer IDDOP_2 als dasselbe Objekt, wie das dynamische Objekt mit der Identifikationsnummer IDDOP_1 (IDDOP_2 ≙ IDDOP_1).
  • 9a zeigt ein Blockdiagramm, das eine beispielhafte Konfiguration einer Steuereinheit für autonomes Fahren 18 (ECU 5) darstellt. Bei der Steuereinheit für autonomes Fahren 18 kann es sich beispielsweise um ein Steuergerät (electronic control unit ECU oder Electronic Control Module ECM) handeln. Die Steuereinheit für autonomes Fahren 18 umfasst einen Prozessor 41. Bei dem Prozessor 41 kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Verarbeitungseinheit (CPU = Central Processing Unit) handeln, die Programminstruktionen ausführt. Der Prozessor der Steuereinheit für autonomes Fahren 18 ist beispielsweise dazu ausgelegt, beim Fahren je nach geplantem Fahrmanöver, basierend auf den Informationen des sensorbasierten Umfeldmodells, eine optimale Fahrposition (beispielsweise Folgeabstand oder Lateralversatz zu einem Vorausfahrzeug oder dergleichen) unter Berücksichtigung des zulässigen Fahrspurbereichs zu berechnen. Die errechnete optimale Fahrposition wird zur Steuerung von Aktuatoren der Fahrzeugsubsysteme 12, 14 und 16, beispielsweise von Brems-, Antriebs- und/oder Lenkaktuatoren, verwendet. Die Steuereinheit für autonomes Fahren 18 umfasst ferner einen Speicher und eine Eingabe/ Ausgabe-Schnittstelle. Der Speicher kann aus einem oder mehreren nichtflüchtigen computerlesbaren Medien bestehen und umfasst mindestens einen Programmspeicherbereich und einen Datenspeicherbereich. Der Programmspeicherbereich und der Datenspeicherbereich können Kombinationen von verschiedenen Arten von Speicher umfassen, beispielsweise von einem Nur-Lese-Speicher 43 (ROM = Read-Only Memory) und einem Direktzugriffsspeicher 42 (RAM = Random Access Memory) (z. B. dynamischer RAM („DRAM“), synchron DRAM („SDRAM“) usw.). Ferner kann die Steuereinheit für autonomes Fahren 18 ein externes Speicherlaufwerk 44, wie beispielsweise ein externes Festplattenlaufwerk (hard disk drive: HDD), ein Flashspeicher-Laufwerk oder ein nicht flüchtiges Festkörperlaufwerk (solid state drive: SSD) umfassen. Die Steuereinheit für autonomes Fahren 18 umfasst ferner eine Kommunikationsschnittstelle 45, über welche die Steuereinheit mit dem Fahrzeugkommunikationsnetzwerk (28 in 2) kommunizieren kann.
  • 9b zeigt schematisch ein Ausführungsbeispiel für eine erfindungsgemäße Sensorverarbeitungseinheit 22, durch welche die Dynamisches-Umfeld-Wahrnehmungseinheit DUP, die Statisches-Umfeld-Wahrnehmungseinheit SEP, und die Plausibilisierungseinheit POS aus 6 implementiert werden kann. Alle Bestandteile der Sensorverarbeitungseinheit 22 sind über ein internes Kommunikationsnetzwerk 46 verbunden. Die Sensorverarbeitungseinheit 22 umfasst einen Prozessor 41. Bei dem Prozessor 41 kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Verarbeitungseinheit (CPU = Central Processing Unit) handeln, die Programminstruktionen ausführt, um die Funktionalität der Dynamisches-Umfeld-Wahrnehmungseinheit DUP, der Statisches-Umfeld-Wahrnehmungseinheit SEP und der Plausibilisierungseinheit POS zu realisieren. Die Sensorverarbeitungseinheit 22 umfasst ferner einen Speicher und eine Eingabe/ Ausgabe-Schnittstelle. Der Speicher kann aus einem oder mehreren nichtflüchtigen computerlesbaren Medien bestehen und umfasst mindestens einen Programmspeicherbereich und einen Datenspeicherbereich. Der Programmspeicherbereich und der Datenspeicherbereich können Kombinationen von verschiedenen Arten von Speicher umfassen, beispielsweise von einem Nur-Lese-Speicher 43 (ROM = Read-Only Memory) und einem Direktzugriffsspeicher 42 (RAM = Random Access Memory) (z. B. dynamischer RAM („DRAM“), synchron DRAM („SDRAM“) usw.). Ferner kann die Sensorverarbeitungseinheit 22 ein externes Speicherlaufwerk 44, wie beispielsweise ein externes Festplattenlaufwerk (hard disk drive: HDD), ein Flashspeicher-Laufwerk oder ein nicht flüchtiges Festkörperlaufwerk (solid state drive: SSD) umfassen. Die Sensorverarbeitungseinheit 22 umfasst ferner eine Kommunikationsschnittstelle 45, über welche die Steuereinheit mit dem Fahrzeugkommunikationsnetzwerk (28 in 1) kommunizieren kann. Die Sensorverarbeitungseinheit 22 umfasst gegebenenfalls auch einen oder mehrere anwendungsspezifischen integrierten Schaltkreise 47 (z.B. ASIC oder auch FPGA) welche für die schnelle Realisierung spezieller Funktionalitäten herangezogen werden kann, wie das Verarbeiten von Punktewolken durch beispielsweise Clustering-Prozesse, das Erzeugen von akkumulierten Rasterkarten, oder dergleichen. Bei dem integrierten Schaltkreis 47 kann es sich beispielsweise um eine GPU oder ein GPU Cluster handeln.
  • In den Ausführungsformen einer Architektur bzw. eines Prozesses zur Fusion von Daten einer statischen und einer dynamischen Umfeldwahrnehmung wurden beispielhaft Radar-Daten und Lidar-Daten verarbeitet. In alternativen Ausführungsformen, Weiterbildungen oder Kombinationsmöglichkeiten können alternativ oder zusätzlich auch Kameradaten (z.B. RGB), Daten von Ultraschallsensoren oder dergleichen herangezogen werden.
  • Ferner wurde in den Ausführungsformen die statische Umfeldwahrnehmung auf Grundlage einer 2D-Belegungskarte mit Radialinformationen und Azimutal-Informationen vorgenommen. Die Erfindung kann gleichermaßen aber auch auf anderen Kartentypen basieren, beispielsweise 3D-Rasterkarten, in denen zusätzlich noch eine Elevationsinformation erfasst wird. Auch kann die Erfindung statt mit Belegungskarten auch mit Evidenzkarten realisiert werden.
  • Für jeden Sensortyp können ein oder mehrere Sensoreinheiten im Sensorsystem vorgesehen werden (Multisensor und Single-Sensor-Systeme). Die Daten welche innerhalb eines Multisensorsystems erhoben werden können innerhalb einer akkumulierte Rasterkarte (siehe auch 3a-c) verarbeitet werden, welche dann wiederum der Statisches-Umfeld-Wahrnehmungseinheit SEP zugeführt werden kann.
  • Ferner wurden in den Ausführungsformen Sensoren (z.B. Lidar und Radar) mit Standard Auflösung beschrieben. Die Erfindung kann gleichermaßen mit High Definition Karten (HD-Maps) realisiert werden.
  • Bezugszeichenliste
  • 1
    Kraftfahrzeug
    2
    Kraftfahrzeug
    12
    ECU 1 Bremssystem
    14
    ECU 2 Antriebsstrang
    16
    ECU 3 Lenksystem
    18
    ECU 4 Sensorverarbeitung
    22
    ECU 5 autonomes Fahren
    24
    GNSS
    25
    HMI
    26
    Sensor
    Pi
    Zielpunkt/ Detektion
    27
    Sensor
    31
    den Sichtbereich des Radarsensors
    32
    Objekt
    33
    Rasterkarte
    34
    als belegt markiertes Feld in der Rasterkarte
    35
    als nicht belegt markiertes Feld in der Rasterkarte
    40
    Steuereinheit, ECU 4 Sensorverarbeitung
    41
    CPU
    42
    RAM
    43
    ROM
    45
    CAN-IF
    44
    Speichereinheit
    47
    Integrierter Schaltkreis
    401
    Bereich um Punkt Pi herum welcher eine Messunsicherheit mit einer Standardabweichung in radialer Richtung und in azimutaler Richtung angibt
    402
    Bereich um Punkt Pi herum welcher eine Messunsicherheit drei Standardabweichungen in radialer Richtung und in azimutaler Richtung angibt
    Entfernung
    Achse welche den Abstand des Punktes Pi vom Sensor in radialer Richtung angibt
    Azimut_1
    Achse welche in azimutaler Richtung verläuft und in radialer Richtung etwa im Mittelfeld zwischen dem Radarsensor und dem Punkt Pi liegt
    Azimut_2
    Achse welche azimutaler Richtung durch den Punkt Pi verläuft
    φ
    Auslenkungswinkel des Punktes Pi in azimutaler Richtung
    404
    Graph der Aufenthaltswahrscheinlichkeit entlang der Entfernungsachse
    405
    Graph der Aufenthaltswahrscheinlichkeit entlang der Azimut_1 Achse
    406
    Graph der Aufenthaltswahrscheinlichkeit entlang der Azimut_2 Achse
    501
    Belegungsraster mit verschiedenen Belegungswahrscheinlichkeiten
    502
    Belegungsrasterelemente mit der Belegungswahrscheinlichkeit 0.5
    503
    Belegungsrasterelemente mit der Belegungswahrscheinlichkeit zwischen 0 und 0.5
    504
    Belegungsrasterelemente mit der Belegungswahrscheinlichkeit nahe 0
    505
    Belegungsrasterelemente mit der Belegungswahrscheinlichkeit nahe 1
    DOP
    Dynamisches-Umfeld-Wahrnehmungseinheit (Dynamic Object Processing)
    SEP
    Statisches-Umfeld-Wahrnehmungseinheit (Static Object Processing)
    POS
    Plausibilisierungseinheit (Plausibilisation Object Processing)
    701
    Ampel

Claims (13)

  1. Vorrichtung, umfassend Plausibilisierungseinheit (POS), die dazu ausgelegt ist, eine Plausibilisierung eines dynamischen Objektes (IDDOP_2) durchzuführen, das durch eine Dynamisches-Umfeld-Wahrnehmungseinheit (DOP) erkannt wurde, mittels Informationen über ein statisches Objekt (IDSEP_1), das durch eine Statisches-Umfeld-Wahrnehmungseinheit (SEP) erkannt wurde, und/oder eine Plausibilisierung eines statischen Objektes (IDSEP_1) durchzuführen, das durch eine Statisches-Umfeld-Wahrnehmungseinheit (SEP) erkannt wurde, mittels Informationen über ein dynamisches Objekt (IDDEP_1), das durch eine Dynamisches-Umfeld-Wahrnehmungseinheit (DOP) erkannt wurde.
  2. Vorrichtung nach Anspruch 1, wobei die Statisches-Umfeld-Wahrnehmungseinheit (SEP) dazu ausgelegt ist, das statische Objekt (IDSEP_1) mit Hilfe einer Rasterkarte zu erkennen.
  3. Vorrichtung nach Anspruch 2, wobei die Rasterkarte gemäß einem inversen Sensormodell belegt ist.
  4. Vorrichtung nach einem der vorangehenden Ansprüche, wobei die Plausibilisierungseinheit (POS) dazu ausgelegt ist, die Plausibilisierung durchzuführen, indem eine Korrelation zwischen dem Verschwinden des dynamischen Objektes (IDDOP_1) und dem Auftauchen des statischen Objektes (IDSEP_1) erkannt wird, und/oder eine Korrelation zwischen dem Verschwinden des statischen Objektes (IDSEP_1) und dem Auftauchen des dynamischen Objektes (IDDOP_2) erkannt wird.
  5. Vorrichtung nach einem der vorangehenden Ansprüche, wobei die Plausibilisierungseinheit (POS) dazu ausgelegt ist, eine zeitliche Korrelation und/oder eine örtliche Korrelation zwischen dem Verschwinden des dynamischen Objektes (IDDOP_1) und dem Auftauchen des statischen Objektes (IDSEP_1) zu erkennen.
  6. Vorrichtung nach einem der vorangehenden Ansprüche, wobei die Plausibilisierungseinheit (POS) dazu ausgelegt ist, eine Korrelation bezüglich der Ausdehnung des verschwundenen dynamischen Objektes (IDDOP_1) und dem aufgetauchten statischen Objekt (IDSEP_1), oder eine Korrelation bezüglich der Objektklasse, zu erkennen.
  7. Vorrichtung nach einem der vorangehenden Ansprüche, wobei die Plausibilisierungseinheit (POS), die Dynamisches-Umfeld-Wahrnehmungseinheit (DOP) und die Statisches-Umfeld-Wahrnehmungseinheit (SEP) architektonisch getrennte Einheiten sind.
  8. Vorrichtung nach einem der vorangehenden Ansprüche, wobei die Plausibilisierungseinheit (POS), die Dynamisches-Umfeld-Wahrnehmungseinheit (DOP) und die Statisches-Umfeld-Wahrnehmungseinheit (SEP) als separate Module ausgebildet sind.
  9. Vorrichtung nach einem der vorangehenden Ansprüche, wobei die Dynamisches-Umfeld-Wahrnehmungseinheit (DOP) und die Statisches-Umfeld-Wahrnehmungseinheit (SEP) so ausgelegt sind, dass sie nicht direkt miteinander kommunizieren.
  10. Vorrichtung nach einem der vorangehenden Ansprüche, wobei die Statisches-Umfeld-Wahrnehmungseinheit (SEP) eine Schnittstelle aufweist, die dazu ausgelegt ist, Informationen über das statische Objektes (IDSEP_1) auszugeben, und die Plausibilisierungseinheit (POS) eine Schnittstelle aufweist, die dazu ausgelegt ist, Informationen über das statische Objekt (IDSEP_1) zu empfangen.
  11. Vorrichtung nach einem der vorangehenden Ansprüche, wobei die Dynamisches-Umfeld-Wahrnehmungseinheit (DOP) eine Schnittstelle aufweist, die dazu ausgelegt ist, Informationen über das dynamische Objekt (IDDOP_1,, IDDOP_2) auszugeben, und die Plausibilisierungseinheit (POS) eine Schnittstelle aufweist, die dazu ausgelegt ist, Informationen über das dynamische Objekt (IDDoP _1" IDDOP_2) zu empfangen.
  12. Vorrichtung nach Anspruch 10 oder 11, wobei es sich bei den Informationen um einen Hüllkörper handelt, der das statische Objekt (IDSEP_1) bzw. das dynamische Objekt (IDDOP_1,, IDDOP_2) beschreibt.
  13. Verfahren, umfassend Durchführen einer Plausibilisierung eines dynamischen Objektes (IDDOP_2), das durch eine Dynamisches-Umfeld-Wahrnehmungseinheit (DOP) erkannt wurde, mittels Informationen über ein statisches Objekt (IDSEP_1), das durch eine Statisches-Umfeld-Wahrnehmungseinheit (SEP) erkannt wurde, und/oder Durchführen einer Plausibilisierung eines statischen Objektes (IDSEP_1), das durch eine Statisches-Umfeld-Wahrnehmungseinheit (SEP) erkannt wurde, mittels Informationen über ein dynamisches Objekt (IDDEP_1), das durch eine Dynamisches-Umfeld-Wahrnehmungseinheit (DOP) erkannt wurde.
DE102019213929.9A 2019-09-12 2019-09-12 Plausibilitätsprüfung angehaltener vormals dynamischer Objekte mit Hilfe von Belegungsrastern Pending DE102019213929A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019213929.9A DE102019213929A1 (de) 2019-09-12 2019-09-12 Plausibilitätsprüfung angehaltener vormals dynamischer Objekte mit Hilfe von Belegungsrastern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019213929.9A DE102019213929A1 (de) 2019-09-12 2019-09-12 Plausibilitätsprüfung angehaltener vormals dynamischer Objekte mit Hilfe von Belegungsrastern

Publications (1)

Publication Number Publication Date
DE102019213929A1 true DE102019213929A1 (de) 2021-03-18

Family

ID=74686934

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019213929.9A Pending DE102019213929A1 (de) 2019-09-12 2019-09-12 Plausibilitätsprüfung angehaltener vormals dynamischer Objekte mit Hilfe von Belegungsrastern

Country Status (1)

Country Link
DE (1) DE102019213929A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022103324A1 (de) 2021-03-25 2022-09-29 Ivex System und Verfahren zur Erkennung von Inkonsistenzen in Wahrnehmungssystemen von automatisierten Fahrzeugen.
DE102021214763A1 (de) 2021-12-21 2023-06-22 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Steuervorrichtung zum Steuern eines automatisierten Fahrzeugs

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016203723A1 (de) * 2016-03-08 2017-09-14 Robert Bosch Gmbh Verfahren und System zum Bestimmen der Pose eines Fahrzeugs
DE102017206436A1 (de) * 2017-04-13 2018-10-18 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Erkennung und/oder Verfolgung von Objekten
DE102018200683A1 (de) * 2018-01-17 2019-07-18 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Detektion eines Objektes
DE102019110927A1 (de) * 2018-05-10 2019-11-14 GM Global Technology Operations LLC Verallgemeinertes inverses 3D-Sensormodell
DE102018215288A1 (de) * 2018-09-07 2020-03-12 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Verarbeitungseinheit zur Verfolgung eines Objektes

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016203723A1 (de) * 2016-03-08 2017-09-14 Robert Bosch Gmbh Verfahren und System zum Bestimmen der Pose eines Fahrzeugs
DE102017206436A1 (de) * 2017-04-13 2018-10-18 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Erkennung und/oder Verfolgung von Objekten
DE102018200683A1 (de) * 2018-01-17 2019-07-18 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Detektion eines Objektes
DE102019110927A1 (de) * 2018-05-10 2019-11-14 GM Global Technology Operations LLC Verallgemeinertes inverses 3D-Sensormodell
DE102018215288A1 (de) * 2018-09-07 2020-03-12 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Verarbeitungseinheit zur Verfolgung eines Objektes

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022103324A1 (de) 2021-03-25 2022-09-29 Ivex System und Verfahren zur Erkennung von Inkonsistenzen in Wahrnehmungssystemen von automatisierten Fahrzeugen.
DE102021214763A1 (de) 2021-12-21 2023-06-22 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Steuervorrichtung zum Steuern eines automatisierten Fahrzeugs

Similar Documents

Publication Publication Date Title
DE102018120845B4 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
DE102017201717B4 (de) Verfahren zur Verwendung eines Rückblicksystem für ein Trägerfahrzeug sowie Rückblicksystem zur Ausführung des Verfahrens
DE112016003585B4 (de) Fahrzeugsteuervorrichtung, Fahrzeugsteuerverfahren und Fahrzeugsteuerprogramm
DE102013113619B4 (de) Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem
DE102017217961A1 (de) Einrichtung zum steuern eines fahrzeugs an einer kreuzung
DE102016109592A1 (de) Kollisionsabschwächung und -vermeidung
DE102017114495A1 (de) Autonomes fahrsystem
DE102017202719A1 (de) Fahrzeugsteuerungsvorrichtung und Fahrzeugsteuerungsverfahren
DE102015209373B4 (de) Fahrunterstützungsgerät
DE102015202367A1 (de) Autonome steuerung in einer dichten fahrzeugumgebung
DE102012223406A1 (de) Vorrichtung und Verfahren zum Erfassen eines sich bewegenden Objekts um ein Fahrzeug
DE102019214628A1 (de) Validierung von Umfelderfassung mittels Satelitenbildern und SAR-Radardaten
DE102015203343A1 (de) Steuerung des halbautonomen modus
DE102020101140A1 (de) Verfahren und system zum bestimmen einer aktion eines autonomen fahrzeugs (av) basierend auf fahrzeug- und edge-sensordaten
DE102011103795A1 (de) Verfahren und System zur Kollisionsbewertung für Fahrzeuge
DE102017221616A1 (de) System und Verfahren für einen Einfädelassistenten unter Anwendung von Fahrzeugkommunikation
DE112016007501T5 (de) Regel-/steuervorrichtung und regel-/steuerverfahren
DE102018115198A1 (de) Crowdsourcing-basierte virtuelle Sensorgenerierungs- und virtuelle Sansoranwendungs-Streuerung
DE102017124868A1 (de) Verbesserte Objekterfassung in mehreren Radaren
DE102019205008B3 (de) System zur Rückwärtigen Kollisionsvermeidung
DE102017206433A1 (de) Automatikfahrtsteuerungssystem eines mobilen Objektes
EP3653460A1 (de) Verfahren und steuereinheit zum betreiben eines autonomen fahrzeugs
DE102017129501A1 (de) Autonome Kraftfahrzeug-Objekterkennung
EP3024709B1 (de) Effizientes bereitstellen von belegungsinformationen für das umfeld eines fahrzeugs
DE102019117769A1 (de) Fahrsteuersystem für ein Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication