DE102020200876A1 - Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs - Google Patents

Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs Download PDF

Info

Publication number
DE102020200876A1
DE102020200876A1 DE102020200876.0A DE102020200876A DE102020200876A1 DE 102020200876 A1 DE102020200876 A1 DE 102020200876A1 DE 102020200876 A DE102020200876 A DE 102020200876A DE 102020200876 A1 DE102020200876 A1 DE 102020200876A1
Authority
DE
Germany
Prior art keywords
vehicle
processing
objects
relevance
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102020200876.0A
Other languages
English (en)
Other versions
DE102020200876B4 (de
Inventor
Axel Mühring
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102020200876.0A priority Critical patent/DE102020200876B4/de
Publication of DE102020200876A1 publication Critical patent/DE102020200876A1/de
Application granted granted Critical
Publication of DE102020200876B4 publication Critical patent/DE102020200876B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00272Planning or execution of driving tasks using trajectory prediction for other traffic participants relying on extrapolation of current movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/25Data precision

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (400) zum Verarbeiten von Sensordaten (118, 120) einer Sensorik (110) eines Fahrzeugs (102). Das Verfahren (400) umfasst die folgenden Schritte: Empfangen (410) von Sensordaten (118, 120); Erkennen (420) von Objekten (104, 106, 108; 302, 304) in der Umgebung des Fahrzeugs (102); Einfügen (430) der erkannten Objekte (104, 106, 108; 302, 304) in ein die Umgebung des Fahrzeugs (102) repräsentierendes Umgebungsmodell; Einteilen (440) der erkannten Objekte (104, 106, 108; 302, 304) in Relevanzkategorien; Unterteilen (450) eines Erfassungsbereichs (300) mindestens einer Sensoreinheit (112, 114) in Verarbeitungsbereiche (306, 308, 310, 312); Zuordnen (460) eines Verarbeitungsschemas zu jedem Verarbeitungsbereich (306, 308, 310, 312) basierend auf der Relevanzkategorie.

Description

  • Die Erfindung betrifft ein Verfahren, ein Computerprogramm und ein computerlesbares Medium zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs. Des Weiteren betrifft die Erfindung ein Fahrzeugsystem.
  • Aktuelle ADAS-Algorithmen für automatisiertes Fahren (ADAS = Advanced Driver Assistance Systems) basieren zumeist auf einem vorwärtsgetriebenen Datenfluss, bei dem Daten überwiegend von einer Sensorik zu einer datenverarbeitenden Elektronik fließen. Dabei stellt die Sensorik in der Regel alle Daten in einer maximal möglichen Auflösung und Frequenz zur Verfügung. In den Algorithmen wird auf Basis dieser Daten eine Vielzahl von Fallunterscheidungen durchgeführt, die voneinander unabhängig sein können, d. h. keinem ganzheitlichen Modell folgen. Beispielsweise werden verschiedene Szenarien, die in einer Umgebung des Fahrzeugs erkannt werden, in einem allgemeinen Umgebungsmodell abgelegt und dort allenfalls teilweise miteinander kombiniert. Dementsprechend umständlich kann die Validierung der in diesem Umgebungsmodell vorhandenen Daten sein.
  • Es ist Aufgabe der Erfindung, die Verarbeitung von Sensordaten einer Sensorik eines Fahrzeugs zu verbessern.
  • Diese Aufgabe wird durch den Gegenstand der unabhängigen Ansprüche gelöst. Weitere Ausführungsformen der Erfindung ergeben sich aus den abhängigen Ansprüchen und aus der folgenden Beschreibung.
  • Ein erster Aspekt der Erfindung betrifft ein Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs. Die Sensorik umfasst mindestens eine Sensoreinheit zum Erfassen einer Umgebung des Fahrzeugs. Das Fahrzeug weist eine Auswerteeinheit zum Verarbeiten der Sensordaten auf. Das Verfahren umfasst folgende Schritte: Empfangen von Sensordaten in der Auswerteeinheit; Erkennen von Objekten in der Umgebung des Fahrzeugs durch Vorverarbeiten der Sensordaten, wobei eine Position und/oder Lage und eine Objektkategorie der Objekte ermittelt werden; Einfügen der erkannten Objekte in ein die Umgebung des Fahrzeugs repräsentierendes Umgebungsmodell, wobei das Umgebungsmodell mindestens eine Position und/oder Lage und eine Objektkategorie speichert und wobei eine voraussichtliche Positions- und/oder Lageänderung der erkannten Objekte mit einer Physik-Engine basierend auf über mehrere Zeitschritte ermittelten Positionen und/oder Lagen der erkannten Objekte berechnet wird; Einteilen der erkannten Objekte in Relevanzkategorien basierend auf der voraussichtlichen Positions- und/oder Lageänderung der erkannten Objekte, wobei sich Objekte in unterschiedlichen Relevanzkategorien in einer Relevanz für das Fahrzeug voneinander unterscheiden; Unterteilen eines Erfassungsbereichs mindestens einer Sensoreinheit in Verarbeitungsbereiche basierend auf dem Umgebungsmodell und einer Position und/oder Lage der mindestens einen Sensoreinheit im Umgebungsmodell, wobei jedem Verarbeitungsbereich mindestens ein Objekt einer Relevanzkategorie zugeordnet ist und wobei die Verarbeitungsbereiche so angeordnet sind, dass das mindestens eine Objekt in dem Verarbeitungsbereich durch die mindestens eine Sensoreinheit erfassbar ist; Zuordnen eines Verarbeitungsschemas zu jedem Verarbeitungsbereich basierend auf der Relevanzkategorie, wobei das Verarbeitungsschema angibt, wie Sensordaten aus dem Verarbeitungsbereich beim Erkennen von Objekten verarbeitet werden und/oder wie die mindestens eine Sensoreinheit Sensordaten für den Verarbeitungsbereich erzeugt.
  • Das Verfahren kann von einem die Auswerteeinheit und die Sensorik umfassenden Fahrzeugsystem durchgeführt werden. Die Auswerteeinheit kann beispielsweise Teil eines Bordcomputers des Fahrzeugs sein. Das Fahrzeugsystem kann beispielsweise ausgeführt sein, um die Umgebung des Fahrzeugs zu erkennen und das Fahrzeug entsprechend der erkannten Umgebung automatisiert zu steuern, d. h. zu lenken, zu beschleunigen, zu bremsen und/oder zu navigieren. Hierzu kann das Fahrzeugsystem entsprechende Aktoren wie etwa Lenk- oder Bremsaktoren oder Aktoren zur Motorsteuerung umfassen.
  • Unter einem Fahrzeug kann ein Kraftfahrzeug wie etwa ein Pkw, Lkw, Bus oder ein Motorrad verstanden werden.
  • Die Sensorik kann mehrere gleich- und/oder verschiedenartige Sensoreinheiten wie beispielsweise eine Kamera, einen Radarsensor, einen Lidarsensor, einen Ultraschallsensor oder einen Laserscanner umfassen.
  • Die Vorverarbeitung der Sensordaten kann beispielsweise folgende prinzipielle Schritte umfassen: Aufnehmen eines Nutzsignals durch die Sensoreinheit und Wandeln des Nutzsignals in ein elektrisches Rohsignal (Signalaufnahme), Generieren von Rohdaten durch Interpretieren des Rohsignals als physikalische Messgröße (Signalverarbeitung), Extrahieren von Merkmalen wie Kanten, Flächen oder Extremwerten aus den Rohdaten (Merkmalsextraktion), Zuordnen der extrahierten Merkmale zu Objektkategorien (Datenassoziation).
  • Die Position und/oder Lage der Objekte kann relativ zu dem Fahrzeug ermittelt werden, etwa in einem fahrzeugfesten Koordinatensystem.
  • Das Erkennen der Objekte kann eine sogenannte Track-Schätzung, auch Tracking genannt, umfassen, bei der Zustände der Objekte, beispielsweise deren Position und/oder Lage und/oder deren Geschwindigkeit, geschätzt werden. Des Weiteren kann das Erkennen der Objekte eine Objekt-Diskriminierung umfassen, bei der die Objekte detektiert und/oder klassifiziert werden. Bei einer Detektion wird entschieden, ob ein Objekt vorhanden ist. Bei einer Klassifizierung wird ein Objekt einer vordefinierten Objektkategorie, die auch als Klasse bezeichnet werden kann, zugeordnet, beispielsweise einer Objektkategorie „Fahrzeug“ oder „Person“.
  • Unter einem Umgebungsmodell kann eine dynamische Datenstruktur verstanden werden, in der relevante Objekte in der Umgebung des Fahrzeugs, etwa andere Fahrzeuge oder Infrastrukturelemente, in einem gemeinsamen Bezugssystem realitätsnah in Ort und Zeit dargestellt sind.
  • Vereinfacht ausgedrückt kann mit dem Umgebungsmodell modelliert werden, wie sich das Fahrzeug selbst bewegt, welche anderen Verkehrsteilnehmer in der Umgebung des Fahrzeugs vorhanden sind, wie sich die anderen Verkehrsteilnehmer bewegen und in welchem Verkehrsraum, d. h. in welchem gemeinsamen Kontext, sich das Fahrzeug und die anderen Verkehrsteilnehmer bewegen.
  • Die Bewegung des Fahrzeugs kann beispielsweise durch ein Eigenbewegungsmodell, im einfachsten Fall etwa ein kinematisches, lineares Einspurmodell, und/oder durch eine Fahrerabsichtserkennung ermittelt werden.
  • Der Verkehrsraum kann beispielsweise durch eine Straßenmarkierungserkennung, eine Erkennung frei befahrbarer Bereiche, eine Lokalisation relativ zu einem Fahrstreifen und/oder in einer digitalen Karte und/oder eine Erkennung von Verkehrszeichen und/oder Verkehrssignalanlagen ermittelt werden.
  • Die Objekte können mittels der Sensorik fortlaufend erfasst und zeitlich verfolgt werden. Die Sensordaten können beispielsweise fusionierte Daten einer oder mehrerer Sensoreinheiten der Sensorik umfassen. Zusätzlich können Informationen aus einer beispielsweise hochauflösenden digitalen Karte und/oder fahrzeugexterne, über ein Car2X-Kommunikationsnetzwerk empfangene Informationen zur Erkennung der Objekte genutzt werden.
  • Die Objekte können beispielsweise als Punktmodelle und/oder ausgedehnte zwei- und/oder dreidimensionale Modelle im Umgebungsmodell modelliert sein. Ein solches Objektmodell kann beispielsweise eine Position, eine Geschwindigkeit und/oder einen Gierwinkel eines Objekts relativ zum Fahrzeug beschreiben und basierend auf den Sensordaten der Sensorik fortlaufend schätzen. Zusätzlich kann das Objektmodell translatorische Beschleunigungskomponenten und/oder eine Gierrate des Objekts beschreiben. Hierzu ist es zweckmäßig, wenn die Sensorik ausgeführt ist, um Geschwindigkeiten direkt zu messen, etwa mittels eines Radarsensors.
  • Das Umgebungsmodell kann auf einem physikalischen Modell basieren, mit dem eine aktuelle Situation des Fahrzeugs bewertet und mit einer bestimmten Wahrscheinlichkeit in die Zukunft prädiziert werden kann.
  • Das physikalische Modell kann in einer Physik-Engine implementiert sein, die ausgeführt ist, um physikalische Prozesse zu simulieren und objektimmanente Eigenschaften nach physikalischen Gesetzmäßigkeiten zu berechnen.
  • Je nach Ausführungsform kann das Umgebungsmodell die Umgebung des Fahrzeugs objektbasiert und/oder rasterbasiert repräsentieren.
  • In einer objektbasierten Repräsentation werden das Fahrzeug und die Objekte jeweils durch ein eigenes dynamisches Objektmodell, beispielsweise ein zeitdiskretes Zustandsraummodell, beschrieben. Dabei können das Fahrzeug und die Objekte in einem sich mit dem Fahrzeug bewegenden Fahrzeugkoordinatensystem zueinander in Beziehung gesetzt werden. Zusätzlich, etwa wenn Informationen aus einer digitalen Karte und/oder aus einer Car2x-Kommunikation in das Umgebungsmodell miteinbezogen werden, kann eine absolute Referenzierung des Fahrzeugs erfolgen, bei der das Fahrzeug in der Welt lokalisiert wird, beispielsweise mittels eines globalen Navigationssatellitensystems.
  • Werte der von den Objektmodellen beschriebenen Größen wie etwa Position, Lage, Geschwindigkeit oder Ausdehnung können schritthaltend mit Messzyklen der Sensorik und unter Nutzung geeigneter Filterverfahren aktualisiert werden. Die Filterverfahren können beispielsweise Informationen über eine aktuelle Unsicherheit des Umgebungsmodells, etwa eine Zustandsunsicherheit und/oder Existenzunsicherheit bezüglich der Objekte, für nachfolgende Verarbeitungsschritte bereitstellen.
  • Eine Bewegung eines Objekts zwischen zwei Messzyklen kann beispielsweise basierend auf einem rekursiven Bayes-Filter in einem Prädiktionsschritt mit einem objektspezifischen Bewegungsmodell prädiziert werden. Die prädizierte Bewegung des Objekts kann in einem nachfolgenden Innovationsschritt mit Sensordaten aus einer aktuellen Messung aktualisiert werden.
  • In einem raster- oder gitterbasierten Umgebungsmodell wird die Umgebung des Fahrzeugs als ortsfest in gleich große Zellen unterteilte Rasterkarte repräsentiert.
  • Dabei kann von der Sensorik erfasst werden, welche Zellen für das Fahrzeug befahrbar und nicht befahrbar sind, während sich das Fahrzeug fortbewegt.
  • Das Umgebungsmodell kann eine Kombination aus objekt- und rasterbasierter Repräsentation umfassen.
  • Unter einem Erfassungsbereich kann ein Sichtfeld einer Sensoreinheit verstanden werden. Die Sensorik kann beispielsweise Sensoreinheiten mit zumindest teilweise überlappenden Erfassungsbereichen umfassen. Unter einem Verarbeitungsbereich kann ein Teilbereich eines Erfassungsbereichs verstanden werden. Der Erfassungsbereich kann vollständig oder auch nur teilweise in Verarbeitungsbereiche unterteilt sein. Die Verarbeitungsbereiche können sich durch unterschiedliche Relevanzkategorien voneinander unterscheiden. Anders ausgedrückt kann jedem Verarbeitungsbereich eine andere Relevanzkategorie zugeordnet sein. Es ist jedoch auch möglich, dass verschiedene Verarbeitungsbereiche derselben Relevanzkategorie zugeordnet sind. Beispielsweise kann mindestens ein Verarbeitungsbereich einer Sensoreinheit mit mindestens einem Verarbeitungsbereich mindestens einer weiteren Sensoreinheit übereinstimmen. Die Erfassungsbereiche unterschiedlicher Sensoreinheiten können jedoch auch unterschiedliche Bereiche der Umgebung des Fahrzeugs abtasten und dementsprechend voneinander abweichende Verarbeitungsbereiche aufweisen.
  • Unter einer Relevanz für das Fahrzeug kann beispielsweise ein Gefährdungspotenzial eines Objekts bezüglich des Fahrzeugs verstanden werden. So kann beispielsweise ein an einem Fahrbahnrand befindliches Objekt eine geringere Relevanz, d. h. ein geringeres Gefährdungspotenzial, für das Fahrzeug darstellen als ein auf einer Fahrbahn des Fahrzeugs befindliches Objekt.
  • Beispielsweise kann ein Verarbeitungsbereich in einem ersten Zeitschritt so gewählt werden, dass zumindest ein Hauptabschnitt eines Objekts in dem Verarbeitungsbereich durch die mindestens eine Sensoreinheit erfassbar ist, was beispielsweise bei einer Ersterkennung eines bislang nicht detektierten Objekts der Fall sein kann. In einem zweiten Zeitschritt kann der Verarbeitungsbereich basierend auf dem in dem ersten Zeitschritt erkannten Hauptabschnitt des Objekts und auf der voraussichtlichen Positions- und/oder Lageänderung des Objekts entsprechend verkleinert werden, sodass in dem verkleinerten Verarbeitungsbereich lediglich ein neu zu erkennender Teilabschnitt des Objekts durch die mindestens eine Sensoreinheit erfassbar ist. Somit kann eine im zweiten Zeitschritt zu verarbeitende Datenmenge im Vergleich zum ersten Zeitschritt maßgeblich reduziert werden.
  • Ein Verarbeitungsschema kann beispielsweise eine räumliche und/oder zeitliche Auflösung vorgeben, mit der die Umgebung des Fahrzeugs in dem betreffenden Verarbeitungsbereich abgetastet werden soll oder mit der Objekte aus den Sensordaten extrahiert werden sollen.
  • Durch ein derartiges Verfahren kann der Rechenaufwand beim Erkennen der Umgebung des Fahrzeugs im Vergleich zu Ansätzen mit überwiegend vorwärtsgetriebenem Datenfluss deutlich reduziert werden. Zudem kann die Qualität der Daten deutlich erhöht werden, indem die Umgebung des Fahrzeugs durch ein ganzheitlich physikalisches Umgebungsmodell repräsentiert wird.
  • Im Gegensatz zu herkömmlichen Ansätzen, wo Sensordaten von der Sensorik in einen Algorithmus zur Vorverarbeitung eingehen, Daten aus der Vorverarbeitung in ein Umgebungsmodell eingefügt werden und basierend auf dem Umgebungsmodell und einem Applikationsalgorithmus schließlich eine Aktorik angesteuert wird, ermöglicht das hier beschriebene Verfahren, Menge und Art der empfangenen Sensordaten durch das Umgebungsmodell zu beeinflussen, sodass möglichst nur relevante Daten in das Umgebungsmodell einfließen. Insbesondere im Zusammenspiel mit einem durch eine Physik-Engine bereitgestellten Physikmodell kann der Umfang der zu verarbeitenden und zu übertragenden Sensordaten durch eine derartige Rückkopplung zwischen Umgebungsmodell und Sensorik signifikant verringert werden.
  • Gemäß einer Ausführungsform kann einem Verarbeitungsbereich mit mindestens einem Objekt einer Relevanzkategorie mit einer niedrigeren Relevanz für das Fahrzeug ein erstes Verarbeitungsschema zugeordnet werden, das eine niedrigere Genauigkeit beim Verarbeiten und/oder Erzeugen der Sensordaten vorgibt. Analog dazu kann einem Verarbeitungsbereich mit mindestens einem Objekt einer Relevanzkategorie mit einer höheren Relevanz für das Fahrzeug ein zweites Verarbeitungsschema zugeordnet werden, das eine höhere Genauigkeit beim Verarbeiten und/oder Erzeugen der Sensordaten vorgibt. Dadurch können weniger relevante Bereiche der Umgebung des Fahrzeugs mit niedrigerem Rechenaufwand erfasst und erkannt werden. Beispielsweise können dadurch freiwerdende Rechenressourcen genutzt werden, um andere, relevantere Bereiche der Umgebung des Fahrzeugs mit umso höherer Genauigkeit zu erfassen und zu erkennen. Somit kann die Güte des Umgebungsmodells bei gegebenen Rechenressourcen effizient gesteigert werden.
  • Gemäß einer Ausführungsform kann eine erste Relevanzkategorie Objekte ohne Eigenbewegung umfassen, auch statische Objekte genannt, und eine zweite Relevanzkategorie Objekte mit Eigenbewegung, auch dynamische Objekte genannt, umfassen. Dabei kann einem Verarbeitungsbereich mit mindestens einem Objekt der ersten Relevanzkategorie das erste Verarbeitungsschema zugeordnet werden. Analog dazu kann einem Verarbeitungsbereich mit mindestens einem Objekt der zweiten Relevanzkategorie das zweite Verarbeitungsschema zugeordnet werden. Ausgehend von der Annahme, dass ein Objekt mit Eigenbewegung im Allgemeinen eine größere Gefährdung für das Fahrzeug darstellt, also eine größere Relevanz für das Fahrzeug hat, als ein Objekt ohne Eigenbewegung, ist es sinnvoll, wenn Objekte mit Eigenbewegung mit größerer Genauigkeit erfasst und erkannt werden als Objekte ohne Eigenbewegung. Eine solche Differenzierung der Objekte kann zudem mit verhältnismäßig hoher Zuverlässigkeit vorgenommen werden. Mit anderen Worten ermöglicht diese Ausführungsform, den Rechenaufwand bei der Erfassung und Erkennung der Umgebung des Fahrzeugs zu verringern, ohne gleichzeitig die Zuverlässigkeit des Verfahrens zu beeinträchtigen. Vielmehr kann die Zuverlässigkeit sogar gesteigert werden, indem freigewordene Rechenressourcen zur Erfassung und Erkennung relevanterer Bereiche der Umgebung des Fahrzeugs genutzt werden.
  • Gemäß einer Ausführungsform können die Verarbeitungsbereiche in einem aktuellen Zeitschritt gegenüber Verarbeitungsbereichen aus einem früheren Zeitschritt unter Berücksichtigung von in dem früheren Zeitschritt erkannten Objekten verkleinert werden. Beispielsweise können in dem früheren Zeitschritt charakteristische Schlüsselbereiche und/oder Schlüsselpunkte eines Objekts erkannt werden. Anstatt nun in dem aktuellen Zeitschritt sämtliche Bereiche und/oder Punkte des Objekts neu zu erkennen, können beispielweise lediglich sich voraussichtlich ändernde Bereiche und/oder Punkte des Objekts erfasst und erkannt werden. Dabei können die bereits erkannten Schlüsselbereiche und/oder Schlüsselpunkte zur Revalidierung verwendet werden. Somit kann die zu verarbeitende Datenmenge von Zeitschritt zu Zeitschritt sukzessive reduziert und die Plausibilität sukzessive erhöht werden.
  • Gemäß einer Ausführungsform kann das Verarbeitungsschema eine zu erkennende Merkmalsart und/oder eine Verarbeitungspriorität und/oder eine Verzögerungszeit und/oder eine Auflösung angeben. Zu erkennende Merkmalsarten können beispielsweise Kanten, Flächen oder Punkte wie etwa Extremwerte sein. Die Verarbeitungspriorität kann angeben, mit welcher Priorität ein Verarbeitungsbereich gegenüber anderen Verarbeitungsbereichen behandelt wird. Unter einer Verzögerungszeit kann beispielsweise eine Wartezeit verstanden werden, während der eine Erfassung von Sensordaten und/oder Erkennung von Objekten in einem Verarbeitungsbereich pausiert. Unter einer Auflösung kann beispielsweise eine Pixelanzahl oder eine Frequenz, etwa eine Abtastrate, verstanden werden. Beispielsweise kann das Verarbeitungsschema auch angeben, ob Objekte mit oder ohne Berücksichtigung früherer Messwerte erfasst oder erkannt werden sollen.
  • Gemäß einer Ausführungsform kann das Erkennen, Einfügen, Einteilen, Unterteilen und/oder Zuordnen basierend auf Informationen aus einer digitalen Karte der Umgebung des Fahrzeugs und/oder auf in der Umgebung des Fahrzeugs geltenden Verkehrsregeln und/oder auf einer vorgegebenen Trajektorie des Fahrzeugs in einer digitalen Karte durchgeführt werden.
  • In der digitalen Karte können Geodaten von Objekten in der Umgebung des Fahrzeugs hinterlegt sein. Insbesondere kann die digitale Karte zur Navigation des Fahrzeugs dienen. Zusätzlich zu den Geodaten kann die digitale Karte Zusatzinformationen bezüglich der referenzierten Objekte umfassen. Für die Eigenlokalisierung des Fahrzeugs in der digitalen Karte kann das Fahrzeug mit einem Ortungssensor, etwa einem GPS-Sensor o. Ä., ausgestattet sein. Die durch den Ortungssensor erzeugten Ortungsdaten können mit der digitalen Karte abgeglichen werden, beispielsweise durch Landmarken, die in der digitalen Karte verzeichnet sind und durch die Sensorik des Fahrzeugs wiedererkannt werden können. Durch einen solchen Kartenabgleich können erkannte dynamische Objekte, die im Umgebungsmodell dargestellt sind, in den Kontext der digitalen Karte eingeordnet werden.
  • Die Verkehrsregeln können zur Interpretation eines Verkehrsgeschehens in der Umgebung des Fahrzeugs verwendet werden, etwa im Kontext einer Verkehrszeichen- oder Verkehrssignalerkennung.
  • Gemäß einer Ausführungsform umfasst das Verfahren weiter: Ermitteln, ob die erkannten Objekte die vorgegebene Trajektorie des Fahrzeugs voraussichtlich kreuzen; wenn ein erkanntes Objekt die vorgegebene Trajektorie des Fahrzeugs voraussichtlich kreuzt: Zuteilen des erkannten Objekts zu einer Relevanzkategorie mit einer höheren Relevanz für das Fahrzeug; wenn ein erkanntes Objekt die vorgegebene Trajektorie des Fahrzeugs voraussichtlich nicht kreuzt: Zuteilen des erkannten Objekts zu einer Relevanzkategorie mit einer niedrigeren Relevanz für das Fahrzeug. Dadurch können Verarbeitungsbereiche mit hoher oder niedriger Kollisionswahrscheinlichkeit zuverlässig bestimmt werden. Dementsprechend effizient können Rechenressourcen auf die unterschiedlich relevanten Verarbeitungsbereiche verteilt werden.
  • Gemäß einer Ausführungsform kann die Auswerteeinheit ausgeführt sein, um über ein drahtloses Kommunikationsnetzwerk mit anderen Verkehrsteilnehmern zu kommunizieren, auch Car2X-Kommunikation genannt. Dabei umfasst das Verfahren weiter: Empfangen von durch die anderen Verkehrsteilnehmer gesendeten Objektdaten über Objekte in der Umgebung des Fahrzeugs in der Auswerteeinheit; Erkennen der Objekte in der Umgebung des Fahrzeugs basierend auf den Objektdaten. Die Objektdaten können beispielsweise Informationen über eine Position und/oder Lage, Geschwindigkeit oder Objektkategorie der Objekte umfassen. Mithilfe der Objektdaten kann das Umgebungsmodell beispielsweise plausibilisiert werden. Dadurch kann die Genauigkeit des Verfahrens gesteigert werden.
  • Gemäß einer Ausführungsform kann die Sensorik mindestens zwei Sensoreinheiten mit sich zumindest teilweise überdeckenden Erfassungsbereichen umfassen. Die Erfassungsbereiche können so in Verarbeitungsbereiche unterteilt werden, dass in mindestens einem Verarbeitungsbereich mindestens ein Objekt durch die mindestens zwei Sensoreinheiten erfassbar ist. Bei den mindestens zwei Sensoreinheiten kann es sich um verschiedenartige, komplementäre Sensoreinheiten wie etwa eine Kamera und einen Radarsensor handeln. Alternativ können die mindestens zwei Sensoreinheiten gleichartig sein und so eine redundante Erfassung ermöglichen. Dadurch kann die Genauigkeit des Verfahrens gesteigert werden.
  • Weitere Aspekte der Erfindung betreffen ein Computerprogramm, das, wenn es auf einem Prozessor ausgeführt wird, das Verfahren, wie es im Vorangehenden und im Folgenden beschrieben ist, durchführt, sowie ein computerlesbares Medium, auf dem ein derartiges Computerprogramm gespeichert ist. Ein computerlesbares Medium kann dabei eine Harddisk, ein USB-Speichergerät, ein RAM, ein ROM, ein EPROM oder ein Flash-Speicher sein. Ein computerlesbares Medium kann auch ein Datenkommunikationsnetzwerk, wie beispielsweise das Internet, das den Download eines Programmcodes ermöglicht, sein. Das computerlesbare Medium kann ein transitorisches oder nicht transitorisches Medium sein. Merkmale des Verfahrens, wie es im Vorangehenden und im Folgenden beschrieben ist, können auch Merkmale des Computerprogramms und/oder des computerlesbaren Mediums sein.
  • Ein weiterer Aspekt der Erfindung betrifft ein Fahrzeugsystem, das ausgeführt ist, um das Verfahren, wie es im Vorangehenden und im Folgenden beschrieben ist, durchzuführen. Dazu umfasst das Fahrzeugsystem eine Sensorik mit mindestens einer Sensoreinheit zum Erfassen einer Umgebung eines Fahrzeugs und eine mit der mindestens einen Sensoreinheit gekoppelte Auswerteeinheit. Merkmale des Verfahrens, wie es im Vorangehenden und im Folgenden beschrieben ist, können auch Merkmale des Fahrzeugsystems sein und umgekehrt.
  • Im Folgenden werden Ausführungsbeispiele der Erfindung mit Bezug auf die beiliegenden Figuren detailliert beschrieben.
    • 1 zeigt schematisch ein Fahrzeugsystem gemäß einem Ausführungsbeispiel der Erfindung.
    • 2 zeigt ein Blockschaltbild einer Auswerteeinheit aus 1.
    • 3 zeigt schematisch einen Erfassungsbereich einer Sensorik aus 1.
    • 4 zeigt ein Ablaufdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel der Erfindung.
  • Die in den Figuren verwendeten Bezugszeichen und ihre Bedeutung sind in zusammenfassender Form in der Liste der Bezugszeichen aufgeführt. Grundsätzlich sind identische oder ähnliche Teile mit den gleichen Bezugszeichen versehen.
  • 1 zeigt schematisch ein Fahrzeugsystem 100, das ein Fahrzeug 102 umfasst. Beispielhaft fährt das Fahrzeug 102 auf einer durch zwei Fahrbahnränder 104 begrenzten Fahrbahn 106. Neben einem der beiden Fahrbahnränder 104 befindet sich ein Baum 108. Das Fahrzeug 102 ist mit einer Sensorik 110 zum Erfassen einer Umgebung des Fahrzeugs 102 ausgestattet, die hier durch die Fahrbahn 106 und den Baum 108 schematisch dargestellt ist. In diesem Beispiel umfasst die Sensorik 110 eine Kamera 112 und einen Radarsensor 114 als Sensoreinheiten. Des Weiteren umfasst das Fahrzeugsystem 100 eine Auswerteeinheit 116, etwa einen Bordcomputer, zum Auswerten von durch die Sensorik 110 erzeugten Sensordaten, hiervon Kameradaten 118 der Kamera 112 und von Radardaten 120 des Radarsensors 114. Die Kameradaten 118 können zwei- oder dreidimensionale Bilder der Umgebung umfassen. Die Radardaten 114 können Messwerte von Abständen und/oder Geschwindigkeiten von Objekten in der Umgebung relativ zum Fahrzeug 102 umfassen. Teil des Fahrzeugsystems 100 ist auch eine Aktorik 122, die einen oder mehrere Aktoren zum Steuern des Fahrzeugs 102, etwa einen Lenk- oder Bremsaktor, umfasst.
  • Die Auswerteeinheit 116 ist ausgeführt, um aus den Sensordaten 118, 120 Merkmale wie Kanten, Flächen oder Punkte zu extrahieren und die extrahierten Merkmalen hinterlegten Objektkategorien zuzuordnen, hier beispielsweise den Objektkategorien „Baum“ oder „Fahrbahnrand“, um den Baum 108 und die Fahrbahnränder 104 als Objekte in der Umgebung des Fahrzeugs 102 zu erkennen und relativ zum Fahrzeug 102 zu verorten. Auf Basis der erkannten Objekte 104, 106, 108 erzeugt oder aktualisiert die Auswerteeinheit 116 ein dreidimensionales Umgebungsmodell der Umgebung des Fahrzeugs 102. In dem Umgebungsmodell werden zum einen jeweilige Positionen, Lagen und Objektkategorien der erkannten Objekte 104, 106, 108 gespeichert. Um zum anderen zu erwartende Bewegungen der Objekte 104, 106, 108 möglichst realitätsnah vorherzusagen, ist das Umgebungsmodell als physikalisches Modell aufgebaut. Voraussichtliche Änderungen von Positionen, Lagen oder Geschwindigkeiten der Objekte 104, 106, 108 werden darin mithilfe einer Physik-Engine unter Berücksichtigung physikalischer Gesetzmäßigkeiten berechnet. Ferner ist die Auswerteeinheit 116 konfiguriert, um aus den Sensordaten 118, 120 mithilfe des Umgebungsmodells Bereiche in der Umgebung des Fahrzeugs 102 zu bestimmen, die sich voneinander hinsichtlich einer Relevanz für das Fahrzeug 102 unterscheiden. Je nach ihrer Relevanz weist die Auswerteeinheit 116 jedem dieser Bereiche, auch Verarbeitungsbereiche genannt, ein Verarbeitungsschema zu, das angibt, mit welcher Genauigkeit Objekte in dem betreffenden Bereich erkannt werden sollen. Beispielsweise ermittelt die Auswerteeinheit 116 in dem in 1 gezeigten Beispiel, dass der Baum 108 mit einer geringeren Qualität, d. h. beispielsweise mit einer geringeren Auflösung, verfolgt, detektiert und/oder klassifiziert werden soll als ein dem Fahrzeug 102 entgegenkommendes Fahrzeug.
  • Die Auswerteeinheit 116 ist zudem konfiguriert, um das Fahrzeug 102 automatisiert zu steuern. Dazu steuert die Auswerteeinheit 116 die Aktorik 122 entsprechend der mit dem Umgebungsmodell erkannten Umgebung des Fahrzeugs 102 an.
  • Die Verarbeitung der Sensordaten 118, 120 durch die Auswerteeinheit 116 wird nachfolgend näher beschrieben.
  • 2 zeigt schematisch eine beispielhafte Konfiguration der Auswerteeinheit 116 aus 1. Die Auswerteeinheit 116 umfasst eine Vorverarbeitungseinheit bzw. ein Vorverarbeitungsmodul 200 mit einem Kameramodul 202 zur Vorverarbeitung der Kameradaten 118 und einem Radarmodul 204 zur Vorverarbeitung der Radardaten 120. Alle hierin genannten Module können Software-Komponenten eines in der Auswerteeinheit 116 ausgeführten Computerprogramms sein.
  • In der Vorverarbeitungseinheit 200 findet beispielsweise eine Fusion der Kameradaten 118 mit den Radardaten 120 statt, um die Positionen, Lagen und Objektkategorien der Objekte 104, 106, 108 zu erkennen. Ein Umgebungsmodul 206 empfängt von der Vorverarbeitungseinheit 200 Erkennungsdaten 208, die die Positionen, Lagen und Objektkategorien der erkannten Objekte 104, 106, 108 enthalten. Anhand der Erkennungsdaten 208 fügt das Umgebungsmodul 206 die erkannten Objekte 104, 106, 108 in ein Umgebungsmodell ein, das die Umgebung des Fahrzeugs 102 beispielsweise objektbasiert in einem dreidimensionalen Raum darstellt. Alternativ oder zusätzlich kann die Darstellung auch rasterbasiert erfolgen. Anhand von Positionen und Lagen der Objekte 104, 106, 108, die in früheren Zeitschritten ermittelt wurden, berechnet das Umgebungsmodul 206 für jedes Objekt eine voraussichtliche Objekttrajektorie. Zur Berechnung der voraussichtlichen Objekttrajektorien greift das Umgebungsmodul 206 auf eine Physik-Engine 210 zurück, in der Bewegungen und Positionen der erkannten Objekte 104, 106, 108 basierend auf physikalischen Gesetzmäßigkeiten berechnet und plausibilisiert werden.
  • Die Vorverarbeitungseinheit 200 kann optional ausgeführt sein, um Objektdaten 213 drahtlos über ein Car2X-Kommunikationsnetzwerk, beispielsweise von anderen Fahrzeugen oder Infrastrukturelementen, zu empfangen und zur Objekterkennung auszuwerten. Die Objektdaten 213 können beispielsweise Daten über Objekte in einer Umgebung der anderen Fahrzeuge und/oder über die Objekte 104, 106, 108 in der Umgebung des Fahrzeugs 102, sofern diese von den anderen Fahrzeugen erfasst wurden, enthalten.
  • Zusätzlich teilt das Umgebungsmodul 206 die erkannten und mithilfe der Physik-Engine bzw. des Physik-Moduls 210 plausibilisierten Objekte 104, 106, 108 in Relevanzkategorien ein. Mithilfe dieser Einteilung können die Objekte 104, 106, 108 hinsichtlich ihrer jeweiligen Relevanz für das Fahrzeug 102 voneinander unterschieden werden. Je nach Relevanzkategorie können die Objekte 104, 106, 108 dann in einem nachfolgenden Zeitschritt mit unterschiedlicher Qualität von der Sensorik 110 erfasst und/oder von der Vorverarbeitungseinheit 200 detektiert werden.
  • Wie die Objekte 104, 106, 108 mit unterschiedlicher Relevanz zu erfassen und/oder zu detektieren sind, wird der Sensorik 110 bzw. der Vorverarbeitungseinheit 200 durch eine mit dem Umgebungsmodul 206 verbundene Rückkopplungseinheit 212 mitgeteilt. Die Rückkopplungseinheit 212 sendet dazu eine entsprechende Verarbeitungsinformation 214 an die Sensorik 110 bzw. die Vorverarbeitungseinheit 200.
  • 3 veranschaulicht beispielhaft, wie ein Erfassungsbereich 300 der Sensorik 110 in Bereiche unterschiedlicher Relevanz unterteilt wird. Der Erfassungsbereich 300 kann als ein Gesamterfassungsbereich angesehen werden, der sich aus einzelnen Erfassungsbereichen von Sensoreinheiten der Sensorik 110, hier der Kamera 112 und dem Radarsensor 114, zusammensetzt.
  • Der Erfassungsbereich 300 deckt beispielsweise einen Bereich der Umgebung des Fahrzeugs 102 ab, in dem sich die Fahrbahn 106 mit den Fahrbahnrändern 104 und der Baum 108 befinden. In dem Erfassungsbereich 300 befinden sich ferner ein Haus 302 und ein dem Fahrzeug 102 auf einer linken Fahrspur entgegenkommendes Fahrzeug 304.
  • Das Umgebungsmodul 206 teilt die im Erfassungsbereich 300 erfassten und erkannten Objekte 104, 106, 108, 302, 304 in zwei unterschiedliche Relevanzkategorien ein, indem die Fahrbahn 106, der Baum 108 und das Haus 102 als statische Objekte klassifiziert werden und das entgegenkommende Fahrzeug 304 als dynamisches Objekt klassifiziert wird. Die dynamischen Objekte unterscheiden sich von den statischen Objekten durch eine höhere Relevanz für das Fahrzeug 102. Je nach Ausführungsbeispiel können die Objekte auch in mehr als zwei unterschiedliche Relevanzkategorien eingeteilt werden. Beispielsweise können die Objekte zusätzlich anhand ihrer Relativbewegung zu dem Fahrzeug 102 klassifiziert werden, etwa um zu erkennen, ob sich ein Objekt auf das Fahrzeug 102 zubewegt oder davon wegbewegt.
  • Entsprechend dieser Klassifizierung wird der Erfassungsbereich 300 beispielsweise in vier Verarbeitungsbereiche unterteilt. Die Unterteilung erfolgt basierend auf den im Umgebungsmodell hinterlegten Positionen und Lagen der erkannten Objekte und der Sensoreinheiten 112, 114. Dabei umfasst ein erster Verarbeitungsbereich 306 einen Bereich links der Fahrbahn 106 mit dem Haus 302, ein zweiter Verarbeitungsbereich 308 einen Bereich rechts der Fahrbahn 106 mit dem Baum 108, ein dritter Verarbeitungsbereich 310 die linke Fahrspur mit dem entgegenkommenden Fahrzeug 304 und ein vierter Verarbeitungsbereich 312 eine rechte Fahrspur, auf dem sich das Fahrzeug 102 fortbewegt.
  • Die Verarbeitungsbereiche 306, 308, 312 haben beispielsweise jeweils die gleiche Relevanz bezüglich des Fahrzeugs 102. Der dritte Verarbeitungsbereich 310 hat aufgrund des entgegenkommenden Fahrzeugs 104 eine höhere Relevanz als die übrigen Verarbeitungsbereiche 306, 308, 312. Alternativ kann dem vierten Verarbeitungsbereich 312 eine mittlere Relevanz zugeordnet werden, die zwischen der Relevanz der Verarbeitungsbereiche 306, 308 und der Relevanz des dritten Verarbeitungsbereichs 310 liegt.
  • Die vier Verarbeitungsbereiche 306, 308, 310, 312 sind so angeordnet, dass darin befindliche Objekte jeweils durch die Kamera 112 und/oder den Radarsensor 114 erfasst werden können.
  • Die in 3 gezeigte Unterteilung des Erfassungsbereichs 300 in die Verarbeitungsbereiche 306, 308, 310, 312 ist lediglich beispielhaft gewählt. In der Realität kann der Erfassungsbereich 300 beliebig anders unterteilt sein. Beispielsweise kann die Unterteilung auch so erfolgen, dass jedem Verarbeitungsbereich eine andere Relevanzkategorie zugeordnet ist. Auch kann beispielsweise ein Erfassungsbereich der Kamera 112 unabhängig von einem Erfassungsbereich des Radarsensors 114 in Verarbeitungsbereiche unterteilt werden und umgekehrt.
  • Das Umgebungsmodul 206 ordnet nun jedem Verarbeitungsbereich 306, 308, 310, 312 ein seiner Relevanzkategorie entsprechendes Verarbeitungsschema zu. Dieses gibt an, wie die Sensordaten 118, 120 in dem betreffenden Verarbeitungsbereich zu erfassen und/oder zu verarbeiten sind. Beispielsweise gibt das Verarbeitungsschema eine an die Relevanzkategorie des betreffenden Verarbeitungsbereichs angepasste Pixelanzahl und/oder Abtastrate vor. Die von der Rückkopplungseinheit 212 erzeugte Verarbeitungsinformation 214 gibt an, welches Verarbeitungsschema welchem Verarbeitungsbereich zugeordnet ist.
  • Das Umgebungsmodul 206 kann einen Szenenmanager umfassen, der Szenen in der Umgebung des Fahrzeugs 102 basierend auf dem Umgebungsmodell berechnet und ferner ermittelt, welche Ausschnitte des Umgebungsmodells als nächstes eine Aktualisierung erfordern. Eine entsprechende Anforderung kann von einem Sensormanager an geeignete Sensoreinheiten der Sensorik 110 weitergeleitet werden. Der Sensormanager kann beispielsweise eine Komponente der Rückkopplungseinheit 212 sein.
  • Beispielsweise können in einem ersten Schritt neue, d. h. bislang unbekannte Objekte in das Umgebungsmodell eingefügt werden. Der Szenenmanager enthält dazu einen Objektdetektor, der geeignete Algorithmen zur Objekterkennung ausführt. Sollte während der Objekterkennung erkannt werden, dass ein zuvor angeforderter Ausschnitt ein Objekt nicht vollständig abdeckt, kann der Objektdetektor die Anforderung weiterer Ausschnitte auslösen. Das fertige Objektmodell wird durch die Physik-Engine 210 plausibilisiert und in das Umgebungsmodell eingefügt. Der nun bekannte Bereich wird dem Szenenmanager, genauer einem darin enthaltenen Szenenupdatemanager, mitgeteilt. Auf diese Weise kann ein erstes vollständiges Umgebungsmodell aufgebaut werden.
  • Die Effizienz bei der Aktualisierung des Umgebungsmodells kann nun dadurch erhöht werden, dass eine Priorisierung der zu aktualisierenden Bereiche bzw. der zu aktualisierenden Objekte im Umgebungsmodell vorgenommen wird. Dazu kann ein physikalisches Modell der Umgebung des Fahrzeugs 102 verwendet werden, in dem statische und dynamische Objekte hinterlegt sind und das mit Informationen aus einer beispielsweise hochauflösenden digitalen Karte und mit Informationen über Verkehrsregeln angereichert ist.
  • Die im Umgebungsmodell gespeicherten Objekte 104, 106, 108, 302, 304 können in ihrer Bewegung relativ zum Fahrzeug 102 getrackt werden. Dabei kann eine zu erwartende Bewegung der Objekte 104, 106, 108, 302, 304 prädiziert werden und es können entsprechende Objektbereiche im Umgebungsmodell vorausgewählt werden. Die vorausgewählten Objektbereiche können anhand bekannter Schlüsselbereiche oder Schlüsselpunkte nun schneller und mit geringerem Rechenaufwand revalidiert werden. Dies hat den Vorteil, dass die in jedem Zyklus neu zu erkennenden Bereiche kleiner sind als bei einer vollständigen Neuerkennung der Objekte 104, 106, 108, 302, 304. Damit kann die erforderliche Rechenleistung reduziert werden.
  • Die Validierung kann beispielsweise in Abhängigkeit von einer jeweiligen Relevanzkategorie der erkannten Objekte 104, 106, 108, 302, 304 erfolgen. So kann beispielsweise die statischen Objekte 108, 302 am Straßenrand mit einer geringeren Auflösung getrackt werden als das dynamische Objekt 304 oder ein Objekt, das eine Trajektorie des Fahrzeugs 102 voraussichtlich kreuzt.
  • 4 zeigt ein Ablaufdiagramm eines Verfahrens 400, wie es beispielsweise von der Auswerteeinheit 116 aus den 1 und 2 durchgeführt werden kann.
  • Dabei werden in einem ersten Schritt 410 die Kameradaten 118 und die Radardaten 120 in der Auswerteeinheit 116 empfangen.
  • In einem zweiten Schritt 420 werden die Kameradaten 118 und die Radardaten 120 in der Vorverarbeitungseinheit 200 ausgewertet, um die Objekte 104, 106, 108, 302, 304 zu verfolgen, zu detektieren und/oder zu klassifizieren.
  • In einem dritten Schritt 430 werden die erkannten Objekte 104, 106, 108, 302, 304 in Form von Objektmodellen in das Umgebungsmodell eingefügt und darin gespeichert. Das Umgebungsmodell kann hierbei etwa auf eine geeignete Objektbibliothek mit hinterlegten Objektkategorien zugreifen. Voraussichtliche Positions- und/oder Lageänderungen der erkannten Objekte 104, 106, 108, 302, 304 werden durch die Physik-Engine 210 basierend auf Messergebnissen aus früheren Messzyklen berechnet. Dabei kann das Umgebungsmodell vollständig durch die Physik-Engine 210 plausibilisiert werden.
  • In einem vierten Schritt 440 werden die erkannten Objekte 104, 106, 108, 302, 304 abhängig davon, wie sie sich voraussichtlich relativ zum Fahrzeug 102 bewegen, in Relevanzkategorien eingeteilt.
  • In einem fünften Schritt 450 wird der Erfassungsbereich 300 der Sensorik 110 in die Verarbeitungsbereiche 306, 308, 310, 312 unterteilt, wobei jedem Verarbeitungsbereich einer Relevanzkategorie zugeordnet ist. Die Unterteilung erfolgt auf Basis der im Umgebungsmodell verwalteten Daten über die erkannten Objekte 104, 106, 108, 302, 304. Ferner erfolgt die Unterteilung unter Berücksichtigung jeweiliger Positionen und/oder Lagen der einzelnen Sensoreinheiten 112, 114 und deren Erfassungsbereiche im Umgebungsmodell. Die Unterteilung erfolgt so, dass die den Verarbeitungsbereichen 306, 308, 310, 312 zugeordneten Objekte 104, 106, 108, 302, 304 durch mindestens eine der Sensoreinheiten 112, 114 erfassbar sind.
  • Schließlich wird in einem sechsten Schritt 460 jedem der Verarbeitungsbereiche 306, 308, 310, 312 ein an seine Relevanzkategorie angepasstes Verarbeitungsschema zugeordnet.
  • Ergänzend ist darauf hinzuweisen, dass „umfassend“ keine anderen Elemente oder Schritte ausschließt und „eine“ oder „ein“ keine Vielzahl ausschließt. Ferner sei darauf hingewiesen, dass Merkmale oder Schritte, die mit Verweis auf eines der obigen Ausführungsbeispiele beschrieben worden sind, auch in Kombination mit anderen Merkmalen oder Schritten anderer oben beschriebener Ausführungsbeispiele verwendet werden können. Bezugszeichen in den Ansprüchen sind nicht als Einschränkung anzusehen.
  • Bezugszeichenliste
  • 100
    Fahrzeugsystem
    102
    Fahrzeug
    104
    Fahrbahnrand
    106
    Fahrbahn
    108
    Baum
    110
    Sensorik
    112
    Kamera
    114
    Radarsensor
    116
    Auswerteeinheit
    118
    Kameradaten
    120
    Radardaten
    122
    Aktorik
    200
    Vorverarbeitungseinheit
    202
    Kameramodul
    204
    Radarmodul
    206
    Umgebungsmodul
    208
    Erkennungsdaten
    210
    Physik-Engine
    212
    Rückkopplungseinheit
    213
    Objektdaten
    214
    Verarbeitungsinformation
    300
    Erfassungsbereich
    302
    Haus
    304
    entgegenkommendes Fahrzeug
    306
    erster Verarbeitungsbereich
    308
    zweiter Verarbeitungsbereich
    310
    dritter Verarbeitungsbereich
    312
    vierter Verarbeitungsbereich
    400
    Verfahren zum Verarbeiten von Sensordaten
    410
    Empfangen von Sensordaten
    420
    Erkennen von Objekten
    430
    Einfügen der erkannten Objekte in ein Umgebungsmodell
    440
    Einteilen der erkannten Objekte in Relevanzkategorien
    450
    Unterteilen eines Erfassungsbereichs in Verarbeitungsbereiche
    460
    Zuordnen eines Verarbeitungsschema zu den Verarbeitungsbereichen

Claims (12)

  1. Verfahren (400) zum Verarbeiten von Sensordaten (118, 120) einer Sensorik (110) eines Fahrzeugs (102), wobei die Sensorik (110) mindestens eine Sensoreinheit (112, 114) zum Erfassen einer Umgebung des Fahrzeugs (102) umfasst und das Fahrzeug (102) eine Auswerteeinheit (116) zum Verarbeiten der Sensordaten (118, 120) aufweist, wobei das Verfahren (400) umfasst: Empfangen (410) von Sensordaten (118, 120) in der Auswerteeinheit (116); Erkennen (420) von Objekten (104, 106, 108; 302, 304) in der Umgebung des Fahrzeugs (102) durch Vorverarbeiten der Sensordaten (118, 120), wobei eine Position und/oder Lage und eine Objektkategorie der Objekte (104, 106, 108; 302, 304) ermittelt werden; Einfügen (430) der erkannten Objekte (104, 106, 108; 302, 304) in ein die Umgebung des Fahrzeugs (102) repräsentierendes Umgebungsmodell, wobei das Umgebungsmodell mindestens eine Position und/oder Lage und eine Objektkategorie speichert und wobei eine voraussichtliche Positions- und/oder Lageänderung der erkannten Objekte (104, 106, 108; 302, 304) mit einer Physik-Engine (210) basierend auf über mehrere Zeitschritte ermittelten Positionen und/oder Lagen der erkannten Objekte (104, 106, 108; 302, 304) berechnet wird; Einteilen (440) der erkannten Objekte (104, 106, 108; 302, 304) in Relevanzkategorien basierend auf der voraussichtlichen Positions- und/oder Lageänderung der erkannten Objekte (104, 106, 108; 302, 304), wobei sich Objekte in unterschiedlichen Relevanzkategorien in einer Relevanz für das Fahrzeug (102) voneinander unterscheiden; Unterteilen (450) eines Erfassungsbereichs (300) mindestens einer Sensoreinheit (112, 114) in Verarbeitungsbereiche (306, 308, 310, 312) basierend auf dem Umgebungsmodell und einer Position und/oder Lage der mindestens einen Sensoreinheit (112, 114) im Umgebungsmodell, wobei jedem Verarbeitungsbereich (306, 308, 310, 312) mindestens ein Objekt (104, 106, 108; 302, 304) einer Relevanzkategorie zugeordnet ist und wobei die Verarbeitungsbereiche (306, 308, 310, 312) so angeordnet sind, dass das mindestens eine Objekt (104, 106, 108; 302, 304) in dem Verarbeitungsbereich (306, 308, 310, 312) durch die mindestens eine Sensoreinheit (112, 114) erfassbar ist; Zuordnen (460) eines Verarbeitungsschemas zu jedem Verarbeitungsbereich (306, 308, 310, 312) basierend auf der Relevanzkategorie, wobei das Verarbeitungsschema angibt, wie Sensordaten (118, 120) aus dem Verarbeitungsbereich (306, 308, 310, 312) beim Erkennen von Objekten (104, 106, 108; 302, 304) verarbeitet werden und/oder wie die mindestens eine Sensoreinheit (112, 114) Sensordaten (118, 120) für den Verarbeitungsbereich (306, 308, 310, 312) erzeugt.
  2. Verfahren (400) nach Anspruch 1, wobei einem Verarbeitungsbereich (306, 308) mit mindestens einem Objekt (108; 302) einer Relevanzkategorie mit einer niedrigeren Relevanz für das Fahrzeug (102) ein erstes Verarbeitungsschema zugeordnet wird, das eine niedrigere Genauigkeit beim Verarbeiten und/oder Erzeugen der Sensordaten (118, 120) vorgibt; wobei einem Verarbeitungsbereich (310) mit mindestens einem Objekt (304) einer Relevanzkategorie mit einer höheren Relevanz für das Fahrzeug (102) ein zweites Verarbeitungsschema zugeordnet wird, das eine höhere Genauigkeit beim Verarbeiten und/oder Erzeugen der Sensordaten (118, 120) vorgibt.
  3. Verfahren (400) nach Anspruch 2, wobei eine erste Relevanzkategorie Objekte (104, 106, 108; 302) ohne Eigenbewegung umfasst und eine zweite Relevanzkategorie Objekte (304) mit Eigenbewegung umfasst; wobei einem Verarbeitungsbereich (306, 308) mit mindestens einem Objekt (104, 106, 108; 302) der ersten Relevanzkategorie das erste Verarbeitungsschema zugeordnet wird; wobei einem Verarbeitungsbereich (310) mit mindestens einem Objekt (304) der zweiten Relevanzkategorie das zweite Verarbeitungsschema zugeordnet wird.
  4. Verfahren (400) nach einem der vorhergehenden Ansprüche, wobei die Verarbeitungsbereiche (306, 308, 310, 312) in einem aktuellen Zeitschritt gegenüber Verarbeitungsbereichen (306, 308, 310, 312) aus einem früheren Zeitschritt unter Berücksichtigung von in dem früheren Zeitschritt erkannten Objekten (104, 106, 108; 302, 304) verkleinert werden.
  5. Verfahren (400) nach einem der vorhergehenden Ansprüche, wobei das Verarbeitungsschema eine zu erkennende Merkmalsart und/oder eine Verarbeitungspriorität und/oder eine Verzögerungszeit und/oder eine Auflösung angibt.
  6. Verfahren (400) nach einem der vorhergehenden Ansprüche, wobei das Erkennen (420), Einfügen (430), Einteilen (440), Unterteilen (450) und/oder Zuordnen (460) basierend auf Informationen aus einer digitalen Karte der Umgebung des Fahrzeugs (102) und/oder auf in der Umgebung des Fahrzeugs (102) geltenden Verkehrsregeln und/oder auf einer vorgegebenen Trajektorie des Fahrzeugs (102) in einer digitalen Karte durchgeführt wird.
  7. Verfahren (400) nach Anspruch 6, weiter umfassend: Ermitteln, ob die erkannten Objekte (104, 106, 108; 302, 304) die vorgegebene Trajektorie des Fahrzeugs (102) voraussichtlich kreuzen; wenn ein erkanntes Objekt (104, 106, 108; 302, 304) die vorgegebene Trajektorie des Fahrzeugs (102) voraussichtlich kreuzt: Zuteilen des erkannten Objekts (104, 106, 108; 302, 304) zu einer Relevanzkategorie mit einer höheren Relevanz für das Fahrzeug (102); wenn ein erkanntes Objekt (104, 106, 108; 302, 304) die vorgegebene Trajektorie des Fahrzeugs (102) voraussichtlich nicht kreuzt: Zuteilen des erkannten Objekts (104, 106, 108; 302, 304) zu einer Relevanzkategorie mit einer niedrigeren Relevanz für das Fahrzeug (102).
  8. Verfahren (400) nach einem der vorhergehenden Ansprüche, wobei die Auswerteeinheit (116) ausgeführt ist, um über ein drahtloses Kommunikationsnetzwerk mit anderen Verkehrsteilnehmern zu kommunizieren, wobei das Verfahren (400) weiter umfasst: Empfangen von durch die anderen Verkehrsteilnehmer gesendeten Objektdaten (213) über Objekte (104, 106, 108; 302, 304) in der Umgebung des Fahrzeugs (102) in der Auswerteeinheit (116); Erkennen der Objekte (104, 106, 108; 302, 304) in der Umgebung des Fahrzeugs (102) basierend auf den Objektdaten (213).
  9. Verfahren (400) nach einem der vorhergehenden Ansprüche, wobei die Sensorik (110) mindestens zwei Sensoreinheiten (112, 114) mit sich zumindest teilweise überdeckenden Erfassungsbereichen umfasst; wobei die Erfassungsbereiche so in Verarbeitungsbereiche (306, 308, 310, 312) unterteilt werden, dass in mindestens einem Verarbeitungsbereich (306, 308, 310, 312) mindestens ein Objekt (104, 106, 108; 302, 304) durch die mindestens zwei Sensoreinheiten (112, 114) erfassbar ist.
  10. Computerprogramm, das, wenn es auf einem Prozessor ausgeführt wird, das Verfahren (400) nach einem der vorhergehenden Ansprüche durchführt.
  11. Computerlesbares Medium, auf dem ein Computerprogramm nach Anspruch 10 gespeichert ist.
  12. Fahrzeugsystem (100), umfassend: eine Sensorik (110) mit mindestens einer Sensoreinheit (112, 114) zum Erfassen einer Umgebung eines Fahrzeugs (102); eine mit der mindestens einen Sensoreinheit (112, 114) gekoppelte Auswerteeinheit (116), die ausgeführt ist, um ein Verfahren (400) nach einem der Ansprüche 1 bis 9 durchzuführen.
DE102020200876.0A 2020-01-24 2020-01-24 Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs Active DE102020200876B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020200876.0A DE102020200876B4 (de) 2020-01-24 2020-01-24 Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020200876.0A DE102020200876B4 (de) 2020-01-24 2020-01-24 Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs

Publications (2)

Publication Number Publication Date
DE102020200876A1 true DE102020200876A1 (de) 2021-07-29
DE102020200876B4 DE102020200876B4 (de) 2022-10-27

Family

ID=76753777

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020200876.0A Active DE102020200876B4 (de) 2020-01-24 2020-01-24 Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102020200876B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021211255A1 (de) 2021-10-06 2023-04-06 Zf Friedrichshafen Ag Computerimplementiertes Verfahren, Hardwaremodul und Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsys-tems zur Objekterkennung während einer Fahrt des Fahrsystems und automatisiert betreibbares Fahrsystem

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013201545A1 (de) 2013-01-30 2014-07-31 Bayerische Motoren Werke Aktiengesellschaft Erstellen eines Umfeldmodells für ein Fahrzeug
DE102016211547A1 (de) 2016-06-28 2017-12-28 Conti Temic Microelectronic Gmbh Scanner-System zur Erfassung von Objekten in der Umgebung eines Fahrzeugs
DE102017207960A1 (de) 2017-05-11 2018-11-15 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zur ortsaufgelösten detektion von einem fahrzeugexternen objekt mithilfe eines in einem fahrzeug verbauten sensors
DE102018214338A1 (de) 2018-08-24 2020-02-27 Continental Automotive Gmbh Verfahren zur Bestimmung von unfallrelevanten Parametern mittels eines Radarsystems eines Fahrzeugs

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013201545A1 (de) 2013-01-30 2014-07-31 Bayerische Motoren Werke Aktiengesellschaft Erstellen eines Umfeldmodells für ein Fahrzeug
DE102016211547A1 (de) 2016-06-28 2017-12-28 Conti Temic Microelectronic Gmbh Scanner-System zur Erfassung von Objekten in der Umgebung eines Fahrzeugs
DE102017207960A1 (de) 2017-05-11 2018-11-15 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zur ortsaufgelösten detektion von einem fahrzeugexternen objekt mithilfe eines in einem fahrzeug verbauten sensors
DE102018214338A1 (de) 2018-08-24 2020-02-27 Continental Automotive Gmbh Verfahren zur Bestimmung von unfallrelevanten Parametern mittels eines Radarsystems eines Fahrzeugs

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021211255A1 (de) 2021-10-06 2023-04-06 Zf Friedrichshafen Ag Computerimplementiertes Verfahren, Hardwaremodul und Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsys-tems zur Objekterkennung während einer Fahrt des Fahrsystems und automatisiert betreibbares Fahrsystem

Also Published As

Publication number Publication date
DE102020200876B4 (de) 2022-10-27

Similar Documents

Publication Publication Date Title
DE102014223363B4 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
EP3438901A1 (de) Testfahrtszenario-datenbanksystem für realitätsnahe virtuelle testfahrtszenarien
DE102017204404B3 (de) Verfahren und Vorhersagevorrichtung zum Vorhersagen eines Verhaltens eines Objekts in einer Umgebung eines Kraftfahrzeugs und Kraftfahrzeug
DE102019102205A1 (de) System und verfahren zur end-to-end-validierung von autonomen fahrzeugen
DE102012207620A1 (de) System und Verfahren für die Lichtsignaldetektierung
DE102021128041A1 (de) Verbesserung eines neuronalen fahrzeugnetzwerks
DE102016003261A1 (de) Verfahren zur Selbstlokalisierung eines Fahrzeugs in einer Fahrzeugumgebung
DE102021104044A1 (de) Neuronales netzwerk zur positionsbestimmung und objektdetektion
WO2020048669A1 (de) Verfahren zum bestimmen einer spurwechselangabe eines fahrzeugs, ein computerlesbares speichermedium und ein fahrzeug
DE102020200169B3 (de) Verfahren zur Zusammenführung mehrerer Datensätze für die Erzeugung eines aktuellen Spurmodells einer Fahrbahn und Vorrichtung zur Datenverarbeitung
DE102019123483B4 (de) Verfahren sowie Kraftfahrzeug-Steuereinheit zum Erfassen einer Umgebung eines Kraftfahrzeugs durch Fusionieren von Sensordaten auf Punktwolkenebene
EP3637311A1 (de) Vorrichtung und verfahren zum ermitteln von höheninformationen eines objekts in einer umgebung eines fahrzeugs
DE102021117850A1 (de) Fahrzeugbetrieb
DE102020200876B4 (de) Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs
DE102020214596A1 (de) Verfahren zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten einer Umfeldsensorik eines Fahrzeugs, Verfahren zum Erzeugen eines solchen Erkennungsmodells und Verfahren zum Ansteuern einer Aktorik eines Fahrzeugs
DE102017223621A1 (de) Verfahren und Steuereinheit zur Steuerung einer Funktion eines zumindest teilweise automatisiert fahrenden Fahrzeugs
DE102017122440A1 (de) Verfahren zum Lokalisieren und Weiterbilden einer digitalen Karte durch ein Kraftfahrzeug; Lokalisierungseinrichtung
DE102020122086A1 (de) Messen von vertrauen in tiefen neuronalen netzwerken
DE102023103171A1 (de) VERFAHREN UND VORRICHTUNG ZUM BESTIMMEN DER POSITION EINES FUßGÄNGERS
DE102020200875A1 (de) Verfahren zum Bereitstellen von Sensordaten durch eine Sensorik eines Fahrzeugs
DE102022107845A1 (de) Verfahren, System und Computerprogrammprodukt zur Auswahl von konkreten Szenarien
DE102022100545A1 (de) Verbesserte objekterkennung
DE102020134530A1 (de) Rückaufprallwarnsystem mit temporärem cnn
DE102019213403A1 (de) Verfahren zur sensorbasierten Lokalisation eines Egofahrzeuges, Egofahrzeug und ein Computerprogramm
DE102019004075A1 (de) Verfahren zum Bestimmen einer Relevanz eines Objekts in einer Umgebung eines Kraftfahrzeugs mittels eines Fahrerassistenzsystems sowie Fahrerassistenzsystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final