DE102020200875A1 - Method for providing sensor data by a sensor system of a vehicle - Google Patents

Method for providing sensor data by a sensor system of a vehicle Download PDF

Info

Publication number
DE102020200875A1
DE102020200875A1 DE102020200875.2A DE102020200875A DE102020200875A1 DE 102020200875 A1 DE102020200875 A1 DE 102020200875A1 DE 102020200875 A DE102020200875 A DE 102020200875A DE 102020200875 A1 DE102020200875 A1 DE 102020200875A1
Authority
DE
Germany
Prior art keywords
processing
sensor
sensor data
vehicle
processing area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102020200875.2A
Other languages
German (de)
Inventor
Axel Mühring
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102020200875.2A priority Critical patent/DE102020200875A1/en
Publication of DE102020200875A1 publication Critical patent/DE102020200875A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/009Priority selection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/20Data confidence level
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/30Data update rate

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (500) zum Bereitstellen von Sensordaten (118, 118', 120, 120') durch eine Sensorik (110) eines Fahrzeugs (102), wobei die Sensorik (110) mindestens eine Sensoreinheit (112, 114) zum Erfassen einer Umgebung des Fahrzeugs (102) und das Fahrzeug (102) eine Auswerteeinheit (116) zum Auswerten der Sensordaten (118, 118', 120, 120') aufweist. Das Verfahren (500) umfasst die folgenden Schritte: Erzeugen (510) von Sensordaten (118, 120) durch die mindestens eine Sensoreinheit (112, 114) und Senden (510) der Sensordaten (118, 120) an die Auswerteeinheit (116); Unterteilen (520) der Sensordaten (118, 120) in Verarbeitungsbereiche (306, 308, 310, 312) mit je einem Verarbeitungsschema, wobei ein Verarbeitungsschema angibt, wie Sensordaten für den Verarbeitungsbereich (306, 308, 310, 312) durch die mindestens eine Sensoreinheit (112, 114) bereitgestellt werden sollen; Senden (530) der Verarbeitungsbereiche (306, 308, 310, 312) an die mindestens eine Sensoreinheit (112, 114); Auswählen (540) zu übertragender Sensordaten (118', 120') aus den erzeugten Sensordaten (118, 120) für jeden der Verarbeitungsbereiche (306, 308, 310, 312) basierend auf den Verarbeitungsschemen; Übertragen (550) der ausgewählten Sensordaten (118', 120') an die Auswerteeinheit (116).

Figure DE102020200875A1_0000
The invention relates to a method (500) for providing sensor data (118, 118 ', 120, 120') by a sensor system (110) of a vehicle (102), the sensor system (110) at least one sensor unit (112, 114) for Detecting the surroundings of the vehicle (102) and the vehicle (102) has an evaluation unit (116) for evaluating the sensor data (118, 118 ', 120, 120'). The method (500) comprises the following steps: generation (510) of sensor data (118, 120) by the at least one sensor unit (112, 114) and sending (510) the sensor data (118, 120) to the evaluation unit (116); Subdividing (520) the sensor data (118, 120) into processing areas (306, 308, 310, 312) each with a processing scheme, a processing scheme specifying how sensor data for the processing area (306, 308, 310, 312) are processed by the at least one Sensor unit (112, 114) are to be provided; Sending (530) the processing areas (306, 308, 310, 312) to the at least one sensor unit (112, 114); Selecting (540) sensor data (118 ', 120') to be transmitted from the generated sensor data (118, 120) for each of the processing areas (306, 308, 310, 312) based on the processing schemes; Transmission (550) of the selected sensor data (118 ', 120') to the evaluation unit (116).
Figure DE102020200875A1_0000

Description

Die Erfindung betrifft ein Verfahren, ein Computerprogramm und ein computerlesbares Medium zum Bereitstellen von Sensordaten durch eine Sensorik eines Fahrzeugs. Des Weiteren betrifft die Erfindung ein Fahrzeugsystem.The invention relates to a method, a computer program and a computer-readable medium for providing sensor data by a sensor system of a vehicle. The invention also relates to a vehicle system.

Aktuelle ADAS-Algorithmen für automatisiertes Fahren (ADAS = Advanced Driver Assistance Systems) basieren zumeist auf einem vorwärtsgetriebenen Datenfluss, bei dem Daten überwiegend von einer Sensorik zu einer datenverarbeitenden Elektronik fließen. Dabei stellt die Sensorik in der Regel alle Daten in einer maximal möglichen Auflösung und Frequenz zur Verfügung. In den Algorithmen kann auf Basis dieser Daten eine Vielzahl von Fallunterscheidungen durchgeführt werden. Beispielsweise können verschiedene Szenarien, die in einer Umgebung des Fahrzeugs erkannt werden, in einem allgemeinen Umgebungsmodell abgelegt und dort teilweise miteinander kombiniert werden. Dementsprechend aufwendig kann die Validierung der in diesem Umgebungsmodell vorhandenen Daten sein.Current ADAS algorithms for automated driving (ADAS = Advanced Driver Assistance Systems) are mostly based on a forward-driven data flow in which data predominantly flows from a sensor system to a data processing electronics. The sensors usually provide all data in the maximum possible resolution and frequency. A large number of case distinctions can be made in the algorithms on the basis of this data. For example, different scenarios that are recognized in an environment of the vehicle can be stored in a general environment model and partially combined with one another there. The validation of the data available in this environment model can be correspondingly complex.

Die Sensorik kann beispielsweise eine Kamera umfassen, die Bilder einer Umgebung eines Fahrzeugs mit einer festen Auflösung und Aktualisierungsgeschwindigkeit zur Verfügung stellt.The sensor system can include, for example, a camera that provides images of the surroundings of a vehicle with a fixed resolution and update speed.

Es ist Aufgabe der Erfindung, die Bereitstellung von Sensordaten durch eine Sensorik eines Fahrzeugs zu verbessern.It is the object of the invention to improve the provision of sensor data by a sensor system of a vehicle.

Diese Aufgabe wird durch den Gegenstand der unabhängigen Ansprüche gelöst. Weitere Ausführungsformen der Erfindung ergeben sich aus den abhängigen Ansprüchen und aus der folgenden Beschreibung.This object is achieved by the subject matter of the independent claims. Further embodiments of the invention emerge from the dependent claims and from the following description.

Ein erster Aspekt der Erfindung betrifft ein Verfahren zum Bereitstellen von Sensordaten durch eine Sensorik eines Fahrzeugs. Die Sensorik umfasst mindestens eine Sensoreinheit zum Erfassen einer Umgebung des Fahrzeugs. Das Fahrzeug weist eine Auswerteeinheit zum Auswerten der Sensordaten auf. Das Verfahren umfasst folgende Schritte: Erzeugen von Sensordaten durch die mindestens eine Sensoreinheit und Senden der Sensordaten an die Auswerteeinheit; Unterteilen der Sensordaten in Verarbeitungsbereiche mit je einem Verarbeitungsschema, wobei ein Verarbeitungsschema angibt, wie Sensordaten für den Verarbeitungsbereich durch die mindestens eine Sensoreinheit bereitgestellt werden sollen; Senden der Verarbeitungsbereiche an die mindestens eine Sensoreinheit; Auswählen zu übertragender Sensordaten aus den erzeugten Sensordaten für jeden der Verarbeitungsbereiche basierend auf den Verarbeitungsschemen; Übertragen der ausgewählten Sensordaten an die Auswerteeinheit.A first aspect of the invention relates to a method for providing sensor data by a sensor system of a vehicle. The sensor system comprises at least one sensor unit for detecting the surroundings of the vehicle. The vehicle has an evaluation unit for evaluating the sensor data. The method comprises the following steps: generating sensor data by the at least one sensor unit and sending the sensor data to the evaluation unit; Dividing the sensor data into processing areas, each with a processing scheme, a processing scheme specifying how sensor data are to be provided for the processing area by the at least one sensor unit; Sending the processing areas to the at least one sensor unit; Selecting sensor data to be transmitted from the generated sensor data for each of the processing areas based on the processing schemes; Transmission of the selected sensor data to the evaluation unit.

Das Verfahren kann von einem die Auswerteeinheit und die Sensorik umfassenden Fahrzeugsystem durchgeführt werden. Die Auswerteeinheit kann beispielsweise Teil eines Bordcomputers des Fahrzeugs sein. Das Fahrzeugsystem kann beispielsweise ausgeführt sein, um die Umgebung des Fahrzeugs zu erkennen und das Fahrzeug entsprechend der erkannten Umgebung automatisiert zu steuern, d. h. zu lenken, zu beschleunigen, zu bremsen und/oder zu navigieren. Hierzu kann das Fahrzeugsystem entsprechende Aktoren wie etwa Lenk- oder Bremsaktoren oder Aktoren zur Motorsteuerung umfassen.The method can be carried out by a vehicle system comprising the evaluation unit and the sensor system. The evaluation unit can be part of an on-board computer of the vehicle, for example. The vehicle system can be designed, for example, to recognize the surroundings of the vehicle and to automatically control the vehicle in accordance with the recognized surroundings, i. H. to steer, accelerate, brake and / or navigate. For this purpose, the vehicle system can include corresponding actuators such as steering or braking actuators or actuators for engine control.

Unter einem Fahrzeug kann ein Kraftfahrzeug wie etwa ein Pkw, Lkw, Bus oder ein Motorrad verstanden werden.A vehicle can be understood to mean a motor vehicle such as a car, truck, bus or motorcycle.

Die Sensorik kann mehrere gleich- und/oder verschiedenartige Sensoreinheiten wie beispielsweise eine Kamera, einen Radar-, Lidar- oder Ultraschallsensor umfassen.The sensor system can include several identical and / or different sensor units such as a camera, a radar, lidar or ultrasonic sensor.

In die Sensoreinheit kann ein Vorverarbeitungsmodul zur Vorverarbeitung der Sensordaten in Hard- und/oder Software implementiert sein. Die Vorverarbeitung kann beispielsweise folgende prinzipielle Schritte umfassen: Aufnehmen eines Nutzsignals durch die Sensoreinheit und Wandeln des Nutzsignals in ein elektrisches Rohsignal (Signalaufnahme), Generieren von Rohdaten durch Interpretieren des Rohsignals als physikalische Messgröße (Signalverarbeitung), Extrahieren von Merkmalen wie Kanten, Flächen oder Extremwerten aus den Rohdaten (Merkmalsextraktion), Zuordnen der extrahierten Merkmale zu Objektkategorien (Datenassoziation). Das Auswählen der zu übertragenden Sensordaten kann beispielsweise durch das Vorverarbeitungsmodul erfolgen.A preprocessing module for preprocessing the sensor data in hardware and / or software can be implemented in the sensor unit. The preprocessing can include, for example, the following basic steps: recording a useful signal by the sensor unit and converting the useful signal into an electrical raw signal (signal recording), generating raw data by interpreting the raw signal as a physical measured variable (signal processing), extracting features such as edges, areas or extreme values from the raw data (feature extraction), assignment of the extracted features to object categories (data association). The sensor data to be transmitted can be selected, for example, by the preprocessing module.

Unter einem Verarbeitungsbereich kann ein Ausschnitt eines Erfassungsbereichs der Sensoreinheit bzw. ein Ausschnitt von den Erfassungsbereich abbildenden Sensordaten verstanden werden. Der Erfassungsbereich kann durch eine Reichweite und/oder ein Sichtfeld der Sensoreinheit definiert sein. Der Erfassungsbereich bzw. die Sensordaten können vollständig oder auch nur teilweise in Verarbeitungsbereiche unterteilt sein.A processing area can be understood to mean a section of a detection area of the sensor unit or a section of sensor data depicting the detection area. The detection area can be defined by a range and / or a field of view of the sensor unit. The detection area or the sensor data can be completely or only partially divided into processing areas.

Beispielsweise kann ein Verarbeitungsbereich einen Bildausschnitt eines erfassten Bildes oder einen Frequenzbereich eines erfassten Geräusches repräsentieren. Dementsprechend können unterschiedliche Verarbeitungsbereiche der Sensordaten unterschiedliche Bildausschnitte des erfassten Bildes bzw. unterschiedliche Frequenzbereiche des erfassten Geräusches repräsentieren.For example, a processing area can represent an image section of a captured image or a frequency range of a captured noise. Accordingly, different processing areas of the sensor data can represent different image details of the captured image or different frequency ranges of the captured noise.

Die Verarbeitungsbereiche können sich beispielsweise hinsichtlich einer Relevanz für das Fahrzeug voneinander unterscheiden.The processing areas can differ from one another, for example, in terms of relevance for the vehicle.

Das Unterteilen der Sensordaten in die Verarbeitungsbereiche kann basierend auf in der Umgebung des Fahrzeugs erkannten Objekten erfolgen. Die Erkennung der Objekte kann mithilfe eines Umgebungsmodells durchgeführt werden, wie nachfolgend näher beschrieben. Die Verarbeitungsbereiche können sich durch eine Relevanz der ihnen jeweils zugeordneten erkannten Objekte voneinander unterscheiden. So kann beispielsweise ein Verarbeitungsbereich, in dem ein an einem Fahrbahnrand befindliches Objekt erkannt wird, eine geringere Relevanz für das Fahrzeug haben als ein Verarbeitungsbereich, in dem ein auf einer Fahrbahn des Fahrzeugs befindliches Objekt erkannt wird.The subdivision of the sensor data into the processing areas can take place based on objects detected in the vicinity of the vehicle. The objects can be recognized using an environment model, as described in more detail below. The processing areas can differ from one another by the relevance of the recognized objects assigned to them. For example, a processing area in which an object located on the edge of the road is recognized may have less relevance for the vehicle than a processing area in which an object located on a roadway of the vehicle is recognized.

Die Sensorik kann beispielsweise mindestens zwei Sensoreinheiten mit zumindest teilweise überlappenden Erfassungsbereichen umfassen. Dabei können Sensordaten, die von der Sensoreinheit und mindestens einer weiteren Sensoreinheit erzeugt wurden, beispielsweise derart in Verarbeitungsbereiche unterteilt werden, dass mindestens ein Verarbeitungsbereich aus den Sensordaten der Sensoreinheit und mindestens ein Verarbeitungsbereich aus den Sensordaten der weiteren Sensoreinheit miteinander übereinstimmen.The sensor system can for example comprise at least two sensor units with at least partially overlapping detection areas. Sensor data generated by the sensor unit and at least one further sensor unit can be subdivided into processing areas, for example, in such a way that at least one processing area from the sensor data of the sensor unit and at least one processing area from the sensor data of the further sensor unit match one another.

Ein Verarbeitungsschema kann beispielsweise eine räumliche und/oder zeitliche Auflösung vorgeben, mit der die Umgebung des Fahrzeugs in dem betreffenden Verarbeitungsbereich erkannt werden soll, d. h. mit der die Sensoreinheit Sensordaten bezüglich des betreffenden Verarbeitungsbereichs für die Auswerteeinheit bereitstellen soll. Unterschiedliche Verarbeitungsbereiche können unterschiedliche oder gleiche Verarbeitungsschemen aufweisen.A processing scheme can, for example, specify a spatial and / or temporal resolution with which the surroundings of the vehicle in the relevant processing area are to be recognized, i.e. H. with which the sensor unit is to provide sensor data relating to the processing area in question for the evaluation unit. Different processing areas may have different or the same processing schemes.

Kurz zusammengefasst kann die Sensoreinheit ausgeführt sein, um einen Datenfluss von der Sensoreinheit zur Auswerteeinheit zu steuern, d. h. abhängig von den durch die Auswerteeinheit ermittelten Verarbeitungsbereichen entweder zu erhöhen oder zu reduzieren. Die Sensoreinheit kann beispielsweise ausgeführt sein, um Sensordaten kontinuierlich in einer vorgegebenen Datenqualität, etwa in einer höchstmöglichen Datenqualität, zu erzeugen. Aus diesen Sensordaten können dann basierend auf den Verarbeitungsschemen bestimmte an die Auswerteeinheit zu übertragende Datenbereiche ausgewählt werden. Dadurch kann vermieden werden, dass stets alle von der Sensoreinheit erzeugten Sensordaten in der vorgegebenen Datenqualität an die Auswerteeinheit übertragen werden. Somit kann letztendlich der Rechenaufwand beim Auswerten der Sensordaten in der Auswerteeinheit reduziert werden.Briefly summarized, the sensor unit can be designed to control a data flow from the sensor unit to the evaluation unit, i. H. to either increase or decrease depending on the processing areas determined by the evaluation unit. The sensor unit can, for example, be designed to continuously generate sensor data in a predetermined data quality, for example in the highest possible data quality. From this sensor data, certain data areas to be transmitted to the evaluation unit can then be selected based on the processing schemes. In this way it can be avoided that all the sensor data generated by the sensor unit are always transmitted to the evaluation unit in the specified data quality. In this way, the computational effort when evaluating the sensor data in the evaluation unit can ultimately be reduced.

Hochauflösende Sensoren können eine entsprechend komplexe Übertragung von Sensordaten zu einer die Sensordaten verarbeitenden Auswerteeinheit erfordern, sofern nicht bereits in den Sensoren selbst eine geeignete Vorverarbeitung der Sensordaten erfolgt. Die zunehmende Anzahl immer höher auflösender Sensoren in modernen Fahrzeugen geht mit einer zunehmenden Menge immer komplexerer Sensordaten einher. Es ist daher wünschenswert, wenn die Menge und/oder Komplexität der Sensordaten durch eine geeignete Vorverarbeitung bei gleichbleibender Erkennungsqualität maßgeblich reduziert wird, um die Gesamtkosten eines ADAS-Systems möglichst niedrig zu halten.High-resolution sensors can require a correspondingly complex transmission of sensor data to an evaluation unit that processes the sensor data, unless suitable preprocessing of the sensor data takes place in the sensors themselves. The increasing number of ever higher resolution sensors in modern vehicles is accompanied by an increasing amount of increasingly complex sensor data. It is therefore desirable if the amount and / or complexity of the sensor data is significantly reduced by suitable preprocessing while the recognition quality remains the same, in order to keep the overall costs of an ADAS system as low as possible.

Es wird daher ein Ansatz vorgeschlagen, durch den eine Sensorik eines Fahrzeugs einzelne Ausschnitte ihres Erfassungsbereichs gezielt, etwa gesteuert durch einen entsprechenden Algorithmus zur Umgebungserkennung, mit einem geringeren Datenaufwand als andere Ausschnitte erfassen kann, beispielsweise mit geringerer Auflösung und/oder geringerer Aktualisierungsgeschwindigkeit. Anders ausgedrückt kann die Sensorik konfiguriert sein, um Sensordaten selektiv, d. h. bezüglich einzelner Ausschnitte ihres Erfassungsbereichs, mit unterschiedlichen Auflösungen und/oder Aktualisierungsgeschwindigkeiten an die Auswerteeinheit auszugeben. Dadurch kann die Menge und/oder Komplexität der zu übertragenden und zu verarbeitenden Sensordaten im Vergleich zu Lösungen ohne eine solche selektive Vorverarbeitung durch die Sensorik deutlich reduziert werden.An approach is therefore proposed by which a sensor system of a vehicle can specifically detect individual sections of its detection area, for example controlled by a corresponding algorithm for environment recognition, with less data than other sections, for example with lower resolution and / or lower update speed. In other words, the sensor system can be configured to selectively receive sensor data, i. H. to output to the evaluation unit with regard to individual sections of their detection area, with different resolutions and / or update speeds. As a result, the quantity and / or complexity of the sensor data to be transmitted and processed can be significantly reduced in comparison to solutions without such selective preprocessing by the sensor system.

Gemäß einer Ausführungsform kann das Verarbeitungsschema eine gewünschte Auflösung des Verarbeitungsbereichs angeben. Dabei können für den Verarbeitungsbereich zu übertragende Sensordaten ausgewählt werden, die die gewünschte Auflösung aufweisen. Unter einer Auflösung kann beispielsweise eine Pixelanzahl oder eine Messfrequenz verstanden werden. Insbesondere kann die gewünschte Auflösung niedriger sein als eine Auflösung, mit der die Sensordaten beim Erfassen der Umgebung ursprünglich erzeugt wurden. Dazu können die erzeugten Sensordaten etwa in geeigneter Weise komprimiert, gefiltert und/oder umgewandelt werden. Somit kann eine Menge und/oder Komplexität der zu übertragenden Sensordaten gegenüber den erzeugten Sensordaten wirksam reduziert werden.According to one embodiment, the processing scheme can indicate a desired resolution of the processing area. Sensor data to be transmitted can be selected for the processing area that have the desired resolution. A resolution can be understood to mean, for example, a number of pixels or a measurement frequency. In particular, the desired resolution can be lower than a resolution with which the sensor data were originally generated when the surroundings were recorded. For this purpose, the generated sensor data can be compressed, filtered and / or converted in a suitable manner. Thus, a quantity and / or complexity of the sensor data to be transmitted can be effectively reduced compared to the sensor data generated.

Gemäß einer Ausführungsform kann das Verarbeitungsschema eine gewünschte Kontur des Verarbeitungsbereichs angeben. Dabei können für den Verarbeitungsbereich zu übertragende Sensordaten ausgewählt werden, die die gewünschte Kontur aufweisen. Für den Fall, dass die Sensoreinheit Bilder der Umgebung des Fahrzeugs erfasst, kann unter einer Kontur beispielsweise ein Rechteck, ein Kreis oder eine durch mehrere zusammenhängende Linien definierte Form verstanden werden. Für den Fall, dass die Sensoreinheit Geräusche in der Umgebung des Fahrzeugs erfasst, kann unter einer Kontur beispielsweise ein charakteristisches Frequenzmuster verstanden werden.According to one embodiment, the processing scheme can specify a desired contour of the processing area. In this case, sensor data to be transmitted can be selected for the processing area that have the desired contour. In the event that the sensor unit captures images of the surroundings of the vehicle, a contour can be, for example, a rectangle, a circle or a contiguous circle Lines defined form can be understood. In the event that the sensor unit detects noises in the vicinity of the vehicle, a contour can be understood to mean, for example, a characteristic frequency pattern.

Gemäß einer Ausführungsform kann das Verarbeitungsschema eine gewünschte Aktualisierungshäufigkeit, mit der der Verarbeitungsbereich aktualisiert werden soll, angeben. Dabei können für den Verarbeitungsbereich zu übertragende Sensordaten ausgewählt werden, die die gewünschte Aktualisierungshäufigkeit aufweisen. Unter einer Aktualisierungshäufigkeit kann im Allgemeinen eine Anzahl von Messungen pro Zeiteinheit verstanden werden. Beispielsweise kann mit der Aktualisierungshäufigkeit auch vorgegeben werden, ob eine Messung einmalig oder zyklisch wiederholt erfolgen soll, d. h., ob für den Verarbeitungsbereich Sensordaten, die in einer Einzelmessung erzeugt wurden, oder Sensordaten, die in mehreren aufeinanderfolgenden Messungen mit einer bestimmten Frequenz erzeugt wurden, ausgewählt werden sollen.According to one embodiment, the processing scheme can specify a desired update frequency with which the processing area is to be updated. In this case, sensor data to be transmitted can be selected for the processing area which have the desired update frequency. An update frequency can generally be understood as a number of measurements per time unit. For example, the update frequency can also be used to specify whether a measurement should be carried out once or repeatedly, i.e. That is, whether sensor data that was generated in a single measurement or sensor data that was generated in several successive measurements with a specific frequency should be selected for the processing area.

Gemäß einer Ausführungsform kann das Verarbeitungsschema eine gewünschte Änderung des Verarbeitungsbereichs über mehrere Zeitschritte angeben. Dabei können für den Verarbeitungsbereich zu übertragende Sensordaten ausgewählt werden, die die gewünschte Änderung des Verarbeitungsbereichs aufweisen. Anders ausgedrückt kann der Verarbeitungsbereich von Zeitschritt zu Zeitschritt variieren, beispielsweise in Form und/oder Größe. Dadurch kann der Verarbeitungsbereich an Änderungen in der Umgebung des Fahrzeugs dynamisch angepasst werden.According to one embodiment, the processing scheme can specify a desired change in the processing area over a number of time steps. In this case, sensor data to be transmitted can be selected for the processing area which have the desired change in the processing area. In other words, the processing area can vary from time step to time step, for example in shape and / or size. This allows the processing area to be dynamically adapted to changes in the surroundings of the vehicle.

Gemäß einer Ausführungsform kann das Verarbeitungsschema eine gewünschte Änderung einer Position des Verarbeitungsbereichs innerhalb eines Erfassungsbereichs der mindestens einen Sensoreinheit über mehrere Zeitschritte angeben. Dabei können für den Verarbeitungsbereich zu übertragende Sensordaten ausgewählt werden, die die gewünschte Änderung der Position des Verarbeitungsbereichs aufweisen. Für den Fall, dass die Sensoreinheit Bilder der Umgebung des Fahrzeugs erfasst, kann das Verarbeitungsschema beispielsweise eine Bewegung des Verarbeitungsbereichs in einer x- und/oder y-Richtung eines fahrzeugfesten Koordinatensystems angeben. Für den Fall, dass die Sensoreinheit Geräusche in der Umgebung des Fahrzeugs erfasst, kann das Verarbeitungsschema beispielsweise eine Verschiebung eines zu verarbeitenden Frequenzbereiches innerhalb eines durch die Sensoreinheit erfassbaren Frequenzbereichs angeben.According to one embodiment, the processing scheme can specify a desired change in a position of the processing area within a detection area of the at least one sensor unit over several time steps. In this case, sensor data to be transmitted can be selected for the processing area which have the desired change in the position of the processing area. In the event that the sensor unit captures images of the surroundings of the vehicle, the processing scheme can, for example, indicate a movement of the processing area in an x and / or y direction of a coordinate system fixed to the vehicle. In the event that the sensor unit detects noises in the vicinity of the vehicle, the processing scheme can, for example, indicate a shift in a frequency range to be processed within a frequency range that can be detected by the sensor unit.

Gemäß einer Ausführungsform kann das Verarbeitungsschema eine gewünschte Änderung einer Größe des Verarbeitungsbereichs über mehrere Zeitschritte angeben. Dabei können für den Verarbeitungsbereich zu übertragende Sensordaten ausgewählt werden, die die gewünschte Änderung der Größe des Verarbeitungsbereichs aufweisen. Für den Fall, dass die Sensoreinheit Bilder der Umgebung des Fahrzeugs erfasst, kann das Verarbeitungsschema beispielsweise eine Änderung eines Zoomfaktors für den Verarbeitungsbereich angeben. Für den Fall, dass die Sensoreinheit Geräusche in der Umgebung des Fahrzeugs erfasst, kann das Verarbeitungsschema beispielsweise eine Verbreiterung oder Verschmälerung eines zu verarbeitenden Frequenzbereiches innerhalb eines durch die Sensoreinheit erfassbaren Frequenzbereichs angeben.According to one embodiment, the processing scheme can specify a desired change in a size of the processing area over a number of time steps. In this case, sensor data to be transmitted can be selected for the processing area which have the desired change in the size of the processing area. In the event that the sensor unit captures images of the surroundings of the vehicle, the processing scheme can, for example, specify a change in a zoom factor for the processing area. In the event that the sensor unit detects noises in the vicinity of the vehicle, the processing scheme can specify, for example, a broadening or narrowing of a frequency range to be processed within a frequency range that can be detected by the sensor unit.

Beispielsweise kann ein Verarbeitungsbereich in einem ersten Zeitschritt so gewählt werden, dass zumindest ein Hauptabschnitt eines Objekts in dem Verarbeitungsbereich durch die mindestens eine Sensoreinheit erfassbar ist, was beispielsweise bei einer Ersterkennung eines bislang nicht detektierten Objekts der Fall sein kann. In einem zweiten Zeitschritt kann der Verarbeitungsbereich basierend auf dem in dem ersten Zeitschritt erkannten Hauptabschnitt des Objekts und auf einer voraussichtlichen Positions- und/oder Lageänderung des Objekts entsprechend verkleinert werden, sodass in dem verkleinerten Verarbeitungsbereich lediglich ein neu zu erkennender Teilabschnitt des Objekts durch die mindestens eine Sensoreinheit erfassbar ist. Somit kann eine im zweiten Zeitschritt zu verarbeitende Datenmenge im Vergleich zum ersten Zeitschritt maßgeblich reduziert werden.For example, a processing area can be selected in a first time step such that at least a main section of an object in the processing area can be detected by the at least one sensor unit, which can be the case, for example, when a previously undetected object is detected for the first time. In a second time step, the processing area can be correspondingly reduced in size based on the main section of the object recognized in the first time step and on an anticipated change in position and / or location of the object, so that in the reduced processing area, only a new section of the object to be recognized by the at least a sensor unit can be detected. Thus, the amount of data to be processed in the second time step can be significantly reduced compared to the first time step.

Gemäß einer Ausführungsform umfasst das Verfahren ferner die folgenden Schritte: Erkennen von Objekten in der Umgebung des Fahrzeugs basierend auf den Sensordaten; Zuordnen der erkannten Objekte zu Relevanzkategorien, wobei sich Objekte in unterschiedlichen Relevanzkategorien in einer Relevanz für das Fahrzeug voneinander unterscheiden. Dabei können die Sensordaten so in Verarbeitungsbereiche unterteilt werden, dass in jedem Verarbeitungsbereich mindestens ein Objekt einer Relevanzkategorie durch die mindestens eine Sensoreinheit erfassbar ist. Den Verarbeitungsbereichen kann je ein Verarbeitungsschema basierend auf der Relevanzkategorie zugeordnet werden.According to one embodiment, the method further comprises the following steps: recognizing objects in the vicinity of the vehicle based on the sensor data; Assigning the recognized objects to relevance categories, objects in different relevance categories differing from one another in a relevance for the vehicle. The sensor data can be divided into processing areas in such a way that at least one object of a relevance category can be detected by the at least one sensor unit in each processing area. A processing scheme based on the relevance category can each be assigned to the processing areas.

Das Erkennen der Objekte kann eine sogenannte Track-Schätzung, auch Tracking genannt, umfassen, bei der Zustände der Objekte, beispielsweise deren Position und/oder Lage und/oder deren Geschwindigkeit, geschätzt werden. Des Weiteren kann das Erkennen der Objekte eine Objekt-Diskriminierung umfassen, bei der die Objekte detektiert und/oder klassifiziert werden. Bei einer Detektion wird entschieden, ob ein Objekt vorhanden ist. Bei einer Klassifizierung wird ein Objekt einer vordefinierten Objektkategorie, die auch als Klasse bezeichnet werden kann, zugeordnet, beispielsweise einer Objektkategorie „Fahrzeug“ oder „Person“.The detection of the objects can include what is known as track estimation, also called tracking, in which the states of the objects, for example their position and / or location and / or their speed, are estimated. Furthermore, the detection of the objects can include object discrimination in which the objects are detected and / or classified. In the event of a detection, it is decided whether an object is present. When classified, an object becomes a predefined object category, which can also be referred to as a class, assigned, for example an object category “vehicle” or “person”.

Die Objekte können beispielsweise mithilfe eines Umgebungsmodells erkannt werden. Darunter kann eine dynamische Datenstruktur verstanden werden, in der relevante Objekte in der Umgebung des Fahrzeugs, etwa andere Fahrzeuge oder Infrastrukturelemente, in einem gemeinsamen Bezugssystem realitätsnah in Ort und Zeit dargestellt sind. Vereinfacht ausgedrückt kann mit dem Umgebungsmodell modelliert werden, wie sich das Fahrzeug selbst bewegt, welche anderen Verkehrsteilnehmer in der Umgebung des Fahrzeugs vorhanden sind, wie sich die anderen Verkehrsteilnehmer bewegen und in welchem Verkehrsraum, d. h. in welchem gemeinsamen Kontext, sich das Fahrzeug und die anderen Verkehrsteilnehmer bewegen. Das Umgebungsmodell kann auf einem physikalischen Modell basieren, mit dem eine aktuelle Situation des Fahrzeugs bewertet und mit einer bestimmten Wahrscheinlichkeit in die Zukunft prädiziert werden kann.The objects can be recognized, for example, using an environment model. This can be understood as a dynamic data structure in which relevant objects in the vicinity of the vehicle, such as other vehicles or infrastructure elements, are realistically represented in a common reference system in place and time. In simple terms, the environment model can be used to model how the vehicle itself moves, which other road users are in the vicinity of the vehicle, how the other road users move and in which traffic area, i.e. H. in which common context, the vehicle and the other road users move. The environment model can be based on a physical model with which a current situation of the vehicle can be evaluated and predicted with a certain probability into the future.

Die Bewegung des Fahrzeugs kann beispielsweise durch ein Eigenbewegungsmodell, im einfachsten Fall etwa ein kinematisches, lineares Einspurmodell, und/oder durch eine Fahrerabsichtserkennung ermittelt werden. Der Verkehrsraum kann beispielsweise durch eine Straßenmarkierungserkennung, eine Erkennung frei befahrbarer Bereiche, eine Lokalisation relativ zu einem Fahrstreifen und/oder in einer digitalen Karte und/oder eine Erkennung von Verkehrszeichen und/oder Verkehrssignalanlagen ermittelt werden. Die Objekte können beispielsweise als Punktmodelle und/oder ausgedehnte zwei- und/oder dreidimensionale Modelle im Umgebungsmodell modelliert sein. Ein solches Objektmodell kann beispielsweise eine Position, eine Geschwindigkeit und/oder einen Gierwinkel eines Objekts relativ zum Fahrzeug beschreiben und basierend auf den Sensordaten der Sensorik fortlaufend schätzen. Zusätzlich kann das Objektmodell translatorische Beschleunigungskomponenten und/oder eine Gierrate des Objekts beschreiben. Hierzu ist es zweckmäßig, wenn die Sensorik ausgeführt ist, um Geschwindigkeiten direkt zu messen, etwa mittels eines Radarsensors.The movement of the vehicle can be determined, for example, by a model of its own movement, in the simplest case for example a kinematic, linear single-track model, and / or by a driver's intention recognition. The traffic area can for example be determined by road marking recognition, recognition of freely passable areas, localization relative to a lane and / or in a digital map and / or recognition of traffic signs and / or traffic signal systems. The objects can be modeled in the environment model, for example, as point models and / or extended two- and / or three-dimensional models. Such an object model can, for example, describe a position, a speed and / or a yaw angle of an object relative to the vehicle and continuously estimate it based on the sensor data of the sensor system. In addition, the object model can describe translational acceleration components and / or a yaw rate of the object. For this purpose, it is useful if the sensor system is designed to measure speeds directly, for example by means of a radar sensor.

Die Objekte können beispielsweise basierend auf einer Fusion von Sensordaten mehrerer Sensoreinheiten erkannt werden. Zusätzlich können Informationen aus einer beispielsweise hochauflösenden digitalen Karte und/oder fahrzeugexterne, über ein Car2X-Kommunikationsnetzwerk empfangene Informationen zur Erkennung der Objekte genutzt werden.The objects can be recognized, for example, based on a fusion of sensor data from several sensor units. In addition, information from, for example, a high-resolution digital map and / or information received outside the vehicle via a Car2X communication network can be used to identify the objects.

Vereinfacht ausgedrückt ermöglicht diese Ausführungsform eine Priorisierung der Verarbeitungsbereiche, je nachdem, welche Objekte in den Verarbeitungsbereichen durch die Sensoreinheit erfassbar sind. Beispielsweise können Objekte mit einer höheren Relevanz für das Fahrzeug durch Zuordnen eines entsprechenden Verarbeitungsschemas zu dem die Objekte umfassenden Verarbeitungsbereich mit einer höheren Genauigkeit getrackt werden als Objekte mit einer geringeren Relevanz für das Fahrzeug.To put it simply, this embodiment enables the processing areas to be prioritized, depending on which objects in the processing areas can be detected by the sensor unit. For example, objects with a higher relevance for the vehicle can be tracked with a higher accuracy than objects with a lower relevance for the vehicle by assigning a corresponding processing scheme to the processing area comprising the objects.

Gemäß einer Ausführungsform kann basierend auf einem Verarbeitungsschema, das einem Verarbeitungsbereich mit mindestens einem Objekt einer höheren Relevanzkategorie zugeordnet ist, eine größere Menge zu übertragender Sensordaten ausgewählt werden als basierend auf einem Verarbeitungsschema, das einem Verarbeitungsbereich mit mindestens einem Objekt einer niedrigeren Relevanzkategorie zugeordnet ist. Dadurch kann ein Datenfluss von der Sensoreinheit zur Auswerteeinheit abhängig von einer Relevanz der durch die Sensoreinheit zu erfassenden Objekte gesteuert werden. Anders ausgedrückt kann der Datenfluss umso niedriger sein, je weniger relevant die zu erfassenden Objekte sind. Auch kann dadurch erreicht werden, dass bei gleich bleibendem Datenfluss eine größere Datenmenge zur Erkennung relevanterer Objekte zur Verfügung steht, indem eine zur Erkennung weniger relevanter Objekte erforderliche Datenmenge in entsprechendem Maß reduziert wird.According to one embodiment, a larger amount of sensor data to be transmitted can be selected based on a processing scheme that is assigned to a processing area with at least one object of a higher relevance category than based on a processing scheme that is assigned to a processing area with at least one object of a lower relevance category. As a result, a data flow from the sensor unit to the evaluation unit can be controlled depending on the relevance of the objects to be detected by the sensor unit. In other words, the less relevant the objects to be recorded, the lower the data flow. It can also be achieved in this way that, with the data flow remaining the same, a larger amount of data is available for recognizing more relevant objects, in that the amount of data required for recognizing less relevant objects is correspondingly reduced.

Gemäß einer Ausführungsform kann ein Verarbeitungsbereich mit mindestens einem Objekt einer höheren Relevanzkategorie mit einer höheren Priorität an die mindestens eine Sensoreinheit gesendet werden als ein Verarbeitungsbereich mit mindestens einem Objekt einer niedrigeren Relevanzkategorie.According to one embodiment, a processing area with at least one object of a higher relevance category with a higher priority can be sent to the at least one sensor unit than a processing area with at least one object of a lower relevance category.

Ergänzend oder alternativ kann ein Verarbeitungsbereich mit mindestens einem Objekt einer höheren Relevanzkategorie mit einer höheren Priorität von der mindestens einen Sensoreinheit verarbeitet werden als ein Verarbeitungsbereich mit mindestens einem Objekt einer niedrigeren Relevanzkategorie.Additionally or alternatively, a processing area with at least one object of a higher relevance category with a higher priority can be processed by the at least one sensor unit than a processing area with at least one object of a lower relevance category.

Die Priorität kann beispielsweise durch eine maximale Wartezeit zwischen einem Empfangen der Verarbeitungsbereiche in der Sensoreinheit und einem Übertragen der ausgewählten Sensordaten an die Auswerteeinheit abgebildet sein.The priority can be mapped, for example, by a maximum waiting time between receiving the processing areas in the sensor unit and transmitting the selected sensor data to the evaluation unit.

Weitere Aspekte der Erfindung betreffen ein Computerprogramm, das, wenn es auf einem Prozessor ausgeführt wird, das Verfahren, wie es im Vorangehenden und im Folgenden beschrieben ist, durchführt, sowie ein computerlesbares Medium, auf dem ein derartiges Computerprogramm gespeichert ist. Ein computerlesbares Medium kann dabei eine Harddisk, ein USB-Speichergerät, ein RAM, ein ROM, ein EPROM oder ein Flash-Speicher sein. Ein computerlesbares Medium kann auch ein Datenkommunikationsnetzwerk, wie beispielsweise das Internet, das den Download eines Programmcodes ermöglicht, sein. Das computerlesbare Medium kann ein transitorisches oder nicht transitorisches Medium sein. Merkmale des Verfahrens, wie es im Vorangehenden und im Folgenden beschrieben ist, können auch Merkmale des Computerprogramms und/oder des computerlesbaren Mediums sein.Further aspects of the invention relate to a computer program which, when it is executed on a processor, carries out the method as described above and below, as well as a computer-readable medium on which such a computer program is stored. A computer-readable medium can be a hard disk, a USB storage device, a RAM, a ROM, an EPROM or a flash memory. On Computer-readable medium can also be a data communication network, such as the Internet, for example, which enables program code to be downloaded. The computer readable medium can be transitory or non-transitory. Features of the method, as described above and below, can also be features of the computer program and / or the computer-readable medium.

Ein weiterer Aspekt der Erfindung betrifft ein Fahrzeugsystem, das ausgeführt ist, um das Verfahren, wie es im Vorangehenden und im Folgenden beschrieben ist, durchzuführen. Dazu umfasst das Fahrzeugsystem eine Sensorik mit mindestens einer Sensoreinheit zum Erfassen einer Umgebung eines Fahrzeugs und eine mit der mindestens einen Sensoreinheit gekoppelte Auswerteeinheit. Merkmale des Verfahrens, wie es im Vorangehenden und im Folgenden beschrieben ist, können auch Merkmale des Fahrzeugsystems sein und umgekehrt.Another aspect of the invention relates to a vehicle system that is designed to carry out the method as described above and below. For this purpose, the vehicle system comprises a sensor system with at least one sensor unit for detecting the surroundings of a vehicle and an evaluation unit coupled to the at least one sensor unit. Features of the method, as described above and below, can also be features of the vehicle system and vice versa.

Im Folgenden werden Ausführungsbeispiele der Erfindung mit Bezug auf die beiliegenden Figuren detailliert beschrieben.

  • 1 zeigt schematisch ein Fahrzeugsystem gemäß einem Ausführungsbeispiel der Erfindung.
  • 2 zeigt ein Blockschaltbild einer Auswerteeinheit aus 1.
  • 3 zeigt schematisch einen Erfassungsbereich einer Sensorik aus 1.
  • 4 zeigt ein Blockschaltbild einer Kamera aus 1.
  • 5 zeigt ein Ablaufdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel der Erfindung.
In the following, exemplary embodiments of the invention are described in detail with reference to the accompanying figures.
  • 1 shows schematically a vehicle system according to an embodiment of the invention.
  • 2 shows a block diagram of an evaluation unit from 1 .
  • 3 shows schematically a detection area of a sensor system 1 .
  • 4th shows a block diagram of a camera 1 .
  • 5 shows a flow chart of a method according to an embodiment of the invention.

Die in den Figuren verwendeten Bezugszeichen und ihre Bedeutung sind in zusammenfassender Form in der Liste der Bezugszeichen aufgeführt. Grundsätzlich sind identische oder ähnliche Teile mit den gleichen Bezugszeichen versehen.The reference symbols used in the figures and their meaning are given in summarized form in the list of reference symbols. In principle, identical or similar parts are provided with the same reference symbols.

1 zeigt schematisch ein Fahrzeugsystem 100, das ein Fahrzeug 102 umfasst. Beispielhaft fährt das Fahrzeug 102 auf einer durch zwei Fahrbahnränder 104 begrenzten Fahrbahn 106. Neben einem der beiden Fahrbahnränder 104 befindet sich ein Baum 108. Das Fahrzeug 102 ist mit einer Sensorik 110 zum Erfassen einer Umgebung des Fahrzeugs 102 ausgestattet, die hier durch die Fahrbahn 106 und den Baum 108 schematisch dargestellt ist. In diesem Beispiel umfasst die Sensorik 110 eine Kamera 112 und einen Radarsensor 114 als Sensoreinheiten. Des Weiteren umfasst das Fahrzeugsystem 100 eine Auswerteeinheit 116, etwa einen Bordcomputer, zum Auswerten von durch die Sensorik 110 erzeugten Sensordaten, hier von Kameradaten 118 der Kamera 112 und von Radardaten 120 des Radarsensors 114. Die Kameradaten 118 können zwei- oder dreidimensionale Bilder der Umgebung umfassen. Die Radardaten 114 können Messwerte von Abständen und/oder Geschwindigkeiten von Objekten in der Umgebung relativ zum Fahrzeug 102 umfassen. Teil des Fahrzeugsystems 100 ist auch eine Aktorik 122, die einen oder mehrere Aktoren zum Steuern des Fahrzeugs 102, etwa einen Lenk- oder Bremsaktor, umfasst. 1 shows schematically a vehicle system 100 that is a vehicle 102 includes. The vehicle is driving as an example 102 on one by two roadsides 104 limited roadway 106 . Next to one of the two edges of the road 104 there is a tree 108 . The vehicle 102 is with a sensor system 110 for detecting an environment of the vehicle 102 equipped here by the roadway 106 and the tree 108 is shown schematically. In this example, the sensor system includes 110 a camera 112 and a radar sensor 114 as sensor units. The vehicle system also includes 100 an evaluation unit 116 , such as an on-board computer, for evaluating by the sensors 110 generated sensor data, here from camera data 118 the camera 112 and from radar data 120 of the radar sensor 114 . The camera data 118 can include two- or three-dimensional images of the environment. The radar data 114 can measure the distances and / or speeds of objects in the vicinity relative to the vehicle 102 include. Part of the vehicle system 100 is also an actuator 122 that have one or more actuators to control the vehicle 102 , for example a steering or braking actuator.

Die Auswerteeinheit 116 ist ausgeführt, um aus den Sensordaten 118, 120 Merkmale wie Kanten, Flächen oder Punkte zu extrahieren und die extrahierten Merkmalen hinterlegten Objektkategorien zuzuordnen, hier beispielsweise den Objektkategorien „Baum“ oder „Fahrbahnrand“, um den Baum 108 und die Fahrbahnränder 104 als Objekte in der Umgebung des Fahrzeugs 102 zu erkennen und relativ zum Fahrzeug 102 zu verorten. Auf Basis der erkannten Objekte 104, 106, 108 erzeugt oder aktualisiert die Auswerteeinheit 116 ein dreidimensionales Umgebungsmodell der Umgebung des Fahrzeugs 102. In dem Umgebungsmodell werden zum einen jeweilige Positionen, Lagen und Objektkategorien der erkannten Objekte 104, 106, 108 gespeichert. Um zum anderen zu erwartende Bewegungen der Objekte 104, 106, 108 möglichst realitätsnah vorherzusagen, ist das Umgebungsmodell als physikalisches Modell aufgebaut. Voraussichtliche Änderungen von Positionen, Lagen oder Geschwindigkeiten der Objekte 104, 106, 108 werden darin mithilfe einer Physik-Engine unter Berücksichtigung physikalischer Gesetzmäßigkeiten berechnet. Ferner ist die Auswerteeinheit 116 konfiguriert, um aus den Sensordaten 118, 120 mithilfe des Umgebungsmodells Bereiche in der Umgebung des Fahrzeugs 102 zu bestimmen, die sich voneinander hinsichtlich einer Relevanz für das Fahrzeug 102 unterscheiden. Je nach ihrer Relevanz weist die Auswerteeinheit 116 jedem dieser Bereiche, auch Verarbeitungsbereiche genannt, ein Verarbeitungsschema zu, das angibt, mit welcher Genauigkeit Objekte in dem betreffenden Bereich erkannt werden sollen. Beispielsweise ermittelt die Auswerteeinheit 116 in dem in 1 gezeigten Beispiel, dass der Baum 108 mit einer geringeren Qualität, d. h. beispielsweise mit einer geringeren Auflösung, verfolgt, detektiert und/oder klassifiziert werden soll als ein dem Fahrzeug 102 entgegenkommendes Fahrzeug.The evaluation unit 116 is running to get from the sensor data 118 , 120 To extract features such as edges, surfaces or points and to assign the extracted features to stored object categories, here for example the object categories "tree" or "roadside" around the tree 108 and the edges of the road 104 as objects in the vicinity of the vehicle 102 recognizable and relative to the vehicle 102 to locate. Based on the detected objects 104 , 106 , 108 generates or updates the evaluation unit 116 a three-dimensional model of the surroundings of the vehicle 102 . On the one hand, the respective positions, locations and object categories of the recognized objects are shown in the environment model 104 , 106 , 108 saved. On the other hand, the expected movements of the objects 104 , 106 , 108 To predict as realistically as possible, the environment model is built up as a physical model. Anticipated changes in positions, locations or speeds of the objects 104 , 106 , 108 are calculated with the help of a physics engine taking into account physical laws. Furthermore, the evaluation unit 116 configured to get from the sensor data 118 , 120 areas in the vicinity of the vehicle using the environment model 102 to determine which are different from each other in terms of relevance to the vehicle 102 distinguish. Depending on its relevance, the evaluation unit 116 Each of these areas, also called processing areas, is assigned a processing scheme that specifies the accuracy with which objects in the relevant area are to be recognized. For example, the evaluation unit determines 116 in the in 1 example shown that the tree 108 with a lower quality, ie for example with a lower resolution, is to be tracked, detected and / or classified than a vehicle 102 oncoming vehicle.

Die Auswerteeinheit 116 ist zudem konfiguriert, um das Fahrzeug 102 automatisiert zu steuern. Dazu steuert die Auswerteeinheit 116 die Aktorik 122 entsprechend der mit dem Umgebungsmodell erkannten Umgebung des Fahrzeugs 102 an.The evaluation unit 116 is also configured to the vehicle 102 automated control. The evaluation unit controls this 116 the actuators 122 according to the surroundings of the vehicle recognized with the environmental model 102 at.

Die Verarbeitung der Sensordaten 118, 120 durch die Auswerteeinheit 116 sowie deren Bereitstellung durch die Sensorik 110 werden nachfolgend näher beschrieben.The processing of the sensor data 118 , 120 through the evaluation unit 116 As well as their Provision by the sensors 110 are described in more detail below.

2 zeigt schematisch eine beispielhafte Konfiguration der Auswerteeinheit 116 aus 1. Die Auswerteeinheit 116 umfasst ein Vorverarbeitungsmodul 200 mit einem Kameramodul 202 zur Vorverarbeitung der Kameradaten 118 und einem Radarmodul 204 zur Vorverarbeitung der Radardaten 120. Alle hierin genannten Module können Software-Komponenten eines in der Auswerteeinheit 116 ausgeführten Computerprogramms sein. 2 shows schematically an exemplary configuration of the evaluation unit 116 out 1 . The evaluation unit 116 includes a preprocessing module 200 with a camera module 202 for preprocessing the camera data 118 and a radar module 204 for preprocessing the radar data 120 . All modules mentioned here can be software components in the evaluation unit 116 be executed computer program.

In dem Vorverarbeitungsmodul 200 findet beispielsweise eine Fusion der Kameradaten 118 mit den Radardaten 120 statt, um die Positionen, Lagen und Objektkategorien der Objekte 104, 106, 108 zu erkennen. Ein Umgebungsmodul 206 empfängt von dem Vorverarbeitungsmodul 200 Erkennungsdaten 208, die die Positionen, Lagen und Objektkategorien der erkannten Objekte 104, 106, 108 enthalten. Anhand der Erkennungsdaten 208 fügt das Umgebungsmodul 206 die erkannten Objekte 104, 106, 108 in ein Umgebungsmodell ein, das die Umgebung des Fahrzeugs 102 beispielsweise objektbasiert in einem dreidimensionalen Raum darstellt. Alternativ oder zusätzlich kann die Darstellung auch rasterbasiert erfolgen. Anhand von Positionen und Lagen der Objekte 104, 106, 108, die in früheren Zeitschritten ermittelt wurden, berechnet das Umgebungsmodul 206 für jedes Objekt eine voraussichtliche Objekttrajektorie. Zur Berechnung der voraussichtlichen Objekttrajektorien kann das Umgebungsmodul 206 auf ein Physik-Modul 210 zurückgreifen, auch Physik-Engine genannt, in dem Bewegungen und Positionen der erkannten Objekte 104, 106, 108 basierend auf physikalischen Gesetzmäßigkeiten berechnet und plausibilisiert werden.In the preprocessing module 200 finds, for example, a fusion of the camera data 118 with the radar data 120 instead of the positions, locations and object categories of the objects 104 , 106 , 108 to recognize. An environmental module 206 receives from the preprocessing module 200 Detection data 208 showing the positions, locations and object categories of the detected objects 104 , 106 , 108 contain. Based on the recognition data 208 adds the environment module 206 the detected objects 104 , 106 , 108 into an environment model that shows the surroundings of the vehicle 102 for example object-based in a three-dimensional space. As an alternative or in addition, the representation can also take place on a raster basis. Based on the positions and locations of the objects 104 , 106 , 108 that were determined in earlier time steps are calculated by the environment module 206 a probable object trajectory for each object. To calculate the probable object trajectories, the environment module 206 on a physics module 210 fall back, also called physics engine, in the movements and positions of the detected objects 104 , 106 , 108 can be calculated and checked for plausibility based on physical laws.

Das Vorverarbeitungsmodul 200 kann optional ausgeführt sein, um Objektdaten 213 drahtlos über ein Car2X-Kommunikationsnetzwerk, beispielsweise von anderen Fahrzeugen oder Infrastrukturelementen, zu empfangen und zur Objekterkennung auszuwerten. Die Objektdaten 213 können beispielsweise Daten über Objekte in einer Umgebung der anderen Fahrzeuge und/oder über die Objekte 104, 106, 108 in der Umgebung des Fahrzeugs 102, sofern diese von den anderen Fahrzeugen erfasst wurden, enthalten.The preprocessing module 200 can optionally be designed to include object data 213 to be received wirelessly via a Car2X communication network, for example from other vehicles or infrastructure elements, and evaluated for object recognition. The object data 213 for example, data about objects in the vicinity of the other vehicles and / or about the objects 104 , 106 , 108 around the vehicle 102 if they were recorded by the other vehicles.

Zusätzlich teilt das Umgebungsmodul 206 die erkannten und mithilfe des Physik-Moduls 210 plausibilisierten Objekte 104, 106, 108 in Relevanzkategorien ein. Mithilfe dieser Einteilung können die Objekte 104, 106, 108 hinsichtlich ihrer jeweiligen Relevanz für das Fahrzeug 102 voneinander unterschieden werden. Je nach Relevanzkategorie können die Objekte 104, 106, 108 dann in einem nachfolgenden Zeitschritt mit unterschiedlicher Qualität von der Sensorik 110 erfasst und/oder von der Vorverarbeitungseinheit 200 detektiert werden.In addition, the environmental module divides 206 the recognized and using the physics module 210 objects checked for plausibility 104 , 106 , 108 into relevance categories. With the help of this classification, the objects 104 , 106 , 108 with regard to their respective relevance for the vehicle 102 be distinguished from each other. Depending on the relevance category, the objects 104 , 106 , 108 then in a subsequent time step with different quality from the sensors 110 detected and / or by the preprocessing unit 200 can be detected.

Wie die Objekte 104, 106, 108 mit unterschiedlicher Relevanz zu erfassen und/oder zu detektieren sind, wird der Sensorik 110 bzw. dem Vorverarbeitungsmodul 200 durch ein mit dem Umgebungsmodul 206 verbundenes Rückkopplungsmodul 212 mitgeteilt. Das Rückkopplungsmodul 212 sendet dazu eine entsprechende Verarbeitungsinformation 214 an die Sensorik 110 bzw. das Vorverarbeitungsmodul 200.Like the objects 104 , 106 , 108 are to be recorded and / or detected with different relevance, the sensor system 110 or the preprocessing module 200 by one with the environmental module 206 connected feedback module 212 communicated. The feedback module 212 sends corresponding processing information 214 to the sensors 110 or the preprocessing module 200 .

3 veranschaulicht beispielhaft, wie ein Erfassungsbereich 300 der Sensorik 110 in Bereiche unterschiedlicher Relevanz unterteilt wird. Der Erfassungsbereich 300 kann als ein Gesamterfassungsbereich angesehen werden, der sich aus einzelnen Erfassungsbereichen von Sensoreinheiten der Sensorik 110, hier der Kamera 112 und dem Radarsensor 114, zusammensetzt. 3 illustrates an example of how a detection area 300 the sensors 110 is divided into areas of different relevance. The detection area 300 can be viewed as a total detection area, which is made up of individual detection areas of sensor units of the sensor system 110 , here the camera 112 and the radar sensor 114 , composed.

Der Erfassungsbereich 300 deckt beispielsweise einen Bereich der Umgebung des Fahrzeugs 102 ab, in dem sich die Fahrbahn 106 mit den Fahrbahnrändern 104 und der Baum 108 befinden. In dem Erfassungsbereich 300 befinden sich ferner ein Haus 302 und ein dem Fahrzeug 102 auf einer linken Fahrspur entgegenkommendes Fahrzeug 304.The detection area 300 covers, for example, an area around the vehicle 102 from where the roadway is 106 with the edges of the road 104 and the tree 108 are located. In the detection area 300 there is also a house 302 and on the vehicle 102 oncoming vehicle in a left lane 304 .

Das Umgebungsmodul 206 teilt die im Erfassungsbereich 300 erfassten und erkannten Objekte 104, 106, 108, 302, 304 in zwei unterschiedliche Relevanzkategorien ein, indem die Fahrbahn 106, der Baum 108 und das Haus 102 als statische Objekte klassifiziert werden und das entgegenkommende Fahrzeug 304 als dynamisches Objekt klassifiziert wird. Die dynamischen Objekte unterscheiden sich von den statischen Objekten durch eine höhere Relevanz für das Fahrzeug 102. Je nach Ausführungsbeispiel können die Objekte auch in mehr als zwei unterschiedliche Relevanzkategorien eingeteilt werden. Beispielsweise können die Objekte zusätzlich anhand ihrer Relativbewegung zu dem Fahrzeug 102 klassifiziert werden, etwa um zu erkennen, ob sich ein Objekt auf das Fahrzeug 102 zubewegt oder davon wegbewegt.The environmental module 206 divides those in the detection area 300 detected and recognized objects 104 , 106 , 108 , 302 , 304 into two different relevance categories by the roadway 106 , the tree 108 and the house 102 classified as static objects and the oncoming vehicle 304 is classified as a dynamic object. The dynamic objects differ from the static objects in that they are more relevant to the vehicle 102 . Depending on the exemplary embodiment, the objects can also be divided into more than two different relevance categories. For example, the objects can also be based on their relative movement to the vehicle 102 be classified, for example, to recognize whether an object is on the vehicle 102 moved towards or away from it.

Entsprechend dieser Klassifizierung wird der Erfassungsbereich 300 beispielsweise in vier Verarbeitungsbereiche unterteilt. Die Unterteilung erfolgt basierend auf den im Umgebungsmodell hinterlegten Positionen und Lagen der erkannten Objekte und der Sensoreinheiten 112, 114. Dabei umfasst ein erster Verarbeitungsbereich 306 einen Bereich links der Fahrbahn 106 mit dem Haus 302, ein zweiter Verarbeitungsbereich 308 einen Bereich rechts der Fahrbahn 106 mit dem Baum 108, ein dritter Verarbeitungsbereich 310 die linke Fahrspur mit dem entgegenkommenden Fahrzeug 304 und ein vierter Verarbeitungsbereich 312 eine rechte Fahrspur, auf dem sich das Fahrzeug 102 fortbewegt.The detection area is based on this classification 300 for example divided into four processing areas. The subdivision is based on the positions and locations of the detected objects and the sensor units stored in the environment model 112 , 114 . This includes a first processing area 306 an area to the left of the lane 106 with the house 302 , a second processing area 308 an area to the right of the lane 106 with the tree 108 , a third processing area 310 the left lane with the oncoming vehicle 304 and a fourth Processing area 312 a right lane on which the vehicle is located 102 moved.

Die Verarbeitungsbereiche 306, 308, 312 haben beispielsweise jeweils die gleiche Relevanz bezüglich des Fahrzeugs 102. Der dritte Verarbeitungsbereich 310 hat aufgrund des entgegenkommenden Fahrzeugs 104 eine höhere Relevanz als die übrigen Verarbeitungsbereiche 306, 308, 312. Alternativ kann dem vierten Verarbeitungsbereich 312 eine mittlere Relevanz zugeordnet werden, die zwischen der Relevanz der Verarbeitungsbereiche 306, 308 und der Relevanz des dritten Verarbeitungsbereichs 310 liegt.The processing areas 306 , 308 , 312 each have the same relevance with regard to the vehicle, for example 102 . The third processing area 310 has due to the oncoming vehicle 104 a higher relevance than the other processing areas 306 , 308 , 312 . Alternatively, the fourth processing area 312 A medium relevance can be assigned, which is between the relevance of the processing areas 306 , 308 and the relevance of the third processing area 310 lies.

Die vier Verarbeitungsbereiche 306, 308, 310, 312 sind so angeordnet, dass darin befindliche Objekte jeweils durch die Kamera 112 und/oder den Radarsensor 114 erfasst werden können.The four processing areas 306 , 308 , 310 , 312 are arranged in such a way that objects located therein each through the camera 112 and / or the radar sensor 114 can be captured.

Die in 3 gezeigte Unterteilung des Erfassungsbereichs 300 in die Verarbeitungsbereiche 306, 308, 310, 312 ist lediglich beispielhaft gewählt. Alternativ kann der Erfassungsbereich 300 beliebig anders unterteilt sein. Beispielsweise kann die Unterteilung auch so erfolgen, dass jedem Verarbeitungsbereich eine andere Relevanzkategorie zugeordnet ist. Auch kann beispielsweise ein Erfassungsbereich der Kamera 112 unabhängig von einem Erfassungsbereich des Radarsensors 114 in Verarbeitungsbereiche unterteilt werden und umgekehrt.In the 3 Subdivision of the detection area shown 300 in the processing areas 306 , 308 , 310 , 312 is only chosen as an example. Alternatively, the detection area 300 be divided as desired. For example, the subdivision can also take place in such a way that a different relevance category is assigned to each processing area. For example, a detection area of the camera 112 independent of a detection range of the radar sensor 114 divided into processing areas and vice versa.

Das Umgebungsmodul 206 ordnet nun jedem Verarbeitungsbereich 306, 308, 310, 312 ein seiner Relevanzkategorie entsprechendes Verarbeitungsschema zu. Dieses gibt an, wie die Sensordaten 118, 120 in dem betreffenden Verarbeitungsbereich durch die Sensorik 110 bereitgestellt, also vorverarbeitet werden sollen und/oder durch die Auswerteeinheit 116 verarbeitet werden sollen. Beispielsweise gibt das Verarbeitungsschema eine an die Relevanzkategorie des betreffenden Verarbeitungsbereichs angepasste räumliche und/oder zeitliche Auflösung wie eine Pixelanzahl und/oder eine Messfrequenz vor. Die von dem Rückkopplungsmodul 212 erzeugte Verarbeitungsinformation 214 gibt an, welches Verarbeitungsschema welchem Verarbeitungsbereich zugeordnet ist. Wie bereits erwähnt, wird die Verarbeitungsinformation 214 mit den darin enthaltenen Verarbeitungsbereichen 306, 308, 310, 312 an die Sensorik 110 gesendet. Die Bereitstellung von Sensordaten durch die Sensorik 110 basierend auf der Verarbeitungsinformation 214 wird nachfolgend anhand von 4 am Beispiel der Kamera 112 näher beschrieben.The environmental module 206 now assigns each processing area 306 , 308 , 310 , 312 a processing scheme that corresponds to its relevance category. This indicates how the sensor data 118 , 120 in the relevant processing area by the sensors 110 provided, so to be preprocessed and / or by the evaluation unit 116 should be processed. For example, the processing scheme specifies a spatial and / or temporal resolution, such as a number of pixels and / or a measurement frequency, which is adapted to the relevance category of the processing area in question. The one from the feedback module 212 generated processing information 214 indicates which processing scheme is assigned to which processing area. As mentioned earlier, the processing information 214 with the processing areas contained therein 306 , 308 , 310 , 312 to the sensors 110 Posted. The provision of sensor data by the sensor system 110 based on the processing information 214 is explained below using 4th using the camera as an example 112 described in more detail.

Das Umgebungsmodul 206 kann beispielsweise einen Szenenmanager umfassen, der Szenen in der Umgebung des Fahrzeugs 102 basierend auf dem Umgebungsmodell berechnet und ferner ermittelt, welche Ausschnitte des Umgebungsmodells als nächstes eine Aktualisierung erfordern. Eine entsprechende Anforderung kann von einem Sensormanager an geeignete Sensoreinheiten der Sensorik 110 weitergeleitet werden. Der Sensormanager kann beispielsweise eine Komponente des Rückkopplungsmoduls 212 sein.The environmental module 206 can for example comprise a scene manager, the scenes in the surroundings of the vehicle 102 calculated based on the environment model and also determined which sections of the environment model require an update next. A corresponding request can be made by a sensor manager to suitable sensor units of the sensor system 110 to get redirected. The sensor manager can, for example, be a component of the feedback module 212 be.

Beispielsweise können in einem ersten Schritt neue, d. h. bislang unbekannte Objekte in das Umgebungsmodell eingefügt werden. Der Szenenmanager enthält dazu einen Objektdetektor, der geeignete Algorithmen zur Objekterkennung ausführt. Sollte während der Objekterkennung erkannt werden, dass ein zuvor angeforderter Ausschnitt ein Objekt nicht vollständig abdeckt, kann der Objektdetektor die Anforderung weiterer Ausschnitte auslösen. Das fertige Objektmodell wird durch das Physik-Modul 210 plausibilisiert und in das Umgebungsmodell eingefügt. Der nun bekannte Bereich wird dem Szenenmanager, genauer einem darin enthaltenen Szenenupdatemanager, mitgeteilt. Auf diese Weise kann ein erstes vollständiges Umgebungsmodell aufgebaut werden.For example, in a first step, new, ie previously unknown objects can be inserted into the environment model. For this purpose, the scene manager contains an object detector that executes suitable algorithms for object recognition. If it is recognized during the object detection that a previously requested section does not completely cover an object, the object detector can trigger the request for further sections. The finished object model is made by the physics module 210 checked for plausibility and inserted into the environment model. The now known area is communicated to the scene manager, more precisely to a scene update manager contained therein. In this way, a first complete environment model can be built.

Die Effizienz bei der Aktualisierung des Umgebungsmodells kann nun dadurch erhöht werden, dass eine Priorisierung der zu aktualisierenden Bereiche bzw. der zu aktualisierenden Objekte im Umgebungsmodell vorgenommen wird. Dazu kann ein physikalisches Modell der Umgebung des Fahrzeugs 102 verwendet werden, in dem statische und dynamische Objekte hinterlegt sind und das mit Informationen aus einer beispielsweise hochauflösenden digitalen Karte und mit Informationen über Verkehrsregeln angereichert ist.The efficiency when updating the environment model can now be increased by prioritizing the areas to be updated or the objects to be updated in the environment model. A physical model of the surroundings of the vehicle can be used for this purpose 102 can be used in which static and dynamic objects are stored and which is enriched with information from a high-resolution digital map, for example, and with information about traffic rules.

Die im Umgebungsmodell gespeicherten Objekte 104, 106, 108, 302, 304 können in ihrer Bewegung relativ zum Fahrzeug 102 getrackt werden. Dabei kann eine zu erwartende Bewegung der Objekte 104, 106, 108, 302, 304 prädiziert werden und es können entsprechende Objektbereiche im Umgebungsmodell vorausgewählt werden. Die vorausgewählten Objektbereiche können anhand bekannter Schlüsselbereiche oder Schlüsselpunkte nun schneller und mit geringerem Rechenaufwand revalidiert werden. Dies hat den Vorteil, dass die in jedem Zyklus neu zu erkennenden Bereiche kleiner sind als bei einer vollständigen Neuerkennung der Objekte 104, 106, 108, 302, 304. Damit kann die erforderliche Rechenleistung reduziert werden.The objects saved in the environment model 104 , 106 , 108 , 302 , 304 can move relative to the vehicle 102 be tracked. An expected movement of the objects 104 , 106 , 108 , 302 , 304 can be predicted and corresponding object areas can be preselected in the environment model. The preselected object areas can now be revalidated more quickly and with less computational effort using known key areas or key points. This has the advantage that the areas to be newly recognized in each cycle are smaller than with a complete new recognition of the objects 104 , 106 , 108 , 302 , 304 . This can reduce the computing power required.

Die Validierung kann beispielsweise in Abhängigkeit von einer jeweiligen Relevanzkategorie der erkannten Objekte 104, 106, 108, 302, 304 erfolgen. So können beispielsweise die statischen Objekte 108, 302 am Straßenrand mit einer geringeren Auflösung getrackt werden als das dynamische Objekt 304 oder ein Objekt, das eine Trajektorie des Fahrzeugs 102 voraussichtlich kreuzt.The validation can, for example, depend on a respective relevance category of the recognized objects 104 , 106 , 108 , 302 , 304 respectively. For example, the static objects 108 , 302 be tracked at the roadside with a lower resolution than the dynamic object 304 or an object that is a trajectory of the vehicle 102 likely to cross.

4 zeigt eine beispielhafte Konfiguration der Kamera 112 aus 1. Die Kamera 112 umfasst einen Kamerasensor 400 zum Erzeugen der Kameradaten 118, etwa einen CCD- oder CMOS-Sensor, und ein Logikmodul 402 zum Vorverarbeiten der Kameradaten 118 gemäß der Verarbeitungsinformation 214. Das Logikmodul 402 kann etwa eine Software-Komponente eines in der Kamera 112 ausgeführten Computerprogramms sein. Alternativ kann das Logikmodul 402 in den Kamerasensor 400 integriert sein. 4th shows an exemplary configuration of the camera 112 out 1 . The camera 112 includes a camera sensor 400 to generate the camera data 118 , such as a CCD or CMOS sensor, and a logic module 402 for preprocessing the camera data 118 according to the processing information 214 . The logic module 402 can be a software component of one in the camera 112 be executed computer program. Alternatively, the logic module 402 into the camera sensor 400 be integrated.

Das Logikmodul 402 ist ausgeführt, um unter Verwendung der Verarbeitungsinformation 214 aus den von dem Kamerasensor 400 beispielsweise kontinuierlich erzeugten Kameradaten 118 zu übertragende Kameradaten 118' auszuwählen. Dabei wird für jeden der Verarbeitungsbereiche 306, 308, 310, 312 basierend auf den in der Verarbeitungsinformation 214 enthaltenen Verarbeitungsschemen ein bestimmter Datenbereich ermittelt, beispielsweise durch geeignetes Filtern, Komprimieren und/oder Konvertieren der Kameradaten 118. Die derart ermittelten Datenbereiche ergeben zusammengenommen die zu übertragenden Kameradaten 118'. Insbesondere unterscheiden sich die zu übertragenden Kameradaten 118' von den ursprünglich von dem Kamerasensor 400 erzeugten Kameradaten 118 durch eine geringere Komplexität und/oder geringere Datenmenge. Das Logikmodul 402 überträgt die ausgewählten Kameradaten 118' schließlich zur weiteren Verarbeitung an die Auswerteeinheit 116. Die ausgewählten Kameradaten 118' können dabei analog zu der anhand von 2 beschriebenen Verarbeitung der Kameradaten 118 bzw. 120 verarbeitet werden. Somit kann vermieden werden, dass stets ein gesamter Kameradatensatz zyklisch über einen Kommunikationsbus an die Auswerteeinheit 116 übermittelt wird.The logic module 402 is designed to use the processing information 214 from the from the camera sensor 400 for example continuously generated camera data 118 camera data to be transferred 118 ' to select. This is done for each of the processing areas 306 , 308 , 310 , 312 based on those in the processing information 214 A certain data area is determined, for example by suitable filtering, compressing and / or converting the camera data 118 . The data areas determined in this way, taken together, result in the camera data to be transmitted 118 ' . In particular, the camera data to be transmitted differ 118 ' from those originally from the camera sensor 400 generated camera data 118 through less complexity and / or less data volume. The logic module 402 transfers the selected camera data 118 ' finally for further processing to the evaluation unit 116 . The selected camera data 118 ' can be done analogously to the 2 processing of the camera data described 118 or. 120 are processed. It can thus be avoided that an entire camera data set is always sent cyclically to the evaluation unit via a communication bus 116 is transmitted.

Die Verarbeitungsinformation 214 kann beispielsweise eine gewünschte Auflösung eines zu erfassenden Ausschnitts der Umgebung des Fahrzeugs 102, eine Form des zu erfassenden Ausschnitts (z. B. Rechteck, Kreis, durch mehrere Linien definierter zusammenhängender Ausschnitt), eine Erfassungspriorität (z. B. dargestellt durch eine erwartete maximale Latenz bei der Bereitstellung der zu übertragenden Kameradaten 118') oder Angaben über ein Messverfahren bezüglich des zu erfassenden Ausschnitts (z. B. Einzelmessung oder zyklische Messung) umfassen. Bei einer zyklischen Messung können zusätzlich Angaben darüber enthalten sein, ob der zu erfassende Ausschnitt kontinuierlich verändert werden soll, etwa durch Zoomen oder Bewegen in einer x- und/oder y-Richtung in einem fahrzeugfesten Koordinatensystem.The processing information 214 For example, a desired resolution of a section of the surroundings of the vehicle that is to be recorded 102 , a shape of the section to be recorded (e.g. rectangle, circle, contiguous section defined by several lines), a recording priority (e.g. represented by an expected maximum latency in the provision of the camera data to be transmitted 118 ' ) or information about a measurement method with regard to the section to be recorded (e.g. individual measurement or cyclical measurement). In the case of a cyclical measurement, information can also be included as to whether the section to be recorded should be changed continuously, for example by zooming or moving in an x and / or y direction in a coordinate system fixed to the vehicle.

Der in 1 gezeigte Radarsensor 114 kann analog zur Kamera 112 konfiguriert sein, um basierend auf der Verarbeitungsinformation 214 aus den erzeugten Radardaten 120 zu übertragende Radardaten 120' auszuwählen und an die Auswerteeinheit 116 zu senden.The in 1 shown radar sensor 114 can be analogous to the camera 112 be configured to based on the processing information 214 from the generated radar data 120 radar data to be transmitted 120 ' and to the evaluation unit 116 to send.

5 zeigt ein Ablaufdiagramm eines Verfahrens 500, wie es von dem in 1 gezeigten Fahrzeugsystem 100 durchgeführt werden kann. Nachfolgend wird ein möglicher Ablauf des Verfahrens 500 am Beispiel der Kamera 112 beschrieben. Das Verfahren 500 kann jedoch in analoger Weise auch in Verbindung mit dem vorangehend beschriebenen Radarsensor 114 oder mit einem sonstigen Umfeldsensor des Fahrzeugs 102 durchgeführt werden. 5 shows a flow chart of a method 500 as it is from the in 1 vehicle system shown 100 can be carried out. The following is a possible course of the procedure 500 using the camera as an example 112 described. The procedure 500 however, it can also be used in an analogous manner in connection with the radar sensor described above 114 or with another environment sensor of the vehicle 102 be performed.

Dabei werden in einem ersten Schritt 510 die Kameradaten 118 erzeugt und an die Auswerteeinheit 116 gesendet.This will be the first step 510 the camera data 118 generated and to the evaluation unit 116 Posted.

In einem zweiten Schritt 520 werden die Kameradaten 118 in die Verarbeitungsbereiche 306, 308, 310, 312 unterteilt. Dabei wird jedem der Verarbeitungsbereiche 306, 308, 310, 312 ein Verarbeitungsschema zugeordnet, das angibt, wie Kameradaten für den betreffenden Verarbeitungsbereich durch die Kamera 112 bereitgestellt werden sollen.In a second step 520 will be the camera data 118 in the processing areas 306 , 308 , 310 , 312 divided. Doing so will each of the processing areas 306 , 308 , 310 , 312 a processing scheme is assigned which specifies how camera data for the processing area in question by the camera 112 should be provided.

In einem dritten Schritt 530 wird die die Verarbeitungsbereiche 306, 308, 310, 312 beschreibende Verarbeitungsinformation 214 an die Kamera 112 gesendet.In a third step 530 becomes the the processing areas 306 , 308 , 310 , 312 descriptive processing information 214 to the camera 112 Posted.

In einem vierten Schritt 540 verarbeitet das Logikmodul 402 die von dem Kamerasensor 400 erzeugten Kameradaten 118 entsprechend den in der Verarbeitungsinformation 214 enthaltenen Verarbeitungsschemen. Dabei werden die zu übertragenden Kameradaten 118' ermittelt.In a fourth step 540 processes the logic module 402 those from the camera sensor 400 generated camera data 118 according to the processing information 214 processing schemes included. The camera data to be transmitted are thereby 118 ' determined.

In einem fünften Schritt 550 werden die zu übertragenden Kameradaten 118' schließlich an die Auswerteeinheit 116 gesendet.In a fifth step 550 are the camera data to be transferred 118 ' finally to the evaluation unit 116 Posted.

Ergänzend ist darauf hinzuweisen, dass „umfassend“ keine anderen Elemente oder Schritte ausschließt und „eine“ oder „ein“ keine Vielzahl ausschließt. Ferner sei darauf hingewiesen, dass Merkmale oder Schritte, die mit Verweis auf eines der obigen Ausführungsbeispiele beschrieben worden sind, auch in Kombination mit anderen Merkmalen oder Schritten anderer oben beschriebener Ausführungsbeispiele verwendet werden können. Bezugszeichen in den Ansprüchen sind nicht als Einschränkung anzusehen.In addition, it should be noted that “comprehensive” does not exclude any other elements or steps and “one” or “one” does not exclude a large number. It should also be noted that features or steps that have been described with reference to one of the above exemplary embodiments can also be used in combination with other features or steps of other exemplary embodiments described above. Reference signs in the claims are not to be regarded as a restriction.

BezugszeichenlisteList of reference symbols

100100
FahrzeugsystemVehicle system
102102
Fahrzeugvehicle
104104
FahrbahnrandCurb
106106
Fahrbahnroadway
108108
Baumtree
110110
SensorikSensors
112112
Kameracamera
114114
RadarsensorRadar sensor
116116
AuswerteeinheitEvaluation unit
118118
KameradatenCamera data
118'118 '
zu übertragende Kameradatencamera data to be transferred
120120
RadardatenRadar data
120'120 '
zu übertragende Radardatenradar data to be transmitted
122122
AktorikActuators
200200
VorverarbeitungsmodulPreprocessing module
202202
KameramodulCamera module
204204
RadarmodulRadar module
206206
UmgebungsmodulEnvironmental module
208208
ErkennungsdatenDetection data
210210
Physik-ModulPhysics module
212212
RückkopplungsmodulFeedback module
213213
ObjektdatenObject data
214214
VerarbeitungsinformationProcessing information
300300
ErfassungsbereichDetection area
302302
HausHouse
304304
entgegenkommendes Fahrzeugoncoming vehicle
306306
erster Verarbeitungsbereichfirst processing area
308308
zweiter Verarbeitungsbereichsecond processing area
310310
dritter Verarbeitungsbereichthird processing area
312312
vierter Verarbeitungsbereichfourth processing area
400400
KamerasensorCamera sensor
402402
LogikmodulLogic module
500500
Verfahren zum Bereitstellen von SensordatenMethod for providing sensor data
510510
Erzeugen und Senden von SensordatenGeneration and sending of sensor data
520520
Unterteilen der Sensordaten in VerarbeitungsbereicheDivide the sensor data into processing areas
530530
Senden der VerarbeitungsbereicheSending the processing areas
540540
Auswählen zu übertragender SensordatenSelecting the sensor data to be transmitted
550550
Übertragen der ausgewählten SensordatenTransfer of the selected sensor data

Claims (13)

Verfahren (500) zum Bereitstellen von Sensordaten (118, 118', 120, 120') durch eine Sensorik (110) eines Fahrzeugs (102), wobei die Sensorik (110) mindestens eine Sensoreinheit (112, 114) zum Erfassen einer Umgebung des Fahrzeugs (102) aufweist und das Fahrzeug (102) eine Auswerteeinheit (116) zum Auswerten der Sensordaten (118, 118', 120, 120') aufweist, wobei das Verfahren (500) umfasst: Erzeugen (510) von Sensordaten (118, 120) durch die mindestens eine Sensoreinheit (112, 114) und Senden (510) der Sensordaten (118, 120) an die Auswerteeinheit (116); Unterteilen (520) der Sensordaten (118, 120) in Verarbeitungsbereiche (306, 308, 310, 312) mit je einem Verarbeitungsschema, wobei ein Verarbeitungsschema angibt, wie Sensordaten für den Verarbeitungsbereich (306, 308, 310, 312) durch die mindestens eine Sensoreinheit (112, 114) bereitgestellt werden sollen; Senden (530) der Verarbeitungsbereiche (306, 308, 310, 312) an die mindestens eine Sensoreinheit (112, 114); Auswählen (540) zu übertragender Sensordaten (118', 120') aus den erzeugten Sensordaten (118, 120) für jeden der Verarbeitungsbereiche (306, 308, 310, 312) basierend auf den Verarbeitungsschemen; Übertragen (550) der ausgewählten Sensordaten (118', 120') an die Auswerteeinheit (116).Method (500) for providing sensor data (118, 118 ', 120, 120') by a sensor system (110) of a vehicle (102), wherein the sensor system (110) has at least one sensor unit (112, 114) for detecting an environment of the Vehicle (102) and the vehicle (102) has an evaluation unit (116) for evaluating the sensor data (118, 118 ', 120, 120'), the method (500) comprising: Generation (510) of sensor data (118, 120) by the at least one sensor unit (112, 114) and transmission (510) of the sensor data (118, 120) to the evaluation unit (116); Subdividing (520) the sensor data (118, 120) into processing areas (306, 308, 310, 312) each with a processing scheme, a processing scheme specifying how sensor data for the processing area (306, 308, 310, 312) are processed by the at least one Sensor unit (112, 114) are to be provided; Sending (530) the processing areas (306, 308, 310, 312) to the at least one sensor unit (112, 114); Selecting (540) sensor data (118 ', 120') to be transmitted from the generated sensor data (118, 120) for each of the processing areas (306, 308, 310, 312) based on the processing schemes; Transmission (550) of the selected sensor data (118 ', 120') to the evaluation unit (116). Verfahren (500) nach Anspruch 1, wobei das Verarbeitungsschema eine gewünschte Auflösung des Verarbeitungsbereichs (306, 308, 310, 312) angibt; wobei für den Verarbeitungsbereich (306, 308, 310, 312) zu übertragende Sensordaten (118', 120') ausgewählt werden, die die gewünschte Auflösung aufweisen.Method (500) according to Claim 1 wherein the processing scheme indicates a desired resolution of the processing area (306, 308, 310, 312); sensor data (118 ', 120') which are to be transmitted and which have the desired resolution are selected for the processing area (306, 308, 310, 312). Verfahren (500) nach einem der vorhergehenden Ansprüche, wobei das Verarbeitungsschema eine gewünschte Kontur des Verarbeitungsbereichs (306, 308, 310, 312) angibt; wobei für den Verarbeitungsbereich (306, 308, 310, 312) zu übertragende Sensordaten (118', 120') ausgewählt werden, die die gewünschte Kontur aufweisen.Method (500) according to one of the preceding claims, wherein the processing scheme indicates a desired contour of the processing region (306, 308, 310, 312); sensor data (118 ', 120') which are to be transmitted and which have the desired contour are selected for the processing area (306, 308, 310, 312). Verfahren (500) nach einem der vorhergehenden Ansprüche, wobei das Verarbeitungsschema eine gewünschte Aktualisierungshäufigkeit, mit der der Verarbeitungsbereich (306, 308, 310, 312) aktualisiert werden soll, angibt; wobei für den Verarbeitungsbereich (306, 308, 310, 312) zu übertragende Sensordaten (118', 120') ausgewählt werden, die die gewünschte Aktualisierungshäufigkeit aufweisen.The method (500) according to any one of the preceding claims, wherein the processing scheme provides a desired update frequency with which the Processing area (306, 308, 310, 312) to be updated; sensor data (118 ', 120') which are to be transmitted and which have the desired update frequency are selected for the processing area (306, 308, 310, 312). Verfahren (500) nach einem der vorhergehenden Ansprüche, wobei das Verarbeitungsschema eine gewünschte Änderung des Verarbeitungsbereichs (306, 308, 310, 312) über mehrere Zeitschritte angibt; wobei für den Verarbeitungsbereich (306, 308, 310, 312) zu übertragende Sensordaten (118', 120') ausgewählt werden, die die gewünschte Änderung des Verarbeitungsbereichs (306, 308, 310, 312) aufweisen.Method (500) according to one of the preceding claims, wherein the processing scheme indicates a desired change in the processing area (306, 308, 310, 312) over a plurality of time steps; wherein sensor data (118 ', 120') to be transmitted are selected for the processing area (306, 308, 310, 312) which have the desired change in the processing area (306, 308, 310, 312). Verfahren (500) nach einem der vorhergehenden Ansprüche, wobei das Verarbeitungsschema eine gewünschte Änderung einer Position des Verarbeitungsbereichs (306, 308, 310, 312) innerhalb eines Erfassungsbereichs (300) der mindestens einen Sensoreinheit (112, 114) über mehrere Zeitschritte angibt; wobei für den Verarbeitungsbereich (306, 308, 310, 312) zu übertragende Sensordaten (118', 120') ausgewählt werden, die die gewünschte Änderung der Position des Verarbeitungsbereichs (306, 308, 310, 312) aufweisen.Method (500) according to one of the preceding claims, wherein the processing scheme indicates a desired change in a position of the processing area (306, 308, 310, 312) within a detection area (300) of the at least one sensor unit (112, 114) over a plurality of time steps; wherein sensor data (118 ', 120') to be transmitted are selected for the processing area (306, 308, 310, 312) which have the desired change in the position of the processing area (306, 308, 310, 312). Verfahren (500) nach einem der vorhergehenden Ansprüche, wobei das Verarbeitungsschema eine gewünschte Änderung einer Größe des Verarbeitungsbereichs (306, 308, 310, 312) über mehrere Zeitschritte angibt; wobei für den Verarbeitungsbereich (306, 308, 310, 312) zu übertragende Sensordaten (118', 120') ausgewählt werden, die die gewünschte Änderung der Größe des Verarbeitungsbereichs (306, 308, 310, 312) aufweisen.Method (500) according to one of the preceding claims, wherein the processing scheme indicates a desired change in a size of the processing area (306, 308, 310, 312) over a plurality of time steps; wherein sensor data (118 ', 120') to be transmitted are selected for the processing area (306, 308, 310, 312) which have the desired change in the size of the processing area (306, 308, 310, 312). Verfahren (500) nach einem der vorhergehenden Ansprüche, weiter umfassend: Erkennen von Objekten (104, 106, 108; 302, 304) in der Umgebung des Fahrzeugs (102) basierend auf den Sensordaten (118, 118', 120, 120'); Zuordnen der erkannten Objekte (104, 106, 108; 302, 304) zu Relevanzkategorien, wobei sich Objekte (104, 106, 108; 302, 304) in unterschiedlichen Relevanzkategorien in einer Relevanz für das Fahrzeug (102) voneinander unterscheiden; wobei die Sensordaten (118, 120) so in Verarbeitungsbereiche (306, 308, 310, 312) unterteilt werden, dass in jedem Verarbeitungsbereich (306, 308, 310, 312) mindestens ein Objekt (104, 106, 108; 302, 304) einer Relevanzkategorie durch die mindestens eine Sensoreinheit (112, 114) erfassbar ist; wobei den Verarbeitungsbereichen (306, 308, 310, 312) je ein Verarbeitungsschema basierend auf der Relevanzkategorie zugeordnet wird.The method (500) according to any one of the preceding claims, further comprising: Recognizing objects (104, 106, 108; 302, 304) in the vicinity of the vehicle (102) based on the sensor data (118, 118 ', 120, 120'); Assigning the recognized objects (104, 106, 108; 302, 304) to relevance categories, objects (104, 106, 108; 302, 304) differing in relevance for the vehicle (102) in different relevance categories; wherein the sensor data (118, 120) are subdivided into processing areas (306, 308, 310, 312) such that in each processing area (306, 308, 310, 312) at least one object (104, 106, 108; 302, 304) a relevance category can be detected by the at least one sensor unit (112, 114); wherein the processing areas (306, 308, 310, 312) are each assigned a processing scheme based on the relevance category. Verfahren (500) nach Anspruch 8, wobei basierend auf einem Verarbeitungsschema, das einem Verarbeitungsbereich (306, 308, 310, 312) mit mindestens einem Objekt (104, 106, 108; 302, 304) einer höheren Relevanzkategorie zugeordnet ist, eine größere Menge zu übertragender Sensordaten (118', 120') ausgewählt wird als basierend auf einem Verarbeitungsschema, das einem Verarbeitungsbereich (306, 308, 310, 312) mit mindestens einem Objekt (104, 106, 108; 302, 304) einer niedrigeren Relevanzkategorie zugeordnet ist.Method (500) according to Claim 8 wherein, based on a processing scheme that is assigned to a processing area (306, 308, 310, 312) with at least one object (104, 106, 108; 302, 304) of a higher relevance category, a larger amount of sensor data (118 ', 120 ') is selected as based on a processing scheme that is assigned to a processing area (306, 308, 310, 312) with at least one object (104, 106, 108; 302, 304) of a lower relevance category. Verfahren (500) nach Anspruch 8 oder 9: wobei ein Verarbeitungsbereich (306, 308, 310, 312) mit mindestens einem Objekt (104, 106, 108; 302, 304) einer höheren Relevanzkategorie mit einer höheren Priorität an die mindestens eine Sensoreinheit (112, 114) gesendet wird als ein Verarbeitungsbereich (306, 308, 310, 312) mit mindestens einem Objekt (104, 106, 108; 302, 304) einer niedrigeren Relevanzkategorie; und/oder wobei ein Verarbeitungsbereich (306, 308, 310, 312) mit mindestens einem Objekt (104, 106, 108; 302, 304) einer höheren Relevanzkategorie mit einer höheren Priorität von der mindestens einen Sensoreinheit (112, 114) verarbeitet wird als ein Verarbeitungsbereich (306, 308, 310, 312) mit mindestens einem Objekt (104, 106, 108; 302, 304) einer niedrigeren Relevanzkategorie.Method (500) according to Claim 8 or 9 : wherein a processing area (306, 308, 310, 312) with at least one object (104, 106, 108; 302, 304) of a higher relevance category with a higher priority is sent to the at least one sensor unit (112, 114) than a processing area (306, 308, 310, 312) with at least one object (104, 106, 108; 302, 304) of a lower relevance category; and / or wherein a processing area (306, 308, 310, 312) with at least one object (104, 106, 108; 302, 304) of a higher relevance category is processed by the at least one sensor unit (112, 114) with a higher priority than a processing area (306, 308, 310, 312) with at least one object (104, 106, 108; 302, 304) of a lower relevance category. Computerprogramm, das, wenn es auf einem Prozessor ausgeführt wird, das Verfahren (500) nach einem der vorhergehenden Ansprüche durchführt.Computer program which, when executed on a processor, carries out the method (500) according to one of the preceding claims. Computerlesbares Medium, auf dem ein Computerprogramm nach Anspruch 11 gespeichert ist.Computer-readable medium on which a computer program is based Claim 11 is stored. Fahrzeugsystem (100), umfassend: eine Sensorik (110) mit mindestens einer Sensoreinheit (112, 114) zum Erfassen einer Umgebung eines Fahrzeugs (102); eine mit der Sensorik (110) gekoppelte Auswerteeinheit (116) zum Auswerten der Sensordaten (118, 118', 120, 120'); wobei das Fahrzeugsystem (100) ausgeführt ist, um das Verfahren (500) nach einem der Ansprüche 1 bis 10 durchzuführen.Vehicle system (100), comprising: a sensor system (110) with at least one sensor unit (112, 114) for detecting the surroundings of a vehicle (102); an evaluation unit (116) coupled to the sensor system (110) for evaluating the sensor data (118, 118 ', 120, 120'); wherein the vehicle system (100) is designed to perform the method (500) according to one of Claims 1 to 10 perform.
DE102020200875.2A 2020-01-24 2020-01-24 Method for providing sensor data by a sensor system of a vehicle Ceased DE102020200875A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020200875.2A DE102020200875A1 (en) 2020-01-24 2020-01-24 Method for providing sensor data by a sensor system of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020200875.2A DE102020200875A1 (en) 2020-01-24 2020-01-24 Method for providing sensor data by a sensor system of a vehicle

Publications (1)

Publication Number Publication Date
DE102020200875A1 true DE102020200875A1 (en) 2021-02-25

Family

ID=74495186

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020200875.2A Ceased DE102020200875A1 (en) 2020-01-24 2020-01-24 Method for providing sensor data by a sensor system of a vehicle

Country Status (1)

Country Link
DE (1) DE102020200875A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023093981A1 (en) 2021-11-24 2023-06-01 Volkswagen Aktiengesellschaft Method to organize data traffic affecting a vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016103251A1 (en) * 2016-02-24 2017-08-24 Bayerische Motoren Werke Aktiengesellschaft Method for operating at least one sensor for detecting the surroundings of a vehicle
DE102017205630A1 (en) * 2017-04-03 2018-10-04 Conti Temic Microelectronic Gmbh Camera apparatus and method for detecting a surrounding area of a vehicle
DE102017205495A1 (en) * 2017-03-31 2018-10-04 Conti Temic Microelectronic Gmbh Device and method for focusing sensors in the driving dynamic limit range for a motor vehicle
DE112017001951T5 (en) * 2016-06-23 2019-01-03 Conti Temic Microelectronic Gmbh APPARATUS AND METHOD FOR OBJECT DETECTION FOR AN INPUT IMAGE FOR A VEHICLE
DE102017221940A1 (en) * 2017-12-05 2019-06-06 Bayerische Motoren Werke Aktiengesellschaft Method and driver assistance system for controlling a motor vehicle and motor vehicle
DE102019202266A1 (en) * 2019-02-20 2020-08-20 Zf Friedrichshafen Ag Method and computer program product for adapting a resolution of a multi-sensor system of a road vehicle and control device for a multi-sensor system and computer program product

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016103251A1 (en) * 2016-02-24 2017-08-24 Bayerische Motoren Werke Aktiengesellschaft Method for operating at least one sensor for detecting the surroundings of a vehicle
DE112017001951T5 (en) * 2016-06-23 2019-01-03 Conti Temic Microelectronic Gmbh APPARATUS AND METHOD FOR OBJECT DETECTION FOR AN INPUT IMAGE FOR A VEHICLE
DE102017205495A1 (en) * 2017-03-31 2018-10-04 Conti Temic Microelectronic Gmbh Device and method for focusing sensors in the driving dynamic limit range for a motor vehicle
DE102017205630A1 (en) * 2017-04-03 2018-10-04 Conti Temic Microelectronic Gmbh Camera apparatus and method for detecting a surrounding area of a vehicle
DE102017221940A1 (en) * 2017-12-05 2019-06-06 Bayerische Motoren Werke Aktiengesellschaft Method and driver assistance system for controlling a motor vehicle and motor vehicle
DE102019202266A1 (en) * 2019-02-20 2020-08-20 Zf Friedrichshafen Ag Method and computer program product for adapting a resolution of a multi-sensor system of a road vehicle and control device for a multi-sensor system and computer program product

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023093981A1 (en) 2021-11-24 2023-06-01 Volkswagen Aktiengesellschaft Method to organize data traffic affecting a vehicle

Similar Documents

Publication Publication Date Title
DE112018007287T5 (en) VEHICLE SYSTEM AND METHOD FOR DETECTING OBJECTS AND OBJECT DISTANCE
DE102018102027A1 (en) EFFICIENT SITUATION AWARENESS THROUGH EVENT GENERATION AND EPISODIC STORAGE FOR AUTONOMOUS DRIVE SYSTEMS
DE102017204404B3 (en) A method and predicting device for predicting a behavior of an object in an environment of a motor vehicle and a motor vehicle
DE102017103123A1 (en) Vehicle lane placement
DE102018203591B3 (en) Method and system for classifying road users
DE102019115059A1 (en) SYSTEM FOR DERIVING AN AUTONOMOUS VEHICLE WHICH ENABLES A DRIVABLE CARD
WO2014118178A1 (en) Creation of an environment model for a vehicle
WO2013029722A2 (en) Method for representing surroundings
DE102018203583B4 (en) Method, driver assistance system and motor vehicle for the prediction of a position or a trajectory by means of a graph-based environment model
DE102013205952A1 (en) Reconfigurable system for detection of a clear path
DE102015201747A1 (en) SENSOR SYSTEM FOR A VEHICLE AND METHOD
DE102018133441A1 (en) Method and system for determining landmarks in the surroundings of a vehicle
WO2020048669A1 (en) Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle
DE102018133457B4 (en) Method and system for providing environmental data
DE102020102823A1 (en) VEHICLE CAPSULE NETWORKS
DE102022100545A1 (en) IMPROVED OBJECT RECOGNITION
DE102021104044A1 (en) NEURAL NETWORK FOR POSITIONING AND OBJECT DETECTION
DE102019127283A1 (en) System and method for detecting an object in a three-dimensional environment of a carrier vehicle
EP4229549A1 (en) System and method for annotating car radar data
WO2019120709A1 (en) Method and control unit for controlling a function of a vehicle driven at least partially in an automated manner
DE102020200875A1 (en) Method for providing sensor data by a sensor system of a vehicle
DE102020200876B4 (en) Method for processing sensor data from a sensor system in a vehicle
EP3809316A1 (en) Prediction of a road route based on radar data
DE112021006401T5 (en) Systems and methods for object recognition using stereo vision information
DE102022107845A1 (en) Method, system and computer program product for selecting concrete scenarios

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R230 Request for early publication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final