DE102021131054A1 - Method, system and computer program product for evaluating a driving situation for the predictive control of an automated driving function - Google Patents

Method, system and computer program product for evaluating a driving situation for the predictive control of an automated driving function Download PDF

Info

Publication number
DE102021131054A1
DE102021131054A1 DE102021131054.7A DE102021131054A DE102021131054A1 DE 102021131054 A1 DE102021131054 A1 DE 102021131054A1 DE 102021131054 A DE102021131054 A DE 102021131054A DE 102021131054 A1 DE102021131054 A1 DE 102021131054A1
Authority
DE
Germany
Prior art keywords
driving situation
data
sensor
module
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021131054.7A
Other languages
German (de)
Inventor
Mathis Brosowsky
Michael Grimm
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dr Ing HCF Porsche AG
Original Assignee
Dr Ing HCF Porsche AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dr Ing HCF Porsche AG filed Critical Dr Ing HCF Porsche AG
Priority to DE102021131054.7A priority Critical patent/DE102021131054A1/en
Publication of DE102021131054A1 publication Critical patent/DE102021131054A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0014Adaptive controllers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung bezieht sich auf ein Verfahren zur Bewertung einer Fahrsituation für die prädiktive Steuerung einer automatisierten Fahrfunktion eines Fahrzeugs (10), umfassend die folgenden Verfahrensschritte:- Aufnehmen von Sensor- und Bilddaten (20) von einer Kamera- und Sensoreinrichtung (12) des Fahrzeugs (10), wobei die Bild- und Sensordaten (20) die Umgebung und Objekte in der Umgebung des Fahrzeugs (10) abbilden zur Ermittlung einer aktuellen Fahrsituation zu einem ersten Zeitpunkt (t1);- Weitergeben der ermittelten Sensor- und Bilddaten (20) und/oder weiterer historischer Daten aus zumindest einer Datenbank (40) an eine Datenanalyseeinrichtung (30),- Ermitteln zumindest einer zukünftigen Fahrsituation zu einem zweiten Zeitpunkt (t2) in der Datenanalyseeinrichtung (40) mittels eines Analysesystems (300);- Klassifizieren der zumindest einen zukünftigen Fahrsituation hinsichtlich der Wahrscheinlichkeit des Eintreffens und/oder weiterer Merkmale, Zustände oder Sicherheitskategorien;- Bewerten der klassifizierten zukünftigen Fahrsituation und Zuordnen eines Bewertungsindex (70);- Steuern (S70) zumindest einer Fahrfunktion (85) des Fahrassistenzmoduls (80) mit dem Bewertungsindex (70).The invention relates to a method for evaluating a driving situation for the predictive control of an automated driving function of a vehicle (10), comprising the following method steps: - recording sensor and image data (20) from a camera and sensor device (12) of the vehicle (10), the image and sensor data (20) depicting the environment and objects in the environment of the vehicle (10) in order to determine a current driving situation at a first point in time (t1);- forwarding the determined sensor and image data (20) and/or further historical data from at least one database (40) to a data analysis device (30), - determining at least one future driving situation at a second point in time (t2) in the data analysis device (40) by means of an analysis system (300); - classifying the at least a future driving situation with regard to the probability of occurrence and/or other features, states or safety categories;- evaluating the classified future driving situation and assigning an evaluation index (70);- controlling (S70) at least one driving function (85) of the driver assistance module (80) with the Rating index (70).

Description

Die Erfindung betrifft ein Verfahren, ein System und ein Computerprogrammprodukt zur Bewertung einer Fahrsituation für die prädiktive Steuerung einer automatisierten Fahrfunktion.The invention relates to a method, a system and a computer program product for evaluating a driving situation for the predictive control of an automated driving function.

Wenn ein Kraftfahrzeug von einer Person gesteuert wird, dann beobachtet der Fahrer des Fahrzeugs sehr genau und intuitiv, ob irgendwelche mögliche Gefahrenquellen sich auf der Fahrbahn befinden. Insbesondere werden vorausfahrende Fahrzeuge genau beobachtet, um unterschiedliche Informationen zu gewinnen, wie beispielsweise die Geschwindigkeit des vorausfahrenden Fahrzeugs oder ob ein Überholmanöver geplant ist. Außerdem wird die Fahrbahn und die Straßenführung beobachtet, um das Fahrverhalten entsprechend anpassen zu können. Ein geübter menschlicher Fahrer übt diese Beobachtungen intuitiv während des Fahrens aus und ihm ist häufig gar bewusst, wie er die Informationen verarbeitet und einer möglichen Gefahrensituation zuordnet.When a motor vehicle is driven by a person, the driver of the vehicle observes very precisely and intuitively whether there are any possible sources of danger on the roadway. In particular, vehicles ahead are closely observed to obtain various information, such as the speed of the vehicle ahead or whether an overtaking maneuver is planned. In addition, the road surface and the road layout are observed in order to be able to adjust driving behavior accordingly. A trained human driver makes these observations intuitively while driving and is often even aware of how he processes the information and assigns it to a possible dangerous situation.

In Fahrzeugen werden zunehmend Fahrassistenzsysteme und hochautomatisierte Fahrfunktionen eingesetzt, um den Fahrer zu entlasten oder um autonomes Fahren zu ermöglichen. Bei teil-autonom und autonom fahrenden Fahrzeugen werden Kamerasysteme und Sensoren eingesetzt, um Informationen über die Umgebung des Fahrzeugs zu gewinnen. Die Entwicklung des hochautomatisierten Fahrens (HAF) geht daher einher mit einer Erhöhung der Anforderungen an Fahrzeugsensorsysteme zur Aufnahme von geeigneten Sensordaten wie insbesondere Bilddaten. Zudem müssen die aufgenommen Sensordaten sorgfältig interpretiert werden, um daraus die richtigen Schlussfolgerungen hinsichtlich einer möglichen Gefahrensituation zu gewinnen.Driver assistance systems and highly automated driving functions are increasingly being used in vehicles to relieve the driver or to enable autonomous driving. In semi-autonomous and autonomous vehicles, camera systems and sensors are used to obtain information about the vehicle's surroundings. The development of highly automated driving (HAD) is therefore accompanied by an increase in the requirements for vehicle sensor systems to record suitable sensor data such as image data in particular. In addition, the recorded sensor data must be carefully interpreted in order to draw the right conclusions regarding a possible dangerous situation.

Ein Beispiel für ein Fahrassistenzsystem mit hochautomatisierten Fahrfunktionen ist ein Abstandsregeltempomat in einem Kraftfahrzeug, der die Regelung des Abstands zu einem vorausfahrenden Fahrzeug als Steuergröße für eine Steuerung der Geschwindigkeit des Kraftfahrzeugs verwendet. Eine solche Regelung wird auch als Adaptive Geschwindigkeitsregelung (engl. Adaptive Cruise Control (ACC)) bezeichnet. Ein Abstandsregeltempomat ermittelt mittels eines Sensors die Position und die Geschwindigkeit des vorausfahrenden Fahrzeugs und passt entsprechend den ermittelten Werten die Motor- und Bremssteuerung an.An example of a driver assistance system with highly automated driving functions is adaptive cruise control in a motor vehicle, which uses the regulation of the distance to a vehicle driving ahead as a control variable for controlling the speed of the motor vehicle. Such a regulation is also referred to as adaptive cruise control (ACC). Adaptive cruise control uses a sensor to determine the position and speed of the vehicle in front and adjusts the engine and brake control accordingly.

Allerdings werden bei den bekannten Fahrassistenzsystemen und Fahrfunktionen bisher der Verlauf einer Fahrspur eines Kraftfahrzeugs aufgrund der Topgraphie des Geländes wie Steigungen und Kurven sowie die tatsächliche Verkehrssituation wie einscherende Fahrzeuge nur unzureichend berücksichtigt. So werden einscherende Fahrzeuge entweder ignoriert oder es wird auf das mögliche einscherende Fahrzeug reaktiv reagiert. Aktuelle Fahrassistenzsysteme verfügen somit nur über zwei Zustände, die entweder ein mögliches Ereignis wie ein einscherendes Fahrzeug einplanen oder dieses nicht beachten. Ein Zwischenzustand mit einer nur geringen Anpassung der Fahrfunktion wie eine geringere Gaszufuhr und damit nur eine geringfügige Reduzierung der Geschwindigkeit des Kraftfahrzeugs durch ein Schleppmoment ist bisher nicht vorgesehen.However, in the case of the known driver assistance systems and driving functions, the course of a lane of a motor vehicle due to the topography of the terrain, such as inclines and curves, and the actual traffic situation, such as vehicles cutting in, have only been insufficiently taken into account. Cutting-in vehicles are either ignored or a reactive reaction is made to the possible cutting-in vehicle. Current driver assistance systems therefore only have two states that either plan for a possible event such as a vehicle cutting in or ignore it. An intermediate state with only a slight adaptation of the driving function, such as a lower gas supply and thus only a slight reduction in the speed of the motor vehicle due to a drag torque, has not previously been provided.

Die DE 10 2017 206 862 A1 offenbart ein Fahrsystem zum automatisierten Fahren eines Kraftfahrzeugs. Das Fahrsystem ist eingerichtet, eine tatsächliche Verkehrssituation im Umfeld des Kraftfahrzeugs mit zumindest einem weiteren Verkehrsteilnehmer zu erfassen und zumindest zwei alternative Handlungsoptionen ausgehend von der tatsächlichen Verkehrssituation für einen ersten Zeitschritt heranzuziehen. Für jede dieser Handlungsoptionen wird zumindest eine mögliche zukünftige Verkehrssituation bestimmt, wobei die mögliche zukünftige Verkehrssituationen bewertet und basierend darauf eine der Handlungsoptionen ausgewählt wird.The DE 10 2017 206 862 A1 discloses a driving system for automated driving of a motor vehicle. The driving system is set up to detect an actual traffic situation in the vicinity of the motor vehicle with at least one other road user and to use at least two alternative options for action based on the actual traffic situation for a first time step. At least one possible future traffic situation is determined for each of these options for action, with the possible future traffic situation being evaluated and one of the options for action being selected based thereon.

Die DE 10 2020 201 016 A1 offenbart ein Verfahren zum Bereitstellen mindestens einer Trajektorie für ein automatisiert gefahrenes Fahrzeug, wobei ein zukünftiges Verhalten basierend auf Umfelddaten des Fahrzeugs mittels einer Prädiktionseinrichtung geschätzt wird und das abgeschätzte, zukünftige Verhalten einer von mindestens zwei Bewertungskategorien zugeordnet wird.The DE 10 2020 201 016 A1 discloses a method for providing at least one trajectory for an automated vehicle, future behavior being estimated based on data surrounding the vehicle using a prediction device, and the estimated future behavior being assigned to one of at least two evaluation categories.

Die DE 10 2017 114 876 A1 offenbart ein Verfahren zur Kollisionsvermeidung einer potentiellen Kollision zwischen einem Fahrzeug und einem weiteren Verkehrsteilnehmer. Für das Fahrzeug und den weiteren Verkehrsteilnehmer werden jeweils die zukünftigen Trajektorien prädiziert und entlang der prädizierten Trajektorien jeweils mindestens zwei Aufenthaltswahrscheinlichkeitsbereiche mit unterschiedlichen Zeitabständen ermittelt, wobei sämtliche Aufenthaltswahrscheinlichkeitsbereiche mit gleichen Zeitabständen miteinander verglichen und bei einer festgestellten Überschneidung Eskalationsmaßnahmen eingeleitet werden.The DE 10 2017 114 876 A1 discloses a method for collision avoidance of a potential collision between a vehicle and another road user. The future trajectories for the vehicle and the other road users are predicted and at least two probability areas with different time intervals are determined along the predicted trajectories, with all probability areas with the same time intervals being compared with one another and escalation measures being initiated if an overlap is identified.

Die der Erfindung zu Grunde liegende Aufgabe besteht nun darin, ein Verfahren, ein System und ein Computerprogrammprodukt zur Bewertung einer Fahrsituation für die prädiktive Steuerung einer automatisierten Fahrfunktion für ein Fahrzeug zu schaffen, das sich durch eine hohe Zuverlässigkeit, Sicherheit und Genauigkeit auszeichnet und sich einfach implementieren lässt.The object on which the invention is based is now to create a method, a system and a computer program product for evaluating a driving situation for the predictive control of an automated driving function for a vehicle, which is characterized by high reliability, safety and accuracy and is simple implement.

Gemäß der vorliegenden Erfindung werden ein Verfahren, ein System und ein Computerprogrammprodukt vorgeschlagen, durch das eine Fahrsituation sicher erfasst und bewertet wird, so dass eine prädiktive Steuerung einer automatisierten Fahrfunktion ermöglicht wird, die eine hohe Sicherheit gewährleistet.According to the present invention, a method, a system and a computer program product are proposed, by means of which a driving situation is reliably detected and evaluated, so that predictive control of an automated driving function is made possible, which ensures a high level of safety.

Diese Aufgabe wird hinsichtlich eines Verfahrens durch die Merkmale des Patentanspruchs 1, hinsichtlich eines Systems durch die Merkmale des Patentanspruchs 11, und hinsichtlich eines Computerprogrammprodukts durch die Merkmale des Anspruchs 15 erfindungsgemäß gelöst. Die weiteren Ansprüche betreffen bevorzugte Ausgestaltungen der Erfindung.This object is achieved according to the invention with regard to a method by the features of patent claim 1, with regard to a system by the features of patent claim 11, and with regard to a computer program product by the features of claim 15. The further claims relate to preferred embodiments of the invention.

Gemäß einem ersten Aspekt stellt die Erfindung ein Verfahren zur Bewertung einer Fahrsituation für die prädiktive Steuerung einer automatisierten Fahrfunktion eines Fahrzeugs bereit. Das Verfahren umfasst die folgenden Verfahrensschritte:

  • - Aufnehmen von Sensor- und Bilddaten von einer Kamera- und Sensoreinrichtung des Fahrzeugs, wobei die Bild- und Sensordaten die Umgebung und Objekte in der Umgebung des Fahrzeugs abbilden zur Ermittlung einer aktuellen Fahrsituation zu einem ersten Zeitpunkt t1;
  • - Weitergeben der ermittelten Sensor- und Bilddaten und/oder weiterer historischer Daten aus zumindest einer Datenbank an eine Datenanalyseeinrichtung, wobei die Datenanalyseeinrichtung ein Analysesystem umfasst, welches Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) und der maschinellen Bildanalyse verwendet;
  • - Ermitteln zumindest einer zukünftigen Fahrsituation zu einem zweiten Zeitpunkt t2 in der Datenanalyseeinrichtung mittels des Analysesystems;
  • - Klassifizieren der zumindest einen zukünftigen Fahrsituation hinsichtlich der Wahrscheinlichkeit des Eintreffens und/oder weiterer Merkmale, Zustände oder Sicherheitskategorien;
  • - Bewerten der klassifizierten zukünftigen Fahrsituation und Zuordnen eines Bewertungsindex;
  • - Zuführen des Bewertungsindex an ein Fahrzeugassistenzmodul;
  • - Steuern zumindest einer automatisieren Fahrfunktion des Fahrassistenzmoduls mit dem Bewertungsindex.
According to a first aspect, the invention provides a method for evaluating a driving situation for the predictive control of an automated driving function of a vehicle. The procedure comprises the following procedural steps:
  • - Recording of sensor and image data from a camera and sensor device of the vehicle, the image and sensor data depicting the surroundings and objects in the surroundings of the vehicle for determining a current driving situation at a first point in time t1;
  • - Passing on the determined sensor and image data and/or further historical data from at least one database to a data analysis device, the data analysis device comprising an analysis system which uses algorithms from the field of artificial intelligence (AI) and machine image analysis;
  • - determining at least one future driving situation at a second point in time t2 in the data analysis device by means of the analysis system;
  • - Classifying the at least one future driving situation with regard to the probability of occurrence and/or other features, states or safety categories;
  • - Assess the classified future driving situation and assign an assessment index;
  • - Supplying the evaluation index to a vehicle assistance module;
  • - Controlling at least one automated driving function of the driving assistance module with the evaluation index.

In einer Weiterentwicklung ist vorgesehen, dass der Bewertungsindex zumindest drei Steuerungszustände aufweist, die als „1 - keine Reaktion“, „2 - aktive Reaktion“ und „3 - adaptive Reaktion“ darstellbar sind.A further development provides for the evaluation index to have at least three control states, which can be represented as “1—no reaction”, “2—active reaction” and “3—adaptive reaction”.

In einer vorteilhaften Ausführungsform umfasst das Analysesystem ein Erkennungsmodul zum Erkennen der aktuellen Fahrsituation zu einem ersten Zeitpunkt t1, ein Klassifizierungsmodul zum Klassifizieren der aktuellen Fahrsituation und/oder zumindest einer zukünftigen Fahrsituation, ein Prädiktionsmodul zum Berechnen zumindest einer zukünftigen Fahrsituation zu einem zweiten Zeitpunkt t2 und zum Schätzen eines Wahrscheinlichkeitswertes für das Eintreffen der zukünftigen Fahrsituation und ein Bewertungsmodul zum Bewerten der zukünftigen Fahrsituation mittels Bewertungskriterien.In an advantageous embodiment, the analysis system comprises a detection module for detecting the current driving situation at a first point in time t1, a classification module for classifying the current driving situation and/or at least one future driving situation, a prediction module for calculating at least one future driving situation at a second point in time t2 and at Estimation of a probability value for the occurrence of the future driving situation and an evaluation module for evaluating the future driving situation using evaluation criteria.

Insbesondere weist das Erkennungsmodul zumindest ein Encoder-Modul zum Extrahieren von Bildmerkmalen aus den Sensor- und Bilddaten und zumindest ein Decoder-Modul zur Auswertung der extrahieren Bildmerkmale auf.In particular, the recognition module has at least one encoder module for extracting image features from the sensor and image data and at least one decoder module for evaluating the extracted image features.

In einer weiteren Ausführungsform ist vorgesehen, dass die Kamera- und Sensoreinrichtung zumindest eine Kamera und/oder zumindest einen wie einen LIDAR-Sensor (Light Detection and Ranging) zur optischen Abstands- und Geschwindigkeitsmessung und/oder einen Ultraschall-Sensor und/oder einen Radar-Sensor (Radio Detection and Ranging) umfasst und für eine schnelle Aufnahmefrequenz ausgebildet ist.In a further embodiment it is provided that the camera and sensor device has at least one camera and/or at least one such as a LIDAR (Light Detection and Ranging) sensor for optical distance and speed measurement and/or an ultrasonic sensor and/or a radar sensor (Radio Detection and Ranging) and is designed for a fast recording frequency.

In einer vorteilhaften Ausführungsform ist vorgesehen, dass als Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) und der maschinellen Bildanalyse Algorithmen aus dem Bereich des Maschinenlernens, vorzugsweise Deep Learning mit tiefen neuronalen Netzen und/oder gefalteten neuronalen Netzwerken (engl.: convolutional neural networks) und/oder Lernverstärkungs-Agenten (LV) (Reinforcement Learning Agent) zur Analyse und Bewertung einer Fahrsituation mittels der erfassten Bild- und Sensordaten und/oder der weiterer historischen Daten verwendet werden.In an advantageous embodiment, it is provided that the algorithms from the field of artificial intelligence (AI) and machine image analysis are algorithms from the field of machine learning, preferably deep learning with deep neural networks and/or convolutional neural networks ) and/or learning reinforcement agents (LV) (Reinforcement Learning Agent) for the analysis and evaluation of a driving situation by means of the recorded image and sensor data and/or the further historical data.

Insbesondere steht die Datenanalyseeinrichtung mit zumindest einer Datenbank und/oder einer Cloud-Computing-Infrastruktur mittels einer Kommunikationsverbindung in Verbindung.In particular, the data analysis device is connected to at least one database and/or a cloud computing infrastructure by means of a communication link.

Vorteilhaftweise ist die Kommunikationsverbindung als Mobilfunkverbindung und/oder Nahfeldkommunikationsverbindung wie Bluetooth®, Ethernet, NFC (near field communication) oder Wi-Fi® ausgebildet.The communication connection is advantageously designed as a mobile radio connection and/or a near-field communication connection such as Bluetooth® , Ethernet, NFC (near field communication) or Wi-Fi®.

In einer Weiterbildung ist vorgesehen, dass die Datenanalyseeinrichtung und/oder die Kamera- und Sensoreinrichtung mit Funkmodulen des 5G-Standards ausgestattet ist/sind.In a further development it is provided that the data analysis device and/or the camera and sensor device is/are equipped with radio modules of the 5G standard.

In einer vorteilhaften Ausführungsform ist vorgesehen, dass zumindest eine Fahrfunktion als Spurhalteassistenz oder Bremsunterstützung oder autonome Fahrfunktion ausgebildet ist.In an advantageous embodiment, it is provided that at least one driving function is designed as a lane keeping assistance or brake support or autonomous driving function.

Gemäß einem zweiten Aspekt stellt die Erfindung ein System zur Bewertung einer Fahrsituation für die prädiktive Steuerung einer automatisierten Fahrfunktion eines Fahrzeugs bereit. Das System umfasst eine Kamera- und Sensoreinrichtung, die ausgebildet ist, Sensor- und Bilddaten aufzunehmen, wobei die Bild- und Sensordaten die Umgebung und Objekte in der Umgebung des Fahrzeugs abbilden zur Ermittlung einer aktuellen Fahrsituation zu einem ersten Zeitpunkt t1; eine Datenanalyseeinrichtung, die ein Analysesystem umfasst, welches Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) und der maschinellen Bildanalyse verwendet und ausgebildet ist, zumindest eine zukünftigen Fahrsituation zu einem zweiten Zeitpunkt t2 aus den Bild- und Sensordaten und weiteren historischen Daten zu ermitteln, die zumindest eine zukünftige Fahrsituation hinsichtlich der Wahrscheinlichkeit des Eintreffens und/oder weiterer Merkmale, Zustände oder Sicherheitskategorien zu klassifizieren, die klassifizierte zukünftige Fahrsituation zu bewerten und ihr einen Bewertungsindex zuzuordnen; und ein Fahrzeugassistenzmodul, das ausgebildet ist, mit dem Bewertungsindex zumindest eine automatisierte Fahrfunktion zu steuern.According to a second aspect, the invention provides a system for evaluating a driving situation for the predictive control of an automated driving function of a vehicle. The system includes a camera and sensor device that is designed to record sensor and image data, the image and sensor data depicting the surroundings and objects in the surroundings of the vehicle for determining a current driving situation at a first point in time t1; a data analysis device that includes an analysis system that uses algorithms from the field of artificial intelligence (AI) and machine image analysis and is designed to determine at least one future driving situation at a second point in time t2 from the image and sensor data and other historical data, to classify the at least one future driving situation with regard to the probability of occurrence and/or other features, states or safety categories, to evaluate the classified future driving situation and to assign an evaluation index to it; and a vehicle assistance module that is designed to control at least one automated driving function with the evaluation index.

In einer Weiterbildung ist vorgesehen, dass der Bewertungsindex zumindest drei Steuerungszustände aufweist, die als „1 - keine Reaktion“, „2 - aktive Reaktion“ und „3 - adaptive Reaktion“ darstellbar sind.In a further development it is provided that the evaluation index has at least three control states, which can be represented as “1—no reaction”, “2—active reaction” and “3—adaptive reaction”.

In einer vorteilhaften Ausführungsform umfasst das Analysesystem ein Erkennungsmodul zum Erkennen der aktuellen Fahrsituation zu einem ersten Zeitpunkt t1, ein Klassifizierungsmodul zum Klassifizieren der aktuellen Fahrsituation und/oder zumindest einer zukünftigen Fahrsituation, ein Prädiktionsmodul zum Berechnen zumindest einer zukünftigen Fahrsituation zu einem zweiten Zeitpunkt t2 und zum Schätzen eines Wahrscheinlichkeitswertes für das Eintreffen der zukünftigen Fahrsituation und ein Bewertungsmodul zum Bewerten der zukünftigen Fahrsituation mittels Bewertungskriterien.In an advantageous embodiment, the analysis system comprises a detection module for detecting the current driving situation at a first point in time t1, a classification module for classifying the current driving situation and/or at least one future driving situation, a prediction module for calculating at least one future driving situation at a second point in time t2 and at Estimation of a probability value for the occurrence of the future driving situation and an evaluation module for evaluating the future driving situation using evaluation criteria.

In einer Weiterentwicklung werden als Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) und der maschinellen Bildanalyse Algorithmen aus dem Bereich des Maschinenlernens, vorzugsweise Deep Learning mit tiefen neuronalen Netzen und/oder gefalteten neuronalen Netzwerken (engl.: convolutional neural networks) und/oder Lernverstärkungs-Agenten (LV) (Reinforcement Learning Agent) zur Analyse und Bewertung einer Fahrsituation mittels der erfassten Bild- und Sensordaten und/oder weiterer Daten verwendet.In a further development, algorithms from the field of artificial intelligence (AI) and machine image analysis are used as algorithms from the field of machine learning, preferably deep learning with deep neural networks and/or convolutional neural networks and/or Learning reinforcement agents (LV) (Reinforcement Learning Agent) used to analyze and evaluate a driving situation using the captured image and sensor data and / or other data.

Gemäß einem dritten Aspekt stellt die Erfindung ein Computerprogrammprodukt bereit, das einen ausführbaren Programmcode umfasst, der so konfiguriert ist, dass er bei seiner Ausführung das Verfahren gemäß dem ersten Aspekt ausführt.According to a third aspect, the invention provides a computer program product comprising executable program code configured, when executed, to carry out the method according to the first aspect.

Nachfolgend wird die Erfindung anhand von in der Zeichnung dargestellten Ausführungsbeispielen näher erläutert.The invention is explained in more detail below with reference to exemplary embodiments illustrated in the drawing.

Dabei zeigt:

  • 1 eine schematische Darstellung eines ersten Ausführungsbeispiels des erfindungsgemäßen Systems;
  • 2 eine schematische Darstellung eines erfindungsgemäßen Analysesystems;
  • 3 ein Flussdiagramm zur Erläuterung der einzelnen Verfahrensschritte des erfindungsgemäßen Verfahrens;
  • 4 ein Blockdiagramm eines Computerprogrammprodukt gemäß einer Ausführungsform des dritten Aspekts der Erfindung.
It shows:
  • 1 a schematic representation of a first embodiment of the system according to the invention;
  • 2 a schematic representation of an analysis system according to the invention;
  • 3 a flowchart to explain the individual steps of the method according to the invention;
  • 4 a block diagram of a computer program product according to an embodiment of the third aspect of the invention.

Zusätzliche Kennzeichen, Aspekte und Vorteile der Erfindung oder ihrer Ausführungsbeispiele werden durch die ausführliche Beschreibung in Verbindung mit den Ansprüchen ersichtlich.Additional features, aspects and advantages of the invention or embodiments thereof will become apparent from the detailed description coupled with the claims.

1 zeigt ein erstes Ausführungsbeispiel eines Systems 100 zur Bewertung einer Fahrsituation für die Steuerung einer automatisierten Fahrfunktion für ein Fahrzeug 10. Bei dem Fahrzeug 10 kann es sich beispielsweise um ein Kraftfahrzeug, ein autonom fahrendes Fahrzeug, ein landwirtschaftliches Fahrzeug wie einen Mähdrescher, einen Roboter in der Produktion oder in Service- und Pflegeeinrichtungen, oder um ein Wasserfahrzeug oder um ein Flugobjekt wie eine Drohne handeln. 1 shows a first embodiment of a system 100 for evaluating a driving situation for controlling an automated driving function for a vehicle 10. The vehicle 10 can be, for example, a motor vehicle, an autonomously driving vehicle, an agricultural vehicle such as a combine harvester, a robot in the production or in service and maintenance facilities, or a watercraft or a flying object such as a drone.

Das Fahrzeug 10 weist eine Kamera- und Sensoreinrichtung 12 auf, die die Umgebung und Objekte in der Umgebung des Fahrzeugs 10 aufnimmt und Sensor- und Bilddaten 20 erzeugt. Die Kamera- und Sensoreinrichtung 12 nimmt die Sensor- und Bilddaten 20 in einem Aufnahmebereich auf, der die Umgebung des Fahrzeugs 10 möglichst umfassend erfasst. Insbesondere werden Bild- und Sensordaten 20 von einer vorausliegenden Fahrspur erfasst, aber auch der Seitenbereich und der rückwärtige Bereich des Fahrzeugs 10 sind wichtig, um beispielsweise auf mehrspurigen Straßen Überholmanöver von anderen Verkehrsteilnehmern überwachen zu können. In der Umgebung des Fahrzeugs 10 können sich weitere bewegliche Objekte wie Fahrzeuge, Fußgänger, Fahrradfahrer, Motorradfahrer, etc. aufhalten oder unbewegliche Objekte wie Häuser, Straßenschilder, Zäune, Bäume etc. befinden. Die Kamera- und Sensoreinrichtung 12 gibt die aufgenommenen Sensor- und Bilddaten 20 an eine Datenanalyseeinrichtung 30 zur weiteren Verarbeitung weiter.The vehicle 10 has a camera and sensor device 12 which records the environment and objects in the environment of the vehicle 10 and generates sensor and image data 20 . The camera and sensor device 12 records the sensor and image data 20 in a recording area that records the surroundings of the vehicle 10 as comprehensively as possible. In particular, image and sensor data 20 are recorded from a lane ahead, but the side area and the rear area of the vehicle 10 are also important in order to be able to monitor overtaking maneuvers by other road users on multi-lane roads, for example. Other moving objects such as vehicles, pedestrians, cyclists, motorcyclists, etc. or immovable objects such as houses, street signs, fences, trees etc. The camera and sensor device 12 forwards the recorded sensor and image data 20 to a data analysis device 30 for further processing.

Die Kamera- und Sensoreinrichtung 12 umfasst insbesondere zumindest eine RGB-Kamera im sichtbaren Bereich mit den Grundfarben Blau, Grün und Rot. Es kann aber auch noch zusätzlich zumindest eine UV-Kamera im ultravioletten Bereich und/oder zumindest eine IR-Kamera im infraroten Bereich vorgesehen sein. Die sich durch ihr Aufnahmespektrum unterscheidenden Kameras können somit unterschiedliche Lichtverhältnisse in dem Aufnahmebereich abbilden.The camera and sensor device 12 includes in particular at least one RGB camera in the visible range with the primary colors blue, green and red. However, there can also be at least one UV camera in the ultraviolet range and/or at least one IR camera in the infrared range be provided. The cameras, which differ in terms of their recording spectrum, can thus display different lighting conditions in the recording area.

Die Aufnahmefrequenz der Kamera- und Sensoreinrichtung 12 ist für schnelle Geschwindigkeiten des Fahrzeugs 10 ausgelegt und kann Sensor- und Bilddaten 20 mit einer hohen Bildaufnahmefrequenz aufzunehmen. Des Weiteren kann die Kamera- und Sensoreinrichtung 12 für die Erfassung von akustischen Signalen mit einem Mikrofon ausgestattet sein. Hierdurch können Abrollgeräusche der Reifen oder Motorgeräusche aufgenommen werden, die Rückschlüsse auf den Straßenbelag und die Straßenverhältnisse zu lassen.The recording frequency of the camera and sensor device 12 is designed for high speeds of the vehicle 10 and can record sensor and image data 20 with a high image recording frequency. Furthermore, the camera and sensor device 12 can be equipped with a microphone for the detection of acoustic signals. As a result, rolling noises from the tires or engine noises can be recorded, which allow conclusions to be drawn about the road surface and the road conditions.

Zudem kann vorgesehen sein, dass die Kamera- und Sensoreinrichtung 12 automatisch den Bildaufnahmeprozess dann startet, wenn sich eine flächenmäßig signifikante Änderung im Aufnahmebereich der Kamera- und Sensoreinrichtung 12 ergibt, beispielsweise wenn deutliche Änderungen des Straßenbelags der Fahrbahn erkennbar sind. Hierdurch wird ein selektiver Datenerfassungsprozess ermöglicht und nur relevante Sensor- und Bilddaten 20 werden von der Datenanalyseeinrichtung 30 verarbeitet. Hierdurch können Rechenkapazitäten effizienter genutzt werden.Provision can also be made for the camera and sensor device 12 to automatically start the image recording process when there is a significant change in the recording area of the camera and sensor device 12, for example when clear changes in the road surface are recognizable. This enables a selective data acquisition process and only relevant sensor and image data 20 are processed by the data analysis device 30 . This allows computing capacities to be used more efficiently.

Insbesondere ist vorgesehen, als zumindest eine Kamera eine wetterfeste Action-Kamera zu verwenden, die insbesondere im Außenbereich des Fahrzeugs 10 angeordnet sein kann. Action-Kameras verfügen über weitwinkelige Fischaugen-Objektive, wodurch es möglich ist, einen sichtbaren Radius von ca. 180° zu erreichen. Hierdurch kann die vorausliegende Fahrbahn 20 umfassend abgebildet werden. Action-Kameras können üblicherweise Videos in Full HD (1.920 x 1.080 Pixel) aufzeichnen, jedoch können auch Action-Kameras in Ultra HD bzw. 4K (mindestens 3.840 x 2.160 Pixel) eingesetzt werden, wodurch sich eine deutliche Qualitätssteigerung in der Bildqualität ergibt. Die Bildaufnahmefrequenz beträgt üblicherweise 60 Bilder pro Sekunde in 4K und bis zu 240 pro Sekunde in Full HD. Außerdem kann noch ein integrierter Bildstabilisator vorgesehen sein. Zudem sind Action-Kameras häufig mit einem integrierten Mikrofon ausgestattet. Um Hintergrundgeräusche gezielt auszublenden, können darüber hinaus Verfahren der differentiellen Signalverarbeitung verwendet werden.In particular, it is provided to use a weatherproof action camera as at least one camera, which can be arranged, in particular, outside of the vehicle 10 . Action cameras have wide-angle fisheye lenses, which makes it possible to achieve a visible radius of around 180°. In this way, the road ahead 20 can be mapped comprehensively. Action cameras can usually record videos in Full HD (1,920 x 1,080 pixels), but action cameras in Ultra HD or 4K (at least 3,840 x 2,160 pixels) can also be used, resulting in a significant increase in image quality. The frame rate is typically 60 frames per second in 4K and up to 240 frames per second in Full HD. An integrated image stabilizer can also be provided. In addition, action cameras are often equipped with an integrated microphone. In addition, methods of differential signal processing can be used to selectively suppress background noise.

Des Weiteren kann die Kamera- und Sensoreinrichtung 12 Sensoren wie zumindest einen einen LIDAR-Sensor (Light Detection and Ranging) zur optischen Abstands- und Geschwindigkeitsmessung und/oder zumindest einen Ultraschall-Sensor und/oder zumindest einen Radar-Sensor (Radio Detection and Ranging) enthalten.Furthermore, the camera and sensor device 12 can have sensors such as at least one LIDAR sensor (Light Detection and Ranging) for optical distance and speed measurement and/or at least one ultrasonic sensor and/or at least one radar sensor (Radio Detection and Ranging ) contain.

Die von der Kamera- und Sensoreinrichtung 12 aufgenommenen Sensor- und Bilddaten 20 werden mittels Kommunikationsverbindungen wie beispielsweise ein CAN-Bus-System (Controller Area Network) an die Datenanalyseeinrichtung 30 weitergeleitet. Es können aber auch drahtlose Verbindungen vorgesehen sein. Eine drahtlose Kommunikationsverbindung ist insbesondere als Mobilfunkverbindung und/oder einer Nahfeldkommunikationsverbindung wie Bluetooth®, Ethernet, NFC (near field communication) oder Wi-Fi® ausgebildet.The sensor and image data 20 recorded by the camera and sensor device 12 are forwarded to the data analysis device 30 by means of communication connections such as a CAN bus system (Controller Area Network). However, wireless connections can also be provided. A wireless communication connection is designed in particular as a mobile radio connection and/or a near-field communication connection such as Bluetooth® , Ethernet, NFC (near field communication) or Wi-Fi®.

Des Weiteren ist vorteilhafterweise eine GPS-Verbindung 14 vorgesehen, um den geographischen Standort des Fahrzeugs 10 zu ermitteln und diesen den aufgenommenen Sensor- und Bilddaten 20 zuzuordnen.Furthermore, a GPS connection 14 is advantageously provided in order to determine the geographic location of the vehicle 10 and to assign this to the recorded sensor and image data 20 .

Zudem kann die Datenanalyseeinrichtung 30 auf ein oder mehrere weitere Datenbanken 40 zugreifen. In der Datenbank 40 können beispielsweise Klassifizierungsparameter zur Analyse der aufgenommenen Bild- und Sensordaten 20 oder weitere historische Daten und Bilder und/oder Kenngrößen gespeichert sein. Des Weiteren können Zielgrößen und Zielwerte in der Datenbank 40 abgelegt sein, die einen Sicherheitsstandard definieren. Auch können kartographische und topographische Daten gespeichert sein. Des Weiteren kann eine Benutzerschnittstelle 50 zur Eingabe von weiteren Daten und zur Anzeige der von der Datenanalyseeinrichtung 30 erstellten Berechnungsergebnisse vorgesehen sein. Insbesondere ist die Benutzerschnittstelle 50 als Display mit einem Touchscreen ausgebildet.In addition, the data analysis device 30 can access one or more other databases 40 . For example, classification parameters for analyzing the recorded image and sensor data 20 or other historical data and images and/or parameters can be stored in the database 40 . Furthermore, target variables and target values that define a safety standard can be stored in the database 40 . Cartographic and topographical data can also be stored. Furthermore, a user interface 50 can be provided for entering further data and for displaying the calculation results created by the data analysis device 30 . In particular, the user interface 50 is designed as a display with a touch screen.

Aufgrund des ermittelten geographischen Standorts können zudem aus der Datenbank 40 weitere Daten über die topographische Struktur der Fahrbahn, auf der sich das Fahrzeug 10 befindet, von der Datenanalyseeinrichtung 30 abgerufen werden. Bei der topographischen Struktur kann es sich beispielsweise um die Kuppe eines Hügels handeln, so dass die hinter der Kuppe abfallende Straßenführung für den Fahrer nicht einsehbar ist und er somit auch den Gegenverkehr nicht wahrnehmen kann. Oder es handelt sich um eine scharfe Kurve, die nur mit einer reduzierten Geschwindigkeit befahren werden sollte.On the basis of the geographic location determined, further data on the topographical structure of the roadway on which vehicle 10 is located can also be called up by data analysis device 30 from database 40 . The topographical structure can be, for example, the crest of a hill, so that the road leading down behind the crest cannot be seen by the driver and he therefore cannot see oncoming traffic either. Or it is a sharp turn that only should be driven at a reduced speed.

Insbesondere kann die Fahrtroute in ein Navigationsgerät eingegeben werden, so dass die Daten zu dieser Route aus einer Datenbank 40 abgerufen werden.In particular, the route can be entered into a navigation device so that the data on this route can be retrieved from a database 40 .

Als weitere Daten können aus der Datenbank 40 oder einer anderen Dateneinrichtung Wetterdaten für den augenblicklichen Standort des Fahrzeugs 10 sowie für eine geplante Route abgerufen werden, da diese wie insbesondere Regen, Nebel oder Schnee einen Einfluss auf das Fahrverhalten haben können. Weitere historische Daten können Daten über das Verkehrsaufkommen darstellen.Weather data for the current location of vehicle 10 and for a planned route can be retrieved as additional data from database 40 or another data device, since these, such as rain, fog or snow in particular, can have an impact on driving behavior. Other historical data may represent traffic volume data.

Die Datenanalyseeinrichtung 30 weist vorzugsweise ein Speichermodul 32 und einen Prozessor 34 auf, der die Sensor- und Bilddaten 20 mittels eines Analysesystems 300 bearbeitet. Der Prozessor 34 oder ein weiterer Prozessor ist auch für die Steuerung der Kamera- und Sensoreinrichtung 12 ausgebildet. Die Datenanalyseeinrichtung 30 kann im Fahrzeug 10 integriert sein oder als cloudbasierte Lösung ausgebildet sein. Insbesondere kann die Datenanalyseeinrichtung 30 über eine Kommunikationsverbindung mit einer Cloud-Computing-Infrastruktur 45 oder einer anderen Recheneinheit verbunden sein. Die Datenbank 40 kann auch in der Cloud-Computing-Infrastruktur 45 integriert sein.The data analysis device 30 preferably has a memory module 32 and a processor 34 which processes the sensor and image data 20 using an analysis system 300 . The processor 34 or another processor is also designed to control the camera and sensor device 12 . The data analysis device 30 can be integrated in the vehicle 10 or be embodied as a cloud-based solution. In particular, the data analysis device 30 can be connected to a cloud computing infrastructure 45 or another computing unit via a communication link. The database 40 can also be integrated in the cloud computing infrastructure 45 .

Unter einem „Prozessor“ kann im Zusammenhang mit der Erfindung beispielsweise eine Maschine oder eine elektronische Schaltung verstanden werden. Bei einem Prozessor kann es sich insbesondere um einen Hauptprozessor (engl. Central Processing Unit, CPU), einen Mikroprozessor oder einen Mikrocontroller, beispielsweise eine anwendungsspezifische integrierte Schaltung oder einen digitalen Signalprozessor, möglicherweise in Kombination mit einer Speichereinheit zum Speichern von Programmbefehlen, etc. handeln. In the context of the invention, a “processor” can be understood to mean, for example, a machine or an electronic circuit. A processor can in particular be a central processing unit (CPU), a microprocessor or a microcontroller, for example an application-specific integrated circuit or a digital signal processor, possibly in combination with a memory unit for storing program instructions, etc .

Auch kann unter einem Prozessor ein virtualisierter Prozessor, eine virtuelle Maschine oder eine Soft-CPU verstanden werden. Es kann sich beispielsweise auch um einen programmierbaren Prozessor handeln, der mit Konfigurationsschritten zur Ausführung des genannten erfindungsgemäßen Verfahrens ausgerüstet wird oder mit Konfigurationsschritten derart konfiguriert ist, dass der programmierbare Prozessor die erfindungsgemäßen Merkmale des Verfahrens, der Komponente, der Module, oder anderer Aspekte und/oder Teilaspekte der Erfindung realisiert. Insbesondere kann der Prozessor 34 hochparallele Recheneinheiten und leistungsfähige Grafikmodule enthalten. Der Prozessor 34 kann zudem vorteilhaftweise eine Kl-Hardwarebeschleunigung wie ein Coral Dev Board verwenden, um eine Bearbeitung in Echtzeit zu ermöglichen. Es handelt sich hierbei um einen Mikrocomputer mit einer Tensorverarbeitungseinheit (engl.: tensor processing unit (TPU)), wodurch eine vortrainierte Softwareapplikation bis zu 70 Bilder pro Sekunde auswerten kann.A processor can also be understood to mean a virtualized processor, a virtual machine or a soft CPU. It can also be a programmable processor, for example, which is equipped with configuration steps for executing the mentioned method according to the invention or is configured with configuration steps in such a way that the programmable processor has the inventive features of the method, the component, the modules, or other aspects and/or or implemented partial aspects of the invention. In particular, the processor 34 can contain highly parallel computing units and powerful graphics modules. Processor 34 may also advantageously use AI hardware acceleration such as a Coral Dev Board to enable real-time processing. This is a microcomputer with a tensor processing unit (TPU) that allows a pre-trained software application to evaluate up to 70 frames per second.

Unter einer „Speichereinheit“ oder „Speichermodul“ und dergleichen kann im Zusammenhang mit der Erfindung beispielsweise ein flüchtiger Speicher in Form eines Arbeitsspeichers (engl. Random-Access Memory, RAM) oder ein dauerhafter Speicher wie eine Festplatte oder ein Datenträger oder z. B. ein wechselbares Speichermodul verstanden werden. Es kann sich bei dem Speichermodul aber auch um eine cloudbasierte Speicherlösung handeln.In the context of the invention, a “memory unit” or “memory module” and the like can mean, for example, a volatile memory in the form of a random-access memory (RAM) or a permanent memory such as a hard disk or a data carrier or e.g. B. be understood as a removable memory module. However, the storage module can also be a cloud-based storage solution.

Unter einem „Modul“ kann im Zusammenhang mit der Erfindung beispielsweise ein Prozessor und/oder eine Speichereinheit zum Speichern von Programmbefehlen verstanden werden. Beispielsweise ist der Prozessor speziell dazu eingerichtet, die Programmbefehle derart auszuführen, damit der Prozessor und/oder die Steuereinheit Funktionen ausführt, um das erfindungsgemäße Verfahren oder einen Schritt des erfindungsgemäßen Verfahrens zu implementieren oder realisieren.In connection with the invention, a “module” can be understood to mean, for example, a processor and/or a memory unit for storing program instructions. For example, the processor is specially set up to execute the program instructions in such a way that the processor and/or the control unit executes functions in order to implement or realize the method according to the invention or a step of the method according to the invention.

Unter „Daten“ sind im Zusammenhang mit der Erfindung sowohl Rohdaten als auch bereits aufbereitete Daten aus den Messergebnissen der Kamera- und Sensoreinrichtung 12 und/oder in der Datenbank 40 und/ oder der Cloud-Computing-Infrastruktur 45 gespeicherte Daten zu verstehen.In connection with the invention, “data” means both raw data and data that has already been processed from the measurement results of the camera and sensor device 12 and/or data stored in the database 40 and/or the cloud computing infrastructure 45 .

Unter „Datenbank“ ist sowohl ein Speicheralgorithmus als auch die Hardware in Form einer Speichereinheit zu verstehen. Insbesondere ist die Datenbank als Cloud-Computing-Infrastruktur 45 ausgebildet."Database" means both a storage algorithm and the hardware in the form of a storage unit. In particular, the database is designed as a cloud computing infrastructure 45 .

Die Kommunikationsverbindung zwischen der Datenanalyseeinrichtung 30 und der Datenbank 40 bzw. Cloud-Computing-Infrastruktur 45 ist insbesondere als Mobilfunkverbindung und/oder als Nahfeldkommunikationsverbindung wie Bluetooth®, Ethernet, NFC (near field communication) oder Wi-Fi® ausgebildet.The communication connection between the data analysis device 30 and the database 40 or cloud computing infrastructure 45 is designed in particular as a mobile radio connection and/or as a near field communication connection such as Bluetooth® , Ethernet, NFC (near field communication) or Wi-Fi®.

Insbesondere verfügen die Datenanalyseeinrichtung 30 und/oder die Kamera- und Sensoreinrichtung 12 über Mobilfunkmodule des 5G-Standards. 5G ist der Mobilfunkstandard der fünften Generation und zeichnet sich im Vergleich zum 4G-Mobilfunkstandard durch höhere Datenraten bis zu 10 Gbit/sec, der Nutzung höherer Frequenzbereiche wie beispielsweise 2100, 2600 oder 3600 Megahertz, eine erhöhte Frequenzkapazität und damit einen erhöhten Datendurchsatz und eine Echtzeitdatenübertragung aus, da bis zu eine Million Geräte pro Quadratkilometer gleichzeitig ansprechbar sind. Die Latenzzeiten betragen wenige Millisekunden bis unter 1 ms, so dass Echtzeitübertragungen von Daten und von Berechnungsergebnissen möglich sind. Die von der Kamera- und Sensoreinrichtung 12 aufgenommenen Sensor- und Bilddaten 20 können in Echtzeit an die Cloud-Computing-Infrastruktur 45 gesendet werden, wo die Analyse der Sensor- und Bilddaten 20 durchgeführt wird. Die Analyse- und Berechnungsergebnisse können an das Datenverarbeitungsmodul 30 oder ein anderes Steuerungsmodul in dem Fahrzeug 10 zurückgesandt werden.In particular, the data analysis device 30 and/or the camera and sensor device 12 have mobile radio modules of the 5G standard. 5G is the fifth-generation mobile communications standard and, compared to the 4G mobile communications standard, is characterized by higher data rates of up to 10 Gbit/sec, the use of higher frequency ranges such as 2100, 2600 or 3600 megahertz, increased frequency capacity and thus increased data throughput and real-time data data transmission, as up to one million devices per square kilometer can be addressed simultaneously. The latency times are a few milliseconds to less than 1 ms, so that real-time transmission of data and calculation results is possible. The sensor and image data 20 recorded by the camera and sensor device 12 can be sent in real time to the cloud computing infrastructure 45, where the analysis of the sensor and image data 20 is carried out. The analysis and calculation results can be sent back to the data processing module 30 or another control module in the vehicle 10 .

Diese Geschwindigkeit bei der Datenübermittlung ist erforderlich, wenn cloudbasierte Lösungen für die Verarbeitung der Sensor- und Bilddaten 20 verwendet werden sollen. Cloudbasierte Lösungen bieten den Vorteil von hohen und damit schnellen Rechenleistungen. Um die Verbindung zu der Cloud-Computing-Infrastruktur 45 mittels einer Mobilfunkverbindung zu schützen, sind insbesondere kryptographische Verschlüsselungsverfahren vorgesehen. Kryptographische Verschlüsselungsverfahren können aber auch für die Verbindung zwischen der Kamera- und Sensoreinrichtung 12 und der Datenanalyseeinrichtung 30 vorgesehen sein.This data transmission speed is required if cloud-based solutions are to be used for processing the sensor and image data 20 . Cloud-based solutions offer the advantage of high and therefore fast computing power. In order to protect the connection to the cloud computing infrastructure 45 by means of a mobile radio connection, cryptographic encryption methods are provided in particular. However, cryptographic encryption methods can also be provided for the connection between the camera and sensor device 12 and the data analysis device 30 .

Die Datenanalyseeinrichtung 30 kann bezüglich der Hardwareausprägung eine separate Einheit und ist insbesondere im Fahrzeug 10 angeordnet, aber sie kann für die Funktionsausübung auch auf andere Hardware- und Softwarekomponenten im Fahrzeug 10 oder in der Cloud-Computing-Infrastruktur 45 zurückgreifen.The data analysis device 30 can be a separate unit with regard to the hardware configuration and is arranged in particular in the vehicle 10, but it can also use other hardware and software components in the vehicle 10 or in the cloud computing infrastructure 45 to carry out the function.

Das Analysesystem 300 umfasst Algorithmen der künstlichen Intelligenz und der maschinellen Bildanalyse, um die Sensor- und Bilddaten 20 zu selektieren und zu klassifizieren. Vorteilhaftweise verwendet das Analysesystem 300 Algorithmen aus dem Bereich des Maschinenlernens, vorzugsweise Deep Learning mit beispielsweise gefalteten neuronalen Netzwerken (engl.: convolutional neural networks) und/oder Lernverstärkungs-Agenten (LV) (Reinforcement Learning Agent) zur Analyse und Bewertung einer zukünftigen Fahrsituation mittels der erfassten Bild- und Sensordaten 20.The analysis system 300 includes artificial intelligence and machine image analysis algorithms to select and classify the sensor and image data 20 . The analysis system 300 advantageously uses algorithms from the field of machine learning, preferably deep learning with, for example, folded neural networks (convolutional neural networks) and/or learning reinforcement agents (LV) (Reinforcement Learning Agent) to analyze and evaluate a future driving situation by means of of the captured image and sensor data 20.

Ein neuronales Netzwerk besteht aus Neuronen, die in mehreren Schichten angeordnet und unterschiedlich miteinander verbunden sind. Ein Neuron ist in der Lage, an seinem Eingang Informationen von außerhalb oder von einem anderen Neuron entgegenzunehmen, die Information in einer bestimmten Art zu bewerten und sie in veränderter Form am Neuronen-Ausgang an ein weiteres Neuron weiterzuleiten oder als Endergebnis auszugeben. Hidden-Neuronen sind zwischen den Input-Neuronen und Output-Neuronen angeordnet. Je nach Netzwerktyp können mehrere Schichten von Hidden-Neuronen vorhanden sein. Sie sorgen für die Weiterleitung und Verarbeitung der Informationen. Output-Neuronen liefern schließlich ein Ergebnis und geben dieses an die Außenwelt aus. Durch die Anordnung und die Verknüpfung der Neuronen entstehen verschiedene Typen von neuronalen Netzwerken wie Feedforward-Netzwerke, Rekurrente Netzwerke oder Convolutional Neural Networks. Die Netzwerke lassen sich durch unbeaufsichtigtes oder überwachtes Lernen trainierenA neural network consists of neurons that are arranged in several layers and connected to each other in different ways. A neuron is able to receive information from outside or from another neuron at its input, to evaluate the information in a certain way and to pass it on to another neuron in a changed form at the neuron output or to output it as the end result. Hidden neurons are located between the input neurons and output neurons. Depending on the network type, there can be several layers of hidden neurons. They ensure the forwarding and processing of the information. Finally, output neurons deliver a result and output it to the outside world. Different types of neural networks such as feedforward networks, recurrent networks or convolutional neural networks are created by the arrangement and linking of the neurons. The networks can be trained through unsupervised or supervised learning

Das Convolutional Neural Network ist eine besondere Form eines künstlichen neuronalen Netzwerks. Es besitzt mehrere Faltungsschichten und ist für maschinelles Lernen und Anwendungen mit Künstlicher Intelligenz (KI) im Bereich der Bild- und Spracherkennung sehr gut geeignet. Die Funktionsweise eines Convolutional Neural Networks ist zu einem gewissen Teil biologischen Vorgängen nachempfunden und der Aufbau ist vergleichbar der Sehrinde des Gehirns. Das Training eines Convolutional Neural Networks findet gewöhnlich überwacht statt. Herkömmliche neuronale Netzwerke bestehen aus voll- oder teilvermaschten Neuronen in mehreren Ebenen. Diese Strukturen stoßen jedoch bei der Verarbeitung von Bildern an ihre Grenzen, da eine der Pixelanzahl entsprechende Zahl an Eingängen vorhanden sein müsste. Das Convolutional Neural Network setzt sich aus verschiedenen Schichten zusammen und ist vom Grundprinzip ein zum Teil lokal vermaschtes neuronales Feedforward-Netzwerk. Die einzelnen Schichten des CNN sind die Convolutional-Schicht, die Pooling-Schicht und die vollständig vermaschte Schicht. Die Convolutional-Schicht ist die eigentliche Faltungsebene und in der Lage, in den Eingabedaten einzelne Merkmale zu erkennen und zu extrahieren. Bei der Bildverarbeitung können dies Merkmale wie Linien, Kanten oder bestimmte Formen sein. Die Verarbeitung der Eingabedaten erfolgt in Form von Tensoren wie einer Matrix oder Vektoren. Die Pooling-Schicht, auch Subsampling-Schicht genannt, verdichtet und reduziert die Auflösung der erkannten Merkmale durch passende Filterfunktionen. Durch das reduzierte Datenaufkommen erhöht sich die Berechnungsgeschwindigkeit.The convolutional neural network is a special form of an artificial neural network. It has multiple layers of convolution and is well suited for machine learning and artificial intelligence (AI) applications in the field of image and speech recognition. The functionality of a convolutional neural network is to a certain extent modeled on biological processes and the structure is comparable to the visual cortex of the brain. The training of a convolutional neural network usually takes place under supervision. Conventional neural networks consist of fully or partially meshed neurons in several levels. However, these structures reach their limits when processing images, since there would have to be a number of inputs corresponding to the number of pixels. The convolutional neural network is made up of different layers and is based on the basic principle of a partly locally meshed neural feedforward network. The individual layers of the CNN are the convolutional layer, the pooling layer and the fully meshed layer. The convolutional layer is the actual convolution layer and is able to recognize and extract individual features in the input data. In image processing, these can be features such as lines, edges or specific shapes. The input data is processed in the form of tensors such as a matrix or vectors. The pooling layer, also known as the subsampling layer, compresses and reduces the resolution of the recognized features using appropriate filter functions. The reduced data volume increases the calculation speed.

Das Convolutional Neural Network (CNN) bietet daher gegenüber herkömmlichen nicht gefalteten neuronalen Netzen zahlreiche Vorteile. Es eignet sich für maschinelles Lernen und Anwendungen der Künstlichen Intelligenz mit großen Mengen an Eingabedaten wie in der Bilderkennung. Das Netzwerk arbeitet zuverlässig und ist gegenüber Verzerrungen oder anderen optischen Veränderungen unempfindlich. Das CNN kann unter verschiedenen Lichtverhältnissen und in unterschiedlichen Perspektiven aufgenommene Bilder verarbeiten. Es erkennt dennoch die typischen Merkmale eines Bildes. Da das CNN in mehrere lokale, teilvermaschte Schichten aufgeteilt ist, hat es einen wesentlich geringeren Speicherplatzbedarf als vollvermaschte neuronale Netze. Die Faltungsschichten reduzieren die Speicheranforderungen drastisch. Ebenfalls stark verkürzt ist die Trainingszeit des Convolutional Neural Networks. Mit dem Einsatz moderner Grafikprozessoren lassen sich CNNs sehr effizient trainieren.The convolutional neural network (CNN) therefore offers numerous advantages over conventional non-convoluted neural networks. It is suitable for machine learning and artificial intelligence applications with large amounts of input data, such as in image recognition. The network works reliably and is not sensitive to distortions or other optical changes. CNN can process images captured under different lighting conditions and from different perspectives. It recognizes him nor the typical features of an image. Since the CNN is divided into several local, partially meshed layers, it requires significantly less storage space than fully meshed neural networks. The convolutional layers drastically reduce storage requirements. The training time of the convolutional neural network is also greatly reduced. With the use of modern graphics processors, CNNs can be trained very efficiently.

Ein Lernverstärkungs-Agent (LV) (Reinforcement Learning Agent) wählt einen bestimmten Zustand si ∈ S aus einer Menge verfügbarer Zustände für zumindest eine Aktion ai ∈ A aus einer Menge verfügbarer Aktionen aus. Für die ausgewählte Aktion ai erhält der Agent eine Belohnung, die positiv, neutral oder negativ sein kann. Die Zustände si ∈ S erhält der Agent von einem Zustandsmodul, das Daten von verschiedenen Sensoren und Datenquellen verarbeitet und diesen verarbeiteten Daten Zustände si ∈ S zuordnet, auf die der LV-Agent zugreifen kann.A reinforcement learning agent (LV) selects a specific state si ∈ S from a set of available states for at least one action a i ∈ A from a set of available actions. For the selected action a i the agent receives a reward which can be positive, neutral or negative. The agent receives the states s i ∈ S from a state module, which processes data from various sensors and data sources and assigns states s i ∈ S to these processed data, which the LV agent can access.

2 zeigt das erfindungsgemäße Analysesystem 300, das ein Erkennungsmodul 310, ein Klassifizierungsmodul 320, ein Prädiktionsmodul 330 und ein Bewertungsmodul 340 umfasst. 2 shows the analysis system 300 according to the invention, which comprises a recognition module 310, a classification module 320, a prediction module 330 and an evaluation module 340.

In dem Erkennungsmodul 310 werden die erfassten Sensor- und Bilddaten 20 bearbeitet, um die Umgebung und die Objekte in der Umgebung zu erkennen und eine aktuelle Fahrsituation zu einem ersten Zeitpunkt t1 zu ermitteln. Insbesondere werden die Sensor- und Bilddaten 20 mittels eines Convolutional Neural Network bearbeitet. Eine Fahrsituation zu einem ersten Zeitpunkt t1 stellt somit eine Repräsentation von verschiedenen Objekten an verschiedenen Orten in einem dreidimensionalen Raum im Verhältnis zu dem aktuellen Ort des Fahrzeugs 10 dar. Die Objekte und das Fahrzeug 10 bewegen sich jedoch mit unterschiedlichen Geschwindigkeiten, so dass sich eine zukünftige Fahrsituation zu einem zweiten Zeitpunkt t2 gegenüber der aktuellen Fahrsituation ändert.The detected sensor and image data 20 are processed in the detection module 310 in order to detect the surroundings and the objects in the surroundings and to determine a current driving situation at a first point in time t1. In particular, the sensor and image data 20 are processed using a convolutional neural network. A driving situation at a first point in time t1 thus represents a representation of different objects at different locations in a three-dimensional space in relation to the current location of the vehicle 10. However, the objects and the vehicle 10 are moving at different speeds, so that a future Driving situation changes at a second point in time t2 compared to the current driving situation.

Das Erkennungsmodul 310 kann wiederum für die Extraktion von Bildmerkmalen zumindest ein Encoder-Modul aufweisen. Die extrahierten Bildmerkmale werden an zumindest ein Decoder-Modul zur Auswertung weitergegeben. Hierdurch können die Anforderungen an die Rechenkapazität für die Bearbeitung des Sensor- und Bilddaten bezüglich spezifischer Charakteristika wie der Objekterkennung und der Tiefenschätzung für eine genaue Positionsbestimmung reduziert werden.The recognition module 310 can in turn have at least one encoder module for the extraction of image features. The extracted image features are forwarded to at least one decoder module for evaluation. As a result, the demands on the computing capacity for processing the sensor and image data with regard to specific characteristics such as object recognition and depth estimation for precise position determination can be reduced.

In dem Klassifizierungsmodul 320 werden die erkannten Objekte in Verbindung mit weiteren Daten insbesondere aus der Datenbank 40 nach verschiedenen Merkmalen, Zuständen und/oder Sicherheitskategorien klassifiziert. So kann eine Straßenführung aufgrund der Topographie als ungefährlich oder gefährlich klassifiziert werden und einer Sicherheitsstufe von niedrig bis hoch zugeordnet werden. Oder die Fahrweise eines anderen Fahrzeugs kann aufgrund der Geschwindigkeit als unbedenklich eingestuft oder als Sicherheitsrisiko betrachtet werden. Diese Merkmale, Zustände und/oder Sicherheitskategorien wurden vorzugsweise vorab definiert, dem Klassifizierungsmodul 320 übermittelt und während einer Trainingsphase eines neuronalen Netzes implementiert.In the classification module 320, the detected objects are classified in connection with further data, in particular from the database 40, according to various characteristics, states and/or security categories. A route can be classified as non-hazardous or dangerous based on the topography and assigned a security level from low to high. Or the driving style of another vehicle can be classified as harmless due to the speed or regarded as a safety risk. These features, states, and/or security categories have preferably been predefined, communicated to the classification module 320, and implemented during a neural network training phase.

Die erkannte und klassifizierte Fahrsituation wird in dem Prädiktionsmodul 330 hinsichtlich der Prädiktion einer zukünftigen Fahrsituation zu einem Zeitpunkt t2 bearbeitet. Das Prädiktionsmodul 330 berechnet aufgrund einer Vorhersage über die Veränderung der räumlichen Position der verschiedenen Objekte in der Umgebung des Fahrzeugs 10 zumindest eine zukünftige Fahrsituation zu einem zweiten Zeitpunkt t2. Je geringer das Zeitintervall zwischen t1 und t2 ist, desto genauer ist die Vorhersage der zukünftigen Fahrsituation. Die zukünftige Fahrsituation zu einem zweiten Zeitpunkt t2 wird daher mit einer Wahrscheinlichkeit gewichtet für das Eintreffen des tatsächlichen Ereignisses, also der zukünftigen Fahrsituation. Insbesondere kann das Prädiktionsmodul 330 mehrere zukünftige Fahrsituationen zu einem zweiten Zeitpunkt t2 berechnen, die jeweils mit einer Wahrscheinlichkeit des tatsächlichen Eintreffens bewertet werden. Das Prädiktionsmodul 330 kann aber auch zu mehreren Zeitpunkten ti beispielsweise in einer Zeitfolge jeweils zumindest eine zukünftige Fahrsituationen berechnen, die jeweils mit einer Wahrscheinlichkeit des tatsächlichen Eintreffens bewertet werden Diese verschiedenen zukünftigen Fahrsituationen zu einem Zeitpunkt t2 und/oder zu weiteren Zeitpunkten ti können wiederum von dem Klassifizierungsmodul 320 nach Merkmalen, Zuständen und/oder Sicherheitskategorien klassifiziert werden. So kann eine erste zukünftige Fahrsituation eine hohe Wahrscheinlichkeit des Eintreffens aufweisen und mit einer geringen Sicherheitsstufe bewertet werden. Eine zweite zukünftige Fahrsituation kann hingegen eine geringe Wahrscheinlichkeit des Eintreffens aufweisen, aber dafür mit einer hohen Sicherheitsstufe bewertet werden.The recognized and classified driving situation is processed in the prediction module 330 with regard to the prediction of a future driving situation at a point in time t2. The prediction module 330 calculates at least one future driving situation at a second point in time t2 on the basis of a prediction about the change in the spatial position of the various objects in the area surrounding the vehicle 10 . The shorter the time interval between t1 and t2, the more accurate the prediction of the future driving situation. The future driving situation at a second point in time t2 is therefore weighted with a probability of the actual event occurring, ie the future driving situation. In particular, the prediction module 330 can calculate a number of future driving situations at a second point in time t2, which are each evaluated with a probability of actual occurrence. However, prediction module 330 can also calculate at least one future driving situation at a plurality of points in time ti, for example in a time sequence, each of which is evaluated with a probability of actual occurrence Classification module 320 are classified according to characteristics, states and / or security categories. A first future driving situation can thus have a high probability of occurrence and be evaluated with a low safety level. A second future driving situation, on the other hand, may have a low probability of occurrence, but be rated with a high safety level.

Die von dem Prädiktionsmodul 330 zumindest eine berechnete zukünftige Fahrsituation wird von dem Bewertungsmodul 340 bewertet. Die Bewertungskriterien wägen die Wahrscheinlichkeit des Eintreffens und die weiteren Merkmale, Zustände und Sicherheitskategorien gegeneinander ab. Da es im Bereich des automatisierten Fahrens eine Reihe von ethischen Fragestellungen gibt, um die Sicherheit aller Verkehrsteilnehmer zu gewährleisten, können auch ethische Kriterien in die Bewertungskriterien einfließen, die beispielsweise von einer Ethikkommission für automatisiertes Fahren erarbeitet worden sind.The at least one future driving situation calculated by prediction module 330 is evaluated by evaluation module 340 . The evaluation criteria weigh the probability of arrival and the other characteristics, conditions and security categories against each other. Since there are a number of ethical issues in the field of automated driving in order to ensure the safety of all road users, ethical criteria can also be included in the evaluation criteria, which, for example, have been developed by an ethics committee for automated driving.

Das Bewertungsmodul 340 gibt aufgrund der Bewertung der zumindest einen zukünftigen Fahrsituation zu einem Zeitpunkt t2 und/oder zu einem weiteren Zeitpunkt ti einen Bewertungsindex 70 aus. Der Bewertungsindex 70 entspricht einem Steuerungszustand für ein Fahrassistenzmodul 80, wobei insbesondere drei Steuerungszustände vorgesehen sind, die mit „1 - keine Reaktion“, „2 - aktive Reaktion“ und „3 - adaptive Reaktion“ bezeichnet werden können.The evaluation module 340 outputs an evaluation index 70 based on the evaluation of the at least one future driving situation at a point in time t2 and/or at a further point in time ti. Evaluation index 70 corresponds to a control state for a driver assistance module 80, with three control states being provided in particular, which can be labeled “1—no reaction”, “2—active reaction” and “3—adaptive reaction”.

Bei dem ersten Steuerungszustand „1 - keine Reaktion“ erfolgt keine Änderung des Fahrverhaltens, da die Wahrscheinlichkeit des Eintreffens eines kritischen zukünftigen Ereignisses gering ist und/oder die daraus resultierende Gefahr und/oder ein verminderter Komfort beim Fahren in Kauf genommen werden kann.In the first control state "1 - no reaction" there is no change in driving behavior since the probability of a critical future event occurring is low and/or the resulting danger and/or reduced comfort when driving can be accepted.

Bei dem zweiten Steuerungszustand „2 - aktive Reaktion“ erfolgt eine aktive Änderung des Fahrverhaltens, da die Wahrscheinlichkeit des Eintreffens eines kritischen zukünftigen Ereignisses hoch ist und/oder die Wahrscheinlichkeit des Eintreffens eines kritischen zukünftigen Ereignisses zwar gering ist, aber das Gefahrenpotential des Ereignisses sehr hoch ist, und daher der daraus resultierenden Gefahr und/oder ein geringerer Komfort beim Fahren entgegengesteuert werden muss, um ein sicheres und/oder komfortables Fahren beim Eintreffen der zukünftigen Fahrsituation zu gewährleisten.In the second control state "2 - active reaction" there is an active change in driving behavior, since the probability of a critical future event occurring is high and/or the probability of a critical future event occurring is low, but the risk potential of the event is very high is, and therefore the resulting danger and / or less comfort when driving must be counteracted in order to ensure safe and / or comfortable driving when the future driving situation occurs.

Bei dem dritten Steuerungszustand „3 - adaptive Reaktion“ erfolgt ein moderates Anpassen des Fahrverhaltens, wie beispielsweise keine Gaszuführung und ein leichtes Reduzieren der Geschwindigkeit, da die Wahrscheinlichkeit des Eintreffens eines kritischen zukünftigen Ereignisses im mittleren Bereich liegt. Durch das moderate Anpassen des Fahrverhaltens kann die Gefahr reduziert und/oder der Fahrkomfort verbessert werden. Für den Fall, dass das Ereignis nicht eintritt, ist dieser dritte Steuerungszustand optimaler als das reaktive Verhalten beim ersten Steuerungszustand.In the third control state "3 - adaptive reaction" there is a moderate adaptation of the driving behavior, such as no gas supply and a slight reduction in speed, since the probability of a critical future event occurring is in the medium range. The risk can be reduced and/or the driving comfort improved by moderately adapting the driving behavior. In the event that the event does not occur, this third control state is more optimal than the reactive behavior in the first control state.

Es kann in einer Weiterentwicklung aber auch vorgesehen sein, dass neben den drei beschriebenen Steuerungszuständen ein Kontinuum von mehreren Steuerungszuständen zwischen dem ersten Steuerungszustand „1 - keine Reaktion und dem zweiten Steuerungszustand „2 - aktive Reaktion“ vorgesehen sind, die jeweils eine prädiktive individuellen Reaktion auf eine bestimmte zukünftige Situation ermöglichen.In a further development, however, it can also be provided that, in addition to the three control states described, a continuum of several control states is provided between the first control state "1 - no reaction" and the second control state "2 - active reaction", each of which has a predictive individual reaction to enable a certain future situation.

Der Bewertungsindex 70 wird somit an das Fahrassistenzmodul 80 weitergeleitet und in zumindest eine automatisierte Fahrfunktion 85 integriert und/oder an die Benutzerschnittstelle 50 übermittelt. Eine Fahrfunktion 85 ist beispielsweise eine Spurhalteassistenz, eine Bremsunterstützung oder eine autonome Fahrfunktion. Bei einer automatisieren Fahrfunktion 85 kann beispielsweis automatisch das Fahrtempo reduziert werden oder eine automatische Bremsung durchgeführt werden durch Ausgabe von entsprechenden Steuerungsbefehlen an Steuerungseinrichtungen 14 des Fahrzeugs 10 wie den Motor und/oder die Bremsen. Außerdem können die Sitzgurte automatisch angespannt werden.The evaluation index 70 is thus forwarded to the driver assistance module 80 and integrated into at least one automated driving function 85 and/or transmitted to the user interface 50 . A driving function 85 is, for example, lane keeping assistance, braking assistance or an autonomous driving function. In the case of an automated driving function 85, for example, the driving speed can be automatically reduced or automatic braking can be carried out by issuing corresponding control commands to control devices 14 of vehicle 10 such as the engine and/or the brakes. In addition, the seat belts can be tightened automatically.

Zusätzlich können Handlungsempfehlungen oder Warnhinweise an den Fahrer der Fahrzeugs 10 über die Benutzerschnittstelle 50 angezeigt werden. So kann beispielsweise ein Warnton oder ein optischer Hinweis in Abhängigkeit von dem Bewertungsindex 70 über die Benutzerschnittstelle 50 ausgegeben werden, um den Fahrer auf eine besondere Verkehrssituation aufmerksam zu machen, die eine erhöhte Aufmerksamkeit beansprucht.In addition, recommendations for action or warnings can be displayed to the driver of the vehicle 10 via the user interface 50 . For example, a warning tone or a visual indication depending on the evaluation index 70 can be output via the user interface 50 in order to draw the driver's attention to a particular traffic situation that requires increased attention.

Da die Berechnung des Bewertungsindex 70 in Echtzeit erfolgen muss für eine zeitnahe Steuerung der Fahrfunktion 85, ist für die Vielzahl von Rechenoperationen in den verschiedenen Modulen des Analysesystem 300 die Rechengeschwindigkeit entscheidend. Um eine Durchführung der Rechenoperationen in Echtzeit zu ermöglichen, ist daher die Verwendung der Cloud-Computing-Infrastruktur 45 vorteilhaft, da hierdurch eine schnelle Berechnung gewährleistet werden kann. Für die Kommunikation der Datenanalyseeinrichtung 30 mit der Cloud-Computing-Infrastruktur 45 ist wiederum eine 5G-Mobilfunkverbindung vorteilhaft, da auf diese Weise eine Datenübermittlung in Echtzeit erfolgen kann.Since the evaluation index 70 must be calculated in real time for the driving function 85 to be controlled promptly, the calculation speed is decisive for the large number of calculation operations in the various modules of the analysis system 300 . In order to enable the arithmetic operations to be carried out in real time, the use of the cloud computing infrastructure 45 is therefore advantageous since this can ensure rapid calculation. A 5G mobile phone connection is advantageous for the communication between the data analysis device 30 and the cloud computing infrastructure 45 since data can be transmitted in real time in this way.

In einer Weiterentwicklung kann auch vorgesehen sein, dass zumindest ein Teil der Objekte in der Umgebung des Fahrzeugs 1 ebenfalls ihre aufgenommenen Daten an die Cloud-Computing-Infrastruktur 45 senden, so dass die Cloud-Computing-Infrastruktur 45 aus diesen Daten der Objekte sowie den Daten des Fahrzeugs 10 die aktuelle Fahrsituation sowie zukünftige Fahrsituationen simulieren kann.In a further development it can also be provided that at least some of the objects in the vicinity of the vehicle 1 also send their recorded data to the cloud computing infrastructure 45, so that the cloud computing infrastructure 45 uses this data on the objects and the Data of the vehicle 10 can simulate the current driving situation and future driving situations.

Durch die Berücksichtigung von zu erwartenden, geschätzten oder bekannten zukünftigen Ereignissen wie beispielsweise Steigungen oder Kurven aufgrund der Topographie oder auf der Fahrspur einscherende Fahrzeuge wird ein sicheres und komfortables und sicheres Fahren ermöglicht. Zukünftige Fahrsituationen werden mittels Algorithmen zur Prädiktion berechnet und mit einer Wahrscheinlichkeit ihres Eintreffens gewichtet. Daraus wird ein Bewertungsindex für die zukünftige Fahrsituation berechnet, der eine prädiktive Steuerung von Fahrfunktionen des Fahrzeugs 10 ermöglicht. Insbesondere werden drei Steuerungszustände vorgeschlagen, die eine bessere Anpassung der Fahrfunktionen an eine zukünftige Fahrsituation ermöglichen. Das Fahrverhalten in Bezug auf Sicherheit, Komfort und Performance kann somit feiner abgestimmt werden, wodurch das Vertrauen in automatische Fahrfunktionen und damit das Fahrgefühl deutlich verbessert werden kann.Safe, comfortable and safe driving is made possible by taking into account future events that are to be expected, estimated or known, such as gradients or curves due to the topography or vehicles cutting into the lane. Future driving situations are calculated using prediction algorithms and weighted with a probability of their occurrence. From this, an evaluation index for the future driving situation is calculated, which enables predictive control of driving functions of vehicle 10 . In particular three control states are proposed, which enable a better adaptation of the driving functions to a future driving situation. The driving behavior in terms of safety, comfort and performance can thus be fine-tuned, which means that the trust in automatic driving functions and thus the driving experience can be significantly improved.

In 3 sind die Verfahrensschritte zur Bewertung einer Fahrsituation für die prädiktive Steuerung einer automatisierten Fahrfunktion beschrieben.In 3 describes the procedural steps for evaluating a driving situation for the predictive control of an automated driving function.

In einem Schritt S10 werden Sensor- und Bilddaten 20 von einer Kamera- und Sensoreinrichtung 12 eines Fahrzeugs 10 aufgenommen, wobei die Bild- und Sensordaten 20 die Umgebung und Objekte in der Umgebung des Fahrzeugs 10 abbilden.In a step S10 , sensor and image data 20 are recorded by a camera and sensor device 12 of a vehicle 10 , the image and sensor data 20 depicting the surroundings and objects in the surroundings of the vehicle 10 .

In einem Schritt S20 werden die Sensor- und Bilddaten 20 und/oder weitere historische Daten aus einer Datenbank 40 an eine Datenanalyseeinrichtung 30 weitergegeben, wobei die Datenanalyseeinrichtung 30 ein Analysesystem 300 umfasst, welches Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) und der maschinellen Bildanalyse verwendet.In a step S20, the sensor and image data 20 and/or other historical data from a database 40 are passed on to a data analysis device 30, with the data analysis device 30 comprising an analysis system 300 which uses algorithms from the field of artificial intelligence (AI) and machine image analysis used.

In einem Schritt S30 wird aus den Sensor- und Bilddaten 20 in der Datenanalyseeinrichtung 40 mittels des Analysesystems 300 zumindest eine zukünftige Fahrsituation zu ermitteln.In a step S30, at least one future driving situation is determined from the sensor and image data 20 in the data analysis device 40 using the analysis system 300.

In einem Schritt S40 wird die zumindest eine zukünftige Fahrsituation hinsichtlich der Wahrscheinlichkeit des Eintreffens und/oder weiterer Merkmale, Zustände oder Sicherheitskategorien klassifiziert.In a step S40, the at least one future driving situation is classified with regard to the probability of its occurrence and/or other features, states or safety categories.

In einem Schritt S50 wird die klassifizierte zukünftige Fahrsituation bewertet und ihr ein Bewertungsindex 70 zugeordnet.In a step S50, the classified future driving situation is evaluated and an evaluation index 70 is assigned to it.

In einem Schritt S60 wird der Bewertungsindex 70 einem Fahrzeugassistenzmodul 80 zugeführt.In a step S60 the evaluation index 70 is supplied to a vehicle assistance module 80 .

In einem Schritt S70 wird mit dem Bewertungsindex 70 der zukünftigen Fahrsituation eine automatisierte Fahrfunktion gesteuert.In a step S70, an automated driving function is controlled using the evaluation index 70 of the future driving situation.

4 stellt schematisch ein Computerprogrammprodukt 400 dar, das einen ausführbaren Programmcode 450 umfasst, der konfiguriert ist, um das Verfahren gemäß dem ersten Aspekt der vorliegenden Erfindung auszuführen, wenn es ausgeführt wird. 4 Figure 12 schematically illustrates a computer program product 400 comprising executable program code 450 configured to perform the method according to the first aspect of the present invention when executed.

Mit dem Verfahren und dem System 100 gemäß der vorliegenden Erfindung kann somit zuverlässig und in Echtzeit die Wahrscheinlichkeit des Eintreffens einer kritischen zukünftigen Fahrsituation prädiziert werden. Durch eine fein abgestimmte Bewertung der zukünftigen Fahrsituation können wiederum die Steuerungsparameter von automatisierten Fahrfunktionen engmaschiger eingestellt werden, so dass insgesamt die Sicherheit und der Komfort beim Fahren erhöht wird.With the method and the system 100 according to the present invention, the probability of the occurrence of a critical future driving situation can thus be predicted reliably and in real time. Through a finely tuned assessment of the future driving situation, the control parameters of automated driving functions can in turn be adjusted more closely, so that overall safety and comfort when driving are increased.

BezugszeichenlisteReference List

1010
Fahrzeugvehicle
1212
Kamera- und SensoreinrichtungCamera and sensor setup
1414
Steuerungseinrichtungencontrol devices
2020
Sensor- und Bilddatensensor and image data
3030
Datenanalyseeinrichtungdata analysis facility
3232
Speichermodulmemory module
3434
Prozessorprocessor
4040
DatenbankDatabase
4545
Cloud-Computing-Infrastrukturcloud computing infrastructure
5050
Benutzerschnittstelleuser interface
7070
Bewertungsindexrating index
8080
Fahrassistenzmoduldriver assistance module
8585
Fahrfunktiondriving function
100100
Systemsystem
300300
Analysesystemanalysis system
310310
Erkennungsmoduldetection engine
320320
Klassifizierungsmodulclassification module
330330
Prädiktionsmodulprediction module
340340
Bewertungsmodulrating module
400400
Computerprogrammproduktcomputer program product
450450
Programmcodeprogram code

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • DE 102017206862 A1 [0006]DE 102017206862 A1 [0006]
  • DE 102020201016 A1 [0007]DE 102020201016 A1 [0007]
  • DE 102017114876 A1 [0008]DE 102017114876 A1 [0008]

Claims (15)

Verfahren zur Bewertung einer Fahrsituation für die prädiktive Steuerung einer automatisierten Fahrfunktion eines Fahrzeugs (10), umfassend die folgenden Verfahrensschritte: - Aufnehmen (S10) von Sensor- und Bilddaten (20) von einer Kamera- und Sensoreinrichtung (12) des Fahrzeugs (10), wobei die Bild- und Sensordaten (20) die Umgebung und Objekte in der Umgebung des Fahrzeugs (10) abbilden zur Ermittlung einer aktuellen Fahrsituation zu einem ersten Zeitpunkt (t1); - Weitergeben (S20) der ermittelten Sensor- und Bilddaten (20) und/oder weiterer historischer Daten aus zumindest einer Datenbank (40) an eine Datenanalyseeinrichtung (30), wobei die Datenanalyseeinrichtung (30) ein Analysesystem (300) umfasst, welches Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) und der maschinellen Bildanalyse verwendet; - Ermitteln (S30) zumindest einer zukünftigen Fahrsituation zu einem zweiten Zeitpunkt (t2) in der Datenanalyseeinrichtung (40) mittels des Analysesystems (300); - Klassifizieren (S40) der zumindest einen zukünftigen Fahrsituation hinsichtlich der Wahrscheinlichkeit des Eintreffens und/oder weiterer Merkmale, Zustände oder Sicherheitskategorien; - Bewerten (S50) der klassifizierten zukünftigen Fahrsituation und Zuordnen eines Bewertungsindex (70); - Zuführen (S60) des Bewertungsindex (70) an ein Fahrzeugassistenzmodul (80); - Steuern (S70) zumindest einer automatisierten Fahrfunktion (85) des Fahrassistenzmoduls (80) mit dem Bewertungsindex (70).Method for evaluating a driving situation for the predictive control of an automated driving function of a vehicle (10), comprising the following method steps: - Recording (S10) of sensor and image data (20) from a camera and sensor device (12) of the vehicle (10), the image and sensor data (20) depicting the environment and objects in the environment of the vehicle (10). for determining a current driving situation at a first point in time (t1); - Forwarding (S20) the determined sensor and image data (20) and/or other historical data from at least one database (40) to a data analysis device (30), the data analysis device (30) comprising an analysis system (300) which algorithms used in the field of artificial intelligence (AI) and machine image analysis; - determining (S30) at least one future driving situation at a second point in time (t2) in the data analysis device (40) by means of the analysis system (300); - Classifying (S40) the at least one future driving situation with regard to the probability of occurrence and/or other features, states or safety categories; - Evaluating (S50) the classified future driving situation and assigning an evaluation index (70); - Supplying (S60) of the evaluation index (70) to a vehicle assistance module (80); - Controlling (S70) at least one automated driving function (85) of the driver assistance module (80) with the evaluation index (70). Verfahren nach Anspruch 1, wobei der Bewertungsindex (70) zumindest drei Steuerungszustände aufweist, die als „1 - keine Reaktion“, „2 - aktive Reaktion“ und „3 - adaptive Reaktion“ darstellbar sind.procedure after claim 1 , wherein the evaluation index (70) has at least three control states that can be represented as "1 - no reaction", "2 - active reaction" and "3 - adaptive reaction". Verfahren nach Anspruch 1 oder 2, wobei das Analysesystem (300) ein Erkennungsmodul (310) zum Erkennen der aktuellen Fahrsituation zu einem ersten Zeitpunkt (t1), ein Klassifizierungsmodul (320) zum Klassifizieren der aktuellen Fahrsituation und/oder zumindest einer zukünftigen Fahrsituation, ein Prädiktionsmodul (330) zum Berechnen zumindest einer zukünftigen Fahrsituation zu einem zweiten Zeitpunkt (t2) und zum Schätzen eines Wahrscheinlichkeitswertes für das Eintreffen der zukünftigen Fahrsituation, und ein Bewertungsmodul (340) zum Bewerten der zukünftigen Fahrsituation mittels Bewertungskriterien umfasst.procedure after claim 1 or 2 , The analysis system (300) has a detection module (310) for detecting the current driving situation at a first point in time (t1), a classification module (320) for classifying the current driving situation and/or at least one future driving situation, a prediction module (330) for calculating at least one future driving situation at a second point in time (t2) and for estimating a probability value for the occurrence of the future driving situation, and an evaluation module (340) for evaluating the future driving situation using evaluation criteria. Verfahren nach Anspruch 1, wobei das Erkennungsmodul (310) zumindest ein Encoder-Modul zum Extrahieren von Bildmerkmalen aus den Sensor- und Bilddaten (20) und zumindest ein Decoder-Modul zur Auswertung der extrahieren Bildmerkmale aufweist.procedure after claim 1 , wherein the detection module (310) has at least one encoder module for extracting image features from the sensor and image data (20) and at least one decoder module for evaluating the extracted image features. Verfahren nach einem der Ansprüche 1 bis 3, wobei die Kamera- und Sensoreinrichtung (12) zumindest eine Kamera und/oder zumindest einen wie einen LIDAR-Sensor (Light Detection and Ranging) zur optischen Abstands- und Geschwindigkeitsmessung und/oder einen Ultraschall-Sensor und/oder einen Radar-Sensor (Radio Detection and Ranging) umfasst und für eine schnelle Aufnahmefrequenz ausgebildet ist.Procedure according to one of Claims 1 until 3 , wherein the camera and sensor device (12) has at least one camera and/or at least one such as a LIDAR (Light Detection and Ranging) sensor for optical distance and speed measurement and/or an ultrasonic sensor and/or a radar sensor ( Radio Detection and Ranging) and is designed for a fast recording frequency. Verfahren nach einem der Ansprüche 1 bis 4, wobei als Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) und der maschinellen Bildanalyse Algorithmen aus dem Bereich des Maschinenlernens, vorzugsweise Deep Learning mit tiefen neuronalen Netzen und/oder gefalteten neuronalen Netzwerken (engl.: convolutional neural networks) und/oder Lernverstärkungs-Agenten (LV) (Reinforcement Learning Agent) zur Analyse und Bewertung einer Fahrsituation mittels der erfassten Bild- und Sensordaten (20) und/oder weiterer historischer Daten verwendet werden.Procedure according to one of Claims 1 until 4 , whereby algorithms from the field of artificial intelligence (AI) and machine image analysis are algorithms from the field of machine learning, preferably deep learning with deep neural networks and/or convolutional neural networks and/or learning reinforcement Agents (LV) (Reinforcement Learning Agent) are used to analyze and evaluate a driving situation using the recorded image and sensor data (20) and/or other historical data. Verfahren nach einem der Ansprüche 1 bis 5, wobei die Datenanalyseeinrichtung (30) mit zumindest einer Datenbank (40) und/oder einer Cloud-Computing-Infrastruktur (45) mittels einer Kommunikationsverbindung in Verbindung steht.Procedure according to one of Claims 1 until 5 , The data analysis device (30) being connected to at least one database (40) and/or a cloud computing infrastructure (45) by means of a communication link. Verfahren nach Anspruch 5, wobei die Kommunikationsverbindung als Mobilfunkverbindung und/oder Nahfeldkommunikationsverbindung wie Bluetooth®, Ethernet, NFC (near field communication) oder Wi-Fi® ausgebildet ist.procedure after claim 5 , wherein the communication connection is designed as a mobile radio connection and/or a near-field communication connection such as Bluetooth® , Ethernet, NFC (near field communication) or Wi-Fi®. Verfahren nach einem der Ansprüche 1 bis 7, wobei die Datenanalyseeinrichtung (30) und/oder die Kamera- und Sensoreinrichtung (12) mit Funkmodulen des 5G-Standards ausgestattet ist/sind.Procedure according to one of Claims 1 until 7 , wherein the data analysis device (30) and/or the camera and sensor device (12) is/are equipped with radio modules of the 5G standard. Verfahren nach einem der Ansprüche 1 bis 9, wobei eine Fahrfunktion (85) als Spurhalteassistenz oder Bremsunterstützung oder autonome Fahrfunktion ausgebildet ist.Procedure according to one of Claims 1 until 9 , wherein a driving function (85) is designed as lane keeping assistance or brake support or autonomous driving function. System (100) zur Bewertung einer Fahrsituation für die prädiktive Steuerung einer automatisierten Fahrfunktion eines Fahrzeugs (10), umfassend eine Kamera- und Sensoreinrichtung (12), die ausgebildet ist, Sensor- und Bilddaten (20) aufzunehmen, wobei die Bild- und Sensordaten (20) die Umgebung und Objekte in der Umgebung des Fahrzeugs (10) abbilden zur Ermittlung einer aktuellen Fahrsituation zu einem ersten Zeitpunkt (t1); eine Datenanalyseeinrichtung (30), die ein Analysesystem (300) umfasst, welches Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) und der maschinellen Bildanalyse verwendet und ausgebildet ist, zumindest eine zukünftigen Fahrsituation zu einem zweiten Zeitpunkt (t2) aus den Bild- und Sensordaten (20) und weiteren historischen Daten zu ermitteln, die zumindest eine zukünftige Fahrsituation hinsichtlich der Wahrscheinlichkeit des Eintreffens und/oder weiterer Merkmale, Zustände oder Sicherheitskategorien zu klassifizieren, die klassifizierte zukünftige Fahrsituation zu bewerten und ihr einen Bewertungsindex (70 zuzuordnen; und ein Fahrzeugassistenzmodul (80), das ausgebildet ist, mit dem Bewertungsindex (70) zumindest eine automatisierte Fahrfunktion (85) zu steuern.System (100) for evaluating a driving situation for the predictive control of an automated driving function of a vehicle (10), comprising a camera and sensor device (12) which is designed to record sensor and image data (20), the image and sensor data (20) map the surroundings and objects in the surroundings of the vehicle (10) to determine a current driving situation at a first point in time (t1); a data analysis device (30) having an analysis system system (300), which uses and is designed with algorithms from the field of artificial intelligence (AI) and machine image analysis, at least one future driving situation at a second point in time (t2) from the image and sensor data (20) and other historical data to determine, to classify the at least one future driving situation with regard to the probability of occurrence and/or other features, states or safety categories, to evaluate the classified future driving situation and to assign an evaluation index (70; and a vehicle assistance module (80) to it, which is designed to control at least one automated driving function (85) with the evaluation index (70). System (100) nach Anspruch 11, wobei der Bewertungsindex (70) zumindest drei Steuerungszustände aufweist, die als „1 - keine Reaktion“, „2 - aktive Reaktion“ und „3 - adaptive Reaktion“ darstellbar sind.system (100) after claim 11 , wherein the evaluation index (70) has at least three control states that can be represented as "1 - no reaction", "2 - active reaction" and "3 - adaptive reaction". System (100) nach Anspruch 11 oder Anspruch 12 wobei das Analysesystem (300) ein Erkennungsmodul (310) zum Erkennen der aktuellen Fahrsituation zu einem ersten Zeitpunkt (t1), ein Klassifizierungsmodul (320) zum Klassifizieren der aktuellen Fahrsituation und/oder zumindest einer zukünftigen Fahrsituation, ein Prädiktionsmodul (330) zum Berechnen zumindest einer zukünftigen Fahrsituation zu einem zweiten Zeitpunkt (t2) und zum Schätzen eines Wahrscheinlichkeitswertes für das Eintreffen der zukünftigen Fahrsituation, und ein Bewertungsmodul (340) zum Bewerten der zukünftigen Fahrsituation mittels Bewertungskriterien umfasst.system (100) after claim 11 or claim 12 wherein the analysis system (300) has a recognition module (310) for recognizing the current driving situation at a first point in time (t1), a classification module (320) for classifying the current driving situation and/or at least one future driving situation, a prediction module (330) for calculating at least a future driving situation at a second point in time (t2) and for estimating a probability value for the occurrence of the future driving situation, and an evaluation module (340) for evaluating the future driving situation using evaluation criteria. System (100) nach einem der Ansprüche 11 bis 13, wobei als Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) und der maschinellen Bildanalyse Algorithmen aus dem Bereich des Maschinenlernens, vorzugsweise Deep Learning mit tiefen neuronalen Netzen und/oder gefalteten neuronalen Netzwerken (engl.: convolutional neural networks) und/oder Lernverstärkungs-Agenten (LV) (Reinforcement Learning Agent) zur Analyse und Bewertung einer Fahrsituation mittels der erfassten Bild- und Sensordaten (20) und/oder weiterer Daten verwendet werden.System (100) according to one of Claims 11 until 13 , whereby algorithms from the field of artificial intelligence (AI) and machine image analysis are algorithms from the field of machine learning, preferably deep learning with deep neural networks and/or convolutional neural networks and/or learning reinforcement Agents (LV) (Reinforcement Learning Agent) are used to analyze and evaluate a driving situation using the recorded image and sensor data (20) and/or other data. Computerprogrammprodukt (400), umfassend einen ausführbaren Programmcode (450), der so konfiguriert ist, dass er bei seiner Ausführung das Verfahren nach einem der Ansprüche 1 bis 10 ausführt.Computer program product (400), comprising an executable program code (450), which is configured so that when it is executed it performs the method according to any one of Claims 1 until 10 executes
DE102021131054.7A 2021-11-26 2021-11-26 Method, system and computer program product for evaluating a driving situation for the predictive control of an automated driving function Pending DE102021131054A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021131054.7A DE102021131054A1 (en) 2021-11-26 2021-11-26 Method, system and computer program product for evaluating a driving situation for the predictive control of an automated driving function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021131054.7A DE102021131054A1 (en) 2021-11-26 2021-11-26 Method, system and computer program product for evaluating a driving situation for the predictive control of an automated driving function

Publications (1)

Publication Number Publication Date
DE102021131054A1 true DE102021131054A1 (en) 2023-06-01

Family

ID=86317269

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021131054.7A Pending DE102021131054A1 (en) 2021-11-26 2021-11-26 Method, system and computer program product for evaluating a driving situation for the predictive control of an automated driving function

Country Status (1)

Country Link
DE (1) DE102021131054A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017206862A1 (en) 2017-04-24 2018-10-25 Bayerische Motoren Werke Aktiengesellschaft Selecting a course of action concerning the longitudinal guidance of a motor vehicle with at least automated longitudinal guidance
DE102017114876A1 (en) 2017-07-04 2019-01-10 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Driver assistance system for collision avoidance by means of warning and intervention cascade
DE102020201016A1 (en) 2020-01-29 2021-07-29 Volkswagen Aktiengesellschaft Method and device for providing at least one trajectory for an automatically driven vehicle
DE102020113611A1 (en) 2020-05-20 2021-11-25 Bayerische Motoren Werke Aktiengesellschaft Method and safety system for securing an automated vehicle function and motor vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017206862A1 (en) 2017-04-24 2018-10-25 Bayerische Motoren Werke Aktiengesellschaft Selecting a course of action concerning the longitudinal guidance of a motor vehicle with at least automated longitudinal guidance
DE102017114876A1 (en) 2017-07-04 2019-01-10 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Driver assistance system for collision avoidance by means of warning and intervention cascade
DE102020201016A1 (en) 2020-01-29 2021-07-29 Volkswagen Aktiengesellschaft Method and device for providing at least one trajectory for an automatically driven vehicle
DE102020113611A1 (en) 2020-05-20 2021-11-25 Bayerische Motoren Werke Aktiengesellschaft Method and safety system for securing an automated vehicle function and motor vehicle

Similar Documents

Publication Publication Date Title
DE102018129048B4 (en) PROCEDURE FOR PERFORMING AUTONOMOUS VEHICLE OPERATION ANALYSIS
DE102014220302B4 (en) Method for carrying out action recognition on an image of a driver in a vehicle and corresponding non-volatile, computer-readable storage medium and method for learning a random forest model for action recognition
DE102020129456A1 (en) TRAJECTORY PREDICTION FROM A PRECALCULATED OR DYNAMICALLY GENERATED BANK OF TRAJECTORIES
DE102019102173A1 (en) ADMINISTRATION OF THE AUTOMATED DRIVING COMPLEXITY OF THE FOREGOING ROUTE USING THE PERCEPTION SYSTEM
DE102018132525A1 (en) Method and device for evaluating a vehicle driving surface
DE112019004554T5 (en) SYSTEM AND PROCEDURE FOR WARNING OF PREDICTED VEHICLE INCIDENTS AND AVOIDING EVIDENCE
DE102020127043A1 (en) SECURITY SYSTEM FOR ONE VEHICLE
DE102016211182A1 (en) A method, apparatus and system for performing automated driving of a vehicle along a trajectory provided from a map
DE102016212700A1 (en) Method and system for controlling a vehicle
DE102019108610A1 (en) IMPROVING VEHICLE BEHAVIOR USING INFORMATION FROM OTHER VEHICLE LIGHTS
DE102021125932A1 (en) System and method for neural network based autonomous driving
DE112017007600T5 (en) Vehicle control device and method for controlling an automated vehicle
DE102021128041A1 (en) IMPROVEMENT OF A VEHICLE NEURAL NETWORK
DE112021006846T5 (en) Systems and methods for scenario-dependent trajectory evaluation
DE112022001546T5 (en) Systems and methods for generating object recognition labels using foveal image magnification for autonomous driving
DE112021002953T5 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
DE102021104243A1 (en) Method, system and computer program product for automatically adapting at least one driver assistance function of a vehicle to a trailer operating state
DE112021006148T5 (en) Method and system for determining a motion model for motion prediction when controlling autonomous vehicles
DE102018209753A1 (en) Method, device, mobile user device and computer program for providing information for use in a vehicle
EP3748454A1 (en) Method and device for automatically executing a control function of a vehicle
DE102022102501B3 (en) Method, system and computer program product for determining an assessment of the functionality of a component of a motor vehicle
DE102022108677B3 (en) Method, system and computer program product for determining objective parameters for predicting a subjective evaluation of a driver assistance system and/or an automated driver assistance function
DE102018213378B4 (en) Driver assistance system for a vehicle, vehicle with the same and driver assistance method for a vehicle
DE102022107845A1 (en) Method, system and computer program product for selecting concrete scenarios
DE102021131054A1 (en) Method, system and computer program product for evaluating a driving situation for the predictive control of an automated driving function

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication