DE102021131054A1 - Method, system and computer program product for evaluating a driving situation for the predictive control of an automated driving function - Google Patents
Method, system and computer program product for evaluating a driving situation for the predictive control of an automated driving function Download PDFInfo
- Publication number
- DE102021131054A1 DE102021131054A1 DE102021131054.7A DE102021131054A DE102021131054A1 DE 102021131054 A1 DE102021131054 A1 DE 102021131054A1 DE 102021131054 A DE102021131054 A DE 102021131054A DE 102021131054 A1 DE102021131054 A1 DE 102021131054A1
- Authority
- DE
- Germany
- Prior art keywords
- driving situation
- data
- sensor
- module
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000004590 computer program Methods 0.000 title claims description 10
- 238000011156 evaluation Methods 0.000 claims abstract description 40
- 238000007405 data analysis Methods 0.000 claims abstract description 32
- 238000004458 analytical method Methods 0.000 claims abstract description 23
- 230000006870 function Effects 0.000 claims description 35
- 238000013527 convolutional neural network Methods 0.000 claims description 18
- 238000004422 calculation algorithm Methods 0.000 claims description 17
- 238000004891 communication Methods 0.000 claims description 17
- 238000013473 artificial intelligence Methods 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 238000010191 image analysis Methods 0.000 claims description 11
- 230000002787 reinforcement Effects 0.000 claims description 11
- 238000010801 machine learning Methods 0.000 claims description 7
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 238000013135 deep learning Methods 0.000 claims description 5
- 238000005259 measurement Methods 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 claims description 4
- 238000001454 recorded image Methods 0.000 claims description 4
- 230000009471 action Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 230000006399 behavior Effects 0.000 description 10
- 239000003795 chemical substances by application Substances 0.000 description 10
- 210000002569 neuron Anatomy 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 7
- 238000011161 development Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 3
- 238000012876 topography Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 2
- 210000004205 output neuron Anatomy 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 244000132059 Carica parviflora Species 0.000 description 1
- 235000014653 Carica parviflora Nutrition 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000031018 biological processes and functions Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000003381 stabilizer Substances 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0097—Predicting future conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/04—Traffic conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0011—Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0014—Adaptive controllers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/10—Historical data
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung bezieht sich auf ein Verfahren zur Bewertung einer Fahrsituation für die prädiktive Steuerung einer automatisierten Fahrfunktion eines Fahrzeugs (10), umfassend die folgenden Verfahrensschritte:- Aufnehmen von Sensor- und Bilddaten (20) von einer Kamera- und Sensoreinrichtung (12) des Fahrzeugs (10), wobei die Bild- und Sensordaten (20) die Umgebung und Objekte in der Umgebung des Fahrzeugs (10) abbilden zur Ermittlung einer aktuellen Fahrsituation zu einem ersten Zeitpunkt (t1);- Weitergeben der ermittelten Sensor- und Bilddaten (20) und/oder weiterer historischer Daten aus zumindest einer Datenbank (40) an eine Datenanalyseeinrichtung (30),- Ermitteln zumindest einer zukünftigen Fahrsituation zu einem zweiten Zeitpunkt (t2) in der Datenanalyseeinrichtung (40) mittels eines Analysesystems (300);- Klassifizieren der zumindest einen zukünftigen Fahrsituation hinsichtlich der Wahrscheinlichkeit des Eintreffens und/oder weiterer Merkmale, Zustände oder Sicherheitskategorien;- Bewerten der klassifizierten zukünftigen Fahrsituation und Zuordnen eines Bewertungsindex (70);- Steuern (S70) zumindest einer Fahrfunktion (85) des Fahrassistenzmoduls (80) mit dem Bewertungsindex (70).The invention relates to a method for evaluating a driving situation for the predictive control of an automated driving function of a vehicle (10), comprising the following method steps: - recording sensor and image data (20) from a camera and sensor device (12) of the vehicle (10), the image and sensor data (20) depicting the environment and objects in the environment of the vehicle (10) in order to determine a current driving situation at a first point in time (t1);- forwarding the determined sensor and image data (20) and/or further historical data from at least one database (40) to a data analysis device (30), - determining at least one future driving situation at a second point in time (t2) in the data analysis device (40) by means of an analysis system (300); - classifying the at least a future driving situation with regard to the probability of occurrence and/or other features, states or safety categories;- evaluating the classified future driving situation and assigning an evaluation index (70);- controlling (S70) at least one driving function (85) of the driver assistance module (80) with the Rating index (70).
Description
Die Erfindung betrifft ein Verfahren, ein System und ein Computerprogrammprodukt zur Bewertung einer Fahrsituation für die prädiktive Steuerung einer automatisierten Fahrfunktion.The invention relates to a method, a system and a computer program product for evaluating a driving situation for the predictive control of an automated driving function.
Wenn ein Kraftfahrzeug von einer Person gesteuert wird, dann beobachtet der Fahrer des Fahrzeugs sehr genau und intuitiv, ob irgendwelche mögliche Gefahrenquellen sich auf der Fahrbahn befinden. Insbesondere werden vorausfahrende Fahrzeuge genau beobachtet, um unterschiedliche Informationen zu gewinnen, wie beispielsweise die Geschwindigkeit des vorausfahrenden Fahrzeugs oder ob ein Überholmanöver geplant ist. Außerdem wird die Fahrbahn und die Straßenführung beobachtet, um das Fahrverhalten entsprechend anpassen zu können. Ein geübter menschlicher Fahrer übt diese Beobachtungen intuitiv während des Fahrens aus und ihm ist häufig gar bewusst, wie er die Informationen verarbeitet und einer möglichen Gefahrensituation zuordnet.When a motor vehicle is driven by a person, the driver of the vehicle observes very precisely and intuitively whether there are any possible sources of danger on the roadway. In particular, vehicles ahead are closely observed to obtain various information, such as the speed of the vehicle ahead or whether an overtaking maneuver is planned. In addition, the road surface and the road layout are observed in order to be able to adjust driving behavior accordingly. A trained human driver makes these observations intuitively while driving and is often even aware of how he processes the information and assigns it to a possible dangerous situation.
In Fahrzeugen werden zunehmend Fahrassistenzsysteme und hochautomatisierte Fahrfunktionen eingesetzt, um den Fahrer zu entlasten oder um autonomes Fahren zu ermöglichen. Bei teil-autonom und autonom fahrenden Fahrzeugen werden Kamerasysteme und Sensoren eingesetzt, um Informationen über die Umgebung des Fahrzeugs zu gewinnen. Die Entwicklung des hochautomatisierten Fahrens (HAF) geht daher einher mit einer Erhöhung der Anforderungen an Fahrzeugsensorsysteme zur Aufnahme von geeigneten Sensordaten wie insbesondere Bilddaten. Zudem müssen die aufgenommen Sensordaten sorgfältig interpretiert werden, um daraus die richtigen Schlussfolgerungen hinsichtlich einer möglichen Gefahrensituation zu gewinnen.Driver assistance systems and highly automated driving functions are increasingly being used in vehicles to relieve the driver or to enable autonomous driving. In semi-autonomous and autonomous vehicles, camera systems and sensors are used to obtain information about the vehicle's surroundings. The development of highly automated driving (HAD) is therefore accompanied by an increase in the requirements for vehicle sensor systems to record suitable sensor data such as image data in particular. In addition, the recorded sensor data must be carefully interpreted in order to draw the right conclusions regarding a possible dangerous situation.
Ein Beispiel für ein Fahrassistenzsystem mit hochautomatisierten Fahrfunktionen ist ein Abstandsregeltempomat in einem Kraftfahrzeug, der die Regelung des Abstands zu einem vorausfahrenden Fahrzeug als Steuergröße für eine Steuerung der Geschwindigkeit des Kraftfahrzeugs verwendet. Eine solche Regelung wird auch als Adaptive Geschwindigkeitsregelung (engl. Adaptive Cruise Control (ACC)) bezeichnet. Ein Abstandsregeltempomat ermittelt mittels eines Sensors die Position und die Geschwindigkeit des vorausfahrenden Fahrzeugs und passt entsprechend den ermittelten Werten die Motor- und Bremssteuerung an.An example of a driver assistance system with highly automated driving functions is adaptive cruise control in a motor vehicle, which uses the regulation of the distance to a vehicle driving ahead as a control variable for controlling the speed of the motor vehicle. Such a regulation is also referred to as adaptive cruise control (ACC). Adaptive cruise control uses a sensor to determine the position and speed of the vehicle in front and adjusts the engine and brake control accordingly.
Allerdings werden bei den bekannten Fahrassistenzsystemen und Fahrfunktionen bisher der Verlauf einer Fahrspur eines Kraftfahrzeugs aufgrund der Topgraphie des Geländes wie Steigungen und Kurven sowie die tatsächliche Verkehrssituation wie einscherende Fahrzeuge nur unzureichend berücksichtigt. So werden einscherende Fahrzeuge entweder ignoriert oder es wird auf das mögliche einscherende Fahrzeug reaktiv reagiert. Aktuelle Fahrassistenzsysteme verfügen somit nur über zwei Zustände, die entweder ein mögliches Ereignis wie ein einscherendes Fahrzeug einplanen oder dieses nicht beachten. Ein Zwischenzustand mit einer nur geringen Anpassung der Fahrfunktion wie eine geringere Gaszufuhr und damit nur eine geringfügige Reduzierung der Geschwindigkeit des Kraftfahrzeugs durch ein Schleppmoment ist bisher nicht vorgesehen.However, in the case of the known driver assistance systems and driving functions, the course of a lane of a motor vehicle due to the topography of the terrain, such as inclines and curves, and the actual traffic situation, such as vehicles cutting in, have only been insufficiently taken into account. Cutting-in vehicles are either ignored or a reactive reaction is made to the possible cutting-in vehicle. Current driver assistance systems therefore only have two states that either plan for a possible event such as a vehicle cutting in or ignore it. An intermediate state with only a slight adaptation of the driving function, such as a lower gas supply and thus only a slight reduction in the speed of the motor vehicle due to a drag torque, has not previously been provided.
Die
Die
Die
Die der Erfindung zu Grunde liegende Aufgabe besteht nun darin, ein Verfahren, ein System und ein Computerprogrammprodukt zur Bewertung einer Fahrsituation für die prädiktive Steuerung einer automatisierten Fahrfunktion für ein Fahrzeug zu schaffen, das sich durch eine hohe Zuverlässigkeit, Sicherheit und Genauigkeit auszeichnet und sich einfach implementieren lässt.The object on which the invention is based is now to create a method, a system and a computer program product for evaluating a driving situation for the predictive control of an automated driving function for a vehicle, which is characterized by high reliability, safety and accuracy and is simple implement.
Gemäß der vorliegenden Erfindung werden ein Verfahren, ein System und ein Computerprogrammprodukt vorgeschlagen, durch das eine Fahrsituation sicher erfasst und bewertet wird, so dass eine prädiktive Steuerung einer automatisierten Fahrfunktion ermöglicht wird, die eine hohe Sicherheit gewährleistet.According to the present invention, a method, a system and a computer program product are proposed, by means of which a driving situation is reliably detected and evaluated, so that predictive control of an automated driving function is made possible, which ensures a high level of safety.
Diese Aufgabe wird hinsichtlich eines Verfahrens durch die Merkmale des Patentanspruchs 1, hinsichtlich eines Systems durch die Merkmale des Patentanspruchs 11, und hinsichtlich eines Computerprogrammprodukts durch die Merkmale des Anspruchs 15 erfindungsgemäß gelöst. Die weiteren Ansprüche betreffen bevorzugte Ausgestaltungen der Erfindung.This object is achieved according to the invention with regard to a method by the features of patent claim 1, with regard to a system by the features of patent claim 11, and with regard to a computer program product by the features of claim 15. The further claims relate to preferred embodiments of the invention.
Gemäß einem ersten Aspekt stellt die Erfindung ein Verfahren zur Bewertung einer Fahrsituation für die prädiktive Steuerung einer automatisierten Fahrfunktion eines Fahrzeugs bereit. Das Verfahren umfasst die folgenden Verfahrensschritte:
- - Aufnehmen von Sensor- und Bilddaten von einer Kamera- und Sensoreinrichtung des Fahrzeugs, wobei die Bild- und Sensordaten die Umgebung und Objekte in der Umgebung des Fahrzeugs abbilden zur Ermittlung einer aktuellen Fahrsituation zu einem ersten Zeitpunkt t1;
- - Weitergeben der ermittelten Sensor- und Bilddaten und/oder weiterer historischer Daten aus zumindest einer Datenbank an eine Datenanalyseeinrichtung, wobei die Datenanalyseeinrichtung ein Analysesystem umfasst, welches Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) und der maschinellen Bildanalyse verwendet;
- - Ermitteln zumindest einer zukünftigen Fahrsituation zu einem zweiten Zeitpunkt t2 in der Datenanalyseeinrichtung mittels des Analysesystems;
- - Klassifizieren der zumindest einen zukünftigen Fahrsituation hinsichtlich der Wahrscheinlichkeit des Eintreffens und/oder weiterer Merkmale, Zustände oder Sicherheitskategorien;
- - Bewerten der klassifizierten zukünftigen Fahrsituation und Zuordnen eines Bewertungsindex;
- - Zuführen des Bewertungsindex an ein Fahrzeugassistenzmodul;
- - Steuern zumindest einer automatisieren Fahrfunktion des Fahrassistenzmoduls mit dem Bewertungsindex.
- - Recording of sensor and image data from a camera and sensor device of the vehicle, the image and sensor data depicting the surroundings and objects in the surroundings of the vehicle for determining a current driving situation at a first point in time t1;
- - Passing on the determined sensor and image data and/or further historical data from at least one database to a data analysis device, the data analysis device comprising an analysis system which uses algorithms from the field of artificial intelligence (AI) and machine image analysis;
- - determining at least one future driving situation at a second point in time t2 in the data analysis device by means of the analysis system;
- - Classifying the at least one future driving situation with regard to the probability of occurrence and/or other features, states or safety categories;
- - Assess the classified future driving situation and assign an assessment index;
- - Supplying the evaluation index to a vehicle assistance module;
- - Controlling at least one automated driving function of the driving assistance module with the evaluation index.
In einer Weiterentwicklung ist vorgesehen, dass der Bewertungsindex zumindest drei Steuerungszustände aufweist, die als „1 - keine Reaktion“, „2 - aktive Reaktion“ und „3 - adaptive Reaktion“ darstellbar sind.A further development provides for the evaluation index to have at least three control states, which can be represented as “1—no reaction”, “2—active reaction” and “3—adaptive reaction”.
In einer vorteilhaften Ausführungsform umfasst das Analysesystem ein Erkennungsmodul zum Erkennen der aktuellen Fahrsituation zu einem ersten Zeitpunkt t1, ein Klassifizierungsmodul zum Klassifizieren der aktuellen Fahrsituation und/oder zumindest einer zukünftigen Fahrsituation, ein Prädiktionsmodul zum Berechnen zumindest einer zukünftigen Fahrsituation zu einem zweiten Zeitpunkt t2 und zum Schätzen eines Wahrscheinlichkeitswertes für das Eintreffen der zukünftigen Fahrsituation und ein Bewertungsmodul zum Bewerten der zukünftigen Fahrsituation mittels Bewertungskriterien.In an advantageous embodiment, the analysis system comprises a detection module for detecting the current driving situation at a first point in time t1, a classification module for classifying the current driving situation and/or at least one future driving situation, a prediction module for calculating at least one future driving situation at a second point in time t2 and at Estimation of a probability value for the occurrence of the future driving situation and an evaluation module for evaluating the future driving situation using evaluation criteria.
Insbesondere weist das Erkennungsmodul zumindest ein Encoder-Modul zum Extrahieren von Bildmerkmalen aus den Sensor- und Bilddaten und zumindest ein Decoder-Modul zur Auswertung der extrahieren Bildmerkmale auf.In particular, the recognition module has at least one encoder module for extracting image features from the sensor and image data and at least one decoder module for evaluating the extracted image features.
In einer weiteren Ausführungsform ist vorgesehen, dass die Kamera- und Sensoreinrichtung zumindest eine Kamera und/oder zumindest einen wie einen LIDAR-Sensor (Light Detection and Ranging) zur optischen Abstands- und Geschwindigkeitsmessung und/oder einen Ultraschall-Sensor und/oder einen Radar-Sensor (Radio Detection and Ranging) umfasst und für eine schnelle Aufnahmefrequenz ausgebildet ist.In a further embodiment it is provided that the camera and sensor device has at least one camera and/or at least one such as a LIDAR (Light Detection and Ranging) sensor for optical distance and speed measurement and/or an ultrasonic sensor and/or a radar sensor (Radio Detection and Ranging) and is designed for a fast recording frequency.
In einer vorteilhaften Ausführungsform ist vorgesehen, dass als Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) und der maschinellen Bildanalyse Algorithmen aus dem Bereich des Maschinenlernens, vorzugsweise Deep Learning mit tiefen neuronalen Netzen und/oder gefalteten neuronalen Netzwerken (engl.: convolutional neural networks) und/oder Lernverstärkungs-Agenten (LV) (Reinforcement Learning Agent) zur Analyse und Bewertung einer Fahrsituation mittels der erfassten Bild- und Sensordaten und/oder der weiterer historischen Daten verwendet werden.In an advantageous embodiment, it is provided that the algorithms from the field of artificial intelligence (AI) and machine image analysis are algorithms from the field of machine learning, preferably deep learning with deep neural networks and/or convolutional neural networks ) and/or learning reinforcement agents (LV) (Reinforcement Learning Agent) for the analysis and evaluation of a driving situation by means of the recorded image and sensor data and/or the further historical data.
Insbesondere steht die Datenanalyseeinrichtung mit zumindest einer Datenbank und/oder einer Cloud-Computing-Infrastruktur mittels einer Kommunikationsverbindung in Verbindung.In particular, the data analysis device is connected to at least one database and/or a cloud computing infrastructure by means of a communication link.
Vorteilhaftweise ist die Kommunikationsverbindung als Mobilfunkverbindung und/oder Nahfeldkommunikationsverbindung wie Bluetooth®, Ethernet, NFC (near field communication) oder Wi-Fi® ausgebildet.The communication connection is advantageously designed as a mobile radio connection and/or a near-field communication connection such as Bluetooth® , Ethernet, NFC (near field communication) or Wi-Fi®.
In einer Weiterbildung ist vorgesehen, dass die Datenanalyseeinrichtung und/oder die Kamera- und Sensoreinrichtung mit Funkmodulen des 5G-Standards ausgestattet ist/sind.In a further development it is provided that the data analysis device and/or the camera and sensor device is/are equipped with radio modules of the 5G standard.
In einer vorteilhaften Ausführungsform ist vorgesehen, dass zumindest eine Fahrfunktion als Spurhalteassistenz oder Bremsunterstützung oder autonome Fahrfunktion ausgebildet ist.In an advantageous embodiment, it is provided that at least one driving function is designed as a lane keeping assistance or brake support or autonomous driving function.
Gemäß einem zweiten Aspekt stellt die Erfindung ein System zur Bewertung einer Fahrsituation für die prädiktive Steuerung einer automatisierten Fahrfunktion eines Fahrzeugs bereit. Das System umfasst eine Kamera- und Sensoreinrichtung, die ausgebildet ist, Sensor- und Bilddaten aufzunehmen, wobei die Bild- und Sensordaten die Umgebung und Objekte in der Umgebung des Fahrzeugs abbilden zur Ermittlung einer aktuellen Fahrsituation zu einem ersten Zeitpunkt t1; eine Datenanalyseeinrichtung, die ein Analysesystem umfasst, welches Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) und der maschinellen Bildanalyse verwendet und ausgebildet ist, zumindest eine zukünftigen Fahrsituation zu einem zweiten Zeitpunkt t2 aus den Bild- und Sensordaten und weiteren historischen Daten zu ermitteln, die zumindest eine zukünftige Fahrsituation hinsichtlich der Wahrscheinlichkeit des Eintreffens und/oder weiterer Merkmale, Zustände oder Sicherheitskategorien zu klassifizieren, die klassifizierte zukünftige Fahrsituation zu bewerten und ihr einen Bewertungsindex zuzuordnen; und ein Fahrzeugassistenzmodul, das ausgebildet ist, mit dem Bewertungsindex zumindest eine automatisierte Fahrfunktion zu steuern.According to a second aspect, the invention provides a system for evaluating a driving situation for the predictive control of an automated driving function of a vehicle. The system includes a camera and sensor device that is designed to record sensor and image data, the image and sensor data depicting the surroundings and objects in the surroundings of the vehicle for determining a current driving situation at a first point in time t1; a data analysis device that includes an analysis system that uses algorithms from the field of artificial intelligence (AI) and machine image analysis and is designed to determine at least one future driving situation at a second point in time t2 from the image and sensor data and other historical data, to classify the at least one future driving situation with regard to the probability of occurrence and/or other features, states or safety categories, to evaluate the classified future driving situation and to assign an evaluation index to it; and a vehicle assistance module that is designed to control at least one automated driving function with the evaluation index.
In einer Weiterbildung ist vorgesehen, dass der Bewertungsindex zumindest drei Steuerungszustände aufweist, die als „1 - keine Reaktion“, „2 - aktive Reaktion“ und „3 - adaptive Reaktion“ darstellbar sind.In a further development it is provided that the evaluation index has at least three control states, which can be represented as “1—no reaction”, “2—active reaction” and “3—adaptive reaction”.
In einer vorteilhaften Ausführungsform umfasst das Analysesystem ein Erkennungsmodul zum Erkennen der aktuellen Fahrsituation zu einem ersten Zeitpunkt t1, ein Klassifizierungsmodul zum Klassifizieren der aktuellen Fahrsituation und/oder zumindest einer zukünftigen Fahrsituation, ein Prädiktionsmodul zum Berechnen zumindest einer zukünftigen Fahrsituation zu einem zweiten Zeitpunkt t2 und zum Schätzen eines Wahrscheinlichkeitswertes für das Eintreffen der zukünftigen Fahrsituation und ein Bewertungsmodul zum Bewerten der zukünftigen Fahrsituation mittels Bewertungskriterien.In an advantageous embodiment, the analysis system comprises a detection module for detecting the current driving situation at a first point in time t1, a classification module for classifying the current driving situation and/or at least one future driving situation, a prediction module for calculating at least one future driving situation at a second point in time t2 and at Estimation of a probability value for the occurrence of the future driving situation and an evaluation module for evaluating the future driving situation using evaluation criteria.
In einer Weiterentwicklung werden als Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) und der maschinellen Bildanalyse Algorithmen aus dem Bereich des Maschinenlernens, vorzugsweise Deep Learning mit tiefen neuronalen Netzen und/oder gefalteten neuronalen Netzwerken (engl.: convolutional neural networks) und/oder Lernverstärkungs-Agenten (LV) (Reinforcement Learning Agent) zur Analyse und Bewertung einer Fahrsituation mittels der erfassten Bild- und Sensordaten und/oder weiterer Daten verwendet.In a further development, algorithms from the field of artificial intelligence (AI) and machine image analysis are used as algorithms from the field of machine learning, preferably deep learning with deep neural networks and/or convolutional neural networks and/or Learning reinforcement agents (LV) (Reinforcement Learning Agent) used to analyze and evaluate a driving situation using the captured image and sensor data and / or other data.
Gemäß einem dritten Aspekt stellt die Erfindung ein Computerprogrammprodukt bereit, das einen ausführbaren Programmcode umfasst, der so konfiguriert ist, dass er bei seiner Ausführung das Verfahren gemäß dem ersten Aspekt ausführt.According to a third aspect, the invention provides a computer program product comprising executable program code configured, when executed, to carry out the method according to the first aspect.
Nachfolgend wird die Erfindung anhand von in der Zeichnung dargestellten Ausführungsbeispielen näher erläutert.The invention is explained in more detail below with reference to exemplary embodiments illustrated in the drawing.
Dabei zeigt:
-
1 eine schematische Darstellung eines ersten Ausführungsbeispiels des erfindungsgemäßen Systems; -
2 eine schematische Darstellung eines erfindungsgemäßen Analysesystems; -
3 ein Flussdiagramm zur Erläuterung der einzelnen Verfahrensschritte des erfindungsgemäßen Verfahrens; -
4 ein Blockdiagramm eines Computerprogrammprodukt gemäß einer Ausführungsform des dritten Aspekts der Erfindung.
-
1 a schematic representation of a first embodiment of the system according to the invention; -
2 a schematic representation of an analysis system according to the invention; -
3 a flowchart to explain the individual steps of the method according to the invention; -
4 a block diagram of a computer program product according to an embodiment of the third aspect of the invention.
Zusätzliche Kennzeichen, Aspekte und Vorteile der Erfindung oder ihrer Ausführungsbeispiele werden durch die ausführliche Beschreibung in Verbindung mit den Ansprüchen ersichtlich.Additional features, aspects and advantages of the invention or embodiments thereof will become apparent from the detailed description coupled with the claims.
Das Fahrzeug 10 weist eine Kamera- und Sensoreinrichtung 12 auf, die die Umgebung und Objekte in der Umgebung des Fahrzeugs 10 aufnimmt und Sensor- und Bilddaten 20 erzeugt. Die Kamera- und Sensoreinrichtung 12 nimmt die Sensor- und Bilddaten 20 in einem Aufnahmebereich auf, der die Umgebung des Fahrzeugs 10 möglichst umfassend erfasst. Insbesondere werden Bild- und Sensordaten 20 von einer vorausliegenden Fahrspur erfasst, aber auch der Seitenbereich und der rückwärtige Bereich des Fahrzeugs 10 sind wichtig, um beispielsweise auf mehrspurigen Straßen Überholmanöver von anderen Verkehrsteilnehmern überwachen zu können. In der Umgebung des Fahrzeugs 10 können sich weitere bewegliche Objekte wie Fahrzeuge, Fußgänger, Fahrradfahrer, Motorradfahrer, etc. aufhalten oder unbewegliche Objekte wie Häuser, Straßenschilder, Zäune, Bäume etc. befinden. Die Kamera- und Sensoreinrichtung 12 gibt die aufgenommenen Sensor- und Bilddaten 20 an eine Datenanalyseeinrichtung 30 zur weiteren Verarbeitung weiter.The vehicle 10 has a camera and
Die Kamera- und Sensoreinrichtung 12 umfasst insbesondere zumindest eine RGB-Kamera im sichtbaren Bereich mit den Grundfarben Blau, Grün und Rot. Es kann aber auch noch zusätzlich zumindest eine UV-Kamera im ultravioletten Bereich und/oder zumindest eine IR-Kamera im infraroten Bereich vorgesehen sein. Die sich durch ihr Aufnahmespektrum unterscheidenden Kameras können somit unterschiedliche Lichtverhältnisse in dem Aufnahmebereich abbilden.The camera and
Die Aufnahmefrequenz der Kamera- und Sensoreinrichtung 12 ist für schnelle Geschwindigkeiten des Fahrzeugs 10 ausgelegt und kann Sensor- und Bilddaten 20 mit einer hohen Bildaufnahmefrequenz aufzunehmen. Des Weiteren kann die Kamera- und Sensoreinrichtung 12 für die Erfassung von akustischen Signalen mit einem Mikrofon ausgestattet sein. Hierdurch können Abrollgeräusche der Reifen oder Motorgeräusche aufgenommen werden, die Rückschlüsse auf den Straßenbelag und die Straßenverhältnisse zu lassen.The recording frequency of the camera and
Zudem kann vorgesehen sein, dass die Kamera- und Sensoreinrichtung 12 automatisch den Bildaufnahmeprozess dann startet, wenn sich eine flächenmäßig signifikante Änderung im Aufnahmebereich der Kamera- und Sensoreinrichtung 12 ergibt, beispielsweise wenn deutliche Änderungen des Straßenbelags der Fahrbahn erkennbar sind. Hierdurch wird ein selektiver Datenerfassungsprozess ermöglicht und nur relevante Sensor- und Bilddaten 20 werden von der Datenanalyseeinrichtung 30 verarbeitet. Hierdurch können Rechenkapazitäten effizienter genutzt werden.Provision can also be made for the camera and
Insbesondere ist vorgesehen, als zumindest eine Kamera eine wetterfeste Action-Kamera zu verwenden, die insbesondere im Außenbereich des Fahrzeugs 10 angeordnet sein kann. Action-Kameras verfügen über weitwinkelige Fischaugen-Objektive, wodurch es möglich ist, einen sichtbaren Radius von ca. 180° zu erreichen. Hierdurch kann die vorausliegende Fahrbahn 20 umfassend abgebildet werden. Action-Kameras können üblicherweise Videos in Full HD (1.920 x 1.080 Pixel) aufzeichnen, jedoch können auch Action-Kameras in Ultra HD bzw. 4K (mindestens 3.840 x 2.160 Pixel) eingesetzt werden, wodurch sich eine deutliche Qualitätssteigerung in der Bildqualität ergibt. Die Bildaufnahmefrequenz beträgt üblicherweise 60 Bilder pro Sekunde in 4K und bis zu 240 pro Sekunde in Full HD. Außerdem kann noch ein integrierter Bildstabilisator vorgesehen sein. Zudem sind Action-Kameras häufig mit einem integrierten Mikrofon ausgestattet. Um Hintergrundgeräusche gezielt auszublenden, können darüber hinaus Verfahren der differentiellen Signalverarbeitung verwendet werden.In particular, it is provided to use a weatherproof action camera as at least one camera, which can be arranged, in particular, outside of the vehicle 10 . Action cameras have wide-angle fisheye lenses, which makes it possible to achieve a visible radius of around 180°. In this way, the road ahead 20 can be mapped comprehensively. Action cameras can usually record videos in Full HD (1,920 x 1,080 pixels), but action cameras in Ultra HD or 4K (at least 3,840 x 2,160 pixels) can also be used, resulting in a significant increase in image quality. The frame rate is typically 60 frames per second in 4K and up to 240 frames per second in Full HD. An integrated image stabilizer can also be provided. In addition, action cameras are often equipped with an integrated microphone. In addition, methods of differential signal processing can be used to selectively suppress background noise.
Des Weiteren kann die Kamera- und Sensoreinrichtung 12 Sensoren wie zumindest einen einen LIDAR-Sensor (Light Detection and Ranging) zur optischen Abstands- und Geschwindigkeitsmessung und/oder zumindest einen Ultraschall-Sensor und/oder zumindest einen Radar-Sensor (Radio Detection and Ranging) enthalten.Furthermore, the camera and
Die von der Kamera- und Sensoreinrichtung 12 aufgenommenen Sensor- und Bilddaten 20 werden mittels Kommunikationsverbindungen wie beispielsweise ein CAN-Bus-System (Controller Area Network) an die Datenanalyseeinrichtung 30 weitergeleitet. Es können aber auch drahtlose Verbindungen vorgesehen sein. Eine drahtlose Kommunikationsverbindung ist insbesondere als Mobilfunkverbindung und/oder einer Nahfeldkommunikationsverbindung wie Bluetooth®, Ethernet, NFC (near field communication) oder Wi-Fi® ausgebildet.The sensor and
Des Weiteren ist vorteilhafterweise eine GPS-Verbindung 14 vorgesehen, um den geographischen Standort des Fahrzeugs 10 zu ermitteln und diesen den aufgenommenen Sensor- und Bilddaten 20 zuzuordnen.Furthermore, a
Zudem kann die Datenanalyseeinrichtung 30 auf ein oder mehrere weitere Datenbanken 40 zugreifen. In der Datenbank 40 können beispielsweise Klassifizierungsparameter zur Analyse der aufgenommenen Bild- und Sensordaten 20 oder weitere historische Daten und Bilder und/oder Kenngrößen gespeichert sein. Des Weiteren können Zielgrößen und Zielwerte in der Datenbank 40 abgelegt sein, die einen Sicherheitsstandard definieren. Auch können kartographische und topographische Daten gespeichert sein. Des Weiteren kann eine Benutzerschnittstelle 50 zur Eingabe von weiteren Daten und zur Anzeige der von der Datenanalyseeinrichtung 30 erstellten Berechnungsergebnisse vorgesehen sein. Insbesondere ist die Benutzerschnittstelle 50 als Display mit einem Touchscreen ausgebildet.In addition, the
Aufgrund des ermittelten geographischen Standorts können zudem aus der Datenbank 40 weitere Daten über die topographische Struktur der Fahrbahn, auf der sich das Fahrzeug 10 befindet, von der Datenanalyseeinrichtung 30 abgerufen werden. Bei der topographischen Struktur kann es sich beispielsweise um die Kuppe eines Hügels handeln, so dass die hinter der Kuppe abfallende Straßenführung für den Fahrer nicht einsehbar ist und er somit auch den Gegenverkehr nicht wahrnehmen kann. Oder es handelt sich um eine scharfe Kurve, die nur mit einer reduzierten Geschwindigkeit befahren werden sollte.On the basis of the geographic location determined, further data on the topographical structure of the roadway on which vehicle 10 is located can also be called up by
Insbesondere kann die Fahrtroute in ein Navigationsgerät eingegeben werden, so dass die Daten zu dieser Route aus einer Datenbank 40 abgerufen werden.In particular, the route can be entered into a navigation device so that the data on this route can be retrieved from a
Als weitere Daten können aus der Datenbank 40 oder einer anderen Dateneinrichtung Wetterdaten für den augenblicklichen Standort des Fahrzeugs 10 sowie für eine geplante Route abgerufen werden, da diese wie insbesondere Regen, Nebel oder Schnee einen Einfluss auf das Fahrverhalten haben können. Weitere historische Daten können Daten über das Verkehrsaufkommen darstellen.Weather data for the current location of vehicle 10 and for a planned route can be retrieved as additional data from
Die Datenanalyseeinrichtung 30 weist vorzugsweise ein Speichermodul 32 und einen Prozessor 34 auf, der die Sensor- und Bilddaten 20 mittels eines Analysesystems 300 bearbeitet. Der Prozessor 34 oder ein weiterer Prozessor ist auch für die Steuerung der Kamera- und Sensoreinrichtung 12 ausgebildet. Die Datenanalyseeinrichtung 30 kann im Fahrzeug 10 integriert sein oder als cloudbasierte Lösung ausgebildet sein. Insbesondere kann die Datenanalyseeinrichtung 30 über eine Kommunikationsverbindung mit einer Cloud-Computing-Infrastruktur 45 oder einer anderen Recheneinheit verbunden sein. Die Datenbank 40 kann auch in der Cloud-Computing-Infrastruktur 45 integriert sein.The
Unter einem „Prozessor“ kann im Zusammenhang mit der Erfindung beispielsweise eine Maschine oder eine elektronische Schaltung verstanden werden. Bei einem Prozessor kann es sich insbesondere um einen Hauptprozessor (engl. Central Processing Unit, CPU), einen Mikroprozessor oder einen Mikrocontroller, beispielsweise eine anwendungsspezifische integrierte Schaltung oder einen digitalen Signalprozessor, möglicherweise in Kombination mit einer Speichereinheit zum Speichern von Programmbefehlen, etc. handeln. In the context of the invention, a “processor” can be understood to mean, for example, a machine or an electronic circuit. A processor can in particular be a central processing unit (CPU), a microprocessor or a microcontroller, for example an application-specific integrated circuit or a digital signal processor, possibly in combination with a memory unit for storing program instructions, etc .
Auch kann unter einem Prozessor ein virtualisierter Prozessor, eine virtuelle Maschine oder eine Soft-CPU verstanden werden. Es kann sich beispielsweise auch um einen programmierbaren Prozessor handeln, der mit Konfigurationsschritten zur Ausführung des genannten erfindungsgemäßen Verfahrens ausgerüstet wird oder mit Konfigurationsschritten derart konfiguriert ist, dass der programmierbare Prozessor die erfindungsgemäßen Merkmale des Verfahrens, der Komponente, der Module, oder anderer Aspekte und/oder Teilaspekte der Erfindung realisiert. Insbesondere kann der Prozessor 34 hochparallele Recheneinheiten und leistungsfähige Grafikmodule enthalten. Der Prozessor 34 kann zudem vorteilhaftweise eine Kl-Hardwarebeschleunigung wie ein Coral Dev Board verwenden, um eine Bearbeitung in Echtzeit zu ermöglichen. Es handelt sich hierbei um einen Mikrocomputer mit einer Tensorverarbeitungseinheit (engl.: tensor processing unit (TPU)), wodurch eine vortrainierte Softwareapplikation bis zu 70 Bilder pro Sekunde auswerten kann.A processor can also be understood to mean a virtualized processor, a virtual machine or a soft CPU. It can also be a programmable processor, for example, which is equipped with configuration steps for executing the mentioned method according to the invention or is configured with configuration steps in such a way that the programmable processor has the inventive features of the method, the component, the modules, or other aspects and/or or implemented partial aspects of the invention. In particular, the
Unter einer „Speichereinheit“ oder „Speichermodul“ und dergleichen kann im Zusammenhang mit der Erfindung beispielsweise ein flüchtiger Speicher in Form eines Arbeitsspeichers (engl. Random-Access Memory, RAM) oder ein dauerhafter Speicher wie eine Festplatte oder ein Datenträger oder z. B. ein wechselbares Speichermodul verstanden werden. Es kann sich bei dem Speichermodul aber auch um eine cloudbasierte Speicherlösung handeln.In the context of the invention, a “memory unit” or “memory module” and the like can mean, for example, a volatile memory in the form of a random-access memory (RAM) or a permanent memory such as a hard disk or a data carrier or e.g. B. be understood as a removable memory module. However, the storage module can also be a cloud-based storage solution.
Unter einem „Modul“ kann im Zusammenhang mit der Erfindung beispielsweise ein Prozessor und/oder eine Speichereinheit zum Speichern von Programmbefehlen verstanden werden. Beispielsweise ist der Prozessor speziell dazu eingerichtet, die Programmbefehle derart auszuführen, damit der Prozessor und/oder die Steuereinheit Funktionen ausführt, um das erfindungsgemäße Verfahren oder einen Schritt des erfindungsgemäßen Verfahrens zu implementieren oder realisieren.In connection with the invention, a “module” can be understood to mean, for example, a processor and/or a memory unit for storing program instructions. For example, the processor is specially set up to execute the program instructions in such a way that the processor and/or the control unit executes functions in order to implement or realize the method according to the invention or a step of the method according to the invention.
Unter „Daten“ sind im Zusammenhang mit der Erfindung sowohl Rohdaten als auch bereits aufbereitete Daten aus den Messergebnissen der Kamera- und Sensoreinrichtung 12 und/oder in der Datenbank 40 und/ oder der Cloud-Computing-Infrastruktur 45 gespeicherte Daten zu verstehen.In connection with the invention, “data” means both raw data and data that has already been processed from the measurement results of the camera and
Unter „Datenbank“ ist sowohl ein Speicheralgorithmus als auch die Hardware in Form einer Speichereinheit zu verstehen. Insbesondere ist die Datenbank als Cloud-Computing-Infrastruktur 45 ausgebildet."Database" means both a storage algorithm and the hardware in the form of a storage unit. In particular, the database is designed as a
Die Kommunikationsverbindung zwischen der Datenanalyseeinrichtung 30 und der Datenbank 40 bzw. Cloud-Computing-Infrastruktur 45 ist insbesondere als Mobilfunkverbindung und/oder als Nahfeldkommunikationsverbindung wie Bluetooth®, Ethernet, NFC (near field communication) oder Wi-Fi® ausgebildet.The communication connection between the
Insbesondere verfügen die Datenanalyseeinrichtung 30 und/oder die Kamera- und Sensoreinrichtung 12 über Mobilfunkmodule des 5G-Standards. 5G ist der Mobilfunkstandard der fünften Generation und zeichnet sich im Vergleich zum 4G-Mobilfunkstandard durch höhere Datenraten bis zu 10 Gbit/sec, der Nutzung höherer Frequenzbereiche wie beispielsweise 2100, 2600 oder 3600 Megahertz, eine erhöhte Frequenzkapazität und damit einen erhöhten Datendurchsatz und eine Echtzeitdatenübertragung aus, da bis zu eine Million Geräte pro Quadratkilometer gleichzeitig ansprechbar sind. Die Latenzzeiten betragen wenige Millisekunden bis unter 1 ms, so dass Echtzeitübertragungen von Daten und von Berechnungsergebnissen möglich sind. Die von der Kamera- und Sensoreinrichtung 12 aufgenommenen Sensor- und Bilddaten 20 können in Echtzeit an die Cloud-Computing-Infrastruktur 45 gesendet werden, wo die Analyse der Sensor- und Bilddaten 20 durchgeführt wird. Die Analyse- und Berechnungsergebnisse können an das Datenverarbeitungsmodul 30 oder ein anderes Steuerungsmodul in dem Fahrzeug 10 zurückgesandt werden.In particular, the
Diese Geschwindigkeit bei der Datenübermittlung ist erforderlich, wenn cloudbasierte Lösungen für die Verarbeitung der Sensor- und Bilddaten 20 verwendet werden sollen. Cloudbasierte Lösungen bieten den Vorteil von hohen und damit schnellen Rechenleistungen. Um die Verbindung zu der Cloud-Computing-Infrastruktur 45 mittels einer Mobilfunkverbindung zu schützen, sind insbesondere kryptographische Verschlüsselungsverfahren vorgesehen. Kryptographische Verschlüsselungsverfahren können aber auch für die Verbindung zwischen der Kamera- und Sensoreinrichtung 12 und der Datenanalyseeinrichtung 30 vorgesehen sein.This data transmission speed is required if cloud-based solutions are to be used for processing the sensor and
Die Datenanalyseeinrichtung 30 kann bezüglich der Hardwareausprägung eine separate Einheit und ist insbesondere im Fahrzeug 10 angeordnet, aber sie kann für die Funktionsausübung auch auf andere Hardware- und Softwarekomponenten im Fahrzeug 10 oder in der Cloud-Computing-Infrastruktur 45 zurückgreifen.The
Das Analysesystem 300 umfasst Algorithmen der künstlichen Intelligenz und der maschinellen Bildanalyse, um die Sensor- und Bilddaten 20 zu selektieren und zu klassifizieren. Vorteilhaftweise verwendet das Analysesystem 300 Algorithmen aus dem Bereich des Maschinenlernens, vorzugsweise Deep Learning mit beispielsweise gefalteten neuronalen Netzwerken (engl.: convolutional neural networks) und/oder Lernverstärkungs-Agenten (LV) (Reinforcement Learning Agent) zur Analyse und Bewertung einer zukünftigen Fahrsituation mittels der erfassten Bild- und Sensordaten 20.The
Ein neuronales Netzwerk besteht aus Neuronen, die in mehreren Schichten angeordnet und unterschiedlich miteinander verbunden sind. Ein Neuron ist in der Lage, an seinem Eingang Informationen von außerhalb oder von einem anderen Neuron entgegenzunehmen, die Information in einer bestimmten Art zu bewerten und sie in veränderter Form am Neuronen-Ausgang an ein weiteres Neuron weiterzuleiten oder als Endergebnis auszugeben. Hidden-Neuronen sind zwischen den Input-Neuronen und Output-Neuronen angeordnet. Je nach Netzwerktyp können mehrere Schichten von Hidden-Neuronen vorhanden sein. Sie sorgen für die Weiterleitung und Verarbeitung der Informationen. Output-Neuronen liefern schließlich ein Ergebnis und geben dieses an die Außenwelt aus. Durch die Anordnung und die Verknüpfung der Neuronen entstehen verschiedene Typen von neuronalen Netzwerken wie Feedforward-Netzwerke, Rekurrente Netzwerke oder Convolutional Neural Networks. Die Netzwerke lassen sich durch unbeaufsichtigtes oder überwachtes Lernen trainierenA neural network consists of neurons that are arranged in several layers and connected to each other in different ways. A neuron is able to receive information from outside or from another neuron at its input, to evaluate the information in a certain way and to pass it on to another neuron in a changed form at the neuron output or to output it as the end result. Hidden neurons are located between the input neurons and output neurons. Depending on the network type, there can be several layers of hidden neurons. They ensure the forwarding and processing of the information. Finally, output neurons deliver a result and output it to the outside world. Different types of neural networks such as feedforward networks, recurrent networks or convolutional neural networks are created by the arrangement and linking of the neurons. The networks can be trained through unsupervised or supervised learning
Das Convolutional Neural Network ist eine besondere Form eines künstlichen neuronalen Netzwerks. Es besitzt mehrere Faltungsschichten und ist für maschinelles Lernen und Anwendungen mit Künstlicher Intelligenz (KI) im Bereich der Bild- und Spracherkennung sehr gut geeignet. Die Funktionsweise eines Convolutional Neural Networks ist zu einem gewissen Teil biologischen Vorgängen nachempfunden und der Aufbau ist vergleichbar der Sehrinde des Gehirns. Das Training eines Convolutional Neural Networks findet gewöhnlich überwacht statt. Herkömmliche neuronale Netzwerke bestehen aus voll- oder teilvermaschten Neuronen in mehreren Ebenen. Diese Strukturen stoßen jedoch bei der Verarbeitung von Bildern an ihre Grenzen, da eine der Pixelanzahl entsprechende Zahl an Eingängen vorhanden sein müsste. Das Convolutional Neural Network setzt sich aus verschiedenen Schichten zusammen und ist vom Grundprinzip ein zum Teil lokal vermaschtes neuronales Feedforward-Netzwerk. Die einzelnen Schichten des CNN sind die Convolutional-Schicht, die Pooling-Schicht und die vollständig vermaschte Schicht. Die Convolutional-Schicht ist die eigentliche Faltungsebene und in der Lage, in den Eingabedaten einzelne Merkmale zu erkennen und zu extrahieren. Bei der Bildverarbeitung können dies Merkmale wie Linien, Kanten oder bestimmte Formen sein. Die Verarbeitung der Eingabedaten erfolgt in Form von Tensoren wie einer Matrix oder Vektoren. Die Pooling-Schicht, auch Subsampling-Schicht genannt, verdichtet und reduziert die Auflösung der erkannten Merkmale durch passende Filterfunktionen. Durch das reduzierte Datenaufkommen erhöht sich die Berechnungsgeschwindigkeit.The convolutional neural network is a special form of an artificial neural network. It has multiple layers of convolution and is well suited for machine learning and artificial intelligence (AI) applications in the field of image and speech recognition. The functionality of a convolutional neural network is to a certain extent modeled on biological processes and the structure is comparable to the visual cortex of the brain. The training of a convolutional neural network usually takes place under supervision. Conventional neural networks consist of fully or partially meshed neurons in several levels. However, these structures reach their limits when processing images, since there would have to be a number of inputs corresponding to the number of pixels. The convolutional neural network is made up of different layers and is based on the basic principle of a partly locally meshed neural feedforward network. The individual layers of the CNN are the convolutional layer, the pooling layer and the fully meshed layer. The convolutional layer is the actual convolution layer and is able to recognize and extract individual features in the input data. In image processing, these can be features such as lines, edges or specific shapes. The input data is processed in the form of tensors such as a matrix or vectors. The pooling layer, also known as the subsampling layer, compresses and reduces the resolution of the recognized features using appropriate filter functions. The reduced data volume increases the calculation speed.
Das Convolutional Neural Network (CNN) bietet daher gegenüber herkömmlichen nicht gefalteten neuronalen Netzen zahlreiche Vorteile. Es eignet sich für maschinelles Lernen und Anwendungen der Künstlichen Intelligenz mit großen Mengen an Eingabedaten wie in der Bilderkennung. Das Netzwerk arbeitet zuverlässig und ist gegenüber Verzerrungen oder anderen optischen Veränderungen unempfindlich. Das CNN kann unter verschiedenen Lichtverhältnissen und in unterschiedlichen Perspektiven aufgenommene Bilder verarbeiten. Es erkennt dennoch die typischen Merkmale eines Bildes. Da das CNN in mehrere lokale, teilvermaschte Schichten aufgeteilt ist, hat es einen wesentlich geringeren Speicherplatzbedarf als vollvermaschte neuronale Netze. Die Faltungsschichten reduzieren die Speicheranforderungen drastisch. Ebenfalls stark verkürzt ist die Trainingszeit des Convolutional Neural Networks. Mit dem Einsatz moderner Grafikprozessoren lassen sich CNNs sehr effizient trainieren.The convolutional neural network (CNN) therefore offers numerous advantages over conventional non-convoluted neural networks. It is suitable for machine learning and artificial intelligence applications with large amounts of input data, such as in image recognition. The network works reliably and is not sensitive to distortions or other optical changes. CNN can process images captured under different lighting conditions and from different perspectives. It recognizes him nor the typical features of an image. Since the CNN is divided into several local, partially meshed layers, it requires significantly less storage space than fully meshed neural networks. The convolutional layers drastically reduce storage requirements. The training time of the convolutional neural network is also greatly reduced. With the use of modern graphics processors, CNNs can be trained very efficiently.
Ein Lernverstärkungs-Agent (LV) (Reinforcement Learning Agent) wählt einen bestimmten Zustand si ∈ S aus einer Menge verfügbarer Zustände für zumindest eine Aktion ai ∈ A aus einer Menge verfügbarer Aktionen aus. Für die ausgewählte Aktion ai erhält der Agent eine Belohnung, die positiv, neutral oder negativ sein kann. Die Zustände si ∈ S erhält der Agent von einem Zustandsmodul, das Daten von verschiedenen Sensoren und Datenquellen verarbeitet und diesen verarbeiteten Daten Zustände si ∈ S zuordnet, auf die der LV-Agent zugreifen kann.A reinforcement learning agent (LV) selects a specific state si ∈ S from a set of available states for at least one action a i ∈ A from a set of available actions. For the selected action a i the agent receives a reward which can be positive, neutral or negative. The agent receives the states s i ∈ S from a state module, which processes data from various sensors and data sources and assigns states s i ∈ S to these processed data, which the LV agent can access.
In dem Erkennungsmodul 310 werden die erfassten Sensor- und Bilddaten 20 bearbeitet, um die Umgebung und die Objekte in der Umgebung zu erkennen und eine aktuelle Fahrsituation zu einem ersten Zeitpunkt t1 zu ermitteln. Insbesondere werden die Sensor- und Bilddaten 20 mittels eines Convolutional Neural Network bearbeitet. Eine Fahrsituation zu einem ersten Zeitpunkt t1 stellt somit eine Repräsentation von verschiedenen Objekten an verschiedenen Orten in einem dreidimensionalen Raum im Verhältnis zu dem aktuellen Ort des Fahrzeugs 10 dar. Die Objekte und das Fahrzeug 10 bewegen sich jedoch mit unterschiedlichen Geschwindigkeiten, so dass sich eine zukünftige Fahrsituation zu einem zweiten Zeitpunkt t2 gegenüber der aktuellen Fahrsituation ändert.The detected sensor and
Das Erkennungsmodul 310 kann wiederum für die Extraktion von Bildmerkmalen zumindest ein Encoder-Modul aufweisen. Die extrahierten Bildmerkmale werden an zumindest ein Decoder-Modul zur Auswertung weitergegeben. Hierdurch können die Anforderungen an die Rechenkapazität für die Bearbeitung des Sensor- und Bilddaten bezüglich spezifischer Charakteristika wie der Objekterkennung und der Tiefenschätzung für eine genaue Positionsbestimmung reduziert werden.The
In dem Klassifizierungsmodul 320 werden die erkannten Objekte in Verbindung mit weiteren Daten insbesondere aus der Datenbank 40 nach verschiedenen Merkmalen, Zuständen und/oder Sicherheitskategorien klassifiziert. So kann eine Straßenführung aufgrund der Topographie als ungefährlich oder gefährlich klassifiziert werden und einer Sicherheitsstufe von niedrig bis hoch zugeordnet werden. Oder die Fahrweise eines anderen Fahrzeugs kann aufgrund der Geschwindigkeit als unbedenklich eingestuft oder als Sicherheitsrisiko betrachtet werden. Diese Merkmale, Zustände und/oder Sicherheitskategorien wurden vorzugsweise vorab definiert, dem Klassifizierungsmodul 320 übermittelt und während einer Trainingsphase eines neuronalen Netzes implementiert.In the
Die erkannte und klassifizierte Fahrsituation wird in dem Prädiktionsmodul 330 hinsichtlich der Prädiktion einer zukünftigen Fahrsituation zu einem Zeitpunkt t2 bearbeitet. Das Prädiktionsmodul 330 berechnet aufgrund einer Vorhersage über die Veränderung der räumlichen Position der verschiedenen Objekte in der Umgebung des Fahrzeugs 10 zumindest eine zukünftige Fahrsituation zu einem zweiten Zeitpunkt t2. Je geringer das Zeitintervall zwischen t1 und t2 ist, desto genauer ist die Vorhersage der zukünftigen Fahrsituation. Die zukünftige Fahrsituation zu einem zweiten Zeitpunkt t2 wird daher mit einer Wahrscheinlichkeit gewichtet für das Eintreffen des tatsächlichen Ereignisses, also der zukünftigen Fahrsituation. Insbesondere kann das Prädiktionsmodul 330 mehrere zukünftige Fahrsituationen zu einem zweiten Zeitpunkt t2 berechnen, die jeweils mit einer Wahrscheinlichkeit des tatsächlichen Eintreffens bewertet werden. Das Prädiktionsmodul 330 kann aber auch zu mehreren Zeitpunkten ti beispielsweise in einer Zeitfolge jeweils zumindest eine zukünftige Fahrsituationen berechnen, die jeweils mit einer Wahrscheinlichkeit des tatsächlichen Eintreffens bewertet werden Diese verschiedenen zukünftigen Fahrsituationen zu einem Zeitpunkt t2 und/oder zu weiteren Zeitpunkten ti können wiederum von dem Klassifizierungsmodul 320 nach Merkmalen, Zuständen und/oder Sicherheitskategorien klassifiziert werden. So kann eine erste zukünftige Fahrsituation eine hohe Wahrscheinlichkeit des Eintreffens aufweisen und mit einer geringen Sicherheitsstufe bewertet werden. Eine zweite zukünftige Fahrsituation kann hingegen eine geringe Wahrscheinlichkeit des Eintreffens aufweisen, aber dafür mit einer hohen Sicherheitsstufe bewertet werden.The recognized and classified driving situation is processed in the
Die von dem Prädiktionsmodul 330 zumindest eine berechnete zukünftige Fahrsituation wird von dem Bewertungsmodul 340 bewertet. Die Bewertungskriterien wägen die Wahrscheinlichkeit des Eintreffens und die weiteren Merkmale, Zustände und Sicherheitskategorien gegeneinander ab. Da es im Bereich des automatisierten Fahrens eine Reihe von ethischen Fragestellungen gibt, um die Sicherheit aller Verkehrsteilnehmer zu gewährleisten, können auch ethische Kriterien in die Bewertungskriterien einfließen, die beispielsweise von einer Ethikkommission für automatisiertes Fahren erarbeitet worden sind.The at least one future driving situation calculated by
Das Bewertungsmodul 340 gibt aufgrund der Bewertung der zumindest einen zukünftigen Fahrsituation zu einem Zeitpunkt t2 und/oder zu einem weiteren Zeitpunkt ti einen Bewertungsindex 70 aus. Der Bewertungsindex 70 entspricht einem Steuerungszustand für ein Fahrassistenzmodul 80, wobei insbesondere drei Steuerungszustände vorgesehen sind, die mit „1 - keine Reaktion“, „2 - aktive Reaktion“ und „3 - adaptive Reaktion“ bezeichnet werden können.The
Bei dem ersten Steuerungszustand „1 - keine Reaktion“ erfolgt keine Änderung des Fahrverhaltens, da die Wahrscheinlichkeit des Eintreffens eines kritischen zukünftigen Ereignisses gering ist und/oder die daraus resultierende Gefahr und/oder ein verminderter Komfort beim Fahren in Kauf genommen werden kann.In the first control state "1 - no reaction" there is no change in driving behavior since the probability of a critical future event occurring is low and/or the resulting danger and/or reduced comfort when driving can be accepted.
Bei dem zweiten Steuerungszustand „2 - aktive Reaktion“ erfolgt eine aktive Änderung des Fahrverhaltens, da die Wahrscheinlichkeit des Eintreffens eines kritischen zukünftigen Ereignisses hoch ist und/oder die Wahrscheinlichkeit des Eintreffens eines kritischen zukünftigen Ereignisses zwar gering ist, aber das Gefahrenpotential des Ereignisses sehr hoch ist, und daher der daraus resultierenden Gefahr und/oder ein geringerer Komfort beim Fahren entgegengesteuert werden muss, um ein sicheres und/oder komfortables Fahren beim Eintreffen der zukünftigen Fahrsituation zu gewährleisten.In the second control state "2 - active reaction" there is an active change in driving behavior, since the probability of a critical future event occurring is high and/or the probability of a critical future event occurring is low, but the risk potential of the event is very high is, and therefore the resulting danger and / or less comfort when driving must be counteracted in order to ensure safe and / or comfortable driving when the future driving situation occurs.
Bei dem dritten Steuerungszustand „3 - adaptive Reaktion“ erfolgt ein moderates Anpassen des Fahrverhaltens, wie beispielsweise keine Gaszuführung und ein leichtes Reduzieren der Geschwindigkeit, da die Wahrscheinlichkeit des Eintreffens eines kritischen zukünftigen Ereignisses im mittleren Bereich liegt. Durch das moderate Anpassen des Fahrverhaltens kann die Gefahr reduziert und/oder der Fahrkomfort verbessert werden. Für den Fall, dass das Ereignis nicht eintritt, ist dieser dritte Steuerungszustand optimaler als das reaktive Verhalten beim ersten Steuerungszustand.In the third control state "3 - adaptive reaction" there is a moderate adaptation of the driving behavior, such as no gas supply and a slight reduction in speed, since the probability of a critical future event occurring is in the medium range. The risk can be reduced and/or the driving comfort improved by moderately adapting the driving behavior. In the event that the event does not occur, this third control state is more optimal than the reactive behavior in the first control state.
Es kann in einer Weiterentwicklung aber auch vorgesehen sein, dass neben den drei beschriebenen Steuerungszuständen ein Kontinuum von mehreren Steuerungszuständen zwischen dem ersten Steuerungszustand „1 - keine Reaktion und dem zweiten Steuerungszustand „2 - aktive Reaktion“ vorgesehen sind, die jeweils eine prädiktive individuellen Reaktion auf eine bestimmte zukünftige Situation ermöglichen.In a further development, however, it can also be provided that, in addition to the three control states described, a continuum of several control states is provided between the first control state "1 - no reaction" and the second control state "2 - active reaction", each of which has a predictive individual reaction to enable a certain future situation.
Der Bewertungsindex 70 wird somit an das Fahrassistenzmodul 80 weitergeleitet und in zumindest eine automatisierte Fahrfunktion 85 integriert und/oder an die Benutzerschnittstelle 50 übermittelt. Eine Fahrfunktion 85 ist beispielsweise eine Spurhalteassistenz, eine Bremsunterstützung oder eine autonome Fahrfunktion. Bei einer automatisieren Fahrfunktion 85 kann beispielsweis automatisch das Fahrtempo reduziert werden oder eine automatische Bremsung durchgeführt werden durch Ausgabe von entsprechenden Steuerungsbefehlen an Steuerungseinrichtungen 14 des Fahrzeugs 10 wie den Motor und/oder die Bremsen. Außerdem können die Sitzgurte automatisch angespannt werden.The
Zusätzlich können Handlungsempfehlungen oder Warnhinweise an den Fahrer der Fahrzeugs 10 über die Benutzerschnittstelle 50 angezeigt werden. So kann beispielsweise ein Warnton oder ein optischer Hinweis in Abhängigkeit von dem Bewertungsindex 70 über die Benutzerschnittstelle 50 ausgegeben werden, um den Fahrer auf eine besondere Verkehrssituation aufmerksam zu machen, die eine erhöhte Aufmerksamkeit beansprucht.In addition, recommendations for action or warnings can be displayed to the driver of the vehicle 10 via the
Da die Berechnung des Bewertungsindex 70 in Echtzeit erfolgen muss für eine zeitnahe Steuerung der Fahrfunktion 85, ist für die Vielzahl von Rechenoperationen in den verschiedenen Modulen des Analysesystem 300 die Rechengeschwindigkeit entscheidend. Um eine Durchführung der Rechenoperationen in Echtzeit zu ermöglichen, ist daher die Verwendung der Cloud-Computing-Infrastruktur 45 vorteilhaft, da hierdurch eine schnelle Berechnung gewährleistet werden kann. Für die Kommunikation der Datenanalyseeinrichtung 30 mit der Cloud-Computing-Infrastruktur 45 ist wiederum eine 5G-Mobilfunkverbindung vorteilhaft, da auf diese Weise eine Datenübermittlung in Echtzeit erfolgen kann.Since the
In einer Weiterentwicklung kann auch vorgesehen sein, dass zumindest ein Teil der Objekte in der Umgebung des Fahrzeugs 1 ebenfalls ihre aufgenommenen Daten an die Cloud-Computing-Infrastruktur 45 senden, so dass die Cloud-Computing-Infrastruktur 45 aus diesen Daten der Objekte sowie den Daten des Fahrzeugs 10 die aktuelle Fahrsituation sowie zukünftige Fahrsituationen simulieren kann.In a further development it can also be provided that at least some of the objects in the vicinity of the vehicle 1 also send their recorded data to the
Durch die Berücksichtigung von zu erwartenden, geschätzten oder bekannten zukünftigen Ereignissen wie beispielsweise Steigungen oder Kurven aufgrund der Topographie oder auf der Fahrspur einscherende Fahrzeuge wird ein sicheres und komfortables und sicheres Fahren ermöglicht. Zukünftige Fahrsituationen werden mittels Algorithmen zur Prädiktion berechnet und mit einer Wahrscheinlichkeit ihres Eintreffens gewichtet. Daraus wird ein Bewertungsindex für die zukünftige Fahrsituation berechnet, der eine prädiktive Steuerung von Fahrfunktionen des Fahrzeugs 10 ermöglicht. Insbesondere werden drei Steuerungszustände vorgeschlagen, die eine bessere Anpassung der Fahrfunktionen an eine zukünftige Fahrsituation ermöglichen. Das Fahrverhalten in Bezug auf Sicherheit, Komfort und Performance kann somit feiner abgestimmt werden, wodurch das Vertrauen in automatische Fahrfunktionen und damit das Fahrgefühl deutlich verbessert werden kann.Safe, comfortable and safe driving is made possible by taking into account future events that are to be expected, estimated or known, such as gradients or curves due to the topography or vehicles cutting into the lane. Future driving situations are calculated using prediction algorithms and weighted with a probability of their occurrence. From this, an evaluation index for the future driving situation is calculated, which enables predictive control of driving functions of vehicle 10 . In particular three control states are proposed, which enable a better adaptation of the driving functions to a future driving situation. The driving behavior in terms of safety, comfort and performance can thus be fine-tuned, which means that the trust in automatic driving functions and thus the driving experience can be significantly improved.
In
In einem Schritt S10 werden Sensor- und Bilddaten 20 von einer Kamera- und Sensoreinrichtung 12 eines Fahrzeugs 10 aufgenommen, wobei die Bild- und Sensordaten 20 die Umgebung und Objekte in der Umgebung des Fahrzeugs 10 abbilden.In a step S10 , sensor and
In einem Schritt S20 werden die Sensor- und Bilddaten 20 und/oder weitere historische Daten aus einer Datenbank 40 an eine Datenanalyseeinrichtung 30 weitergegeben, wobei die Datenanalyseeinrichtung 30 ein Analysesystem 300 umfasst, welches Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) und der maschinellen Bildanalyse verwendet.In a step S20, the sensor and
In einem Schritt S30 wird aus den Sensor- und Bilddaten 20 in der Datenanalyseeinrichtung 40 mittels des Analysesystems 300 zumindest eine zukünftige Fahrsituation zu ermitteln.In a step S30, at least one future driving situation is determined from the sensor and
In einem Schritt S40 wird die zumindest eine zukünftige Fahrsituation hinsichtlich der Wahrscheinlichkeit des Eintreffens und/oder weiterer Merkmale, Zustände oder Sicherheitskategorien klassifiziert.In a step S40, the at least one future driving situation is classified with regard to the probability of its occurrence and/or other features, states or safety categories.
In einem Schritt S50 wird die klassifizierte zukünftige Fahrsituation bewertet und ihr ein Bewertungsindex 70 zugeordnet.In a step S50, the classified future driving situation is evaluated and an
In einem Schritt S60 wird der Bewertungsindex 70 einem Fahrzeugassistenzmodul 80 zugeführt.In a step S60 the
In einem Schritt S70 wird mit dem Bewertungsindex 70 der zukünftigen Fahrsituation eine automatisierte Fahrfunktion gesteuert.In a step S70, an automated driving function is controlled using the
Mit dem Verfahren und dem System 100 gemäß der vorliegenden Erfindung kann somit zuverlässig und in Echtzeit die Wahrscheinlichkeit des Eintreffens einer kritischen zukünftigen Fahrsituation prädiziert werden. Durch eine fein abgestimmte Bewertung der zukünftigen Fahrsituation können wiederum die Steuerungsparameter von automatisierten Fahrfunktionen engmaschiger eingestellt werden, so dass insgesamt die Sicherheit und der Komfort beim Fahren erhöht wird.With the method and the
BezugszeichenlisteReference List
- 1010
- Fahrzeugvehicle
- 1212
- Kamera- und SensoreinrichtungCamera and sensor setup
- 1414
- Steuerungseinrichtungencontrol devices
- 2020
- Sensor- und Bilddatensensor and image data
- 3030
- Datenanalyseeinrichtungdata analysis facility
- 3232
- Speichermodulmemory module
- 3434
- Prozessorprocessor
- 4040
- DatenbankDatabase
- 4545
- Cloud-Computing-Infrastrukturcloud computing infrastructure
- 5050
- Benutzerschnittstelleuser interface
- 7070
- Bewertungsindexrating index
- 8080
- Fahrassistenzmoduldriver assistance module
- 8585
- Fahrfunktiondriving function
- 100100
- Systemsystem
- 300300
- Analysesystemanalysis system
- 310310
- Erkennungsmoduldetection engine
- 320320
- Klassifizierungsmodulclassification module
- 330330
- Prädiktionsmodulprediction module
- 340340
- Bewertungsmodulrating module
- 400400
- Computerprogrammproduktcomputer program product
- 450450
- Programmcodeprogram code
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- DE 102017206862 A1 [0006]DE 102017206862 A1 [0006]
- DE 102020201016 A1 [0007]DE 102020201016 A1 [0007]
- DE 102017114876 A1 [0008]DE 102017114876 A1 [0008]
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021131054.7A DE102021131054A1 (en) | 2021-11-26 | 2021-11-26 | Method, system and computer program product for evaluating a driving situation for the predictive control of an automated driving function |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021131054.7A DE102021131054A1 (en) | 2021-11-26 | 2021-11-26 | Method, system and computer program product for evaluating a driving situation for the predictive control of an automated driving function |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021131054A1 true DE102021131054A1 (en) | 2023-06-01 |
Family
ID=86317269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021131054.7A Pending DE102021131054A1 (en) | 2021-11-26 | 2021-11-26 | Method, system and computer program product for evaluating a driving situation for the predictive control of an automated driving function |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021131054A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017206862A1 (en) | 2017-04-24 | 2018-10-25 | Bayerische Motoren Werke Aktiengesellschaft | Selecting a course of action concerning the longitudinal guidance of a motor vehicle with at least automated longitudinal guidance |
DE102017114876A1 (en) | 2017-07-04 | 2019-01-10 | Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr | Driver assistance system for collision avoidance by means of warning and intervention cascade |
DE102020201016A1 (en) | 2020-01-29 | 2021-07-29 | Volkswagen Aktiengesellschaft | Method and device for providing at least one trajectory for an automatically driven vehicle |
DE102020113611A1 (en) | 2020-05-20 | 2021-11-25 | Bayerische Motoren Werke Aktiengesellschaft | Method and safety system for securing an automated vehicle function and motor vehicle |
-
2021
- 2021-11-26 DE DE102021131054.7A patent/DE102021131054A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017206862A1 (en) | 2017-04-24 | 2018-10-25 | Bayerische Motoren Werke Aktiengesellschaft | Selecting a course of action concerning the longitudinal guidance of a motor vehicle with at least automated longitudinal guidance |
DE102017114876A1 (en) | 2017-07-04 | 2019-01-10 | Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr | Driver assistance system for collision avoidance by means of warning and intervention cascade |
DE102020201016A1 (en) | 2020-01-29 | 2021-07-29 | Volkswagen Aktiengesellschaft | Method and device for providing at least one trajectory for an automatically driven vehicle |
DE102020113611A1 (en) | 2020-05-20 | 2021-11-25 | Bayerische Motoren Werke Aktiengesellschaft | Method and safety system for securing an automated vehicle function and motor vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018129048B4 (en) | PROCEDURE FOR PERFORMING AUTONOMOUS VEHICLE OPERATION ANALYSIS | |
DE102014220302B4 (en) | Method for carrying out action recognition on an image of a driver in a vehicle and corresponding non-volatile, computer-readable storage medium and method for learning a random forest model for action recognition | |
DE102020129456A1 (en) | TRAJECTORY PREDICTION FROM A PRECALCULATED OR DYNAMICALLY GENERATED BANK OF TRAJECTORIES | |
DE102019102173A1 (en) | ADMINISTRATION OF THE AUTOMATED DRIVING COMPLEXITY OF THE FOREGOING ROUTE USING THE PERCEPTION SYSTEM | |
DE102018132525A1 (en) | Method and device for evaluating a vehicle driving surface | |
DE112019004554T5 (en) | SYSTEM AND PROCEDURE FOR WARNING OF PREDICTED VEHICLE INCIDENTS AND AVOIDING EVIDENCE | |
DE102020127043A1 (en) | SECURITY SYSTEM FOR ONE VEHICLE | |
DE102016211182A1 (en) | A method, apparatus and system for performing automated driving of a vehicle along a trajectory provided from a map | |
DE102016212700A1 (en) | Method and system for controlling a vehicle | |
DE102019108610A1 (en) | IMPROVING VEHICLE BEHAVIOR USING INFORMATION FROM OTHER VEHICLE LIGHTS | |
DE102021125932A1 (en) | System and method for neural network based autonomous driving | |
DE112017007600T5 (en) | Vehicle control device and method for controlling an automated vehicle | |
DE102021128041A1 (en) | IMPROVEMENT OF A VEHICLE NEURAL NETWORK | |
DE112021006846T5 (en) | Systems and methods for scenario-dependent trajectory evaluation | |
DE112022001546T5 (en) | Systems and methods for generating object recognition labels using foveal image magnification for autonomous driving | |
DE112021002953T5 (en) | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM | |
DE102021104243A1 (en) | Method, system and computer program product for automatically adapting at least one driver assistance function of a vehicle to a trailer operating state | |
DE112021006148T5 (en) | Method and system for determining a motion model for motion prediction when controlling autonomous vehicles | |
DE102018209753A1 (en) | Method, device, mobile user device and computer program for providing information for use in a vehicle | |
EP3748454A1 (en) | Method and device for automatically executing a control function of a vehicle | |
DE102022102501B3 (en) | Method, system and computer program product for determining an assessment of the functionality of a component of a motor vehicle | |
DE102022108677B3 (en) | Method, system and computer program product for determining objective parameters for predicting a subjective evaluation of a driver assistance system and/or an automated driver assistance function | |
DE102018213378B4 (en) | Driver assistance system for a vehicle, vehicle with the same and driver assistance method for a vehicle | |
DE102022107845A1 (en) | Method, system and computer program product for selecting concrete scenarios | |
DE102021131054A1 (en) | Method, system and computer program product for evaluating a driving situation for the predictive control of an automated driving function |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |