DE102020203828A1 - Method for recognizing the surroundings of a vehicle - Google Patents
Method for recognizing the surroundings of a vehicle Download PDFInfo
- Publication number
- DE102020203828A1 DE102020203828A1 DE102020203828.7A DE102020203828A DE102020203828A1 DE 102020203828 A1 DE102020203828 A1 DE 102020203828A1 DE 102020203828 A DE102020203828 A DE 102020203828A DE 102020203828 A1 DE102020203828 A1 DE 102020203828A1
- Authority
- DE
- Germany
- Prior art keywords
- object hypotheses
- vehicle
- hypotheses
- sensor data
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Traffic Control Systems (AREA)
Abstract
Die vorliegende Erfindung betrifft ein Verfahren (400) zum Erkennen einer Umgebung eines Fahrzeugs (100), wobei das Fahrzeug (100) eine Sensorik mit mindestens zwei Sensoreinheiten (104, 106, 108) zum Erfassen der Umgebung des Fahrzeugs (100) und eine Auswerteeinheit (110) zum Auswerten von Sensordaten (112) der Sensorik aufweist. Das Verfahren (400) umfasst die folgenden Schritte: Empfangen (410) von durch die mindestens zwei Sensoreinheiten (104, 106, 108) erzeugten Sensordaten (112) in der Auswerteeinheit (110); Eingeben (420) der Sensordaten (112) in einen Fusionsalgorithmus, der konfiguriert ist, um basierend auf den Sensordaten (112) Wahrscheinlichkeitsverteilungen in Bezug auf Merkmale von Objekten (113) in der Umgebung des Fahrzeugs (100) zu bestimmen und basierend auf den Wahrscheinlichkeitsverteilungen den Objekten (113) zugeordnete erste Objekthypothesen (204) zu erzeugen und auszugeben; Eingeben (420) der Sensordaten (112) in einen Machine-Learning-Algorithmus, der darauf trainiert wurde, basierend auf den Sensordaten (112) den Objekten (113) zugeordnete zweite Objekthypothesen (206) zu erzeugen und auszugeben; Entscheiden (430), ob die ersten Objekthypothesen (204) verworfen werden sollen oder nicht; wenn die ersten Objekthypothesen (204) nicht verworfen werden sollen: Verwenden (440) der ersten Objekthypothesen (204) zum Aktualisieren eines die Umgebung des Fahrzeugs (100) repräsentierenden Umgebungsmodells; wenn die ersten Objekthypothesen (204) verworfen werden sollen: Verwenden (450) der zweiten Objekthypothesen (206) zum Aktualisieren des Umgebungsmodells.The present invention relates to a method (400) for detecting the surroundings of a vehicle (100), the vehicle (100) having a sensor system with at least two sensor units (104, 106, 108) for detecting the surroundings of the vehicle (100) and an evaluation unit (110) for evaluating sensor data (112) of the sensor system. The method (400) comprises the following steps: receiving (410) sensor data (112) generated by the at least two sensor units (104, 106, 108) in the evaluation unit (110); Inputting (420) the sensor data (112) into a fusion algorithm which is configured to determine probability distributions with respect to features of objects (113) in the vicinity of the vehicle (100) based on the sensor data (112) and based on the probability distributions to generate and output first object hypotheses (204) assigned to the objects (113); Inputting (420) the sensor data (112) into a machine learning algorithm which has been trained to generate and output second object hypotheses (206) assigned to the objects (113) based on the sensor data (112); Deciding (430) whether or not to reject the first object hypotheses (204); if the first object hypotheses (204) are not to be discarded: using (440) the first object hypotheses (204) to update an environment model representing the environment of the vehicle (100); if the first object hypotheses (204) are to be rejected: using (450) the second object hypotheses (206) to update the environment model.
Description
Gebiet der ErfindungField of invention
Die Erfindung betrifft ein Verfahren zum Erkennen einer Umgebung eines Fahrzeugs. Des Weiteren betrifft die Erfindung eine Auswerteeinheit, ein Computerprogramm und ein computerlesbares Medium zum Ausführen des Verfahrens sowie ein entsprechendes Fahrzeugsystem.The invention relates to a method for recognizing the surroundings of a vehicle. The invention also relates to an evaluation unit, a computer program and a computer-readable medium for carrying out the method, as well as a corresponding vehicle system.
Stand der TechnikState of the art
Zum Erkennen einer Umgebung eines Fahrzeugs können Sensordaten unterschiedlicher Sensoren des Fahrzeugs mittels geeigneter Algorithmen in einer gemeinsamen Repräsentation der Umgebung zusammengeführt werden, was auch als Sensordatenfusion bezeichnet wird. Ziel der Sensordatenfusion ist es, die jeweiligen Sensordaten so zusammenzuführen, dass jeweilige Stärken der Sensoren gewinnbringend miteinander kombiniert bzw. jeweilige Schwächen der Sensoren reduziert werden. Bei einer solchen Sensordatenfusion kann beispielsweise ein Kalman-Filter verwendet werden, dessen Erkennungsleistung in bestimmten Situationen eingeschränkt sein kann.In order to identify the surroundings of a vehicle, sensor data from different sensors of the vehicle can be merged by means of suitable algorithms in a common representation of the surroundings, which is also referred to as sensor data fusion. The aim of the sensor data fusion is to merge the respective sensor data in such a way that respective strengths of the sensors are profitably combined with one another or respective weaknesses of the sensors are reduced. In such a sensor data fusion, for example, a Kalman filter can be used, the detection performance of which can be restricted in certain situations.
Offenbarung der ErfindungDisclosure of the invention
Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren, eine Auswerteeinheit, ein Computerprogramm und ein computerlesbares Medium gemäß den unabhängigen Ansprüchen vorgestellt. Vorteilhafte Weiterbildungen und Verbesserungen des hier vorgestellten Ansatzes ergeben sich aus der Beschreibung und sind in den abhängigen Ansprüchen beschrieben.Against this background, the approach presented here presents a method, an evaluation unit, a computer program and a computer-readable medium according to the independent claims. Advantageous developments and improvements of the approach presented here emerge from the description and are described in the dependent claims.
Vorteile der ErfindungAdvantages of the invention
Ausführungsformen der vorliegenden Erfindung ermöglichen es in vorteilhafter Weise, die Robustheit einer Sensordatenfusion zu erhöhen, indem ein auf einem probabilistischen Modell beruhender Fusionsalgorithmus mit einem Machine-Learning-Algorithmus zur Mustererkennung kombiniert wird. Dadurch können beispielsweise falsch positive oder falsch negative Erkennungsergebnisse vermieden werden.Embodiments of the present invention advantageously make it possible to increase the robustness of a sensor data fusion by combining a fusion algorithm based on a probabilistic model with a machine learning algorithm for pattern recognition. In this way, for example, false positive or false negative recognition results can be avoided.
Ein weiterer Vorteil ist, dass der Machine-Learning-Algorithmus beispielsweise nur dann zum Einsatz kommen kann, wenn die Erkennungsleistung des Fusionsalgorithmus an ihre Grenzen stößt, d. h., wenn dieser ungewisse, zweideutige oder widersprüchliche Ergebnisse liefert. In diesem Fall braucht der Machine-Learning-Algorithmus nur mit einem vergleichsweise kleinen Satz an Trainingsdaten trainiert zu werden.Another advantage is that the machine learning algorithm can only be used, for example, when the detection performance of the fusion algorithm reaches its limits, i.e. that is, if this produces uncertain, ambiguous or contradicting results. In this case, the machine learning algorithm only needs to be trained with a comparatively small set of training data.
Ein erster Aspekt der Erfindung betrifft ein computerimplementiertes Verfahren zum Erkennen einer Umgebung eines Fahrzeugs, wobei das Fahrzeug eine Sensorik mit mindestens zwei Sensoreinheiten zum Erfassen der Umgebung des Fahrzeugs und eine Auswerteeinheit zum Auswerten von Sensordaten der Sensorik aufweist. Das Verfahren umfasst folgende Schritte, die insbesondere in der angegebenen Reihenfolge ausgeführt werden können: Empfangen von durch die mindestens zwei Sensoreinheiten erzeugten Sensordaten in der Auswerteeinheit; Eingeben der Sensordaten in einen Fusionsalgorithmus, der konfiguriert ist, um basierend auf den Sensordaten Wahrscheinlichkeitsverteilungen in Bezug auf Merkmale von Objekten in der Umgebung des Fahrzeugs zu bestimmen und basierend auf den Wahrscheinlichkeitsverteilungen den Objekten zugeordnete erste Objekthypothesen zu erzeugen und auszugeben; Eingeben der Sensordaten in einen Machine-Learning-Algorithmus, der darauf trainiert wurde, basierend auf den Sensordaten den Objekten zugeordnete zweite Objekthypothesen zu erzeugen und auszugeben; Entscheiden, ob die ersten Objekthypothesen verworfen werden sollen oder nicht; wenn die ersten Objekthypothesen nicht verworfen werden sollen: Verwenden der ersten Objekthypothesen zum Aktualisieren eines die Umgebung des Fahrzeugs repräsentierenden Umgebungsmodells; wenn die ersten Objekthypothesen verworfen werden sollen: Verwenden der zweiten Objekthypothesen zum Aktualisieren des Umgebungsmodells.A first aspect of the invention relates to a computer-implemented method for recognizing the surroundings of a vehicle, the vehicle having a sensor system with at least two sensor units for detecting the surroundings of the vehicle and an evaluation unit for evaluating sensor data from the sensor system. The method comprises the following steps, which can in particular be carried out in the specified sequence: receiving sensor data generated by the at least two sensor units in the evaluation unit; Inputting the sensor data into a fusion algorithm which is configured to determine probability distributions with respect to features of objects in the vicinity of the vehicle based on the sensor data and to generate and output first object hypotheses assigned to the objects based on the probability distributions; Inputting the sensor data into a machine learning algorithm which has been trained to generate and output second object hypotheses assigned to the objects based on the sensor data; Deciding whether or not to reject the first object hypotheses; if the first object hypotheses are not to be discarded: using the first object hypotheses to update an environment model representing the environment of the vehicle; if the first object hypotheses are to be rejected: using the second object hypotheses to update the environment model.
Unter einem Fahrzeug kann im Allgemeinen eine sich teil- oder vollautomatisiert bewegende Maschine verstanden werden. Beispielsweise kann das Fahrzeug ein Pkw, Lkw, Bus, ein Motorrad, ein Roboter oder Ähnliches sein.A vehicle can generally be understood as a partially or fully automated moving machine. For example, the vehicle can be a car, truck, bus, motorcycle, robot or the like.
Das Fahrzeug kann ein Fahrzeugsystem umfassen, das ausgeführt ist, um das Fahrzeug teil- oder vollautomatisiert zu steuern. Hierzu kann das Fahrzeugsystem eine entsprechende Aktorik des Fahrzeugs, wie Lenk- oder Bremsaktoren oder ein Motorsteuergerät, ansteuern.The vehicle can include a vehicle system that is designed to control the vehicle in a partially or fully automated manner. For this purpose, the vehicle system can control corresponding actuators in the vehicle, such as steering or brake actuators or an engine control unit.
Eine Sensoreinheit kann beispielsweise ein Radar-, Lidar-, Ultraschallsensor oder eine Kamera sein. Die Sensorik kann gleichartige (beispielsweise redundante) oder verschiedenartige (beispielsweise komplementäre) Sensoreinheiten umfassen. Denkbar ist beispielsweise eine Kombination eines Radarsensors mit einer Kamera oder eine Kombination mehrerer Radarsensoren mit unterschiedlichen Erfassungsrichtungen. Beispielsweise kann die Sensorik auch drei oder mehr Sensoreinheiten bzw. Sensortypen umfassen.A sensor unit can be, for example, a radar, lidar, ultrasonic sensor or a camera. The sensor system can include similar (for example redundant) or different (for example complementary) sensor units. For example, a combination of a radar sensor with a camera or a combination of several radar sensors with different detection directions is conceivable. For example, the sensor system can also include three or more sensor units or sensor types.
Die Sensordaten können durch die jeweilige Sensoreinheit erkannte Merkmale wie etwa Position, Geschwindigkeit, Beschleunigung, Ausdehnung oder Objektkategorie von Objekten in der Umgebung des Fahrzeugs umfassen. Die Merkmale können aus Rohdaten der jeweiligen Sensoreinheit extrahiert worden sein.The sensor data can recognize features such as position, speed, acceleration, expansion by the respective sensor unit or object category of objects in the vicinity of the vehicle. The features can have been extracted from raw data of the respective sensor unit.
Zur Erkennung der Umgebung des Fahrzeugs können die Sensordaten miteinander fusioniert werden. Unter einer solchen Sensordatenfusion kann ein Vorgang verstanden werden, bei dem Informationen unterschiedlicher Sensoreinheiten bzw. Sensortypen genutzt werden, um Objekte in der Umgebung des Fahrzeugs zu detektieren und zu klassifizieren (auch Objekt-Diskriminierung genannt) und jeweilige Zustände der Objekte zu schätzen, d. h. mit einer gewissen Wahrscheinlichkeit vorherzusagen (auch Track-Schätzung genannt).The sensor data can be merged with one another to identify the surroundings of the vehicle. Such a sensor data fusion can be understood as a process in which information from different sensor units or sensor types is used to detect and classify objects in the vicinity of the vehicle (also called object discrimination) and to estimate the respective states of the objects, i.e. H. predict with a certain probability (also called track estimation).
Unter einer Objekthypothese kann ein Modell eines realen, in der Umgebung des Fahrzeugs befindlichen Objekts, etwa ein beobachtetes Fahrzeug, eine Straßenmarkierung, ein Fußgänger oder Ähnliches, verstanden werden. Die Objekthypothesen können in einem die Umgebung des Fahrzeugs repräsentierenden Umgebungsmodell hinterlegt sein. Das Umgebungsmodell kann basierend auf den Sensordaten fortlaufend aktualisiert werden, indem prädizierte Zustände der Objekte mit aktuellen Messungen abgeglichen werden. An object hypothesis can be understood to be a model of a real object located in the vicinity of the vehicle, for example an observed vehicle, a road marking, a pedestrian or the like. The object hypotheses can be stored in an environment model representing the environment of the vehicle. The environment model can be continuously updated based on the sensor data by comparing the predicted states of the objects with current measurements.
Bei dem Fusionsalgorithmus kann es sich beispielsweise um einen Bayes-Filter, Kalman-Filter oder Partikelfilter oder eine Kombination aus mindestens zwei der genannten Beispiele handeln. Beispielsweise kann der Fusionsalgorithmus konfiguriert sein, um eine Mehrzahl von Zuordnungsmatrizen, die jeweils mögliche Zuordnungen zwischen Merkmalen, genauer Merkmalhypothesen, und Objekthypothesen beschreiben und gewichten, zu generieren und aus diesen Zuordnungsmatrizen eine geeignete Zuordnungsmatrix zum Aktualisieren des Umgebungsmodells auszuwählen (auch Multihypothesenansatz genannt).The fusion algorithm can be, for example, a Bayesian filter, Kalman filter or particle filter or a combination of at least two of the examples mentioned. For example, the fusion algorithm can be configured to generate a plurality of assignment matrices that describe and weight possible assignments between features, more precisely feature hypotheses, and object hypotheses, and to select a suitable assignment matrix for updating the environment model from these assignment matrices (also called multi-hypothesis approach).
Der Machine-Learning-Algorithmus kann einen Klassifikator umfassen, in den die Sensordaten eingegeben werden können, um Merkmale der Objekte bestimmten Objektklassen zuzuordnen.The machine learning algorithm can include a classifier into which the sensor data can be entered in order to assign features of the objects to specific object classes.
Bei dem Machine-Learning-Algorithmus kann es sich um ein künstliches neuronales Netz wie etwa ein mehrschichtiges Perzeptron, ein rekurrentes neuronales Netz, ein neuronales Netz mit Long short-term memory oder ein Convolutional Neural Network handeln. Es kann sich dabei jedoch auch um einen Bayes-Klassifikator, eine Support Vector Machine, einen k-Nearest-Neighbor-Algorithmus, einen Entscheidungsbaum, einen Random Forest oder um eine Kombination aus mindestens zwei der genannten Beispiele handeln.The machine learning algorithm can be an artificial neural network such as a multilayer perceptron, a recurrent neural network, a neural network with long short-term memory or a convolutional neural network. However, it can also be a Bayesian classifier, a support vector machine, a k-nearest neighbor algorithm, a decision tree, a random forest or a combination of at least two of the examples mentioned.
Der Machine-Learning-Algorithmus kann beispielsweise nur dann aktiviert werden, wenn der Fusionsalgorithmus ungewisse, zweideutige oder widersprüchliche Ergebnisse liefert.For example, the machine learning algorithm can only be activated if the fusion algorithm delivers uncertain, ambiguous or contradicting results.
Anders ausgedrückt kann der Fusionsalgorithmus für einen Großteil zu erkennender Situationen verwendet werden, während der Machine-Learning-Algorithmus nur in besonderen Fällen zum Einsatz kommen kann, etwa bei Situationen, die der Fusionsalgorithmus nicht eindeutig erkennen kann. Dies hat den Vorteil, dass der Machine-Learning-Algorithmus mit verhältnismäßig geringem Aufwand trainiert werden kann. Zudem kann das System dadurch einfach erweitert werden.In other words, the fusion algorithm can be used for a large number of situations to be recognized, while the machine learning algorithm can only be used in special cases, for example in situations that the fusion algorithm cannot clearly recognize. This has the advantage that the machine learning algorithm can be trained with relatively little effort. In addition, the system can be easily expanded as a result.
Es ist möglich, dass der Machine-Learning-Algorithmus den Fusionsalgorithmus in entsprechender Weise beeinflusst, etwa durch Auswählen oder Ändern von Objekthypothesen, die durch den Fusionsalgorithmus erzeugt werden, oder durch Hinzufügen neuer Objekthypothesen.It is possible for the machine learning algorithm to influence the fusion algorithm in a corresponding manner, for example by selecting or changing object hypotheses that are generated by the fusion algorithm, or by adding new object hypotheses.
Auch ist es möglich, dass die Sensordaten in mindestens zwei verschiedene Machine-Learning-Algorithmen eingegeben werden. Dabei können die mindestens zwei Machine-Learning-Algorithmen mit voneinander abweichenden Trainingsdaten trainiert worden sein.It is also possible for the sensor data to be entered into at least two different machine learning algorithms. The at least two machine learning algorithms can have been trained with training data that differ from one another.
Ob die ersten Objekthypothesen verworfen werden sollen oder nicht, kann beispielsweise anhand einer jeweiligen Vertrauenswürdigkeit der ersten Objekthypothesen bestimmt werden. Die Vertrauenswürdigkeit kann abhängig von statistischen Parametern wie etwa einer Kovarianz, einem Vertrauensniveau oder einer (mittleren) Existenzwahrscheinlichkeit oder auch davon, ob die Sensoreinheiten miteinander übereinstimmende oder voneinander abweichende Ergebnisse liefern, ermittelt werden. Prinzipiell kann die Vertrauenswürdigkeit als ein Maß für eine Übereinstimmung der jeweiligen ersten Objekthypothese mit einem realen Objekt aufgefasst werden.Whether or not the first object hypotheses should be discarded can be determined, for example, on the basis of the respective trustworthiness of the first object hypotheses. The trustworthiness can be determined as a function of statistical parameters such as, for example, a covariance, a level of confidence or a (average) probability of existence, or also on whether the sensor units provide results that match or differ from one another. In principle, the trustworthiness can be understood as a measure of a match between the respective first object hypothesis and a real object.
Beispielsweise können die ersten Objekthypothesen hierzu mit den zweiten Objekthypothesen verglichen werden.For example, the first object hypotheses can be compared with the second object hypotheses for this purpose.
Wenn die ersten Objekthypothesen verworfen werden sollen, können die zweiten Objekthypothesen insbesondere unter Ausschluss der ersten Objekthypothesen zum Aktualisieren des Umgebungsmodells verwendet werden. Umgekehrt ist es möglich, dass die ersten Objekthypothesen unter Ausschluss der zweiten Objekthypothesen zum Aktualisieren des Umgebungsmodells verwendet werden, wenn die ersten Objekthypothesen nicht verworfen werden sollen.If the first object hypotheses are to be discarded, the second object hypotheses can be used, in particular with the exclusion of the first object hypotheses, to update the environment model. Conversely, it is possible for the first object hypotheses to be used to update the environment model, excluding the second object hypotheses, if the first object hypotheses are not to be discarded.
Ein zweiter Aspekt der Erfindung betrifft eine Auswerteeinheit, die konfiguriert ist, um das Verfahren, wie es oben und im Folgenden beschrieben wird, auszuführen. Merkmale dieses Verfahrens können auch Merkmale der Auswerteeinheit sein und umgekehrt.A second aspect of the invention relates to an evaluation unit which is configured to carry out the method as described above and below. Features of this method can also be features of the evaluation unit and vice versa.
Ein dritter Aspekt der Erfindung betrifft ein Fahrzeugsystem, das konfiguriert ist, um das Verfahren, wie es oben und im Folgenden beschrieben wird, auszuführen. Merkmale dieses Verfahrens können auch Merkmale des Fahrzeugsystems sein und umgekehrt.A third aspect of the invention relates to a vehicle system that is configured to carry out the method as described above and below. Features of this method can also be features of the vehicle system and vice versa.
Weitere Aspekte der Erfindung betreffen ein Computerprogramm, das, wenn es durch einen Computer, wie etwa die weiter oben erwähnte Auswerteeinheit, ausgeführt wird, das Verfahren, wie es oben und im Folgenden beschrieben wird, ausführt, sowie ein computerlesbares Medium, auf dem ein derartiges Computerprogramm gespeichert ist.Further aspects of the invention relate to a computer program which, when executed by a computer such as the evaluation unit mentioned above, executes the method as described above and below, and a computer-readable medium on which such a Computer program is stored.
Das computerlesbare Medium kann ein flüchtiger oder nicht flüchtiger Datenspeicher sein. Beispielsweise kann es sich bei dem computerlesbaren Medium um eine Festplatte, ein USB-Speichergerät, einen RAM, ROM, EPROM oder Flash-Speicher handeln. Das computerlesbare Medium kann auch ein einen Download eines Programmcodes ermöglichendes Datenkommunikationsnetzwerk wie etwa das Internet oder eine Datenwolke (Cloud) sein.The computer readable medium can be volatile or non-volatile data storage. For example, the computer-readable medium can be a hard disk, a USB storage device, a RAM, ROM, EPROM or flash memory. The computer-readable medium can also be a data communication network that enables a program code to be downloaded, such as the Internet or a data cloud.
Merkmale des Verfahrens, wie es oben und im Folgenden beschrieben wird, können auch Merkmale des Computerprogramms und/oder des computerlesbaren Mediums sein und umgekehrt.Features of the method, as described above and below, can also be features of the computer program and / or the computer-readable medium, and vice versa.
Ideen zu Ausführungsformen der vorliegenden Erfindung können unter anderem als auf den nachfolgend beschriebenen Gedanken und Erkenntnissen beruhend angesehen werden.Ideas for embodiments of the present invention can be viewed, inter alia, as being based on the thoughts and findings described below.
Gemäß einer Ausführungsform wird basierend auf den ersten Objekthypothesen und den zweiten Objekthypothesen mindestens eine weitere Objekthypothese erzeugt. Dabei wird die mindestens eine weitere Objekthypothese zum Aktualisieren des Umgebungsmodells verwendet.According to one embodiment, at least one further object hypothesis is generated based on the first object hypotheses and the second object hypotheses. The at least one further object hypothesis is used to update the environment model.
Anders ausgedrückt können die jeweiligen Ausgaben des Fusionsalgorithmus und des Machine-Learning-Algorithmus miteinander fusioniert werden, um geeignete Aktualisierungsdaten zum Aktualisieren des Umgebungsmodells bereitzustellen. Die mindestens eine weitere Objekthypothese kann beispielsweise durch einen weiteren Fusionsalgorithmus und/oder einen weiteren Machine-Learning-Algorithmus erzeugt werden.In other words, the respective outputs of the fusion algorithm and of the machine learning algorithm can be merged with one another in order to provide suitable update data for updating the environment model. The at least one further object hypothesis can be generated, for example, by a further fusion algorithm and / or a further machine learning algorithm.
Die mindestens eine weitere Objekthypothese kann beispielsweise dann zum Aktualisieren des Umgebungsmodells verwendet werden, wenn die ersten Objekthypothesen verworfen werden sollen. Insbesondere kann die mindestens eine weitere Objekthypothese unter Ausschluss der ersten Objekthypothesen zum Aktualisieren des Umgebungsmodells verwendet werden.The at least one further object hypothesis can then be used, for example, to update the environment model if the first object hypotheses are to be discarded. In particular, the at least one further object hypothesis can be used to update the environment model, excluding the first object hypotheses.
Gemäß einer Ausführungsform wird durch Vergleichen der ersten Objekthypothesen mit den zweiten Objekthypothesen festgestellt, ob die ersten Objekthypothesen falsch sind oder nicht. Wenn die ersten Objekthypothesen falsch sind, wird entschieden, dass die ersten Objekthypothesen verworfen werden sollen. Zusätzlich oder alternativ wird entschieden, dass die ersten Objekthypothesen nicht verworfen werden sollen, wenn die ersten Objekthypothesen nicht falsch sind.According to one embodiment, it is determined by comparing the first object hypotheses with the second object hypotheses whether the first object hypotheses are false or not. If the first object hypotheses are wrong, it is decided that the first object hypotheses should be rejected. Additionally or alternatively, it is decided that the first object hypotheses should not be discarded if the first object hypotheses are not false.
Beispielsweise kann anhand der zweiten Objekthypothesen festgestellt werden, ob die ersten Objekthypothesen ein falsch positives oder falsch negatives Ergebnis darstellen.For example, it can be determined on the basis of the second object hypotheses whether the first object hypotheses represent a false positive or false negative result.
Gemäß einer Ausführungsform ist der Fusionsalgorithmus konfiguriert, um die ersten Objekthypothesen zu gewichten. Dabei wird basierend auf den zweiten Objekthypothesen eine Gewichtung mindestens einer der ersten Objekthypothesen geändert.According to one embodiment, the fusion algorithm is configured to weight the first object hypotheses. In this case, a weighting of at least one of the first object hypotheses is changed based on the second object hypotheses.
Anders ausgedrückt können die zweiten Objekthypothesen dazu verwendet werden, den Fusionsalgorithmus in geeigneter Weise zu beeinflussen. Dadurch kann die Erkennungsgenauigkeit des Fusionsalgorithmus verbessert werden.In other words, the second object hypotheses can be used to influence the fusion algorithm in a suitable manner. This can improve the detection accuracy of the fusion algorithm.
Gemäß einer Ausführungsform wurde der Machine-Learning-Algorithmus mit Trainingsdaten trainiert, die zumindest größtenteils Merkmale von für den Fusionsalgorithmus schwer erkennbaren Objekten umfassen.According to one embodiment, the machine learning algorithm was trained with training data which at least for the most part comprise features of objects that are difficult to recognize for the fusion algorithm.
Anders ausgedrückt kann der Machine-Learning-Algorithmus darauf trainiert worden sein, nur eine bestimmte Art von Situationen, in denen sich das Fahrzeug befinden kann, zu erkennen. Insbesondere kann es sich dabei um Situationen handeln, in denen die Fusion der Sensordaten mittels des Fusionsalgorithmus ein ungewisses, zweideutiges oder widersprüchliches Ergebnis liefern würde. Als mögliches Beispiel sei ein Kanaldeckel genannt, aus dem Dampf aufsteigt. In diesem Fall könnte beispielsweise der Kanaldeckel anhand der Sensordaten eines Radarsensors, dessen Radarstrahlen vom Kanaldeckel reflektiert werden, fälschlicherweise als (für das Fahrzeug potenziell gefährliches) Objekt erkannt werden (falsch positive Erkennung). Anhand der Sensordaten eines Lidarsensors, dessen Laserstrahlen vom Dampf reflektiert werden, könnte ebenfalls auf das Vorhandensein des Objekts geschlossen werden. Hingegen könnte anhand der Sensordaten einer Kamera korrekt erkannt werden, dass kein (für das Fahrzeug potenziell gefährliches) Objekt vorhanden ist. Die einander widersprechenden Erkennungen können dazu führen, dass der Fusionsalgorithmus die Situation nicht korrekt erkennt.In other words, the machine learning algorithm may have been trained to only recognize a certain type of situation in which the vehicle can find itself. In particular, these can be situations in which the fusion of the sensor data by means of the fusion algorithm would produce an uncertain, ambiguous or contradicting result. A possible example is a manhole cover from which steam rises. In this case, for example, the manhole cover could be falsely recognized as an object (potentially dangerous for the vehicle) based on the sensor data of a radar sensor, the radar beams of which are reflected by the manhole cover (false positive recognition). Using the sensor data of a lidar sensor, the laser beams of which are reflected by the steam, could the existence of the object can also be deduced. On the other hand, the sensor data of a camera could correctly identify that no object (potentially dangerous for the vehicle) is present. The contradicting detections can lead to the fusion algorithm not correctly detecting the situation.
Gemäß einer Ausführungsform umfasst der Fusionsalgorithmus einen Kalman-Filter. Zusätzlich oder alternativ umfasst der Machine-Learning-Algorithmus ein mehrschichtiges Perzeptron, beispielsweise en Convolutional Neural Network oder Ähnliches.According to one embodiment, the fusion algorithm comprises a Kalman filter. Additionally or alternatively, the machine learning algorithm includes a multilayer perceptron, for example en convolutional neural network or the like.
FigurenlisteFigure list
Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, wobei weder die Zeichnungen noch die Beschreibung als die Erfindung einschränkend auszulegen sind.
-
1 zeigt ein Fahrzeug mit einem Fahrzeugsystem gemäß einem Ausführungsbeispiel der Erfindung. -
2 zeigt ein Blockschaltbild einer Auswerteeinheit aus1 . -
3 zeigt ein Blockschaltbild einer Auswerteeinheit gemäß einem weiteren Ausführungsbeispiel der Erfindung. -
4 zeigt ein Ablaufdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel der Erfindung.
-
1 shows a vehicle with a vehicle system according to an embodiment of the invention. -
2 shows a block diagram of an evaluation unit from1 . -
3 shows a block diagram of an evaluation unit according to a further embodiment of the invention. -
4th shows a flow chart of a method according to an embodiment of the invention.
Die Figuren sind lediglich schematisch und nicht maßstabsgetreu. Gleiche Bezugszeichen bezeichnen in den Figuren gleiche oder gleichwirkende Merkmale.The figures are only schematic and not true to scale. In the figures, the same reference symbols denote the same or equivalent features.
Ausführungsformen der ErfindungEmbodiments of the invention
Zusätzlich kann das Fahrzeugsystem
Um das vorausfahrende Fahrzeug
Die Auswerteeinheit
Beispielsweise kann der Fusionsalgorithmus mehrere alternative Zuordnungsvarianten in Form von Zuordnungsmatrizen ermitteln, wobei in jeder Zuordnungsmatrix einem Merkmal, genauer einer Merkmalhypothese, genau eine Objekthypothese zugeordnet wird und jede dieser Zuordnungen gewichtet wird. Aus der Menge der Zuordnungsmatrizen kann nun je nach Gewichtung eine geeignete Zuordnungsmatrix zum Aktualisieren des Umgebungsmodells ausgewählt werden.For example, the fusion algorithm can determine several alternative assignment variants in the form of assignment matrices, with exactly one object hypothesis being assigned to a feature, more precisely a feature hypothesis, in each assignment matrix, and each of these assignments being weighted. From the set of assignment matrices, depending on the weighting, a suitable assignment matrix for updating the environment model can now be selected.
Das Umgebungsmodell kann beispielsweise in einem Planer-Modul
Die Merkmale können beispielsweise im Rahmen einer Vorverarbeitung von Sensorrohdaten durch die jeweilige Sensoreinheit
Das Machine-Learning-Modul
Ein Überwachungsmodul
Es ist möglich, dass die Vertrauenswürdigkeit zusätzlich oder alternativ in dem Machine-Learning-Modul
Die ersten Objekthypothesen
Stellt das Überwachungsmodul
Zusätzlich kann das Überwachungsmodul
Beispielsweise kann das Überwachungsmodul
Das Machine-Learning-Modul
Die Entscheidung darüber, ob der Machine-Learning-Algorithmus zum Einsatz kommen soll oder nicht, kann beispielsweise durch einen weiteren Machine-Learning-Algorithmus getroffen werden. Dieser kann beispielsweise in dem Überwachungsmodul
Der Machine-Learning-Algorithmus kann beispielsweise mit Trainingsdaten trainiert worden sein, die überwiegend oder ausschließlich solche Schlüsselsituationen enthalten.The machine learning algorithm can, for example, have been trained with training data that predominantly or exclusively contain such key situations.
Es ist möglich, dass die Auswerteeinheit
In einem ersten Schritt
In einem zweiten Schritt
In einem dritten Schritt
Wenn ja, werden in einem Schritt
Abschließend wird darauf hingewiesen, dass Begriffe wie „aufweisend“, „umfassend“ etc. keine anderen Elemente oder Schritte ausschließen und Begriffe wie „eine“ oder „ein“ keine Vielzahl ausschließen. Bezugszeichen in den Ansprüchen sind nicht als Einschränkung anzusehen.Finally, it is pointed out that terms such as “having”, “comprising” etc. do not exclude any other elements or steps and that terms such as “a” or “an” do not exclude a plurality. Reference signs in the claims are not to be regarded as a restriction.
Claims (10)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020203828.7A DE102020203828A1 (en) | 2020-03-25 | 2020-03-25 | Method for recognizing the surroundings of a vehicle |
CN202110312295.6A CN113447921A (en) | 2020-03-25 | 2021-03-24 | Method for identifying a vehicle environment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020203828.7A DE102020203828A1 (en) | 2020-03-25 | 2020-03-25 | Method for recognizing the surroundings of a vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020203828A1 true DE102020203828A1 (en) | 2021-09-30 |
Family
ID=77658503
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020203828.7A Pending DE102020203828A1 (en) | 2020-03-25 | 2020-03-25 | Method for recognizing the surroundings of a vehicle |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113447921A (en) |
DE (1) | DE102020203828A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022207598A1 (en) | 2022-07-26 | 2024-02-01 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method and control device for controlling an automated vehicle |
-
2020
- 2020-03-25 DE DE102020203828.7A patent/DE102020203828A1/en active Pending
-
2021
- 2021-03-24 CN CN202110312295.6A patent/CN113447921A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022207598A1 (en) | 2022-07-26 | 2024-02-01 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method and control device for controlling an automated vehicle |
Also Published As
Publication number | Publication date |
---|---|
CN113447921A (en) | 2021-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3695244B1 (en) | Method and device for creating an inverse sensor model and method for detecting obstacles | |
DE102008013366B4 (en) | Method for providing information for driver assistance systems | |
DE102019215902A1 (en) | Method for determining a quality level of data sets from sensors | |
DE102017200562A1 (en) | OBJECT DETECTION INTEGRATION DEVICE AND OBJECT DETECTION INTEGRATION METHOD | |
DE102021002798A1 (en) | Process for camera-based environment detection | |
DE102019209462A1 (en) | Method for determining a confidence value of a detected object | |
DE102020200169B3 (en) | Method for merging several data sets for the generation of a current lane model of a roadway and device for data processing | |
WO2020126167A1 (en) | Method for identifying at least one pattern in the surroundings of a vehicle, control device for carrying out such a method, and vehicle having such a control device | |
DE102021207613A1 (en) | Process for quality assurance of a system | |
EP3748453B1 (en) | Method and device for automatically executing a control function of a vehicle | |
EP3748454B1 (en) | Method and device for automatically executing a control function of a vehicle | |
DE102021003567A1 (en) | Process for the recognition of object relationships and attributions from sensor data | |
DE102020203828A1 (en) | Method for recognizing the surroundings of a vehicle | |
DE102019219894A1 (en) | Device and method for generating verified training data for a self-learning system | |
DE102020201939A1 (en) | Method and device for evaluating an image classifier | |
DE102019209463A1 (en) | Method for determining the trust value of an object of a class | |
DE102019206720A1 (en) | Monitoring of an AI module of a driving function of a vehicle | |
DE102020203829A1 (en) | Method for monitoring a vehicle system for recognizing the surroundings of a vehicle | |
DE102022103324A1 (en) | System and method for detecting inconsistencies in automated vehicle perception systems. | |
DE102020200876B4 (en) | Method for processing sensor data from a sensor system in a vehicle | |
EP3772017A1 (en) | Rail signal detection for autonomous railway vehicles | |
DE102018206745B4 (en) | Method for operating a vehicle with environmental sensors for detecting an environment of the vehicle, computer-readable medium, system, and vehicle | |
DE102020202305A1 (en) | Method for recognizing the surroundings of a vehicle and method for training a fusion algorithm for a vehicle system | |
DE102019219750B4 (en) | Driver assistance system and method for detecting object barriers in 3D point clouds | |
DE102020206639B4 (en) | Detection and/or location of objects based on radar data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |