DE102018128535A1 - Training an artificial neural network with data captured by sensors of a vehicle - Google Patents
Training an artificial neural network with data captured by sensors of a vehicle Download PDFInfo
- Publication number
- DE102018128535A1 DE102018128535A1 DE102018128535.3A DE102018128535A DE102018128535A1 DE 102018128535 A1 DE102018128535 A1 DE 102018128535A1 DE 102018128535 A DE102018128535 A DE 102018128535A DE 102018128535 A1 DE102018128535 A1 DE 102018128535A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- vehicle
- neural network
- artificial neural
- ultrasonic sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/93—Sonar systems specially adapted for specific applications for anti-collision purposes
- G01S15/931—Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/86—Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52004—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/862—Combination of radar systems with sonar systems
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Acoustics & Sound (AREA)
- Traffic Control Systems (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
Die vorliegende Erfindung betrifft ein Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks, mit den Schritten: Bereitstellen eines Fahrzeugs (1) mit mindestens einem Ultraschallsensor (2) und einem anderen Sensor (3) mit einer bei der Abstandsmessung geringeren Unsicherheit als der Ultraschallsensor (2), Bereitstellen eines x,y-Koordinatensystems (5) relativ zum Fahrzeug (1), Emittieren eines Ultraschallsignals durch den Ultraschallsensor (2), Empfangen eines durch ein Objekt (6, 7) in der Nähe des Fahrzeugs (1) reflektierten Ultraschallsignals an dem Ultraschallsensor (2), Bestimmen der Laufzeit des reflektierten Ultraschallsignals und des Abstands des Objekts (6, 7) vom Ultraschallsensor (2), Messen einer Position des Objekts (6, 7) durch den anderen Sensor (3), Bereitstellen eines künstlichen neuronalen Netzwerks, Speisen des künstlichen neuronalen Netzwerks mit der durch den anderen Sensor (3) gemessenen Position des Objekts (6, 7), der Laufzeit des reflektierten Ultraschallsignals, dem Abstand des Objekts (6, 7) vom Ultraschallsensor (2), der Position des Ultraschallsensors (2) und der Orientierung des Ultraschallsensors (2), und Ausgeben von Daten zur Darstellung der Unsicherheiten in der Position bei einer Bestimmung der Position des Objekts (6, 7) in der Nähe des Fahrzeugs (1) auf der Basis des reflektierten Ultraschallsignals.The invention relates to a method for training an artificial neural network, comprising the steps of: providing a vehicle (1) with at least one ultrasound sensor (2) and another sensor (3) with less uncertainty in the distance measurement than the ultrasound sensor (2) , Providing an x, y coordinate system (5) relative to the vehicle (1), emitting an ultrasound signal by the ultrasound sensor (2), receiving an ultrasound signal reflected by an object (6, 7) in the vicinity of the vehicle (1) Ultrasonic sensor (2), determining the transit time of the reflected ultrasonic signal and the distance of the object (6, 7) from the ultrasonic sensor (2), measuring a position of the object (6, 7) by the other sensor (3), providing an artificial neural network , Feeding the artificial neural network with the position of the object (6, 7) measured by the other sensor (3), the transit time of the reflected ul trasound signal, the distance of the object (6, 7) from the ultrasonic sensor (2), the position of the ultrasonic sensor (2) and the orientation of the ultrasonic sensor (2), and outputting data to represent the uncertainties in the position when determining the position of the Object (6, 7) in the vicinity of the vehicle (1) on the basis of the reflected ultrasound signal.
Description
Die Erfindung betrifft ein Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks mit durch Sensoren eines Fahrzeugs erfassten Daten, insbesondere zum automatischen Parken.The invention relates to a method for training an artificial neural network with data recorded by sensors of a vehicle, in particular for automatic parking.
Automatisches Parken ist ein autonomes Fahrzeugmanövriersystem, das ein Fahrzeug von einer Fahrspur in einen Parkplatz bewegt, um einen parallelen, senkrechten oder schrägen Parkvorgang auszuführen. Das automatische Parksystem zielt darauf ab, den Komfort und die Sicherheit eines Fahrvorgangs in beengten Umgebungen zu verbessern, in denen viel Aufmerksamkeit und Erfahrung erforderlich ist, um das Fahrzeug zu lenken. Das Parkmanöver wird durch eine koordinierte Steuerung des Lenkwinkels und der Geschwindigkeit implementiert, wobei die tatsächliche Situation in der Umgebung berücksichtigt wird, um eine kollisionsfreie Bewegung innerhalb des zur Verfügung stehenden Raums zu gewährleisten. Das Parkmanöver wird als eine Folge gesteuerter Bewegungen von den Servosystemen des Fahrzeugs unter Verwendung von Sensordaten und Abstandsmessungen bezüglich der Umgebung ausgeführt. Die Lenk- und Geschwindigkeitssteuerungen werden in Echtzeit berechnet und ausgeführt. Dieser Ansatz führt zu verschiedenen Pfadformen, die zum Ausführen von Parkmanövern erforderlich sind.Automatic parking is an autonomous vehicle maneuvering system that moves a vehicle from a lane into a parking lot to perform a parallel, vertical, or oblique parking process. The automatic parking system aims to improve the comfort and safety of a driving operation in tight spaces where a lot of attention and experience is required to drive the vehicle. The parking maneuver is implemented through a coordinated control of the steering angle and the speed, taking into account the actual situation in the environment in order to ensure collision-free movement within the available space. The parking maneuver is performed as a result of controlled movements by the vehicle's servo systems using sensor data and distance measurements with respect to the environment. The steering and speed controls are calculated and executed in real time. This approach leads to various path types that are required to perform parking maneuvers.
Für automatisches Parken verwendete Sensoren beinhalten optische und Ultraschallsensoren. Derartige Sensoren liefern keine genaue Abstandsinformation, sondern Abstandsinformation mit einer gewissen Unsicherheit. Bei herkömmlichen Parkassistenzsystemen wird die Unsicherheit bezüglich der Position erfasster Objekte aufgrund der Unsicherheit im Sensormodell und des systematischen Fehlers in den Systemmodellgleichungen erzeugt. Es ist bekannt, ein Kalman-Filter und einige mathematische Ansätze zu verwenden, um die Daten zu fusionieren und die Positionsdaten und ihre Unsicherheit zu aktualisieren.Sensors used for automatic parking include optical and ultrasonic sensors. Such sensors do not provide precise distance information, but rather distance information with a certain degree of uncertainty. In conventional parking assistance systems, the uncertainty regarding the position of detected objects is generated due to the uncertainty in the sensor model and the systematic error in the system model equations. It is known to use a Kalman filter and some mathematical approaches to merge the data and update the position data and its uncertainty.
Es ist ferner bekannt, maschinelle Lernalgorithmen zu verwenden, um die Lösungen für verschiedene Probleme zu finden, die bei der Entwicklung von Fahrerassistenzsystemen entstehen. Künstliche neuronale Netzwerke sind Rechensysteme, die von den biologischen neuronalen Netzwerken, d.h. menschlichen Gehirnen, inspiriert werden. Solche Systeme lernen, Aufgaben auszuführen durch Betrachtung von Beispielen, im Allgemeinen ohne mit irgendwelchen aufgabenspezifischen Regeln programmiert zu sein, und Identifizieren von Merkmalen aus dem Lernmaterial, das sie verarbeiten. Ein künstliches neuronales Netzwerk basiert auf einem System verbundener Einheiten oder Knoten, die als künstliche Neuronen bezeichnet werden, die die Neuronen in einem biologischen Gehirn modellieren. Jede Verbindung kann ein Signal von einem künstlichen Neuron zu einem anderen übertragen. Ein künstliches Neuron, das ein Signal empfängt, kann es verarbeiten und dann weitere damit verbundene künstliche Neuronen signalisieren.It is also known to use machine learning algorithms to find solutions to various problems that arise in the development of driver assistance systems. Artificial neural networks are computing systems that are separated from the biological neural networks, i.e. human brains to be inspired. Such systems learn to perform tasks by looking at examples, generally without being programmed with any task-specific rules, and identifying features from the learning material they process. An artificial neural network is based on a system of connected units or nodes, called artificial neurons, that model the neurons in a biological brain. Each connection can transmit a signal from one artificial neuron to another. An artificial neuron that receives a signal can process it and then signal other connected artificial neurons.
In Bezug auf die Schätzung der Unsicherheit bezüglich der Position erfasster Objekte besteht ein bislang unerfülltes Erfordernis, diese Schätzung der Unsicherheit zuverlässiger zu machen.With regard to the estimation of the uncertainty regarding the position of detected objects, there is a hitherto unfulfilled requirement to make this estimation of the uncertainty more reliable.
Die Lösung dieser Aufgabe erfolgt durch den Gegenstand der unabhängigen Ansprüche. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen beschrieben.This object is achieved by the subject matter of the independent claims. Advantageous refinements are described in the subclaims.
Die Erfindung betrifft daher ein Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks, wobei das Verfahren die folgenden Verfahrensschritte aufweist:
- - Bereitstellen eines Fahrzeugs mit mindestens einem Ultraschallsensor und einem anderen Sensor, der bei der Abstandsmessung eine geringere Unsicherheit hat als der Ultraschallsensor,
- - Bereitstellen eines x,y-Koordinatensystems relativ zum Fahrzeug zum Anzeigen einer jeweiligen x-Position und einer jeweiligen y-Position von Einrichtungen des Fahrzeugs oder von Objekten in der Nähe des Fahrzeugs, wobei der Ultraschallsensor eine vordefinierte x-Position, eine vordefinierte y-Position und eine vordefinierte Orientierung im Koordinatensystem hat,
- - Emittieren eines Ultraschallsignals durch den Ultraschallsensor,
- - Empfangen eines Ultraschallsignals, das durch ein Objekt in der Nähe des Fahrzeugs reflektiert worden ist, an dem Ultraschallsensor,
- - Bestimmen der Laufzeit des reflektierten Ultraschallsignals und des Abstands des Objekts vom Ultraschallsensor,
- - Messen einer x-Position und einer y-Position des Objekts im Koordinatensystem durch den anderen Sensor,
- - Bereitstellen eines künstlichen neuronalen Netzwerks mit mindestens sieben Eingangsknoten und mindestens zwei Ausgangsknoten,
- - Speisen der mindestens sieben Eingangsknoten des künstlichen neuronalen Netzwerks mit
- a) der durch den anderen Sensor gemessenen x-Position des Objekts,
- b) der durch den anderen Sensor gemessenen y-Position des Objekts,
- c) der Laufzeit des reflektierten Ultraschallsignals,
- d) dem Abstand des Objekts vom Ultraschallsensor,
- e) der x-Position des Ultraschallsensors,
- f) der y-Position des Ultraschallsensors, und
- g) der Orientierung des Ultraschallsensors, und
- - Ausgeben von Daten, die die Unsicherheiten in der x-Position und in der y-Position bei einer Bestimmung der x-Position und der y-Position des Objekts in der Nähe des Fahrzeugs auf der Basis des reflektierten Ultraschallsignals darstellen, durch das künstliche neuronale Netzwerk.
- Providing a vehicle with at least one ultrasonic sensor and another sensor which has less uncertainty in the distance measurement than the ultrasonic sensor,
- Providing an x, y coordinate system relative to the vehicle for displaying a respective x position and a respective y position of devices of the vehicle or of objects in the vicinity of the vehicle, the ultrasound sensor having a predefined x position, a predefined y Position and a predefined orientation in the coordinate system,
- Emitting an ultrasound signal by the ultrasound sensor,
- Receiving an ultrasound signal, which has been reflected by an object in the vicinity of the vehicle, at the ultrasound sensor,
- Determining the transit time of the reflected ultrasound signal and the distance of the object from the ultrasound sensor,
- Measuring an x position and a y position of the object in the coordinate system by the other sensor,
- Providing an artificial neural network with at least seven input nodes and at least two output nodes,
- - Feed the at least seven input nodes of the artificial neural network
- a) the x position of the object measured by the other sensor,
- b) the y-position of the object measured by the other sensor,
- c) the transit time of the reflected ultrasound signal,
- d) the distance of the object from the ultrasonic sensor,
- e) the x position of the ultrasonic sensor,
- f) the y position of the ultrasonic sensor, and
- g) the orientation of the ultrasonic sensor, and
- - Output by the artificial neural data representing the uncertainties in the x-position and in the y-position when determining the x-position and the y-position of the object in the vicinity of the vehicle on the basis of the reflected ultrasound signal Network.
Daher ist es ein wesentlicher Aspekt der Erfindung, dass anstelle der auf der Basis des Modelltyps des Ultraschallsensors berechneten Unsicherheit die Unsicherheit durch ein künstliches neuronales Netzwerk bestimmt wird. Da sich die Unsicherheit mit unterschiedlichen Situationen ändern kann, bedeutet dies, dass die Unsicherheit in Echtzeit in Abhängigkeit von Parametern der realen Situation geschätzt wird, in der die Unsicherheit außer durch den Modelltyp des Sensors auch durch andere Faktoren beeinflusst werden kann. Aufgrund der Verwendung eines künstlichen neuronalen Netzwerks müssen diese Faktoren nicht im Detail identifiziert werden, da sie während des Trainings automatisch berücksichtigt werden. Um eine Referenz für die durch einen Ultraschallsensor erzeugten Daten bereitzustellen, werden anstelle der im Voraus bestimmten Messdaten Daten verwendet, die durch einen anderen Sensor erzeugt werden, der bei der Abstandsmessung in Echtzeit eine geringere Unsicherheit hat als der Ultraschallsensor.It is therefore an essential aspect of the invention that instead of the uncertainty calculated on the basis of the model type of the ultrasonic sensor, the uncertainty is determined by an artificial neural network. Since the uncertainty can change with different situations, this means that the uncertainty is estimated in real time depending on parameters of the real situation, in which the uncertainty can be influenced by other factors besides the model type of the sensor. Due to the use of an artificial neural network, these factors do not need to be identified in detail as they are automatically taken into account during the training. In order to provide a reference for the data generated by an ultrasonic sensor, instead of the previously determined measurement data, data are used which are generated by another sensor which has less uncertainty in real-time distance measurement than the ultrasonic sensor.
Während die Positionen der Ultraschallsensoren und des anderen Sensors explizit durch die x- und y-Koordinaten gegeben sind, kann die Orientierung der Ultraschallsensoren durch die Achse ihres jeweiligen Ultraschall-Emissionskegels gegeben sein. Diese Achse kann als ein Vektor im vordefinierten x,y-Koordinatensystem angegeben werden.While the positions of the ultrasonic sensors and the other sensor are explicitly given by the x and y coordinates, the orientation of the ultrasonic sensors can be given by the axis of their respective ultrasonic emission cone. This axis can be specified as a vector in the predefined x, y coordinate system.
Im Allgemeinen kann für den anderen Sensor ein beliebiger Sensortyp verwendet werden, der bei der Abstandsmessung eine geringere Unsicherheit hat als der Ultraschallsensor. Gemäß einer bevorzugten Ausführungsform der Erfindung ist der andere Sensor jedoch ein optischer Entfernungsmesser. Noch bevorzugter ist der optische Sensor ein LIDAR-Sensor. Derartige LIDAR-Sensoren sind zuverlässig und leicht verfügbar und daher oft bereits Bestandteil von Fahrzeugen mit Systemen für fahrerunterstütztes Fahren.In general, any type of sensor can be used for the other sensor, which has less uncertainty in the distance measurement than the ultrasonic sensor. According to a preferred embodiment of the invention, however, the other sensor is an optical range finder. The optical sensor is even more preferably a LIDAR sensor. Such LIDAR sensors are reliable and easily available and are therefore often already part of vehicles with systems for driver-assisted driving.
Das künstliche neuronale Netzwerk kann an verschiedenen Stellen bereitgestellt werden, und insbesondere kann das künstliche neuronale Netzwerk allgemein auch in einem Prozessor außerhalb des Fahrzeugs vorgehalten werden. Gemäß einer bevorzugten Ausführungsform der Erfindung weist das Fahrzeug jedoch einen Prozessor auf, in dem das künstliche neuronale Netzwerk vorgehalten wird. Auf diese Weise kann eine zuverlässige Verwendung des künstlichen neuronalen Netzwerks gewährleistet werden, selbst wenn das Fahrzeug keine drahtlose Verbindung zu einem externen Prozessor mit dem künstlichen neuronalen Netzwerk hat.The artificial neural network can be provided at various locations, and in particular the artificial neural network can generally also be held in a processor outside the vehicle. According to a preferred embodiment of the invention, however, the vehicle has a processor in which the artificial neural network is held. In this way, reliable use of the artificial neural network can be ensured even if the vehicle has no wireless connection to an external processor with the artificial neural network.
Für die Erfindung können verschiedene Arten künstlicher neuronaler Netzwerke verwendet werden. Gemäß einer bevorzugten Ausführungsform der Erfindung ist das künstliche neuronale Netzwerk ein rekurrentes neuronales Netzwerk. Ein rekurrentes neuronales Netzwerk ist eine Klasse künstlicher neuronaler Netzwerke, bei denen Verbindungen zwischen Knoten einen gerichteten Graphen entlang einer Sequenz bilden. Dies ermöglicht es ihm ein dynamisches zeitliches Verhalten für eine Zeitsequenz zu zeigen. Im Gegensatz zu neuronalen Feedforward-Netzwerken können rekurrente neuronale Netzwerke ihren internen Zustand (Speicher) zum Verarbeiten von Eingabesequenzen verwenden. Auf diese Weise kann die Bewegung des Fahrzeugs berücksichtigt werden. Ferner ist es bevorzugt, wenn das künstliche Netzwerk überwachtes Lernen verwendet. Gemäß einer bevorzugten Ausführungsform der Erfindung verwendet das künstliche Netzwerk ferner eine Aktivierungsfunktion mit verborgenen ReLU-Schichten mit einer Tanh-Ausgabeschicht. Es ist außerdem bevorzugt, wenn das künstliche Netzwerk AdaGrad zur Trainingsoptimierung verwendet.Various types of artificial neural networks can be used for the invention. According to a preferred embodiment of the invention, the artificial neural network is a recurrent neural network. A recurrent neural network is a class of artificial neural networks in which connections between nodes form a directed graph along a sequence. This enables him to show a dynamic temporal behavior for a time sequence. In contrast to neural feedforward networks, recurrent neural networks can use their internal state (memory) to process input sequences. In this way, the movement of the vehicle can be taken into account. It is further preferred if the artificial network uses supervised learning. According to a preferred embodiment of the invention, the artificial network also uses an activation function with hidden ReLU layers with a Tanh output layer. It is also preferred if the artificial network uses AdaGrad for training optimization.
Die Erfindung betrifft auch die Verwendung eines vorstehend beschriebenen Verfahrens in einem Fahrzeug, das auf einer Straße fährt.The invention also relates to the use of a method described above in a vehicle traveling on a road.
Ferner betrifft die Erfindung auch ein nichtflüchtiges computerlesbares Medium, das darauf gespeicherte Anweisungen aufweist, die, wenn sie auf einem Prozessor ausgeführt werden, veranlassen, dass ein vorstehend beschriebenes Verfahren ausgeführt wird.Furthermore, the invention also relates to a non-volatile computer-readable medium which has instructions stored thereon which, when executed on a processor, cause the method described above to be carried out.
Diese und andere Aspekte der Erfindung werden aus den nachfolgend beschriebenen Ausführungsformen ersichtlich und erläutert. Einzelne Merkmale, die in den Ausführungsformen angegeben sind, können für sich alleine oder in Kombination einen Aspekt der vorliegenden Erfindung bilden. Merkmale der verschiedenen Ausführungsformen können von einer Ausführungsform auf eine andere Ausführungsform übertragen werden.These and other aspects of the invention will become apparent and explained from the embodiments described below. Individual features specified in the embodiments may form an aspect of the present invention by themselves or in combination. Features of the various embodiments can be transferred from one embodiment to another embodiment.
Es zeigen:
-
1 schematisch ein Fahrzeug 1 zur Verwendung mit dem Verfahren gemäß einer bevorzugten Ausführungsform der Erfindung; -
2 schematisch eine Darstellung der Umgebung des Fahrzeugs, die durch Abtasten der Umgebung des Fahrzeugs durch einen LIDAR-Sensor des Fahrzeugs empfangen worden ist, gemäß der bevorzugten Ausführungsform der Erfindung; -
3 schematisch die Kennzeichnung erfasster Objekte mit einem jeweiligen Rahmen und geschlossenen Konturlinien um die jeweiligen Objekte herum, die die Kontur des jeweiligen Objekts beschreiben, gemäß der bevorzugten Ausführungsform der Erfindung; und -
4 schematisch die Bestimmung der Unsicherheit eines Punkts eines Objekts gemäß der bevorzugten Ausführungsform der Erfindung.
-
1 schematically avehicle 1 for use with the method according to a preferred embodiment of the invention; -
2nd schematically a representation of the surroundings of the vehicle, which has been received by scanning the surroundings of the vehicle by a LIDAR sensor of the vehicle, according to the preferred embodiment of the invention; -
3rd schematically the identification of detected objects with a respective frame and closed contour lines around the respective objects, which describe the contour of the respective object, according to the preferred embodiment of the invention; and -
4th schematically the determination of the uncertainty of a point of an object according to the preferred embodiment of the invention.
Die hierin beschriebene bevorzugte Ausführungsform betrifft automatisches Parken eines Fahrzeugs
Gemäß der hier beschriebenen bevorzugten Ausführungsform der Erfindung werden Ultraschallsensoren
- Für das Verfahren gemäß einer bevorzugten Ausführungsform der Erfindung weist
das Fahrzeug 1 einenSatz Ultraschallsensoren 2 und einem anderen Sensor auf, der eine geringere Unsicherheit bei der Abstandsmessung hat als die Ultraschallsensoren, wie in1 schematisch dargestellt ist. Als der andere Sensor wird ein LIDAR-Sensor 3 verwendet, der eine Abstandsmessung mit einer sehr geringen Unsicherheit ermöglicht. Fernerweist das Fahrzeug 1 einen Prozessor 4 auf, in dem ein künstliches neuronales Netzwerk vorgehalten wird.
- For the method according to a preferred embodiment of the invention, the vehicle
1 a set of ultrasonic sensors2nd and another sensor that has less uncertainty in the distance measurement than the ultrasonic sensors, as in1 is shown schematically. As the other sensor is a lidar sensor3rd used, which enables a distance measurement with a very low uncertainty. The vehicle also points1 a processor4th in which an artificial neural network is maintained.
Ein x,y-Koordinatensystem 5 ist relativ zum Fahrzeug
Gemäß der hier beschriebenen bevorzugten Ausführungsform der Erfindung weist das Verfahren zum Trainieren des künstlichen neuronalen Netzwerks die folgenden Verfahrensschritte auf:
- Ultraschallsignale werden
von den Ultraschallsensoren 2 emittiert, und Ultraschallsignale, die von Objekten in der Umgebung des Fahrzeugs1 reflektiert worden sind, werden durch diejeweiligen Ultraschallsensoren 2 empfangen. Ferner werden die Laufzeit der reflektierten Ultraschallsignale und der Abstand der Objektevon den Ultraschallsensoren 2 bestimmt. Diese Erfassung der Laufzeit der reflektierten Ultraschallsignale und des Abstands der Objektevon den Ultraschallsensoren 2 kann gemäß herkömmlichen Verfahren erfolgen, die dem Fachmann bekannt sind.
- Ultrasonic signals are from the ultrasonic sensors
2nd emits, and ultrasound signals from objects in the area surrounding thevehicle 1 have been reflected by the respective ultrasonic sensors2nd receive. Furthermore, the transit time of the reflected ultrasonic signals and the distance of the objects from the ultrasonic sensors2nd certainly. This detection of the transit time of the reflected ultrasound signals and the distance of the objects from the ultrasound sensors2nd can be done according to conventional methods known to those skilled in the art.
Zusätzlich werden durch den LIDAR-Sensor
Das künstliche neuronale Netzwerk, das im Prozessor
Für jeden Ultraschallsensor
- a) der durch den LIDAR-
Sensor 3 gemessenen x-Position des Objekts, - b) der durch den LIDAR-
Sensor 3 gemessenen y-Position des Objekts, - c) der Laufzeit des reflektierten Ultraschallsignals,
- d) dem Abstand des Objekts vom Ultraschallsensor
2 , - e) der x-Position des
Ultraschallsensors 2 , - f) der y-Position des
Ultraschallsensors 2 und - g) der Orientierung des
Ultraschallsensors 2 .
- a) by the LIDAR sensor
3rd measured x-position of the object, - b) by the LIDAR sensor
3rd measured y-position of the object, - c) the transit time of the reflected ultrasound signal,
- d) the distance of the object from the ultrasonic sensor
2nd , - e) the x position of the ultrasonic sensor
2nd , - f) the y position of the ultrasonic sensor
2nd and - g) the orientation of the ultrasonic sensor
2nd .
Das künstliche neuronale Netzwerk verwendet Kullback-Leibler-Divergenz mit dem Back-Propagation-Algorithmus, um zu veranlassen, dass das Netzwerk über die Unsicherheiten in der x-Position und in der y-Position bei der Bestimmung der x-Positionen und der y-Positionen von Objekten in der Nähe des Fahrzeugs
Zum Ausgeben von Daten, die die Unsicherheiten in der x-Position und in der y-Position bei der Bestimmung der x-Positionen und der y-Positionen von Objekten in der Umgebung des Fahrzeugs
- Mit Hilfe des LIDAR-
Sensors 3 wird die Umgebung des Fahrzeugs1 abgetastet, was zu einer Darstellung der Umgebung des Fahrzeugs1 führt, wie in2 schematisch dargestellt ist. Diese Darstellung besteht aus Abtastpunkten, die durch die LIDAR-Messung empfangen werden, währenddas Fahrzeug 1 in dieser Darstellung nur zur Veranschaulichung dargestellt ist. Die Fahrtrichtung des Fahrzeugs1 ist durch einen Pfeil angegeben, und eine mögliche Trajektorie, entlang derdas Fahrzeug 1 fahren soll, ist als gestrichelte Linie dargestellt.
- With the help of the LIDAR sensor
3rd becomes the environment of thevehicle 1 scanned, resulting in a representation of the surroundings of thevehicle 1 leads as in2nd is shown schematically. This representation consists of sample points that are received by the LIDAR measurement while thevehicle 1 this illustration is shown for illustration only. The direction of travel of thevehicle 1 is indicated by an arrow, and a possible trajectory along which thevehicle 1 should drive is shown as a dashed line.
Aufgrund der Abtastpunkte werden Objekte, wie beispielsweise andere Fahrzeuge
Dann wird die Unsicherheit eines Punkts auf einem Objekt
Auf diese Weise werden die Trainingsdaten für das künstliche neuronale Netzwerk erzeugt. Wenn das künstliche neuronale Netzwerk wie vorstehend beschrieben ausreichend trainiert worden ist, kann es zum Schätzen der Unsicherheiten in der x-Position und in der y-Position bei einer Bestimmung der x-Position und der y-Position eines Objekts
BezugszeichenlisteReference symbol list
- 11
- Fahrzeugvehicle
- 22nd
- UltraschallsensorenUltrasonic sensors
- 33rd
- LIDAR-SensorLIDAR sensor
- 44th
- Prozessorprocessor
- 55
- KoordinatensystemCoordinate system
- 66
- andere Fahrzeugeother vehicles
- 6a6a
- Rahmenframe
- 6b6b
- KonturlinieContour line
- 77
- StraßenbegrenzungenRoad boundaries
- 7a7a
- Rahmenframe
- 7b7b
- KonturlinieContour line
- 88th
- Ellipseellipse
- 99
- Bogenarc
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte Nicht-PatentliteraturNon-patent literature cited
- Blundell, C., Cornebise, J., Kavukcuoglu, K. und Wierstra, D. Weight „Uncertainty in Neural Networks“ Proceedings of the 32nd International Conference on Machine Learning, Lille, Frankreich, 2015, JMLR: W&CP Band 37 [0024]Blundell, C., Cornebise, J., Kavukcuoglu, K. and Wierstra, D. Weight “Uncertainty in Neural Networks” Proceedings of the 32nd International Conference on Machine Learning, Lille, France, 2015, JMLR: W&CP Volume 37 [0024]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018128535.3A DE102018128535B4 (en) | 2018-11-14 | 2018-11-14 | Training an artificial neural network with data captured by sensors in a vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018128535.3A DE102018128535B4 (en) | 2018-11-14 | 2018-11-14 | Training an artificial neural network with data captured by sensors in a vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102018128535A1 true DE102018128535A1 (en) | 2020-05-14 |
DE102018128535B4 DE102018128535B4 (en) | 2021-09-02 |
Family
ID=70468945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018128535.3A Active DE102018128535B4 (en) | 2018-11-14 | 2018-11-14 | Training an artificial neural network with data captured by sensors in a vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102018128535B4 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3974869A1 (en) * | 2020-09-24 | 2022-03-30 | INTEL Corporation | Perception system error detection and re-verification |
EP4180836A1 (en) * | 2021-11-10 | 2023-05-17 | Volvo Car Corporation | System and method for ultrasonic sensor enhancement using lidar point cloud |
WO2024012928A1 (en) * | 2022-07-12 | 2024-01-18 | Valeo Schalter Und Sensoren Gmbh | Method for training a neural network |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013206707A1 (en) * | 2013-04-15 | 2014-10-16 | Robert Bosch Gmbh | Method for checking an environment detection system of a vehicle |
-
2018
- 2018-11-14 DE DE102018128535.3A patent/DE102018128535B4/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013206707A1 (en) * | 2013-04-15 | 2014-10-16 | Robert Bosch Gmbh | Method for checking an environment detection system of a vehicle |
Non-Patent Citations (2)
Title |
---|
Blundell, C., Cornebise, J., Kavukcuoglu, K. und Wierstra, D. Weight „Uncertainty in Neural Networks" Proceedings of the 32nd International Conference on Machine Learning, Lille, Frankreich, 2015, JMLR: W&CP Band 37 |
Kumar V. R., et al. : Monocular fisheye camera depth estimation using sparse lidar supervision. In: 2018 21st International Conference on Intelligent Trnasportation Systems (ITSC), 4.-7.11.2018, 2853-2858. https://ieeexplore.ieee.org/abstract/document/8569665 [abgerufen am 12.06.2019] * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3974869A1 (en) * | 2020-09-24 | 2022-03-30 | INTEL Corporation | Perception system error detection and re-verification |
EP4180836A1 (en) * | 2021-11-10 | 2023-05-17 | Volvo Car Corporation | System and method for ultrasonic sensor enhancement using lidar point cloud |
WO2024012928A1 (en) * | 2022-07-12 | 2024-01-18 | Valeo Schalter Und Sensoren Gmbh | Method for training a neural network |
Also Published As
Publication number | Publication date |
---|---|
DE102018128535B4 (en) | 2021-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102005035746B4 (en) | Method for determining a relative position of a mobile unit by comparing scans of an environment and mobile unit | |
DE112017006530T5 (en) | FEEDBACK FOR AN AUTONOMOUS VEHICLE | |
DE102019209736A1 (en) | Procedure for evaluating possible trajectories | |
DE102019215902A1 (en) | Method for determining a quality level of data sets from sensors | |
DE102018128535B4 (en) | Training an artificial neural network with data captured by sensors in a vehicle | |
DE102020110157A1 (en) | Image recognition device | |
DE102019209462A1 (en) | Method for determining a confidence value of a detected object | |
DE102017204983A1 (en) | A method for specifying a driving movement in a machine learning based autopilot device of a motor vehicle and control device, motor vehicle and training device for an autopilot device | |
DE102018201570A1 (en) | Multiple target object tracking method, apparatus and computer program for performing multiple target object tracking on moving objects | |
DE102017123842A1 (en) | Lane detection method | |
DE102020200169B3 (en) | Method for merging several data sets for the generation of a current lane model of a roadway and device for data processing | |
DE102021114424A1 (en) | Driver assistance device, driver assistance method and driver assistance program | |
DE102019132150A1 (en) | Method for automatically calibrating an environment sensor, in particular a lidar sensor, of a vehicle on the basis of occupancy cards and computing device | |
WO2020051618A1 (en) | Analysis of dynamic spatial scenarios | |
DE102018121866A1 (en) | Method for depth estimation of two-dimensional sensor data | |
DE102019209463A1 (en) | Method for determining the trust value of an object of a class | |
DE102019207410A1 (en) | Method and device for an automated influencing of an actuator | |
EP3576013A1 (en) | Estimation of a path of a rail path | |
DE102018216561A1 (en) | Method, device and computer program for determining an agent's strategy | |
DE102018206743A1 (en) | A method of operating a driver assistance system of an ego vehicle having at least one environment sensor for detecting an environment of the ego vehicle, computer-readable medium, system, and vehicle | |
DE102020202305A1 (en) | Method for recognizing the surroundings of a vehicle and method for training a fusion algorithm for a vehicle system | |
EP3278316B1 (en) | Method for assessing an association of a detection point with an object in an area surrounding a motor vehicle, and driver assistance system | |
DE102019132151A1 (en) | Method for calibrating an environment sensor of a vehicle on the basis of data from a reference environment sensor, taking into account occupancy cards, computing device and sensor system | |
DE102019217225A1 (en) | Method for training a machine learning system for an object recognition device | |
DE102019123783A1 (en) | Method for controlling a movement behavior of an autonomously moving robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |