DE102018128535A1 - Training an artificial neural network with data captured by sensors of a vehicle - Google Patents

Training an artificial neural network with data captured by sensors of a vehicle Download PDF

Info

Publication number
DE102018128535A1
DE102018128535A1 DE102018128535.3A DE102018128535A DE102018128535A1 DE 102018128535 A1 DE102018128535 A1 DE 102018128535A1 DE 102018128535 A DE102018128535 A DE 102018128535A DE 102018128535 A1 DE102018128535 A1 DE 102018128535A1
Authority
DE
Germany
Prior art keywords
sensor
vehicle
neural network
artificial neural
ultrasonic sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102018128535.3A
Other languages
German (de)
Other versions
DE102018128535B4 (en
Inventor
Ahmed NourEldeen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102018128535.3A priority Critical patent/DE102018128535B4/en
Publication of DE102018128535A1 publication Critical patent/DE102018128535A1/en
Application granted granted Critical
Publication of DE102018128535B4 publication Critical patent/DE102018128535B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52004Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks, mit den Schritten: Bereitstellen eines Fahrzeugs (1) mit mindestens einem Ultraschallsensor (2) und einem anderen Sensor (3) mit einer bei der Abstandsmessung geringeren Unsicherheit als der Ultraschallsensor (2), Bereitstellen eines x,y-Koordinatensystems (5) relativ zum Fahrzeug (1), Emittieren eines Ultraschallsignals durch den Ultraschallsensor (2), Empfangen eines durch ein Objekt (6, 7) in der Nähe des Fahrzeugs (1) reflektierten Ultraschallsignals an dem Ultraschallsensor (2), Bestimmen der Laufzeit des reflektierten Ultraschallsignals und des Abstands des Objekts (6, 7) vom Ultraschallsensor (2), Messen einer Position des Objekts (6, 7) durch den anderen Sensor (3), Bereitstellen eines künstlichen neuronalen Netzwerks, Speisen des künstlichen neuronalen Netzwerks mit der durch den anderen Sensor (3) gemessenen Position des Objekts (6, 7), der Laufzeit des reflektierten Ultraschallsignals, dem Abstand des Objekts (6, 7) vom Ultraschallsensor (2), der Position des Ultraschallsensors (2) und der Orientierung des Ultraschallsensors (2), und Ausgeben von Daten zur Darstellung der Unsicherheiten in der Position bei einer Bestimmung der Position des Objekts (6, 7) in der Nähe des Fahrzeugs (1) auf der Basis des reflektierten Ultraschallsignals.The invention relates to a method for training an artificial neural network, comprising the steps of: providing a vehicle (1) with at least one ultrasound sensor (2) and another sensor (3) with less uncertainty in the distance measurement than the ultrasound sensor (2) , Providing an x, y coordinate system (5) relative to the vehicle (1), emitting an ultrasound signal by the ultrasound sensor (2), receiving an ultrasound signal reflected by an object (6, 7) in the vicinity of the vehicle (1) Ultrasonic sensor (2), determining the transit time of the reflected ultrasonic signal and the distance of the object (6, 7) from the ultrasonic sensor (2), measuring a position of the object (6, 7) by the other sensor (3), providing an artificial neural network , Feeding the artificial neural network with the position of the object (6, 7) measured by the other sensor (3), the transit time of the reflected ul trasound signal, the distance of the object (6, 7) from the ultrasonic sensor (2), the position of the ultrasonic sensor (2) and the orientation of the ultrasonic sensor (2), and outputting data to represent the uncertainties in the position when determining the position of the Object (6, 7) in the vicinity of the vehicle (1) on the basis of the reflected ultrasound signal.

Description

Die Erfindung betrifft ein Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks mit durch Sensoren eines Fahrzeugs erfassten Daten, insbesondere zum automatischen Parken.The invention relates to a method for training an artificial neural network with data recorded by sensors of a vehicle, in particular for automatic parking.

Automatisches Parken ist ein autonomes Fahrzeugmanövriersystem, das ein Fahrzeug von einer Fahrspur in einen Parkplatz bewegt, um einen parallelen, senkrechten oder schrägen Parkvorgang auszuführen. Das automatische Parksystem zielt darauf ab, den Komfort und die Sicherheit eines Fahrvorgangs in beengten Umgebungen zu verbessern, in denen viel Aufmerksamkeit und Erfahrung erforderlich ist, um das Fahrzeug zu lenken. Das Parkmanöver wird durch eine koordinierte Steuerung des Lenkwinkels und der Geschwindigkeit implementiert, wobei die tatsächliche Situation in der Umgebung berücksichtigt wird, um eine kollisionsfreie Bewegung innerhalb des zur Verfügung stehenden Raums zu gewährleisten. Das Parkmanöver wird als eine Folge gesteuerter Bewegungen von den Servosystemen des Fahrzeugs unter Verwendung von Sensordaten und Abstandsmessungen bezüglich der Umgebung ausgeführt. Die Lenk- und Geschwindigkeitssteuerungen werden in Echtzeit berechnet und ausgeführt. Dieser Ansatz führt zu verschiedenen Pfadformen, die zum Ausführen von Parkmanövern erforderlich sind.Automatic parking is an autonomous vehicle maneuvering system that moves a vehicle from a lane into a parking lot to perform a parallel, vertical, or oblique parking process. The automatic parking system aims to improve the comfort and safety of a driving operation in tight spaces where a lot of attention and experience is required to drive the vehicle. The parking maneuver is implemented through a coordinated control of the steering angle and the speed, taking into account the actual situation in the environment in order to ensure collision-free movement within the available space. The parking maneuver is performed as a result of controlled movements by the vehicle's servo systems using sensor data and distance measurements with respect to the environment. The steering and speed controls are calculated and executed in real time. This approach leads to various path types that are required to perform parking maneuvers.

Für automatisches Parken verwendete Sensoren beinhalten optische und Ultraschallsensoren. Derartige Sensoren liefern keine genaue Abstandsinformation, sondern Abstandsinformation mit einer gewissen Unsicherheit. Bei herkömmlichen Parkassistenzsystemen wird die Unsicherheit bezüglich der Position erfasster Objekte aufgrund der Unsicherheit im Sensormodell und des systematischen Fehlers in den Systemmodellgleichungen erzeugt. Es ist bekannt, ein Kalman-Filter und einige mathematische Ansätze zu verwenden, um die Daten zu fusionieren und die Positionsdaten und ihre Unsicherheit zu aktualisieren.Sensors used for automatic parking include optical and ultrasonic sensors. Such sensors do not provide precise distance information, but rather distance information with a certain degree of uncertainty. In conventional parking assistance systems, the uncertainty regarding the position of detected objects is generated due to the uncertainty in the sensor model and the systematic error in the system model equations. It is known to use a Kalman filter and some mathematical approaches to merge the data and update the position data and its uncertainty.

Es ist ferner bekannt, maschinelle Lernalgorithmen zu verwenden, um die Lösungen für verschiedene Probleme zu finden, die bei der Entwicklung von Fahrerassistenzsystemen entstehen. Künstliche neuronale Netzwerke sind Rechensysteme, die von den biologischen neuronalen Netzwerken, d.h. menschlichen Gehirnen, inspiriert werden. Solche Systeme lernen, Aufgaben auszuführen durch Betrachtung von Beispielen, im Allgemeinen ohne mit irgendwelchen aufgabenspezifischen Regeln programmiert zu sein, und Identifizieren von Merkmalen aus dem Lernmaterial, das sie verarbeiten. Ein künstliches neuronales Netzwerk basiert auf einem System verbundener Einheiten oder Knoten, die als künstliche Neuronen bezeichnet werden, die die Neuronen in einem biologischen Gehirn modellieren. Jede Verbindung kann ein Signal von einem künstlichen Neuron zu einem anderen übertragen. Ein künstliches Neuron, das ein Signal empfängt, kann es verarbeiten und dann weitere damit verbundene künstliche Neuronen signalisieren.It is also known to use machine learning algorithms to find solutions to various problems that arise in the development of driver assistance systems. Artificial neural networks are computing systems that are separated from the biological neural networks, i.e. human brains to be inspired. Such systems learn to perform tasks by looking at examples, generally without being programmed with any task-specific rules, and identifying features from the learning material they process. An artificial neural network is based on a system of connected units or nodes, called artificial neurons, that model the neurons in a biological brain. Each connection can transmit a signal from one artificial neuron to another. An artificial neuron that receives a signal can process it and then signal other connected artificial neurons.

In Bezug auf die Schätzung der Unsicherheit bezüglich der Position erfasster Objekte besteht ein bislang unerfülltes Erfordernis, diese Schätzung der Unsicherheit zuverlässiger zu machen.With regard to the estimation of the uncertainty regarding the position of detected objects, there is a hitherto unfulfilled requirement to make this estimation of the uncertainty more reliable.

Die Lösung dieser Aufgabe erfolgt durch den Gegenstand der unabhängigen Ansprüche. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen beschrieben.This object is achieved by the subject matter of the independent claims. Advantageous refinements are described in the subclaims.

Die Erfindung betrifft daher ein Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks, wobei das Verfahren die folgenden Verfahrensschritte aufweist:

  • - Bereitstellen eines Fahrzeugs mit mindestens einem Ultraschallsensor und einem anderen Sensor, der bei der Abstandsmessung eine geringere Unsicherheit hat als der Ultraschallsensor,
  • - Bereitstellen eines x,y-Koordinatensystems relativ zum Fahrzeug zum Anzeigen einer jeweiligen x-Position und einer jeweiligen y-Position von Einrichtungen des Fahrzeugs oder von Objekten in der Nähe des Fahrzeugs, wobei der Ultraschallsensor eine vordefinierte x-Position, eine vordefinierte y-Position und eine vordefinierte Orientierung im Koordinatensystem hat,
  • - Emittieren eines Ultraschallsignals durch den Ultraschallsensor,
  • - Empfangen eines Ultraschallsignals, das durch ein Objekt in der Nähe des Fahrzeugs reflektiert worden ist, an dem Ultraschallsensor,
  • - Bestimmen der Laufzeit des reflektierten Ultraschallsignals und des Abstands des Objekts vom Ultraschallsensor,
  • - Messen einer x-Position und einer y-Position des Objekts im Koordinatensystem durch den anderen Sensor,
  • - Bereitstellen eines künstlichen neuronalen Netzwerks mit mindestens sieben Eingangsknoten und mindestens zwei Ausgangsknoten,
  • - Speisen der mindestens sieben Eingangsknoten des künstlichen neuronalen Netzwerks mit
    1. a) der durch den anderen Sensor gemessenen x-Position des Objekts,
    2. b) der durch den anderen Sensor gemessenen y-Position des Objekts,
    3. c) der Laufzeit des reflektierten Ultraschallsignals,
    4. d) dem Abstand des Objekts vom Ultraschallsensor,
    5. e) der x-Position des Ultraschallsensors,
    6. f) der y-Position des Ultraschallsensors, und
    7. g) der Orientierung des Ultraschallsensors, und
  • - Ausgeben von Daten, die die Unsicherheiten in der x-Position und in der y-Position bei einer Bestimmung der x-Position und der y-Position des Objekts in der Nähe des Fahrzeugs auf der Basis des reflektierten Ultraschallsignals darstellen, durch das künstliche neuronale Netzwerk.
The invention therefore relates to a method for training an artificial neural network, the method comprising the following method steps:
  • Providing a vehicle with at least one ultrasonic sensor and another sensor which has less uncertainty in the distance measurement than the ultrasonic sensor,
  • Providing an x, y coordinate system relative to the vehicle for displaying a respective x position and a respective y position of devices of the vehicle or of objects in the vicinity of the vehicle, the ultrasound sensor having a predefined x position, a predefined y Position and a predefined orientation in the coordinate system,
  • Emitting an ultrasound signal by the ultrasound sensor,
  • Receiving an ultrasound signal, which has been reflected by an object in the vicinity of the vehicle, at the ultrasound sensor,
  • Determining the transit time of the reflected ultrasound signal and the distance of the object from the ultrasound sensor,
  • Measuring an x position and a y position of the object in the coordinate system by the other sensor,
  • Providing an artificial neural network with at least seven input nodes and at least two output nodes,
  • - Feed the at least seven input nodes of the artificial neural network
    1. a) the x position of the object measured by the other sensor,
    2. b) the y-position of the object measured by the other sensor,
    3. c) the transit time of the reflected ultrasound signal,
    4. d) the distance of the object from the ultrasonic sensor,
    5. e) the x position of the ultrasonic sensor,
    6. f) the y position of the ultrasonic sensor, and
    7. g) the orientation of the ultrasonic sensor, and
  • - Output by the artificial neural data representing the uncertainties in the x-position and in the y-position when determining the x-position and the y-position of the object in the vicinity of the vehicle on the basis of the reflected ultrasound signal Network.

Daher ist es ein wesentlicher Aspekt der Erfindung, dass anstelle der auf der Basis des Modelltyps des Ultraschallsensors berechneten Unsicherheit die Unsicherheit durch ein künstliches neuronales Netzwerk bestimmt wird. Da sich die Unsicherheit mit unterschiedlichen Situationen ändern kann, bedeutet dies, dass die Unsicherheit in Echtzeit in Abhängigkeit von Parametern der realen Situation geschätzt wird, in der die Unsicherheit außer durch den Modelltyp des Sensors auch durch andere Faktoren beeinflusst werden kann. Aufgrund der Verwendung eines künstlichen neuronalen Netzwerks müssen diese Faktoren nicht im Detail identifiziert werden, da sie während des Trainings automatisch berücksichtigt werden. Um eine Referenz für die durch einen Ultraschallsensor erzeugten Daten bereitzustellen, werden anstelle der im Voraus bestimmten Messdaten Daten verwendet, die durch einen anderen Sensor erzeugt werden, der bei der Abstandsmessung in Echtzeit eine geringere Unsicherheit hat als der Ultraschallsensor.It is therefore an essential aspect of the invention that instead of the uncertainty calculated on the basis of the model type of the ultrasonic sensor, the uncertainty is determined by an artificial neural network. Since the uncertainty can change with different situations, this means that the uncertainty is estimated in real time depending on parameters of the real situation, in which the uncertainty can be influenced by other factors besides the model type of the sensor. Due to the use of an artificial neural network, these factors do not need to be identified in detail as they are automatically taken into account during the training. In order to provide a reference for the data generated by an ultrasonic sensor, instead of the previously determined measurement data, data are used which are generated by another sensor which has less uncertainty in real-time distance measurement than the ultrasonic sensor.

Während die Positionen der Ultraschallsensoren und des anderen Sensors explizit durch die x- und y-Koordinaten gegeben sind, kann die Orientierung der Ultraschallsensoren durch die Achse ihres jeweiligen Ultraschall-Emissionskegels gegeben sein. Diese Achse kann als ein Vektor im vordefinierten x,y-Koordinatensystem angegeben werden.While the positions of the ultrasonic sensors and the other sensor are explicitly given by the x and y coordinates, the orientation of the ultrasonic sensors can be given by the axis of their respective ultrasonic emission cone. This axis can be specified as a vector in the predefined x, y coordinate system.

Im Allgemeinen kann für den anderen Sensor ein beliebiger Sensortyp verwendet werden, der bei der Abstandsmessung eine geringere Unsicherheit hat als der Ultraschallsensor. Gemäß einer bevorzugten Ausführungsform der Erfindung ist der andere Sensor jedoch ein optischer Entfernungsmesser. Noch bevorzugter ist der optische Sensor ein LIDAR-Sensor. Derartige LIDAR-Sensoren sind zuverlässig und leicht verfügbar und daher oft bereits Bestandteil von Fahrzeugen mit Systemen für fahrerunterstütztes Fahren.In general, any type of sensor can be used for the other sensor, which has less uncertainty in the distance measurement than the ultrasonic sensor. According to a preferred embodiment of the invention, however, the other sensor is an optical range finder. The optical sensor is even more preferably a LIDAR sensor. Such LIDAR sensors are reliable and easily available and are therefore often already part of vehicles with systems for driver-assisted driving.

Das künstliche neuronale Netzwerk kann an verschiedenen Stellen bereitgestellt werden, und insbesondere kann das künstliche neuronale Netzwerk allgemein auch in einem Prozessor außerhalb des Fahrzeugs vorgehalten werden. Gemäß einer bevorzugten Ausführungsform der Erfindung weist das Fahrzeug jedoch einen Prozessor auf, in dem das künstliche neuronale Netzwerk vorgehalten wird. Auf diese Weise kann eine zuverlässige Verwendung des künstlichen neuronalen Netzwerks gewährleistet werden, selbst wenn das Fahrzeug keine drahtlose Verbindung zu einem externen Prozessor mit dem künstlichen neuronalen Netzwerk hat.The artificial neural network can be provided at various locations, and in particular the artificial neural network can generally also be held in a processor outside the vehicle. According to a preferred embodiment of the invention, however, the vehicle has a processor in which the artificial neural network is held. In this way, reliable use of the artificial neural network can be ensured even if the vehicle has no wireless connection to an external processor with the artificial neural network.

Für die Erfindung können verschiedene Arten künstlicher neuronaler Netzwerke verwendet werden. Gemäß einer bevorzugten Ausführungsform der Erfindung ist das künstliche neuronale Netzwerk ein rekurrentes neuronales Netzwerk. Ein rekurrentes neuronales Netzwerk ist eine Klasse künstlicher neuronaler Netzwerke, bei denen Verbindungen zwischen Knoten einen gerichteten Graphen entlang einer Sequenz bilden. Dies ermöglicht es ihm ein dynamisches zeitliches Verhalten für eine Zeitsequenz zu zeigen. Im Gegensatz zu neuronalen Feedforward-Netzwerken können rekurrente neuronale Netzwerke ihren internen Zustand (Speicher) zum Verarbeiten von Eingabesequenzen verwenden. Auf diese Weise kann die Bewegung des Fahrzeugs berücksichtigt werden. Ferner ist es bevorzugt, wenn das künstliche Netzwerk überwachtes Lernen verwendet. Gemäß einer bevorzugten Ausführungsform der Erfindung verwendet das künstliche Netzwerk ferner eine Aktivierungsfunktion mit verborgenen ReLU-Schichten mit einer Tanh-Ausgabeschicht. Es ist außerdem bevorzugt, wenn das künstliche Netzwerk AdaGrad zur Trainingsoptimierung verwendet.Various types of artificial neural networks can be used for the invention. According to a preferred embodiment of the invention, the artificial neural network is a recurrent neural network. A recurrent neural network is a class of artificial neural networks in which connections between nodes form a directed graph along a sequence. This enables him to show a dynamic temporal behavior for a time sequence. In contrast to neural feedforward networks, recurrent neural networks can use their internal state (memory) to process input sequences. In this way, the movement of the vehicle can be taken into account. It is further preferred if the artificial network uses supervised learning. According to a preferred embodiment of the invention, the artificial network also uses an activation function with hidden ReLU layers with a Tanh output layer. It is also preferred if the artificial network uses AdaGrad for training optimization.

Die Erfindung betrifft auch die Verwendung eines vorstehend beschriebenen Verfahrens in einem Fahrzeug, das auf einer Straße fährt.The invention also relates to the use of a method described above in a vehicle traveling on a road.

Ferner betrifft die Erfindung auch ein nichtflüchtiges computerlesbares Medium, das darauf gespeicherte Anweisungen aufweist, die, wenn sie auf einem Prozessor ausgeführt werden, veranlassen, dass ein vorstehend beschriebenes Verfahren ausgeführt wird.Furthermore, the invention also relates to a non-volatile computer-readable medium which has instructions stored thereon which, when executed on a processor, cause the method described above to be carried out.

Diese und andere Aspekte der Erfindung werden aus den nachfolgend beschriebenen Ausführungsformen ersichtlich und erläutert. Einzelne Merkmale, die in den Ausführungsformen angegeben sind, können für sich alleine oder in Kombination einen Aspekt der vorliegenden Erfindung bilden. Merkmale der verschiedenen Ausführungsformen können von einer Ausführungsform auf eine andere Ausführungsform übertragen werden.These and other aspects of the invention will become apparent and explained from the embodiments described below. Individual features specified in the embodiments may form an aspect of the present invention by themselves or in combination. Features of the various embodiments can be transferred from one embodiment to another embodiment.

Es zeigen:

  • 1 schematisch ein Fahrzeug 1 zur Verwendung mit dem Verfahren gemäß einer bevorzugten Ausführungsform der Erfindung;
  • 2 schematisch eine Darstellung der Umgebung des Fahrzeugs, die durch Abtasten der Umgebung des Fahrzeugs durch einen LIDAR-Sensor des Fahrzeugs empfangen worden ist, gemäß der bevorzugten Ausführungsform der Erfindung;
  • 3 schematisch die Kennzeichnung erfasster Objekte mit einem jeweiligen Rahmen und geschlossenen Konturlinien um die jeweiligen Objekte herum, die die Kontur des jeweiligen Objekts beschreiben, gemäß der bevorzugten Ausführungsform der Erfindung; und
  • 4 schematisch die Bestimmung der Unsicherheit eines Punkts eines Objekts gemäß der bevorzugten Ausführungsform der Erfindung.
Show it:
  • 1 schematically a vehicle 1 for use with the method according to a preferred embodiment of the invention;
  • 2nd schematically a representation of the surroundings of the vehicle, which has been received by scanning the surroundings of the vehicle by a LIDAR sensor of the vehicle, according to the preferred embodiment of the invention;
  • 3rd schematically the identification of detected objects with a respective frame and closed contour lines around the respective objects, which describe the contour of the respective object, according to the preferred embodiment of the invention; and
  • 4th schematically the determination of the uncertainty of a point of an object according to the preferred embodiment of the invention.

Die hierin beschriebene bevorzugte Ausführungsform betrifft automatisches Parken eines Fahrzeugs 1. Dieses automatische Parken basiert auf einem autonomen Fahrzeugmanöver, bei dem das Fahrzeug 1 von einer Fahrspur in einen Parkplatz bewegt wird, um einen parallelen, senkrechten oder schrägen Parkvorgang auszuführen. Dieses automatische Parken verbessert den Komfort und die Sicherheit eines Fahrvorgangs in beengten Umgebungen, in denen zum Lenken des Fahrzeugs 1 viel Aufmerksamkeit und Erfahrung erforderlich ist. Das Parkmanöver wird durch eine koordinierte Steuerung des Lenkwinkels und der Geschwindigkeit implementiert, wobei die tatsächliche Situation in der Umgebung berücksichtigt wird, um eine kollisionsfreie Bewegung innerhalb des zur Verfügung stehenden Raums sicherzustellen. In der vorliegenden Ausführungsform wird das Parkmanöver als eine Sequenz gesteuerter Bewegungen unter Verwendung von Sensordaten von Sensoren 2, 3 des Fahrzeugs 1 ausgeführt, wobei die Lenk- und Geschwindigkeitssteuerung in Echtzeit berechnet und ausgeführt werden. In dieser Hinsicht betrifft das automatische Parken aus dem Stand der Technik bekannte herkömmliche automatische Parkverfahren.The preferred embodiment described herein relates to automatic parking of a vehicle 1 . This automatic parking is based on an autonomous vehicle maneuver during which the vehicle 1 is moved from a lane into a parking lot in order to carry out a parallel, vertical or inclined parking process. This automatic parking improves the comfort and safety of a driving operation in tight spaces, where to steer the vehicle 1 much attention and experience is required. The parking maneuver is implemented through a coordinated control of the steering angle and the speed, taking into account the actual situation in the environment to ensure a collision-free movement within the available space. In the present embodiment, the parking maneuver is performed as a sequence of controlled movements using sensor data from sensors 2nd , 3rd of the vehicle 1 executed, the steering and speed control are calculated and executed in real time. In this regard, automatic parking relates to conventional automatic parking methods known from the prior art.

Gemäß der hier beschriebenen bevorzugten Ausführungsform der Erfindung werden Ultraschallsensoren 2 als Hauptsensoren für automatisches Parken verwendet. Derartige Ultraschallsensoren 2 liefern keine genaue Abstandsinformation, sondern Abstandsinformation mit einer gewissen Unsicherheit. Dies ist auf die Unsicherheit im Sensormodell der Ultraschallsensoren 2 und den systematischen Fehler in den Systemmodellgleichungen zurückzuführen. Gemäß herkömmlichen Techniken können ein Kalman-Filter und einige mathematische Ansätze verwendet werden, um die Daten zu fusionieren und die Positionsdaten und ihre Unsicherheit zu aktualisieren. Im Vergleich dazu bietet die hierin beschriebene bevorzugte Ausführungsform folgende Verbesserung:

  • Für das Verfahren gemäß einer bevorzugten Ausführungsform der Erfindung weist das Fahrzeug 1 einen Satz Ultraschallsensoren 2 und einem anderen Sensor auf, der eine geringere Unsicherheit bei der Abstandsmessung hat als die Ultraschallsensoren, wie in 1 schematisch dargestellt ist. Als der andere Sensor wird ein LIDAR-Sensor 3 verwendet, der eine Abstandsmessung mit einer sehr geringen Unsicherheit ermöglicht. Ferner weist das Fahrzeug 1 einen Prozessor 4 auf, in dem ein künstliches neuronales Netzwerk vorgehalten wird.
According to the preferred embodiment of the invention described here, ultrasonic sensors 2nd used as main sensors for automatic parking. Such ultrasonic sensors 2nd do not provide exact distance information, but rather distance information with a certain uncertainty. This is due to the uncertainty in the sensor model of the ultrasonic sensors 2nd and attribute the systematic error in the system model equations. According to conventional techniques, a Kalman filter and some mathematical approaches can be used to merge the data and update the position data and its uncertainty. In comparison, the preferred embodiment described herein offers the following improvement:
  • For the method according to a preferred embodiment of the invention, the vehicle 1 a set of ultrasonic sensors 2nd and another sensor that has less uncertainty in the distance measurement than the ultrasonic sensors, as in 1 is shown schematically. As the other sensor is a lidar sensor 3rd used, which enables a distance measurement with a very low uncertainty. The vehicle also points 1 a processor 4th in which an artificial neural network is maintained.

Ein x,y-Koordinatensystem 5 ist relativ zum Fahrzeug 1 bereitgestellt, um eine jeweilige x-Position und eine jeweilige y-Position von Einrichtungen des Fahrzeugs 1 anzuzeigen, wie beispielsweise der Ultraschallsensoren 2 und des LIDAR-Sensors 3, oder von Objekten in der Nähe des Fahrzeugs 1. Auf diese Weise ist es möglich, für jeden der Ultraschallsensoren 2 eine vordefinierte x-Position, eine vordefinierte y-Position und eine vordefinierte Orientierung im Koordinatensystem 5 zu definieren. Die Orientierung der Ultraschallsensoren 2 ist durch ihre Emissionsrichtung gegeben, die in 1 durch gestrichelte Linien angegeben ist. In ähnlicher Weise hat auch der LIDAR-Sensor 3 eine vordefinierte x-Position und eine vordefinierte y-Position im Koordinatensystem 5. Auf diese Weise ist auch die Relativposition des LIDAR-Sensors 3 relativ zu den Ultraschallsensoren 2 definiert.An x, y coordinate system 5 is relative to the vehicle 1 provided to a respective x position and a respective y position of devices of the vehicle 1 display, such as the ultrasonic sensors 2nd and the LIDAR sensor 3rd , or objects near the vehicle 1 . In this way it is possible for each of the ultrasonic sensors 2nd a predefined x position, a predefined y position and a predefined orientation in the coordinate system 5 define. The orientation of the ultrasonic sensors 2nd is given by its emission direction, which in 1 is indicated by dashed lines. The LIDAR sensor has a similar design 3rd a predefined x position and a predefined y position in the coordinate system 5 . This is also the relative position of the LIDAR sensor 3rd relative to the ultrasonic sensors 2nd Are defined.

Gemäß der hier beschriebenen bevorzugten Ausführungsform der Erfindung weist das Verfahren zum Trainieren des künstlichen neuronalen Netzwerks die folgenden Verfahrensschritte auf:

  • Ultraschallsignale werden von den Ultraschallsensoren 2 emittiert, und Ultraschallsignale, die von Objekten in der Umgebung des Fahrzeugs 1 reflektiert worden sind, werden durch die jeweiligen Ultraschallsensoren 2 empfangen. Ferner werden die Laufzeit der reflektierten Ultraschallsignale und der Abstand der Objekte von den Ultraschallsensoren 2 bestimmt. Diese Erfassung der Laufzeit der reflektierten Ultraschallsignale und des Abstands der Objekte von den Ultraschallsensoren 2 kann gemäß herkömmlichen Verfahren erfolgen, die dem Fachmann bekannt sind.
According to the preferred embodiment of the invention described here, the method for training the artificial neural network has the following method steps:
  • Ultrasonic signals are from the ultrasonic sensors 2nd emits, and ultrasound signals from objects in the area surrounding the vehicle 1 have been reflected by the respective ultrasonic sensors 2nd receive. Furthermore, the transit time of the reflected ultrasonic signals and the distance of the objects from the ultrasonic sensors 2nd certainly. This detection of the transit time of the reflected ultrasound signals and the distance of the objects from the ultrasound sensors 2nd can be done according to conventional methods known to those skilled in the art.

Zusätzlich werden durch den LIDAR-Sensor 3 eine x-Position und eine y-Position der Objekte im Koordinatensystem 5 gemessen. Dies bietet den Vorteil, dass die durch den LIDAR-Sensor 3 gemessenen Daten als eine Referenz zum Bestimmen der Unsicherheiten in der x-Position und in der y-Position bei einer Bestimmung der x-Position und der y-Position von Objekten in der Umgebung des Fahrzeugs 1 auf der Basis der reflektierten Ultraschallsignale verwendet werden können, wie nachstehend beschrieben wird. Durch das Bestimmen dieser Unsicherheiten in der x-Position und in der y-Position auf der Basis der reflektierten Ultraschallsignale wird eine Echtzeitbewertung der Messunsicherheit ermöglicht, ohne dass die Faktoren, die diese Unsicherheiten verursachen, im Detail bekannt sein müssen, wie nachstehend dargelegt wird.In addition, the LIDAR sensor 3rd an x position and a y position of the objects in the coordinate system 5 measured. This has the advantage of being through the LIDAR sensor 3rd measured data as a reference for determining the uncertainties in the x-position and in the y-position when determining the x-position and the y- Position of objects around the vehicle 1 can be used based on the reflected ultrasound signals, as described below. By determining these uncertainties in the x-position and in the y-position on the basis of the reflected ultrasound signals, a real-time evaluation of the measurement uncertainty is made possible without the factors that cause these uncertainties having to be known in detail, as will be explained below.

Das künstliche neuronale Netzwerk, das im Prozessor 4 im Fahrzeug 1 vorgehalten wird, weist sieben Eingangsknoten und zwei Ausgangsknoten auf. Dieses künstliche neuronale Netzwerk ist ein tiefes Modell, das zusätzlich zur Eingabeschicht und zur Ausgabeschicht fünf weitere Schichten aufweist. Das künstliche neuronale Netzwerk ist ferner ein rekurrentes neuronales Netzwerk, das es ihm ermöglicht, ein dynamisches zeitliches Verhalten für eine Zeitsequenz zu zeigen, um die Bewegung des Fahrzeugs 1 beim Fahren zu berücksichtigen.The artificial neural network that is in the processor 4th in the vehicle 1 has seven input nodes and two output nodes. This artificial neural network is a deep model that has five additional layers in addition to the input layer and the output layer. The artificial neural network is also a recurrent neural network that enables it to show dynamic temporal behavior for a time sequence around the movement of the vehicle 1 to consider when driving.

Für jeden Ultraschallsensor 2 werden die sieben Eingangsknoten des künstlichen neuronalen Netzwerks gespeist mit:

  1. a) der durch den LIDAR-Sensor 3 gemessenen x-Position des Objekts,
  2. b) der durch den LIDAR-Sensor 3 gemessenen y-Position des Objekts,
  3. c) der Laufzeit des reflektierten Ultraschallsignals,
  4. d) dem Abstand des Objekts vom Ultraschallsensor 2,
  5. e) der x-Position des Ultraschallsensors 2,
  6. f) der y-Position des Ultraschallsensors 2 und
  7. g) der Orientierung des Ultraschallsensors 2.
For every ultrasonic sensor 2nd the seven input nodes of the artificial neural network are fed with:
  1. a) by the LIDAR sensor 3rd measured x-position of the object,
  2. b) by the LIDAR sensor 3rd measured y-position of the object,
  3. c) the transit time of the reflected ultrasound signal,
  4. d) the distance of the object from the ultrasonic sensor 2nd ,
  5. e) the x position of the ultrasonic sensor 2nd ,
  6. f) the y position of the ultrasonic sensor 2nd and
  7. g) the orientation of the ultrasonic sensor 2nd .

Das künstliche neuronale Netzwerk verwendet Kullback-Leibler-Divergenz mit dem Back-Propagation-Algorithmus, um zu veranlassen, dass das Netzwerk über die Unsicherheiten in der x-Position und in der y-Position bei der Bestimmung der x-Positionen und der y-Positionen von Objekten in der Nähe des Fahrzeugs 1 auf der Basis der reflektierten Ultraschallsignale lernt, wie in Blundell, C., Cornebise, J., Kavukcuoglu, K. und Wierstra, D. Weight „Uncertainty in Neural Networks“ Proceedings of the 32nd International Conference on Machine Learning, Lille, Frankreich, 2015, JMLR: W&CP Band 37 beschrieben ist. Das künstliche Netzwerk verwendet überwachtes Lernen und eine Aktivierungsfunktion mit verborgenen ReLU-Schichten mit einer Tanh-Ausgabeschicht. AdaGrad wird zur Trainingsoptimierung verwendet.The artificial neural network uses Kullback-Leibler divergence with the back propagation algorithm to cause the network to learn about the uncertainties in the x-position and in the y-position when determining the x-positions and the y- Positions of objects near the vehicle 1 learns based on the reflected ultrasound signals, as in Blundell, C., Cornebise, J., Kavukcuoglu, K. and Wierstra, D. Weight “Uncertainty in Neural Networks” Proceedings of the 32nd International Conference on Machine Learning, Lille, France, 2015, JMLR: W&CP Volume 37 is described. The artificial network uses supervised learning and an activation function with hidden ReLU layers with a Tanh output layer. AdaGrad is used for training optimization.

Zum Ausgeben von Daten, die die Unsicherheiten in der x-Position und in der y-Position bei der Bestimmung der x-Positionen und der y-Positionen von Objekten in der Umgebung des Fahrzeugs 1 auf der Basis des reflektierten Ultraschallsignals darstellen, wird das folgende Verfahren angewendet:

  • Mit Hilfe des LIDAR-Sensors 3 wird die Umgebung des Fahrzeugs 1 abgetastet, was zu einer Darstellung der Umgebung des Fahrzeugs 1 führt, wie in 2 schematisch dargestellt ist. Diese Darstellung besteht aus Abtastpunkten, die durch die LIDAR-Messung empfangen werden, während das Fahrzeug 1 in dieser Darstellung nur zur Veranschaulichung dargestellt ist. Die Fahrtrichtung des Fahrzeugs 1 ist durch einen Pfeil angegeben, und eine mögliche Trajektorie, entlang der das Fahrzeug 1 fahren soll, ist als gestrichelte Linie dargestellt.
To output data indicating the uncertainties in the x-position and in the y-position when determining the x-positions and the y-positions of objects in the vicinity of the vehicle 1 based on the reflected ultrasound signal, the following procedure is used:
  • With the help of the LIDAR sensor 3rd becomes the environment of the vehicle 1 scanned, resulting in a representation of the surroundings of the vehicle 1 leads as in 2nd is shown schematically. This representation consists of sample points that are received by the LIDAR measurement while the vehicle 1 this illustration is shown for illustration only. The direction of travel of the vehicle 1 is indicated by an arrow, and a possible trajectory along which the vehicle 1 should drive is shown as a dashed line.

Aufgrund der Abtastpunkte werden Objekte, wie beispielsweise andere Fahrzeuge 6 und Straßenbegrenzungen 7, sichtbar. Wie in 3 dargestellt ist, sind diese Objekte 6, 7 durch einen jeweiligen Rahmen 6a, 7a gekennzeichnet und haben eine geschlossene Konturlinie 6b, 7b um das jeweilige Objekt 6, 7 herum, die die Kontur des jeweiligen Objekts 6, 7 beschreibt. Während für die Straßenbegrenzungen 7 der Rahmen 7a im Wesentlichen die gleiche Form hat wie die Konturlinie 7b, die die Kontur der Straßenbegrenzungen 7 beschreibt, unterscheidet sich die Form der Konturlinie 6b, die die Kontur des Fahrzeugs 6 beschreibt, von dem Rahmen 6a, der das Fahrzeug 6 kennzeichnet, aufgrund runder Ecken des Fahrzeugs 6.Objects such as other vehicles become due to the sampling points 6 and road boundaries 7 , visible. As in 3rd is shown, these are objects 6 , 7 through a respective frame 6a , 7a marked and have a closed contour line 6b , 7b around the respective object 6 , 7 around that the contour of each object 6 , 7 describes. While for the road limits 7 the frame 7a has essentially the same shape as the contour line 7b that the contour of the road boundaries 7 describes, the shape of the contour line differs 6b that the contour of the vehicle 6 describes from the frame 6a who the vehicle 6 indicates due to round corners of the vehicle 6 .

Dann wird die Unsicherheit eines Punkts auf einem Objekt 6, 7 basierend auf dem kleinsten Abstand von den Konturlinien 6b, 7b basierend auf der Annahme bestimmt, dass sich der jeweilige Punkt auf der Konturlinie 6b, 7b befinden sollte. Dies ist in 4 dargestellt, wo die Ellipse 8 die Unsicherheit der x-Position und der y-Position des Punkts des Objekts 7 in zwei Dimensionen anzeigt, während der Bogen 9 der Ultraschallbogen eines Ultraschallsensors 2 des Fahrzeug 1 ist. Dieser Bogen 9 basiert auf Ultraschalldaten und ergibt sich dadurch, dass eine Ultraschallmessung den Abstand zu einem Objekt, aber keine Richtung zu dem Objekt liefert. Daher wird der Abstand durch den Bogen 9 dargestellt, dessen Mittelpunkt sich am Ultraschallsensor 2 befindet, wobei der Radius des Bogens 9 durch den Abstand des Objekts vom Sensor 2 definiert ist.Then the uncertainty of a point on an object 6 , 7 based on the smallest distance from the contour lines 6b , 7b based on the assumption that the particular point is on the contour line 6b , 7b should be. This is in 4th shown where the ellipse 8th the uncertainty of the x position and the y position of the point of the object 7 displays in two dimensions while the arch 9 the ultrasound bow of an ultrasound sensor 2nd of the vehicle 1 is. That bow 9 is based on ultrasound data and results from the fact that an ultrasound measurement provides the distance to an object, but no direction to the object. Hence the distance through the arch 9 shown, the center of which is on the ultrasonic sensor 2nd is the radius of the arc 9 by the distance of the object from the sensor 2nd is defined.

Auf diese Weise werden die Trainingsdaten für das künstliche neuronale Netzwerk erzeugt. Wenn das künstliche neuronale Netzwerk wie vorstehend beschrieben ausreichend trainiert worden ist, kann es zum Schätzen der Unsicherheiten in der x-Position und in der y-Position bei einer Bestimmung der x-Position und der y-Position eines Objekts 6, 7 in der Nähe des Fahrzeugs 1 auf der Basis des reflektierten Ultraschallsignals im regulären Betrieb verwendet werden. Dies führt zu einer besseren Genauigkeit als in dem Fall, wenn diese Unsicherheit ausschließlich auf der Basis des Modells der Ultraschallsensoren 2 geschätzt wird.In this way, the training data for the artificial neural network are generated. If the artificial neural network has been trained sufficiently as described above, it can be used to estimate the uncertainties in the x-position and in the y-position when determining the x-position and the y-position of an object 6 , 7 in the Near the vehicle 1 can be used in regular operation on the basis of the reflected ultrasound signal. This leads to better accuracy than when this uncertainty is based solely on the model of the ultrasonic sensors 2nd is appreciated.

BezugszeichenlisteReference symbol list

11
Fahrzeugvehicle
22nd
UltraschallsensorenUltrasonic sensors
33rd
LIDAR-SensorLIDAR sensor
44th
Prozessorprocessor
55
KoordinatensystemCoordinate system
66
andere Fahrzeugeother vehicles
6a6a
Rahmenframe
6b6b
KonturlinieContour line
77
StraßenbegrenzungenRoad boundaries
7a7a
Rahmenframe
7b7b
KonturlinieContour line
88th
Ellipseellipse
99
Bogenarc

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte Nicht-PatentliteraturNon-patent literature cited

  • Blundell, C., Cornebise, J., Kavukcuoglu, K. und Wierstra, D. Weight „Uncertainty in Neural Networks“ Proceedings of the 32nd International Conference on Machine Learning, Lille, Frankreich, 2015, JMLR: W&CP Band 37 [0024]Blundell, C., Cornebise, J., Kavukcuoglu, K. and Wierstra, D. Weight “Uncertainty in Neural Networks” Proceedings of the 32nd International Conference on Machine Learning, Lille, France, 2015, JMLR: W&CP Volume 37 [0024]

Claims (10)

Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks, wobei das Verfahren die folgenden Verfahrensschritte aufweist: - Bereitstellen eines Fahrzeugs (1) mit mindestens einem Ultraschallsensor (2) und einem anderen Sensor (3), der bei der Abstandsmessung eine geringere Unsicherheit hat als der Ultraschallsensor (2), - Bereitstellen eines x,y-Koordinatensystems (5) relativ zum Fahrzeug (1) zum Anzeigen einer jeweiligen x-Position und einer jeweiligen y-Position von Einrichtungen des Fahrzeugs (1) oder von Objekten (6, 7) in der Nähe des Fahrzeugs (1), wobei der Ultraschallsensor (2) eine vordefinierte x- Position, eine vordefinierte y-Position und eine vordefinierte Orientierung im Koordinatensystem (5) hat, - Emittieren eines Ultraschallsignals durch den Ultraschallsensor (2), - Empfangen eines Ultraschallsignals, das durch ein Objekt (6, 7) in der Nähe des Fahrzeugs (1) reflektiert worden ist, an dem Ultraschallsensor (2), - Bestimmen der Laufzeit des reflektierten Ultraschallsignals und des Abstands des Objekts (6, 7) vom Ultraschallsensor (2), - Messen einer x-Position und einer y-Position des Objekts (6, 7) im Koordinatensystem (5) durch den anderen Sensor (3), - Bereitstellen eines künstlichen neuronalen Netzwerks mit mindestens sieben Eingangsknoten und mindestens zwei Ausgangsknoten, - Speisen der mindestens sieben Eingangsknoten des künstlichen neuronalen Netzwerks mit a) der durch den anderen Sensor (3) gemessenen x-Position des Objekts (6, 7), b) der durch den anderen Sensor (3) gemessenen y-Position des Objekts (6, 7), c) der Laufzeit des reflektierten Ultraschallsignals, d) dem Abstand des Objekts (6, 7) vom Ultraschallsensor (2), e) der x-Position des Ultraschallsensors (2), f) der y-Position des Ultraschallsensors (2), und g) der Orientierung des Ultraschallsensors (2), und - Ausgeben von Daten, die die Unsicherheiten in der x-Position und in der y-Position bei einer Bestimmung der x-Position und der y-Position des Objekts (6, 7) in der Nähe des Fahrzeugs (1) auf der Basis des reflektierten Ultraschallsignals darstellen, durch das künstliche neuronale Netzwerk.Method for training an artificial neural network, the method comprising the following method steps: - Providing a vehicle (1) with at least one ultrasonic sensor (2) and another sensor (3), which has less uncertainty in the distance measurement than the ultrasonic sensor (2), - Providing an x, y coordinate system (5) relative to the vehicle (1) for displaying a respective x position and a respective y position of devices of the vehicle (1) or objects (6, 7) in the vicinity of the vehicle (1), the ultrasonic sensor (2) having a predefined x position, a predefined y position and a predefined orientation in the coordinate system (5), - emitting an ultrasound signal by the ultrasound sensor (2), Receiving an ultrasound signal, which has been reflected by an object (6, 7) in the vicinity of the vehicle (1), at the ultrasound sensor (2), - determining the transit time of the reflected ultrasound signal and the distance of the object (6, 7) from the ultrasound sensor (2), - Measuring an x position and a y position of the object (6, 7) in the coordinate system (5) by the other sensor (3), Providing an artificial neural network with at least seven input nodes and at least two output nodes, - Feed the at least seven input nodes of the artificial neural network a) the x position of the object (6, 7) measured by the other sensor (3), b) the y position of the object (6, 7) measured by the other sensor (3), c) the transit time of the reflected ultrasound signal, d) the distance of the object (6, 7) from the ultrasonic sensor (2), e) the x position of the ultrasonic sensor (2), f) the y position of the ultrasonic sensor (2), and g) the orientation of the ultrasonic sensor (2), and - Outputting data indicating the uncertainties in the x position and in the y position when determining the x position and the y position of the object (6, 7) in the vicinity of the vehicle (1) on the basis of the reflect reflected ultrasound signal through the artificial neural network. Verfahren nach Anspruch 1, wobei der andere Sensor (3) ein optischer Entfernungssensor ist.Procedure according to Claim 1 , the other sensor (3) being an optical distance sensor. Verfahren nach Anspruch 2, wobei der optische Sensor (3) ein LIDAR-Sensor ist.Procedure according to Claim 2 , wherein the optical sensor (3) is a LIDAR sensor. Verfahren nach einem der vorhergehenden Ansprüche, mit dem Verfahrensschritt: - Bereitstellen eines Prozessors (4), in dem das künstliche neuronale Netzwerk vorgehalten wird, im Fahrzeug (1).Method according to one of the preceding claims, with the method step: - Providing a processor (4) in which the artificial neural network is kept in the vehicle (1). Verfahren nach einem der vorhergehenden Ansprüche, wobei das künstliche neuronale Netzwerk ein rekurrentes neuronales Netzwerk ist.Method according to one of the preceding claims, wherein the artificial neural network is a recurrent neural network. Verfahren nach einem der vorhergehenden Ansprüche, wobei das künstliche Netzwerk überwachtes Lernen verwendet.A method according to any preceding claim, wherein the artificial network uses supervised learning. Verfahren nach einem der vorhergehenden Ansprüche, wobei das künstliche Netzwerk eine Aktivierungsfunktion mit versteckten ReLU-Schichten mit einer Tanh-Ausgabeschicht verwendet.Method according to one of the preceding claims, wherein the artificial network uses an activation function with hidden ReLU layers with a Tanh output layer. Verfahren nach einem der vorhergehenden Ansprüche, wobei das künstliche Netzwerk AdaGrad zur Trainingsoptimierung verwendet.Method according to one of the preceding claims, wherein the artificial network uses AdaGrad for training optimization. Verwendung eines Verfahrens nach einem der vorhergehenden Ansprüche in einem auf einer Straße fahrenden Fahrzeug (1).Use of a method according to one of the preceding claims in a vehicle (1) traveling on a road. Nichtflüchtiges computerlesbares Medium, das darauf gespeicherte Anweisungen enthält, die, wenn sie auf einem Prozessor ausgeführt werden, veranlassen, dass ein Verfahren nach einem der Ansprüche 1 bis 9 ausgeführt wird.Non-volatile computer readable medium containing instructions stored thereon which, when executed on a processor, cause a method according to one of the Claims 1 to 9 is performed.
DE102018128535.3A 2018-11-14 2018-11-14 Training an artificial neural network with data captured by sensors in a vehicle Active DE102018128535B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018128535.3A DE102018128535B4 (en) 2018-11-14 2018-11-14 Training an artificial neural network with data captured by sensors in a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018128535.3A DE102018128535B4 (en) 2018-11-14 2018-11-14 Training an artificial neural network with data captured by sensors in a vehicle

Publications (2)

Publication Number Publication Date
DE102018128535A1 true DE102018128535A1 (en) 2020-05-14
DE102018128535B4 DE102018128535B4 (en) 2021-09-02

Family

ID=70468945

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018128535.3A Active DE102018128535B4 (en) 2018-11-14 2018-11-14 Training an artificial neural network with data captured by sensors in a vehicle

Country Status (1)

Country Link
DE (1) DE102018128535B4 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3974869A1 (en) * 2020-09-24 2022-03-30 INTEL Corporation Perception system error detection and re-verification
EP4180836A1 (en) * 2021-11-10 2023-05-17 Volvo Car Corporation System and method for ultrasonic sensor enhancement using lidar point cloud
WO2024012928A1 (en) * 2022-07-12 2024-01-18 Valeo Schalter Und Sensoren Gmbh Method for training a neural network

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013206707A1 (en) * 2013-04-15 2014-10-16 Robert Bosch Gmbh Method for checking an environment detection system of a vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013206707A1 (en) * 2013-04-15 2014-10-16 Robert Bosch Gmbh Method for checking an environment detection system of a vehicle

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Blundell, C., Cornebise, J., Kavukcuoglu, K. und Wierstra, D. Weight „Uncertainty in Neural Networks" Proceedings of the 32nd International Conference on Machine Learning, Lille, Frankreich, 2015, JMLR: W&CP Band 37
Kumar V. R., et al. : Monocular fisheye camera depth estimation using sparse lidar supervision. In: 2018 21st International Conference on Intelligent Trnasportation Systems (ITSC), 4.-7.11.2018, 2853-2858. https://ieeexplore.ieee.org/abstract/document/8569665 [abgerufen am 12.06.2019] *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3974869A1 (en) * 2020-09-24 2022-03-30 INTEL Corporation Perception system error detection and re-verification
EP4180836A1 (en) * 2021-11-10 2023-05-17 Volvo Car Corporation System and method for ultrasonic sensor enhancement using lidar point cloud
WO2024012928A1 (en) * 2022-07-12 2024-01-18 Valeo Schalter Und Sensoren Gmbh Method for training a neural network

Also Published As

Publication number Publication date
DE102018128535B4 (en) 2021-09-02

Similar Documents

Publication Publication Date Title
DE102005035746B4 (en) Method for determining a relative position of a mobile unit by comparing scans of an environment and mobile unit
DE112017006530T5 (en) FEEDBACK FOR AN AUTONOMOUS VEHICLE
DE102019209736A1 (en) Procedure for evaluating possible trajectories
DE102019215902A1 (en) Method for determining a quality level of data sets from sensors
DE102018128535B4 (en) Training an artificial neural network with data captured by sensors in a vehicle
DE102020110157A1 (en) Image recognition device
DE102019209462A1 (en) Method for determining a confidence value of a detected object
DE102017204983A1 (en) A method for specifying a driving movement in a machine learning based autopilot device of a motor vehicle and control device, motor vehicle and training device for an autopilot device
DE102018201570A1 (en) Multiple target object tracking method, apparatus and computer program for performing multiple target object tracking on moving objects
DE102017123842A1 (en) Lane detection method
DE102020200169B3 (en) Method for merging several data sets for the generation of a current lane model of a roadway and device for data processing
DE102021114424A1 (en) Driver assistance device, driver assistance method and driver assistance program
DE102019132150A1 (en) Method for automatically calibrating an environment sensor, in particular a lidar sensor, of a vehicle on the basis of occupancy cards and computing device
WO2020051618A1 (en) Analysis of dynamic spatial scenarios
DE102018121866A1 (en) Method for depth estimation of two-dimensional sensor data
DE102019209463A1 (en) Method for determining the trust value of an object of a class
DE102019207410A1 (en) Method and device for an automated influencing of an actuator
EP3576013A1 (en) Estimation of a path of a rail path
DE102018216561A1 (en) Method, device and computer program for determining an agent's strategy
DE102018206743A1 (en) A method of operating a driver assistance system of an ego vehicle having at least one environment sensor for detecting an environment of the ego vehicle, computer-readable medium, system, and vehicle
DE102020202305A1 (en) Method for recognizing the surroundings of a vehicle and method for training a fusion algorithm for a vehicle system
EP3278316B1 (en) Method for assessing an association of a detection point with an object in an area surrounding a motor vehicle, and driver assistance system
DE102019132151A1 (en) Method for calibrating an environment sensor of a vehicle on the basis of data from a reference environment sensor, taking into account occupancy cards, computing device and sensor system
DE102019217225A1 (en) Method for training a machine learning system for an object recognition device
DE102019123783A1 (en) Method for controlling a movement behavior of an autonomously moving robot

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final