DE102019105389A1 - Safety device for a self-learning measuring system in the vehicle for the detection and classification of objects in the area around the vehicle with the help of a deep learning process - Google Patents

Safety device for a self-learning measuring system in the vehicle for the detection and classification of objects in the area around the vehicle with the help of a deep learning process Download PDF

Info

Publication number
DE102019105389A1
DE102019105389A1 DE102019105389.7A DE102019105389A DE102019105389A1 DE 102019105389 A1 DE102019105389 A1 DE 102019105389A1 DE 102019105389 A DE102019105389 A DE 102019105389A DE 102019105389 A1 DE102019105389 A1 DE 102019105389A1
Authority
DE
Germany
Prior art keywords
neural network
network model
object recognition
objects
measuring system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019105389.7A
Other languages
German (de)
Inventor
Jennifer Dutiné
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elmos Semiconductor SE
Original Assignee
Elmos Semiconductor SE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Elmos Semiconductor SE filed Critical Elmos Semiconductor SE
Publication of DE102019105389A1 publication Critical patent/DE102019105389A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Remote Sensing (AREA)
  • Artificial Intelligence (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein sicherheitsrelevantes Messsystem zur Verwendung in Fahrzeugen und/oder Kraftfahrzeugen, wobei sie eine erste Sicherheitsvorrichtung (142) und ein oder mehrere neuronale Netzwerkmodelle (16, 136, 138) zur Auswertung der Messdaten zumindest einer Sensoranordnung (11, 131) des Messsystems umfasst und wobei die erste Sicherheitsvorrichtung (142) zumindest das neuronale Netzwerkmodell (138) überwacht, das diese Messdaten oder daraus abgeleitete Daten verarbeitet.The invention relates to a safety-relevant measuring system for use in vehicles and / or motor vehicles, with a first safety device (142) and one or more neural network models (16, 136, 138) for evaluating the measurement data of at least one sensor arrangement (11, 131) of the measuring system and wherein the first safety device (142) monitors at least the neural network model (138) that processes this measurement data or data derived therefrom.

Description

OberbegriffGeneric term

Die Erfindung betrifft ein Ultraschallmesssystem zum Einsatz in Kraftfahrzeugen, das mit Hilfe eines neuronalen Netzwerkmodells und eines darauf basierenden Deep-Learning-Verfahrens Objekte in der Umgebung des Fahrzeuges detektiert, ihre Position bestimmt und eine Klassifizierung vornimmt.The invention relates to an ultrasonic measuring system for use in motor vehicles which, with the aid of a neural network model and a deep learning method based thereon, detects objects in the vicinity of the vehicle, determines their position and carries out a classification.

Diese Erfindung betrifft somit sicherheitsrelevante Ultraschallsysteme für automobile Zwecke und insbesondere Ultraschallsysteme mit tiefen Lernnetzwerken (Deep Learning Networkmodells), die bevorzugt eine Echtzeit-Bildidentifikation und einen Systemaufbau bereitstellen.This invention thus relates to safety-relevant ultrasound systems for automotive purposes and in particular to ultrasound systems with deep learning networks (deep learning network models) which preferably provide real-time image identification and a system structure.

Allgemeine EinleitungGeneral introduction

Assistenzsysteme zur Unterstützung des Fahrers bei Parkvorgängen, sowie Systeme zum autonomen Einparken, basieren oft auf Ultraschallmesssystemen, welche preiswert und zuverlässig Hindernisse vor oder hinter dem Fahrzeug detektieren. Der Einsatz eines künstlichen neuronalen Netzwerkmodells und eines Deep-Learning-Verfahrens erlaubt die Auswertung der Empfangssignale des Ultraschallmesssystems über die bisherige Bestimmung von Abständen zu Hindernissen hinaus und ermöglicht Objektklassifizierung.Assistance systems to support the driver when parking, as well as systems for autonomous parking, are often based on ultrasonic measurement systems, which inexpensively and reliably detect obstacles in front of or behind the vehicle. The use of an artificial neural network model and a deep learning process allows the received signals of the ultrasonic measurement system to be evaluated beyond the previous determination of distances to obstacles and enables object classification.

Gegenwärtig verfügbare automobile Ultraschallsysteme ermöglichen es Fahrzeugführern, ihre Fahrzeuge mit Hilfe von Ultraschallsignalen insbesondere beim Einparken zu steuern. Darüber hinaus soll hier nun die Erfassung von Bildern, die Durchführung von Messungen und die Anwendung von in dem Gesamtsystem integrierten Algorithmen sowie von Berichterstellungssoftware mitbehandelt werden. Diese Funktionalitäten sollen helfen, die Verkehrslage und die Gefahren des Umfelds eines Fahrzeugs besser zu erfassen. Das hier vorgesellte System soll dabei einen Teil der Umfeldanalysetätigkeit des Fahrers übernehmen und die Ergebnisse dieser Analysen an den Fahrer oder andere Subsysteme des Fahrzeugs zu melden. Vor Fahrtbeginn muss der Fahrzeugführer das Fahrzeug und damit das System einrichten, indem er die Einstellungen und Funktionen auswählt, die während der Fahrt verwendet und ausgeführt werden sollen. Während der Fahrt kann der Fahrzeugführer bevorzugt Modifikationen ausführen. Dies beginnt in der Regel mit der Auswahl der zu verwendenden Sensoren. So kann es wetterabhängig sinnvoll sein, bestimmte Sensoren auszuschalten und andere hierfür in ihrer Bedeutung zu stärken. Ggf. kann z.B. durch den Fahrzeughersteller je nach Fahrertyp ein anderes Messprotokoll in einem Speicher des Fahrzeugs abgelegt werden. Ebenso können auch andere Betriebseinstellungen der Ultraschallmesseinrichtung eingestellt werden. In der Vergangenheit hat die Basiskonfiguration prototypischer Ultraschallsensorsysteme in der Entwicklung viel Zeit in Anspruch genommen, da eine automobile Ultraschallvorrichtung typischerweise über verschiedene Steuerparameter verfügt. Eine Belastung des Fahrzeugführers mit einer Rekonfiguration der Ultraschallmesssysteme in seinem Kfz ist nicht akzeptabel. Daher ist es sinnvoll, wenn Ultraschallmessvorrichtungen im Kfz die im Fahrbetrieb vollautomatisch oder halbautomatisch optimierten Parameter in einem Betriebsparameterspeicher abspeichern. Durch geeignete Voreinstellungen der Ultraschallvorrichtungen kann dann sichergestellt werden, dass diese an einem sinnvollen Startpunkt mit ihrem Lernprozess beginnen. Currently available automotive ultrasound systems enable vehicle drivers to control their vehicles with the help of ultrasound signals, especially when parking. In addition, the acquisition of images, the implementation of measurements and the application of algorithms integrated in the overall system as well as reporting software will be dealt with here. These functionalities should help to better understand the traffic situation and the dangers of the surroundings of a vehicle. The system presented here is intended to take over part of the driver's environmental analysis activity and to report the results of these analyzes to the driver or other subsystems of the vehicle. Before starting the journey, the driver of the vehicle must set up the vehicle and thus the system by selecting the settings and functions that are to be used and carried out during the journey. While driving, the vehicle driver can preferably carry out modifications. This usually starts with choosing which sensors to use. Depending on the weather, it can make sense to switch off certain sensors and to strengthen others in their importance. Possibly. can e.g. The vehicle manufacturer can store a different measurement protocol in a memory of the vehicle depending on the type of driver. Other operating settings of the ultrasonic measuring device can also be set. In the past, the basic configuration of prototypical ultrasonic sensor systems has taken a long time to develop because an automotive ultrasonic device typically has various control parameters. It is unacceptable to burden the driver with a reconfiguration of the ultrasonic measurement systems in his vehicle. It is therefore sensible if ultrasonic measuring devices in the motor vehicle store the parameters that have been optimized fully automatically or semi-automatically during driving operation in an operating parameter memory. By means of suitable presettings of the ultrasonic devices, it can then be ensured that they begin their learning process at a sensible starting point.

Es ist wünschenswert, eine solche Automatisierung des Einrichtens eines Ultraschallsystems für eine bestimmte Verkehrssituation noch weiter voranzutreiben. Ein Bereich der sich entwickelnden künstlichen Intelligenz, der vielversprechend ist, ist das „tiefe Lernen“ (Englisch Deep-Learning). Beim tiefen Lernen handelt es sich um einen sich rasch entwickelnden Zweig der maschinellen Lernalgorithmen, der die Funktionsweise des menschlichen Gehirns bei der Analyse von Problemen nachahmt. Das menschliche Gehirn erinnert sich daran, was aus der Lösung eines ähnlichen Problems in der Vergangenheit gelernt wurde, und wendete dieses Wissen an, um ein neues Problem zu lösen. Derzeit wird erforscht, um mögliche Anwendungen dieser Technologie in einer Reihe von Bereichen wie Mustererkennung, Verarbeitung natürlicher Sprache und Computer Vision zu ermitteln. Deep-Learning-Algorithmen weisen gegenüber herkömmlichen Formen von Computerprogrammieralgorithmen einen deutlichen Vorteil auf, da sie generalisiert und trainiert werden können, um Bildmerkmale zu erkennen, indem sie Bildbeispiele analysieren und nicht benutzerdefinierten Computercode schreiben. Eine andere Anwendung ist das Erkennen von Strukturen oder Gruppen oder Tendenzen in multidimensionalen Datensätzen. Die in einem Ultraschallsystem visualisierte Umgebungssituation eines Fahrzeugs scheint jedoch nicht ohne weiteres für eine automatisierte Bilderkennung geeignet zu sein. Jede Situation ist anders und Formen, Größen, Positionen und Funktionen der Objekte variieren stark. Dies gilt insbesondere für Fußgänger und/oder Radfahrer. Darüber hinaus variieren die Qualität und die Klarheit der Ultraschallbilder, selbst wenn dasselbe Ultraschallsystem verwendet wird. Das liegt daran, dass der Körperhabitus von Fußgängern, der Wind, die Luftzirkulation, die Luftfeuchtigkeit und die Lufttemperatur die Ultraschallsignale beeinflussen, die aus dem Umfeld des Fahrzeugs zurückgegeben werden und die zur Erzeugung der Bilder verwendet werden. Das Scannen eines Objekts im Fahrzeugumfeld in größerer Distanz führt zu stark gedämpften Ultraschallsignalen und einer schlecht definierten Geometrie in den Bildern. Dementsprechend ist es wünschenswert, ein tiefes Lernen in einem Ultraschallsystem auf eine Weise anzuwenden, die für eine breite Menge von Umfeldsituationen wirksam ist, um die Erstellung aussagekräftiger und Ultraschallumfeldkarten mit richtig klassifizierten abstrahierten Objekten durch Ultraschallbilderkennung zu beschleunigen.It is desirable to further advance such automation of setting up an ultrasound system for a particular traffic situation. One area of evolving artificial intelligence that holds great promise is “deep learning”. Deep learning is a rapidly evolving branch of machine learning algorithms that mimics how the human brain works when analyzing problems. The human brain remembers what was learned from solving a similar problem in the past and applied that knowledge to solve a new problem. Research is underway to identify potential applications of this technology in a number of areas such as pattern recognition, natural language processing, and computer vision. Deep learning algorithms have a distinct advantage over traditional forms of computer programming algorithms in that they can be generalized and trained to recognize image features by analyzing sample images rather than writing custom computer code. Another application is the recognition of structures or groups or tendencies in multidimensional data sets. However, the situation surrounding a vehicle visualized in an ultrasound system does not seem to be suitable for automated image recognition without further ado. Every situation is different and the shapes, sizes, positions and functions of the objects vary widely. This is especially true for pedestrians and / or cyclists. In addition, the quality and clarity of the ultrasound images vary even when the same ultrasound system is used. This is because the body habit of pedestrians, the wind, the air circulation, the humidity and the air temperature all influence the ultrasonic signals that are returned from the surroundings of the vehicle and that are used to generate the images. Scanning an object in the vicinity of the vehicle at a greater distance leads to strongly attenuated ultrasonic signals and a poorly defined geometry in the pictures. Accordingly, it is desirable to apply deep learning in an ultrasound system in a manner that is effective for a wide variety of environmental situations in order to expedite the creation of meaningful and ultrasonic environmental maps with properly classified abstracted objects through ultrasound image recognition.

Stand der TechnikState of the art

Aktuell werden Ultraschallmesssysteme in Fahrzeugen im Rahmen von Parkassistenzsystemen eingesetzt. Insbesondere für vollständig autonom einparkende, bzw. fahrende Fahrzeuge ist die genaue Lokalisation der Hindernisse erforderlich, wie z.B. in der Druckschrift DE 10 2008 036 009 B4 beschrieben. Hierbei findet aber nur eine Verortung der Hindernisse und keine Klassifizierung und Zuordnung zu Objektlisten, wie z.B. andere Fahrzeuge, Hecken, Bordsteinkanten, etc. statt. Diese ist notwendig, um weitere mögliche Fahrmanöver ableiten zu können. Eine Möglichkeit Objekte zu klassifizieren ist über die Vermessung der äußeren Abmessungen und einen Vergleich dieser mit den Abmessungen von Referenzobjekten einer Datenbank bei gleichzeitiger Berücksichtigung der Objektgeschwindigkeit, wie in DE 103 36 638 A1 beschrieben. Diese Methode hat den Nachteil, dass es im Allgemeinen nicht möglich ist, ein beliebig großes Raumvolumen beliebig genau abzuscannen. Auch die zuverlässige Erkennung von Objekten, die in ihrer Position relativ zum Fahrzeug um Winkel gedreht sind, welche der Datenbank unbekannt sind, ist schwierig.Ultrasonic measurement systems are currently used in vehicles as part of parking assistance systems. The precise localization of the obstacles is necessary, for example in the publication, in particular for vehicles that park or drive completely autonomously DE 10 2008 036 009 B4 described. Here, however, the obstacles are only located and not classified and assigned to object lists, such as other vehicles, hedges, curbs, etc. This is necessary in order to be able to derive further possible driving maneuvers. One way of classifying objects is by measuring the external dimensions and comparing them with the dimensions of reference objects in a database while taking into account the object speed, as in DE 103 36 638 A1 described. This method has the disadvantage that it is generally not possible to scan any volume of space with any precision. The reliable detection of objects that are rotated in their position relative to the vehicle by angles that are unknown to the database is difficult.

Dieser Nachteil kann von neuronalen Netzwerkmodellen überwunden werden wie in [Dror 1995] gezeigt. Hier wurden mit einem dreilagigen vorwärts gerichteten neuronalen Netzwerkmodell Objekte in verschiedenen Winkeln relativ zu den Ultraschallsensoren unter Laborbedingungen zuverlässig erkannt.This disadvantage can be overcome by neural network models, as shown in [Dror 1995]. Here, a three-layer, forward-facing neural network model was used to reliably detect objects at different angles relative to the ultrasonic sensors under laboratory conditions.

Da die in der Umgebung von Fahrzeugen vorkommenden Objekte im Vergleich zu den in [Dror 1995] verwendeten Objekten komplexere Geometrien haben und auch die Signalausbreitungsbedingungen schlechter als unter Laborbedingungen sind, wird hier der Einsatz eines vielschichtigen neuronalen Netzwerkmodells, auf dem ein Deep-Learning-Verfahren basiert, vorgeschlagen. Der Begriff „Deep Learning“ hat bisher keine einheitliche Definition [Zhang 2018]. In dieser Druckschrift folgt die Verwendung des Begriffs „Deep Learning“ der in [LeCun 2015] gegebenen Definition. Hiernach sind Deep-Learning-Verfahren Repräsentationslernmethoden, bei denen einem System, z.B. ein neuronales Netzwerkmodell, Rohdaten als Eingangsinformation gegeben werden und das System selbstständig lernt, welche aus den Rohdaten gewonnene Repräsentation für eine Klassifizierung notwendig ist. Deep Learning Verfahren verwenden hierfür mehrere Repräsentationsschichten, welche Zwischenschichten in einem neuronalen Netzwerkmodell entsprechen.Since the objects in the vicinity of vehicles have more complex geometries than the objects used in [Dror 1995] and the signal propagation conditions are worse than under laboratory conditions, a multi-layered neural network model is used here, on which a deep learning process based, suggested. The term “deep learning” does not yet have a uniform definition [Zhang 2018]. In this publication, the use of the term “deep learning” follows the definition given in [LeCun 2015]. According to this, deep learning methods are representation learning methods in which a system, e.g. a neural network model, raw data are given as input information and the system independently learns which representation obtained from the raw data is necessary for a classification. Deep learning processes use several layers of representation, which correspond to intermediate layers in a neural network model.

Aufgabetask

Dem Vorschlag liegt daher die Aufgabe zu Grunde, ein System zu entwickeln, dass nicht nur detektierte Objekte in der Umgebung des Fahrzeugs verortet, sondern auch eine Klassifizierung vornimmt und dabei in der Lage ist, diese Klassifizierung für verschiedenen Orientierungen der Objekte relativ zum Fahrzeug zuverlässig durchzuführen.The proposal is therefore based on the task of developing a system that not only locates detected objects in the vicinity of the vehicle, but also carries out a classification and is able to reliably carry out this classification for different orientations of the objects relative to the vehicle .

Es ist eine weitere Aufgabe der vorliegenden Erfindung, eine Deep-Learning-Technologie zu verwenden, um die Geometrie im Umfeld eines Fahrzeugs in Ultraschallbildern und Umfeldkarten und/oder Ultraschallmessdaten sicherer zu erkennen.Another object of the present invention is to use deep learning technology in order to more reliably recognize the geometry in the surroundings of a vehicle in ultrasound images and maps of the surroundings and / or ultrasound measurement data.

Es ist eine weitere Aufgabe, nicht nur die Geometrie der Anordnung von Objekten im Umfeld des Fahrzeugs, sondern auch die Ansicht dieser Geometrie in Ultraschallbildern und Umfeldkarten und/oder Ultraschallmessdaten zu erkennen.Another task is to recognize not only the geometry of the arrangement of objects in the vicinity of the vehicle, but also the view of this geometry in ultrasound images and environment maps and / or ultrasound measurement data.

Es ist eine weitere Aufgabe, eine tief lernende Erkennung dieser Geometrie Anatomie zu verwenden, um das Optimieren des Ultraschallsystems für eine Ultraschallvermessung des Umfelds eines Fahrzeugs zu automatisieren.It is a further task to use a deep learning recognition of this geometry anatomy in order to automate the optimization of the ultrasound system for an ultrasound measurement of the surroundings of a vehicle.

Lösung der AufgabeSolution of the task

In Übereinstimmung mit den Prinzipien der vorliegenden Erfindung werden ein Ultraschallsystem und ein Verfahren beschrieben, die es einem Ultraschallsystem ermöglichen, die Geometrie in einer mittels Ultraschall erstellten Umfeldkarte durch Verarbeitung mittels eines neuronalen Netzwerkmodells zu identifizieren. Das neuronale Netzwerkmodell wird zuerst trainiert, indem ihm mehrere Umfeldkarten oder Ultraschallmesssignal, die sich auf eine bekannte geometrische Anordnung von Objekten zurückführen lassen, präsentiert werden. Einmal trainiert, werden von einem Benutzer aufgenommene Live-Bilder in Echtzeit von dem neuronalen Netzwerkmodell analysiert, wodurch die Geometrie der Anordnung in den Umfeldkarten und/oder Ultraschallmesssignalen identifiziert wird. Die Identifizierung der Geometrie und /oder der Objekte und/oder der Objektanordnungen wird verwendet, um das typischerweise bereits vorhandene Umfeldkartenbild zu kommentieren oder zu verbessern und/oder die Benutzersteuerelemente auf dem Ultraschallsystem für die Durchführung einer vertieften Analyse der identifizierten Geometrie der Objekte im Umfeld des Fahrzeugs einzurichten.In accordance with the principles of the present invention, an ultrasound system and a method are described which enable an ultrasound system to identify the geometry in an ultrasound map of the surroundings by processing using a neural network model. The neural network model is first trained by presenting several maps of the environment or ultrasonic measurement signals that can be traced back to a known geometric arrangement of objects. Once trained, live images recorded by a user are analyzed in real time by the neural network model, whereby the geometry of the arrangement is identified in the environment maps and / or ultrasonic measurement signals. The identification of the geometry and / or the objects and / or the object arrangements is used to comment on or improve the environment map image, which is typically already present, and / or the user control elements on the ultrasound system to carry out an in-depth analysis of the identified geometry of the objects in the environment of the Set up vehicle.

Bei einem System der eingangs beschriebenen Art wird die Aufgabe vorschlagsgemäß dadurch gelöst, dass ein Deep-Learning-Verfahren, das auf einem neuronalen Netzwerkmodell basiert, die Empfangssignale eines Ultraschallmesssystems im Fahrzeug als Input verwendet um Objekte zu klassifizieren und die Positionen der Objekte zu bestimmen. In a system of the type described at the outset, the object is proposed in that a deep learning method based on a neural network model uses the received signals of an ultrasonic measurement system in the vehicle as input to classify objects and determine the positions of the objects.

Der Vorschlag wird zunächst am Beispiel eines Ultraschallmesssystems erläutert, dann auf ein Messsystem übertragen. Im Folgenden wird dann die Kombination eines solchen Messsystems mit einem Ultraschallmesssystem und ein Selbstlernverfahren beschrieben, das einen selbstlernenden Voter auf Basis eines neuronalen Netzes umfasst. Dieses Prinzip wird dann auf die Kombination zweier Messsysteme übertragen. Sodann wird ein verallgemeinertes selbstlernendes Netz aus neuronalen Netzen als Knoten dargestellt.The proposal is first explained using the example of an ultrasonic measuring system, then transferred to a measuring system. In the following, the combination of such a measuring system with an ultrasonic measuring system and a self-learning method is described that includes a self-learning voter based on a neural network. This principle is then transferred to the combination of two measuring systems. A generalized self-learning network made up of neural networks is then represented as a node.

Wir nehmen zunächst Bezug auf 1. In 1 ist ein Ultraschall-Fahrzeugumfeldanalysesystem schematisch vereinfacht in Form eines Blockdiagramms dargestellt, das gemäß den Prinzipien der vorliegenden Erfindung aufgebaut ist. Eine Ultraschallwandleranordnung (1012) ist in einem Fahrzeugteil (1010), beispielsweise einer Stoßstange, zum Senden von Ultraschallwellen und zum Empfangen von Echoinformationen vorgesehen. Die Ultraschallwandleranordnung (1012) kann eine ein- oder zweidimensionale Anordnung von Ultraschallwandlerelementen sein, die in der Lage sind, beispielsweise in zwei oder bevorzugt drei Dimensionen sowohl in der Höhe (in 3D) als auch im Azimut abzutasten. Die Ultraschallwandleranordnung (1012) ist bevorzugt mit einem Mikrobeamformer (1014) bevorzugt bereits innerhalb des Fahrzeugteils (1010) gekoppelt. Der Mikrobeamformer (1014) steuert die Aussendung und den Empfang von Ultraschallsignalen durch die Ultraschallwandlerelemente der Ultraschallwandleranordnung (1012). Mikrobeamformer (1014) sind im Sinne dieser Offenlegung zumindest teilweise in der Lage, die Empfindlichkeitskeule der von Gruppen oder „Flecken“ von Ultraschallwandlerelementen empfangenen Signale zumindest teilweise auszurichten. Der Mikrobeamformer (1014) ist mit einem Sende- / Empfangs-Umschalter (1016) gekoppelt, der zwischen Senden und Empfangen umschaltet und den Hauptstrahlformer (1020) vor Hochenergiesendesignalen in der Sendephase schützt. Die Aussendung von auf diese Weise unter Kontrolle des Mikrobeamformers (1014) geformten Ultraschallstrahlen durch das Ultraschallwandlerarray der Ultraschallwandleranordnung (1012) wird durch eine Sendesteuerung (1018) gesteuert, die mit dem Sende- / Empfangs-Umschalter (1016) und dem Hauptstrahlformer (1020) gekoppelt ist. Der Hauptstrahlformer (1020) empfängt ggf. Eingaben von der Benutzerbedienung oder dem Bedienfeld (1038) des Benutzers. Zu den von der Sendesteuerung (1018) gesteuerten Sendeeigenschaften gehören beispielsweise Amplitude, Phase und Polarität von Sendewellenformen. In Richtung der Impulsübertragung gebildete Strahlen können durch eine unterschiedliche Phasenansteuerung der einzelnen Ultraschallwandler von der Ultraschallwandleranordnung (1012) direkt nach vorne oder orthogonal zu dieser gelenkt werden oder für ein breiteres Sichtfeld unter verschiedenen Winkeln abgestrahlt werden.We first refer to 1 . In 1 An ultrasonic vehicle environment analysis system is shown schematically simplified in the form of a block diagram, which is constructed in accordance with the principles of the present invention. An ultrasonic transducer arrangement ( 1012 ) is in a vehicle part ( 1010 ), for example a bumper, for sending ultrasonic waves and receiving echo information. The ultrasonic transducer arrangement ( 1012 ) can be a one- or two-dimensional arrangement of ultrasonic transducer elements which are able to scan, for example, in two or preferably three dimensions, both in height (in 3D) and in azimuth. The ultrasonic transducer arrangement ( 1012 ) is preferred with a microbeamformer ( 1014 ) preferably already within the vehicle part ( 1010 ) coupled. The microbeamformer ( 1014 ) controls the transmission and reception of ultrasonic signals by the ultrasonic transducer elements of the ultrasonic transducer arrangement ( 1012 ). Microbeamformer ( 1014 ) within the meaning of this disclosure are at least partially able to at least partially align the sensitivity lobe of the signals received from groups or "spots" of ultrasonic transducer elements. The microbeamformer ( 1014 ) is equipped with a send / receive switch ( 1016 ) coupled, which switches between sending and receiving and the main beam shaper ( 1020 ) protects against high energy signals in the transmission phase. The emission of in this way under the control of the microbeamformer ( 1014 ) formed ultrasonic beams through the ultrasonic transducer array of the ultrasonic transducer arrangement ( 1012 ) is controlled by a transmission control ( 1018 ) controlled with the send / receive switch ( 1016 ) and the main jet shaper ( 1020 ) is coupled. The main jet shaper ( 1020 ) receives input from the user interface or the control panel ( 1038 ) of the user. To the transmission control ( 1018 ) controlled transmission characteristics include amplitude, phase and polarity of transmission waveforms. Beams formed in the direction of the impulse transmission can be triggered by a different phase control of the individual ultrasonic transducers from the ultrasonic transducer arrangement ( 1012 ) can be steered directly forwards or orthogonally to this or be emitted at different angles for a wider field of view.

Die Echos, die von einer benachbarten Gruppe von Ultraschallwandlerelementen empfangen werden, werden strahlgeformt, indem sie in geeigneter Weise je Ultraschallwandlerelement spezifisch verzögert und dann kombiniert werden. Auf diese Weise kann eine Empfangskeule erzeugt werden. Die teilweise strahlgeformten Signale, die durch den Mikrobeamformer (1014) mittels jeder Ultraschallwandlergruppe erzeugt werden, werden mit dem Hauptstrahlformer (1020) gekoppelt. Der Hauptstrahlformer (1020) kombiniert die teilweise strahlgeformten Signale von einzelnen Ultraschallwandlergruppen zu einem vollständig strahlgeformten kohärenten Echosignal. Zum Beispiel kann der Hauptstrahlformer (1020) 128 Kanäle haben, von denen jeder ein teilweise strahlgeformtes Signal einer jeweiligen Gruppe von 12 Ultraschallwandlerelementen empfängt. Auf diese Weise können die von mehr als 1500 Ultraschallwandlerelementen einer zweidimensionalen Ultraschallwandlereanordnung (1012) empfangenen Signale effizient zu einem einzelnen Strahlformsignal beitragen.The echoes that are received by an adjacent group of ultrasonic transducer elements are beam-formed by specifically delaying them in a suitable manner for each ultrasonic transducer element and then combining them. In this way, a reception lobe can be generated. The partially beam-shaped signals generated by the microbeamformer ( 1014 ) are generated by each ultrasonic transducer group, are generated with the main beamformer 1020 ) coupled. The main jet shaper ( 1020 ) combines the partially beam-shaped signals from individual ultrasonic transducer groups into a fully beam-shaped coherent echo signal. For example, the main jet shaper ( 1020 ) Have 128 channels, each of which receives a partially beam-shaped signal from a respective group of 12 ultrasonic transducer elements. In this way, the more than 1500 ultrasonic transducer elements of a two-dimensional ultrasonic transducer array ( 1012 ) efficiently contribute to a single beamform signal.

Die kohärenten Echosignale werden einer Signalverarbeitung durch einen Signalprozessor (1026) unterzogen, der das Filtern durch ein digitales Filter und bevorzugt eine Rauschverringerung beinhaltet. Der Signalprozessor (1026) kann das Frequenzband auch in einen niedrigeren Frequenzbereich oder Basisbandbereich verschieben. Die verarbeiteten Echosignale werden dann bevorzugt in Quadraturkomponenten (I und Q) demoduliert, die Signalphaseninformationen liefern.The coherent echo signals are subjected to signal processing by a signal processor ( 1026 ), which includes filtering through a digital filter and preferably noise reduction. The signal processor ( 1026 ) can shift the frequency band to a lower frequency range or baseband range. The processed echo signals are then preferably demodulated into quadrature components (I and Q) which provide signal phase information.

Die strahlgeformten und verarbeiteten kohärenten Echosignale werden an einen Video-Prozessor (1052) gekoppelt, der eine Umfeldkarte des Fahrzeugs erzeugt. Der Video-Prozessor (1052) führt bevorzugt eine Amplituden- (Hüllkurven-) Detektion der demodulierten Quadratur-I- und Q-Signalkomponenten durch, indem er die Echosignalamplitude in der Form von (I2+Q2)1/2 berechnet. Die Quadraturecho-Signalkomponenten sind auch mit einem Doppler-Prozessor (1054) gekoppelt, der Ensembles von Echosignalen von diskreten Punkten in einem Bildfeld speichert, die dann verwendet werden, um die Doppler-Verschiebung an Punkten im Bild mit einem schnellen Fourier-Transformations- (FFT) -Prozessor abzuschätzen. Für ein Farb-Doppler-Bild werden die geschätzten Doppler-Flusswerte an jedem Punkt der Umfeldkarte gefiltert und bevorzugt unter Verwendung einer Nachschlagetabelle oder einer heuristischen Formel in Farbwerte umgewandelt. Die Bildsignale der Umfeldkarte und die Doppler-Flusswerte werden an einen Abtastwandler (1032) gekoppelt, der die Umfeldkarten- und Doppler-Abtastwerte von ihren typischerweise erfassten R-θ-Koordinaten in kartesische (x, y) -Koordinaten zur Anzeige in einem gewünschten Anzeigeformat umwandelt, z. B. in ein geradliniges Anzeigeformat oder ein Sektoranzeigeformat. Bevorzugt kann in der Benutzeranzeige entweder das Umfeldkarten-Bild oder das Doppler-Bild alleine angezeigt werden. Des Weiteren ist es vorteilhaft beide Bilder zusammen in einem Farb-Doppler-Bild darzustellen.The beam-formed and processed coherent echo signals are sent to a video processor ( 1052 ), which generates a map of the surroundings of the vehicle. The video processor ( 1052 ) preferably performs amplitude (envelope) detection of the demodulated quadrature I and Q signal components by calculating the echo signal amplitude in the form of (I 2 + Q 2 ) 1/2 . The quadrature echo signal components are also available with a Doppler processor ( 1054 ), which stores ensembles of echo signals from discrete points in an image field which are then used to estimate the Doppler shift at points in the image with a fast Fourier transform (FFT) processor. For a color Doppler image, the estimated Doppler flux values at each point are the Environment map filtered and preferably converted into color values using a look-up table or a heuristic formula. The image signals of the environment map and the Doppler flow values are sent to a scanning converter ( 1032 ) which converts the environment map and Doppler samples from their typically sensed R-θ coordinates to Cartesian (x, y) coordinates for display in a desired display format, e.g. In a straight line display format or a sector display format. Either the environment map image or the Doppler image alone can preferably be displayed in the user display. It is also advantageous to display both images together in one color Doppler image.

Die von dem Abtastwandler (1032) erzeugten Ultraschallbilder sind mit einem Bildprozessor (1030) und einem Multiplanar-Reformatierer (1044) gekoppelt. Der Multiplanar-Reformatierer (1044) wandelt Echos, die von Punkten in einer gemeinsamen Ebene in einem volumetrischen Bereich des Raumes im Umfeld des Fahrzeugs empfangen werden, in ein Ultraschallbild dieser Ebene um. Ein Volumenrenderer (1042) konvertiert die Echosignale eines 3D-Datensatzes in ein projiziertes 3D-Bild, wie es von einem gegebenen Bezugspunkt aus gesehen wird. Die 2D- oder 3D-Bilder sind mit einem Bildprozessor (1030) zur weiteren Verbesserung, Pufferung und temporären Speicherung zur Anzeige auf einer Bildanzeige (1040) gekoppelt. Ein Grafik-Display-Overlay, das Text- und andere Grafikinformationen enthält, wie z. B. die Daten von erkannten Objekten z.B. aus geografischen Kartendatenbanken, wird bevorzugt von einem Grafikprozessor (1036) zur Anzeige mit den Ultraschallbildern erzeugt.The data from the scan converter ( 1032 ) generated ultrasound images are with an image processor ( 1030 ) and a multiplanar reformer ( 1044 ) coupled. The multiplanar reformatter ( 1044 ) converts echoes received from points in a common plane in a volumetric area of space in the vicinity of the vehicle into an ultrasound image of this plane. A volume renderer ( 1042 ) converts the echo signals of a 3D data set into a projected 3D image as seen from a given reference point. The 2D or 3D images are processed with an image processor ( 1030 ) for further improvement, buffering and temporary storage for display on an image display ( 1040 ) coupled. A graphic display overlay that contains text and other graphic information, such as: B. the data of recognized objects, e.g. from geographical map databases, is preferred by a graphics processor ( 1036 ) for display with the ultrasound images.

Gemäß den Grundsätzen der vorliegenden Erfindung umfasst das Ultraschallsystem ein neuronales Netzwerkmodell (1080), dessen Software in einem digitalen Speicher gespeichert ist. Neuronale Netzwerkmodelle mit tiefem Lernen umfassen Software, die von einem Software-Designer geschrieben werden kann und auch aus einer Reihe von Quellen öffentlich verfügbar ist. Eine Anwendung, die zum Erstellen eines neuronalen Netzmodells mit dem Namen „NVidia Digits“ verwendet werden kann, ist unter https://developer.nvidia.com/digits verfügbar. Bei NVidia Digits handelt es sich um eine Benutzeroberfläche auf hohem Niveau, die ein tiefes Lern-Framework namens „Caffe“ umfasst, das vom Berkley Vision and Learning Center
(http://caffe.berkeleyvision.org/) entwickelt wurde. Eine Liste gängiger Deep-Learning-Frameworks, die zur Verwendung in einer Implementierung der vorliegenden Erfindung geeignet sind, finden Sie unter https://developer.nvidia.com/deep-learning-frameworks. Mit dem neuronalen Netzwerkmodell (1080) ist ein Trainingsbildspeicher (1034) gekoppelt, in dem Ultraschallbilder bekannter Anatomie eines Patienten gespeichert und verwendet werden, um das neuronale Netzwerkmodell (1080) zu trainieren, um Ultraschallbilder der Geometrie des Fahrzeugumfelds zu identifizieren. Live-Bilder, die von dem Ultraschallsystem von 1 mit bekannten Fahrzeugumfeldgeometrien erzeugt werden, werden dem neuronalen Netzwerkmodell (1080) nach dem Training zur Identifizierung der Geometrie in den Bildern durch das neuronale Netzwerkmodell (1080) präsentiert. In einer konstruierten Implementierung der vorliegenden Erfindung wurde das neuronale Netzwerkmodell (1080) trainiert, um nicht nur die jeweilige Fahrzeugumfeldgeometrie in einem Ultraschallbild zu identifizieren, sondern auch die Ansicht der Fahrzeugumfeldgeometrie, die in dem Ultraschallbild gesehen wird, z. B. ein anderes Auto oder ein Bordstein oder ein Hydrant. Das trainierte neuronale Netzmodell erzeugt ein Objekterkennungsergebnis für die identifizierten Objekte im Fahrzeugumfeld und bevorzugt auch einen Vertrauensfaktor dessen, was das neuronale Netzwerkmodell (1080) als die Genauigkeit seiner Identifikation abschätzt (z. B. 80%ig, 100%ig oder einen anderen Vertrauensfaktor). Wenn das neuronale Netzwerkmodell (1080) zu 100% von seiner Identifikation überzeugt ist, wird die Bild-ID mit einer Benutzersteuerungseinstellungssteuerung (1048) des Ultraschallsystems gekoppelt, wo Einstellungen des Systems für eine Analyse des identifizierten Geometrietyps festgelegt werden können. Diese Einstellungen werden bevorzugt auf eine Touchscreen-Anzeigesteuerung (1046) angewendet, bei der die Grafik einer Touchscreen-Benutzersteuerungsanzeige entsprechend modifiziert und mit dem Grafikprozessor (1036) gekoppelt werden kann. Der Grafikprozessor (1036) erzeugt die entsprechende Steuerungsgrafik, die auf eine Touchscreen-Anzeige (1060) auf dem Benutzersteuerfeld (1038) des Ultraschallsystems aufgebracht wird.
In accordance with the principles of the present invention, the ultrasound system comprises a neural network model ( 1080 ) whose software is stored in digital memory. Deep learning neural network models include software that can be written by a software designer and that is also publicly available from a number of sources. An application that can be used to create a neural network model called NVidia Digits is available at https://developer.nvidia.com/digits. NVidia Digits is a high-level user interface that includes a deep learning framework called "Caffe," developed by the Berkley Vision and Learning Center
(http://caffe.berkeleyvision.org/) was developed. A list of popular deep learning frameworks suitable for use in an implementation of the present invention can be found at https://developer.nvidia.com/deep-learning-frameworks. With the neural network model ( 1080 ) is a training image memory ( 1034 ), in which ultrasound images of known anatomy of a patient are stored and used to create the neural network model ( 1080 ) to identify ultrasound images of the geometry of the vehicle environment. Live images from the ultrasound system of 1 are generated with known vehicle surroundings geometries, the neural network model ( 1080 ) after training to identify the geometry in the images using the neural network model ( 1080 ) presents. In a designed implementation of the present invention, the neural network model ( 1080 ) trained to identify not only the respective vehicle surroundings geometry in an ultrasound image, but also the view of the vehicle surroundings geometry that is seen in the ultrasound image, e.g. B. Another car or a curb or a hydrant. The trained neural network model generates an object recognition result for the identified objects in the vehicle environment and also prefers a confidence factor of what the neural network model ( 1080 ) than the accuracy of its identification (e.g. 80%, 100% or some other confidence factor). If the neural network model ( 1080 ) is 100% convinced of its identification, the image ID is controlled with a user control setting control ( 1048 ) of the ultrasound system, where settings of the system for an analysis of the identified geometry type can be specified. These settings are preferred to a touchscreen display control ( 1046 ) where the graphics of a touchscreen user control display are modified accordingly and processed with the graphics processor ( 1036 ) can be coupled. The graphics processor ( 1036 ) generates the corresponding control graphics, which are shown on a touchscreen display ( 1060 ) on the user control panel ( 1038 ) of the ultrasound system is applied.

Ein Verfahren zum Trainieren und Verwenden eines neuronalen Netzwerkmodells zum Identifizieren der Anatomie in Ultraschallbildern ist in 2 gezeigt. In Schritt A (1090) wird ein neuronales Netzwerkmodell auf einem computerbasierten System installiert. Das neuronale Netzwerkmodell kann eines sein, das von einem Software-Architekten entworfen wurde, oder es kann eines sein, das unter Verwendung eines der oben beschriebenen tiefen Lernrahmens erstellt wird. In Schritt B (1092) werden Bilder der gleichen Fahrzeugumfeldsituationsgeometrie, die bevorzugt von einer Vielzahl von Testfahrten für ähnliche Situationen erhalten wurden, dem neuronalen Netzwerkmodell präsentiert. Um es zur Ausbildung der Geometrie zu trainieren erfolgt diese Präsentation zusammen mit dem bekannten Typ der Situationsgeometrie und seiner Ansicht in den Bildern in Schritt C (1094). Die Anzahl der verwendeten Trainingsbilder bzw. Trainingsdatensätze beträgt vorzugsweise Hunderte oder Tausende, um das neuronale Netzwerkmodell in den Variationen einer solchen Fahrzeugumfeldsituationsgeometrie zu trainieren. Wenn das trainierte neuronale Netzwerkmodell in einem Ultraschallsystem in einem Fahrzeug dann installiert ist, werden in Schritt D (1096) von dem Ultraschallsystem aufgenommene Umfeldkarten dem neuronalen Netzwerkmodell zur Identifizierung präsentiert. In Schritt E (1098) wird die durch das neuronale Netzwerkmodell erzeugte Identifikation zum Annotieren der Bilder verwendet, z. B. als Hindernis oder Bordstein. Die Information wird auch verwendet, um das Ultraschallsystem einzurichten und selbstlernend zu trainieren.One method of training and using a neural network model to identify anatomy in ultrasound images is disclosed in US Pat 2 shown. In step A ( 1090 ) a neural network model is installed on a computer-based system. The neural network model can be one designed by a software architect or it can be one that is created using one of the deep learning frameworks described above. In step B ( 1092 ), images of the same vehicle environment situation geometry, which were preferably obtained from a large number of test drives for similar situations, are presented to the neural network model. In order to train it to develop the geometry, this presentation takes place together with the known type of situation geometry and its view in the images in step C ( 1094 ). The number of training images or training data sets used is preferably hundreds or thousands in order to provide the neural network model in the variations of a to train such vehicle environment situation geometry. If the trained neural network model is then installed in an ultrasound system in a vehicle, in step D ( 1096 ) the environment maps recorded by the ultrasound system are presented to the neural network model for identification. In step E ( 1098 ) the identification generated by the neural network model is used to annotate the images, e.g. B. as an obstacle or curb. The information is also used to set up the ultrasound system and train it in a self-learning manner.

Variationen des oben beschriebenen Systems und Verfahrens werden dem Fachmann leicht einfallen. Ein Ultraschallsystem kann mithilfe von Deep-Learning-Modellen die Bildqualität beurteilen und dem Fahrzeugführer eine Rückmeldung geben, sodass der Fahrzeugführer nach Möglichkeit besser aufgelöste Bilder erhalten kann. Eine Unterstützung für Entscheidungen des Fahrzeugführers kann implementiert werden, indem Informationen zur Vorgeschichte mit der Identifizierung der Fahrzeugumfeldsituationsgeometrie kombiniert werden. Diese Daten können durch tiefe Lernalgorithmen verarbeitet werden, um Entscheidungsunterstützungsergebnisse bereitzustellen.Variations on the system and method described above will readily occur to those skilled in the art. An ultrasound system can use deep learning models to assess the image quality and provide feedback to the driver so that the driver can receive better-resolution images if possible. Support for decisions by the vehicle driver can be implemented by combining information on the previous history with the identification of the geometry of the vehicle's surroundings. This data can be processed by deep learning algorithms to provide decision support outcomes.

Es sei hier angemerkt, dass ein Ultraschallsystem, das zur Verwendung in einer Implementierung der vorliegenden Erfindung geeignet ist, und insbesondere die Komponentenstruktur des Ultraschallsystems von 1, z. B. in Hardware, Software oder einer Kombination davon implementiert sein kann. Die verschiedenen Ausführungsformen und / oder Komponenten eines Ultraschallsystems, zum Beispiel die tief lernenden Softwaremodule oder Komponenten und Steuerungen darin, können auch als Teil eines oder mehrerer Computer oder Mikroprozessoren implementiert sein. Der Computer oder Prozessor kann zum Beispiel ein Computergerät, ein Eingabegerät, eine Anzeigeeinheit und eine Schnittstelle zum Zugriff auf das Internet umfassen, wie in 1 gezeigt. Der Computer oder Prozessor kann einen Mikroprozessor enthalten. Der Mikroprozessor kann beispielsweise mit einem Kommunikationsbus verbunden sein, um auf ein Datennetzwerk des Fahrzeugs und/oder ein Fahrzeug externes Datennetzwerk zuzugreifen, um Trainingsbilder und/oder Trainingsdatensätze zu importieren. Der Computer oder Prozessor kann auch einen Speicher enthalten. Die Speichervorrichtungen wie der Bildspeicher (1028) können einen Direktzugriffsspeicher (RAM) und einen Nur-Lese-Speicher (ROM) enthalten. Der Computer oder Prozessor kann ferner ein Speichergerät enthalten, bei dem es sich um ein Festplattenlaufwerk oder ein Wechseldatenträger wie ein Diskettenlaufwerk, ein optisches Laufwerk, ein Solid-State- Laufwerk und dergleichen handeln kann. Die Speichervorrichtung kann auch eine andere ähnliche Einrichtung sein, um Computerprogramme oder andere Anweisungen in den Computer oder Prozessor zu laden.It should be noted here that an ultrasound system suitable for use in an implementation of the present invention, and in particular the component structure of the ultrasound system of FIG 1, e.g. . B. can be implemented in hardware, software, or a combination thereof. The various embodiments and / or components of an ultrasound system, for example the deep learning software modules or components and controls therein, can also be implemented as part of one or more computers or microprocessors. The computer or processor can for example comprise a computing device, an input device, a display unit and an interface for accessing the Internet, as in FIG 1 shown. The computer or processor can include a microprocessor. The microprocessor can, for example, be connected to a communication bus in order to access a data network of the vehicle and / or a data network external to the vehicle in order to import training images and / or training data sets. The computer or processor can also include memory. The storage devices such as the image memory ( 1028 ) may include random access memory (RAM) and read only memory (ROM). The computer or processor can also include a storage device, which can be a hard disk drive or removable media such as a floppy disk drive, optical drive, solid state drive, and the like. The storage device can also be some other similar device for loading computer programs or other instructions into the computer or processor.

Wie hier verwendet, kann der Begriff „Computer“ oder „Modul“ oder „Prozessor“ oder „Workstation“ jedes prozessorbasierte oder Mikroprozessor-basierte System einschließen, einschließlich Systeme, die Mikrocontroller verwenden, Computer mit reduzierten Befehlssätzen (RISC), ASICs. Logikschaltungen und jede andere Schaltung oder Prozessor, die die hier beschriebenen Funktionen ausführen können. Die obigen Beispiele sind nur beispielhaft und sollen die Definition und / oder Bedeutung dieser Ausdrücke in keiner Weise einschränken.As used herein, the term “computer” or “module” or “processor” or “workstation” can include any processor-based or microprocessor-based system, including systems using microcontrollers, reduced instruction set computers (RISC), ASICs. Logic circuits and any other circuit or processor that can perform the functions described herein. The above examples are only exemplary and are not intended to limit the definition and / or meaning of these terms in any way.

Der Computer oder Prozessor führt einen Satz von Anweisungen aus, die in einem oder mehreren Speicherelementen gespeichert sind, um Eingangsdaten zu verarbeiten. Die Speicherelemente können auch Daten oder andere Informationen je nach Wunsch oder Bedarf speichern. Das Speicherelement kann in Form einer Informationsquelle oder eines physischen Speicherelements in einer Verarbeitungsmaschine vorliegen.The computer or processor executes a set of instructions stored in one or more storage elements to process input data. The storage elements can also store data or other information as desired or required. The storage element may be in the form of a source of information or a physical storage element in a processing machine.

Der Befehlssatz eines Ultraschallsystems, einschließlich jener, der die Erfassung, Verarbeitung und Übertragung von Ultraschallbildern wie oben beschrieben steuert, kann verschiedene Befehle enthalten, die einen Computer oder einen Prozessor als Verarbeitungsmaschine anweisen, bestimmte Operationen wie die Verfahren und auszuführenden Verfahren der verschiedenen Ausführungsformen der Erfindung. Der Satz von Anweisungen kann in Form eines Softwareprogramms vorliegen. Die Software kann in verschiedenen Formen vorliegen, beispielsweise als Systemsoftware oder Anwendungssoftware, und sie kann als greifbares und nicht flüchtiges computerlesbares Medium ausgeführt werden. Auch eine ganz oder teilweise Realisierung als endlicher Automat ist möglich. Ferner kann die Software in Form einer Sammlung von separaten Programmen oder Modulen vorliegen, wie z. B. eines neuronalen Netzwerkmodellmoduls, eines Programmmoduls innerhalb eines größeren Programms oder eines Teils eines Programmmoduls. Die Software kann auch eine modulare Programmierung in Form einer objektorientierten Programmierung umfassen. Die Verarbeitung von Eingabedaten durch die Verarbeitungsmaschine kann als Reaktion auf Bedienerbefehle oder als Reaktion auf Ergebnisse der vorherigen Verarbeitung oder als Antwort auf eine Anforderung, die von einer anderen Verarbeitungsmaschine gestellt wird, erfolgen.The instruction set of an ultrasound system, including that which controls the acquisition, processing and transmission of ultrasound images as described above, may contain various instructions that direct a computer or processor as the processing machine, certain operations such as the methods and methods to be performed of the various embodiments of the invention . The set of instructions can be in the form of a software program. The software can be in various forms, such as system software or application software, and it can be implemented as a tangible and non-transitory computer readable medium. A complete or partial implementation as a finite automaton is also possible. Furthermore, the software can be in the form of a collection of separate programs or modules, such as e.g. B. a neural network model module, a program module within a larger program or part of a program module. The software can also include modular programming in the form of object-oriented programming. The processing of input data by the processing machine may be in response to operator commands or in response to results of previous processing or in response to a request made by another processing machine.

Ultraschallmesssystem mit Deep-LearningUltrasonic measuring system with deep learning

Ein vorschlagegemäßes Ultraschallmesssystem (164) zur Verwendung in Kraftfahrzeugen zum Erkennen von Hindernissen und/oder Objekten im Umfeld eines Fahrzeugs unter Verwendung von Deep-Learning-Verfahren umfasst bevorzugt eine Ultraschallwandleranordnung (11). Diese ist dazu eingerichtet, erste Ultraschallmesswerte zu erfassen. Diese Erfassung erfolgt durch Aussenden von Ultraschallsignalen, die als Burst, Puls oder kodiert ausgesendet werden. Die Ultraschallwandleranordnung besteht dabei bevorzugt aus mehreren Ultraschallsendern und Ultraschallempfängern. Als Bestandteile der Ultraschallwandleranordnung kommen auch Ultraschalltransducer in Betracht, die als Ultraschallsender und Ultraschallempfänger arbeiten können. Die Ultraschallwandleranordnung (11) erzeugt erste Ultraschallmesswerte in Abhängigkeit von den empfangenen Ultraschallsignalen. Hierbei handelt es sich bevorzugt um Ultraschallechosignale der von der Ultraschallanordnung ausgesendeten Ultraschallsignale. Für die Erzeugung einer nutzergerechten Darstellung wird bevorzugt ein Bildprozessor (18) verwendet, der mit der Ultraschallwandleranordnung (11) gekoppelt ist und der zwei- oder dreidimensionale Darstellungen in Abhängigkeit von den ersten Ultraschallmesswerten der Ultraschallwandleranordnung (11) erzeugen kann. Das vorschlagsgemäße Ultraschallmesssystem (164) umfasst des Weiteren bevorzugt einen ersten Speicher (16) mit einem ersten neuronalen Netzwerkmodell (16), das in dem ersten Speicher (16) gespeichert ist. Das erste neuronale Netzwerkmodell (16) kann in Hardware oder als Software auf einem Prozessor realisiert sein. Bevorzugt wird das erste neuronale Netzwerkmodell (16) so angepasst und dazu vorgesehen, dass es die Ultraschallmesswerte von der Ultraschallwandleranordnung (11) ggf. nach Durchgang durch eine geeignete Aufbereitung durch Verstärker, Filter etc. empfangen kann und die Objekte im Umfeld des Fahrzeugs und/oder deren geometrische Anordnung im Umfeld des Fahrzeugs in den ersten Ultraschallmesswerten durch eine Deep-Learning-Technik durch Vergabe einer Identifikation identifizieren kann und somit ein erstes Objekterkennungsergebnis erzeugen kann. Des Weiteren umfasst die vorgeschlagene Vorrichtung eine zwei- oder dreidimensionale Anzeige (19), die zur Anzeige der zwei- oder dreidimensionalen Darstellungen, die durch den Bildprozessor (18) erzeugt wurden, ausgebildet oder geeignet oder vorgesehen ist. Die zwei- oder dreidimensionale Anzeige (19) ist bevorzugt dazu geeignet oder ausgebildet oder vorgesehen, zumindest zeitweise eine der Identifikationen und/oder ersten Objekterkennungsergebnisse und/oder daraus abgeleitete Informationen darzustellen. Es handelt sich somit um ein Ultraschallmesssystem (164) zur Verwendung in Kraftfahrzeugen zum Erkennen von Hindernissen und/oder Objekten im Umfeld eines Fahrzeugs unter Verwendung von Deep-Learning-Verfahren mit einer Ultraschallwandleranordnung (11), die dazu eingerichtet ist, erste Ultraschallmesswerte zu erfassen und einen Bildprozessor (18) umfasst, der mit der Ultraschallwandleranordnung (11) gekoppelt ist und der zwei- oder dreidimensionale Darstellungen in Abhängigkeit von den ersten Ultraschallmesswerten der Ultraschallwandleranordnung (11) erzeugen kann, sowie einen ersten Speicher (16) umfasst mit einem ersten neuronalen Netzwerkmodell (16), das in dem ersten Speicher (16) gespeichert ist und angepasst ist, um die Ultraschallmesswerte zu empfangen und die Objekte und deren geometrische Anordnung im Umfeld des Fahrzeugs in den ersten Ultraschallmesswerten durch eine Deep-Learning-Technik durch Vergabe einer Identifikation zu identifizieren und somit ein erstes Objekterkennungsergebnis zu erzeugen, und mit einer zwei- oder dreidimensionalen Anzeige (19), die zur Anzeige der zwei- oder dreidimensionalen Darstellungen, die durch den Bildprozessor (18) erzeugt wurden, ausgebildet oder geeignet oder vorgesehen ist, wobei die besagte zwei- oder dreidimensionale Anzeige (19) dazu geeignet oder ausgebildet oder vorgesehen ist, zumindest zeitweise eine der Identifikationen und/oder ersten Objekterkennungsergebnisse und/oder daraus abgeleitete Informationen darzustellen.A proposed ultrasonic measuring system ( 164 ) for use in motor vehicles to detect obstacles and / or objects in the The environment of a vehicle using deep learning methods preferably includes an ultrasonic transducer arrangement ( 11 ). This is set up to record the first ultrasonic measured values. This detection takes place by sending out ultrasonic signals that are sent out as burst, pulse or coded. The ultrasonic transducer arrangement preferably consists of several ultrasonic transmitters and ultrasonic receivers. Ultrasonic transducers which can work as ultrasonic transmitters and ultrasonic receivers can also be considered as components of the ultrasonic transducer arrangement. The ultrasonic transducer arrangement ( 11 ) generates the first ultrasonic measured values depending on the received ultrasonic signals. These are preferably ultrasonic echo signals of the ultrasonic signals transmitted by the ultrasonic arrangement. An image processor is preferred to generate a user-friendly representation ( 18th ) is used, which is connected to the ultrasonic transducer arrangement ( 11 ) is coupled and the two- or three-dimensional representations depending on the first ultrasonic measured values of the ultrasonic transducer arrangement ( 11 ) can generate. The proposed ultrasonic measuring system ( 164 ) furthermore preferably comprises a first memory ( 16 ) with a first neural network model ( 16 ), which is in the first memory ( 16 ) is saved. The first neural network model ( 16 ) can be implemented in hardware or as software on a processor. The first neural network model is preferred ( 16 ) adapted and provided so that the ultrasonic measured values from the ultrasonic transducer arrangement ( 11 ) if necessary after passing through a suitable processing by amplifiers, filters etc. and identify the objects in the area around the vehicle and / or their geometric arrangement in the area around the vehicle in the first ultrasonic measured values by means of a deep learning technique by assigning an identification and can thus generate a first object recognition result. Furthermore, the proposed device comprises a two- or three-dimensional display ( 19th ) used to display the two- or three-dimensional representations generated by the image processor ( 18th ) were generated, trained or suitable or intended. The two- or three-dimensional display ( 19th ) is preferably suitable or designed or provided for at least temporarily displaying one of the identifications and / or first object recognition results and / or information derived therefrom. It is therefore an ultrasonic measuring system ( 164 ) for use in motor vehicles to recognize obstacles and / or objects in the vicinity of a vehicle using deep learning methods with an ultrasonic transducer arrangement ( 11 ), which is set up to record the first ultrasound measurement values and an image processor ( 18th ) which is connected to the ultrasonic transducer arrangement ( 11 ) is coupled and the two- or three-dimensional representations depending on the first ultrasonic measured values of the ultrasonic transducer arrangement ( 11 ), as well as a first memory ( 16 ) includes a first neural network model ( 16 ), which is in the first memory ( 16 ) is stored and is adapted to receive the ultrasonic measured values and to identify the objects and their geometric arrangement in the surroundings of the vehicle in the first ultrasonic measured values by means of a deep learning technique by assigning an identification and thus to generate a first object recognition result, and with a two- or three-dimensional display ( 19th ) used to display the two- or three-dimensional representations generated by the image processor ( 18th ) was generated, designed or suitable or provided, said two- or three-dimensional display ( 19th ) is suitable or designed or provided for at least temporarily displaying one of the identifications and / or first object recognition results and / or information derived therefrom.

In einer ersten Verfeinerung dieses Ultraschallmesssystems (164) ist das erste neuronale Netzwerkmodell ferner dazu ausgebildet, die Ansicht der Anordnung von Objekten und/oder Objektkomponenten in den ersten Ultraschallmesswerten und/oder in den zwei- oder dreidimensionalen Darstellungen zu identifizieren. Das erste neuronale Netzwerkmodell hat also die Funktion eines Bilderkennungssystems. In der Grundversion, die zuvor beschrieben wurde, findet die Erkennung alternativ auch aufgrund der Sensorrohdaten statt. Es ist denkbar, in einer derartigen Vorrichtung zum einen eine Erkennung von Anordnungen von Objekten und/oder Objekten im Umfeld des Fahrzeugs auf Basis der Sensorrohdaten, also hier der Ultraschallmesswerte, mit Hilfe eines ersten neuronalen Netzwerkmodells oder auf Basis einer ggf. darauf extrahierten Umfeldkarte mit Hilfe eines zweiten Neuronalen Netzwerkmodells durchzuführen und dann mit Hilfe eines dritten neuronalen Netzwerkmodells zwischen den Ausgangsdatenströmen des ersten neuronalen Netzwerksmodells und des zweiten neuronalen Netzwerkmodells zu unterscheiden. Bevorzugt haben dabei erste Teile der Ausgangsdatenströme des ersten und zweiten neuronalen Netzwerkmodells eine erste Gewichtung und zweite Teile der Ausgangsdatenströme des ersten und zweiten neuronalen Netzwerkmodells eine zweite Gewichtung. Bevorzugt ist die erste Gewichtung höher als die zweite Gewichtung. Dies hat den Zweck, dass sicherheitsrelevante potentiell kritische Konstellationen, die durch ein neuronales Netzwerkmodell des ersten und zweiten neuronalen Netzwerkmodells detektiert wurden, sich auf jeden Fall durchsetzen. Gleiches gilt für Signale in den Sensorrohdaten, die ebenfalls eine hohe Wahrscheinlichkeit für ein kritisches Ereignis signalisieren.In a first refinement of this ultrasonic measuring system ( 164 ) the first neural network model is also designed to identify the view of the arrangement of objects and / or object components in the first ultrasonic measurement values and / or in the two- or three-dimensional representations. The first neural network model thus has the function of an image recognition system. In the basic version, which was described above, the detection takes place alternatively on the basis of the raw sensor data. In such a device, it is conceivable, on the one hand, to recognize arrangements of objects and / or objects in the vicinity of the vehicle on the basis of the raw sensor data, i.e. in this case the ultrasound measurement values, with the aid of a first neural network model or on the basis of an environment map extracted thereon Carry out the aid of a second neural network model and then use a third neural network model to differentiate between the output data streams of the first neural network model and the second neural network model. First parts of the output data streams of the first and second neural network model preferably have a first weighting and second parts of the output data streams of the first and second neural network model have a second weighting. The first weighting is preferably higher than the second weighting. The purpose of this is to ensure that safety-relevant, potentially critical constellations that were detected by a neural network model of the first and second neural network model prevail in any case. The same applies to signals in the raw sensor data, which also indicate a high probability of a critical event.

Das zuvor beschriebene Ultraschallmesssystem (164) umfasst bevorzugt ferner eine Vielzahl von ersten Benutzersteuerungen (10), wobei das Einstellen einer oder mehrerer der ersten Benutzersteuerungen (10) als Reaktion auf die Identifizierung einer Anordnung von Objekten und/oder Objektkomponenten oder von Objekten in den ersten Ultraschallmesswerten und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den ersten Objekterkennungsergebnissen erfolgt. The ultrasonic measuring system described above ( 164 ) preferably further comprises a plurality of first user controls ( 10 ), whereby setting one or more of the first user controls ( 10 ) takes place as a reaction to the identification of an arrangement of objects and / or object components or of objects in the first ultrasonic measurement values and / or in the two- or three-dimensional representations and / or as a function of the first object recognition results.

Bei dem zuvor beschriebenen Ultraschallmesssystem (164) erfolgt bevorzugt das Einstellen oder die Anpassung von Regelparametern einer oder mehrerer der Steuerungen als Reaktion auf die Identifizierung der Anordnung von Objekten und/oder Objektkomponenten in den ersten Ultraschallmesswerten und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den ersten Objekterkennungsergebnissen. Dabei erfolgt bevorzugt das Einstellen einer oder mehrerer der Steuerungen (13) des Ultraschallmesssystems oder des Fahrzeugs als Reaktion auf die Identifizierung von Objekten und/oder Objektkomponenten und/oder der Anordnung von Objekten und/oder Objekten und/oder Objektkomponenten in den ersten Ultraschallmesswerten und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den ersten Objekterkennungsergebnissen.With the ultrasonic measuring system described above ( 164 ) preferably the setting or the adjustment of control parameters of one or more of the controls takes place in response to the identification of the arrangement of objects and / or object components in the first ultrasonic measured values and / or in the two- or three-dimensional representations and / or as a function of the first Object recognition results. One or more of the controls are preferably set here ( 13th ) of the ultrasonic measuring system or the vehicle as a reaction to the identification of objects and / or object components and / or the arrangement of objects and / or objects and / or object components in the first ultrasound measurement values and / or in the two- or three-dimensional representations and / or in Dependence on the first object recognition results.

Ferner umfasst das in diesem Abschnitt beschriebene Ultraschallmesssystem (164) bevorzugt eine Benutzersteuerungsanzeige (9), die Einstellungen anzeigt, die als Reaktion auf die Identifizierung von Objekten und/oder Objektkomponenten und/oder der Anordnung von Objekten und/oder Objektkomponenten in den ersten Ultraschallmesswerten und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit vom ersten Objekterkennungsergebnis gemacht werden.The ultrasonic measurement system described in this section also includes ( 164 ) prefers a user control display ( 9 ), which displays settings made in response to the identification of objects and / or object components and / or the arrangement of objects and / or object components in the first ultrasound measurement values and / or in the two- or three-dimensional representations and / or as a function of the first Object recognition result can be made.

Bei dem hier beschriebenen Ultraschallmesssystem (164) aktiviert bevorzugt die Benutzersteuerungsanzeige (9) eine als Reaktion auf die Identifizierung von Objekten und/oder Objektkomponenten und/oder der Anordnung von Objekten und/oder Objektkomponenten in den ersten Ultraschallmesswerten und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in den ersten Objekterkennungsergebnissen Steuerungsmöglichkeiten und zeigt diese an.With the ultrasonic measuring system described here ( 164 ) preferably activates the user control display ( 9 ) one control options in response to the identification of objects and / or object components and / or the arrangement of objects and / or object components in the first ultrasound measurement values and / or in the two- or three-dimensional representations and / or in the first object recognition results and displays them .

Das in diesem Abschnitt beschriebene Ultraschallmesssystem (164) umfasst zum Zwecke des Trainings des ersten neuronalen Netzwerkmodells (16) bevorzugt auch einen ersten Trainingsbildspeicher (17), der Trainingsbilder für das erste neuronale Netzwerkmodell (16) speichert.The ultrasonic measuring system described in this section ( 164 ) includes for the purpose of training the first neural network model ( 16 ) also prefers a first training image memory ( 17th ), the training images for the first neural network model ( 16 ) saves.

Bei dem in diesem Abschnitt beschriebenen Ultraschallmesssystem (164) ist die Anzeige (19) bevorzugt ferner dazu ausgebildet, die zwei- oder dreidimensionalen Darstellungen anzuzeigen, die zumindest zeitweise zusätzlich mit der durch das erste neuronale Netzwerkmodell (16) bestimmten Identifikation und/oder einem Teil des ersten Objekterkennungsergebnisses versehen sind.With the ultrasonic measuring system described in this section ( 164 ) the display is ( 19th ) preferably also designed to display the two- or three-dimensional representations, which at least at times also contain the information provided by the first neural network model ( 16 ) certain identification and / or a part of the first object recognition result are provided.

Verfahren zum Betreiben eines Ultraschallmesssystems mit Deep-Learni ngProcedure for operating an ultrasonic measuring system with deep learning

Im Rahmen der Ausarbeitung des Vorschlags wurde ein Verfahren zum Erkennen von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten in ersten Ultraschallmesswerten und/oder in den zwei- oder dreidimensionalen Darstellungen, die von ersten Ultraschallmesswerten abhängen, und/oder zum Ermitteln eines ersten Objekterkennungsergebnisses auf Basis von ersten Ultraschallmesswerten erarbeitet. Es umfasst

  1. a) das Installieren (21) eines ersten neuronalen Netzwerkmodells (16) auf einem computerbasierten System. Hierbei kann es sich beispielsweise um ein räumlich separiertes Rechnersystem oder ein Mikrorechnersystem handeln, das beispielsweise mit Teilen der Ultraschallsensoranordung (11) eine Einheit bildet und
  2. b) das Trainieren (22) des ersten neuronalen Netzwerkmodells (16), um die Objekte und/oder Objektkomponenten und/oder Anordnungen von Objekten und/oder Objektkomponenten in den ersten Ultraschallmesswerten und/oder in den zwei- oder dreidimensionalen Darstellungen, die von ersten Ultraschallmesswerten abhängen, zu identifizieren und ein erstes Objekterkennungsergebnis zu erzeugen. Hierbei werden dem ersten neuronalen Netzwerkmodell vorbekannte Ultraschallmesswerte und/oder in den zwei- oder dreidimensionalen Darstellungen, die von ersten Ultraschallmesswerten abhängen, als Eingangssignale des ersten neuronalen Netzwerkmodells (16) präsentiert. Die vom ersten neuronalen Netzwerkmodell (16) erzeugten ersten Ausgangssignale werden beispielsweise durch eine erste Parametermodifikationsvorrichtung (140) für das erste neuronale Netzwerkmodell (16) bewertet. Die erste Parametermodifikationsvorrichtung (140) führt somit eine Bewertung der ersten Ausgangssignale des ersten Netzwerkmodells (16) durch. Je nachdem, ob die Bewertung der ersten Ausgangssignale des ersten Netzwerkmodells (16) durch die erste Parametermodifikationsvorrichtung (140) als positiv oder negativ bewertet wird, führt die erste Parametermodifikationsvorrichtung (140) eine Modifikation der Parameter des ersten neuronalen Netzwerksmodells (16) so durch, dass die eine vorausgegangene Veränderung der Parameter des ersten neuronalen Netzwerkmodells (16) mit vorzugsweise gleichem Vorzeichen erneut durchgeführt wird, wenn der aktuelle Vergleich mit einem Zielwert, insbesondere einem Zielwert für das Bewertungsergebnis der Bewertung durch die erste Parametermodifikationsvorrichtung (140), ein positives Ergebnis liefert, was einer Verbesserung des Erkennungsergebnisses entspricht, und dass die eine vorausgegangene Veränderung der Parameter des ersten neuronalen Netzwerkmodells (16) mit vorzugsweise entgegengesetztem Vorzeichen erneut durchgeführt wird, wenn der aktuelle Vergleich mit einem Zielwert, insbesondere einem Zielwert für das Bewertungsergebnis der Bewertung durch die erste Parametermodifikationsvorrichtung (140), ein negatives Ergebnis liefert, was einer Verschlechterung des Erkennungsergebnisses entspricht. Der jeweilige Vergleich wird bevorzugt auch durch die Parametermodifikationsvorrichtung (140) vorgenommen. Solche Lernalgorithmen können auch abgewandelt werden in der Form, dass nicht nur die unmittelbar vorausgehende Parameteränderung zur Bestimmung der nächsten Änderung im Trainingsprozess herangezogen wird, sondern auch weitere noch früher vorausgehende Änderungen. Auch können die vorausgehenden Änderungen selbst als weitere Eingabeparameter der Parametermodifikationsvorrichtung (140) verwendet werden. Des Weiteren kann der Lernprozess je nach Vorgeschichte und auf die einzelnen Parameter des ersten neuronalen Netzwerkmodells (16) sowie auf einzelne Ausgangssignale des ersten neuronalen Netzwerksmodells (16) bezogen unterschiedlich stark ausgeführt werden. Auch ist eine lineare und/oder nichtlineare Verknüpfung zwischen den Ausgangssignalen des ersten neuronalen Netzwerkmodells (16) und ggf. weiteren Eingangssignalen der Parametermodifikationsvorrichtung (140) auf der einen Seite inkl. der ggf. vorausgehenden Werte dieser Signale, die ggf. zwischengespeichert werden, und dem Bewertungsergebnis und der daraus resultierenden Veränderung der Parameter des ersten neuronalen Netzwerkmodells (16) denkbar und in Abhängigkeit von der jeweiligen Anwendung sinnvoll. Auch kann das Bewertungsergebnis ein Vektor-Signal mehrerer Einzelbewertungsergebnisse sein, was eine Verbesserung des Lernprozesses erlaubt. Beispielsweise kann so sichergestellt werden, dass sicherheitsrelevante Abweichungen von Ausgangssignalen des ersten neuronalen Netzwerkmodells (16) eine wesentlich stärkere Anpassung der Parameter des ersten neuronalen Netzwerkmodells (16) zur Folge haben, als nicht sicherheitsrelevante Abweichungen von Ausgangssignalen des ersten neuronalen Netzwerkmodells (16). Das erste neuronale Netzwerkmodell (16) ist dann fertig trainiert, wenn alle vorgegebenen Eingangstrainingsdatensätze eine positive Bewertung, insbesondere durch die Parametermodifikationsvorrichtung (140), zur Folge haben. D.h. deren Antwort liegt dann innerhalb eines vorgegebenen spezifizierten Bereiches;
  3. c) das Verwenden (25) des trainierten, ersten neuronalen Netzwerkmodells (16) zur Identifizierung von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten in den ersten Live-Ultraschallmesswerten und/oder in den zwei- oder dreidimensionalen Live-Darstellungen, die von den ersten Live-Ultraschallmesswerten abhängen, wobei ein erstes Objekterkennungsergebnis erzeugt wird. Hierbei wird die Ultraschallmessvorrichtung, deren Teil das erste neuronale Netzwerkmodell (116) ist, bestimmungsgemäß zum Identifizieren von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten im Umfeld des beispielhaften Fahrzeugs eingesetzt. Die Ultraschallsensoranordnung (11) sendet dabei Ultraschallsignale aus und empfängt die Echos dieser Ultraschallsignale als Ultraschallmesssignale. Da diese im eigentlichen Betrieb empfangen werden, werden sie hier als Live- Ultraschallmesssignale bezeichnet. Die zugehörigen Messwerte werden hier als Live-Ultraschallmesswerte bezeichnet. Auf Basis dieser Live-Ultraschallmesssignale oder von daraus abgeleiteten Signalen und/oder Informationen führt das erste neuronale Netzwerkmodell (16) die besagte Identifikation von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten im Umfeld des Fahrzeugs dann durch.
As part of the drafting of the proposal, a method for recognizing objects and / or object components and / or arrangements of objects and / or object components in first ultrasonic measured values and / or in the two- or three-dimensional representations that depend on first ultrasonic measured values and / or worked out to determine a first object recognition result on the basis of first ultrasonic measured values. It includes
  1. a) installing ( 21st ) of a first neural network model ( 16 ) on a computer-based system. This can be, for example, a spatially separated computer system or a microcomputer system that, for example, with parts of the ultrasonic sensor arrangement ( 11 ) forms a unit and
  2. b) training ( 22nd ) of the first neural network model ( 16 ) in order to identify the objects and / or object components and / or arrangements of objects and / or object components in the first ultrasound measurement values and / or in the two- or three-dimensional representations that depend on first ultrasound measurement values and to generate a first object recognition result. In this case, ultrasound measurement values known to the first neural network model and / or in the two- or three-dimensional representations that depend on first ultrasound measurement values are used as input signals of the first neural network model ( 16 ) presents. Those from the first neural network model ( 16 ) generated first output signals are for example by a first parameter modification device ( 140 ) for the first neural network model ( 16 ) rated. The first parameter modification device ( 140 ) thus leads to an evaluation of the first output signals of the first network model ( 16 ) by. Depending on whether the evaluation of the first output signals of the first network model ( 16 ) by the first parameter modification device ( 140 ) is evaluated as positive or negative, the first parameter modification device ( 140 ) a modification of the parameters of the first neural Network model ( 16 ) so that the previous change in the parameters of the first neural network model ( 16 ) is carried out again with preferably the same sign if the current comparison with a target value, in particular a target value for the evaluation result of the evaluation by the first parameter modification device ( 140 ), supplies a positive result, which corresponds to an improvement in the recognition result, and that the previous change in the parameters of the first neural network model ( 16 ) is carried out again with preferably the opposite sign if the current comparison with a target value, in particular a target value for the evaluation result of the evaluation by the first parameter modification device ( 140 ), delivers a negative result, which corresponds to a deterioration in the recognition result. The respective comparison is preferably also made by the parameter modification device ( 140 ) performed. Such learning algorithms can also be modified in such a way that not only the immediately preceding parameter change is used to determine the next change in the training process, but also other changes that precede even earlier. The preceding changes themselves can also be used as further input parameters of the parameter modification device ( 140 ) be used. Furthermore, the learning process can be based on the previous history and on the individual parameters of the first neural network model ( 16 ) as well as individual output signals of the first neural network model ( 16 ) based on different strengths. A linear and / or non-linear link between the output signals of the first neural network model ( 16 ) and possibly further input signals of the parameter modification device ( 140 ) on the one hand, including the possibly preceding values of these signals, which may be temporarily stored, and the evaluation result and the resulting change in the parameters of the first neural network model ( 16 ) conceivable and useful depending on the respective application. The evaluation result can also be a vector signal of several individual evaluation results, which allows the learning process to be improved. For example, it can be ensured in this way that safety-relevant deviations from the output signals of the first neural network model ( 16 ) a much stronger adjustment of the parameters of the first neural network model ( 16 ) as non-safety-relevant deviations from the output signals of the first neural network model ( 16 ). The first neural network model ( 16 ) The training is finished when all the specified input training data sets have been evaluated positively, in particular by the parameter modification device ( 140 ), have as a consequence. In other words, their answer is then within a given specified range;
  3. c) using ( 25 ) of the trained, first neural network model ( 16 ) to identify objects and / or object components and / or arrangements of objects and / or object components in the first live ultrasound measurement values and / or in the two- or three-dimensional live representations that depend on the first live ultrasound measurement values, with a first object recognition result is generated. The ultrasonic measuring device, part of which is the first neural network model ( 116 ) is used as intended for identifying objects and / or object components and / or arrangements of objects and / or object components in the vicinity of the exemplary vehicle. The ultrasonic sensor array ( 11 ) sends out ultrasonic signals and receives the echoes of these ultrasonic signals as ultrasonic measurement signals. Since these are received during actual operation, they are referred to here as live ultrasonic measurement signals. The associated measured values are referred to here as live ultrasonic measured values. On the basis of these live ultrasonic measurement signals or signals and / or information derived from them, the first neural network model ( 16 ) the said identification of objects and / or object components and / or of arrangements of objects and / or object components in the vicinity of the vehicle.

Zweckmäßigerweise umfasst das Training (22) des ersten neuronalen Netzwerkmodells (16) auch ein Training (22) mit zuvor aufgezeichneten Ultraschall-Live-Trainingswerten (Daten von Live-Ultraschallmesswerten) von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten im Umfeld des Fahrzeugs und/oder im Umfeld eines prototypischen Fahrzeugs und/oder aus einer Laborszenerie solcher Objekte und/oder Objektkomponenten und/oder solcher Anordnungen von Objekten und/oder Objektkomponenten. Natürlich ist auch die Berechnung solcher aufgezeichneter Ultraschall-Live-Trainingswerte denkbar, beispielsweise um einen guten Startpunkt für das Training des ersten neuronalen Netzwerkmodells (16) zu erzielen.The training expediently includes ( 22nd ) of the first neural network model ( 16 ) also a training ( 22nd ) with previously recorded ultrasound live training values (data from live ultrasound measured values) of objects and / or object components and / or of arrangements of objects and / or object components in the vicinity of the vehicle and / or in the vicinity of a prototypical vehicle and / or from a Laboratory scenery of such objects and / or object components and / or such arrangements of objects and / or object components. Of course, the calculation of such recorded ultrasound live training values is also conceivable, for example to provide a good starting point for training the first neural network model ( 16 ) to achieve.

Das Training (22) des ersten neuronalen Netzwerkmodells (16) kann darüber hinaus auch ein Training (22) mit zwei- oder dreidimensionalen Trainingsdarstellungen umfassen. In dem Fall werden also nicht unmittelbar die Ultraschallmesssignale der Ultraschallwandleranordnung (11) ausgewertet, sondern daraus typischerweise abgeleitete, bevorzugt bildliche zwei- oder dreidimensionale Darstellungen.The workout ( 22nd ) of the first neural network model ( 16 ) can also be a training ( 22nd ) with two- or three-dimensional Include training plots. In this case, the ultrasonic measurement signals of the ultrasonic transducer arrangement ( 11 ), but typically derived, preferably pictorial, two- or three-dimensional representations.

Das Training (22) des ersten neuronalen Netzwerkmodells (16) kann des Weiteren auch ein Training (22) mit Trainingsbildern einer gemeinsamen Anordnung einer Vielzahl von Subjekten umfassen.The workout ( 22nd ) of the first neural network model ( 16 ) a training ( 22nd ) with training images of a common arrangement of a plurality of subjects.

Diese beispielhaften drei Auswertungsmethoden (Training (22) mit Ultraschallmesssignalen und ggf. weitere Messsignalen, Training (22) mit zwei- oder dreidimensionalen Trainingsdarstellungen, Training (22) mit Trainingsbildern) können, wie oben bereits beschrieben, untereinander und mit anderen Trainingsdaten (z.B. simulierten Benutzereingaben) als Trainingsdaten gemischt werden.These exemplary three evaluation methods (training ( 22nd ) with ultrasonic measurement signals and, if necessary, further measurement signals, training ( 22nd ) with two- or three-dimensional training displays, training ( 22nd ) with training images) can, as already described above, be mixed with one another and with other training data (eg simulated user inputs) as training data.

Das Training (22) umfasst dabei bevorzugt das Identifizieren von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten in den zwei- oder dreidimensionalen Trainingsdarstellungen. Dies ermöglicht im späteren Betrieb dann in der Regel eine Identifikation von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten im Umfeld des Fahrzeugs.The workout ( 22nd ) preferably includes the identification of objects and / or object components and / or arrangements of objects and / or object components in the two- or three-dimensional training representations. This then generally enables objects and / or object components and / or arrangements of objects and / or object components in the vicinity of the vehicle to be identified during later operation.

Gleiches gilt für ein alternatives oder ergänzendes Training (22), das das Identifizieren von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten auf Basis der ersten Ultraschallmesswerte der Ultraschallwandleranordnung (11) umfasst. Auch dieses ermöglicht im späteren Betrieb dann in der Regel eine Identifikation von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten im Umfeld des Fahrzeugs. Das Training (22) umfasst somit das Ermitteln eines ersten Objekterkennungsergebnisses durch das erste neuronale Netzwerkmodell (16). Dies kann auf Basis der zwei- oder dreidimensionalen Trainingsdarstellungen und/oder auf Basis der ersten Ultraschallmesswerte der Ultraschallwandleranordnung (11) und ggf. auf Basis zusätzlicher, weiterer Messwerte. Dies kann stattdessen oder parallel dazu auch auf Basis abgeleiteter Messwerte und/oder Signale und/oder Informationen geschehen, die aus den zwei- oder dreidimensionalen Trainingsdarstellungen und/oder aus den ersten Ultraschallmesswerten der Ultraschallwandleranordnung (11) und ggf. aus den zusätzlichen, weiteren Messwerten abgeleitet wurden. Die zwei- oder dreidimensionalen Trainingsdarstellungen im Sinne dieser Offenlegung können real auf einer Anzeige (19) angezeigt werden oder nur als virtueller Datensatz, beispielsweise in Pixelform und/oder vektoriell vorliegen und/oder in komprimierter, beispielsweise objektorientierter Form vorliegen. Eine objektorientierte Form umfasst dabei typischerweise einen Datensatz je Objekt umfassend beispielsweise ein Datum, dass eine Objektklasse angibt, und beispielsweise einen Satz von Koordinaten beispielsweise für Lage und ggf. Orientierung im Raum und ggf. Geschwindigkeit und ggf. Geschwindigkeitsrichtung etc. Des Weiteren kann ein solcher Datensatz beispielsweise die Größe des Objekts und/oder Deformationen des Objekts gegenüber einem Referenzobjektmodell angeben.The same applies to alternative or supplementary training ( 22nd ), which enables the identification of objects and / or object components and / or arrangements of objects and / or object components on the basis of the first ultrasonic measured values of the ultrasonic transducer arrangement ( 11 ) includes. This, too, usually enables objects and / or object components and / or arrangements of objects and / or object components in the vehicle's surroundings to be identified during later operation. The workout ( 22nd ) thus includes the determination of a first object recognition result by the first neural network model ( 16 ). This can be done on the basis of the two- or three-dimensional training representations and / or on the basis of the first ultrasonic measured values of the ultrasonic transducer arrangement ( 11 ) and possibly on the basis of additional, further measured values. Instead or in parallel, this can also be done on the basis of derived measured values and / or signals and / or information obtained from the two- or three-dimensional training representations and / or from the first ultrasonic measured values of the ultrasonic transducer arrangement ( 11 ) and possibly derived from the additional, further measured values. The two- or three-dimensional training representations within the meaning of this disclosure can actually be displayed on a display ( 19th ) or are only available as a virtual data record, for example in pixel form and / or vectorial and / or in compressed, for example object-oriented form. An object-oriented form typically includes a data record for each object including, for example, a date that specifies an object class and, for example, a set of coordinates, for example for position and possibly orientation in space and possibly speed and possibly speed direction, etc. Data record, for example, specify the size of the object and / or deformations of the object compared to a reference object model.

Das erste Objekterkennungsergebnis ist in diesem Sinne also ein ganz allgemeines Ergebnis des ersten neuronalen Netzwerkmodells (16), das insbesondere typischerweise das wesentliche Eingangssignal der bevorzugt vorhandenen ersten Parametermodifikationsvorrichtung (140) ist, die bevorzugt vor allem während des Trainings (22) die Parameter des ersten neuronalen Netzwerkmodells (16) je nach Ergebnis der Bewertung anpasst und so das Training (22) durchführt. Hierfür werden der ersten Parametermodifikationsvorrichtung (140) zur den dem ersten neuronalen Netzwerkmodell präsentierten Eingangsdaten passende Referenzwerte übermittelt. Die Parametermodifikationsvorrichtung (140) vergleicht den jeweiligen Referenzwert zu einem Satz von Eingangsdaten für das erste neuronale Netzwerkmodell (16) mit dem ersten Objekterkennungsergebnis des ersten neuronalen Netzwerkmodells (16) und erzeugt aufgrund des Vergleichsergebnisses eine Modifikation der Parameter des ersten neuronalen Netzwerkmodells (16). Das Training (22) kann im Zielsystem durchgeführt werden. Es ist in der Praxis aber auch sinnvoll, das Training (22) mittels einer anderen Vorrichtung, die baugleich oder in wesentlichen Teilen ausreichend ähnlich ist, auszuführen. Eine solche andere Vorrichtung kann beispielsweise ein nicht serientauglicher Laboraufbau der Ultraschallmessvorrichtung oder von Teilen davon sein, der den beabsichtigten Zweck der Durchführung des Trainings (22) und der Ermittlung der Parameterdaten für das erste neuronale Netzwerkmodell (16) erfüllt und/oder dazu bestimmt ist. Die mittels des Trainings (22) ermittelten Parameter des ersten neuronalen Netzwerkmodells (16) werden nach Abschluss des Trainings (22) dann in einem Speicher oder auf einem anderen Speichermedium abgespeichert und zu gegebener Zeit, beispielsweise kurz vor Ende der Produktion einer anderen Ziel-Ultraschallmessvorrichtung gleicher oder ähnlicher Bauart dann in deren erstes neuronales Netzwerkmodell (16) dieser Ziel-Ultraschallmessvorrichtung geladen. Auch ist es denkbar, die ermittelten Parameter des ersten neuronalen Netzwerkmodells (16) beim Entwurf einer solchen Ziel-Ultraschallmessvorrichtung zu berücksichtigen und die Konstruktion der Ziel-Ultraschallmessvorrichtung so zu gestalten, dass die ermittelten Parameter beispielsweise durch feste Verdrahtung von Schaltungsteilen einer beispielhaften Ziel-Ultraschallmessvorrichtung fest vorgegeben sind. Nicht alle Parameter müssen dabei einerseits entweder programmierbar oder einstellbar oder andererseits fest vorgegeben sein. Vielmehr können beispielsweise einige Parameter fest verdrahtet sein und andere Parameter programmierbar gestaltet sein. Dies hat den Vorteil, dass eine schaltungstechnisch aufwendigere Programmierbarkeit und/oder Einstellbarkeit auf die unbedingt nötigen Teile ggf. beschränkt werden kann.In this sense, the first object recognition result is a very general result of the first neural network model ( 16 ), which in particular is typically the essential input signal of the preferably present first parameter modification device ( 140 ), which is preferred especially during exercise ( 22nd ) the parameters of the first neural network model ( 16 ) adjusts depending on the result of the assessment and thus the training ( 22nd ) performs. For this purpose, the first parameter modification device ( 140 ) transmitted reference values matching the input data presented to the first neural network model. The parameter modification device ( 140 ) compares the respective reference value to a set of input data for the first neural network model ( 16 ) with the first object recognition result of the first neural network model ( 16 ) and generates a modification of the parameters of the first neural network model based on the comparison result ( 16 ). The workout ( 22nd ) can be carried out in the target system. In practice, however, it also makes sense to do the training ( 22nd ) by means of another device which is structurally identical or sufficiently similar in essential parts. Such another device can be, for example, a laboratory setup of the ultrasonic measuring device or parts thereof that is not suitable for series production, which fulfills the intended purpose of performing the training 22nd ) and the determination of the parameter data for the first neural network model ( 16 ) is fulfilled and / or intended. The through training ( 22nd ) determined parameters of the first neural network model ( 16 ) after completion of the training ( 22nd ) then stored in a memory or on another storage medium and at a given time, for example shortly before the end of production of another target ultrasonic measuring device of the same or similar design, then in its first neural network model 16 ) of this target ultrasonic measuring device. It is also conceivable to use the determined parameters of the first neural network model ( 16 ) to take into account when designing such a target ultrasonic measuring device and to design the construction of the target ultrasonic measuring device in such a way that the determined parameters, for example, by hard wiring of circuit parts of an exemplary target Ultrasonic measuring device are fixed. Not all parameters have to be either programmable or adjustable on the one hand, or fixed on the other hand. Rather, for example, some parameters can be hard-wired and other parameters can be designed to be programmable. This has the advantage that programmability and / or adjustability that is more complex in terms of circuitry can be limited to the absolutely necessary parts.

Das besagte Training (22) kann in dem hier vorgestellten Vorschlag im Falle programmierbarer oder einstellbarer Parameter ggf. auch während des Betriebs (der Verwendung (25)) unter bestimmten Bedingungen fortgesetzt werden, die später diskutiert werden, weshalb die hier beschriebene Vorrichtung dann selbstlernfähig ist. Insofern kann sich das Training (22) im Selbstlernbetrieb auch mit der oben bereits beschriebenen Verwendung (25) abwechseln. Bevorzugt, aber nicht zwangsweise, weist also ein erfindungsgemäßes Verfahren beispielsweise Phasen des Trainings (22) und Phasen der Verwendung (25) auf, die sich beispielsweise ggf. auch abwechseln können. Vor der ersten Verwendung (25) erfolgt bevorzugt jedoch typischerweise ein Training (22) oder bevorzugt zumindest eine Programmierung mit oder eine Einstellung entsprechend zuvor ermittelter Parametersätze des ersten neuronalen Netzwerkmodells (16), die mittels einer gleichen oder ausreichend ähnlichen Ultraschallmessvorrichtung oder einer ausreichend übereinstimmenden Simulationsvorrichtung ermittelt wurden. Besonders bevorzugt ist die Aufzeichnung solcher Ultraschallmesswerte und der notwendigen Trainingsdaten mit Testfahrzeugen im realen Straßenverkehr der Zielmärkte. Aus den aufgezeichneten Daten werden dann im Labor die notwendigen Parametersätze des ersten neuronalen Netzwerkmodells (16) berechnet oder sonst wie ermittelt, mit denen die Erstprogrammierung bzw. Ersteinstellung der Ziel-Ultraschallsysteme erfolgt oder aus denen die Konstruktionsdaten für die fest verdrahteten Teile des ersten neuronalen Netzwerks (16) ermittelt werden.Said training ( 22nd ) can in the proposal presented here, in the case of programmable or adjustable parameters, possibly also during operation (use ( 25 )) under certain conditions, which will be discussed later, which is why the device described here is then self-learning. In this respect, the training ( 22nd ) in self-learning mode also with the use already described above ( 25 ) alternate. Preferably, but not necessarily, a method according to the invention therefore has phases of training ( 22nd ) and phases of use ( 25 ) which, for example, can alternate if necessary. Before using for the first time ( 25 ) but typically a training ( 22nd ) or preferably at least one programming with or a setting according to previously determined parameter sets of the first neural network model ( 16 ), which were determined by means of an identical or sufficiently similar ultrasonic measuring device or a sufficiently matching simulation device. The recording of such ultrasonic measured values and the necessary training data with test vehicles in real traffic in the target markets is particularly preferred. The necessary parameter sets for the first neural network model ( 16 ) calculated or otherwise determined with which the initial programming or initial setting of the target ultrasound systems is carried out or from which the design data for the hard-wired parts of the first neural network ( 16 ) be determined.

Bevorzugt wird die so durch das erste neuronale Netzwerkmodell (16) erfolgte Identifizierung der Objekte und/oder Objektkomponenten und/oder Anordnungen von Objekten und/oder Objektkomponenten und/oder der ersten Objekterkennungsergebnisse des ersten neuronalen Netzwerkmodells (16) verwendet, um die zwei- oder dreidimensionalen Darstellungen, die von Ultraschallmesswerten der Ultraschallsensoranordnung (11) und ggf. weiteren Messwerten weiterer Sensoren oder daraus abgeleiteten Signalen oder Information abhängen, bei der Darstellung auf einem Bildschirm, beispielsweise in einer dargestellten Umfeldkarte eines Fahrzeugs für die Nutzung durch den Fahrer zu kommentieren. Insbesondere ist es wünschenswert besonders gefährliche und/oder sonst wie relevante Objekte bei der Darstellung auf einer Anzeige (19) für den Fahrzeugführer hervorzuheben.The first neural network model ( 16 ) the objects and / or object components and / or arrangements of objects and / or object components and / or the first object recognition results of the first neural network model ( 16 ) is used to create the two- or three-dimensional representations generated by ultrasonic readings from the ultrasonic sensor array ( 11 ) and possibly further measured values of further sensors or signals or information derived therefrom, to be commented on in the display on a screen, for example in a displayed map of the surroundings of a vehicle for use by the driver. In particular, it is desirable that particularly dangerous and / or otherwise relevant objects are shown on a display ( 19th ) for the driver.

Somit umfasst das vorgeschlagene Verfahren in einer Variante auch das Verwenden der Identifizierung der Objekte und/oder Objektkomponenten und/oder Anordnungen von Objekten und/oder Objektkomponenten und/oder der ersten Objekterkennungsergebnisse in einer solchen Umfeldkarte der Umgebung des Fahrzeugs und/oder zur Information des Fahrers durch eine zwei- oder dreidimensionale Darstellung und/oder zur Information des Fahrers durch ein Steuerungssystem und/oder Steuergerät zur Steuerung und/oder Regelung von autonomen Fahren und/oder autonomen Parken.Thus, in one variant, the proposed method also includes the use of the identification of the objects and / or object components and / or arrangements of objects and / or object components and / or the first object recognition results in such a map of the surroundings of the vehicle and / or for informing the driver by means of a two- or three-dimensional representation and / or for informing the driver by a control system and / or control device for controlling and / or regulating autonomous driving and / or autonomous parking.

Zweites Messsystem mit Deep-LearningSecond measurement system with deep learning

Das zuvor in Abschnitt A) beschriebene Ultraschallmesssystem (164) kann zu einem zweiten Messsystem (161) zur Verwendung in Kraftfahrzeugen zum Erkennen von Hindernissen und/oder Objekten und/oder Objektkomponenten und/oder zur Erkennung von Anordnungen von Hindernissen und/oder Objekten und/oder Objektkomponenten im Umfeld eines Fahrzeugs unter Verwendung von Deep-Learning-Verfahren abgewandelt werden. Die charakteristische Struktur des im Folgenden beschriebenen zweiten Messsystems (161) stimmt mit dem in Abschnitt A) des beschriebenen Ultraschallmesssystems (164) überein. Statt einer Ultraschallsensoranordnung (11), beispielsweise von Transducern, wird nun eine Sensoranordnung weiterer Sensoren (131) verwendet. Hierbei kann es sich um einen einzelnen Sensor oder eine Mehrzahl von Sensoren handeln. Beispielsweise kann es sich um ein LIDAR-System oder ein RADAR handeln. Statt des ersten neuronalen Netzwerkmodells (16) umfasst das zweite Messsystem (161) ein zweites neuronales Netzwerkmodell (136). Der Aufbau des zweiten Messsystems (161) ist aber analog zu dem in Abschnitt A) beschriebenen Ultraschallmesssystem (164). Der Vollständigkeit halber wird der Aufbau dieses zweiten Messsystems (161) im Folgenden nochmals beschrieben. Sofern der Unterschied zwischen dem Messprinzip „Ultraschall“ des in Abschnitt A) beschriebenen Ultraschallmesssystems (164) und dem Messprinzip des im Folgenden beschriebenen zweiten Messsystems (161) keine Abweichung in der jeweils beschriebenen Strukturkomponente zwingend erfordert, gilt das in Abschnitt A) über das Ultraschallmesssystem (164) Geschriebene jeweils auch zumindest im übertragenen Sinne für dieses zweite Messsystem (161) .The ultrasonic measuring system described in Section A) above ( 164 ) can be connected to a second measuring system ( 161 ) for use in motor vehicles for the detection of obstacles and / or objects and / or object components and / or for the detection of arrangements of obstacles and / or objects and / or object components in the vicinity of a vehicle using deep learning methods. The characteristic structure of the second measuring system described below ( 161 ) agrees with the ultrasonic measuring system described in section A) ( 164 ) match. Instead of an ultrasonic sensor arrangement ( 11 ), for example of transducers, a sensor arrangement of further sensors ( 131 ) used. This can be a single sensor or a plurality of sensors. For example, it can be a LIDAR system or a RADAR. Instead of the first neural network model ( 16 ) includes the second measuring system ( 161 ) a second neural network model ( 136 ). The structure of the second measuring system ( 161 ) is analogous to the ultrasonic measuring system described in Section A) ( 164 ). For the sake of completeness, the structure of this second measuring system ( 161 ) described again below. If the difference between the "ultrasonic" measuring principle of the ultrasonic measuring system described in section A) ( 164 ) and the measuring principle of the second measuring system described below ( 161 ) does not necessarily require a deviation in the structural component described in each case, the same applies in Section A) via the ultrasonic measuring system ( 164 ) Written notes, at least in the figurative sense, for this second measuring system ( 161 ).

Das derartig abgewandelte, vorgeschlagene zweite Messsystem (161) umfasst dann die besagte zweite Sensoranordnung (131), die dazu eingerichtet ist, zweite Sensormesswerte zu erfassen, sowie einen Bildprozessor (18) umfasst, der mit der zweiten Sensoranordnung (131) gekoppelt ist und der zwei- oder dreidimensionale Darstellungen in Abhängigkeit von den zweiten Sensormesswerten der zweiten Sensoranordnung (131) erzeugen kann, einen zweiten Speicher (136) mit einem zweiten neuronalen Netzwerkmodell (136) umfasst, das in dem zweiten Speicher (136) gespeichert ist und angepasst ist, um die zweiten Sensormesswerte zu empfangen und die Objekte und deren geometrische Anordnung im Umfeld des Fahrzeugs in den zweiten Sensormesswerten durch eine Deep-Learning-Technik durch Vergabe einer zweiten Identifikation zu identifizieren und somit ein zweites Objekterkennungsergebnis zu erzeugen, und eine zwei- oder dreidimensionale Anzeige (19), die zur Anzeige der zwei- oder dreidimensionalen Darstellungen, die durch den Bildprozessor (18) erzeugt wurden, ausgebildet oder geeignet oder vorgesehen ist. Dabei ist die zwei- oder dreidimensionale Anzeige (19) bevorzugt dazu geeignet und/oder ausgebildet und/oder vorgesehen, zumindest zeitweise eine der zweiten Identifikationen und/oder zweiten Objekterkennungsergebnisse und/oder daraus abgeleitete Informationen und/oder Signale darzustellen.The proposed second measuring system modified in this way ( 161 ) then comprises said second sensor arrangement ( 131 ), which is set up to record second sensor readings, as well as an image processor ( 18th ) that includes the second sensor arrangement ( 131 ) is coupled and the two- or three-dimensional representations depending on the second sensor measured values of the second sensor arrangement ( 131 ) can generate a second memory ( 136 ) with a second neural network model ( 136 ) which is stored in the second memory ( 136 ) is stored and adapted to receive the second sensor measured values and to identify the objects and their geometric arrangement in the surroundings of the vehicle in the second sensor measured values by means of a deep learning technique by assigning a second identification and thus to generate a second object recognition result, and a two- or three-dimensional display ( 19th ) used to display the two- or three-dimensional representations generated by the image processor ( 18th ) were generated, trained or suitable or intended. The two- or three-dimensional display ( 19th ) preferably suitable and / or designed and / or provided to display at least one of the second identifications and / or second object recognition results and / or information and / or signals derived therefrom.

Das zweite neuronale Netzwerkmodell (136) ist ferner bevorzugt dazu ausgebildet, die Ansicht der Anordnung von Objekten und/oder Objektkomponenten in den zweiten Sensormesswerten der zweiten Sensoranordnung (131) und/oder in den zwei- oder dreidimensionalen Darstellungen zu identifizieren. Da in vielen Fällen nicht die Natur der Objekte ein Problem darstellt, sondern deren Anordnung zueinander bzw. die Veränderung dieser Anordnung über die Zeit, ist dies von Vorteil. In der Regel soll daher auch dies durch die hier vorgestellten Verfahren erfasst werden.The second neural network model ( 136 ) is also preferably designed to display the arrangement of objects and / or object components in the second measured values of the second sensor arrangement ( 131 ) and / or to be identified in the two- or three-dimensional representations. Since in many cases it is not the nature of the objects that is a problem, but their arrangement to one another or the change in this arrangement over time, this is an advantage. As a rule, this should therefore also be recorded by the methods presented here.

Das vorgeschlagene zweite Messsystem (161) umfasst bevorzugt ferner eine Vielzahl von zweiten Benutzersteuerungen (130), wobei das Einstellen einer oder mehrerer der zweiten Benutzersteuerungen (130) als Reaktion auf die Identifizierung einer Anordnung von Objekten und/oder Objektkomponenten in den zweiten Sensormesswerten und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den zweiten Objekterkennungsergebnissen erfolgt. Beispielsweise kann der Fahrzeugführer von ihm als besonders gefährlich erachtete Objekte (z.B. spielende Kinder oder leicht zu übersehende Objekte wie Pfosten etc.) in seiner Darstellung markieren. Das Messsystem (bzw. das Ultraschallmesssystem (164) im Falle der Vorrichtung A) kann dann zum Ersten die Bewegung dieser als kritisch identifizierten Objekte relativ zum Fahrzeug, beispielsweise während eines Einparkvorgangs, verfolgen. Zum Zweiten kann diese Benutzereingabe als Trainingssignal für das erste neuronale Netzwerkmodell (16) im Falle eines Ultraschallmesssystems (164) bzw. für das zweite neuronale Netzwerkmodelle (136) im Falle eines zweiten Messsystems (161) verwendet werden.The proposed second measuring system ( 161 ) preferably further comprises a multiplicity of second user controls ( 130 ), whereby setting one or more of the second user controls ( 130 ) takes place as a reaction to the identification of an arrangement of objects and / or object components in the second sensor measurement values and / or in the two- or three-dimensional representations and / or as a function of the second object recognition results. For example, the vehicle driver can mark objects that he considers particularly dangerous (for example children playing or objects that are easy to overlook such as posts, etc.) in his representation. The measuring system (or the ultrasonic measuring system ( 164 ) In the case of device A), first of all, the movement of these objects identified as critical relative to the vehicle, for example during a parking maneuver, can be tracked. Second, this user input can be used as a training signal for the first neural network model ( 16 ) in the case of an ultrasonic measuring system ( 164 ) or for the second neural network model ( 136 ) in the case of a second measuring system ( 161 ) be used.

Bei dem vorgeschlagenen zweiten Messsystem (161) erfolgt bevorzugt das Einstellen oder die Anpassung von Regelparametern einer Steuerung der Steuerungen oder mehrerer Steuerungen der Steuerungen des Fahrzeugs oder von Fahrzeugkomponenten, beispielsweise einer Beleuchtung und/oder eines Warnsignalgebers, als Reaktion auf die Identifizierung der Anordnung von Objekten und/oder Objektkomponenten in den zweiten Sensormesswerten der zweiten Sensoranordnung (131) und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den zweiten Objekterkennungsergebnissen des zweiten neuronalen Netzwerkmodells (136). With the proposed second measuring system ( 161 ) the setting or adjustment of control parameters of a control of the controls or several controls of the controls of the vehicle or of vehicle components, for example lighting and / or a warning signal generator, is preferably carried out in response to the identification of the arrangement of objects and / or object components in the second Sensor measured values of the second sensor arrangement ( 131 ) and / or in the two- or three-dimensional representations and / or depending on the second object recognition results of the second neural network model ( 136 ).

Bei dem vorgeschlagenen zweiten Messsystem (161) erfolgt ferner bevorzugt das Einstellen einer oder mehrerer der Steuerungen des zweiten Messsystems (161) oder des Fahrzeugs oder von Fahrzeugkomponenten als Reaktion auf die Identifizierung von Objekten und/oder Objektkomponenten und/oder der Anordnung von Objekten und/oder Objektkomponenten in den zweiten Sensormesswerten der zweiten Sensoranordnung (131) und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den zweiten Objekterkennungsergebnissen des zweiten neuronalen Netzwerkmodells (136).With the proposed second measuring system ( 161 ) one or more of the controls of the second measuring system are preferably set ( 161 ) or the vehicle or vehicle components as a reaction to the identification of objects and / or object components and / or the arrangement of objects and / or object components in the second sensor measured values of the second sensor arrangement ( 131 ) and / or in the two- or three-dimensional representations and / or depending on the second object recognition results of the second neural network model ( 136 ).

Das vorgeschlagene zweite Messsystem (161) umfasst ferner bevorzugt eine Benutzersteuerungsanzeige (9), die Einstellungen anzeigt, die als Reaktion auf die Identifizierung von Objekten und/oder Objektkomponenten und/oder der Anordnung von Objekten und/oder Objektkomponenten in den zweiten Sensormesswerten der zweiten Sensoranordnung (131) und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit vom zweiten Objekterkennungsergebnis des zweiten neuronalen Netzwerkmodells (136) gemacht werden.The proposed second measuring system ( 161 ) further preferably includes a user control display ( 9 ), which displays settings that are made in response to the identification of objects and / or object components and / or the arrangement of objects and / or object components in the second sensor measured values of the second sensor arrangement ( 131 ) and / or in the two- or three-dimensional representations and / or as a function of the second object recognition result of the second neural network model ( 136 ) be made.

Die Benutzersteuerungsanzeige (9) aktiviert ferner als Reaktion auf die Identifizierung von Objekten und/oder Objektkomponenten und/oder der Anordnung von Objekten und/oder Objektkomponenten in den zweiten Sensormesswerten der zweiten Sensoranordnung (131) und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den ersten Objekterkennungsergebnissen des zweiten neuronalen Netzwerkmodells (136) Steuerungsmöglichkeiten der Messvorrichtung und/oder der Ultraschallmessvorrichtung und/oder des Fahrzeugs und/oder von Fahrzeugkomponenten und -teilen. Die Benutzersteuerungsanzeige (9) zeigt diese Steuerungsmöglichkeiten bevorzugt ebenfalls oder alternativ an.The user control display ( 9 ) further activated in response to the identification of objects and / or object components and / or the arrangement of objects and / or object components in the second sensor measured values of the second sensor arrangement ( 131 ) and / or in the two- or three-dimensional representations and / or depending on the first object recognition results of the second neural network model ( 136 ) Control options for the measuring device and / or the ultrasonic measuring device and / or the vehicle and / or vehicle components and parts. The user control display ( 9 ) preferably also or alternatively shows these control options.

Das vorgeschlagene zweite Messsystem (161) umfasst ferner bevorzugt einen zweiten Trainingsbildspeicher (137), der Trainingsbilder für das zweite neuronale Netzwerkmodell (136) speichert. Diese Trainingsbilder können beispielsweise, wie zuvor bereits beschrieben in Form von Pixeldaten oder als vektorielle Daten oder als komprimierte objektorientierte Daten vorliegen. The proposed second measuring system ( 161 ) furthermore preferably comprises a second training image memory ( 137 ), the training images for the second neural network model ( 136 ) saves. These training images can, for example, as already described above, be present in the form of pixel data or as vector data or as compressed object-oriented data.

Bevorzugt ist die Anzeige (19) im Falle des zweiten Messsystems (161) ferner dazu ausgebildet, die zwei- oder dreidimensionalen Darstellungen anzuzeigen, die zumindest zeitweise zusätzlich mit der durch das zweite neuronale (136) Netzwerkmodell bestimmten Identifikation und/oder einem Teil des zweiten Objekterkennungsergebnisses des zweiten neuronalen (136) Netzwerkmodells versehen sind.The preferred display is ( 19th ) in the case of the second measuring system ( 161 ) is also designed to display the two- or three-dimensional representations, which are at least temporarily additionally linked to the second neural ( 136 ) Network model-specific identification and / or part of the second object recognition result of the second neural ( 136 ) Network model.

Zweites Verfahren für das zweite MesssystemSecond method for the second measuring system

Das vorgeschlagene Verfahren zum Erkennen von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten in zweiten Sensormesswerten einer zweiten Sensoranordnung (131) und/oder in den zwei- oder dreidimensionalen Darstellungen, die von zweiten Sensormesswerten der zweiten Sensoranordnung (131) abhängen, und/oder zum Ermitteln eines zweiten Objekterkennungsergebnisses auf Basis von zweiten Sensormesswerten der zweiten Sensoranordnung (131) umfasst u.a. folgende Schritte:

  • • Das Verfahren umfasst den Schritt des Installierens (51) des zweiten neuronalen Netzwerkmodells (136) auf einem computerbasierten System, beispielsweise einem Laborrechner.
  • • Das Verfahren umfasst den Schritt des Trainierens (52) des zuvor installierten zweiten neuronalen Netzwerkmodells (136) mit synthetisch per Simulation ermittelten und/oder zuvor aufgezeichneten Trainingsdaten zweiter Sensormesswerte der zweiten Sensoranordnung (131), die bevorzugt manuell oder sonst wie zuvor bereits durch Bewertung mit um Bewertungsdaten ergänzt wurden. Dies hat das Ziel, die Objekte und/oder Objektkomponenten und/oder Anordnungen von Objekten und/oder Objektkomponenten in den zweiten Sensormesswerten der zweiten Sensoranordnung (131) und/oder in den zwei- oder dreidimensionalen Darstellungen, die von zweiten Sensormesswerten der zweiten Sensoranordnung (131) abhängen, zu identifizieren und somit ein zweites Objekterkennungsergebnis des zweiten neuronalen Netzwerkmodells (136) zu erzeugen, das mit den betreffenden Bewertungsdaten verglichen werden kann. Auf Basis des jeweiligen Vergleichsergebnisses kann dann eine Anpassung der Parameter des zweiten neuronalen Netzwerks (136) erfolgen.
  • • Das Verfahren umfasst den Schritt des Verwendens (54) des trainierten zweiten neuronalen Netzwerkmodells (136) zur Identifizierung von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten in den zweiten Sensormesswerten und/oder in den zwei- oder dreidimensionalen Darstellungen, die von zweiten Sensormesswerten abhängen, wobei ein zweites Objekterkennungsergebnis erzeugt wird. Dabei werden die im Training (52) ermittelten Parameter in das zweite neuronale Netzwerkmodell (136) eines Ziel-Messsystems geladen und/oder eingestellt und/oder diese Parameter werden bei der Konstruktion des Ziel-Messsystems dazu verwendet, zumindest Teile dieser Parameter beispielsweise durch feste Verdrahtung innerhalb der Vorrichtung, die das zweite neuronale Netzwerkmodell realisiert, fest einzustellen.
The proposed method for recognizing objects and / or object components and / or arrangements of objects and / or object components in second sensor measured values of a second sensor arrangement ( 131 ) and / or in the two- or three-dimensional representations that are derived from second sensor measured values of the second sensor arrangement ( 131 ) depend, and / or to determine a second object recognition result on the basis of second sensor measured values of the second sensor arrangement ( 131 ) includes the following steps:
  • • The procedure includes the step of installing ( 51 ) of the second neural network model ( 136 ) on a computer-based system, for example a laboratory computer.
  • • The procedure includes the step of training ( 52 ) of the previously installed second neural network model ( 136 ) with synthetic training data determined by simulation and / or previously recorded from second sensor measurement values of the second sensor arrangement ( 131 ), which were preferably supplemented manually or otherwise, as before, with evaluation data. The aim of this is to find the objects and / or object components and / or arrangements of objects and / or object components in the second sensor measured values of the second sensor arrangement ( 131 ) and / or in the two- or three-dimensional representations that are derived from second sensor measured values of the second sensor arrangement ( 131 ) depend, to identify and thus a second object recognition result of the second neural network model ( 136 ) that can be compared with the relevant evaluation data. On the basis of the respective comparison result, an adjustment of the parameters of the second neural network ( 136 ) respectively.
  • • The procedure includes the step of using ( 54 ) of the trained second neural network model ( 136 ) for identifying objects and / or object components and / or arrangements of objects and / or object components in the second sensor measurement values and / or in the two- or three-dimensional representations that depend on second sensor measurement values, a second object recognition result being generated. The training ( 52 ) determined parameters into the second neural network model ( 136 ) a target measuring system is loaded and / or set and / or these parameters are used in the construction of the target measuring system to permanently set at least parts of these parameters, for example by hard wiring within the device that realizes the second neural network model.

Das Training (52) des zweiten neuronalen Netzwerkmodells (136) umfasst somit bevorzugt ein Training (52) mit Sensor-Live-Trainingswerten der zweiten Sensoranordnung (131) von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten und/oder mit zwei- oder dreidimensionalen Trainingsdarstellungen, mit Trainingsbildern einer gemeinsamen Anordnung einer Vielzahl von Subjekten.The workout ( 52 ) of the second neural network model ( 136 ) thus preferably includes training ( 52 ) with sensor live training values of the second sensor arrangement ( 131 ) of objects and / or object components and / or of arrangements of objects and / or object components and / or with two- or three-dimensional training representations, with training images of a common arrangement of a large number of subjects.

Das Training (52) umfasst ebenso bevorzugt das Identifizieren von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten in den zwei- oder dreidimensionalen Trainingsdarstellungen und bevorzugt die Bewertung dieser Identifizierungen im Hinblick auf ggf. zuvor manuell oder automatisch ermittelte Bewertungsdaten, die diesen zwei- oder dreidimensionalen Trainingsdarstellungen zuzuordnen sind. Auch kann das Training (52) das Identifizieren von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten auf Basis der zweiten Sensormesswerte der zweiten Sensoranordnung (131) unter bevorzugter Zuhilfenahme von vorhandenen Bewertungsdaten nach erfolgter Bewertung dieser Identifizierung ggf. mit Hilfe von zuvor manuell oder automatisch ermittelten Bewertungsdaten umfassen, die diesen zweiten Sensormesswerte der zweiten Sensoranordnung (131) zuzuordnen sind. Des Weiteren kann das Training (52) das Ermitteln eines zweiten Objekterkennungsergebnisses auf Basis der zwei- oder dreidimensionalen Trainingsdarstellungen und dessen Bewertung ggf. mit Hilfe von zuvor manuell oder automatisch ermittelten Bewertungsdaten umfassen. Dabei umfasst das Training (52) das Ermitteln eines zweiten Objekterkennungsergebnisses auf Basis der zweiten Sensormesswerte der zweiten Sensoranordnung (131).The workout ( 52 ) also preferably includes the identification of objects and / or object components and / or arrangements of objects and / or object components in the two- or three-dimensional training representations and preferably the assessment of these identifications with regard to any previously manually or automatically ascertained assessment data, which these are to be assigned to two- or three-dimensional training representations. The training ( 52 ) the identification of objects and / or object components and / or arrangements of objects and / or object components on the basis of the second sensor measured values of the second sensor arrangement ( 131 ) with the preferred use of existing evaluation data after this identification has been evaluated, possibly with the help of evaluation data previously determined manually or automatically, which these second sensor measured values of the second sensor arrangement ( 131 ) are to be assigned. Furthermore, the training ( 52 ) include the determination of a second object recognition result on the basis of the two- or three-dimensional training representations and its evaluation, if necessary with the aid of evaluation data previously determined manually or automatically. The training includes ( 52 ) the determination of a second object recognition result on the basis of the second measured values of the second sensor arrangement ( 131 ).

Bevorzugt umfasst das Verfahren das Verwenden der Identifizierung der Objekte und/oder Objektkomponenten und/oder Anordnungen von Objekten und/oder Objektkomponenten und/oder der zweiten Objekterkennungsergebnisse, um die zwei- oder dreidimensionalen Darstellungen, die von Sensormesswerten abhängen, zu kommentieren. The method preferably includes using the identification of the objects and / or object components and / or arrangements of objects and / or object components and / or the second object recognition results in order to comment on the two- or three-dimensional representations that depend on sensor measured values.

In einer weiteren Verfeinerung dieser Variante umfasst das Verfahren das Verwenden der Identifizierung der Objekte und/oder Objektkomponenten und/oder Anordnungen von Objekten und/oder Objektkomponenten und/oder der zweiten Objekterkennungsergebnisse in einer Umfeldkarte der Umgebung des Fahrzeugs und/oder zur Information des Fahrers durch eine zwei- oder dreidimensionale Darstellung und/oder durch ein Steuerungssystem und/oder Steuergerät zur Steuerung und/oder Regelung von autonomen Fahren und/oder Parken.In a further refinement of this variant, the method includes the use of the identification of the objects and / or object components and / or arrangements of objects and / or object components and / or the second object recognition results in a map of the surroundings of the vehicle and / or for informing the driver a two- or three-dimensional representation and / or by a control system and / or control device for controlling and / or regulating autonomous driving and / or parking.

Erstes Kombinationsverfahren mit Verwendung des ersten Ultraschallmesssystems und des zweiten MesssystemsFirst combination method using the first ultrasonic measuring system and the second measuring system

Die beiden Verfahren B und D können bei Benutzung einer kombinierten Vorrichtung aus einem ersten Ultraschallmesssystem (164) gemäß Abschnitt A) und einem zweiten Messsystem (161) gemäß Abschnitt C) miteinander kombiniert werden. Hierbei ist die Frage, wie die aus dem ersten Objekterkennungsergebnis des ersten Ultraschallmesssystems (164) und dem zweiten Objekterkennungsergebnis des zweiten Messsystems (161) eine gemeinsame Objekterkennungshypothese erzeugt wird. Diese Erzeugung einer geneinsamen Objekterkennungshypothese soll dabei bevorzugt selbstlernend sein. Das im Folgenden beschriebene Verfahren umfasst somit ein Verfahren nach Abschnitt B) und ein Verfahren nach Abschnitt D) zum Erkennen von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten in den zweiten Sensormesswerten der zweiten Sensoranordnung (131) und in den ersten Ultraschallmesswerten der Ultraschallwandleranordnung (11) und/oder auf Basis der ersten Objekterkennungsergebnisse des ersten neuronalen Netzwerkmodells (16) und auf Basis der zweiten Objekterkennungsergebnisse des zweiten neuronale Netzwerkmodells (136). Um nun die gemeinsame Objekterkennungshypothese zu erzeugen werden bevorzugt folgende zusätzliche Schritte durchgeführt:

  • Es erfolgt die Durchführung (90a) eines Verfahrens entsprechend Abschnitt A) für das Ultraschallmesssystem (164) mit Ermittlung der Ultraschallmesswerte der Ultraschallwandleranordnung (11) und die Ermittlung eines ersten Objekterkennungsergebnisses des ersten neuronalen Netzwerkes (16). In dieser Schrift umfasst das erste Objekterkennungsergebnis Identifizierungsinformationen und/oder sonstige Erkennungsinformationen von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten in den ersten Ultraschallmesswerten der Ultraschallwandleranordnung (11).
  • Des Weiteren erfolgen die Durchführung (190b) eines Verfahrens gemäß Abschnitt D) für das zweite Messsystem (161) mit Ermittlung der zweiten Sensormesswerte der zweiten Sensoranordnung (131) und die Ermittlung eines zweiten Objekterkennungsergebnisses. In dieser Schrift umfasst das zweite Objekterkennungsergebnis Identifizierungsinformationen und/oder sonstige Erkennungsinformationen von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten in den zweiten Sensormesswerten der Sensoranordnung (131).
  • Des Weiteren umfasst das in diesem Abschnitt E) beschriebene erste Kombinationsverfahren das Bereitstellen (91) eines dritten neuronalen Netzwerkmodells (138). Dieses dritte neuronale Netzwerkmodell (138) hat im Folgenden die Funktion eines selbstlernfähigen Entscheiders (englisch Voter). Das dritte neuronale Netzwerkmodell (138) erzeugt aus dem ersten Objekterkennungsergebnis des ersten neuronalen Netzwerkmodells (16) und dem zweiten Objekterkennungsergebnis des zweiten neuronalen Netzwerkmodells (136) das dritte neuronale Objekterkennungsergebnis. In dieser Schrift umfasst die gemeinsame Objekterkennungshypothese Identifizierungsinformationen und/oder sonstige Erkennungsinformationen von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten in den zweiten Sensormesswerten der Sensoranordnung (131) und in den ersten Ultraschallmessergebnissen der ersten Ultraschallwandleranordnung (11). Darüber hinaus kann die gemeinsame Objekterkennungshypothese erste Trainingssignale für das erste Neuronale Netzwerk (16) und zweite Trainingssignale für das zweite neuronale Netzwerk (136) umfassen. Diese ersten und zweiten Trainingssignale sind bevorzugt zwar separat, sie können aber auch für das erste und
  • zweite neuronale Netzwerkmodell (16, 136) gemeinsam sein, was typischerweise nicht bevorzugt aber möglich ist.
  • In dem hier in Abschnitt E) vorgestellten ersten Kombinationsverfahren ist bevorzugt wie zuvor ein Trainieren (92) des dritten neuronalen Netzwerkmodells (138) als weiterer Schritt vorgesehen. Dieses Training erfolgt bevorzugt mit bekannten ersten Objekterkennungsergebnissen des ersten neuronalen Netzwerkmodells (16) und mit bekannten zweiten Objekterkennungsergebnissen des zweiten neuronalen Netzwerkmodells (136), die um zugeordnete Bewertungsdaten ergänzt sind. Die Stimulierung des dritten neuronalen Netzwerkmodells erfolgt während des Trainings (92), um die Objekte und/oder Objektkomponenten und/oder Anordnungen von Objekten und/oder Objektkomponenten in den zweiten Sensormesswerten und in den Ultraschallmesswerten und/oder in den zwei- oder dreidimensionalen Darstellungen, die von Sensormesswerten und/oder Ultraschallmesswerten abhängen, zu identifizieren und eine gemeinsame Objekterkennungshypothese zu erzeugen. Diese gemeinsame Objekterkennungshypothese kann dann mit Hilfe der zugeordneten Bewertungsdaten bewertet werden. Die Parameter des dritten neuronalen Netzwerkmodells (138) werden dann beispielsweise durch eine erste Sicherheitsvorrichtung (142) in Abhängigkeit vom Ergebnis des Vergleichs der gemeinsamen Objekterkennungshypothese mit den zugeordneten Bewertungsdaten während des Trainings (92) modifiziert. Die erste Sicherheitsvorrichtung (142) kann hochpriorisierte Signale (H11, H15, H131, H135) von Komponenten des ersten Ultraschallmesssystems (164) und von Komponenten des zweiten Messsystems (161) erhalten. Stellen nämlich die Ultraschallwandleranordnung (11) und/oder die Sensoranordnung (131) auf welchem Wege auch immer eine potenziell sicherheitsgefährdende Situation oder eine erhöhte Wahrscheinlichkeit für den zukünftigen Eintritt einer solchen Situation auf welchem Wege auch immer fest, so ist es möglich auf diesem Weg die gemeinsame Objekterkennungshypothese des dritten neuronalen Netzwerkmodells (138) zu überschreiben, wenn diese nicht die Erkennung dieser Situation zeigt und so einen sicheren Betrieb gewährleistet. Ebenso soll der Benutzer bevorzugt in gewissen Fällen, falls dies erforderlich ist, durch eine Benutzereingabe (H142) die gemeinsame Objekterkennungshypothese überschreiben können. Des Weiteren soll ein höher priorisiertes System bevorzugt in gewissen Fällen, falls dies erforderlich ist, durch eine Benutzereingabe (H142) die gemeinsame Objekterkennungshypothese überschreiben können.
Both methods B and D can be used when using a combined device from a first ultrasonic measuring system ( 164 ) according to Section A) and a second measuring system ( 161 ) according to section C). The question here is how the data from the first object recognition result of the first ultrasonic measuring system ( 164 ) and the second object recognition result of the second measuring system ( 161 ) a common object recognition hypothesis is generated. This generation of a common object recognition hypothesis should preferably be self-learning. The method described below thus comprises a method according to section B) and a method according to section D) for recognizing objects and / or object components and / or arrangements of objects and / or object components in the second sensor measured values of the second sensor arrangement ( 131 ) and in the first ultrasonic measured values of the ultrasonic transducer arrangement ( 11 ) and / or on the basis of the first object recognition results of the first neural network model ( 16 ) and on the basis of the second object recognition results of the second neural network model ( 136 ). In order to generate the common object recognition hypothesis, the following additional steps are preferably carried out:
  • The implementation takes place ( 90a) a procedure according to Section A) for the ultrasonic measuring system ( 164 ) with determination of the ultrasonic measured values of the ultrasonic transducer arrangement ( 11 ) and the determination of a first object recognition result of the first neural network ( 16 ). In this document, the first object recognition result includes identification information and / or other identification information of objects and / or object components and / or of arrangements of objects and / or object components in the first ultrasonic measured values of the ultrasonic transducer arrangement ( 11 ).
  • Furthermore, the implementation takes place ( 190b) of a method according to Section D) for the second measuring system ( 161 ) with determination of the second measured values of the second sensor arrangement ( 131 ) and the determination of a second object recognition result. In this document, the second object recognition result includes identification information and / or other identification information of objects and / or object components and / or of arrangements of objects and / or object components in the second sensor measured values of the sensor arrangement ( 131 ).
  • Furthermore, the first combination method described in this section E) includes the provision ( 91 ) of a third neural network model ( 138 ). This third neural network model ( 138 ) has the function of a self-learning decision maker (Voter). The third neural network model ( 138 ) generated from the first object recognition result of the first neural network model ( 16 ) and the second object recognition result of the second neural network model ( 136 ) the third neural object recognition result. In this document, the common object detection hypothesis comprises identification information and / or other identification information of objects and / or object components and / or of arrangements of objects and / or object components in the second sensor measured values of the sensor arrangement ( 131 ) and in the first ultrasonic measurement results of the first ultrasonic transducer arrangement ( 11 ). In addition, the common object recognition hypothesis can provide first training signals for the first neural network ( 16 ) and second training signals for the second neural network ( 136 ) include. Although these first and second training signals are preferably separate, they can also be used for the first and
  • second neural network model ( 16 , 136 ) be common, which is typically not preferred but possible.
  • In the first combination method presented here in Section E), training is preferred as before ( 92 ) of the third neural network model ( 138 ) planned as a further step. This training is preferably carried out with known first object recognition results of the first neural network model ( 16 ) and with known second Object recognition results of the second neural network model ( 136 ), which are supplemented by assigned evaluation data. The third neural network model is stimulated during training ( 92 ) in order to identify the objects and / or object components and / or arrangements of objects and / or object components in the second sensor measurement values and in the ultrasound measurement values and / or in the two- or three-dimensional representations that depend on sensor measurement values and / or ultrasound measurement values to generate a common object recognition hypothesis. This common object recognition hypothesis can then be evaluated with the aid of the assigned evaluation data. The parameters of the third neural network model ( 138 ) are then, for example, through a first safety device ( 142 ) depending on the result of the comparison of the common object recognition hypothesis with the assigned evaluation data during the training ( 92 ) modified. The first safety device ( 142 ) can receive high-priority signals (H11, H15, H131, H135) from components of the first ultrasonic measuring system ( 164 ) and of components of the second measuring system ( 161 ) receive. Namely, place the ultrasonic transducer arrangement ( 11 ) and / or the sensor arrangement ( 131 ) in whatever way a potentially security-endangering situation or an increased probability of the future occurrence of such a situation in whatever way is determined, it is possible in this way to use the common object detection hypothesis of the third neural network model ( 138 ) to overwrite, if this does not show the detection of this situation and thus ensures safe operation. Likewise, in certain cases, if necessary, the user should preferably be able to overwrite the common object recognition hypothesis by means of a user input (H142). Furthermore, a system with a higher priority should preferably in certain cases, if this is necessary, be able to overwrite the common object recognition hypothesis by means of a user input (H142).

Im Falle eines solchen Überschreibens ist es sinnvoll, wenn dann die erste Sicherheitsvorrichtung (142) die Parameter des dritten neuronalen Netzwerkmodells (138) modifiziert und so ein Training (92) des dritten neuronalen Netzwerkmodells (138) ausführt. Das Besondere ist, dass dies somit im Betrieb geschehen kann.In the case of such overwriting, it makes sense if the first safety device ( 142 ) the parameters of the third neural network model ( 138 ) modified and such a training ( 92 ) of the third neural network model ( 138 ) executes. The special thing is that this can be done in the company.

Das Training (92) des dritten neuronalen Netzwerkmodells (138) erfolgt wie zuvor bevorzugt zunächst mit Hilfe eines geeigneten Laborsystems, dass dem Zielsystem für die korrekte Durchführung des Trainings ausreichend ähnlich ist. Die so ermittelten Parameter für das dritte neuronale Netzwerkmodell (138) können dann später in das Ziel-System übertragen werden. Dies kann wieder wie zuvor beispielsweise durch Programmierung und/oder Einstellung und/oder schon in der Konstruktionsphase des Zielsystems geschehen.The workout ( 92 ) of the third neural network model ( 138 ) is preferably carried out, as before, first with the help of a suitable laboratory system that is sufficiently similar to the target system for the correct implementation of the training. The parameters determined in this way for the third neural network model ( 138 ) can then be transferred to the target system later. This can be done again as before, for example by programming and / or setting and / or already in the construction phase of the target system.

Wie zuvor, umfasst das hier in diesem Abschnitt E) vorgestellte Kombinationsverfahren das Verwenden (95) des trainierten dritten neuronalen Netzwerkmodells (138), bevorzugt innerhalb eines Zielsystem aus einem Ultraschallmesssystem (164) entsprechend Abschnitt A) und einem Messsystem entsprechend Abschnitt C), zur Identifizierung von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten in den zweiten Sensormesswerten einer Sensoranordnung (131) und in den Ultraschallmesswerten einer Ultraschallwandleranordnung (11) und/oder auf Basis der ersten Objekterkennungsergebnisse des ersten neuronalen Netzwerkmodells (16) und auf Basis der zweiten Objekterkennungsergebnisse des zweiten neuronalen Netzwerkmodells (136).As before, the combination method presented here in this Section E) involves using ( 95 ) of the trained third neural network model ( 138 ), preferably within a target system from an ultrasonic measuring system ( 164 ) according to Section A) and a measuring system according to Section C), for the identification of objects and / or object components and / or arrangements of objects and / or object components in the second measured values of a sensor arrangement ( 131 ) and in the ultrasonic measured values of an ultrasonic transducer arrangement ( 11 ) and / or on the basis of the first object recognition results of the first neural network model ( 16 ) and on the basis of the second object recognition results of the second neural network model ( 136 ).

Bevorzugt umfasst auch hier das Training (92) des dritten neuronalen Netzwerkmodells (138) auch das Training mit zuvor aufgenommenen oder durch Simulation ermittelten ersten Live-Objekterkennungsergebnissen des ersten Netzwerkmodells (16) von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten, und/oder mit zweiten Live-Objekterkennungsergebnissen des zweiten Netzwerkmodells (136) von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten und/oder mit zwei- oder dreidimensionale Trainingsdarstellungen umfasst und/oder mit Trainingsbildern einer gemeinsamen Anordnung einer Vielzahl von Subjekten. Diese typischerweise zuvor durch Simulation oder Messung / Versuch ermittelte Trainingsdaten werden bevorzugt manuell und/oder automatisch Bewertungsdaten vor dem Beginn des Trainings (92) hinzugefügt. Eine auf Basis dieser Trainingsdaten ermittelte geneinsame Objekterkennungshypothese des dritten neuronalen Netzwerkmodells (138) kann dann beispielsweise durch die erste Sicherheitsvorrichtung (142) oder eine andere Trainingsvorrichtung mit den jeweiligen Trainingsdaten zugeordneten Bewertungsdaten verglichen werden. In Abhängigkeit von dem Vergleichsergebnis modifiziert dann die erste Sicherheitsvorrichtung (142) bzw. die andere Trainingsvorrichtung die Parameter des dritten neuronalen Netzwerkmodells (138) entsprechend.Here, too, the training preferably includes ( 92 ) of the third neural network model ( 138 ) also training with previously recorded or simulated first live object recognition results of the first network model ( 16 ) of objects and / or object components and / or of arrangements of objects and / or object components, and / or with second live object recognition results of the second network model ( 136 ) of objects and / or object components and / or of arrangements of objects and / or object components and / or with two- or three-dimensional training representations and / or with training images of a common arrangement of a large number of subjects. These training data, typically determined beforehand by simulation or measurement / experiment, are preferably manually and / or automatically evaluation data before the start of the training ( 92 ) added. A common object recognition hypothesis of the third neural network model determined on the basis of this training data ( 138 ) can then, for example, by the first safety device ( 142 ) or another training device can be compared with evaluation data assigned to the respective training data. Depending on the comparison result, the first safety device then modifies ( 142 ) or the other training device the parameters of the third neural network model ( 138 ) corresponding.

Bevorzugt umfasst das Training (92) des dritten neuronalen Netzwerkmodells (138) das Identifizieren von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten in den zwei- oder dreidimensionalen Trainingsdarstellungen und/oder das Identifizieren von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten auf Basis der ersten und zweiten Objekterkennungsergebnisse und/oder das Ermitteln einer gemeinsamen Objekterkennungshypothese auf Basis der zwei- oder dreidimensionalen Trainingsdarstellungen und/oder das Ermitteln einer gemeinsamen Objekterkennungshypothese auf Basis der ersten Ultraschallmesswerte der ersten Ultraschallwandleranordnung (11) und der zweiten Sensormesswerte der zweiten Sensoranordnung (131). Wie zuvor bereits erläutert werden im Zuge des Trainings diesen Trainingsdaten Bewertungsdaten zugeordnet, die als Referenzdaten dienen.Preferably the training includes ( 92 ) of the third neural network model ( 138 ) the identification of objects and / or object components and / or of arrangements of objects and / or object components in the two- or three-dimensional training representations and / or the identification of objects and / or object components and / or of arrangements of objects and / or object components Based on the first and second object recognition results and / or the determination of a common object recognition hypothesis based on the two- or three-dimensional training representations and / or the determination of a common object recognition hypothesis based on the first ultrasonic measured values of the first ultrasonic transducer arrangement ( 11 ) and the second measured values of the second sensor arrangement ( 131 ). As already explained above, in the course of the training these training data are assigned evaluation data which serve as reference data.

Wie zuvor in den in den Abschnitten B ) und D) beschriebenen Verfahren umfasst auch das hier in Abschnitt E) beschriebene erste Kombinationsverfahren das Verwenden (92) der Identifizierung der Objekte und/oder Objektkomponenten und/oder Anordnungen von Objekten und/oder Objektkomponenten gemäß der gemeinsamen Objekterkennungshypothese, um die zwei- oder dreidimensionalen Darstellungen zu kommentieren, wobei diese von den zweiten Sensormesswerten der zweiten Sensoranordnung (131) und den Ultraschallmesswerten der ersten Ultraschallwandleranordnung (11) und/oder von dem ersten Objekterkennungsergebnis des ersten neuronalen Netzwerkmodells (16) und von dem zweiten Objekterkennungsergebnis des zweiten neuronalen Netzwerkmodells (136) und/oder der gemeinsamen Objekterkennungshypothese abhängen.As previously in the methods described in Sections B) and D), the first combination method described here in Section E) also includes using ( 92 ) the identification of the objects and / or object components and / or arrangements of objects and / or object components according to the common object recognition hypothesis in order to comment on the two- or three-dimensional representations, these being dependent on the second sensor measured values of the second sensor arrangement ( 131 ) and the ultrasonic measured values of the first ultrasonic transducer arrangement ( 11 ) and / or from the first object recognition result of the first neural network model ( 16 ) and from the second object recognition result of the second neural network model ( 136 ) and / or the common object recognition hypothesis.

Bevorzugt umfasst das hier in Abschnitt E) beschriebene erste Kombinationsverfahren ferner das Verwenden (95) der Identifizierung der Objekte und/oder Objektkomponenten und/oder Anordnungen von Objekten und/oder Objektkomponenten gemäß der gemeinsamen Objekterkennungshypothese und/oder der gemeinsamen Objekterkennungshypothese in einer Umfeldkarte der Umgebung des Fahrzeugs und/oder zur Information des Fahrers durch eine zwei- oder dreidimensionale Darstellung und/oder zur Information des Fahrers durch ein Steuerungssystem und/oder Steuergerät zur Steuerung und/oder Regelung von autonomen Fahren und/oder Parken.Preferably, the first combination method described here in section E) further comprises using ( 95 ) the identification of the objects and / or object components and / or arrangements of objects and / or object components according to the common object recognition hypothesis and / or the common object recognition hypothesis in a map of the surroundings of the vehicle and / or to inform the driver through a two- or three-dimensional representation and / or for informing the driver by a control system and / or control device for controlling and / or regulating autonomous driving and / or parking.

Um das Training (22) des ersten neuronalen Netzwerkmodells (16) durchzuführen, erfolgt in diesem ersten Kombinationsverfahren bevorzugt ein Vergleich der gemeinsamen Objekterkennungshypothese des dritten neuronalen Netzwerkmodells (138) mit dem ersten Objekterkennungsergebnis des ersten neuronalen Netzwerkmodells (16) und ggf. ein Ändern der Parametrisierung des ersten neuronalen Netzwerkmodells (16) in Abhängigkeit von dem Ergebnis dieses Vergleiches. Dieser Vergleich und diese Änderung erfolgen bevorzugt durch eine erste Parametermodifikationsvorrichtung (140) für das erste neuronale Netzwerkmodell (16).To get the training ( 22nd ) of the first neural network model ( 16 ), a comparison of the common object recognition hypothesis of the third neural network model is preferably carried out in this first combination method ( 138 ) with the first object recognition result of the first neural network model ( 16 ) and, if necessary, changing the parameterization of the first neural network model ( 16 ) depending on the result of this comparison. This comparison and this change are preferably made by a first parameter modification device ( 140 ) for the first neural network model ( 16 ).

Um das Training (52) des zweiten neuronalen Netzwerkmodells (136) durchzuführen, erfolgt in diesem ersten Kombinationsverfahren bevorzugt ein Vergleich der gemeinsamen Objekterkennungshypothese des dritten neuronalen Netzwerkmodells (138) mit dem zweiten Objekterkennungsergebnis des zweiten neuronalen Netzwerkmodells (136) und ggf. ein Ändern der Parametrisierung des zweiten neuronalen Netzwerkmodells (136) in Abhängigkeit von dem Ergebnis dieses Vergleiches. Dieser Vergleich und diese Änderung erfolgen bevorzugt durch eine zweite Parametermodifikationsvorrichtung (141) für das zweite neuronale Netzwerkmodell (136).To get the training ( 52 ) of the second neural network model ( 136 ), a comparison of the common object recognition hypothesis of the third neural network model is preferably carried out in this first combination method ( 138 ) with the second object recognition result of the second neural network model ( 136 ) and, if necessary, changing the parameterization of the second neural network model ( 136 ) depending on the result of this comparison. This comparison and this change are preferably made by a second parameter modification device ( 141 ) for the second neural network model ( 136 ).

Wie zuvor bereits beschrieben wird ein Training (92) des dritten neuronalen Netzwerkmodells (138) bevorzugt durch die erste Sicherheitsvorrichtung (142) durchgeführt. Auf die höher priorisierten Signale (H131, H135, H11, H15 und H142) wird in diesem Zusammenhang nochmals ausdrücklich hingewiesen, da diese im Wesentlichen entweder ein selbstinduziertes Training (92) mittels interner höher priorisierter Signale (H131, H135, H11 und H15) oder ein benutzerinduziertes Training (92) mittels Benutzer generierter höher priorisierter Signale (H142) ermöglichen. Wie zuvor erwähnt, kann eine höher priorisierte technische Vorrichtung ebenfalls mittels durch diese Vorrichtung generierter höher priorisierter Signale (H142) ein Training (92) des dritten neuronalen Netzwerkmodells (138) initiieren.As previously described, a training ( 92 ) of the third neural network model ( 138 ) preferably by the first safety device ( 142 ) carried out. The higher-priority signals (H131, H135, H11, H15 and H142) are expressly pointed out again in this context, as these are essentially either self-induced training ( 92 ) by means of internal higher-priority signals (H131, H135, H11 and H15) or a user-induced training ( 92 ) enable higher prioritized signals (H142) generated by the user. As mentioned above, a technical device with a higher priority can also carry out training ( 92 ) of the third neural network model ( 138 ) initiate.

Natürlich kann auch ein Ändern der Parametrisierung des ersten neuronalen Netzwerkmodells (16) und/oder der Parametrisierung des zweiten neuronalen Netzwerkmodells (136) und/oder der Parametrisierung des dritten neuronalen Netzwerkmodells (138) in Abhängigkeit von einer Benutzereingabe (142) mit Hilfe eines Trainingsschritts (22, 52, 92) erfolgen. Die Benutzereingabe kann mittels einer geeigneten Signalisierung (z.B. H142) z.B. an die erste Parametermodifikationsvorrichtung (140) für das erste neuronale Netzwerkmodell (16) und/oder die zweite Parametermodifikationsvorrichtung (141) für das zweite neuronale Netzwerkmodell (136) und/oder die erste Sicherheitsvorrichtung (142) und/oder die später noch zu beschreibende zweite Sicherheitsvorrichtung (143) und/oder die später noch zu beschreibende vierte Parametermodifikationsvorrichtung (142) für das später noch beschriebene vierte neuronale Netzwerkmodell (156) erfolgen.Of course, changing the parameterization of the first neural network model ( 16 ) and / or the parameterization of the second neural network model ( 136 ) and / or the parameterization of the third neural network model ( 138 ) depending on a user input ( 142 ) with the help of a training step ( 22nd , 52 , 92 ) respectively. The user input can be sent to the first parameter modification device (e.g. 140 ) for the first neural network model ( 16 ) and / or the second parameter modification device ( 141 ) for the second neural network model ( 136 ) and / or the first safety device ( 142 ) and / or the second safety device to be described later ( 143 ) and / or the fourth parameter modification device to be described later ( 142 ) for the fourth neural network model described later ( 156 ) respectively.

Eine solche Benutzereingabe zur Erzeugung eines derartigen höher priorisierten externen Signals (z.B. H142) kann beispielsweise mittels einer Berührungsgeste auf einem Touch-Pad oder einem als Touch-Screen ausgeführten Anzeige (9) oder mittels einer dreidimensional ausgeführten Geste erfolgen. Eine solche dreidimensional bevorzugt im Raum vor der Anzeige (9) ausgeführte Raumgeste bzw. eine solche bevorzugt zweidimensionale Berührungsgeste wird bevorzugt durch ein entsprechend gestaltetes Gestenerkennungssystem erkannt und in das besagte höher priorisierte Signal (z.B. H142) gewandelt. Um die Wahrscheinlichkeit von Fehlauslösungen zu senken, handelt es sich bei diesen Gesten bevorzugt um Sequenzen von Einzelgesten, die zu den betreffenden Gesten kombiniert sind und die in der richtigen Reihenfolge und Geschwindigkeit gegeben werden müssen.Such a user input for generating such a higher-priority external signal (for example H142) can, for example, by means of a touch gesture on a touch pad or as a Touch-screen display ( 9 ) or by means of a three-dimensional gesture. Such a three-dimensional preferably in the space in front of the display ( 9 ) executed spatial gesture or such a preferably two-dimensional touch gesture is preferably recognized by a correspondingly designed gesture recognition system and converted into the said higher-priority signal (eg H142). In order to reduce the probability of false triggering, these gestures are preferably sequences of individual gestures that are combined to form the relevant gestures and that must be given in the correct order and speed.

Um das zuvor beschriebene Training (92) des dritten neuronalen Netzwerkmodells (138) durchführen zu können ist es vorteilhaft, wenn das hier beschriebene erste Kombinationsverfahren E) einen Schritt des Überwachens eines oder mehrerer der hoch priorisierten Signale (H131, H135, H11, H15, H142) umfasst. Wie zuvor beschrieben, können dann diese hochpriorisierten Signale (H131, H135, H11, H15, H142) über die erste Parametermodifikationsvorrichtung (140) für das erste neuronale Netzwerkmodell (16) und/oder über die zweite Parametermodifikationsvorrichtung (141) für das zweite neuronale Netzwerkmodell (136) und/oder über die erste Sicherheitsvorrichtung (142) und/oder über die zweite Sicherheitsvorrichtung (143), die später beschrieben wird, und/oder die vierte Parametermodifikationsvorrichtung für das vierte neuronale Netzwerkmodell (156), die später beschrieben werden, eine Änderung der Parametrisierung des dritten neuronalen Netzwerkmodells (138) in Abhängigkeit von dem Zustand dieser hoch priorisierten Signale (H131, H135, H11, H15, H142) herbeiführen. Statt oder ergänzend zu dieser Änderung kann eine Änderung der Darstellung auf der Anzeige (19) in Abhängigkeit von dem Zustand des hoch priorisierten Signals (H131, H135, H11, H15, H142) erfolgen und/oder eine Änderung der Darstellung auf der Anzeige (19) in Abhängigkeit von der gemeinsamen Objekterkennungshypothese erfolgen.To do the training described above ( 92 ) of the third neural network model ( 138 ), it is advantageous if the first combination method E) described here comprises a step of monitoring one or more of the high-priority signals (H131, H135, H11, H15, H142). As described above, these high-priority signals (H131, H135, H11, H15, H142) can then be used via the first parameter modification device ( 140 ) for the first neural network model ( 16 ) and / or via the second parameter modification device ( 141 ) for the second neural network model ( 136 ) and / or via the first safety device ( 142 ) and / or via the second safety device ( 143 ), which will be described later, and / or the fourth parameter modification device for the fourth neural network model ( 156 ), which will be described later, a change in the parameterization of the third neural network model ( 138 ) depending on the status of these high-priority signals (H131, H135, H11, H15, H142). Instead of or in addition to this change, a change in the representation on the display ( 19th ) depending on the status of the high-priority signal (H131, H135, H11, H15, H142) and / or a change in the representation on the display ( 19th ) take place depending on the common object recognition hypothesis.

Neben diesen hoch priorisierten Signalen (H11, H15, H131, H135, H142) können das erste neuronale Netzwerkmodell (16) und/oder das zweite neuronale Netzwerkmodell (136) und/oder das dritte neuronale Netzwerkmodell (138) weitere Eingangssignale aufweisen, die das erste Objekterkennungsergebnis des ersten neuronalen Netzwerkmodells (16) und/oder das zweite Objekterkennungsergebnis des zweiten neuronalen Netzwerkmodells (136) und/oder die gemeinsame Objekterkennungshypothese des dritten neuronalen Netzwerkmodells (138) beeinflussen. In der Folge ergibt sich daraus als ein potenzieller Verfahrensschritt des hier beschriebenen ersten Kombinationsverfahrens eine mögliche Änderung der gemeinsamen Objekterkennungshypothese und/oder des ersten Objekterkennungsergebnisses und/oder des zweiten Objekterkennungsergebnisses in Abhängigkeit von einem weiteren oder mehreren weiteren externen Parametern, die über ein solches weiteres Eingangssignal übermittelt werden. Solche externe Parameter können beispielsweise die Fahrzeuggeschwindigkeit, die Temperatur, der Luftdruck, die Luftfeuchtigkeit, der Ein- oder Ausschaltzustand des Fahrlichts und/oder des Standlichts und/oder der Blinker und/oder der Nebelscheinwerfer und/oder der Zusatzscheinwerfer etc., eine über einen Eissensor erfasste Vereisung der Straße oder des Fahrwegs, ein durch einen Regensensor erfasster Regen und/oder der Ein- oder Ausschaltzustand der Scheibenwischer, die Nivellierung des Fahrzeugs, die Drehraten des Fahrzeugs um seine Achsen, die translatorischen und/oder rotatorischen Beschleunigungs- und Geschwindigkeitswerte, der Lenkwinkel, die Lenkwinkelgeschwindigkeit, der Reifendruck, die Motordrehzahl, die Drehzahl der Räder, der Bremszustand etc. sein.In addition to these high-priority signals (H11, H15, H131, H135, H142), the first neural network model ( 16 ) and / or the second neural network model ( 136 ) and / or the third neural network model ( 138 ) have further input signals that represent the first object recognition result of the first neural network model ( 16 ) and / or the second object recognition result of the second neural network model ( 136 ) and / or the common object recognition hypothesis of the third neural network model ( 138 ) influence. As a result, as a potential method step of the first combination method described here, there is a possible change in the common object recognition hypothesis and / or the first object recognition result and / or the second object recognition result as a function of one or more other external parameters that are determined by such a further input signal transmitted. Such external parameters can include, for example, the vehicle speed, the temperature, the air pressure, the humidity, the on or off status of the headlights and / or the parking lights and / or the indicators and / or the fog lights and / or the auxiliary lights etc. Ice sensor detected icing of the road or the route, rain detected by a rain sensor and / or the on or off status of the windshield wipers, the leveling of the vehicle, the rate of rotation of the vehicle about its axes, the translational and / or rotational acceleration and speed values, the steering angle, the steering angle speed, the tire pressure, the engine speed, the speed of the wheels, the braking status, etc.

Das Training (92) der neuronalen Netzwerkmodelle (16, 136, 138) erfolgt bevorzugt also zumindest immer dann in Form einer Änderung der Parametrisierung des ersten neuronalen Netzwerkmodells (16) und/oder des zweiten neuronalen Netzwerkmodells (136) und/oder des dritten neuronalen Netzwerkmodells (138), wenn das Fahrzeug eine erste Position erreicht und wenn das betreffende neuronale Netzwerkmodell an dieser ersten Position ein Objekt in fehlerhafter Weise erkannt hat oder erkennt. Erkennt beispielsweise eines dieser neuronalen Netzwerkmodelle ein Hindernis und wird nun durch das System festgestellt, dass das Fahrzeug das zuvor festgestellte Hindernis durchfährt, so war dieses Hindernis offensichtlich nicht vorhanden. Somit war die vorausgegangene Erkennung falsch, was zum Training (22, 52, 92) des betreffenden neuronalen Netzwerkmodells verwendet werden kann.The workout ( 92 ) of the neural network models ( 16 , 136 , 138 ) preferably takes place at least always in the form of a change in the parameterization of the first neural network model ( 16 ) and / or the second neural network model ( 136 ) and / or the third neural network model ( 138 ) when the vehicle reaches a first position and when the relevant neural network model has recognized or recognizes an object incorrectly at this first position. For example, if one of these neural network models detects an obstacle and if the system now determines that the vehicle is driving through the previously determined obstacle, then this obstacle was obviously not present. Thus the previous recognition was wrong, which leads to training ( 22nd , 52 , 92 ) of the neural network model in question can be used.

In gleicher Weise kann ein Training (22, 52, 92) erfolgen, indem eine Änderung der Parametrisierung des ersten neuronalen Netzwerkmodells (16) und/oder des zweiten neuronalen Netzwerkmodells (136) und/oder des dritten neuronalen Netzwerkmodells (138) erfolgt, wenn ein höher priorisiertes Signal (H11, H15, H131, H135) und/oder ein hochpriorisiertes Signal (H142) oder eine Benutzereingabe eine Kollision oder Kollisionswarnung oder sonstige Gefahr signalisiert.In the same way, a training ( 22nd , 52 , 92 ) by changing the parameterization of the first neural network model ( 16 ) and / or the second neural network model ( 136 ) and / or the third neural network model ( 138 ) occurs when a higher-priority signal (H11, H15, H131, H135) and / or a higher-priority signal (H142) or a user input signals a collision or collision warning or other danger.

Bevorzugt erfolgt dann eine Signalisierung an den Benutzer und/oder eine Fehlerdatenbank des Fahrzeugs und/oder ein anderes Rechnersystem im Falle einer Änderung der Parametrisierung des ersten neuronalen Netzwerkmodells (16) und/oder des zweiten neuronalen Netzwerkmodells (136) und/oder des dritten neuronalen Netzwerkmodells (138), darüber dass ein kritischer Lernschritt ausgeführt wurde und/oder dass ein Fehler aufgetreten ist.A signal is then preferably sent to the user and / or a fault database of the vehicle and / or another computer system in the event of a change in the parameterization of the first neural network model ( 16 ) and / or the second neural network model ( 136 ) and / or the third neural network model ( 138 ), that a critical learning step has been carried out and / or that an error has occurred.

Zweites Kombinationsverfahren mit Verwendung des zweiten Messsystems und eines dritten MesssystemsSecond combination method using the second measuring system and a third measuring system

Das entsprechend Abschnitt E) vorgestellte Kombinationsverfahren kann für die Benutzung einer kombinierten Vorrichtung und einem zweiten Messsystem (161) gemäß Abschnitt C) und einem dritten Messsystem (162) gemäß Abschnitt C) angepasst werden. Hierbei ist wieder die Frage, wie aus dem zweiten Objekterkennungsergebnis des zweiten Messsystems (161) und dem dritten Objekterkennungsergebnis des dritten Messsystems (162) eine gemeinsame Objekterkennungshypothese erzeugt wird. Diese Erzeugung einer gemeinsamen Objekterkennungshypothese soll dabei wieder bevorzugt selbstlernend sein. Das im Folgenden beschriebene Verfahren umfasst somit die parallele Anwendung zweier Verfahren nach Abschnitt D) zum Erkennen von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten in den zweiten Sensormesswerten einer zweiten Sensoranordnung (131) des zweiten Messsystems (161) und in dritten Sensormesswerten einer dritten Sensoranordnung (151) des dritten Messsystems (162) und/oder auf Basis der zweiten Objekterkennungsergebnisse eines zweiten neuronalen Netzwerkmodells (136) des zweiten Messsystems (161) und/oder auf Basis von dritten Objekterkennungsergebnissen eines vierten neuronalen Netzwerkmodells (156) des dritten Messsystems (162). Das in diesem Abschnitt vorgestellte Kombinationsverfahren umfasst dabei bevorzugt den zusätzlichen Schritt der Durchführung (171) eines Verfahrens entsprechend Abschnitt C) für das zweite Messsystem (161), wobei das zweite Messsystem (161) das besagte zweite neuronale Netzwerkmodell (136) umfasst, und den Schritt der Ermittlung der zweiten Sensormesswerte der zweiten Sensoranordnung (131) und den Schritt der Ermittlung eines zweiten Objekterkennungsergebnisses des zweiten neuronalen Netzwerkmodells (136). Das in diesem Abschnitt F) vorgestellte Kombinationsverfahren umfasst bevorzugt des Weiteren den Schritt der Durchführung (172) eines Verfahrens gemäß Abschnitt C) für das dritte Messsystem (162), wobei das dritte Messsystem (162) ein viertes neuronales Netzwerkmodell (156) umfasst, und den Schritt der Ermittlung der dritten Sensormesswerte einer dritten Sensoranordnung (151) und den Schritt der Ermittlung eines dritten Objekterkennungsergebnisses des vierten neuronalen Netzwerkmodells (156). Des Weiteren umfasst das hier vorgestellte zweite Kombinationsverfahren das Bereitstellen (173) eines fünften neuronalen Netzwerkmodells (158) und das Trainieren (174) dieses fünften neuronalen Netzwerkmodells (158), um die Objekte und/oder Objektkomponenten und/oder Anordnungen von Objekten und/oder Objektkomponenten in den zweiten Sensormesswerten der zweiten Sensoranordnung (131) und in den dritten Sensormesswerten der dritten Sensoranordnung (151) und/oder in den zwei- oder dreidimensionalen Darstellungen, die von zweiten und/oder dritten Sensormesswerten abhängen, zu identifizieren und eine gemeinsame Objekterkennungshypothese des fünften neuronalen Netzwerkmodells (158) zu erzeugen. Analog zum ersten Kombinationsverfahren aus Abschnitt E) umfasst das zweite Kombinationsverfahren bevorzugt das Verwenden (175) des trainierten fünften neuronalen Netzwerkmodells (158) zur Identifizierung von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten in den zweiten Sensormesswerten der zweiten Sensoranordnung (131) und in den dritten Sensormesswerten der dritten Sensoranordnung (151) einerseits und/oder auf Basis der ersten Objekterkennungsergebnisse des ersten neuronalen Netzwerkmodells (136) und auf Basis der zweiten Objekterkennungsergebnisse des zweiten neuronalen Netzwerkmodells (156) andererseits und/oder zur Erzeugung einer gemeinsamen Objekterkennungshypothese des fünften neuronalen Netzwerkmodells (158).The combination method presented in accordance with Section E) can be used for the use of a combined device and a second measuring system ( 161 ) according to Section C) and a third measuring system ( 162 ) according to section C). Here again the question is how from the second object recognition result of the second measuring system ( 161 ) and the third object recognition result of the third measuring system ( 162 ) a common object recognition hypothesis is generated. This generation of a common object recognition hypothesis should again preferably be self-learning. The method described in the following thus comprises the parallel application of two methods according to Section D) for recognizing objects and / or object components and / or arrangements of objects and / or object components in the second measured values of a second sensor arrangement ( 131 ) of the second measuring system ( 161 ) and in third sensor measured values of a third sensor arrangement ( 151 ) of the third measuring system ( 162 ) and / or on the basis of the second object recognition results of a second neural network model ( 136 ) of the second measuring system ( 161 ) and / or on the basis of third object recognition results of a fourth neural network model ( 156 ) of the third measuring system ( 162 ). The combination process presented in this section preferably includes the additional step of implementation ( 171 ) a procedure according to section C) for the second measuring system ( 161 ), where the second measuring system ( 161 ) said second neural network model ( 136 ) comprises, and the step of determining the second sensor measured values of the second sensor arrangement ( 131 ) and the step of determining a second object recognition result of the second neural network model ( 136 ). The combination method presented in this section F) preferably also includes the step of performing ( 172 ) a method according to Section C) for the third measuring system ( 162 ), whereby the third measuring system ( 162 ) a fourth neural network model ( 156 ), and the step of determining the third sensor measured values of a third sensor arrangement ( 151 ) and the step of determining a third object recognition result of the fourth neural network model ( 156 ). Furthermore, the second combination method presented here includes the provision ( 173 ) of a fifth neural network model ( 158 ) and training ( 174 ) this fifth neural network model ( 158 ) in order to determine the objects and / or object components and / or arrangements of objects and / or object components in the second sensor measured values of the second sensor arrangement ( 131 ) and in the third sensor readings of the third sensor arrangement ( 151 ) and / or in the two- or three-dimensional representations, which depend on second and / or third sensor measured values, and to identify a common object recognition hypothesis of the fifth neural network model ( 158 ) to create. Analogous to the first combination method from Section E), the second combination method preferably comprises using ( 175 ) of the trained fifth neural network model ( 158 ) to identify objects and / or object components and / or arrangements of objects and / or object components in the second measured values of the second sensor arrangement ( 131 ) and in the third sensor readings of the third sensor arrangement ( 151 ) on the one hand and / or on the basis of the first object recognition results of the first neural network model ( 136 ) and on the basis of the second object recognition results of the second neural network model ( 156 ) on the other hand and / or to generate a common object recognition hypothesis of the fifth neural network model ( 158 ).

Bevorzugt umfasst das Training (174) des fünften neuronalen Netzwerkmodells (158) das Training mit zweiten Live-Objekterkennungsergebnissen des zweiten Netzwerkmodells (136) von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten und/oder das Training mit dritten Live-Objekterkennungsergebnissen des dritten Netzwerkmodells (156) von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten und/oder das Training mit zwei- oder dreidimensionale Trainingsdarstellungen und/oder mit Trainingsbildern einer gemeinsamen Anordnung einer Vielzahl von Subjekten. Das Training (174) verläuft also in der gleichen Weise, wie das Training (92) in dem ersten Kombinationsverfahren aus Abschnitt E).Preferably the training includes ( 174 ) of the fifth neural network model ( 158 ) training with second live object recognition results of the second network model ( 136 ) of objects and / or object components and / or of arrangements of objects and / or object components and / or training with third live object recognition results of the third network model ( 156 ) of objects and / or object components and / or of arrangements of objects and / or object components and / or training with two- or three-dimensional training representations and / or with training images of a common arrangement of a large number of subjects. The workout ( 174 ) runs in the same way as the training ( 92 ) in the first combination procedure from Section E).

Ebenso analog zu dem Training (92) des ersten Kombinationsverfahrens aus Abschnitt E) umfasst bevorzugt das Training (174) des fünften neuronalen Netzwerkmodells (158) das Identifizieren von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten in den zwei- oder dreidimensionalen Trainingsdarstellungen und/oder das Identifizieren von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten auf Basis der zweiten und dritten Objekterkennungsergebnisse und/oder das Ermitteln einer gemeinsamen Objekterkennungshypothese auf Basis der zwei- oder dreidimensionalen Trainingsdarstellungen umfasst das Ermitteln einer gemeinsamen Objekterkennungshypothese auf Basis der zweiten Sensormesswerte der zweiten Sensoranordnung (131) und der dritten Sensormesswerte der dritten Sensoranordnung (151).Likewise analogous to the training ( 92 ) of the first combination procedure from Section E) preferably includes training ( 174 ) of the fifth neural network model ( 158 ) the identification of objects and / or object components and / or of arrangements of objects and / or object components in the two- or three-dimensional training representations and / or the identification of objects and / or object components and / or of arrangements of objects and / or object components Based on the second and third object recognition results and / or the determination of a common object recognition hypothesis on the basis of the two- or three-dimensional training representations includes the determination of a common object detection hypothesis based on the second measured values of the second sensor arrangement ( 131 ) and the third sensor readings of the third sensor arrangement ( 151 ).

Das hier beschriebene zweite Kombinationsverfahren umfasst in Analogie zum ersten Kombinationsverfahren des Abschnitts E) bevorzugt das Verwenden (175) der Identifizierung der Objekte und/oder Objektkomponenten und/oder Anordnungen von Objekten und/oder Objektkomponenten gemäß der gemeinsamen Objekterkennungshypothese, um die zwei- oder dreidimensionalen Darstellungen zu kommentieren, wobei diese von den zweiten Sensormesswerten und den dritten Sensormesswerten einerseits abhängen und/oder wobei diese von dem zweiten Objekterkennungsergebnis des zweiten neuronalen Netzwerkmodells (136) und von dem dritten Objekterkennungsergebnis des dritten neuronalen Netzwerkmodells (156) und/oder der gemeinsamen Objekterkennungshypothese abhängen.The second combination method described here comprises, in analogy to the first combination method of section E), preferably using ( 175 ) the identification of the objects and / or object components and / or arrangements of objects and / or object components according to the common object recognition hypothesis in order to comment on the two- or three-dimensional representations, these being dependent on the second sensor measured values and the third sensor measured values on the one hand and / or where this from the second object recognition result of the second neural network model ( 136 ) and from the third object recognition result of the third neural network model ( 156 ) and / or the common object recognition hypothesis.

Das hier beschriebene zweite Kombinationsverfahren umfasst ebenso in Analogie zum ersten Kombinationsverfahren des Abschnitts E) bevorzugt das Verwenden (175) der Identifizierung der Objekte und/oder Objektkomponenten und/oder Anordnungen von Objekten und/oder Objektkomponenten gemäß der gemeinsamen Objekterkennungshypothese und/oder der gemeinsamen Objekterkennungshypothese in einer Umfeldkarte der Umgebung des Fahrzeugs und/oder zur Information des Fahrers durch eine zwei- oder dreidimensionale Darstellung und/oder zur Information des Fahrers durch ein Steuerungssystem und/oder Steuergerät zur Steuerung und/oder Regelung von autonomen Fahren und/oder Parken.The second combination method described here also comprises, in analogy to the first combination method of section E), preferably using ( 175 ) the identification of the objects and / or object components and / or arrangements of objects and / or object components according to the common object recognition hypothesis and / or the common object recognition hypothesis in a map of the surroundings of the vehicle and / or to inform the driver through a two- or three-dimensional representation and / or for informing the driver by a control system and / or control device for controlling and / or regulating autonomous driving and / or parking.

Das hier beschriebene zweite Kombinationsverfahren umfasst ebenso in Analogie zum ersten Kombinationsverfahren des Abschnitts E) bevorzugt den Vergleich der gemeinsamen Objekterkennungshypothese mit dem zweiten Objekterkennungsergebnis des zweiten neuronalen Netzwerkmodells (136) und das Ändern der Parametrisierung des zweiten neuronalen Netzwerkmodells (136) in Abhängigkeit von dem Ergebnis dieses Vergleiches. Dieser Vergleich wird bevorzugt durch die besagte zweite Parametermodifikationsvorrichtung (141) für das zweite neuronale Netzwerkmodell (136) durchgeführt.The second combination method described here also comprises, in analogy to the first combination method of section E), preferably the comparison of the common object recognition hypothesis with the second object recognition result of the second neural network model ( 136 ) and changing the parameterization of the second neural network model ( 136 ) depending on the result of this comparison. This comparison is preferred by said second parameter modification device ( 141 ) for the second neural network model ( 136 ) carried out.

Das hier beschriebene zweite Kombinationsverfahren umfasst ebenso in Analogie zum ersten Kombinationsverfahren des Abschnitts E) bevorzugt den Vergleich der gemeinsamen Objekterkennungshypothese mit dem dritten Objekterkennungsergebnis des vierten neuronalen Netzwerkmodells (156) und Ändern der Parametrisierung des vierten neuronalen Netzwerkmodells (156) in Abhängigkeit von dem Ergebnis dieses Vergleiches. Dieser Vergleich wird bevorzugt durch die besagte vierte Parametermodifikationsvorrichtung (144) für das vierte neuronale Netzwerkmodell (156) durchgeführt.The second combination method described here also includes, in analogy to the first combination method of section E), preferably the comparison of the common object recognition hypothesis with the third object recognition result of the fourth neural network model ( 156 ) and changing the parameterization of the fourth neural network model ( 156 ) depending on the result of this comparison. This comparison is preferred by the said fourth parameter modification device ( 144 ) for the fourth neural network model ( 156 ) carried out.

Das hier beschriebene zweite Kombinationsverfahren umfasst ebenso in Analogie zum ersten Kombinationsverfahren des Abschnitts E) bevorzugt das Ändern der Parametrisierung des zweiten neuronalen Netzwerkmodells (136) und/oder der Parametrisierung des vierten neuronalen Netzwerkmodells (156) und/oder der Parametrisierung des fünften neuronalen Netzwerkmodells (158) in Abhängigkeit von einer Benutzereingabe (H142) mit Hilfe eines Trainingsschritts (52, 174).Wieder erfolgt die Benutzereingabe beispielsweise mittels einer Berührungsgeste auf einem Touch-Pad oder einem als Touch-Screen ausgeführten Anzeige (9) oder mittels einer dreidimensional ausgeführten Geste.The second combination method described here also comprises, in analogy to the first combination method of section E), preferably changing the parameterization of the second neural network model ( 136 ) and / or the parameterization of the fourth neural network model ( 156 ) and / or the parameterization of the fifth neural network model ( 158 ) depending on a user input (H142) with the help of a training step ( 52 , 174 Again, the user input takes place, for example, by means of a touch gesture on a touch pad or a display designed as a touch screen ( 9 ) or by means of a three-dimensional gesture.

Das hier beschriebene zweite Kombinationsverfahren umfasst ebenso in Analogie zum ersten Kombinationsverfahren des Abschnitts E) das Überwachen eines oder mehrerer hoch priorisierter Signale (H131, H135, H151, H155) und die Änderung der Parametrisierung des fünften neuronalen Netzwerkmodells (158) in Abhängigkeit von dem Zustand des hoch priorisierten Signals (H131, H135, H151, H155). Dies ermöglicht wieder das selbstständige Trainieren des fünften neuronalen Netzwerkmodells (158) insbesondere auch im Betrieb.The second combination method described here also comprises, in analogy to the first combination method of section E), monitoring one or more high-priority signals (H131, H135, H151, H155) and changing the parameterization of the fifth neural network model ( 158 ) depending on the state of the high-priority signal (H131, H135, H151, H155). This again enables independent training of the fifth neural network model ( 158 ) especially during operation.

Das hier beschriebene zweite Kombinationsverfahren umfasst ebenso in Analogie zum ersten Kombinationsverfahren des Abschnitts E) bevorzugt das Überwachen eines hoch priorisierten Signals (H131, H135, H151, H155) und die Änderung der Darstellung auf der Anzeige (19) in Abhängigkeit von dem Zustand des hoch priorisierten Signals (H131, H135, H151, H155) und/oder die Änderung der Darstellung auf der Anzeige (19) in Abhängigkeit von der gemeinsamen Objekterkennungshypothese des fünften neuronalen Netzwerkmodells (158).The second combination method described here, in analogy to the first combination method of section E), preferably includes monitoring a high-priority signal (H131, H135, H151, H155) and changing the representation on the display ( 19th ) depending on the status of the high-priority signal (H131, H135, H151, H155) and / or the change in the representation on the display ( 19th ) depending on the common object recognition hypothesis of the fifth neural network model ( 158 ).

Das hier beschriebene zweite Kombinationsverfahren umfasst ebenso in Analogie zum ersten Kombinationsverfahren des Abschnitts E) bevorzugt die Änderung der gemeinsamen Objekterkennungshypothese und/oder des ersten Objekterkennungsergebnisses und/oder des zweiten Objekterkennungsergebnisses in Abhängigkeit von einem weiteren oder mehreren weiteren externen Parametern, die wieder über weiteres Eingangssignal übermittelt werden. Solche externen Parameter können beispielsweise wieder die Fahrzeuggeschwindigkeit, die Temperatur, der Luftdruck, die Luftfeuchtigkeit, der Ein- oder Ausschaltzustand des Fahrlichts und/oder des Standlichts und/oder der Blinker und/oder der Nebelscheinwerfer und/oder der Zusatzscheinwerfer etc., eine über einen Eissensor erfasste Vereisung der Straße oder des Fahrwegs, ein durch einen Regensensor erfasster Regen und/oder der Ein- oder Ausschaltzustand der Scheibenwischer, die Nivellierung des Fahrzeugs, die Drehraten des Fahrzeugs um seine Achsen, die translatorischen und/oder rotatorischen Beschleunigungs- und Geschwindigkeitswerte, der Lenkwinkel, die Lenkwinkelgeschwindigkeit, der Reifendruck, die Motordrehzahl, die Drehzahl der Räder, der Bremszustand etc. sein.The second combination method described here also comprises, in analogy to the first combination method of section E), preferably changing the common object recognition hypothesis and / or the first object recognition result and / or the second object recognition result as a function of one or more other external parameters, which are again via another input signal transmitted. Such external parameters can, for example, again be the vehicle speed, the temperature, the air pressure, the humidity, the on or off status of the headlights and / or the parking lights and / or the indicators and / or the fog lights and / or the auxiliary lights etc. an ice sensor detected icing of the road or the driveway, one by one Rain sensor recorded rain and / or the on or off status of the windshield wipers, the leveling of the vehicle, the rate of rotation of the vehicle about its axes, the translational and / or rotational acceleration and speed values, the steering angle, the steering angle speed, the tire pressure, the engine speed, the speed of the wheels, the braking condition, etc.

Das hier beschriebene zweite Kombinationsverfahren umfasst ebenso in Analogie zum ersten Kombinationsverfahren des Abschnitts E) bevorzugt die Änderung der Parametrisierung des zweiten neuronalen Netzwerkmodells (136) und/oder des vierten neuronalen Netzwerkmodells (156) und/oder des fünften neuronalen Netzwerkmodells (158), wenn das Fahrzeug eine erste Position erreicht und wenn einen durch das betreffende neuronale Netz an dieser ersten Position ein Objekt in fehlerhafter Weise erkannt hat oder erkennt. Hier gilt das im Abschnitt E) zum ersten Kombinationsverfahren Geschriebene entsprechend.The second combination method described here also comprises, in analogy to the first combination method of section E), preferably changing the parameterization of the second neural network model ( 136 ) and / or the fourth neural network model ( 156 ) and / or the fifth neural network model ( 158 ) when the vehicle has reached a first position and when the neural network in question detects or detects an object in an incorrect manner at this first position. What was written in Section E) for the first combination procedure applies accordingly.

Das hier beschriebene zweite Kombinationsverfahren umfasst ebenso in Analogie zum ersten Kombinationsverfahren des Abschnitts E) bevorzugt die Änderung der Parametrisierung des zweiten neuronalen Netzes (136) und/oder des vierten neuronalen Netzes (156) und/oder des fünften neuronalen Netzes (158), wenn ein höher priorisiertes Signal (H151, H155, H131, H135) und/oder ein anderes hochpriorisiertes Signal (H152) oder eine Benutzereingabe eine Kollision oder Kollisionswarnung oder sonstige Gefahr signalisiert. Hier gilt das im Abschnitt E) zum ersten Kombinationsverfahren Geschriebene entsprechend.The second combination method described here also comprises, in analogy to the first combination method of section E), preferably changing the parameterization of the second neural network ( 136 ) and / or the fourth neural network ( 156 ) and / or the fifth neural network ( 158 ), if a higher-priority signal (H151, H155, H131, H135) and / or another high-priority signal (H152) or a user input signals a collision or collision warning or other danger. What was written in Section E) for the first combination procedure applies accordingly.

Das hier beschriebene zweite Kombinationsverfahren umfasst ebenso in Analogie zum ersten Kombinationsverfahren des Abschnitts E) bevorzugt eine Signalisierung an den Benutzer und/oder eine Fehlerdatenbank und/oder ein Rechnersystem im Falle einer Änderung der Parametrisierung des zweiten neuronalen Netzes (136) und/oder des vierten neuronalen Netzes (156) und/oder des fünften neuronalen Netzes (158), dass ein kritischer Lernschritt ausgeführt wurde und/oder dass ein Fehler aufgetreten ist.The second combination method described here also comprises, in analogy to the first combination method of section E), preferably a signaling to the user and / or an error database and / or a computer system in the event of a change in the parameterization of the second neural network ( 136 ) and / or the fourth neural network ( 156 ) and / or the fifth neural network ( 158 ) that a critical learning step has been carried out and / or that an error has occurred.

Einfachstes selbstlernendes System oder MesssystemSimplest self-learning system or measuring system

Die Kombination der zuvor in den Abschnitten A) und C) beschriebenen Messsysteme zusammen mit der in den Kombinationsverfahren E) und F) vorausgesetzten Vorrichtungsstruktur kann wie folgt als selbstlernendes System und/oder Messsystem gekennzeichnet werden: Ein solches Gesamtmesssystem stellt ein Netzwerk aus neuronalen Netzwerkmodellen (16, 136, 138, 156, 158) im folgenden Neuronetzwerk genannt dar. Dabei stellen die neuronalen Netzwerkmodelle (16, 136, 138, 156, 158) die Knoten des Neuronetzwerks dar. Das hier vorgeschlagene Neuronetzwerk umfasst dabei mindestens ein erstes neuronales Netzwerkmodell (16) mit einem ersten Parametersatz und ein zweites neuronales Netzwerkmodell (136) mit einem zweiten Parametersatz und ein drittes neuronales Netzwerkmodell (138) mit einem dritten Parametersatz. Bezogen auf das zuvor vorgestellte zweite Kombinationsverfahren aus Abschnitt F) umfasst das hier vorgeschlagene Neuronetzwerk dabei mindestens ein zweites neuronales Netzwerkmodell (136) mit einem zweiten Parametersatz und ein viertes neuronales Netzwerkmodell (156) mit einem vierten Parametersatz und ein fünftes neuronales Netzwerkmodell (158) mit einem fünften Parametersatz. Es handelt sich also auch wieder mindestens um drei neuronale Netzwerkmodelle die sich auf mindestens zwei Knotenschichten des Neuronetzwerks verteilen. Jedes neuronale Netzwerkmodell des Neuronetzwerks weist zumindest einen ersten Eingangsdatenstrom und einen ersten Ausgangsdatenstrom auf. Da die grundsätzliche Struktur des Neuronetzwerks für die Durchführung des zweiten Kombinationsverfahrens des Abschnitts F), wie gerade diskutiert, gleich der grundsätzlichen Struktur des Neuronetzwerks zur Durchführung des ersten Kombinationsverfahrens des Abschnitts E) ist, beschränken wir uns nun auf das Neuronetzwerk zur Durchführung des ersten Kombinationsverfahrens des Abschnitts E). Die Ergebnisse können, wie dem Fachmann offensichtlich, auf das Neuronetzwerk zur Durchführung des zweiten Kombinationsverfahrens des Abschnitts F) übertragen werden. Diese Beschränkung schließt also die Anwendung des in diesem Abschnitt Folgenden auf ein Neuronetzwerk zur Durchführung des zweiten Kombinationsverfahrens aus Abschnitt F) ausdrücklich mit ein.The combination of the measuring systems described above in Sections A) and C) together with the device structure required in the combination methods E) and F) can be characterized as a self-learning system and / or measuring system as follows: Such an overall measuring system represents a network of neural network models ( 16 , 136 , 138 , 156 , 158 ) in the following called neural network. The neural network models ( 16 , 136 , 138 , 156 , 158 ) represent the nodes of the neural network. The neural network proposed here comprises at least one first neural network model ( 16 ) with a first set of parameters and a second neural network model ( 136 ) with a second set of parameters and a third neural network model ( 138 ) with a third set of parameters. In relation to the previously presented second combination method from Section F), the neural network proposed here comprises at least one second neural network model ( 136 ) with a second set of parameters and a fourth neural network model ( 156 ) with a fourth set of parameters and a fifth neural network model ( 158 ) with a fifth parameter set. So there are again at least three neural network models that are distributed over at least two node layers of the neural network. Each neural network model of the neural network has at least a first input data stream and a first output data stream. Since the basic structure of the neural network for carrying out the second combination method of section F), as just discussed, is the same as the basic structure of the neural network for carrying out the first combination method of section E), we will now limit ourselves to the neural network for carrying out the first combination method of Section E). As is evident to the person skilled in the art, the results can be transferred to the neural network for carrying out the second combination method of section F). This restriction therefore expressly includes the application of the following in this section to a neural network for carrying out the second combination method from section F).

Das dritte neuronale Netzwerkmodell (138) weist einen zweiten Eingangsdatenstrom auf. Der Ausgangsdatenstrom des ersten neuronalen Netzwerkmodells (16) ist der erste Eingangsdatenstrom des dritten neuronalen Netzwerkmodells (138). Der Ausgangsdatenstrom des zweiten neuronalen Netzwerkmodells (136) ist der zweite Eingangsdatenstrom des dritten neuronalen Netzwerkmodells (138). Der Ausgangsdatenstrom des dritten neuronalen Netzes (138) hängt zumindest von seinem ersten und zweiten Eingangsdatenstrom ab. Ein Ausgangsdatenstrom des dritten neuronalen Netzes (138) kann dann, wie in Abschnitt E beschrieben, den ersten Parametersatz des ersten neuronalen Netzes (16) und/oder den zweiten Parametersatz des zweiten neuronalen Netzes (136) verändern. Dies geschieht bevorzugt mittels der besagten ersten Parametermodifikationsvorrichtung (140) für das erste neuronale Netzwerkmodell (16) und/oder mittels der zweiten Parametermodifikationsvorrichtung (141) für das zweite neuronale Netzwerkmodell (136).The third neural network model ( 138 ) has a second input data stream. The output data stream of the first neural network model ( 16 ) is the first input data stream of the third neural network model ( 138 ). The output data stream of the second neural network model ( 136 ) is the second input data stream of the third neural network model ( 138 ). The output data stream of the third neural network ( 138 ) depends at least on its first and second input data stream. An output data stream of the third neural network ( 138 ) can then, as described in Section E, the first parameter set of the first neural network ( 16 ) and / or the second parameter set of the second neural network ( 136 ) change. This is preferably done by means of said first parameter modification device ( 140 ) for the first neural network model ( 16 ) and / or by means of the second parameter modification device ( 141 ) for the second neural network model ( 136 ).

Komplexeres selbstlernendes System oder Messsystem More complex self-learning system or measuring system

Da die grundsätzliche Struktur des Neuronetzwerks für die Durchführung des zweiten Kombinationsverfahrens des Abschnitts F), wie oben diskutiert, gleich der grundsätzlichen Struktur des Neuronetzwerks zur Durchführung des ersten Kombinationsverfahrens des Abschnitts E) ist, beschränken wir uns nun auch in diesem Abschnitt auf das Neuronetzwerk zur Durchführung des ersten Kombinationsverfahrens des Abschnitts E). Die Ergebnisse können, wie dem Fachmann offensichtlich, auf das Neuronetzwerk zur Durchführung des zweiten Kombinationsverfahrens des Abschnitts F) übertragen werden. Diese Beschränkung schließt also die Anwendung des in diesem Abschnitt Folgenden auf ein Neuronetzwerk zur Durchführung des zweiten Kombinationsverfahrens aus Abschnitt F) ausdrücklich mit ein.Since the basic structure of the neural network for carrying out the second combination method of section F), as discussed above, is the same as the basic structure of the neural network for carrying out the first combination method of section E), we will now limit ourselves to the neural network for Carrying out the first combination procedure of section E). As is evident to the person skilled in the art, the results can be transferred to the neural network for carrying out the second combination method of section F). This restriction therefore expressly includes the application of the following in this section to a neural network for carrying out the second combination method from section F).

Das vorgeschlagene selbstlernende System und/oder Messsystem umfasst ein Netzwerk aus neuronalen Netzwerkmodellen (16, 136, 138). Dieses Netzwerk aus neuronalen Netzwerkmodellen (16, 136, 138) wird wieder wie in Abschnitt G) im Folgenden Neuronetzwerk genannt. Wieder stellen die neuronalen Netzwerkmodelle (16, 136, 138) die Knoten des Neuronetzwerks dar. Das Neuronetzwerk umfasst mindestens ein erstes neuronales Netzwerkmodell (16) mit einem ersten Parametersatz und ein zweites neuronales Netzwerkmodell (136) mit einem zweiten Parametersatz und ein drittes neuronales Netzwerkmodell (138) mit einem dritten Parametersatz. Des Weiteren umfasst das Neuronetzwerk eine erste Parametermodifikationsvorrichtung (140) für das erste neuronale Netzwerkmodell (16) und eine zweite Parametermodifikationsvorrichtung (141) für das zweite neuronale Netzwerkmodell (136). Jedes neuronale Netzwerkmodell (16, 136, 138) des Neuronetzwerks weist zumindest einen ersten Eingangsdatenstrom und einen ersten Ausgangsdatenstrom auf. Das dritte neuronale Netzwerkmodell (138) weist einen zweiten Eingangsdatenstrom auf. Der Ausgangsdatenstrom des ersten neuronalen Netzwerkmodells (16) ist der erste Eingangsdatenstrom des dritten neuronalen Netzwerkmodells (138). Der Ausgangsdatenstrom des zweiten neuronalen Netzwerkmodells (136) ist der zweite Eingangsdatenstrom des dritten neuronalen Netzwerkmodells (138). Der Ausgangsdatenstrom des dritten neuronalen Netzes (138) hängt zumindest von seinem ersten und zweiten Eingangsdatenstrom ab. Dabei kann ein Ausgangsdatenstrom des dritten neuronalen Netzes (138) den ersten Parametersatz des ersten neuronalen Netzes (16) mittels der ersten Parametermodifikationsvorrichtung (140) und/oder den zweiten Parametersatz des zweiten neuronalen Netzes (136) mittels der zweiten Parametermodifikationsvorrichtung (141) verändern und/oder der besagte Ausgangsdatenstrom des dritten neuronalen Netzes (138) ist dazu vorgesehen, diese Veränderungen zu beeinflussen.The proposed self-learning system and / or measurement system comprises a network of neural network models ( 16 , 136 , 138 ). This network of neural network models ( 16 , 136 , 138 ) is again referred to below as a neural network as in Section G). Again, the neural network models ( 16 , 136 , 138 ) represent the nodes of the neural network. The neural network comprises at least one first neural network model ( 16 ) with a first set of parameters and a second neural network model ( 136 ) with a second set of parameters and a third neural network model ( 138 ) with a third set of parameters. Furthermore, the neural network comprises a first parameter modification device ( 140 ) for the first neural network model ( 16 ) and a second parameter modification device ( 141 ) for the second neural network model ( 136 ). Any neural network model ( 16 , 136 , 138 ) of the neural network has at least a first input data stream and a first output data stream. The third neural network model ( 138 ) has a second input data stream. The output data stream of the first neural network model ( 16 ) is the first input data stream of the third neural network model ( 138 ). The output data stream of the second neural network model ( 136 ) is the second input data stream of the third neural network model ( 138 ). The output data stream of the third neural network ( 138 ) depends at least on its first and second input data stream. An output data stream from the third neural network ( 138 ) the first parameter set of the first neural network ( 16 ) by means of the first parameter modification device ( 140 ) and / or the second parameter set of the second neural network ( 136 ) by means of the second parameter modification device ( 141 ) and / or the said output data stream of the third neural network ( 138 ) is intended to influence these changes.

Bevorzugt wird dabei die Veränderung der Parametersätze durch Benutzereingaben mittels Eingabemittel wie Touch-Screens, Schalter etc. beeinflusst. Bevorzugt umfassen die besagten Eingabemittel Gestenerkennungsmittel.The change in the parameter sets is preferably influenced by user inputs using input means such as touch screens, switches, etc. Said input means preferably comprise gesture recognition means.

Bevorzugt korrespondieren Teile des dritten Ausgangsdatenstroms des dritten neuronalen Netzwerksmodells (138) entweder mit Teilen des ersten Ausgangsdatenstroms des ersten Netzwerkmodells (16) oder mit Teilen des zweiten Ausgangsdatenstroms des zweiten Netzwerkmodells (136) selektierbar. Dies hat den Vorteil, dass diese Teile beispielsweise durch das dritte Netzwerkmodell (138) gegeneinander ausgetauscht werden können. Bevorzugt erfolgt diese Selektion durch das dritte neuronale Netzwerkmodell (138) in Abhängigkeit vom ersten Ausgangsdatenstrom des ersten Netzwerkmodells (16) und vom zweiten Ausgangsdatenstrom des zweiten Netzwerkmodells (136).Parts of the third output data stream of the third neural network model preferably correspond ( 138 ) either with parts of the first output data stream of the first network model ( 16 ) or with parts of the second output data stream of the second network model ( 136 ) selectable. This has the advantage that these parts, for example, through the third network model ( 138 ) can be exchanged for each other. This selection is preferably made by the third neural network model ( 138 ) depending on the first output data stream of the first network model ( 16 ) and from the second output data stream of the second network model ( 136 ).

Bevorzugt werden die ersten Parameter des ersten Netzwerkmodells (16) durch das dritte Netzwerkmodell (138) geändert, wenn die Selektion so erfolgt ist, dass Teile des dritten Ausgangsdatenstroms des dritten neuronalen Netzwerksmodells (138) nicht mit Teilen des ersten Ausgangsdatenstroms des ersten Netzwerkmodells (16) korrespondieren. In dem Fall wird also angenommen, dass die Erkennung durch das erste neuronalen Netzwerkmodell (16) nicht optimal war und dieser Effekt soll vermindert werden.The first parameters of the first network model are preferred ( 16 ) through the third network model ( 138 ) changed if the selection was made in such a way that parts of the third output data stream of the third neural network model ( 138 ) not with parts of the first output data stream of the first network model ( 16 ) correspond. In this case it is assumed that the recognition by the first neural network model ( 16 ) was not optimal and this effect should be reduced.

Bevorzugt werden die ersten Parameter des ersten Netzwerkmodells (16) durch das dritte Netzwerkmodell (138) geändert, wenn die Selektion so erfolgt ist, dass Teile des dritten Ausgangsdatenstroms des dritten neuronalen Netzwerksmodells (138) mit Teilen des ersten Ausgangsdatenstroms des ersten Netzwerkmodells (16) korrespondieren. In dem Fall wird also angenommen, dass die Erkennung durch das erste neuronalen Netzwerkmodell (16) optimal war und dieser Effekt soll verstärkt werden.The first parameters of the first network model are preferred ( 16 ) through the third network model ( 138 ) changed if the selection was made in such a way that parts of the third output data stream of the third neural network model ( 138 ) with parts of the first output data stream of the first network model ( 16 ) correspond. In this case it is assumed that the recognition by the first neural network model ( 16 ) was optimal and this effect should be reinforced.

Bevorzugt werden zweite Parameter des zweiten Netzwerkmodells (136) durch das dritte Netzwerkmodell (138) geändert, wenn die Selektion so erfolgt ist, dass Teile des dritten Ausgangsdatenstroms des dritten neuronalen Netzwerksmodells (138) nicht mit Teilen des zweiten Ausgangsdatenstroms des zweiten Netzwerkmodells (136) korrespondieren. In dem Fall wird also angenommen, dass die Erkennung durch das zweite neuronalen Netzwerkmodell (136) nicht optimal war und dieser Effekt soll vermindert werden. Second parameters of the second network model are preferred ( 136 ) through the third network model ( 138 ) changed if the selection was made in such a way that parts of the third output data stream of the third neural network model ( 138 ) not with parts of the second output data stream of the second network model ( 136 ) correspond. In this case it is assumed that the recognition by the second neural network model ( 136 ) was not optimal and this effect should be reduced.

Bevorzugt werden zweite Parameter des zweiten Netzwerkmodells (136) durch das dritte Netzwerkmodell (138) geändert, wenn die Selektion so erfolgt ist, dass Teile des dritten Ausgangsdatenstroms des dritten neuronalen Netzwerksmodells (138) mit Teilen des zweiten Ausgangsdatenstroms des zweiten Netzwerkmodells (136) korrespondieren. In dem Fall wird also angenommen, dass die Erkennung durch das zweite neuronale Netzwerkmodell (136) optimal war und dieser Effekt soll verstärkt werden.Second parameters of the second network model are preferred ( 136 ) through the third network model ( 138 ) changed if the selection was made in such a way that parts of the third output data stream of the third neural network model ( 138 ) with parts of the second output data stream of the second network model ( 136 ) correspond. In this case, it is assumed that the recognition by the second neural network model ( 136 ) was optimal and this effect should be reinforced.

Allgemeine Zusammenfassung hinsichtlich einer automobilen Ultraschallmessvorrichtung mit Deep-LearningGeneral summary regarding an automotive ultrasonic measuring device with deep learning

In dieser Offenlegung wurde ein Ultraschallmesssystem (164) zur Verwendung in Kraftfahrzeugen zum Erkennen von Hindernissen und/oder Objekten im Umfeld eines Fahrzeugs unter Verwendung von Deep-Learning-Verfahren offengelegt, das dadurch gekennzeichnet ist, dass sie eine Vorrichtung, insbesondere einen Rechner umfasst, in der ein neuronales Netzwerkmodell (16, 136, 138) implementiert ist, das durch eine Deep-Learning-Technik angepasst ist, um Ultraschallmesswerte zu empfangen und die Objekte und deren geometrische Anordnung im Umfeld des Fahrzeugs in den Ultraschallmesswerten durch Vergabe einer Identifikation zu identifizieren und somit ein erstes Objekterkennungsergebnis zu erzeugen. Dabei verfügt die Vorrichtung über Mittel (141, 140) um zumindest einen Teil (16, 136) des neuronalen Netzwerkmodells (16, 136, 138) im laufenden Fahrzeugbetrieb weiter zu trainieren. Um das Antrainieren von sicherheitsrelvantem Fehlverhalten auszuschließen verfügt die Vorrichtung bevorzugt über weitere Mittel (142), um beispielsweise mittels hochpriorisierter Signale (H11, H15, H131, H135), Benutzereingaben (H142) und/oder externe Signale und mittels Überprüfung der Objekterkennungsergebnisse und/oder gemeinsamen Objekterkennungshypothesen fehlerhafte und sicherheitsrelevante Erkennungsergebnisse und/oder potenziell fehlerhafte und/oder potenziell sicherheitsrelevante Erkennungsergebnisse zu verhindern und/oder zu unterdrücken und im laufenden Betrieb bei solchen nicht erwünschten Erkennungsergebnissen die betreffenden neuronalen Netzwerkmodelle (16, 136, 138) zu identifizieren und nachzutrainieren.In this disclosure, an ultrasonic measuring system ( 164 ) for use in motor vehicles for the detection of obstacles and / or objects in the vicinity of a vehicle using deep learning methods, which is characterized in that it comprises a device, in particular a computer, in which a neural network model ( 16 , 136 , 138 ), which is adapted by a deep learning technique to receive ultrasonic measured values and to identify the objects and their geometric arrangement in the surroundings of the vehicle in the ultrasonic measured values by assigning an identification and thus to generate a first object recognition result. The device has the means ( 141 , 140 ) by at least part ( 16 , 136 ) of the neural network model ( 16 , 136 , 138 ) to continue training while the vehicle is in operation. In order to exclude the training of safety-relevant malfunctions, the device preferably has further means ( 142 ), for example by means of high-priority signals (H11, H15, H131, H135), user inputs (H142) and / or external signals and by checking the object recognition results and / or common object recognition hypotheses, to identify incorrect and security-relevant recognition results and / or potentially incorrect and / or potentially security-relevant To prevent and / or suppress recognition results and, in the event of such undesired recognition results, the relevant neural network models ( 16 , 136 , 138 ) to identify and retrain.

Automobiles Ultraschallmesssystem mit Beam-FormingAutomobile ultrasonic measuring system with beam forming

In dieser Offenlegung wurde ein Ultraschallmesssystem zur Verwendung in Kraftfahrzeugen zum Erkennen von Hindernissen und/oder Objekten im Umfeld eines Fahrzeugs unter Verwendung von Deep-Learning-Verfahren offenbart, dass dadurch gekennzeichnet ist, dass sie einen Mikrobeamformer (1014) und mehrere Ultraschallwandler innerhalb einer Ultraschallwandleranordnung (1012) umfasst, wobei die Ausrichtung und/oder Form der Empfangs- und/oder Sendekeule der mehreren Ultraschallwandlern innerhalb einer Ultraschallwandleranordnung (1012) von Signalen des Mikrobeamformers (1014) abhängt. Hierbei erzeugt der Mikrobeamformer (1014) im Sendebetrieb für jeden der mehreren Ultraschallwandler ein eigenes speziell moduliertes Ansteuersignal, sodass die sich im Freiraum vor den Ultraschallwandlern ergebende Ultraschallwelle die gewünschte Querschnittsform, sphärische Amplitudenverteilung und Hauptausbreitungsrichtung aufweist. Ein einfaches Beispiel wäre die Erzeugung gleichartiger, aber phasenverschobener Ansteuersignale durch den Mikrobeamformer (1014) i, die dann durch die Ultraschallwandler in Schallsignale umgesetzt werden. Im Empfangsbetrieb sorgt der Mikrobeamformer (1014) für eine raumzeitliche Rücktransformation des Vektorempfangssignals, das aus den Empfangssignalen der verschiedenen Ultraschallwandler zusammengesetzt ist. Im Einfachsten Fall werden die Empfangssignale der verschiedenen Ultraschallwandler spezifisch in der jeweiligen Phase durch den Mikrobeamformer (1014) verzögert, sodass die Überlagerung der so verzögerten Empfangssignale der verschiedenen Ultraschallwandler eine ausgerichtete Empfindlichkeitskeule ergibt.In this disclosure, an ultrasonic measuring system for use in motor vehicles for the detection of obstacles and / or objects in the vicinity of a vehicle using deep learning methods was disclosed, characterized in that it is a microbeamformer ( 1014 ) and several ultrasonic transducers within an ultrasonic transducer arrangement ( 1012 ), wherein the alignment and / or shape of the receiving and / or transmitting lobe of the multiple ultrasonic transducers within an ultrasonic transducer arrangement ( 1012 ) of signals from the microbeamformer ( 1014 ) depends. The microbeamformer generates ( 1014 ) In the transmission mode, each of the multiple ultrasonic transducers has its own specially modulated control signal so that the ultrasonic wave produced in the free space in front of the ultrasonic transducers has the desired cross-sectional shape, spherical amplitude distribution and main direction of propagation. A simple example would be the generation of similar, but phase-shifted control signals by the microbeamformer ( 1014 ) i, which are then converted into sound signals by the ultrasonic transducers. In reception mode, the microbeamformer ( 1014 ) for a space-time inverse transformation of the vector received signal, which is composed of the received signals of the various ultrasonic transducers. In the simplest case, the received signals of the various ultrasonic transducers are specifically in the respective phase by the microbeamformer ( 1014 ) delayed so that the superposition of the delayed received signals of the various ultrasonic transducers results in an aligned sensitivity lobe.

Es ist denkbar, für den Sendekanal einen separaten Sende-Mikrobeamformer (1014) und für den Empfangskanal einen separaten Empfangs-Mikrobeamformer (1014) vorzusehen.It is conceivable to use a separate transmission microbeamformer for the transmission channel ( 1014 ) and for the receiving channel a separate receiving microbeamformer ( 1014 ) to be provided.

24 zeigt die Ausrichtung von Sende- und Empfangssignalen mittels konstruktiver Interferenz der Ultraschallwellen. Je mehr Ultraschallwandler eine Ultraschallwandleranordnung (1012) umfasst, desto besser lassen sich die Tochtermaxima unterdrücken und damit die Signalfokussierung verbessern. Es wird daher empfohlen, mehr als 10 Ultraschallwandler, besser mehr als 20, noch besser mehr als 50 Ultraschallwandler zu verwenden. Um eine Höhenauflösung zu erreichen, wird empfohlen, dass die Ultraschallwandleranordnung (1012) Ultraschallwandler umfasst, die in mindestens zwei Reihen im Wesentlichen parallel zur Fahrbahn und mindestens 5 Spalten senkrecht zur Fahrbahn angeordnet sind. Diese Lage kann natürlich nur bei ideal gleich großen Rädern, exakt paralleler Stoßstangen Montierung etc. erreicht werden. Der Begriff „im Wesentlichen“ soll daher hier eine Abweichung von +/- 10° aus diesen Lagen miteinschließen. 24 shows the alignment of transmitted and received signals by means of constructive interference of the ultrasonic waves. The more ultrasonic transducers an ultrasonic transducer arrangement ( 1012 ), the better the daughter maxima can be suppressed and thus the signal focusing improved. It is therefore recommended to use more than 10 ultrasonic transducers, preferably more than 20, even better than 50 ultrasonic transducers. In order to achieve a height resolution, it is recommended that the ultrasonic transducer arrangement ( 1012 ) Comprises ultrasonic transducers which are arranged in at least two rows essentially parallel to the roadway and at least 5 columns perpendicular to the roadway. Of course, this position can only be achieved with ideally equally sized wheels, exactly parallel bumper mounts, etc. The term “essentially” should therefore include a deviation of +/- 10 ° from these positions.

Automobiles Ultraschallmesssystem mit DopplerprozessorAutomobile ultrasonic measuring system with Doppler processor

In der obigen Beschreibung wurde auch ein Ultraschallmesssystem zur Verwendung in Kraftfahrzeugen zum Erkennen von Hindernissen und/oder Objekten im Umfeld eines Fahrzeugs unter Verwendung von Deep-Learning-Verfahren vorgeschlagen, das dadurch gekennzeichnet ist, dass sie einen Doppler-Prozessor (1054) aufweist, der Ensembles von Echosignalen von diskreten Punkten und/oder Raumrichtungen insbesondere in einem Bildfeld speichert, die dann verwendet werden, um die Doppler-Verschiebung insbesondere an Punkten im Bild und/oder in Raumrichtungen mit einer schnellen Fourier-Transformation (FFT) abzuschätzen.In the above description, an ultrasound measuring system for use in motor vehicles for recognizing obstacles and / or objects in the vicinity of a vehicle using deep learning methods was also described proposed, which is characterized in that it has a Doppler processor ( 1054 ) that stores ensembles of echo signals from discrete points and / or spatial directions, in particular in an image field, which are then used to estimate the Doppler shift, particularly at points in the image and / or in spatial directions, using a fast Fourier transform (FFT) .

Bevorzugt wird mittels einer schnellen diskreten Fourier-Transformation ein nach Raumrichtungen aufgelöstes multispektrales Bild erzeugt. Da die Sendefrequenz bekannt ist, ergeben sich für jede Raumrichtung dann die Werte: Amplitude der Reflektion, zeitliche Verzögerung oder Abstand der Reflektion, Frequenzverschiebung der Reflektion oder positive bzw. negative Geschwindigkeit in Sensorrichtung (Richtung auf die Ultraschallwandler zu). Werden auch vergangene Bilder ausgewertet, so kann durch zeitliche Merkmalsverfolgung markanten Punkten in dem jeweiligen Bild ein Bewegungsvektor zugeordnet werden. Besonders bevorzugt ist die Situation, wenn durch den Abstand der Ultraschallwandler z.B. auf der Stoßstange der Dopplerprozessor die Doppleranalyse spezifisch für das Messsignal jedes Ultraschallwandlers ausführt. Da der Winkel zwischen reflektierendem Objekt und dem jeweiligen Ultraschallwandler bei ausreichender Nähe unterschiedlich ist, weichen die Ergebnisse der jeweiligen Doppler-Analysen der Empfangssignale verschiedenen Ultraschallwandler leicht voneinander ab. Auf diese Weise kann auch direkt aus den Ultraschallwandlerempfangssignalen auf Geschwindigkeiten senkrecht zur Sichtlinie zwischen den Ultraschallwandlern und dem jeweiligen Objekt geschlossen werden. Dies kann dann mit den durch Bildverarbeitung der Ultraschallbildsequenzen ermittelten Geschwindigkeiten korreliert werden.A multispectral image resolved according to spatial directions is preferably generated by means of a fast discrete Fourier transformation. Since the transmission frequency is known, the following values result for each spatial direction: amplitude of the reflection, time delay or distance of the reflection, frequency shift of the reflection or positive or negative speed in the sensor direction (towards the ultrasonic transducer). If past images are also evaluated, a movement vector can be assigned to distinctive points in the respective image by tracking features over time. The situation is particularly preferred when the distance between the ultrasonic transducers e.g. The Doppler processor on the bumper carries out the Doppler analysis specifically for the measurement signal from each ultrasonic transducer. Since the angle between the reflecting object and the respective ultrasonic transducer is different when it is sufficiently close, the results of the respective Doppler analyzes of the received signals from different ultrasonic transducers differ slightly from one another. In this way, it is also possible to deduce speeds perpendicular to the line of sight between the ultrasonic transducers and the respective object directly from the ultrasonic transducer reception signals. This can then be correlated with the speeds determined by image processing of the ultrasound image sequences.

Automobiles Ultraschallmesssystem mit Multiplanar-ReformatiererAutomobile ultrasonic measuring system with multiplanar reformatter

In der obigen Beschreibung wurde auch ein Ultraschallmesssystem zur Verwendung in Kraftfahrzeugen zum Erkennen von Hindernissen und/oder Objekten im Umfeld eines Fahrzeugs unter Verwendung von Deep-Learning-Verfahren vorgeschlagen, das dadurch gekennzeichnet ist, dass sie einen Multiplanar-Reformatierer (1044) aufweist, der Echos, die von Punkten in einer gemeinsamen Ebene in einem volumetrischen Bereich des Raumes im Umfeld des Fahrzeugs empfangen werden, in ein Ultraschallbild dieser Ebene umwandelt.In the above description, an ultrasonic measuring system for use in motor vehicles for the detection of obstacles and / or objects in the vicinity of a vehicle using deep learning methods was proposed, which is characterized in that it uses a multiplanar reformatter ( 1044 ), which converts echoes received from points in a common plane in a volumetric area of the room in the vicinity of the vehicle into an ultrasound image of this plane.

Die Funktion des Multiplanar-Reformatierers (1044) ist typischerweise eng mit der Funktion und dem Zusammenspiel des Mikrobeamformers (1014) und mehrerer Ultraschallwandler innerhalb einer Ultraschallwandleranordnung (1012) verwoben. Während der Mikrobeamformer (1014) die Ausrichtung und/oder Form der Empfangs- und/oder Sendekeule der mehreren Ultraschallwandlern innerhalb einer Ultraschallwandleranordnung (1012) von Signalen des Mikrobeamformers (1014) steuert und kontrolliert, selektiert der Multiplanar-Reformatierer (1044) aus dem einkommenden Datenstrom der Empfangssignale der Ultraschallwandler solche Signalanteile in einer Ebene, die typischerweise parallel zu einer Fahrzeugebene und/oder der Fahrbahnebene ist. Hierfür kombiniert er die Empfangssignale von mindestens zwei Ultraschallwandlern, die in unterschiedlicher Höhe beispielsweise an der Stoßstange angebracht sind und wertet die Phasenverschiebung der Signale in der Art aus, dass nur solche Signale weiterverarbeitet werden, die Reflektionen in einer Ebene umfassen. Hierbei ist eine Ebene als ein begrenzter Raumwinkelbereich mit einem minimalen Empfindlichkeitswinkel φmin (siehe 25) zwischen Fahrzeug und Senkrechten zur Fahrbahn und einem maximalen Winkel φmax (siehe 25) zwischen Fahrzeug und Senkrechten zur Fahrbahn.The function of the multiplanar reformatter ( 1044 ) is typically closely related to the function and interaction of the microbeamformer ( 1014 ) and several ultrasonic transducers within an ultrasonic transducer arrangement ( 1012 ) interwoven. While the microbeamformer ( 1014 ) the alignment and / or shape of the receiving and / or transmitting lobe of the multiple ultrasonic transducers within an ultrasonic transducer arrangement ( 1012 ) of signals from the microbeamformer ( 1014 ) controls and controls, selects the multiplanar reformatter ( 1044 ) from the incoming data stream of the received signals of the ultrasonic transducers, such signal components in a plane that is typically parallel to a vehicle plane and / or the road plane. To do this, it combines the received signals from at least two ultrasonic transducers, which are mounted at different heights, for example on the bumper, and evaluates the phase shift of the signals in such a way that only those signals are processed which include reflections in one plane. Here, a plane is defined as a limited solid angle area with a minimum sensitivity angle φ min (see 25 ) between the vehicle and perpendicular to the roadway and a maximum angle φ max (see 25 ) between the vehicle and perpendicular to the road.

Es wird auch hier empfohlen mehr als 10 Ultraschallwandler, besser mehr als 20, noch besser mehr als 50 Ultraschallwandler zu verwenden. Um eine Höhenauflösung zu erreichen, wird empfohlen, dass die Ultraschallwandleranordnung (1012) Ultraschallwandler umfasst, die in mindestens zwei Reihen, besser mehr als 5 Reihen im Wesentlichen parallel zur Fahrbahn angeordnet sind. Diese Lage kann natürlich nur bei ideal gleich großen Rädern, exakt paralleler Stoßstangen Montierung etc. erreicht werden. Der Begriff „im Wesentlichen“ soll daher auch hier eine Abweichung von +/-10° aus diesen Lagen miteinschließen.Here, too, it is recommended to use more than 10 ultrasonic transducers, better than 20, even better than 50 ultrasonic transducers. In order to achieve a height resolution, it is recommended that the ultrasonic transducer arrangement ( 1012 ) Comprises ultrasonic transducers which are arranged in at least two rows, better than 5 rows, essentially parallel to the roadway. Of course, this position can only be achieved with ideally equally sized wheels, exactly parallel bumper mounts, etc. The term “essentially” should therefore also include a deviation of +/- 10 ° from these positions.

Automobiles Ultraschallmesssystem mit VolumenrendererAutomobile ultrasonic measurement system with volume renderer

In der obigen Beschreibung wurde auch ein Ultraschallmesssystem zur Verwendung in Kraftfahrzeugen zum Erkennen von Hindernissen und/oder Objekten im Umfeld eines Fahrzeugs unter Verwendung von Deep-Learning-Verfahren vorgeschlagen, das dadurch gekennzeichnet ist, dass sie einen Volumenrenderer (1042) aufweist, der die Echosignale eines 3D-Datensatzes in ein projiziertes 3D-Bild konvertiert, wie es von einem gegebenen Bezugspunkt aus gesehen wird.In the above description, an ultrasonic measuring system for use in motor vehicles for recognizing obstacles and / or objects in the vicinity of a vehicle using deep learning methods was proposed, which is characterized in that it uses a volume renderer ( 1042 ) that converts the echo signals of a 3D data set into a projected 3D image as viewed from a given reference point.

Hierzu berechnet ein Rechnersystem aus den empfangenen Daten ein dreidimensionales Fahrzeugumfeldmodell. Dieses kann dann dem Fahrzeugführer je nach Gefahrenlage so dargestellt werden, dass er die Situation mit maximaler Wahrscheinlichkeit gut erfassen kann. Hierfür ist es sinnvoll, wenn ein neuronales Netzwerkmodell, beispielsweise das dritte neuronale Netzwerkmodell (138), die optimale Betrachterposition und die optimale Blickrichtung auf das Fahrzeugumfeldmodell beispielsweise in Abhängigkeit von der gemeinsamen Objekterkennungshypothese bestimmt und eine entsprechende Darstellung des ermittelten Fahrzeugumfeldmodells auf dem Bildschirm (19) veranlasst. Was eine gute Perspektive ist, kann dabei sehr Fahrzeugführer spezifisch und auch Kulturabhängig sein. Es ist daher anzuraten mittels sogenannter Fokus-Gruppen bestehend aus einem repräsentativen Querschnitt der Fahrzeugführer des Zielmarktes einen Startparametersatz für das betreffende neuronale Netzwerkmodell zu ermitteln und dann mittels Benutzereingaben (H142) die Sichtweise fahrzeugführerspezifisch anzupassen. For this purpose, a computer system calculates a three-dimensional vehicle environment model from the received data. This can then be presented to the vehicle driver depending on the hazard situation in such a way that he can grasp the situation with maximum probability. For this it makes sense if a neural network model, for example the third neural network model ( 138 ), the optimal observer position and the optimal viewing direction to the vehicle surroundings model, for example determined as a function of the common object detection hypothesis and a corresponding representation of the determined vehicle environment model on the screen ( 19th ). What is a good perspective can be very driver-specific and also culture-dependent. It is therefore advisable to use so-called focus groups consisting of a representative cross-section of the vehicle drivers in the target market to determine a starting parameter set for the neural network model in question and then to adapt the driver-specific perspective using user inputs (H142).

Automobiles Ultraschallmesssystem mit SicherheitseinrichtungAutomobile ultrasonic measuring system with safety device

In der obigen Beschreibung wurde auch ein Messsystem zur Verwendung in Kraftfahrzeugen zum Erkennen von Hindernissen und/oder Objekten im Umfeld eines Fahrzeugs unter Verwendung von Deep-Learning-Verfahren vorgeschlagen, das dadurch gekennzeichnet ist, dass sie eine erste Sicherheitsvorrichtung (142) und ein oder mehrere neuronale Netzwerkmodelle (16, 136, 138) zur Auswertung der Messdaten zumindest einer Sensoranordnung (11, 131) des Messsystems umfasst und dass die erste Sicherheitsvorrichtung (142) zumindest das neuronale Netzwerkmodell (138) überwacht, das diese Messdaten oder daraus abgeleitete Daten verarbeitet.In the above description, a measuring system for use in motor vehicles for recognizing obstacles and / or objects in the vicinity of a vehicle using deep learning methods was proposed, which is characterized in that it has a first safety device ( 142 ) and one or more neural network models ( 16 , 136 , 138 ) to evaluate the measurement data of at least one sensor arrangement ( 11 , 131 ) of the measuring system and that the first safety device ( 142 ) at least the neural network model ( 138 ) that processes this measurement data or data derived from it.

Dabei kann die Sicherheitsvorrichtung bevorzugt von Signalen (H11, H131) der mindestens einen Sensoranordnung (11, 131) des Messsystems beeinflusst werden. Außerdem kann die Sicherheitsvorrichtung (142) bevorzugt die Parameter zumindest eines neuronalen Netzwerkmodells (16, 136, 138) beeinflussen. Des Weiteren sollte die Sicherheitsvorrichtung (142) von einem Benutzersignal (H142) oder einem externen Steuersignal (H142) beeinflusst werden können. Auf diese Weise kann der Benutzer bei sicherheitsgefährdenden Vorfällen dadurch eine negative Signalisierung einen Lernvorgang initiieren, der solche Vorkommnisse für die Zukunft ausschließt.The safety device can preferably use signals (H11, H131) of the at least one sensor arrangement ( 11 , 131 ) of the measuring system can be influenced. In addition, the safety device ( 142 ) preferably the parameters of at least one neural network model ( 16 , 136 , 138 ) influence. Furthermore, the safety device ( 142 ) can be influenced by a user signal (H142) or an external control signal (H142). In this way, in the event of incidents endangering security, the user can initiate negative signaling of a learning process that rules out such incidents in the future.

Umgekehrt hat die Sicherheitsvorrichtung (142) bevorzugt die Eigenschaft, dass sie sicherheitsgefährdende und/oder potenziell sicherheitsgefährdende Signalisierungen des zumindest einen neuronalen Netzwerkmodells (16, 136, 138) sicher unterbinden kann. Dies kann durch Plausibilitätschecks der ermittelten Signale in Abhängigkeit von hoch priorisierten weiteren Signalen (H11, H15, H131, H135, H155, H151) innerhalb der Vorrichtung und/oder durch externe Kontrollsignale (H142) geschehen, wobei es sich bei diesen Signalen um ein oder mehrere Signale im Zeit und/oder Raummultiplex und/oder um Informationen an vorbestimmten Speicherstellen eines Rechnernetzwerkes handeln kann.Conversely, the safety device ( 142 ) prefers the property that it contains safety-endangering and / or potentially safety-endangering signaling of the at least one neural network model ( 16 , 136 , 138 ) can safely prevent. This can be done by plausibility checks of the determined signals depending on high-priority further signals (H11, H15, H131, H135, H155, H151) within the device and / or by external control signals (H142), these signals being a or multiple signals in time and / or space multiplex and / or information at predetermined storage locations of a computer network.

Vorteiladvantage

Das vorgeschlagene System ermöglicht die Bestimmung der geometrischen Anordnung und die Klassifizierung von Objekten im Umfeld des Fahrzeugs durch ein Gesamtmesssystem mit selbstlernenden Messsystemen (161, 162) und einem selbstlernenden Entscheider (138, 158). Dieser Lernprozess kann auch im normalen Betrieb erfolgen, wodurch sich das System laufend verbessert. Benutzereingaben und Sicherheitssignale (H11, H15, H131, H135, H142) sichern den potenziellen Raum des möglichen Verhaltens so ab, dass kritische Zustände vermieden werden.The proposed system enables the determination of the geometric arrangement and the classification of objects in the vicinity of the vehicle by means of an overall measurement system with self-learning measurement systems ( 161 , 162 ) and a self-learning decision maker ( 138 , 158 ). This learning process can also take place during normal operation, which means that the system is continuously improved. User inputs and safety signals (H11, H15, H131, H135, H142) secure the potential space of possible behavior in such a way that critical states are avoided.

FigurenlisteFigure list

  • 1 In 1 ist ein Ultraschall-Fahrzeugumfeldanalysesystem schematisch vereinfacht in Form eines Blockdiagramms dargestellt, das gemäß den Prinzipien der vorliegenden Erfindung aufgebaut ist. 1 In 1 An ultrasonic vehicle environment analysis system is shown schematically simplified in the form of a block diagram, which is constructed in accordance with the principles of the present invention.
  • 2 zeigt ein Verfahren zum Trainieren und Verwenden eines neuronalen Netzwerkmodells zum Identifizieren der Anatomie in Ultraschallbildern. 2 Figure 11 shows a method of training and using a neural network model to identify anatomy in ultrasound images.
  • 3 zeigt einen alternativen Aufbau des vorgeschlagenen Ultraschallmesssystems (164) mit einem ersten neuronalen Netzwerkmodell (16) für das entsprechende Verfahren gemäß Abschnitt B). 3 shows an alternative structure of the proposed ultrasonic measuring system ( 164 ) with a first neural network model ( 16 ) for the corresponding procedure according to section B).
  • 4 zeigt ein Modell zum Trainieren und Verwenden des ersten neuronalen Netzwerkmodells (16). 4th shows a model for training and using the first neural network model ( 16 ).
  • 5 zeigt ein Modell zum Trainieren und Abspeichern der Parameter des ersten neuronalen Netzwerkmodells (16). 5 shows a model for training and storing the parameters of the first neural network model ( 16 ).
  • 6zeigt ein Modell zum Laden der abgespeicherten Parameter des ersten neuronalen Netzwerkmodells (16) und dem anschließenden Verwenden des ersten neuronalen Netzwerkmodells (16). 6 shows a model for loading the stored parameters of the first neural network model ( 16 ) and then using the first neural network model ( 16 ).
  • 7 zeigt ein Modell zum Trainieren und Verwenden des zweiten neuronalen Netzwerkmodells (136). 7th shows a model for training and using the second neural network model ( 136 ).
  • 8 zeigt ein Modell zum Trainieren und Abspeichern der Parameter des zweiten neuronalen Netzwerkmodells (136). 8th shows a model for training and storing the parameters of the second neural network model ( 136 ).
  • 9 zeigt ein Modell zum Laden der abgespeicherten Parameter des zweiten neuronalen Netzwerkmodells (136) und dem anschließenden Verwenden des zweiten neuronalen Netzwerkmodells (136). 9 shows a model for loading the stored parameters of the second neural network model ( 136 ) and then using the second neural network model ( 136 ).
  • 10 zeigt schematisch das erste Kombinationsverfahren aus Abschnitt E). 10 shows schematically the first combination method from section E).
  • 11 zeigt ein Modell zum Trainieren und Verwenden des dritten neuronalen Netzwerkmodells (138). 11 shows a model for training and using the third neural network model ( 138 ).
  • 12 zeigt ein Modell zum Trainieren und Abspeichern der Parameter des dritten neuronalen Netzwerkmodells (138). 12th shows a model for training and storing the parameters of the third neural network model ( 138 ).
  • 13 zeigt ein Modell zum Laden der abgespeicherten Parameter des dritten neuronalen Netzwerkmodells (138) und dem anschließenden Verwenden des dritten neuronalen Netzwerkmodells (138). 13th shows a model for loading the stored parameters of the third neural network model ( 138 ) and then using the third neural network model ( 138 ).
  • 14 zeigt ein Modell zum Trainieren und Verwenden des fünften neuronalen Netzwerkmodells (158). 14th shows a model for training and using the fifth neural network model ( 158 ).
  • 15 zeigt ein Modell zum Trainieren und Abspeichern der Parameter des fünften neuronalen Netzwerkmodells (158). 15th shows a model for training and storing the parameters of the fifth neural network model ( 158 ).
  • 16 zeigt ein Modell zum Laden der abgespeicherten Parameter des fünften neuronalen Netzwerkmodells (158) und dem anschließenden Verwenden des fünften neuronalen Netzwerkmodells (158). 16 shows a model for loading the stored parameters of the fifth neural network model ( 158 ) and then using the fifth neural network model ( 158 ).
  • 17 zeigt schematisch das zweite Kombinationsverfahren aus Abschnitt F). 17th shows schematically the second combination method from section F).
  • 18 zeigt den Aufbau des vorgeschlagenen kombinierten Gesamtsystems aus einem Ultraschallmesssystem (164) und einem zweiten Messsystem (161) für das entsprechende erste Kombinationsverfahren gemäß Abschnitt E). 18th shows the structure of the proposed combined overall system from an ultrasonic measuring system ( 164 ) and a second measuring system ( 161 ) for the corresponding first combination procedure according to Section E).
  • 19 zeigt den Aufbau des vorgeschlagenen kombinierten Gesamtsystems aus einem zweiten Messsystem (161) und einem dritten Messsystem (162) für das entsprechende erste Kombinationsverfahren gemäß Abschnitt F). 19th shows the structure of the proposed combined overall system from a second measuring system ( 161 ) and a third measuring system ( 162 ) for the corresponding first combination procedure according to Section F).
  • 20 zeigt ein Modell zum Trainieren und Verwenden eines Gesamtsystems nach 19. (Kann auf ein Gesamtsystem nach 18 leicht übertragen werden.) 20th shows a model for training and using an overall system 19th . (Can refer to an overall system 18th easily transferred.)
  • 21 zeigt ein Modell zum Trainieren und Abspeichern der Parameter der neuronalen Netzwerkmodelle eines Gesamtsystems nach 19. (Kann auf ein Gesamtsystem nach 18 leicht übertragen werden.) 21st shows a model for training and storing the parameters of the neural network models of an overall system 19th . (Can refer to an overall system 18th easily transferred.)
  • 22 zeigt ein Modell zum Ladender Parameter der neuronalen Netzwerkmodelle eines Gesamtsystems nach 19 und dem Verwenden des so vorbereiteten Gesamtsystems. (Kann auf ein Gesamtsystem nach 18 leicht übertragen werden.) 22nd Fig. 12 shows a model for loading the parameters of the neural network models of an overall system 19th and using the entire system prepared in this way. (Can refer to an overall system 18th easily transferred.)
  • 23 zeigt das Beam-Forming durch konstruktive und destruktive Interferenz auf Basis der Phaseninformation im Echosignal für Ultraschallwandler der Ultraschallwandleranordnung (1012) mit unterschiedlicher Position längs der Fahrzeugbreite. 23 shows the beam forming through constructive and destructive interference based on the phase information in the echo signal for ultrasonic transducers of the ultrasonic transducer arrangement ( 1012 ) with different positions along the width of the vehicle.
  • 24 Zeigt die Begrenzung des Empfangsbereichs auf einen Winkelbereich durch einen Multiplanar-Reformatierer mittels Triangulation auf Basis der Phaseninformation im Echosignal für Ultraschallwandler der Ultraschallwandleranordnung (1012) mit unterschiedlicher Höhenposition. 24 Shows the limitation of the reception area to an angular range by a multiplanar reformatter using triangulation based on the phase information in the echo signal for the ultrasonic transducers of the ultrasonic transducer arrangement ( 1012 ) with different height positions.

Beschreibung der FigurenDescription of the figures

Figuren 1 und 2Figures 1 and 2

Die 1 und 2 sind oben im Text beschrieben.The 1 and 2 are described above in the text.

Figur 3Figure 3

3 zeigt den Aufbau des vorgeschlagenen Ultraschallmesssystems (164) für die Anwendung in einem Fahrzeug. Bei dem Fahrzeug kann es sich beispielsweise um ein Kfz, ein Motorrad, ein Fluggerät oder ein Schiff oder dergleichen handeln. 3 shows the structure of the proposed ultrasonic measuring system ( 164 ) for use in a vehicle. The vehicle can be, for example, a motor vehicle, a motorcycle, an aircraft or a ship or the like.

Eine vorschlagsgemäße Ultraschallwandleranordnung (11) erfasst Ultraschallmesswerte durch Aussenden von Ultraschallwellen und Empfangen der Echosignale. Die Ultraschallwandleranordnung (11) kann hierbei eine ein- oder zweidimensionale Anordnung von einem oder mehreren Ultraschallwandlern sein, um Messwerte in ein, zwei oder drei Dimensionen, zu erfassen. Ein Ultraschallwandler der Ultraschallwandleranordnung kann im Sinne dieses Vorschlags aus einem Ultraschallsender und aus einem davon getrennten Ultraschallempfänger im Raummultiplex oder einem Ultraschalltransducer, der im Zeitmultiplex sendet und empfängt, bestehen. Die Ultraschallwandleranordnung (11) ist mit einer Ansteuerungselektronik (12) verbunden, die optional zur Strahlformung beispielsweise mittels Phasenverschiebung der ausgesendeten Ultraschallsignale der einzelnen Ultraschallwandler der Ultraschallwandleranordnung (11) fähig sein kann. Die Ansteuerungselektronik (12) steuert die entsprechenden Ultraschallwandler der Ultraschallwandleranordnung (11) zum vorzugsweise gerichteten Aussenden oder Empfangen der Ultraschallsignale an. Diese Ausrichtung ist wünschenswert, aber nicht zwingend. Das Aussenden von Ultraschallsignalen durch die Ultraschallwandleranordnung (11) wird gesteuert durch eine Sendersteuerung (13). Diese ist mit der Ansteuerungselektronik (12) verbunden und stellt die Sendeparameter der Ultraschallwandler der Ultraschallwandleranordnung (11) ein, abhängig von Einstellungen, die über die in einem optionalen Speicher abgelegten optionalen Benutzereinstellungen (14), bzw. durch ein übergeordnetes Steuergerät, vorgegeben werden. Sendeparameter, welche von der Sendersteuerung (13) gesteuert werden können, sind beispielsweise Burstlänge, Frequenz, Frequenzverlauf, Kodierung, Polarität, Phase oder Amplitude. A proposed ultrasonic transducer arrangement ( 11 ) records ultrasonic measured values by sending out ultrasonic waves and receiving the echo signals. The ultrasonic transducer arrangement ( 11 ) can be a one or two-dimensional arrangement of one or more ultrasonic transducers in order to record measured values in one, two or three dimensions. An ultrasound transducer of the ultrasound transducer arrangement can in the sense of this proposal consist of an ultrasound transmitter and an ultrasound receiver separate therefrom in space division multiplex or an ultrasound transducer which transmits and receives in time division multiplex. The ultrasonic transducer arrangement ( 11 ) is equipped with control electronics ( 12th ) connected, optionally for beam shaping, for example by means of Phase shift of the transmitted ultrasonic signals of the individual ultrasonic transducers of the ultrasonic transducer arrangement ( 11 ) can be capable. The control electronics ( 12th ) controls the corresponding ultrasonic transducers of the ultrasonic transducer arrangement ( 11 ) for preferably directed transmission or reception of the ultrasonic signals. This alignment is desirable, but not mandatory. The emission of ultrasonic signals by the ultrasonic transducer arrangement ( 11 ) is controlled by a transmitter control ( 13th ). This is with the control electronics ( 12th ) and sets the transmission parameters of the ultrasonic transducers of the ultrasonic transducer arrangement ( 11 ), depending on the settings made via the optional user settings stored in an optional memory ( 14th ), or by a higher-level control unit. Send parameters, which are from the transmitter control ( 13th ) can be controlled, for example, burst length, frequency, frequency curve, coding, polarity, phase or amplitude.

Die durch die Ultraschallwandler der Ultraschallwandleranordnung (11) empfangenen Echosignale werden von dem Signalprozessor (15) verarbeitet, einschließlich Filterung mittels digitaler Filter und Rauschunterdrückung. Bei dem Signalprozessor (15) kann es sich auch ganz oder teilweise um eine digitale Signalverarbeitungsvorrichtung, beispielsweise einen Signalprozessor im Sinne der Prozessortechnik oder eine wirkungsgleiche Vorrichtung, und/oder eine analoge Schaltung und/oder eine Mischung dieser beiden Schaltungsvarianten handeln. Die vom Signalprozessor (15) aufbereiteten Empfangssignale sind die Eingangssignale des ersten neuronalen Netzwerkmodells (16), das typischerweise auf einem digitalen Speicher eines Rechners abgelegt ist. Das erste neuronale Netzwerkmodell (16) kann beispielsweise auch als spezielle mikroelektronische Schaltung oder andere funktionsgleiche Vorrichtung realisiert werden. Das neuronale Netzwerkmodell (16) ist die Umsetzung eines Deep-Learning-Verfahrens, wie oben beschrieben. Das Training des ersten neuronalen Netzwerkmodells (16) erfolgt mittels Trainingsdaten verschiedener Objekte in verschieden Positionen. Diese Trainingsdaten können mittels Messung und/oder Simulation ermittelt werden. Den Datensätzen der Trainingsdaten werden vor dem Training Bewertungsdaten zugeordnet, die die erwartete Bewertung durch das erste neuronale Netzwerkmodell (16) repräsentieren und die durch die Trainingsvorrichtung zur Entscheidung ob und wie die Parameter des ersten neuronalen Netzwerkmodells (16) geändert werden müssen, genutzt werden. Diese Trainingsdaten sind in einem digitalen Speicher (17) abgespeichert. Zum Training (22) können Methoden des überwachten oder des nicht-überwachten Lernens angewendet werden. Nach Abschluss des Trainings (22) können die trainierten Daten für die Parametrisierung der Verknüpfungen des ersten neuronalen Netzwerkmodells (16) in eine Datenbank neuronaler Netzwerkdaten extrahiert (=abgespeichert) (35) werden. Diese können dann in ein baugleiches Ultraschallmesssystem (164) oder im Wesentlichen baugleiches Ultraschallmesssystem ohne gesondertes Training in der Produktion baugleicher oder im Wesentlichen baugleicher weiterer Ultraschallmesssysteme (164) geladen werden, ohne dass ein Training (22) der weiteren baugleichen Ultraschallmesssysteme (164) erfolgen muss. Ein Ultraschallmesssystem (164) gilt im Sinne dieser Offenlegung dann als baugleich, wenn das Ultraschallmesssystem (164) bei Verwendung der auf diese Weise ermittelten Netzwerkdaten seinen bestimmungsgemäßen Zweck erfüllt. Bei den Netzwerkdaten handelt es sich im Wesentlichen um die Parameter des neuronalen Netzwerkmodells. Es ist sinnvoll mit einem Laboraufbau diese Netzwerkdaten zu ermitteln und die Netzwerkdaten dann in ein serientaugliches Serienprodukt einzuspeisen. Dies hat den Vorteil, dass die zeitintensive Anfangstrainingsphase in der Produktion eingespart werden kann. Die baugleichen weiteren Ultraschallmesssysteme (164) optimieren sich dann im Betrieb von diesem vorgegebenen Startpunkt selbst weiter. Als baugleiches Ultraschallmesssystem (164) wird im Sinne dieser Offenlegung somit ein Ultraschallmesssystem (164) angesehen, dass dazu geeignet oder bestimmt ist, die ermittelten Trainingsdaten in der Datenbank neuronaler Netzwerkdaten des Ultraschallmesssystems (164) zu verwenden. Bei dem Ultraschallmesssystem (164), mit dessen Hilfe die Trainingsdaten in der Datenbank neuronaler Netzwerkdaten ermittelt wurden kann es sich beispielsweise um ein Laborsystem mit erheblichen mechanischen Qualitätsmängeln handeln, während es sich bei den weiteren baugleichen Ultraschallmesssystemen (164) um produktionsreife mechanisch stabile Ultraschallmesssysteme (164) handeln kann, die in Aussehen und Form erheblich von dem Laborsystem abweichen können.The ultrasonic transducers of the ultrasonic transducer arrangement ( 11 ) received echo signals are processed by the signal processor ( 15th ), including filtering using digital filters and noise reduction. With the signal processor ( 15th ) it can also be wholly or partially a digital signal processing device, for example a signal processor in the sense of processor technology or a device with the same effect, and / or an analog circuit and / or a mixture of these two circuit variants. The signals from the signal processor ( 15th ) processed received signals are the input signals of the first neural network model ( 16 ), which is typically stored on a digital memory of a computer. The first neural network model ( 16 ) can also be implemented, for example, as a special microelectronic circuit or other functionally equivalent device. The neural network model ( 16 ) is the implementation of a deep learning process, as described above. The training of the first neural network model ( 16 ) is carried out using training data from various objects in different positions. These training data can be determined by means of measurement and / or simulation. Before the training, evaluation data are assigned to the data sets of the training data, which the expected evaluation by the first neural network model ( 16 ) and which are used by the training device to decide whether and how the parameters of the first neural network model ( 16 ) have to be changed. These training data are in a digital memory ( 17th ) saved. To the training ( 22nd ) methods of supervised or unsupervised learning can be used. After completing the training ( 22nd ) the trained data can be used to parameterize the connections of the first neural network model ( 16 ) are extracted (= stored) (35) in a database of neural network data. These can then be integrated into an identical ultrasonic measuring system ( 164 ) or essentially identical ultrasonic measuring system without separate training in the production of identical or essentially identical additional ultrasonic measuring systems ( 164 ) can be loaded without a training session ( 22nd ) of the other identical ultrasonic measuring systems ( 164 ) must be done. An ultrasonic measuring system ( 164 ) is considered to be structurally identical for the purposes of this disclosure if the ultrasonic measuring system 164 ) fulfills its intended purpose when using the network data determined in this way. The network data are essentially the parameters of the neural network model. It makes sense to determine this network data with a laboratory setup and then to feed the network data into a series product suitable for series production. This has the advantage that the time-consuming initial training phase in production can be saved. The identical other ultrasonic measuring systems ( 164 ) then continue to optimize themselves during operation from this specified starting point. As an identical ultrasonic measuring system ( 164 ) in the sense of this disclosure is therefore an ultrasonic measuring system ( 164 ) considered that it is suitable or intended to store the determined training data in the database of neural network data of the ultrasonic measurement system ( 164 ) to use. With the ultrasonic measuring system ( 164 ), with the help of which the training data was determined in the database of neural network data, it can be, for example, a laboratory system with considerable mechanical quality defects, while the other structurally identical ultrasonic measuring systems ( 164 ) to produce mechanically stable ultrasonic measuring systems ( 164 ), which can differ significantly in appearance and form from the laboratory system.

Die Ausgabewerte des ersten neuronalen Netzwerkmodells (16) sind bevorzugt die Positionen der erkannten Objekte und bevorzugt deren Klassifizierung, sowie beispielsweise ein entsprechender Konfidenzwert der dem erkannten Erkennungsergebnis als Ganzes zugeordnet sein kann, und/oder Konfidenzwerte, die den einzelnen Objekten jeweils zugeordnet sind. Weitere Daten können Teil der Ausgabewerte sein. Auch sind zueinander alternative Hypothesenlisten möglich, wobei die Hypothesenliste alternative Erkennungsergebnisse mit unterschiedlichen Konfidenzwerten für diese Objekterkennungsergebnisse umfasst. Jedes Objekterkennungsergebnis umfasst dabei ein oder mehrere Objekte. Der bevorzugt verwendete Bildprozessor (18) setzt diese Informationen in eine geeignete zwei- oder dreidimensionale Darstellung um, die von der Anzeige (19) für den Fahrzeugführer ausgegeben wird. Die Informationen über Objektpositionen und Klassifizierungen werden bevorzugt auch an die Benutzersteuerung (110) übergeben. Die Auswahl einer abgespeicherten Benutzersteuerung oder die Anpassung von Regelparametern einer Steuerung als Reaktion auf die Klassifizierung wird von der Benutzersteuerung (110) umgesetzt und an den Einstellungsspeicher (14) weitergegeben, bzw. von der Benutzersteuerungsanzeige (111) angezeigt. Der Einstellungsspeicher (14) übermittelt auch von der Klassifizierung abhängige Parameter an den Bildprozessor (18), sodass die von der Anzeige (19) ausgegebene Darstellung der Objekte und ihrer Identifikation automatisch geeignet angepasst werden kann.The output values of the first neural network model ( 16 ) are preferably the positions of the recognized objects and preferably their classification, as well as, for example, a corresponding confidence value that can be assigned to the recognized recognition result as a whole, and / or confidence values that are assigned to the individual objects. Further data can be part of the output values. Hypothesis lists that are alternative to one another are also possible, the hypothesis list including alternative recognition results with different confidence values for these object recognition results. Each object recognition result includes one or more objects. The preferred image processor used ( 18th ) converts this information into a suitable two- or three-dimensional representation, which is provided by the display ( 19th ) is issued to the driver. The information about object positions and classifications are also given preference to the user control ( 110 ) to hand over. The selection of a saved user control or the adjustment of control parameters of a control in response to the classification is carried out by the user control ( 110 ) and transferred to the settings memory ( 14th ) or from the user control display ( 111 ) is displayed. The settings memory ( 14th ) also transmits parameters dependent on the classification to the image processor ( 18th ) so that the display ( 19th ) the displayed representation of the objects and their identification can be automatically adapted accordingly.

Figur 4Figure 4

4 zeigt ein Modell zum Trainieren und Verwenden des beschriebenen neuronalen Netzwerkmodells zur Positionsbestimmung und Klassifizierung von Objekten in der Umgebung des Fahrzeugs. Im Installationsschritt (21) wird auf einem Rechnersystem ein erstes neuronales Netzwerkmodell (16) als Basis des Deep Learning Verfahrens installiert. Dem ersten neuronalen Netzwerkmodell (16) werden im Trainings-Schritt (22) die entsprechenden Trainings-Empfangssignale von vermessenen oder simulierten Objekten in möglichst vielen verschiedenen Anordnungen und Positionen als Eingangswerte übergegeben. In einem Identifikationsschritt (23) werden die Objekte für das neuronale Netzwerkmodell identifiziert. Während des Trainings-Schritts (22) und des Identifikationsschritts (23) geschieht das eigentliche Lernen. Die Antworten des ersten neuronalen Netzwerkmodells (16) werden dabei mit Bewertungsdaten verglichen und die Parameter des ersten neuronalen Netzwerkmodells (16) geeignet modifiziert. Hierfür sollte eine möglichst große Menge an Trainingsdaten verwendet werden. 4th shows a model for training and using the described neural network model for determining the position and classifying objects in the vicinity of the vehicle. In the installation step ( 21st ) a first neural network model ( 16 ) installed as the basis of the deep learning process. The first neural network model ( 16 ) are used in the training step ( 22nd ) the corresponding training received signals from measured or simulated objects are transferred as input values in as many different arrangements and positions as possible. In one identification step ( 23 ) the objects for the neural network model are identified. During the training step ( 22nd ) and the identification step ( 23 ) the actual learning happens. The responses of the first neural network model ( 16 ) are compared with evaluation data and the parameters of the first neural network model ( 16 ) appropriately modified. The largest possible amount of training data should be used for this.

Das trainierte erste neuronale Netzwerkmodell (16) befindet sich im Fahrzeug bevorzugt auf einem digitalen Speicher, s. 3. Hier werden dem trainierten erste neuronalen Netzwerkmodell im Identifizierungsschritt (24) die Live-Ultraschallempfangssignale aus dem Betrieb der Ultraschallwandleranordnung (11) übergeben, um eine Bestimmung der Position und eine Klassifizierung der Objekte durchzuführen. Die Ausgabewerte des ersten neuronalen Netzwerkmodells (16), die Position und die Klassifizierung umfassen können, werden dann im nachfolgenden Verwendungsschritt (25) vom beschriebenen System weiterverwendet.The trained first neural network model ( 16 ) is preferably on a digital memory in the vehicle, see chap. 3 . Here, the trained first neural network model in the identification step ( 24 ) the live ultrasonic reception signals from the operation of the ultrasonic transducer arrangement ( 11 ) in order to determine the position and classify the objects. The output values of the first neural network model ( 16 ), the item and the classification, are then used in the subsequent usage step ( 25 ) used by the described system.

Figur 5Figure 5

zeigt ein Modell zum Trainieren und Abspeichern der Parameter des ersten neuronalen Netzwerkmodells (16).shows a model for training and storing the parameters of the first neural network model ( 16 ).

Im Installationsschritt (21) wird auf einem Rechnersystem ein erstes neuronales Netzwerkmodell (16) als Basis des Deep Learning Verfahrens installiert. Dem ersten neuronalen Netzwerkmodell (16) werden im Trainings-Schritt (22) die entsprechenden Trainings-Empfangssignale von vermessenen oder simulierten Objekten in möglichst vielen verschiedenen Anordnungen und Positionen als Eingangswerte übergegeben. In einem Identifikationsschritt (23) werden die Objekte für das neuronale Netzwerkmodell identifiziert. Während des Trainings-Schritts (22) und des Identifikationsschritts(23) geschieht das eigentliche Lernen. Die Antworten des ersten neuronalen Netzwerkmodells (16) werden dabei mit Bewertungsdaten verglichen und die Parameter des ersten neuronalen Netzwerkmodells (16) geeignet modifiziert. Hierfür sollte eine möglichst große Menge an Trainingsdaten verwendet werden.In the installation step ( 21st ) a first neural network model ( 16 ) installed as the basis of the deep learning process. The first neural network model ( 16 ) are used in the training step ( 22nd ) the corresponding training received signals from measured or simulated objects are transferred as input values in as many different arrangements and positions as possible. In one identification step ( 23 ) the objects for the neural network model are identified. During the training step ( 22nd ) and the identification step ( 23 ) the actual learning happens. The responses of the first neural network model ( 16 ) are compared with evaluation data and the parameters of the first neural network model ( 16 ) appropriately modified. The largest possible amount of training data should be used for this.

Die Netzwerkdaten (Parameterdaten) des trainierten ersten neuronalen Netzwerkmodells (16) werden im Gegensatz zur 4 nun jedoch in einem Sicherungsschritt (35) abgespeichert.The network data (parameter data) of the trained first neural network model ( 16 ) are in contrast to 4th but now in one backup step ( 35 ) saved.

Figur 6Figure 6

zeigt ein Modell zum Laden der im Sicherungsschritt (35) abgespeicherten Parameter des ersten neuronalen Netzwerkmodells (16) und zum anschließenden Verwenden des ersten neuronalen Netzwerkmodells (16).shows a model for loading the backup step ( 35 ) stored parameters of the first neural network model ( 16 ) and then using the first neural network model ( 16 ).

In einem Ladeschritt (41) werden die zuvor im Speicherschritt auf einem ersten Ultraschallmesssystem (164) abgespeicherten Parameter (Netzwerkdaten) des ersten neuronalen Netzwerkmodells (16) wieder in den Speicher des ersten neuronalen Netzwerkmodells (16) eines zweiten Ultraschallmesssystems (164), das im Wesentlichen gleich dem ersten Ultraschallmesssystem (164) ist, geladen. Bei diesem Ladeschritt (41) kann es sich auch um einen Konstruktionsschritt handeln, bei dem die Struktur und Konstruktion des zweiten Ultraschallmesssystems (164) so festgelegt wird, dass sie funktional einem Ultraschallmesssystem (164) mit einem solchen Speicher gelichkommt.In one loading step ( 41 ) the previously stored data on a first ultrasonic measuring system ( 164 ) stored parameters (network data) of the first neural network model ( 16 ) back into the memory of the first neural network model ( 16 ) a second ultrasonic measuring system ( 164 ), which is essentially the same as the first ultrasonic measuring system ( 164 ) is loaded. In this loading step ( 41 ) it can also be a design step in which the structure and construction of the second ultrasonic measuring system ( 164 ) is defined in such a way that it functions as an ultrasonic measuring system 164 ) with such a memory.

Das mittels dieses Ladeschritts (41) trainierte erste neuronale Netzwerkmodell (16) des zweiten Ultraschallmesssystems (164) befindet sich dann schließlich zu einem typischerweise späteren Zeitpunkt im Fahrzeug bevorzugt auf dem besagten digitalen Speicher, s. 3, des zweiten Ultraschallmesssystems (164). Hier werden dem trainierten ersten neuronalen Netzwerkmodell (16) im Identifizierungsschritt (24) die Live-Ultraschallempfangssignale aus dem Betrieb der Ultraschallwandleranordnung (11) im Fahrzeugbetrieb übergeben, um beispielsweise eine Bestimmung der Position und eine Klassifizierung der Objekte durchzuführen. Die Ausgabewerte des ersten neuronalen Netzwerkmodells (16), die Position und die Klassifizierung umfassen können, werden dann im nachfolgenden Verwendungsschritt (25) vom beschriebenen System wie zuvor dann bevorzugt weiterverwendet. That by means of this loading step ( 41 ) trained first neural network model ( 16 ) of the second ultrasonic measuring system ( 164 ) is then finally located in the vehicle at a typically later point in time, preferably on said digital memory, s. 3 , the second ultrasonic measuring system ( 164 ). Here the trained first neural network model ( 16 ) in the identification step ( 24 ) the live ultrasonic reception signals from the operation of the ultrasonic transducer arrangement ( 11 ) in vehicle operation, for example to determine the position and classify the objects. The output values of the first neural network model ( 16 ), which may include the position and the classification, are then used in the following usage step ( 25 ) from the system described as before then preferably used further.

Figur 7Figure 7

7 zeigt ein Modell zum Trainieren und Verwenden des beschriebenen zweiten neuronalen Netzwerkmodells (136) zur Positionsbestimmung und Klassifizierung von Objekten in der Umgebung des Fahrzeugs mittels eines zweiten Messsystems (161). Im Installationsschritt (51) wird auf einem Rechnersystem ein zweites neuronales Netzwerkmodell (136) als Basis des Deep Learning Verfahrens installiert. Dem zweiten neuronalen Netzwerkmodell (136) werden in einem Trainings-Schritt (52) die entsprechenden Trainings-Empfangssignale von vermessenen oder simulierten Objekten in möglichst vielen verschiedenen Anordnungen und Positionen als Eingangswerte übergegeben. In einem Identifikationsschritt (53) werden die Objekte für das zweite neuronale Netzwerkmodell (136) identifiziert. Während des Trainings-Schritts (52) und des Identifikationsschritts (53) geschieht das eigentliche Lernen. Die Antworten des zweiten neuronalen Netzwerkmodells (136) werden dabei mit Bewertungsdaten verglichen und die Parameter des zweiten neuronalen Netzwerkmodells (136) geeignet modifiziert. Hierfür sollte ebenfalls eine möglichst große Menge an Trainingsdaten verwendet werden. 7th shows a model for training and using the described second neural network model ( 136 ) to determine the position and classify objects in the vicinity of the vehicle using a second measuring system ( 161 ). In the installation step ( 51 ) a second neural network model ( 136 ) installed as the basis of the deep learning process. The second neural network model ( 136 ) are in a training step ( 52 ) the corresponding training received signals from measured or simulated objects are transferred as input values in as many different arrangements and positions as possible. In one identification step ( 53 ) the objects for the second neural network model ( 136 ) identified. During the training step ( 52 ) and the identification step ( 53 ) the actual learning happens. The responses of the second neural network model ( 136 ) are compared with evaluation data and the parameters of the second neural network model ( 136 ) appropriately modified. The largest possible amount of training data should also be used for this.

Das trainierte zweite neuronale Netzwerkmodell (136) befindet sich im Fahrzeug bevorzugt auf einem digitalen Speicher. Hier werden dem trainierten zweiten neuronalen Netzwerkmodell (136) im Identifizierungsschritt (54) die Live-Messsignale aus dem Betrieb der Sensoranordnung (131) übergeben, um beispielsweise eine alternative Bestimmung der Position und eine alternative Klassifizierung der Objekte durchzuführen. Die Ausgabewerte des zweiten neuronalen Netzwerkmodells (136), die beispielsweise die alternative Position und die alternative Klassifizierung umfassen können, werden dann im nachfolgenden Verwendungsschritt (55) vom beschriebenen System weiterverwendet.The trained second neural network model ( 136 ) is preferably located on a digital memory in the vehicle. Here the trained second neural network model ( 136 ) in the identification step ( 54 ) the live measurement signals from the operation of the sensor arrangement ( 131 ), for example to carry out an alternative determination of the position and an alternative classification of the objects. The output values of the second neural network model ( 136 ), which can include the alternative item and the alternative classification, for example, are then used in the subsequent use step ( 55 ) used by the described system.

Figur 8Figure 8

zeigt ein Modell zum Trainieren und Abspeichern der Parameter des zweiten neuronalen Netzwerkmodells (136).shows a model for training and storing the parameters of the second neural network model ( 136 ).

Im Installationsschritt (51) wird auf einem Rechnersystem ein zweites neuronales Netzwerkmodell (136) als Basis des Deep-Learning-Verfahrens installiert. Dem zweiten neuronalen Netzwerkmodell (136) werden in Trainings-Schritt (52) die entsprechenden Trainings-Empfangssignale von vermessenen oder simulierten Objekten in möglichst vielen verschiedenen Anordnungen und Positionen als Eingangswerte übergegeben. In einem Identifikationsschritt (53) werden die Objekte für das zweite neuronale Netzwerkmodell (136) identifiziert. Während des Trainingsschritts (52) und des Identifikationsschritts (53) geschieht das eigentliche Lernen. Die Antworten des zweiten neuronalen Netzwerkmodells (136) werden dabei mit Bewertungsdaten verglichen und die Parameter des zweiten neuronalen Netzwerkmodells (136) geeignet modifiziert. Hierfür sollte wieder eine möglichst große Menge an Trainingsdaten verwendet werden.In the installation step ( 51 ) a second neural network model ( 136 ) installed as the basis of the deep learning process. The second neural network model ( 136 ) are in training step ( 52 ) the corresponding training received signals from measured or simulated objects are transferred as input values in as many different arrangements and positions as possible. In one identification step ( 53 ) the objects for the second neural network model ( 136 ) identified. During the training step ( 52 ) and the identification step ( 53 ) the actual learning happens. The responses of the second neural network model ( 136 ) are compared with evaluation data and the parameters of the second neural network model ( 136 ) appropriately modified. Again, the largest possible amount of training data should be used for this.

Die Netzwerkdaten (Parameterdaten) des trainierten zweiten neuronalen Netzwerkmodells (136) werden im Gegensatz zur 7 nun jedoch in einem Sicherungsschritt (65) abgespeichert.The network data (parameter data) of the trained second neural network model ( 136 ) are in contrast to 7th but now in one backup step ( 65 ) saved.

Figur 9Figure 9

zeigt ein Modell zum Laden der im Sicherungsschritt (65) abgespeicherten Parameter des zweiten neuronalen Netzwerkmodells (136) und zum anschließenden Verwenden des zweiten neuronalen Netzwerkmodells (136).shows a model for loading the backup step ( 65 ) stored parameters of the second neural network model ( 136 ) and then using the second neural network model ( 136 ).

In einem Ladeschritt (71) werden die zuvor im Sicherungsschritt (65) auf einem ersten Gesamtmesssystem abgespeicherten Parameter (Netzwerkdaten) des zweiten neuronalen Netzwerkmodells (136) wieder in den Speicher des zweiten neuronalen Netzwerkmodells (136) eines zweiten Gesamtmesssystems, das im Wesentlichen gleich dem ersten Gesamtmesssystem ist, geladen. Bei diesem Ladeschritt (71) kann es sich auch um einen Konstruktionsschritt handeln, bei dem die Struktur und Konstruktion des zweiten Gesamtmesssystems so festgelegt wird, dass sie funktional einem Gesamtmesssystem mit einem solchen Speicher gleichkommt.In one loading step ( 71 ) are saved in the backup step ( 65 ) parameters (network data) of the second neural network model stored on a first overall measuring system ( 136 ) back into the memory of the second neural network model ( 136 ) a second overall measuring system, which is essentially the same as the first overall measuring system, is loaded. In this loading step ( 71 ) it can also be a design step in which the structure and construction of the second overall measuring system is determined in such a way that it is functionally equivalent to an overall measuring system with such a memory.

Das mittels dieses Ladeschritts (71) trainierte zweite neuronale Netzwerkmodell (136) des zweiten Gesamtmesssystems befindet sich dann schließlich zur einem typischerweise späteren Zeitpunkt im Fahrzeug bevorzugt auf dem besagten digitalen Speicher des zweiten Gesamtmesssystems. Hier werden dem trainierten zweiten neuronalen Netzwerkmodell (136) im Identifizierungsschritt (54) die Live-Messsignale aus dem Betrieb der Sensoranordnung (131) im Fahrzeugbetrieb übergeben, um beispielsweise eine alternative Bestimmung der alternativen Position und eine alternative Klassifizierung der Objekte durchzuführen. Die Ausgabewerte des zweiten neuronalen Netzwerkmodells (136), die alternative Position und die alternative Klassifizierung umfassen können, werden dann im nachfolgenden Verwendungsschritt (55) vom beschriebenen System wie zuvor dann bevorzugt weiterverwendet.That by means of this loading step ( 71 ) trained second neural network model ( 136 ) of the second overall measuring system is then finally located at a typically later point in time in the vehicle, preferably on said digital memory of the second overall measuring system. Here the trained second neural network model ( 136 ) in the identification step ( 54 ) the live measurement signals from the operation of the sensor arrangement ( 131 ) in vehicle operation, for example to carry out an alternative determination of the alternative position and an alternative classification of the objects. The output values of the second neural network model ( 136 ), which can include the alternative item and the alternative classification, are then used in the subsequent usage step ( 55 ) from the system described as before then preferably used further.

Figur 10 Figure 10

zeigt schematisch das erste Kombinationsverfahren aus Abschnitt E). Es werden zwei Verfahren bevorzugt parallel durchgeführt.shows schematically the first combination method from section E). Two processes are preferably carried out in parallel.

Zum einen erfolgt eine Installation (51) des zweiten neuronalen Netzwerkmodells (136) für das zweite Messsystem (161) auf einem zweiten Rechnersystem. Zum anderen erfolgt in analoger Weise die Installation (21) des ersten neuronalen Netzwerkmodells (16) für das Ultraschallmesssystem (164) auf einem ersten Rechnersystem. Das erste Rechnersystem und das zweite Rechnersystem können hardwaremäßig gleich und/oder identisch sein. Auch kann es sich bei einem oder beiden Rechnersystemen um eine analoge Schaltung handeln, die die Rechenoperationen der neuronalen Netzwerkmodelle ausführt und nicht unbedingt programmierbar sein muss. Im Sinne dieser Offenlegung kann eine solche Installation vielmehr immer auch so erfolgen, dass die Struktur und wesentliche Parameter des jeweiligen neuronalen Netzwerkmodells beispielsweise in Form einer geeigneten elektronischen Schaltung in der Konstruktionsphase fest vorgegeben werden. Es kann sich also beispielsweise auch um einen Analog- oder Hybridrechner handeln, der in Form einer elektrischen Schaltung die Struktur und/oder Parametrisierung des jeweiligen neuronalen Netzwerkmodells in Teilen fest vorgibt. Eine gemeinsame Installation der neuronalen Netzwerkmodelle (16, 136, 138) in Form von reiner Software auf einem vollprogrammierbaren Rechnersystem in Harvard und/oder Von-Neumann-Architektur ist aber vorzuziehen und bevorzugt.On the one hand there is an installation ( 51 ) of the second neural network model ( 136 ) for the second measuring system ( 161 ) on a second computer system. On the other hand, the installation is carried out in the same way ( 21st ) of the first neural network model ( 16 ) for the ultrasonic measuring system ( 164 ) on a first computer system. The first computer system and the second computer system can be identical and / or identical in terms of hardware. One or both computer systems can also be an analog circuit that carries out the arithmetic operations of the neural network models and does not necessarily have to be programmable. In the sense of this disclosure, such an installation can rather always take place in such a way that the structure and essential parameters of the respective neural network model are fixed in the construction phase, for example in the form of a suitable electronic circuit. It can also be, for example, an analog or hybrid computer which, in the form of an electrical circuit, firmly specifies the structure and / or parameterization of the respective neural network model in parts. A joint installation of the neural network models ( 16 , 136 , 138 ) in the form of pure software on a fully programmable computer system in Harvard and / or Von-Neumann architecture is preferable and preferred.

Typischerweise folgen das Laden (71) von zuvor gesicherten Parametern des zweiten neuronalen Netzwerkmodells (136) für das zweite Messsystem (161) aus dem zweiten Trainingsdatenspeicher (137) als aktuelle Parameter des zweiten neuronalen Netzwerkmodells (136) für das zweite Messsystem (161) und das Laden (41) von vorzugsweise ebenfalls zuvor gesicherten Parametern des ersten neuronalen Netzwerkmodells (16) für das Ultraschallmesssystem (164) aus dem ersten Trainingsdatenspeicher (17) als aktuelle Parameter des ersten neuronalen Netzwerkmodells (16). Auf diese Weise ist das Gesamtmesssystem nun für die Verarbeitung von Signalen vorbereitet. Zur Verarbeitung der Signale erfolgen nun Übergabe (54) von Live-Sensorsignalen an das trainierte zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) und Durchführung einer Objektidentifizierung durch das trainierte zweite neuronale Netzwerkmodell (136) zur Erzeugung eines zweiten Objekterkennungsergebnisses und die Übergabe (24) von Live-Ultraschallsignalen an das trainierte erste neuronale Netzwerkmodell für das Ultraschallmesssystem (164) im Fahrzeug und Durchführung einer Objektidentifizierung durch das trainierte erste neuronale Netzwerkmodell zur Erzeugung eines ersten Objekterkennungsergebnisses.Typically this is followed by loading ( 71 ) of previously saved parameters of the second neural network model ( 136 ) for the second measuring system ( 161 ) from the second training data memory ( 137 ) as current parameters of the second neural network model ( 136 ) for the second measuring system ( 161 ) and loading ( 41 ) of preferably also previously saved parameters of the first neural network model ( 16 ) for the ultrasonic measuring system ( 164 ) from the first training data memory ( 17th ) as the current parameters of the first neural network model ( 16 ). In this way, the entire measuring system is now prepared for processing signals. To process the signals, transfer now takes place ( 54 ) of live sensor signals to the trained second neural network model ( 136 ) for the second measuring system ( 161 ) and implementation of an object identification by the trained second neural network model ( 136 ) to generate a second object recognition result and the transfer ( 24 ) of live ultrasound signals to the trained first neural network model for the ultrasound measurement system ( 164 ) in the vehicle and carrying out an object identification using the trained first neural network model to generate a first object recognition result.

Die Live-Ultraschallsignale unterscheiden sich hierbei von den Ultraschallsignalen mit denen die Parameter des ersten neuronalen Netzwerkmodells (16) ermittelt wurden dadurch, dass sie nun in der eigentlichen Anwendung durch die Ultraschallwandleranordnung (11) im Zielbetrieb, also beispielsweise im Fahrzeug des Konsumenten während der Benutzung des Fahrzeugs, und nicht im Labor oder bei Testfahrten ermittelt werden.The live ultrasound signals differ from the ultrasound signals with which the parameters of the first neural network model ( 16 ) were determined by the fact that they are now in the actual application by the ultrasonic transducer arrangement ( 11 ) can be determined in the target operation, for example in the consumer's vehicle while the vehicle is being used, and not in the laboratory or during test drives.

Die Live-Sensorsignale unterscheiden sich hierbei von den Sensorsignalen mit denen die Parameter des zweiten neuronalen Netzwerkmodells (136) ermittelt wurden dadurch, dass sie nun in der eigentlichen Anwendung durch die Sensoranordnung (131) im Zielbetrieb, also beispielsweise im Fahrzeug des Konsumenten während der Benutzung des Fahrzeugs, und nicht im Labor oder bei Testfahrten ermittelt werden.The live sensor signals differ from the sensor signals with which the parameters of the second neural network model ( 136 ) were determined by the fact that they are now in the actual application by the sensor arrangement ( 131 ) can be determined in the target operation, for example in the consumer's vehicle while the vehicle is being used, and not in the laboratory or during test drives.

Abschließend erfolgt ein Vergleich (84) der ersten Objekterkennungsergebnisse der durch das erste neuronale Netzwerkmodell (16) für das Ultraschallmesssystem (164) durchgeführten ersten Objektidentifizierung mit den alternativen zweiten Objekterkennungsergebnissen der durch das zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) durchgeführten alternativen zweiten Objektidentifizierung und die Ermittlung (84) einer gemeinsamen Objekterkennungshypothese, die das Erkennungsergebnis des Gesamtmesssystems darstellt. Bei der gemeinsamen Objekterkennungshypothese kann es sich um eine Liste von Objekten mit Erkennungswahrscheinlichkeiten und von Anordnungen solcher Objekte mit Erkennungswahrscheinlichkeiten handeln. Sie kann auch nur ein Objekt und/oder nur eine Anordnung enthalten. Eine Wahrscheinlichkeitsangabe muss nicht zwingend in der gemeinsamen Objekterkennungshypothese enthalten sein.Finally a comparison is made ( 84 ) the first object recognition results generated by the first neural network model ( 16 ) for the ultrasonic measuring system ( 164 ) carried out first object identification with the alternative second object recognition results of the second neural network model ( 136 ) for the second measuring system ( 161 ) carried out alternative second object identification and the determination ( 84 ) a common object recognition hypothesis, which represents the recognition result of the overall measurement system. The common object recognition hypothesis can be a list of objects with recognition probabilities and arrangements of such objects with recognition probabilities. It can also contain only one object and / or only one arrangement. A probability specification does not necessarily have to be contained in the common object recognition hypothesis.

Der Lernprozess wird nun wie folgt durchgeführt:

  • Es erfolgt eine erste Parameteranpassung (86) des ersten neuronalen Netzwerkmodells (16) für das Ultraschallmesssystem (164) in Abhängigkeit vom Ergebnis des Vergleichs (84) der ersten Objekterkennungsergebnisse der durch das erste neuronale Netzwerkmodell (16) für das Ultraschallmesssystem (164) durchgeführten ersten Objektidentifizierung mit den alternativen zweiten Objekterkennungsergebnissen der durch das zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) durchgeführten alternativen zweiten Objektidentifizierung. Hierbei wird die Parameteranpassung in der Regel so durchgeführt, dass eine Nichtberücksichtigung von Teilen der ersten Objekterkennungsergebnisse des ersten neuronalen Netzwerkmodells (16) in der gemeinsamen Objekterkennungshypothese durch das dritte neuronale Netzwerkmodell (138), das den Vergleich (84) ausführt, zu einer Dämpfung der entsprechenden Parameter des ersten neuronalen Netzwerkmodells (16) führt und dass eine Berücksichtigung von Teilen der ersten Objekterkennungsergebnisse des ersten neuronalen Netzwerkmodells (16) in der gemeinsamen Objekterkennungshypothese durch das dritte neuronale Netzwerkmodell (138), das den Vergleich (84) ausführt, zu einer Verstärkung der entsprechenden Parameter des ersten neuronalen Netzwerkmodells (16) führt.
The learning process is now carried out as follows:
  • A first parameter adjustment takes place ( 86 ) of the first neural network model ( 16 ) for the ultrasonic measuring system ( 164 ) depending on the result of the comparison ( 84 ) the first object recognition results generated by the first neural network model ( 16 ) for the ultrasonic measuring system ( 164 ) carried out first object identification with the alternative second object recognition results of the second neural network model ( 136 ) for the second measuring system ( 161 ) performed alternative second object identification. The parameter adjustment is usually carried out in such a way that it is not taken into account of parts of the first object recognition results of the first neural network model ( 16 ) in the common object recognition hypothesis by the third neural network model ( 138 ) that compares ( 84 ), leads to a damping of the corresponding parameters of the first neural network model ( 16 ) and that a consideration of parts of the first object recognition results of the first neural network model ( 16 ) in the common object recognition hypothesis by the third neural network model ( 138 ) that compares ( 84 ) performs, to an amplification of the corresponding parameters of the first neural network model ( 16 ) leads.

Es erfolgt eine zweite Parameteranpassung (87) des zweiten neuronalen Netzwerkmodells (136) für das zweite Messsystem (161) in Abhängigkeit vom Ergebnis des Vergleichs (84) der ersten Objekterkennungsergebnisse der durch das erste neuronale Netzwerkmodell (16) für das Ultraschallmesssystem (164) durchgeführten ersten Objektidentifizierung mit den alternativen zweiten Objekterkennungsergebnissen der durch das zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) durchgeführten alternativen zweiten Objektidentifizierung. Hierbei wird die Parameteranpassung in der Regel so durchgeführt, dass eine Nichtberücksichtigung von Teilen der zweiten Objekterkennungsergebnisse des zweiten neuronalen Netzwerkmodells (136) in der gemeinsamen Objekterkennungshypothese durch das dritte neuronale Netzwerkmodell (138), das den Vergleich (84) ausführt, zu einer Dämpfung der entsprechenden Parameter des zweiten neuronalen Netzwerkmodells (136) führt und dass eine Berücksichtigung von Teilen der zweiten Objekterkennungsergebnisse des zweiten neuronalen Netzwerkmodells (136) in der gemeinsamen Objekterkennungshypothese durch das dritte neuronale Netzwerkmodell (138), das den Vergleich (84) ausführt, zu einer Verstärkung der entsprechenden Parameter des zweiten neuronalen Netzwerkmodells (136) führt.A second parameter adjustment takes place ( 87 ) of the second neural network model ( 136 ) for the second measuring system ( 161 ) depending on the result of the comparison ( 84 ) the first object recognition results generated by the first neural network model ( 16 ) for the ultrasonic measuring system ( 164 ) carried out first object identification with the alternative second object recognition results of the second neural network model ( 136 ) for the second measuring system ( 161 ) performed alternative second object identification. Here, the parameter adjustment is usually carried out in such a way that parts of the second object recognition results of the second neural network model ( 136 ) in the common object recognition hypothesis by the third neural network model ( 138 ) that compares ( 84 ), leads to a damping of the corresponding parameters of the second neural network model ( 136 ) and that taking into account parts of the second object recognition results of the second neural network model ( 136 ) in the common object recognition hypothesis by the third neural network model ( 138 ) that compares ( 84 ) performs, to an amplification of the corresponding parameters of the second neural network model ( 136 ) leads.

Das dritte neuronale Netzwerkmodell (138), das den Vergleich (84) durchführt, trifft somit eine Entscheidung.The third neural network model ( 138 ) that compares ( 84 ), thus makes a decision.

Als letzter Schritt erfolgt die Verwendung (85) der ermittelten gemeinsamen Objekterkennungshypothese.The last step is to use ( 85 ) the determined common object recognition hypothesis.

Figur 11Figure 11

zeigt ein Modell zum Trainieren und Verwenden des dritten neuronalen Netzwerkmodells (138).shows a model for training and using the third neural network model ( 138 ).

Das Verfahren beginnt mit der Installation (91) des dritten neuronalen Netzwerkmodells (138) für den Vergleich der ersten Objekterkennungsergebnisse der durch das erste neuronale Netzwerkmodell (16) für das Ultraschallmesssystem (164) durchgeführten ersten Objektidentifizierung mit den alternativen zweiten Objekterkennungsergebnissen der durch das zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) durchgeführten alternativen zweiten Objektidentifizierung und für die Ermittlung einer gemeinsamen Objekterkennungshypothese auf einem dritten Rechnersystem. Das dritte Rechnersystem kann mit dem ersten und zweiten Rechnersystem der 10 identisch sein.The procedure starts with the installation ( 91 ) of the third neural network model ( 138 ) for the comparison of the first object recognition results of the first neural network model ( 16 ) for the ultrasonic measuring system ( 164 ) carried out first object identification with the alternative second object recognition results of the second neural network model ( 136 ) for the second measuring system ( 161 ) carried out alternative second object identification and for the determination of a common object recognition hypothesis on a third computer system. The third computer system can with the first and second computer system of 10 be identical.

Wie oben bereits erwähnt kann es sich bei den Rechnersystemen auch um eine oder mehrere analoge Schaltungen handeln, die die Rechenoperationen der neuronalen Netzwerkmodelle ausführen und nicht unbedingt programmierbar sein müssen. Im Sinne dieser Offenlegung kann eine solche Installation (91) vielmehr immer auch so erfolgen, dass die Struktur und wesentliche Parameter des jeweiligen neuronalen Netzwerkmodells beispielsweise in Form einer geeigneten elektronischen Schaltung in der Konstruktionsphase fest vorgegeben werden. Es kann sich also beispielsweise auch um einen Analog- oder Hybridrechner handeln, der in Form einer elektrischen Schaltung die Struktur und/oder Parametrisierung des jeweiligen neuronalen Netzwerkmodells in Teilen fest vorgibt. Eine Installation (91) der neuronalen Netzwerkmodelle (16, 136, 138) in Form von reiner Software auf einem vollprogrammierbaren Rechnersystem in Harvard und/oder Von-Neumann-Architektur ist aber vorzuziehen und bevorzugt.As already mentioned above, the computer systems can also be one or more analog circuits that carry out the arithmetic operations of the neural network models and do not necessarily have to be programmable. For the purposes of this disclosure, such an installation ( 91 ) rather always take place in such a way that the structure and essential parameters of the respective neural network model, for example in the form of a suitable electronic circuit, are firmly specified in the construction phase. It can also be, for example, an analog or hybrid computer which, in the form of an electrical circuit, firmly specifies the structure and / or parameterization of the respective neural network model in parts. An installation ( 91 ) of the neural network models ( 16 , 136 , 138 ) in the form of pure software on a fully programmable computer system in Harvard and / or Von-Neumann architecture is preferable and preferred.

Es folgt ein Training (92) des dritten neuronalen Netzwerkmodells (138) durch Übergabe von korrekten und nicht korrekten ersten Objekterkennungsergebnissen und korrekten und nicht korrekten alternativen zweiten Objekterkennungsergebnissen an das dritte neuronale Netzwerkmodell (138) zusammen mit Daten über deren Korrektheit und/oder Nichtkorrektheit und Ermittlung der Parameter des dritten neuronalen Netzwerkmodells (138) in Abhängigkeit von diesen Daten und/oder Änderung der Parameter des dritten neuronalen Netzwerkmodells (138) in Abhängigkeit von diesen Daten. Dies kann beispielsweise so geschehen, dass erst das erste neuronale Netzwerkmodell (16) vollständig mit Labordaten trainiert wird und das zweite neuronale Netzwerkmodell (136) vollständig mit Labordaten trainiert wird. Sodann werden zueinander korrespondierende Labordatensätze als Trainingsdatensätze dem ersten neuronalen Netzwerkmodell (16) und dem zweiten neuronalen Netzwerkmodell (136) präsentiert. Diese erzeugen zu jedem dieser Trainingsdatensatzpaare ein erstes Objekterkennungsergebnis und ein zweites Objekterkennungsergebnis. Zu diesen wird dann jeweils manuell oder automatisch eine Zielobjekterkennungshypothese berechnet oder sonst wie bestimmt. Somit ergibt sich dann ein Trainingsdatensatz für das dritte neuronale Netzwerkmodell (138), bestehend aus dem jeweiligen ersten Objekterkennungsergebnis und dem jeweiligen zweiten Objekterkennungsergebnis und der jeweiligen Zielobjekterkennungshypothese, das das entsprechende Bewertungsdatum darstellt.Training follows ( 92 ) of the third neural network model ( 138 ) by transferring correct and incorrect first object recognition results and correct and incorrect alternative second object recognition results to the third neural network model ( 138 ) together with data about their correctness and / or incorrectness and determination of the parameters of the third neural network model ( 138 ) depending on this data and / or changing the parameters of the third neural network model ( 138 ) depending on this data. This can be done, for example, in such a way that only the first neural network model ( 16 ) is fully trained with laboratory data and the second neural network model ( 136 ) is fully trained with laboratory data. Then, laboratory data sets that correspond to one another are sent as training data sets to the first neural network model ( 16 ) and the second neural network model ( 136 ) presents. These generate a first object recognition result and a second object recognition result for each of these pairs of training data sets. A target object recognition hypothesis is then calculated for each of these, either manually or automatically, or otherwise determined. This then results in a Training data set for the third neural network model ( 138 ), consisting of the respective first object recognition result and the respective second object recognition result and the respective target object recognition hypothesis, which represents the corresponding evaluation date.

Mit diesen Daten kann dann das dritte neuronale Netzwerkmodell (138) trainiert (92) werden.With this data, the third neural network model ( 138 ) trained ( 92 ) become.

Ist das Training (92) erfolgreich abgeschlossen, so kann das System (z.B. eine Laborvorrichtung) oder eine ausreichend funktionsähnliche Vorrichtung (z.B. ein Serienprodukt) z.B. in einem Fahrzeug eingesetzt werden. Dort erfolgt dann die Übergabe (93) von ersten Live-Objekterkennungsergebnissen und von alternativen zweiten Live-Objekterkennungsergebnissen an das trainierte dritte neuronale Netzwerkmodell (138).Is the training ( 92 ) has been successfully completed, the system (eg a laboratory device) or a sufficiently functionally similar device (eg a series product) can be used in a vehicle, for example. There the transfer takes place ( 93 ) of first live object recognition results and of alternative second live object recognition results to the trained third neural network model ( 138 ).

Erste Live-Objekterkennungsergebnisse unterscheiden sich von ersten Objekterkennungsergebnissen dadurch, dass sie mit ersten Live-Ultraschallsignalen erzeugt wurden, während erste Objekterkennungsergebnisse beispielsweise mit Labor- und/oder Simulationsdaten erzeugt werden können.First live object recognition results differ from first object recognition results in that they were generated with first live ultrasound signals, while first object recognition results can be generated, for example, with laboratory and / or simulation data.

Zweite Live- Objekterkennungsergebnisse unterscheiden sich von zweiten Objekterkennungsergebnissen dadurch, dass sie mit Live-Sensorsignalen erzeugt wurden, während zweite Objekterkennungsergebnisse beispielsweise mit Labor- und/oder Simulationsdaten erzeugt werden können.Second live object recognition results differ from second object recognition results in that they were generated with live sensor signals, while second object recognition results can be generated, for example, with laboratory and / or simulation data.

Die Live-Ultraschallsignale unterscheiden sich hierbei von den Ultraschallsignalen mit denen die Parameter des ersten neuronalen Netzwerkmodells (16) ermittelt wurden dadurch, dass sie nun in der eigentlichen Anwendung durch die Ultraschallwandleranordnung (11) im Zielbetrieb, also beispielsweise im Fahrzeug des Konsumenten während der Benutzung des Fahrzeugs, und nicht im Labor oder bei Testfahrten ermittelt werden.The live ultrasound signals differ from the ultrasound signals with which the parameters of the first neural network model ( 16 ) were determined by the fact that they are now in the actual application by the ultrasonic transducer arrangement ( 11 ) can be determined in the target operation, for example in the consumer's vehicle while the vehicle is being used, and not in the laboratory or during test drives.

Die Live-Sensorsignale unterscheiden sich hierbei von den Sensorsignalen mit denen die Parameter des zweiten neuronalen Netzwerkmodells (136) ermittelt wurden dadurch, dass sie nun in der eigentlichen Anwendung durch die Sensoranordnung (131) im Zielbetrieb, also beispielsweise im Fahrzeug des Konsumenten während der Benutzung des Fahrzeugs, und nicht im Labor oder bei Testfahrten ermittelt werden.The live sensor signals differ from the sensor signals with which the parameters of the second neural network model ( 136 ) were determined by the fact that they are now in the actual application by the sensor arrangement ( 131 ) can be determined in the target operation, for example in the consumer's vehicle while the vehicle is being used, and not in the laboratory or during test drives.

Durch das dritte Neuronale Netzwerkmodell (138) erfolgt dann die Ermittlung (94) einer gemeinsamen Objekterkennungshypothese auf Basis der ersten Live-Objekterkennungsergebnisse und der alternativen zweiten Live-Objekterkennungsergebnisse durch das dritte neuronale Netzwerkmodell (138).The third neural network model ( 138 ) then the determination takes place ( 94 ) a common object recognition hypothesis based on the first live object recognition results and the alternative second live object recognition results by the third neural network model ( 138 ).

Schließlich folgt die Verwendung (95) der durch das dritte neuronale Netzwerkmodell (138) für das Gesamtmesssystem ermittelten gemeinsamen Objekterkennungshypothese. Dies kann beispielsweise durch Warnmeldungen an den Fahrzeugführer etc. geschehen.Finally follows the usage ( 95 ) through the third neural network model ( 138 ) common object recognition hypothesis determined for the overall measurement system. This can be done, for example, by warning messages to the vehicle driver, etc.

Figur 12Figure 12

zeigt ein Modell zum Trainieren und Abspeichern der Parameter des dritten neuronalen Netzwerkmodells (138).shows a model for training and storing the parameters of the third neural network model ( 138 ).

Das Verfahren beginnt mit der Installation (91) des dritten neuronalen Netzwerkmodells (138) für den Vergleich der ersten Objekterkennungsergebnisse der durch das erste neuronale Netzwerkmodell (16) für das Ultraschallmesssystem (164) durchgeführten ersten Objektidentifizierung mit den alternativen zweiten Objekterkennungsergebnissen der durch das zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) durchgeführten alternativen zweiten Objektidentifizierung und für die Ermittlung einer gemeinsamen Objekterkennungshypothese auf einem dritten Rechnersystem. Das dritte Rechnersystem kann mit dem ersten und zweiten Rechnersystem der 10 identisch sein.The procedure starts with the installation ( 91 ) of the third neural network model ( 138 ) for the comparison of the first object recognition results of the first neural network model ( 16 ) for the ultrasonic measuring system ( 164 ) carried out first object identification with the alternative second object recognition results of the second neural network model ( 136 ) for the second measuring system ( 161 ) carried out alternative second object identification and for the determination of a common object recognition hypothesis on a third computer system. The third computer system can with the first and second computer system of 10 be identical.

Wie oben bereits erwähnt kann es sich bei den Rechnersystemen auch um eine oder mehrere analoge Schaltungen handeln, die die Rechenoperationen der neuronalen Netzwerkmodelle ausführen und nicht unbedingt programmierbar sein müssen. Im Sinne dieser Offenlegung kann eine solche Installation (91) vielmehr immer auch so erfolgen, dass die Struktur und wesentliche Parameter des jeweiligen neuronalen Netzwerkmodells beispielsweise in Form einer geeigneten elektronischen Schaltung in der Konstruktionsphase fest vorgegeben werden. Es kann sich also beispielsweise auch um einen Analog- oder Hybridrechner handeln, der in Form einer elektrischen Schaltung die Struktur und/oder Parametrisierung des jeweiligen neuronalen Netzwerkmodells in Teilen fest vorgibt. Eine Installation (91) in Form von reiner Software auf einem vollprogrammierbaren Rechnersystem in Harvard und/oder Von-Neumann-Architektur ist aber vorzuziehen und bevorzugt.As already mentioned above, the computer systems can also be one or more analog circuits that carry out the arithmetic operations of the neural network models and do not necessarily have to be programmable. For the purposes of this disclosure, such an installation ( 91 ) rather always take place in such a way that the structure and essential parameters of the respective neural network model, for example in the form of a suitable electronic circuit, are firmly specified in the construction phase. It can also be, for example, an analog or hybrid computer which, in the form of an electrical circuit, firmly specifies the structure and / or parameterization of the respective neural network model in parts. An installation ( 91 ) in the form of pure software on a fully programmable computer system in Harvard and / or Von-Neumann architecture is preferable and preferred.

Es folgt ein Training (91) des dritten neuronalen Netzwerkmodells (138) durch Übergabe von korrekten und nicht korrekten ersten Objekterkennungsergebnissen und korrekten und nicht korrekten alternativen zweiten Objekterkennungsergebnissen an das dritte neuronale Netzwerkmodell (138) zusammen mit Daten über deren Korrektheit und/oder Nichtkorrektheit und Ermittlung der Parameter des dritten neuronalen Netzwerkmodells (138) in Abhängigkeit von diesen Daten und/oder Änderung der Parameter des dritten neuronalen Netzwerkmodells (138) in Abhängigkeit von diesen Daten. Dies kann beispielsweise so geschehen, dass erst das erste neuronale Netzwerkmodell (16) vollständig mit Labordaten trainiert wird und das zweite neuronale Netzwerkmodell (136) vollständig mit Labordaten trainiert wird. Sodann werden zueinander korrespondierende Labordatensätze als Trainingsdatensätze dem ersten neuronalen Netzwerkmodell (169 und dem zweiten neuronalen Netzwerkmodell (136) präsentiert. Diese erzeugen zu jedem dieser Trainingsdatensatzpaare ein erstes Objekterkennungsergebnis und ein zweites Objekterkennungsergebnis. Aus diesen wird dann manuell oder automatisch eine Zielobjekterkennungshypothese berechnet oder sonst wie bestimmt. Somit ergibt sich dann ein Trainingsdatensatz für das dritte neuronale Netzwerkmodell (136) bestehend aus dem jeweiligen ersten Objekterkennungsergebnis und dem jeweiligen zweiten Objekterkennungsergebnis und der jeweiligen Zielobjekterkennungshypothese, das das entsprechende Bewertungsdatum darstellt.Training follows ( 91 ) of the third neural network model ( 138 ) by transferring correct and incorrect first object recognition results and correct and incorrect alternative second object recognition results to the third neural network model ( 138 ) together with data about their correctness and / or incorrectness and determination of the parameters of the third neural network model ( 138 ) depending on this data and / or changing the parameters of the third neural network model ( 138 ) depending on this data. This can for example, so that only the first neural network model ( 16 ) is fully trained with laboratory data and the second neural network model ( 136 ) is fully trained with laboratory data. Then, laboratory data sets that correspond to one another are sent as training data sets to the first neural network model ( 169 and the second neural network model ( 136 ) presents. These generate a first object recognition result and a second object recognition result for each of these pairs of training data sets. A target object recognition hypothesis is then calculated manually or automatically from these or otherwise determined. This then results in a training data set for the third neural network model ( 136 ) consisting of the respective first object recognition result and the respective second object recognition result and the respective target object recognition hypothesis, which represents the corresponding evaluation date.

Mit diesen Daten kann dann das dritte neuronale Netzwerkmodell (138) trainiert (92) werden.With this data, the third neural network model ( 138 ) trained ( 92 ) become.

Ist das Training erfolgreich abgeschlossen, so kann das System (z.B. eine Laborvorrichtung) oder eine ausreichend funktionsähnliche Vorrichtung (z.B. ein Serienprodukt) z.B. in einem Fahrzeug eingesetzt werden. Dort erfolgt dann die Übergabe (93) von ersten Live- Objekterkennungsergebnissen und von alternativen zweiten Live-Objekterkennungsergebnissen an das trainierte dritte neuronale Netzwerkmodell (138).If the training has been successfully completed, the system (eg a laboratory device) or a sufficiently functionally similar device (eg a series product) can be used in a vehicle, for example. There the transfer takes place ( 93 ) of first live object recognition results and of alternative second live object recognition results to the trained third neural network model ( 138 ).

Erste Live- Objekterkennungsergebnisse unterscheiden sich von ersten Objekterkennungsergebnissen dadurch, dass sie mit ersten Live-Ultraschallsignalen erzeugt wurden, während erste Objekterkennungsergebnisse beispielsweise mit Labor- und/oder Simulationsdaten erzeugt werden können.First live object recognition results differ from first object recognition results in that they were generated with first live ultrasonic signals, while first object recognition results can be generated, for example, with laboratory and / or simulation data.

Zweite Live- Objekterkennungsergebnisse unterscheiden sich von zweiten Objekterkennungsergebnissen dadurch, dass sie mit Live-Sensorsignalen erzeugt wurden, während zweite Objekterkennungsergebnisse beispielsweise mit Labor- und/oder Simulationsdaten erzeugt werden können.Second live object recognition results differ from second object recognition results in that they were generated with live sensor signals, while second object recognition results can be generated, for example, with laboratory and / or simulation data.

Die Live-Ultraschallsignale unterscheiden sich hierbei von den Ultraschallsignalen mit denen die Parameter des ersten neuronalen Netzwerkmodells (16) ermittelt wurden dadurch, dass sie nun in der eigentlichen Anwendung durch die Ultraschallwandleranordnung (11) im Zielbetrieb, also beispielsweise im Fahrzeug des Konsumenten während der Benutzung des Fahrzeugs, und nicht im Labor oder bei Testfahrten ermittelt werden.The live ultrasound signals differ from the ultrasound signals with which the parameters of the first neural network model ( 16 ) were determined by the fact that they are now in the actual application by the ultrasonic transducer arrangement ( 11 ) can be determined in the target operation, for example in the consumer's vehicle while the vehicle is being used, and not in the laboratory or during test drives.

Die Live-Sensorsignale unterscheiden sich hierbei von den Sensorsignalen mit denen die Parameter des zweiten neuronalen Netzwerkmodells (136) ermittelt wurden dadurch, dass sie nun in der eigentlichen Anwendung durch die Sensoranordnung (131) im Zielbetrieb, also beispielsweise im Fahrzeug des Konsumenten während der Benutzung des Fahrzeugs, und nicht im Labor oder bei Testfahrten ermittelt werden.The live sensor signals differ from the sensor signals with which the parameters of the second neural network model ( 136 ) were determined by the fact that they are now in the actual application by the sensor arrangement ( 131 ) can be determined in the target operation, for example in the consumer's vehicle while the vehicle is being used, and not in the laboratory or during test drives.

Im Gegensatz zur 11 schließt das Verfahren der 12 nun mit der Sicherung (105) der Parameterdaten des trainierten dritten neuronalen Netzwerks (138) in einem dritten Trainingsdatenspeicher (139) ab. Hierdurch können die so gesicherten Parameter des dritten neuronalen Netzwerkmodells (138) auf funktionsähnliche Systeme durch Programmierung und/oder Konstruktion dieser Systeme oder von Teilen dieser verwendet werden.In contrast to 11 closes the procedure of 12th now with the backup ( 105 ) the parameter data of the trained third neural network ( 138 ) in a third training data memory ( 139 ) from. This allows the parameters of the third neural network model ( 138 ) are used on functionally similar systems by programming and / or construction of these systems or parts of them.

Figur 13Figure 13

zeigt ein Modell zum Laden der abgespeicherten Parameter des dritten neuronalen Netzwerkmodells (138) und dem anschließenden Verwenden des dritten neuronalen Netzwerkmodells (138).shows a model for loading the stored parameters of the third neural network model ( 138 ) and then using the third neural network model ( 138 ).

Es werden die in dem Verfahren der 12 erstellen Daten verwendet. Somit beginnt das Verfahren mit dem Laden (111) der zuvor gesicherten Parameter des dritten neuronalen Netzwerkmodells (138) aus dem dritten Trainingsdatenspeicher (139) oder einem anderen Datenspeicher der gerade diese Daten vorhält in das dritte neuronale Netzwerkmodell (138). Hierbei kann sich dieses dritte neuronale Netzwerkmodell (138) in einem komplett anderen funktionsähnlichem Gesamtsystem befinden als das Gesamtsystem, mit dem die zu ladenden Daten erstellt wurden.There are those in the process of 12th create data used. Thus the procedure begins with loading ( 111 ) the previously saved parameters of the third neural network model ( 138 ) from the third training data memory ( 139 ) or another data storage device that currently holds this data in the third neural network model ( 138 ). This third neural network model ( 138 ) are in a completely different, functionally similar overall system than the overall system with which the data to be loaded was created.

Durch das dritte neuronale Netzwerkmodell (138) erfolgt dann die Ermittlung (94) einer gemeinsamen Objekterkennungshypothese auf Basis der ersten Live-Objekterkennungsergebnisse und der alternativen zweiten Live-Objekterkennungsergebnisse durch das dritte neuronale Netzwerkmodell (138).The third neural network model ( 138 ) then the determination takes place ( 94 ) a common object recognition hypothesis based on the first live object recognition results and the alternative second live object recognition results by the third neural network model ( 138 ).

Schließlich folgt die Verwendung (95) der durch das dritte neuronale Netzwerkmodell (138) für das Gesamtmesssystem ermittelten gemeinsamen Objekterkennungshypothese. Dies kann beispielsweise durch Warnmeldungen an den Fahrzeugführer etc. geschehen.Finally follows the usage ( 95 ) through the third neural network model ( 138 ) common object recognition hypothesis determined for the overall measurement system. This can be done, for example, by warning messages to the vehicle driver, etc.

Figur 14Figure 14

zeigt ein Modell zum Trainieren und Verwenden des fünften neuronalen Netzwerkmodells (158).shows a model for training and using the fifth neural network model ( 158 ).

Das Verfahren beginnt mit der Installation (201) des fünften neuronalen Netzwerkmodells (158) für den Vergleich der zweiten Objekterkennungsergebnisse der durch das zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) durchgeführten zweiten Objektidentifizierung mit den dritten Objekterkennungsergebnissen der durch das vierte neuronale Netzwerkmodell (156) für das dritte Messsystem (162) durchgeführten alternativen dritten Objektidentifizierung und für die Ermittlung einer gemeinsamen Objekterkennungshypothese auf einem vierten Rechnersystem. Das vierte Rechnersystem kann mit dem ersten und/oder zweiten und/oder dritten Rechnersystem der 10 identisch sein.The procedure starts with the installation ( 201 ) of the fifth neural network model ( 158 ) for comparing the second Object recognition results obtained by the second neural network model ( 136 ) for the second measuring system ( 161 ) carried out second object identification with the third object recognition results of the fourth neural network model ( 156 ) for the third measuring system ( 162 ) carried out alternative third object identification and for the determination of a common object recognition hypothesis on a fourth computer system. The fourth computer system can with the first and / or second and / or third computer system of 10 be identical.

Wie oben bereits erwähnt kann es sich bei den Rechnersystemen auch um eine oder mehrere analoge Schaltungen handeln, die die Rechenoperationen der neuronalen Netzwerkmodelle ausführen und nicht unbedingt programmierbar sein müssen. Im Sinne dieser Offenlegung kann eine solche Installation (201) vielmehr immer auch so erfolgen, dass die Struktur und wesentliche Parameter des jeweiligen neuronalen Netzwerkmodells beispielsweise in Form einer geeigneten elektronischen Schaltung in der Konstruktionsphase fest vorgegeben werden. Es kann sich also beispielsweise auch um einen Analog- oder Hybridrechner handeln, der in Form einer elektrischen Schaltung die Struktur und/oder Parametrisierung des jeweiligen neuronalen Netzwerkmodells in Teilen fest vorgibt. Eine Installation (201) der neuronalen Netzwerkmodelle (16, 136, 138, 156, 158) in Form von reiner Software auf einem vollprogrammierbaren Rechnersystem in Harvard und/oder Von-Neumann-Architektur ist aber vorzuziehen und bevorzugt.As already mentioned above, the computer systems can also be one or more analog circuits that carry out the arithmetic operations of the neural network models and do not necessarily have to be programmable. For the purposes of this disclosure, such an installation ( 201 ) rather always take place in such a way that the structure and essential parameters of the respective neural network model, for example in the form of a suitable electronic circuit, are firmly specified in the construction phase. It can also be, for example, an analog or hybrid computer which, in the form of an electrical circuit, firmly specifies the structure and / or parameterization of the respective neural network model in parts. An installation ( 201 ) of the neural network models ( 16 , 136 , 138 , 156 , 158 ) in the form of pure software on a fully programmable computer system in Harvard and / or Von-Neumann architecture is preferable and preferred.

Es folgt ein Training (202) des fünften neuronalen Netzwerkmodells (158) durch Übergabe von korrekten und nicht korrekten zweiten Objekterkennungsergebnissen und korrekten und nicht korrekten alternativen dritten Objekterkennungsergebnissen an das fünfte neuronale Netzwerkmodell (158) zusammen mit Daten über deren Korrektheit und/oder Nichtkorrektheit und Ermittlung der Parameter des fünften neuronalen Netzwerkmodells (158) in Abhängigkeit von diesen Daten und/oder Änderung der Parameter des fünften neuronalen Netzwerkmodells (158) in Abhängigkeit von diesen Daten. Dies kann beispielsweise so geschehen, dass erst das zweite neuronale Netzwerkmodell (136) vollständig mit Labordaten trainiert wird und erst das vierte neuronale Netzwerkmodell (156) vollständig mit Labordaten trainiert wird. Sodann werden zueinander korrespondierende Labordatensätze als Trainingsdatensätze dem zweiten neuronalen Netzwerkmodell (136) und dem vierten neuronalen Netzwerkmodell (156) präsentiert. Diese erzeugen zu jedem dieser Trainingsdatensatzpaare ein zweites Objekterkennungsergebnis und ein drittes Objekterkennungsergebnis. Zu diesen wird dann jeweils manuell oder automatisch eine Zielobjekterkennungshypothese berechnet oder sonst wie bestimmt. Somit ergibt sich dann ein Trainingsdatensatz für das fünfte neuronale Netzwerkmodell (158) bestehend aus dem jeweiligen ersten Objekterkennungsergebnis und dem jeweiligen zweiten Objekterkennungsergebnis und der jeweiligen Zielobjekterkennungshypothese, das das entsprechende Bewertungsdatum darstellt.Training follows ( 202 ) of the fifth neural network model ( 158 ) by transferring correct and incorrect second object recognition results and correct and incorrect alternative third object recognition results to the fifth neural network model ( 158 ) together with data about their correctness and / or incorrectness and determination of the parameters of the fifth neural network model ( 158 ) depending on this data and / or change in the parameters of the fifth neural network model ( 158 ) depending on this data. This can happen, for example, that only the second neural network model ( 136 ) is fully trained with laboratory data and only the fourth neural network model ( 156 ) is fully trained with laboratory data. Then corresponding laboratory data sets are sent to the second neural network model as training data sets ( 136 ) and the fourth neural network model ( 156 ) presents. These generate a second object recognition result and a third object recognition result for each of these pairs of training data sets. A target object recognition hypothesis is then calculated for each of these, either manually or automatically, or otherwise determined. This then results in a training data set for the fifth neural network model ( 158 ) consisting of the respective first object recognition result and the respective second object recognition result and the respective target object recognition hypothesis, which represents the corresponding evaluation date.

Mit diesen Daten kann dann das fünfte neuronale Netzwerkmodell (158) trainiert (202) werden.With this data, the fifth neural network model ( 158 ) trained ( 202 ) become.

Ist das Training (202) erfolgreich abgeschlossen, so kann das System (z.B. eine Laborvorrichtung) oder eine ausreichend funktionsähnliche Vorrichtung (z.B. ein Serienprodukt) z.B. in einem Fahrzeug eingesetzt werden. Dort erfolgt dann die Übergabe (203) von zweiten Live-Objekterkennungsergebnissen und von alternativen dritten Live-Objekterkennungsergebnissen an das trainierte fünfte neuronale Netzwerkmodell (158).Is the training ( 202 ) has been successfully completed, the system (eg a laboratory device) or a sufficiently functionally similar device (eg a series product) can be used in a vehicle, for example. There the transfer takes place ( 203 ) of second live object recognition results and of alternative third live object recognition results to the trained fifth neural network model ( 158 ).

Zweite Live- Objekterkennungsergebnisse unterscheiden sich von zweiten Objekterkennungsergebnissen dadurch, dass sie mit Live-Sensorsignalen der zweiten Sensoranordnung (131) erzeugt wurden, während zweite Objekterkennungsergebnisse beispielsweise mit Labor- und/oder Simulationsdaten erzeugt werden können.Second live object detection results differ from second object detection results in that they are based on live sensor signals from the second sensor arrangement ( 131 ) were generated, while second object recognition results can be generated for example with laboratory and / or simulation data.

Dritte Live- Objekterkennungsergebnisse unterscheiden sich von dritten Objekterkennungsergebnissen dadurch, dass sie mit dritten Live-Sensorsignalen der dritten Sensoranordnung (151) erzeugt wurden, während dritte Objekterkennungsergebnisse beispielsweise mit Labor- und/oder Simulationsdaten erzeugt werden können.Third live object detection results differ from third object detection results in that they are linked to third live sensor signals from the third sensor arrangement ( 151 ) were generated, while third object recognition results can be generated with laboratory and / or simulation data, for example.

Die zweiten Live-Sensorsignale der zweiten Sensoranordnung (131) unterscheiden sich hierbei von den zweiten Sensorsignalen der zweiten Sensoranordnung (131), mit denen die Parameter des zweiten neuronalen Netzwerkmodells (136) ermittelt wurden, dadurch, dass sie nun in der eigentlichen Anwendung durch die zweite Sensoranordnung (131) im Zielbetrieb, also beispielsweise im Fahrzeug des Konsumenten während der Benutzung des Fahrzeugs, und nicht im Labor oder bei Testfahrten ermittelt werden.The second live sensor signals of the second sensor arrangement ( 131 ) differ from the second sensor signals of the second sensor arrangement ( 131 ), with which the parameters of the second neural network model ( 136 ) were determined by the fact that they are now in the actual application by the second sensor arrangement ( 131 ) can be determined in the target operation, for example in the consumer's vehicle while the vehicle is being used, and not in the laboratory or during test drives.

Die dritten Live-Sensorsignale unterscheiden sich hierbei von den dritten Sensorsignalen der dritten Sensoranordnung (151), mit denen die Parameter des vierten neuronalen Netzwerkmodells (136) ermittelt wurden, dadurch, dass sie nun in der eigentlichen Anwendung durch die dritte Sensoranordnung (151) im Zielbetrieb, also beispielsweise im Fahrzeug des Konsumenten während der Benutzung des Fahrzeugs, und nicht im Labor oder bei Testfahrten ermittelt werden.The third live sensor signals differ from the third sensor signals of the third sensor arrangement ( 151 ), with which the parameters of the fourth neural network model ( 136 ) were determined by the fact that they are now in the actual application by the third sensor arrangement ( 151 ) can be determined in the target operation, for example in the consumer's vehicle while the vehicle is being used, and not in the laboratory or during test drives.

Durch das fünfte Neuronale Netzwerkmodell (158) erfolgt dann die Ermittlung (204) einer gemeinsamen Objekterkennungshypothese auf Basis der zweiten Live-Objekterkennungsergebnisse und der dritten Live-Objekterkennungsergebnisse durch das fünfte neuronale Netzwerkmodell (158). The fifth neural network model ( 158 ) then the determination takes place ( 204 ) a common object recognition hypothesis based on the second live object recognition results and the third live object recognition results by the fifth neural network model ( 158 ).

Schließlich folgt die Verwendung (205) der durch das fünfte neuronale Netzwerkmodell (158) für das Gesamtmesssystem ermittelten gemeinsamen Objekterkennungshypothese. Dies kann beispielsweise durch Warnmeldungen an den Fahrzeugführer etc. geschehen.Finally follows the usage ( 205 ) which by the fifth neural network model ( 158 ) common object recognition hypothesis determined for the overall measurement system. This can be done, for example, by warning messages to the vehicle driver, etc.

Figur 15Figure 15

zeigt ein Modell zum Trainieren und Abspeichern der Parameter des fünften neuronalen Netzwerkmodells (158).shows a model for training and storing the parameters of the fifth neural network model ( 158 ).

Das Verfahren beginnt mit der Installation (201) des fünften neuronalen Netzwerkmodells (158) für den Vergleich der zweiten Objekterkennungsergebnisse der durch das zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) durchgeführten zweiten Objektidentifizierung mit den dritten Objekterkennungsergebnissen der durch das vierte neuronale Netzwerkmodell (156) für das dritte Messsystem (162) durchgeführten alternativen dritten Objektidentifizierung und für die Ermittlung einer gemeinsamen Objekterkennungshypothese auf einem vierten Rechnersystem. Das vierte Rechnersystem kann mit dem ersten und/oder zweiten und/oder dritten Rechnersystem der 10 identisch sein.The procedure starts with the installation ( 201 ) of the fifth neural network model ( 158 ) for the comparison of the second object recognition results of the second neural network model ( 136 ) for the second measuring system ( 161 ) carried out second object identification with the third object recognition results of the fourth neural network model ( 156 ) for the third measuring system ( 162 ) carried out alternative third object identification and for the determination of a common object recognition hypothesis on a fourth computer system. The fourth computer system can with the first and / or second and / or third computer system of 10 be identical.

Wie oben bereits erwähnt kann es sich bei den Rechnersystemen auch um eine oder mehrere analoge Schaltungen handeln, die die Rechenoperationen der neuronalen Netzwerkmodelle ausführen und nicht unbedingt programmierbar sein müssen. Im Sinne dieser Offenlegung kann eine solche Installation (201) vielmehr immer auch so erfolgen, dass die Struktur und wesentliche Parameter des jeweiligen neuronalen Netzwerkmodells beispielsweise in Form einer geeigneten elektronischen Schaltung in der Konstruktionsphase fest vorgegeben werden. Es kann sich also beispielsweise auch um einen Analog- oder Hybridrechner handeln, der in Form einer elektrischen Schaltung die Struktur und/oder Parametrisierung des jeweiligen neuronalen Netzwerkmodells in Teilen fest vorgibt. Eine Installation (201) der neuronalen Netzwerkmodelle (16, 136, 138, 156, 158) in Form von reiner Software auf einem vollprogrammierbaren Rechnersystem in Harvard und/oder Von-Neumann-Architektur ist aber vorzuziehen und bevorzugt.As already mentioned above, the computer systems can also be one or more analog circuits that carry out the arithmetic operations of the neural network models and do not necessarily have to be programmable. For the purposes of this disclosure, such an installation ( 201 ) rather always take place in such a way that the structure and essential parameters of the respective neural network model, for example in the form of a suitable electronic circuit, are firmly specified in the construction phase. It can also be, for example, an analog or hybrid computer which, in the form of an electrical circuit, firmly specifies the structure and / or parameterization of the respective neural network model in parts. An installation ( 201 ) of the neural network models ( 16 , 136 , 138 , 156 , 158 ) in the form of pure software on a fully programmable computer system in Harvard and / or Von-Neumann architecture is preferable and preferred.

Es folgt ein Training (202) des fünften neuronalen Netzwerkmodells (158) durch Übergabe von korrekten und nicht korrekten zweiten Objekterkennungsergebnissen und korrekten und nicht korrekten alternativen dritten Objekterkennungsergebnissen an das fünfte neuronale Netzwerkmodell (158) zusammen mit Daten über deren Korrektheit und/oder Nichtkorrektheit und Ermittlung der Parameter des fünften neuronalen Netzwerkmodells (158) in Abhängigkeit von diesen Daten und/oder Änderung der Parameter des fünften neuronalen Netzwerkmodells (158) in Abhängigkeit von diesen Daten. Dies kann beispielsweise so geschehen, dass erst das zweite neuronale Netzwerkmodell (136) vollständig mit Labordaten trainiert wird und erst das vierte neuronale Netzwerkmodell (156) vollständig mit Labordaten trainiert wird. Sodann werden zueinander korrespondierende Labordatensätze als Trainingsdatensätze dem zweiten neuronalen Netzwerkmodell (136) und dem vierten neuronalen Netzwerkmodell (156) präsentiert. Diese erzeugen zu jedem dieser Trainingsdatensatzpaare ein zweites Objekterkennungsergebnis und ein drittes Objekterkennungsergebnis. Zu diesen wird dann jeweils manuell oder automatisch eine Zielobjekterkennungshypothese berechnet oder sonst wie bestimmt. Somit ergibt sich dann ein Trainingsdatensatz für das fünfte neuronale Netzwerkmodell (158) bestehend aus dem jeweiligen ersten Objekterkennungsergebnis und dem jeweiligen zweiten Objekterkennungsergebnis und der jeweiligen Zielobjekterkennungshypothese, das das entsprechende Bewertungsdatum darstellt.Training follows ( 202 ) of the fifth neural network model ( 158 ) by transferring correct and incorrect second object recognition results and correct and incorrect alternative third object recognition results to the fifth neural network model ( 158 ) together with data about their correctness and / or incorrectness and determination of the parameters of the fifth neural network model ( 158 ) depending on this data and / or change in the parameters of the fifth neural network model ( 158 ) depending on this data. This can happen, for example, that only the second neural network model ( 136 ) is fully trained with laboratory data and only the fourth neural network model ( 156 ) is fully trained with laboratory data. Then corresponding laboratory data sets are sent to the second neural network model as training data sets ( 136 ) and the fourth neural network model ( 156 ) presents. These generate a second object recognition result and a third object recognition result for each of these pairs of training data sets. A target object recognition hypothesis is then calculated for each of these, either manually or automatically, or otherwise determined. This then results in a training data set for the fifth neural network model ( 158 ) consisting of the respective first object recognition result and the respective second object recognition result and the respective target object recognition hypothesis, which represents the corresponding evaluation date.

Mit diesen Daten kann dann das fünfte neuronale Netzwerkmodell (158) trainiert (202) werden.With this data, the fifth neural network model ( 158 ) trained ( 202 ) become.

Ist das Training (202) erfolgreich abgeschlossen, so kann das System (z.B. eine Laborvorrichtung) oder eine ausreichend funktionsähnliche Vorrichtung (z.B. ein Serienprodukt) z.B. in einem Fahrzeug eingesetzt werden. Dort erfolgt dann die hier nur optionale Übergabe (203) von zweiten Live-Objekterkennungsergebnissen und von alternativen dritten Live-Objekterkennungsergebnissen an das trainierte fünfte neuronale Netzwerkmodell (158). Dieser optionale Schritt dient hier dem Lernen in der Realen Anwendung.Is the training ( 202 ) has been successfully completed, the system (eg a laboratory device) or a sufficiently functionally similar device (eg a series product) can be used in a vehicle, for example. The transfer, which is only optional here, then takes place there ( 203 ) of second live object recognition results and of alternative third live object recognition results to the trained fifth neural network model ( 158 ). This optional step is used here for learning in the real application.

Zweite Live- Objekterkennungsergebnisse unterscheiden sich von zweiten Objekterkennungsergebnissen dadurch, dass sie mit Live-Sensorsignalen der zweiten Sensoranordnung (131) erzeugt wurden, während zweite Objekterkennungsergebnisse beispielsweise mit Labor- und/oder Simulationsdaten erzeugt werden können.Second live object detection results differ from second object detection results in that they are based on live sensor signals from the second sensor arrangement ( 131 ) were generated while second object recognition results for example, can be generated with laboratory and / or simulation data.

Dritte Live- Objekterkennungsergebnisse unterscheiden sich von dritten Objekterkennungsergebnissen dadurch, dass sie mit dritten Live-Sensorsignalen der dritten Sensoranordnung (151) erzeugt wurden, während dritte Objekterkennungsergebnisse beispielsweise mit Labor- und/oder Simulationsdaten erzeugt werden können.Third live object detection results differ from third object detection results in that they are linked to third live sensor signals from the third sensor arrangement ( 151 ) were generated, while third object recognition results can be generated with laboratory and / or simulation data, for example.

Die zweiten Live-Sensorsignale der zweiten Sensoranordnung (131) unterscheiden sich hierbei von den zweiten Sensorsignalen der zweiten Sensoranordnung (131), mit denen die Parameter des zweiten neuronalen Netzwerkmodells (136) ermittelt wurden, dadurch, dass sie nun in der eigentlichen Anwendung durch die zweite Sensoranordnung (131) im Zielbetrieb, also beispielsweise im Fahrzeug des Konsumenten während der Benutzung des Fahrzeugs, und nicht im Labor oder bei Testfahrten ermittelt werden.The second live sensor signals of the second sensor arrangement ( 131 ) differ from the second sensor signals of the second sensor arrangement ( 131 ), with which the parameters of the second neural network model ( 136 ) were determined by the fact that they are now in the actual application by the second sensor arrangement ( 131 ) can be determined in the target operation, for example in the consumer's vehicle while the vehicle is being used, and not in the laboratory or during test drives.

Die dritten Live-Sensorsignale unterscheiden sich hierbei von den dritten Sensorsignalen der dritten Sensoranordnung (151), mit denen die Parameter des vierten neuronalen Netzwerkmodells (136) ermittelt wurden, dadurch, dass sie nun in der eigentlichen Anwendung durch die dritte Sensoranordnung (151) im Zielbetrieb, also beispielsweise im Fahrzeug des Konsumenten während der Benutzung des Fahrzeugs, und nicht im Labor oder bei Testfahrten ermittelt werden.The third live sensor signals differ from the third sensor signals of the third sensor arrangement ( 151 ), with which the parameters of the fourth neural network model ( 136 ) were determined by the fact that they are now in the actual application by the third sensor arrangement ( 151 ) can be determined in the target operation, for example in the consumer's vehicle while the vehicle is being used, and not in the laboratory or during test drives.

Im Gegensatz zur 14 schließt das Verfahren der 15 nun mit der Sicherung (215) der Parameterdaten des trainierten fünften neuronalen Netzwerks (158) in einem fünften Trainingsdatenspeicher (159) ab. Hierdurch können die so gesicherten Parameter des fünften neuronalen Netzwerkmodells (158) in funktionsähnlichen Systemen durch Programmierung und/oder Konstruktion dieser Systeme oder von Teilen dieser verwendet werden.In contrast to 14th closes the procedure of 15th now with the backup ( 215 ) the parameter data of the trained fifth neural network ( 158 ) in a fifth training data memory ( 159 ) from. This allows the parameters of the fifth neural network model ( 158 ) are used in functionally similar systems by programming and / or construction of these systems or parts of them.

Figur 16Figure 16

zeigt ein Modell zum Laden der abgespeicherten Parameter des fünften neuronalen Netzwerkmodells (158) und dem anschließenden Verwenden des fünften neuronalen Netzwerkmodells (158).shows a model for loading the stored parameters of the fifth neural network model ( 158 ) and then using the fifth neural network model ( 158 ).

Es werden die in dem Verfahren der 15 erstellen Daten verwendet. Somit beginnt das Verfahren mit dem Laden (211) der zuvor gesicherten Parameter des fünften neuronalen Netzwerkmodells (158) aus dem fünften Trainingsdatenspeicher (159) oder einem anderen Datenspeicher der gerade diese Daten vorhält in das fünfte neuronale Netzwerkmodell (158). Hierbei kann sich dieses fünfte neuronale Netzwerkmodell (158) in einem komplett anderen, funktionsähnlichen Gesamtsystem befinden als das Gesamtsystem, mit dem die zu ladenden Daten erstellt wurden.There are those in the process of 15th create data used. Thus the procedure begins with loading ( 211 ) the previously saved parameters of the fifth neural network model ( 158 ) from the fifth training data memory ( 159 ) or another data storage device that currently holds this data in the fifth neural network model ( 158 ). This fifth neural network model ( 158 ) are in a completely different, functionally similar overall system than the overall system with which the data to be loaded was created.

Durch das fünfte neuronale Netzwerkmodell (158) erfolgt dann die Ermittlung (204) einer gemeinsamen Objekterkennungshypothese auf Basis der zweiten Live-Objekterkennungsergebnisse und der dritten Live-Objekterkennungsergebnisse durch das fünfte neuronale Netzwerkmodell (158). The fifth neural network model ( 158 ) then the determination takes place ( 204 ) a common object recognition hypothesis based on the second live object recognition results and the third live object recognition results by the fifth neural network model ( 158 ).

Schließlich folgt die Verwendung (205) der durch das fünfte neuronale Netzwerkmodell (158) für das Gesamtmesssystem ermittelten gemeinsamen Objekterkennungshypothese. Dies kann beispielsweise durch Warnmeldungen an den Fahrzeugführer etc. geschehen.Finally follows the usage ( 205 ) which by the fifth neural network model ( 158 ) common object recognition hypothesis determined for the overall measurement system. This can be done, for example, by warning messages to the vehicle driver, etc.

Figur 17Figure 17

zeigt schematisch das zweite Kombinationsverfahren aus Abschnitt F).shows schematically the second combination method from section F).

Zum Ersten erfolgt eine Installation (51) eines zweiten neuronalen Netzwerkmodells (136) für das zweite Messsystem (161) auf einem zweiten Rechnersystem.First, there is an installation ( 51 ) a second neural network model ( 136 ) for the second measuring system ( 161 ) on a second computer system.

Zum Zweiten erfolgt eine Installation (61) eines vierten neuronalen Netzwerkmodells (156) für das dritte Messsystem (162) auf einem vierten Rechnersystem.Second, there is an installation ( 61 ) a fourth neural network model ( 156 ) for the third measuring system ( 162 ) on a fourth computer system.

Zum Dritten erfolgt eine Installation (201) eines fünften neuronalen Netzwerkmodells (158) auf einem fünften Rechnersystem.Thirdly, there is an installation ( 201 ) of a fifth neural network model ( 158 ) on a fifth computer system.

Das zweite Rechnersystem und/oder das vierte Rechnersystem und/oder das fünfte Rechnersystem können hardwaremäßig gleich und/oder identisch sein. Auch kann es sich bei einem, mehreren oder allen Rechnersystemen um eine analoge Schaltung handeln, die die Rechenoperationen der neuronalen Netzwerkmodelle (136, 156, 158) ausführt und nicht unbedingt programmierbar sein muss. Im Sinne dieser Offenlegung kann eine solche Installation vielmehr immer auch so erfolgen, dass die Struktur und wesentliche Parameter des jeweiligen neuronalen Netzwerkmodells beispielsweise in Form einer geeigneten elektronischen Schaltung in der Konstruktionsphase fest vorgegeben werden. Es kann sich also beispielsweise auch um einen Analog- oder Hybridrechner handeln, der in Form einer elektrischen Schaltung die Struktur und/oder Parametrisierung des jeweiligen neuronalen Netzwerkmodells in Teilen fest vorgibt. Eine Installation in Form von reiner Software auf einem vollprogrammierbaren Rechnersystem in Harvard und/oder Von-Neumann-Architektur ist aber vorzuziehen und bevorzugt.The second computer system and / or the fourth computer system and / or the fifth computer system can be identical and / or identical in terms of hardware. One, several or all computer systems can also be an analog circuit that carries out the arithmetic operations of the neural network models ( 136 , 156 , 158 ) and does not necessarily have to be programmable. In the sense of this disclosure, such an installation can rather always take place in such a way that the structure and essential parameters of the respective neural network model are fixed in the construction phase, for example in the form of a suitable electronic circuit. It can also be, for example, an analog or hybrid computer which, in the form of an electrical circuit, firmly specifies the structure and / or parameterization of the respective neural network model in parts. An installation in the form of pure software on a fully programmable computer system in Harvard and / or Von Neumann architecture is preferable and preferred.

Typischerweise folgt das Laden (71) von zuvor gesicherten Parametern des zweiten neuronalen Netzwerkmodells (136) für das zweite Messsystem (161) aus dem zweiten Trainingsdatenspeicher (137) als aktuelle Parameter des zweiten neuronalen Netzwerkmodells (136) für das zweite Messsystem (161).Typically this is followed by loading ( 71 ) of previously saved parameters of the second neural network model ( 136 ) for the second measuring system ( 161 ) from the second training data memory ( 137 ) as current parameters of the second neural network model ( 136 ) for the second measuring system ( 161 ).

Typischerweise folgt das Laden (72) von zuvor gesicherten Parametern des vierten neuronalen Netzwerkmodells (156) für das dritte Messsystem (162) aus dem vierten Trainingsdatenspeicher (157) als aktuelle Parameter des vierten neuronalen Netzwerkmodells (156) für das dritte Messsystem (162). Typically this is followed by loading ( 72 ) of previously saved parameters of the fourth neural network model ( 156 ) for the third measuring system ( 162 ) from the fourth training data memory ( 157 ) as the current parameters of the fourth neural network model ( 156 ) for the third measuring system ( 162 ).

Typischerweise folgt das Laden (211) von zuvor gesicherten Parametern des fünften neuronalen Netzwerkmodells (158) aus dem fünften Trainingsdatenspeicher (159) als aktuelle Parameter des fünften neuronalen Netzwerkmodells (158).Typically this is followed by loading ( 211 ) of previously saved parameters of the fifth neural network model ( 158 ) from the fifth training data memory ( 159 ) as the current parameters of the fifth neural network model ( 158 ).

Auf diese Weise ist das Gesamtmesssystem nun für die Verarbeitung von Signalen vorbereitet.In this way, the entire measuring system is now prepared for processing signals.

Zur Verarbeitung der Signale erfolgen nun zum Ersten eine Übergabe (54) von zweiten Live-Sensorsignalen der zweiten Sensoranordnung (131) an das trainierte zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) und zum Zweiten eine Übergabe (64) von dritten Live-Sensorsignalen der dritten Sensoranordnung (151) an das trainierte vierte neuronale Netzwerkmodell (1356) für das dritte Messsystem (162)In order to process the signals, the first step is a transfer ( 54 ) of second live sensor signals of the second sensor arrangement ( 131 ) to the trained second neural network model ( 136 ) for the second measuring system ( 161 ) and secondly a handover ( 64 ) of third live sensor signals of the third sensor arrangement ( 151 ) to the trained fourth neural network model ( 1356 ) for the third measuring system ( 162 )

Dabei erfolgt die Durchführung einer zweiten Objektidentifizierung durch das trainierte zweite neuronale Netzwerkmodell (136) zur Erzeugung eines zweiten Objekterkennungsergebnisses und die Durchführung einer dritten Objektidentifizierung durch das trainierte vierte neuronale Netzwerkmodell (156) zur Erzeugung eines dritten Objekterkennungsergebnisses.A second object identification is carried out by the trained second neural network model ( 136 ) to generate a second object recognition result and to carry out a third object identification by the trained fourth neural network model ( 156 ) to generate a third object recognition result.

Die zweiten Live-Sensorsignale der zweiten Sensoranordnung (131) unterscheiden sich hierbei von den zweiten Sensorsignalen der zweiten Sensoranordnung (131) mit denen die Parameter des zweiten neuronalen Netzwerkmodells (136) ermittelt wurden, dadurch, dass sie nun in der eigentlichen Anwendung durch die zweite Sensoranordnung (131) im Zielbetrieb, also beispielsweise im Fahrzeug des Konsumenten während der Benutzung des Fahrzeugs, und nicht im Labor oder bei Testfahrten ermittelt werden.The second live sensor signals of the second sensor arrangement ( 131 ) differ from the second sensor signals of the second sensor arrangement ( 131 ) with which the parameters of the second neural network model ( 136 ) were determined by the fact that they are now in the actual application by the second sensor arrangement ( 131 ) can be determined in the target operation, for example in the consumer's vehicle while the vehicle is being used, and not in the laboratory or during test drives.

Die dritten Live-Sensorsignale der dritten Sensoranordnung (151) unterscheiden sich hierbei von den dritten Sensorsignalen der dritten Sensoranordnung (151) mit denen die Parameter des vierten neuronalen Netzwerkmodells (156) ermittelt wurden dadurch, dass sie nun in der eigentlichen Anwendung durch die dritte Sensoranordnung (151) im Zielbetrieb, also beispielsweise im Fahrzeug des Konsumenten während der Benutzung des Fahrzeugs, und nicht im Labor oder bei Testfahrten ermittelt werden.The third live sensor signals of the third sensor arrangement ( 151 ) differ from the third sensor signals of the third sensor arrangement ( 151 ) with which the parameters of the fourth neural network model ( 156 ) were determined by the fact that they are now in the actual application by the third sensor arrangement ( 151 ) can be determined in the target operation, for example in the consumer's vehicle while the vehicle is being used, and not in the laboratory or during test drives.

Es folgt die Übergabe (203) von ersten Live- Objekterkennungsergebnissen und von alternativen zweiten Live-Objekterkennungsergebnissen an das trainierte dritte neuronale Netzwerkmodell (138)The handover follows ( 203 ) of first live object recognition results and of alternative second live object recognition results to the trained third neural network model ( 138 )

Abschließend erfolgt ein Vergleich (204) der zweiten Objekterkennungsergebnisse der durch das zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) durchgeführten zweiten Objektidentifizierung mit den dritten Objekterkennungsergebnissen der durch das vierte neuronale Netzwerkmodell (156) für das dritte Messsystem (162) durchgeführten dritten Objektidentifizierung und die Ermittlung (204) einer gemeinsamen Objekterkennungshypothese, die das Erkennungsergebnis des Gesamtmesssystems darstellt. Bei der gemeinsamen Objekterkennungshypothese kann es sich um eine Liste von Objekten mit Erkennungswahrscheinlichkeiten und von Anordnungen solcher Objekte mit Erkennungswahrscheinlichkeiten handeln. Sie kann auch nur ein Objekt und/oder nur eine Anordnung enthalten. Eine Wahrscheinlichkeitsangabe muss nicht zwingend in der gemeinsamen Objekterkennungshypothese enthalten sein.Finally a comparison is made ( 204 ) the second object recognition results obtained by the second neural network model ( 136 ) for the second measuring system ( 161 ) carried out second object identification with the third object recognition results of the fourth neural network model ( 156 ) for the third measuring system ( 162 ) carried out third object identification and the determination ( 204 ) a common object recognition hypothesis, which represents the recognition result of the overall measurement system. The common object recognition hypothesis can be a list of objects with recognition probabilities and arrangements of such objects with recognition probabilities. It can also contain only one object and / or only one arrangement. A probability specification does not necessarily have to be contained in the common object recognition hypothesis.

Der Lernprozess wird nun wie folgt durchgeführt:

  • Es erfolgt eine zweite Parameteranpassung (87) des zweiten neuronalen Netzwerkmodells (136) für das zweite Messsystem (161) in Abhängigkeit vom Ergebnis des Vergleichs (204) der zweiten Objekterkennungsergebnisse der durch das zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) durchgeführten zweiten Objektidentifizierung mit den dritten Objekterkennungsergebnissen der durch das vierte neuronale Netzwerkmodell (156) für das dritte Messsystem (162) durchgeführten alternativen dritten Objektidentifizierung. Hierbei wird die Parameteranpassung in der Regel so durchgeführt, dass eine Nichtberücksichtigung von Teilen der zweiten Objekterkennungsergebnisse des zweiten neuronalen Netzwerkmodells (136) in der gemeinsamen Objekterkennungshypothese durch das fünfte neuronale Netzwerkmodell (158), das den Vergleich (204) ausführt, zu einer Dämpfung der entsprechenden Parameter des zweiten neuronalen Netzwerkmodells (136) führt und dass eine Berücksichtigung von Teilen der zweiten Objekterkennungsergebnisse des zweiten neuronalen Netzwerkmodells (136) in der gemeinsamen Objekterkennungshypothese durch das fünfte neuronale Netzwerkmodell (158), das den Vergleich (204) ausführt, zu einer Verstärkung der entsprechenden Parameter des zweiten neuronalen Netzwerkmodells (136) führt.
The learning process is now carried out as follows:
  • A second parameter adjustment takes place ( 87 ) of the second neural network model ( 136 ) for the second measuring system ( 161 ) depending on the result of the comparison ( 204 ) The second Object recognition results obtained by the second neural network model ( 136 ) for the second measuring system ( 161 ) carried out second object identification with the third object recognition results of the fourth neural network model ( 156 ) for the third measuring system ( 162 ) carried out alternative third object identification. Here, the parameter adjustment is usually carried out in such a way that parts of the second object recognition results of the second neural network model ( 136 ) in the common object recognition hypothesis by the fifth neural network model ( 158 ) that compares ( 204 ), leads to a damping of the corresponding parameters of the second neural network model ( 136 ) and that taking into account parts of the second object recognition results of the second neural network model ( 136 ) in the common object recognition hypothesis by the fifth neural network model ( 158 ) that compares ( 204 ) performs, to an amplification of the corresponding parameters of the second neural network model ( 136 ) leads.

Es erfolgt eine vierte Parameteranpassung (88) des vierten neuronalen Netzwerkmodells (156) für das dritte Messsystem (162) in Abhängigkeit vom Ergebnis des Vergleichs (204) der zweiten Objekterkennungsergebnisse der durch das zweite neuronale Netzwerkmodell (136) für das erste Messsystem (161) durchgeführten zweiten Objektidentifizierung mit den alternativen dritten Objekterkennungsergebnissen der durch das vierte neuronale Netzwerkmodell (156) für das dritte Messsystem (162) durchgeführten alternativen dritten Objektidentifizierung. Hierbei wird die Parameteranpassung in der Regel so durchgeführt, dass eine Nichtberücksichtigung von Teilen der dritten Objekterkennungsergebnisse des vierten neuronalen Netzwerkmodells (156) in der gemeinsamen Objekterkennungshypothese durch das fünfte neuronale Netzwerkmodell (158), das den Vergleich (204) ausführt, zu einer Dämpfung der entsprechenden Parameter des vierten neuronalen Netzwerkmodells (1356) führt und dass eine Berücksichtigung von Teilen der dritten Objekterkennungsergebnisse des vierten neuronalen Netzwerkmodells (156) in der gemeinsamen Objekterkennungshypothese durch das fünfte neuronale Netzwerkmodell (158), das den Vergleich (204) ausführt, zu einer Verstärkung der entsprechenden Parameter des vierten neuronalen Netzwerkmodells (156) führt.A fourth parameter adjustment takes place ( 88 ) of the fourth neural network model ( 156 ) for the third measuring system ( 162 ) depending on the result of the comparison ( 204 ) the second object recognition results obtained by the second neural network model ( 136 ) for the first measuring system ( 161 ) performed second object identification with the alternative third object recognition results of the fourth neural network model ( 156 ) for the third measuring system ( 162 ) carried out alternative third object identification. Here, the parameter adjustment is usually carried out in such a way that parts of the third object recognition results of the fourth neural network model ( 156 ) in the common object recognition hypothesis by the fifth neural network model ( 158 ) that compares ( 204 ), leads to a damping of the corresponding parameters of the fourth neural network model ( 1356 ) and that consideration of parts of the third object recognition results of the fourth neural network model ( 156 ) in the common object recognition hypothesis by the fifth neural network model ( 158 ) that compares ( 204 ), to an amplification of the corresponding parameters of the fourth neural network model ( 156 ) leads.

Das fünfte neuronale Netzwerkmodell (158), das den Vergleich (204) durchführt, trifft somit eine Entscheidung.The fifth neural network model ( 158 ) that compares ( 204 ), thus makes a decision.

Die Verwendung (205) der durch das fünfte neuronale Netzwerkmodell (158) für das Gesamtmesssystem ermittelten gemeinsamen Objekterkennungshypothese schließt das Verfahren ab.The usage ( 205 ) which by the fifth neural network model ( 158 ) the common object recognition hypothesis determined for the overall measurement system concludes the process.

Figur 18Figure 18

zeigt den Aufbau des vorgeschlagenen kombinierten Gesamtsystems aus einem Ultraschallmesssystem (164) und einem zweiten Messsystem (161) für das entsprechende erste Kombinationsverfahren gemäß Abschnitt E).shows the structure of the proposed combined overall system from an ultrasonic measuring system ( 164 ) and a second measuring system ( 161 ) for the corresponding first combination procedure according to Section E).

Eine erste Gruppe von Komponenten bildet das Ultraschallmesssystem (164):

  • Die Ultraschallwandleranordnung (11) sendet die akustischen Ultraschallsignale aus und empfängt die Echos der zu detektierenden Objekte im Umfeld des Fahrzeugs. Die Ultraschallwandleranordnung wandelt diese empfangenen Echosignale und sonstigen empfangenen Ultraschallsignale in Ultraschallmesswerte um und stellt diese einem Signalprozessor (15) zur Verfügung, der diese weiterverarbeitet. Der Signalprozessor (15) kann ein digitaler programmierbarer Prozessor in von Neumann oder Havard-Architektur oder in einer anderen geeigneten Architektur sein. Es kann sich aber auch um eine geeignete analoge Schaltung zur Vorverarbeitung der Signale handeln. Im Falle analoger neuronale Netze kann der Prozessor ggf. auch weggelassen werden, was sich in der Praxis aber bisher nicht bewährt hat.
The first group of components is the ultrasonic measuring system ( 164 ):
  • The ultrasonic transducer arrangement ( 11 ) sends out the acoustic ultrasonic signals and receives the echoes of the objects to be detected in the vicinity of the vehicle. The ultrasonic transducer arrangement converts these received echo signals and other received ultrasonic signals into ultrasonic measured values and presents them to a signal processor ( 15th ) is available to process them further. The signal processor ( 15th ) can be a digital programmable processor in von Neumann or Havard architecture or in another suitable architecture. However, it can also be a suitable analog circuit for preprocessing the signals. In the case of analog neural networks, the processor can optionally also be omitted, but this has so far not proven itself in practice.

Die vom Signalprozessor (15) aufbereiteten Empfangssignale sind die Eingangssignale des ersten neuronalen Netzwerkmodells (16), das typischerweise auf einem digitalen Speicher eines Rechners abgelegt ist. Das erste neuronale Netzwerkmodell (16) kann beispielsweise auch als spezielle mikroelektronische Schaltung oder andere funktionsgleiche Vorrichtung realisiert werden. Das neuronale Netzwerkmodell (16) ist die Umsetzung eines Deep-Learning-Verfahrens, wie oben beschrieben.The signals from the signal processor ( 15th ) processed received signals are the input signals of the first neural network model ( 16 ), which is typically stored on a digital memory of a computer. The first neural network model ( 16 ) can also be implemented, for example, as a special microelectronic circuit or other functionally equivalent device. The neural network model ( 16 ) is the implementation of a deep learning process, as described above.

Die Parameter des ersten neuronalen Netzwerkmodells (16) können aus einem ersten Trainingsdatenspeicher (17) geladen werden. Die Trainingsdaten werden bevorzugt durch ein Verfahren, wie oben beschrieben im Labor ermittelt.The parameters of the first neural network model ( 16 ) can from a first training data memory ( 17th ) Loading. The training data are preferably determined in the laboratory by a method as described above.

Die Ultraschallwandleranordnung (11) ist mit einer Ansteuerungselektronik (12) verbunden, die optional zur Strahlformung beispielsweise mittels Phasenverschiebung der ausgesendeten Ultraschallsignale der einzelnen Ultraschallwandler der Ultraschallwandleranordnung (11) fähig sein kann. Die Ansteuerungselektronik (12) steuert die entsprechenden Ultraschallwandler der Ultraschallwandleranordnung (11) zum vorzugsweise gerichteten Aussenden oder Empfangen der Ultraschallsignale an. Diese Ausrichtung ist wünschenswert, aber nicht zwingend. Das Aussenden von Ultraschallsignalen durch die Ultraschallwandleranordnung (11) wird gesteuert durch eine Sendersteuerung (13). Diese ist mit der Ansteuerungselektronik (12) verbunden und stellt die Sendeparameter der Ultraschallwandler der Ultraschallwandleranordnung (11) ein, abhängig von Einstellungen, die über die in einem optionalen Speicher abgelegten optionalen Benutzereinstellungen (14), bzw. durch ein übergeordnetes Steuergerät, vorgegeben werden. Sendeparameter, welche von der Sendersteuerung (13) gesteuert werden können, sind beispielsweise Burstlänge, Frequenz, Frequenzverlauf, Kodierung, Polarität, Phase oder Amplitude.The ultrasonic transducer arrangement ( 11 ) is equipped with control electronics ( 12th ), which are optionally used for beam shaping, for example by means of phase shifting of the transmitted ultrasonic signals of the individual ultrasonic transducers of the ultrasonic transducer arrangement ( 11 ) can be capable. The control electronics ( 12th ) controls the corresponding ultrasonic transducers of the ultrasonic transducer arrangement ( 11 ) for preferably directed transmission or reception of the ultrasonic signals. This alignment is desirable, but not mandatory. The emission of ultrasonic signals by the ultrasonic transducer arrangement ( 11 ) is controlled by a transmitter control ( 13th ). This is with the control electronics ( 12th ) and sets the transmission parameters of the ultrasonic transducers of the ultrasonic transducer arrangement ( 11 ), depending on the settings made via the optional user settings stored in an optional memory ( 14th ), or by a higher-level control unit. Send parameters, which are from the transmitter control ( 13th ) can be controlled, for example, burst length, frequency, frequency curve, coding, polarity, phase or amplitude.

Die Ausgabewerte des ersten neuronalen Netzwerkmodells (16) sind bevorzugt die Positionen der erkannten Objekte und bevorzugt deren Klassifizierung, sowie beispielsweise ein entsprechender Konfidenzwert, der dem erkannten Erkennungsergebnis als Ganzes zugeordnet sein kann, und/oder Konfidenzwerte, die den einzelnen Objekten jeweils zugeordnet sind. Diese Daten bilden das erste Objekterkennungsergebnis. Weitere Daten können Teil der Ausgabewerte sein. Auch sind zueinander alternative Hypothesenlisten möglich, wobei die Hypothesenliste alternative Erkennungsergebnisse mit unterschiedlichen Konfidenzwerten für diese ersten Objekterkennungsergebnisse umfasst. Jedes erste Objekterkennungsergebnis umfasst dabei ein oder mehrere Objekte.The output values of the first neural network model ( 16 ) are preferably the positions of the recognized objects and preferably their classification, as well as, for example, a corresponding confidence value that can be assigned to the recognized recognition result as a whole, and / or confidence values that are assigned to the individual objects. These data form the first object recognition result. Further data can be part of the output values. Hypothesis lists that are alternative to one another are also possible, the hypothesis list having alternative recognition results with different confidence values for these first ones Includes object recognition results. Each first object recognition result comprises one or more objects.

Das zuvor beschrieben Ultraschallmesssystem (164) umfasst bevorzugt ferner eine Vielzahl von ersten Benutzersteuerungen (10), wobei das Einstellen einer oder mehrerer der ersten Benutzersteuerungen (10) als Reaktion auf die Identifizierung einer Anordnung von Objekten und/oder Objektkomponenten oder von Objekten in den ersten Ultraschallmesswerten und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den ersten Objekterkennungsergebnissen erfolgt.The ultrasonic measuring system described above ( 164 ) preferably further comprises a plurality of first user controls ( 10 ), whereby setting one or more of the first user controls ( 10 ) takes place as a reaction to the identification of an arrangement of objects and / or object components or of objects in the first ultrasonic measurement values and / or in the two- or three-dimensional representations and / or as a function of the first object recognition results.

Bei dem zuvor beschriebenen Ultraschallmesssystem (164) erfolgt bevorzugt das Einstellen oder die Anpassung von Regelparametern einer oder mehrerer der Steuerungen als Reaktion auf die Identifizierung der Anordnung von Objekten und/oder Objektkomponenten in den ersten Ultraschallmesswerten und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den ersten Objekterkennungsergebnissen. Dabei erfolgt bevorzugt das Einstellen einer oder mehrerer der Steuerungen (13) des Ultraschallmesssystems oder des Fahrzeugs als Reaktion auf die Identifizierung von Objekten und/oder Objektkomponenten und/oder der Anordnung von Objekten und/oder Objekten und/oder Objektkomponenten in den ersten Ultraschallmesswerten und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den ersten Objekterkennungsergebnissen.With the ultrasonic measuring system described above ( 164 ) preferably the setting or the adjustment of control parameters of one or more of the controls takes place in response to the identification of the arrangement of objects and / or object components in the first ultrasonic measured values and / or in the two- or three-dimensional representations and / or as a function of the first Object recognition results. One or more of the controls are preferably set here ( 13th ) of the ultrasonic measuring system or the vehicle as a reaction to the identification of objects and / or object components and / or the arrangement of objects and / or objects and / or object components in the first ultrasound measurement values and / or in the two- or three-dimensional representations and / or in Dependence on the first object recognition results.

Die Ultraschallwandleranordnung (11) ist mit einer Ansteuerungselektronik (12) verbunden, die optional zur Strahlformung beispielsweise mittels Phasenverschiebung der ausgesendeten Ultraschallsignale der einzelnen Ultraschallwandler der Ultraschallwandleranordnung (11) fähig sein kann. Die Ansteuerungselektronik (12) steuert die entsprechenden Ultraschallwandler der Ultraschallwandleranordnung (11) zum vorzugsweise gerichteten Aussenden oder Empfangen der Ultraschallsignale an. Diese Ausrichtung ist wünschenswert, aber nicht zwingend. Das Aussenden von Ultraschallsignalen durch die Ultraschallwandleranordnung (11) wird gesteuert durch eine Sendersteuerung (13). Diese ist mit der Ansteuerungselektronik (12) verbunden und stellt die Sendeparameter der Ultraschallwandler der Ultraschallwandleranordnung (11) ein, abhängig von Einstellungen, die über die in einem optionalen Speicher abgelegten optionalen Benutzereinstellungen (14), bzw. durch ein übergeordnetes Steuergerät, vorgegeben werden. Sendeparameter, welche von der Sendersteuerung (13) gesteuert werden können, sind beispielsweise Burstlänge, Frequenz, Frequenzverlauf, Kodierung, Polarität, Phase oder Amplitude.The ultrasonic transducer arrangement ( 11 ) is equipped with control electronics ( 12th ), which are optionally used for beam shaping, for example by means of phase shifting of the transmitted ultrasonic signals of the individual ultrasonic transducers of the ultrasonic transducer arrangement ( 11 ) can be capable. The control electronics ( 12th ) controls the corresponding ultrasonic transducers of the ultrasonic transducer arrangement ( 11 ) for preferably directed transmission or reception of the ultrasonic signals. This alignment is desirable, but not mandatory. The emission of ultrasonic signals by the ultrasonic transducer arrangement ( 11 ) is controlled by a transmitter control ( 13th ). This is with the control electronics ( 12th ) and sets the transmission parameters of the ultrasonic transducers of the ultrasonic transducer arrangement ( 11 ), depending on the settings made via the optional user settings stored in an optional memory ( 14th ), or by a higher-level control unit. Send parameters, which are from the transmitter control ( 13th ) can be controlled, for example, burst length, frequency, frequency curve, coding, polarity, phase or amplitude.

Eine zweite Gruppe von Komponenten bildet das zweite Messsystem (161):

  • Hier wird davon ausgegangen, dass das zweite Messsystem ebenfalls Messsignale aussendet, deren Echos empfangen werden. Dabei kann es sich beispielsweise um eine LIDAR- oder RADAR-System handeln. Dies ist jedoch nur ein Beispiel. Es kann sich auch um ein anderes Messsystem, wie beispielsweise ein PIR-Infrarotmesssystem handeln, das auf ohnehin im Umfeld des Fahrzeugs befindliche Signale zurückgreift. PIR steht hierbei für „passiv infra red“ (Deutsch: passives Infrarot).
A second group of components forms the second measuring system ( 161 ):
  • It is assumed here that the second measuring system also sends out measuring signals whose echoes are received. This can be a LIDAR or RADAR system, for example. However, this is just an example. It can also be a different measuring system, such as a PIR infrared measuring system, which makes use of signals that are already in the vicinity of the vehicle. PIR stands for “passive infra red” (German: passive infrared).

Sofern zutreffend sendet die zweite Sensoranordnung (131) die Messsignale in das Umfeld des Fahrzeugs aus und empfängt die Antwort des Umfelds und zwar insbesondere die Signalantwort der zu detektierenden oder zu charakterisierenden Objekte im Umfeld des Fahrzeugs auf diese ausgestrahlten Messsignale. Die Sensoranordnung (131) wandelt diese empfangenen Signalantworten und sonstigen empfangenen Stör- und Nutzsignalsignale in Signalmesswerte um und stellt diese einem zweiten Signalprozessor (135) zur Verfügung, der diese weiterverarbeitet. Der zweite Signalprozessor (135) kann wieder ein digitaler programmierbarer Prozessor in von Neumann oder Havard-Architektur oder in einer anderen geeigneten Architektur sein. Es kann sich aber auch um eine geeignete analoge Schaltung zur Vorverarbeitung der Signale handeln. Im Falle analoger neuronale Netze kann der Prozessor ggf. auch weggelassen werden, was sich in der Praxis aber bisher nicht bewährt hat. Im Falle eines programmierbaren Prozessors kann bei ausreichender Kapazität der zweite Signalprozessor (135) beispielsweise mit dem ersten Signalprozessor (15) und/oder dem besagten Rechner eine Einheit bilden.If applicable, the second sensor arrangement sends ( 131 ) sends the measurement signals into the surroundings of the vehicle and receives the response from the surroundings, specifically in particular the signal response of the objects to be detected or characterized in the surroundings of the vehicle to these emitted measurement signals. The sensor arrangement ( 131 ) converts these received signal responses and other received interference and useful signal signals into measured signal values and presents them to a second signal processor ( 135 ) is available to process them further. The second signal processor ( 135 ) can again be a digital programmable processor in von Neumann or Havard architecture or in another suitable architecture. However, it can also be a suitable analog circuit for preprocessing the signals. In the case of analog neural networks, the processor can optionally also be omitted, but this has so far not proven itself in practice. In the case of a programmable processor, the second signal processor ( 135 ) for example with the first signal processor ( 15th ) and / or the said computer form a unit.

Die vom zweiten Signalprozessor (135) aufbereiteten Empfangssignale der Sensoranordnung (131) sind die Eingangssignale des zweiten neuronalen Netzwerkmodells (136), das typischerweise auf einem digitalen Speicher eines zweiten Rechners, der mit dem ersten Rechner und/oder dem Signalprozessor (15) und/oder dem zweiten Signalprozessor (135) identisch sein kann, abgelegt ist. Das zweite neuronale Netzwerkmodell (136) kann beispielsweise auch als spezielle mikroelektronische Schaltung oder andere funktionsgleiche Vorrichtung realisiert werden. Das zweite neuronale Netzwerkmodell (136) ist bevorzugt die Umsetzung eines Deep-Learning-Verfahrens, wie oben beschrieben.The signals from the second signal processor ( 135 ) processed received signals of the sensor arrangement ( 131 ) are the input signals of the second neural network model ( 136 ), which is typically on a digital memory of a second computer that is connected to the first computer and / or the signal processor ( 15th ) and / or the second signal processor ( 135 ) can be identical, is stored. The second neural network model ( 136 ) can also be implemented, for example, as a special microelectronic circuit or other functionally equivalent device. The second neural network model ( 136 ) It is preferred to implement a deep learning process, as described above.

Die Parameter des zweiten neuronalen Netzwerkmodells (136) können aus einem zweiten Trainingsdatenspeicher (137) bevorzugt geladen werden. Die Trainingsdaten werden bevorzugt durch ein Verfahren, wie oben beschrieben im Labor ermittelt.The parameters of the second neural network model ( 136 ) can from a second training data memory ( 137 ) are given preference. The training data are preferably determined in the laboratory by a method as described above.

Die zweite Sensoranordnung (131) ist mit einer zweiten Ansteuerungselektronik (132) verbunden, die im Falle eines LIDAR oder Radar-Systems optional zur Strahlformung beispielsweise mittels Phasenverschiebung der ausgesendeten Messsignale der einzelnen Sensorelemente der Sensoranordnung (131) fähig sein kann. Die zweite Ansteuerungselektronik (132) steuert die entsprechenden Sensorelemente der Sensoranordnung (11) zum vorzugsweise gerichteten Aussenden oder Empfangen der Messsignale an. Im Falle eines RADAR-Systems kann dies beispielsweise durch Phasen-Antennen geschehen. Diese Ausrichtung ist wünschenswert, aber nicht zwingend. Das Aussenden von Messsignalen durch die Sensoranordnung (131) wird gesteuert durch eine zweite Sensoransteuerung (133). Diese ist mit der zweiten Ansteuerungselektronik (132) verbunden und stellt die Sendeparameter der Sensorelemente der Sensoranordnung (131) ein, abhängig von Einstellungen, die über die in einem optionalen zweiten Einstellungsspeicher abgelegten optionalen Benutzereinstellungen (134), bzw. durch ein übergeordnetes Steuergerät, vorgegeben werden. Sendeparameter, welche von der zweiten Sensoransteuerung (133) gesteuert werden können, sind im Falle eines RADAR-Systems als zweites Messsystem (161) beispielsweise Burstlänge, Frequenz, Frequenzverlauf, Kodierung, Polarität, Phase oder Amplitude. The second sensor arrangement ( 131 ) is equipped with a second control electronics ( 132 ), which in the case of a LIDAR or radar system can optionally be used for beam shaping, for example by means of phase shifting of the measurement signals transmitted by the individual sensor elements of the sensor arrangement ( 131 ) can be capable. The second control electronics ( 132 ) controls the corresponding sensor elements of the sensor arrangement ( 11 ) for preferably directed transmission or reception of the measurement signals. In the case of a RADAR system, this can be done using phase antennas, for example. This alignment is desirable, but not mandatory. The transmission of measurement signals by the sensor arrangement ( 131 ) is controlled by a second sensor control ( 133 ). This is connected to the second control electronics ( 132 ) and provides the transmission parameters of the sensor elements of the sensor arrangement ( 131 ), depending on the settings that are stored in an optional second settings memory ( 134 ), or by a higher-level control unit. Send parameters that are sent by the second sensor control ( 133 ) can be controlled, in the case of a RADAR system as a second measuring system ( 161 ) For example burst length, frequency, frequency curve, coding, polarity, phase or amplitude.

Die Ausgabewerte des zweiten neuronalen Netzwerkmodells (136) sind bevorzugt die Positionen der erkannten Objekte und bevorzugt deren Klassifizierung, sowie beispielsweise ein entsprechender Konfidenzwert, der dem erkannten Erkennungsergebnis als Ganzes zugeordnet sein kann, und/oder Konfidenzwerte, die den einzelnen Objekten jeweils zugeordnet sind. Diese Daten bilden das zweite Objekterkennungsergebnis. Weitere Daten können Teil der Ausgabewerte sein. Auch sind zueinander alternative Hypothesenlisten möglich, wobei die Hypothesenliste alternative Erkennungsergebnisse mit unterschiedlichen Konfidenzwerten für diese zweiten Objekterkennungsergebnisse umfasst. Jedes zweite Objekterkennungsergebnis umfasst dabei ein oder mehrere Objekte.The output values of the second neural network model ( 136 ) are preferably the positions of the recognized objects and preferably their classification, as well as, for example, a corresponding confidence value that can be assigned to the recognized recognition result as a whole, and / or confidence values that are assigned to the individual objects. These data form the second object recognition result. Further data can be part of the output values. Alternative hypothesis lists are also possible, the hypothesis list including alternative recognition results with different confidence values for these second object recognition results. Every second object recognition result includes one or more objects.

Das zuvor beschrieben zweite Messsystem (161) umfasst bevorzugt ferner eine Vielzahl von zweiten Benutzersteuerungen (140a), wobei das Einstellen einer oder mehrerer der zweiten Benutzersteuerungen (140a) als Reaktion auf die Identifizierung einer Anordnung von Objekten und/oder Objektkomponenten oder von Objekten in den zweiten Messwerten der zweiten Sensoranordnung (131) und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den zweiten Objekterkennungsergebnissen erfolgt.The previously described second measuring system ( 161 ) preferably further comprises a multiplicity of second user controls ( 140a) setting one or more of the second user controls ( 140a) in response to the identification of an arrangement of objects and / or object components or of objects in the second measured values of the second sensor arrangement ( 131 ) and / or takes place in the two- or three-dimensional representations and / or as a function of the second object recognition results.

Bei dem zuvor beschriebenen zweiten Messsystem (161) erfolgt bevorzugt das Einstellen oder die Anpassung von Regelparametern einer oder mehrerer der Steuerungen als Reaktion auf die Identifizierung der Anordnung von Objekten und/oder Objektkomponenten in den zweiten Messwerten der zweiten Sensoranordnung (131) und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den zweiten Objekterkennungsergebnissen. Dabei erfolgt bevorzugt das Einstellen einer oder mehrerer der zweiten Sensoransteuerungen (133) des zweiten Messsystems (161) oder des Fahrzeugs als Reaktion auf die Identifizierung von Objekten und/oder Objektkomponenten und/oder der Anordnung von Objekten und/oder Objekten und/oder Objektkomponenten in den zweiten Messwerten der zweiten Sensoranordnung (131) und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den zweiten Objekterkennungsergebnissen.With the previously described second measuring system ( 161 ) the setting or adjustment of control parameters of one or more of the controls is preferably carried out in response to the identification of the arrangement of objects and / or object components in the second measured values of the second sensor arrangement ( 131 ) and / or in the two- or three-dimensional representations and / or as a function of the second object recognition results. One or more of the second sensor controls ( 133 ) of the second measuring system ( 161 ) or of the vehicle in response to the identification of objects and / or object components and / or the arrangement of objects and / or objects and / or object components in the second measured values of the second sensor arrangement ( 131 ) and / or in the two- or three-dimensional representations and / or as a function of the second object recognition results.

Die zweite Sensoranordnung (131) ist mit einer zweiten Ansteuerungselektronik (132) verbunden, die optional zur Strahlformung beispielsweise mittels Phasenverschiebung der ausgesendeten Messsignale der einzelnen Sensorelemente der Sensoranordnung (131) fähig sein kann. Die zweite Ansteuerungselektronik (132) steuert die entsprechenden Sensorelemente der Sensoranordnung (131) zum vorzugsweise gerichteten Aussenden oder Empfangen der Messsignale an. Diese Ausrichtung ist wünschenswert, aber nicht zwingend. Das Aussenden von Messsignalen durch die Sensoranordnung (131) wird gesteuert durch die Sensoransteuerung (133). Diese ist mit der zweiten Ansteuerungselektronik (132) verbunden und stellt die Sendeparameter der Sensorelemente der Sensoranordnung (131) ein, abhängig von Einstellungen, die über die in einem optionalen zweiten Einstellungsspeicher abgelegten optionalen Benutzereinstellungen (134), bzw. durch ein übergeordnetes Steuergerät, vorgegeben werden. Sendeparameter, welche von der Sensoransteuerung (133) gesteuert werden können, sind beispielsweise Burstlänge, Frequenz, Frequenzverlauf, Kodierung, Polarität, Phase oder Amplitude.The second sensor arrangement ( 131 ) is equipped with a second control electronics ( 132 ), which are optionally used for beam shaping, for example by means of phase shifting of the transmitted measurement signals of the individual sensor elements of the sensor arrangement 131 ) can be capable. The second control electronics ( 132 ) controls the corresponding sensor elements of the sensor arrangement ( 131 ) for preferably directed transmission or reception of the measurement signals. This alignment is desirable, but not mandatory. The transmission of measurement signals by the sensor arrangement ( 131 ) is controlled by the sensor control ( 133 ). This is connected to the second control electronics ( 132 ) and provides the transmission parameters of the sensor elements of the sensor arrangement ( 131 ), depending on the settings that are stored in an optional second settings memory ( 134 ), or by a higher-level control unit. Send parameters that are used by the sensor control ( 133 ) can be controlled, for example, burst length, frequency, frequency curve, coding, polarity, phase or amplitude.

Das vorgeschlagene Gesamtsensorsystem umfasst darüber hinaus ein drittes neuronales Netzwerkmodell (138), das bevorzugt auf einem dritten Rechnersystem implementiert ist. Das dritte Rechnersystem kann mit dem ersten Rechnersystem des ersten neuronalen Netzwerkmodells (16), und/oder mit dem zweiten Rechnersystem des zweiten neuronalen Netzwerkmodells (136) und/oder dem ersten Signalprozessor (15) und/oder dem zweiten Signalprozessor (135) eine Einheit bilden.The proposed overall sensor system also includes a third neural network model ( 138 ), which is preferably implemented on a third computer system. The third computer system can be combined with the first computer system of the first neural network model ( 16 ), and / or with the second computer system of the second neural network model ( 136 ) and / or the first signal processor ( 15th ) and / or the second signal processor ( 135 ) form a unit.

Das erste neuronale Netzwerkmodell (16) bildet ein erstes Objekterkennungsergebnis.The first neural network model ( 16 ) forms a first object recognition result.

Das zweite neuronale Netzwerkmodell (136) bildet ein zweites Objekterkennungsergebnis. The second neural network model ( 136 ) forms a second object recognition result.

Das dritte neuronale Netzwerkmodell (136) bildet nun in Abhängigkeit von dem ersten Objekterkennungsergebnis und dem zweiten Objekterkennungsergebnis eine gemeinsame Objekterkennungshypothese. In Abhängigkeit von der ermittelten gemeinsamen Objekterkennungshypothese und dem ersten Objekterkennungsergebnis und dem zweiten Objekterkennungsergebnis steuert das dritte neuronale Netzwerkmodell (138) eine erste Parametermodifikationsvorrichtung (140) für das erste neuronale Netzwerkmodell (16) und eine zweite Parametermodifikationsvorrichtung (141) für das zweite neuronale Netzwerkmodell (136).The third neural network model ( 136 ) now forms a common object recognition hypothesis as a function of the first object recognition result and the second object recognition result. The third neural network model controls depending on the determined common object recognition hypothesis and the first object recognition result and the second object recognition result ( 138 ) a first parameter modification device ( 140 ) for the first neural network model ( 16 ) and a second parameter modification device ( 141 ) for the second neural network model ( 136 ).

Sowohl die erste Parametermodifikationsvorrichtung (140) als auch die zweite Parametermodifikationsvorrichtung (141) können auf einem weiteren Rechnersystem implementiert sein oder einem der vorgenannten Rechnersysteme und/oder Signalprozessoren. Es kann sich aber auch um spezielle Vorrichtungen, beispielsweise spezielle Schaltungen handeln.Both the first parameter modification device ( 140 ) and the second parameter modification device ( 141 ) can be implemented on another computer system or one of the aforementioned computer systems and / or signal processors. However, they can also be special devices, for example special circuits.

Die erste Parametermodifikationsvorrichtung (140) modifiziert in Abhängigkeit von den Signalen des dritten neuronalen Netzwerkmodells (138) und/oder des ersten Objekterkennungsergebnisses und/oder des zweiten Objekterkennungsergebnisses die Parameter des ersten neuronalen Netzwerkmodells (16).The first parameter modification device ( 140 ) modified depending on the signals of the third neural network model ( 138 ) and / or of the first object recognition result and / or of the second object recognition result, the parameters of the first neural network model ( 16 ).

Die zweite Parametermodifikationsvorrichtung (141) modifiziert in Abhängigkeit von den Signalen des dritten neuronalen Netzwerkmodells (138) und/oder des ersten Objekterkennungsergebnisses und/oder des zweiten Objekterkennungsergebnisses die Parameter des zweiten neuronalen Netzwerkmodells (136). Hierdurch wird die Vorrichtung selbstlernfähig.The second parameter modification device ( 141 ) modified depending on the signals of the third neural network model ( 138 ) and / or of the first object recognition result and / or of the second object recognition result, the parameters of the second neural network model ( 136 ). This makes the device self-learning.

Für sicherheitsrelevante Anwendungen ist es notwendig, ein Abdriften des dritten neuronalen Netzwerkmodells (138) und/oder der anderen neuronalen Netzwerkmodelle zu erkennen. Daher umfasst das vorgeschlagene Gesamtsystem eine erste Sicherheitsvorrichtung (142). Die Aufgabe der ersten Sicherheitsvorrichtung (142) ist es, die Arbeit des Gesamtsystems zu überwachen und offensichtlich falsche Ergebnisse der drei neuronalen Netze zu erkennen. Hierzu empfängt die erste Sicherheitsvorrichtung (142) hochpriorisierte direkte Signale der Ultraschallwandleranordnung (11) in Form eines hoch priorisierten Signals (H11) der Ultraschallwandleranordnung (11), hoch priorisierte Signale (H15) des ersten Signalprozessors (15), hochpriorisierte direkte Signale der zweiten Sensoranordnung (131) in Form eines hoch priorisierten Signals (H131) der zweiten Sensoranordnung (131), hoch priorisierte Signale (H135) des zweiten Signalprozessors (135) und Benutzereingaben (H142) oder andere externe hoch priorisierte Signale. Alle diese hochpriorisierten Signale sind nur beispielhaft. Es kann sich bei jedem dieser hoch priorisierten Signale um ein einzelnes Signal oder ein Bündel von mehreren Signalen im Zeit- und/oder Raummultiplex handeln. Diese hoch priorisierten Signale sind bevorzugt aber nicht zwingend erforderlich. Sie ermöglichen dem System das Trainieren des Entscheiders in Form des dritten neuronalen Netzwerkmodells (138).For safety-relevant applications, it is necessary to prevent the third neural network model ( 138 ) and / or the other neural network models. Therefore, the proposed overall system includes a first safety device ( 142 ). The task of the first safety device ( 142 ) is to monitor the work of the overall system and to detect obviously incorrect results of the three neural networks. To do this, the first safety device ( 142 ) High-priority direct signals from the ultrasonic transducer array ( 11 ) in the form of a high-priority signal (H11) from the ultrasonic transducer arrangement ( 11 ), high-priority signals (H15) of the first signal processor ( 15th ), high-priority direct signals from the second sensor arrangement ( 131 ) in the form of a high-priority signal (H131) from the second sensor arrangement ( 131 ), high-priority signals (H135) of the second signal processor ( 135 ) and user inputs (H142) or other external high-priority signals. All of these high-priority signals are only exemplary. Each of these high-priority signals can be a single signal or a bundle of several signals in time and / or space multiplex. These high-priority signals are preferred but not absolutely necessary. They enable the system to train the decision maker in the form of the third neural network model ( 138 ).

Ferner umfasst das in diesem Abschnitt beschriebene Gesamtmesssystem bevorzugt eine Benutzersteuerungsanzeige (9), die Einstellungen anzeigt, die als Reaktion auf die Identifizierung von Objekten und/oder Objektkomponenten und/oder der Anordnung von Objekten und/oder Objektkomponenten in den ersten Ultraschallmesswerten und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit vom ersten Objekterkennungsergebnis gemacht werden. Die Benutzersteuerungsanzeige (9) kann grundsätzlich mit der Anzeige (19) eine Einheit bilden.Furthermore, the overall measurement system described in this section preferably includes a user control display ( 9 ), which displays settings made in response to the identification of objects and / or object components and / or the arrangement of objects and / or object components in the first ultrasound measurement values and / or in the two- or three-dimensional representations and / or as a function of the first Object recognition result can be made. The user control display ( 9 ) can basically with the display ( 19th ) form a unit.

Bei dem hier beschriebenen Ultraschallmesssystem (164) aktiviert bevorzugt die Benutzersteuerungsanzeige (9) als Reaktion auf die Identifizierung von Objekten und/oder Objektkomponenten und/oder der Anordnung von Objekten und/oder Objektkomponenten in den ersten Ultraschallmesswerten und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in den ersten Objekterkennungsergebnissen Steuerungsmöglichkeiten und zeigt diese an.With the ultrasonic measuring system described here ( 164 ) preferably activates the user control display ( 9 ) in response to the identification of objects and / or object components and / or the arrangement of objects and / or object components in the first ultrasound measurement values and / or in the two- or three-dimensional representations and / or in the first object recognition results control options and displays them.

Das in diesem Abschnitt beschriebene Ultraschallmesssystem (164) umfasst zum Zwecke des Trainings des ersten neuronalen Netzwerkmodells (16) bevorzugt auch einen ersten Trainingsbildspeicher (17), der Trainingsbilder für das erste neuronale Netzwerkmodell (16) speichert.The ultrasonic measuring system described in this section ( 164 ) includes for the purpose of training the first neural network model ( 16 ) also prefers a first training image memory ( 17th ), the training images for the first neural network model ( 16 ) saves.

Bei dem in diesem Abschnitt beschriebene Ultraschallmesssystem (164) ist die Anzeige (19) bevorzugt ferner dazu ausgebildet, die zwei- oder dreidimensionalen Darstellungen anzuzeigen, die zumindest zeitweise zusätzlich mit der durch das erste neuronale Netzwerkmodell (16) bestimmten Identifikation und/oder einem Teil des ersten Objekterkennungsergebnisses versehen sind.With the ultrasonic measuring system described in this section ( 164 ) the display is ( 19th ) preferably also designed to display the two- or three-dimensional representations, which at least at times also contain the information provided by the first neural network model ( 16 ) certain identification and / or a part of the first object recognition result are provided.

Das zuvor beschrieben Gesamtmesssystem umfasst bevorzugt ferner eine Vielzahl von dritten Benutzersteuerungen (145), wobei das Einstellen einer oder mehrerer der dritten Benutzersteuerungen (145) als Reaktion auf die Identifizierung einer Anordnung von Objekten und/oder Objektkomponenten oder von Objekten in den ersten Objekterkennungsergebnissen und/oder in den zweiten Objekterkennungsergebnissen und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von der gemeinsamen Objekterkennungshypothese erfolgt.The overall measurement system described above preferably also includes a plurality of third user controls ( 145 ), whereby setting one or more of the third user controls ( 145 ) in response to the identification of an arrangement of objects and / or object components or of objects in the first object recognition results and / or in the second Object recognition results and / or takes place in the two- or three-dimensional representations and / or as a function of the common object recognition hypothesis.

Der bevorzugt verwendete Bildprozessor (18) setzt diese Informationen in eine geeignete zwei- oder dreidimensionale Darstellung um, die von der Anzeige (19) für den Fahrzeugführer ausgegeben wird. Die Informationen über Objektpositionen und Klassifizierungen werden bevorzugt auch an die Benutzersteuerungen (10, 140a, 145) übergeben. Die Auswahl einer abgespeicherten Benutzersteuerung oder die Anpassung von Regelparametern einer Steuerung als Reaktion auf die Klassifizierung wird von der Benutzersteuerung (10, 140a, 145) umgesetzt und an den Einstellungsspeicher (14) weitergegeben, bzw. von der Benutzersteuerungsanzeige (19) angezeigt. Der Einstellungsspeicher (14) übermittelt auch von der Klassifizierung abhängige Parameter an den Bildprozessor (18), sodass die von der Anzeige (19) ausgegebene Darstellung der Objekte und ihrer Identifikation automatisch geeignet angepasst werden kann.The preferred image processor used ( 18th ) converts this information into a suitable two- or three-dimensional representation, which is provided by the display ( 19th ) is issued to the driver. The information about object positions and classifications is also given preference to the user controls ( 10 , 140a , 145 ) to hand over. The selection of a saved user control or the adjustment of control parameters of a control in response to the classification is carried out by the user control ( 10 , 140a , 145 ) and transferred to the settings memory ( 14th ) or from the user control display ( 19th ) is displayed. The settings memory ( 14th ) also transmits parameters dependent on the classification to the image processor ( 18th ) so that the display ( 19th ) the displayed representation of the objects and their identification can be automatically adapted accordingly.

Abschließend sei hier ausdrücklich darauf hingewiesen, dass die Sendesteuerung des zweiten Messsystems (161) nicht zwingend erforderlich ist, wenn das zweite Messsystem (161) für das angewendete Messprinzip keine Aussendung von Messsignalen benötigt. In dem Falle kann es sogar sein, dass die zweite Ansteuerungselektronik (134), die zweite Sensoransteuerung (133) und der zweite Einstellungsspeicher (134) sogar wegfallen. In der Regel werden diese aber noch Empfangsparameter der zweiten Sensoranordnung (131) bestimmen.Finally, it should be expressly pointed out here that the transmission control of the second measuring system ( 161 ) is not absolutely necessary if the second measuring system ( 161 ) no transmission of measuring signals is required for the applied measuring principle. In this case it may even be that the second control electronics ( 134 ), the second sensor control ( 133 ) and the second setting memory ( 134 ) even omitted. As a rule, however, these are still receiving parameters of the second sensor arrangement ( 131 ) determine.

Figur 19Figure 19

zeigt den Aufbau des vorgeschlagenen kombinierten Gesamtsystems aus einem zweiten Messsystem (161) und einem dritten Messsystem (162) für das entsprechende erste Kombinationsverfahren gemäß Abschnitt F). Der grundsätzliche Aufbau entspricht dem der 18 mit dem Unterschied, dass das Ultraschallmesssystem (164) durch das dritte Messsystem (162) ersetz ist. shows the structure of the proposed combined overall system from a second measuring system ( 161 ) and a third measuring system ( 162 ) for the corresponding first combination procedure according to Section F). The basic structure corresponds to that of 18th with the difference that the ultrasonic measuring system ( 164 ) through the third measuring system ( 162 ) is replaced.

Eine erste Gruppe von Komponenten bildet das dritte Messsystem (162):

  • Die dritte Sensoranordnung (151) sendet bevorzugt (aber nicht notwendigerweise) dritte Messsignale aus und empfängt die Echos der zu detektierenden Objekte im Umfeld des Fahrzeugs. Die dritte Sensoranordnung (151) wandelt diese empfangenen Echosignale und sonstigen empfangenen Messsignale in dritte Messwerte um und stellt diese einem dritten Signalprozessor (155) zur Verfügung, der diese weiterverarbeitet. Der dritte Signalprozessor (155) kann ein digitaler programmierbarer Prozessor in von Neumann oder Havard-Architektur oder in einer anderen geeigneten Architektur sein. Es kann sich aber auch um eine geeignete analoge Schaltung zur Vorverarbeitung der Signale handeln. Im Falle analoger neuronale Netze kann der dritte Prozessor ggf. auch weggelassen werden, was sich in der Praxis aber bisher nicht bewährt hat.
A first group of components forms the third measuring system ( 162 ):
  • The third sensor arrangement ( 151 ) preferably (but not necessarily) sends out third measurement signals and receives the echoes of the objects to be detected in the vicinity of the vehicle. The third sensor arrangement ( 151 ) converts these received echo signals and other received measurement signals into third measurement values and presents them to a third signal processor ( 155 ) is available to process them further. The third signal processor ( 155 ) can be a digital programmable processor in von Neumann or Havard architecture or in another suitable architecture. However, it can also be a suitable analog circuit for preprocessing the signals. In the case of analog neural networks, the third processor can optionally also be omitted, but this has so far not proven itself in practice.

Die vom dritten Signalprozessor (155) aufbereiteten Empfangssignale sind die Eingangssignale des vierten neuronalen Netzwerkmodells (156), das typischerweise auf einem digitalen Speicher eines Rechners abgelegt ist. Das vierte neuronale Netzwerkmodell (156) kann beispielsweise auch als spezielle mikroelektronische Schaltung oder andere funktionsgleiche Vorrichtung realisiert werden. Das vierte neuronale Netzwerkmodell (156) ist die Umsetzung eines Deep-Learning-Verfahrens, wie oben beschrieben.The signals from the third signal processor ( 155 ) processed received signals are the input signals of the fourth neural network model ( 156 ), which is typically stored on a digital memory of a computer. The fourth neural network model ( 156 ) can also be implemented, for example, as a special microelectronic circuit or other functionally equivalent device. The fourth neural network model ( 156 ) is the implementation of a deep learning process, as described above.

Die Parameter des vierten neuronalen Netzwerkmodells (156) können aus einem vierten Trainingsdatenspeicher (157) geladen werden. Die Trainingsdaten werden bevorzugt durch ein Verfahren, wie oben beschrieben im Labor ermittelt.The parameters of the fourth neural network model ( 156 ) can from a fourth training data memory ( 157 ) Loading. The training data are preferably determined in the laboratory by a method as described above.

Die dritte Sensoranordnung (151) ist mit einer dritten Ansteuerungselektronik (152) verbunden, die optional zur Strahlformung beispielsweise mittels Phasenverschiebung der optional ausgesendeten Messsignale der einzelnen dritten Sensorelemente der dritten Sensoranordnung (151) fähig sein kann. Die dritte Ansteuerungselektronik (152) steuert die entsprechenden Sensorelemente der dritten Sensoranordnung (151) zum vorzugsweise gerichteten Aussenden oder Empfangen der Messsignale an. Diese Ausrichtung ist wünschenswert, aber nicht zwingend. Das Aussenden von Messsignalen durch die dritte Sensoranordnung (151) wird gesteuert durch eine dritte Sensoransteuerung (153). Diese ist mit der dritten Ansteuerungselektronik (152) verbunden und stellt die Sendeparameter der Sensorelemente der Sensoranordnung (151) ein, abhängig von Einstellungen, die über die in einem optionalen Speicher abgelegten optionalen dritten Benutzereinstellungen (154), bzw. durch ein übergeordnetes Steuergerät, vorgegeben werden. The third sensor arrangement ( 151 ) is with a third control electronics ( 152 ), which are optionally used for beam shaping, for example by means of phase shifting of the optionally transmitted measurement signals of the individual third sensor elements of the third sensor arrangement ( 151 ) can be capable. The third control electronics ( 152 ) controls the corresponding sensor elements of the third sensor arrangement ( 151 ) for preferably directed transmission or reception of the measurement signals. This alignment is desirable, but not mandatory. The transmission of measurement signals by the third sensor arrangement ( 151 ) is controlled by a third sensor control ( 153 ). This is connected to the third control electronics ( 152 ) and provides the transmission parameters of the sensor elements of the sensor arrangement ( 151 ), depending on the settings made via the optional third user settings stored in an optional memory ( 154 ), or by a higher-level control unit.

Sendeparameter, welche von der Sensoransteuerung (153) gesteuert werden können, sind im Falle eines RADAR- oder LIDAR-Systems beispielsweise Burstlänge, Frequenz, Frequenzverlauf, Kodierung, Polarität, Phase oder Amplitude.Send parameters that are used by the sensor control ( 153 ) can be controlled, in the case of a RADAR or LIDAR system, for example, burst length, frequency, frequency curve, coding, polarity, phase or amplitude.

Die Ausgabewerte des vierten neuronalen Netzwerkmodells (156) sind bevorzugt die Positionen der erkannten Objekte und bevorzugt deren Klassifizierung, sowie beispielsweise ein entsprechender Konfidenzwert der dem erkannten Erkennungsergebnis als Ganzes zugeordnet sein kann, und/oder Konfidenzwerte, die den einzelnen Objekten jeweils zugeordnet sind. Diese Daten bilden das dritte Objekterkennungsergebnis. Weitere Daten können Teil der Ausgabewerte sein. Auch sind zueinander alternative Hypothesenlisten möglich, wobei die Hypothesenliste alternative Erkennungsergebnisse mit unterschiedlichen Konfidenzwerten für diese dritten Objekterkennungsergebnisse umfasst. Jedes dritte Objekterkennungsergebnis umfasst dabei ein oder mehrere Objekte.The output values of the fourth neural network model ( 156 ) are preferably the positions of the recognized objects and preferably their classification, as well as, for example, a corresponding confidence value of the recognized Recognition result can be assigned as a whole, and / or confidence values that are assigned to the individual objects. These data form the third object recognition result. Further data can be part of the output values. Alternative hypothesis lists are also possible, the hypothesis list comprising alternative recognition results with different confidence values for these third object recognition results. Every third object recognition result includes one or more objects.

Das zuvor beschrieben dritte Messsystem (162) umfasst bevorzugt ferner eine Vielzahl von dritten Benutzersteuerungen (163), wobei das Einstellen einer oder mehrerer der dritten Benutzersteuerungen (163) als Reaktion auf die Identifizierung einer Anordnung von Objekten und/oder Objektkomponenten oder von Objekten in den ersten Ultraschallmesswerten und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den ersten Objekterkennungsergebnissen erfolgt.The third measuring system described above ( 162 ) preferably further comprises a plurality of third user controls ( 163 ), whereby setting one or more of the third user controls ( 163 ) takes place as a reaction to the identification of an arrangement of objects and / or object components or of objects in the first ultrasonic measurement values and / or in the two- or three-dimensional representations and / or as a function of the first object recognition results.

Bei dem zuvor beschriebenen dritten Messsystem (162) erfolgt bevorzugt das Einstellen oder die Anpassung von Regelparametern einer oder mehrerer der Steuerungen als Reaktion auf die Identifizierung der Anordnung von Objekten und/oder Objektkomponenten in den dritten Messwerten der dritten Sensoranordnung (151) und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den dritten Objekterkennungsergebnissen. Dabei erfolgt bevorzugt das Einstellen einer oder mehrerer der Steuerungen (153) des dritten Messsystems (162) oder des Fahrzeugs als Reaktion auf die Identifizierung von Objekten und/oder Objektkomponenten und/oder der Anordnung von Objekten und/oder Objekten und/oder Objektkomponenten in den dritten Messwerten der dritten Sensoranordnung (151) und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den dritten Objekterkennungsergebnissen.With the third measuring system described above ( 162 ) the setting or the adaptation of control parameters of one or more of the controls takes place in response to the identification of the arrangement of objects and / or object components in the third measured values of the third sensor arrangement ( 151 ) and / or in the two- or three-dimensional representations and / or as a function of the third object recognition results. One or more of the controls are preferably set here ( 153 ) of the third measuring system ( 162 ) or the vehicle as a reaction to the identification of objects and / or object components and / or the arrangement of objects and / or objects and / or object components in the third measured values of the third sensor arrangement ( 151 ) and / or in the two- or three-dimensional representations and / or as a function of the third object recognition results.

Die dritte Sensoranordnung (151) ist mit einer dritten Ansteuerungselektronik (152) verbunden, die im Falle eine LIDAR oder Radar-Systems optional zur Strahlformung beispielsweise mittels Phasenverschiebung der ausgesendeten Ultraschallsignale der einzelnen Sensorelemente der Sensoranordnung (11) fähig sein kann. Die dritte Ansteuerungselektronik (152) steuert die entsprechenden Sensorelemente der dritten Sensoranordnung (151) zum vorzugsweise gerichteten Aussenden oder Empfangen der dritten Messsignale an. Diese Ausrichtung ist wünschenswert, aber nicht zwingend. Das Aussenden von dritten Messsignalen durch die dritte Sensoranordnung (151) wird gesteuert durch eine dritte Sensoransteuerung (153). Diese ist mit der dritten Ansteuerungselektronik (152) verbunden und stellt die Sendeparameter der Sensorelemente der Sensoranordnung (11) ein, abhängig von Einstellungen, die über die in einem optionalen dritten Einstellungsspeicher abgelegten optionalen Benutzereinstellungen (154), bzw. durch ein übergeordnetes Steuergerät, vorgegeben werden. Sendeparameter, welche von der dritten Sendersteuerung (153) gesteuert werden können, sind im Falle eines RADAR- oder LIDAR-Systems beispielsweise Burstlänge, Frequenz, Frequenzverlauf, Kodierung, Polarität, Phase oder Amplitude.The third sensor arrangement ( 151 ) is with a third control electronics ( 152 ), which, in the case of a LIDAR or radar system, optionally for beam shaping, for example by means of phase shifting of the transmitted ultrasonic signals of the individual sensor elements of the sensor arrangement ( 11 ) can be capable. The third control electronics ( 152 ) controls the corresponding sensor elements of the third sensor arrangement ( 151 ) for preferably directed transmission or reception of the third measurement signals. This alignment is desirable, but not mandatory. The transmission of third measurement signals by the third sensor arrangement ( 151 ) is controlled by a third sensor control ( 153 ). This is connected to the third control electronics ( 152 ) and provides the transmission parameters of the sensor elements of the sensor arrangement ( 11 ), depending on the settings that are stored in an optional third setting memory using the optional user settings ( 154 ), or by a higher-level control unit. Send parameters that are sent by the third transmitter control ( 153 ) can be controlled, in the case of a RADAR or LIDAR system, for example, burst length, frequency, frequency curve, coding, polarity, phase or amplitude.

Eine zweite Gruppe von Komponenten bildet das zweite Messsystem (161):

  • Hier wird davon ausgegangen, dass das zweite Messsystem ebenfalls Messsignale aussendet, deren Echos empfangen werden. Dabei kann es sich beispielsweise um eine LIDAR- oder RADAR-System handeln. Dies ist jedoch nur ein Beispiel. Es kann sich auch um ein anderes Messsystem, wie beispielsweise ein PIR-Infrarotmesssystem handeln, das auf ohnehin im Umfeld des Fahrzeugs befindliche Signale zurückgreift. PIR steht hierbei für „passiv infra red“ (Deutsch: passives Infrarot).
A second group of components forms the second measuring system ( 161 ):
  • It is assumed here that the second measuring system also sends out measuring signals whose echoes are received. This can be a LIDAR or RADAR system, for example. However, this is just an example. It can also be a different measuring system, such as a PIR infrared measuring system, which makes use of signals that are already in the vicinity of the vehicle. PIR stands for “passive infra red” (German: passive infrared).

Sofern zutreffend sendet die zweite Sensoranordnung (131) sendet die Messsignale in das Umfeld des Fahrzeugs aus und empfängt die Antwort des Umfelds und zwar insbesondere die Signalantwort der zu detektierenden oder zu charakterisierenden Objekte im Umfeld des Fahrzeugs auf diese ausgestrahlten Messsignale. Die Sensoranordnung (131) wandelt diese empfangenen Signalantworten und sonstigen empfangenen Stör- und Nutzsignalsignale in Signalmesswerte um und stellt diese einem zweiten Signalprozessor (135) zur Verfügung, der diese weiterverarbeitet. Der zweite Signalprozessor (135) kann wieder ein digitaler programmierbarer Prozessor in von Neumann oder Havard-Architektur oder in einer anderen geeigneten Architektur sein. Es kann sich aber auch um eine geeignete analoge Schaltung zur Vorverarbeitung der Signale handeln. Im Falle analoger neuronale Netze kann der Prozessor ggf. auch weggelassen werden, was sich in der Praxis aber bisher nicht bewährt hat. Im Falle eines programmierbaren Prozessors kann bei ausreichender Kapazität der zweite Signalprozessor (135) beispielsweise mit dem ersten Signalprozessor (15) und/oder dem besagten Rechner eine Einheit bilden.If applicable, the second sensor arrangement sends ( 131 ) sends the measurement signals out into the surroundings of the vehicle and receives the response from the surroundings, in particular the signal response of the objects to be detected or characterized in the surroundings of the vehicle to these emitted measurement signals. The sensor arrangement ( 131 ) converts these received signal responses and other received interference and useful signal signals into measured signal values and presents them to a second signal processor ( 135 ) is available to process them further. The second signal processor ( 135 ) can again be a digital programmable processor in von Neumann or Havard architecture or in another suitable architecture. However, it can also be a suitable analog circuit for preprocessing the signals. In the case of analog neural networks, the processor can optionally also be omitted, but this has so far not proven itself in practice. In the case of a programmable processor, the second signal processor ( 135 ) for example with the first signal processor ( 15th ) and / or the said computer form a unit.

Die vom zweiten Signalprozessor (135) aufbereiteten Empfangssignale der Sensoranordnung (131) sind die Eingangssignale des zweiten neuronalen Netzwerkmodells (136), das typischerweise auf einem digitalen Speicher eines zweiten Rechners, der mit dem ersten Rechner und/oder dem Signalprozessor (15) und/oder dem zweiten Signalprozessor (135) identisch sein kann, abgelegt ist. Das zweite neuronale Netzwerkmodell (136) kann beispielsweise auch als spezielle mikroelektronische Schaltung oder andere funktionsgleiche Vorrichtung realisiert werden. Das zweite neuronale Netzwerkmodell (136) ist bevorzugt die Umsetzung eines Deep-Learning-Verfahrens, wie oben beschrieben.The signals from the second signal processor ( 135 ) processed received signals of the sensor arrangement ( 131 ) are the input signals of the second neural network model ( 136 ), which is typically on a digital memory of a second computer that is connected to the first computer and / or the signal processor ( 15th ) and / or the second signal processor ( 135 ) can be identical, is stored. The second neural network model ( 136 ) can also be used, for example, as special microelectronic Circuit or other functionally equivalent device can be realized. The second neural network model ( 136 ) It is preferred to implement a deep learning process, as described above.

Die Parameter des zweiten neuronalen Netzwerkmodells (136) können aus einem zweiten Trainingsdatenspeicher (137) bevorzugt geladen werden. Die Trainingsdaten werden bevorzugt durch ein Verfahren, wie oben beschrieben im Labor ermittelt.The parameters of the second neural network model ( 136 ) can from a second training data memory ( 137 ) are given preference. The training data are preferably determined in the laboratory by a method as described above.

Die zweite Sensoranordnung (131) ist mit einer zweiten Ansteuerungselektronik (132) verbunden, die im Falle eines LIDAR oder Radar-Systems optional zur Strahlformung beispielsweise mittels Phasenverschiebung der ausgesendeten Messsignale der einzelnen Sensorelemente der Sensoranordnung (131) fähig sein kann. Die zweite Ansteuerungselektronik (132) steuert die entsprechenden Sensorelemente der Sensoranordnung (11) zum vorzugsweise gerichteten Aussenden oder Empfangen der Messsignale an. Im Falle eines RADAR-Systems kann dies beispielsweise durch Phasen-Antennen geschehen. Diese Ausrichtung ist wünschenswert, aber nicht zwingend. Das Aussenden von Messsignalen durch die Sensoranordnung (131) wird gesteuert durch eine zweite Sensoransteuerung (133). Diese ist mit der zweiten Ansteuerungselektronik (132) verbunden und stellt die Sendeparameter der Sensorelemente der Sensoranordnung (131) ein, abhängig von Einstellungen, die über die in einem optionalen zweiten Einstellungsspeicher abgelegten optionalen Benutzereinstellungen (134), bzw. durch ein übergeordnetes Steuergerät, vorgegeben werden. Sendeparameter, welche von der zweiten Sensoransteuerung (133) gesteuert werden können, sind im Falle eines RADAR-Systems als zweites Messsystem (161) beispielsweise Burstlänge, Frequenz, Frequenzverlauf, Kodierung, Polarität, Phase oder Amplitude.The second sensor arrangement ( 131 ) is equipped with a second control electronics ( 132 ), which in the case of a LIDAR or radar system can optionally be used for beam shaping, for example by means of phase shifting of the measurement signals transmitted by the individual sensor elements of the sensor arrangement ( 131 ) can be capable. The second control electronics ( 132 ) controls the corresponding sensor elements of the sensor arrangement ( 11 ) for preferably directed transmission or reception of the measurement signals. In the case of a RADAR system, this can be done using phase antennas, for example. This alignment is desirable, but not mandatory. The transmission of measurement signals by the sensor arrangement ( 131 ) is controlled by a second sensor control ( 133 ). This is connected to the second control electronics ( 132 ) and provides the transmission parameters of the sensor elements of the sensor arrangement ( 131 ), depending on the settings that are stored in an optional second settings memory ( 134 ), or by a higher-level control unit. Send parameters that are sent by the second sensor control ( 133 ) can be controlled, in the case of a RADAR system as a second measuring system ( 161 ) For example burst length, frequency, frequency curve, coding, polarity, phase or amplitude.

Die Ausgabewerte des zweiten neuronalen Netzwerkmodells (136) sind bevorzugt die Positionen der erkannten Objekte und bevorzugt deren Klassifizierung, sowie beispielsweise ein entsprechender Konfidenzwert, der dem erkannten Erkennungsergebnis als Ganzes zugeordnet sein kann, und/oder Konfidenzwerte, die den einzelnen Objekten jeweils zugeordnet sind. Diese Daten bilden das zweite Objekterkennungsergebnis. Weitere Daten können Teil der Ausgabewerte sein. Auch sind zueinander alternative Hypothesenlisten möglich, wobei die Hypothesenliste alternative Erkennungsergebnisse mit unterschiedlichen Konfidenzwerten für diese zweiten Objekterkennungsergebnisse umfasst. Jedes zweite Objekterkennungsergebnis umfasst dabei ein oder mehrere Objekte.The output values of the second neural network model ( 136 ) are preferably the positions of the recognized objects and preferably their classification, as well as, for example, a corresponding confidence value that can be assigned to the recognized recognition result as a whole, and / or confidence values that are assigned to the individual objects. These data form the second object recognition result. Further data can be part of the output values. Alternative hypothesis lists are also possible, the hypothesis list including alternative recognition results with different confidence values for these second object recognition results. Every second object recognition result includes one or more objects.

Das zuvor beschrieben zweite Messsystem (161) umfasst bevorzugt ferner eine Vielzahl von zweiten Benutzersteuerungen (140a), wobei das Einstellen einer oder mehrerer der zweiten Benutzersteuerungen (140a) als Reaktion auf die Identifizierung einer Anordnung von Objekten und/oder Objektkomponenten oder von Objekten in den zweiten Messwerten der zweiten Sensoranordnung (131) und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den zweiten Objekterkennungsergebnissen erfolgt.The previously described second measuring system ( 161 ) preferably further comprises a multiplicity of second user controls ( 140a) setting one or more of the second user controls ( 140a) in response to the identification of an arrangement of objects and / or object components or of objects in the second measured values of the second sensor arrangement ( 131 ) and / or takes place in the two- or three-dimensional representations and / or as a function of the second object recognition results.

Bei dem zuvor beschriebenen zweiten Messsystem (161) erfolgt bevorzugt das Einstellen oder die Anpassung von Regelparametern einer oder mehrerer der Steuerungen als Reaktion auf die Identifizierung der Anordnung von Objekten und/oder Objektkomponenten in den zweiten Messwerten der zweiten Sensoranordnung (131) und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den zweiten Objekterkennungsergebnissen. Dabei erfolgt bevorzugt das Einstellen einer oder mehrerer der zweiten Sensoransteuerungen (133) des zweiten Messsystems (161) oder des Fahrzeugs als Reaktion auf die Identifizierung von Objekten und/oder Objektkomponenten und/oder der Anordnung von Objekten und/oder Objekten und/oder Objektkomponenten in den zweiten Messwerten der zweiten Sensoranordnung (131) und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von den zweiten Objekterkennungsergebnissen.With the previously described second measuring system ( 161 ) the setting or adjustment of control parameters of one or more of the controls is preferably carried out in response to the identification of the arrangement of objects and / or object components in the second measured values of the second sensor arrangement ( 131 ) and / or in the two- or three-dimensional representations and / or as a function of the second object recognition results. One or more of the second sensor controls ( 133 ) of the second measuring system ( 161 ) or of the vehicle in response to the identification of objects and / or object components and / or the arrangement of objects and / or objects and / or object components in the second measured values of the second sensor arrangement ( 131 ) and / or in the two- or three-dimensional representations and / or as a function of the second object recognition results.

Die zweite Sensoranordnung (131) ist mit einer zweiten Ansteuerungselektronik (132) verbunden, die optional zur Strahlformung beispielsweise mittels Phasenverschiebung der ausgesendeten Messsignale der einzelnen Sensorelemente der Sensoranordnung (131) fähig sein kann. Die zweite Ansteuerungselektronik (132) steuert die entsprechenden Sensorelemente der Sensoranordnung (131) zum vorzugsweise gerichteten Aussenden oder Empfangen der Messsignale an. Diese Ausrichtung ist wünschenswert, aber nicht zwingend. Das Aussenden von Messsignalen durch die Sensoranordnung (131) wird gesteuert durch die Sensoransteuerung (133). Diese ist mit der zweiten Ansteuerungselektronik (132) verbunden und stellt die Sendeparameter der Sensorelemente der Sensoranordnung (131) ein, abhängig von Einstellungen, die über die in einem optionalen zweiten Einstellungsspeicher abgelegten optionalen Benutzereinstellungen (134), bzw. durch ein übergeordnetes Steuergerät, vorgegeben werden. Sendeparameter, welche von der Sensoransteuerung (133) gesteuert werden können, sind beispielsweise Burstlänge, Frequenz, Frequenzverlauf, Kodierung, Polarität, Phase oder Amplitude.The second sensor arrangement ( 131 ) is equipped with a second control electronics ( 132 ), which are optionally used for beam shaping, for example by means of phase shifting of the transmitted measurement signals of the individual sensor elements of the sensor arrangement 131 ) can be capable. The second control electronics ( 132 ) controls the corresponding sensor elements of the sensor arrangement ( 131 ) for preferably directed transmission or reception of the measurement signals. This alignment is desirable, but not mandatory. The transmission of measurement signals by the sensor arrangement ( 131 ) is controlled by the sensor control ( 133 ). This is connected to the second control electronics ( 132 ) and provides the transmission parameters of the sensor elements of the sensor arrangement ( 131 ), depending on the settings that are stored in an optional second settings memory ( 134 ), or by a higher-level control unit. Send parameters that are used by the sensor control ( 133 ) can be controlled, for example, burst length, frequency, frequency curve, coding, polarity, phase or amplitude.

Das vorgeschlagene Gesamtsensorsystem umfasst darüber hinaus ein fünftes neuronales Netzwerkmodell (158), das bevorzugt auf einem weiteren Rechnersystem implementiert ist. Das weitere Rechnersystem kann mit den zuvor erwähnten Rechnersystem und/oder den erwähnten Signalprozessoren eine Einheit bilden. Es kann sich aber auch um spezielle Vorrichtungen, beispielsweise spezielle Schaltungen handeln.The proposed overall sensor system also includes a fifth neural network model ( 158 ), which is preferably implemented on another computer system. The other Computer system can form a unit with the aforementioned computer system and / or the aforementioned signal processors. However, they can also be special devices, for example special circuits.

Das vierte neuronale Netzwerkmodell (156) bildet ein drittes Objekterkennungsergebnis.The fourth neural network model ( 156 ) forms a third object recognition result.

Das zweite neuronale Netzwerkmodell (136) bildet ein zweites Objekterkennungsergebnis.The second neural network model ( 136 ) forms a second object recognition result.

Das fünfte neuronale Netzwerkmodell (158) bildet nun in Abhängigkeit von dem dritten Objekterkennungsergebnis und dem zweiten Objekterkennungsergebnis eine gemeinsamen Objekterkennungshypothese. In Abhängigkeit von der ermittelten gemeinsamen Objekterkennungshypothese und dem dritten Objekterkennungsergebnis und dem zweiten Objekterkennungsergebnis steuert das fünfte neuronale Netzwerkmodell (158) eine vierte Parametermodifikationsvorrichtung (144) für das vierte neuronale Netzwerkmodell (156) und eine zweite Parametermodifikationsvorrichtung (141) für das zweite neuronale Netzwerkmodell (136).The fifth neural network model ( 158 ) now forms a common object recognition hypothesis as a function of the third object recognition result and the second object recognition result. Depending on the common object recognition hypothesis determined and the third object recognition result and the second object recognition result, the fifth neural network model controls ( 158 ) a fourth parameter modification device ( 144 ) for the fourth neural network model ( 156 ) and a second parameter modification device ( 141 ) for the second neural network model ( 136 ).

Sowohl die vierte Parametermodifikationsvorrichtung (144) als auch die zweite Parametermodifikationsvorrichtung (141) können auf einem weiteren Rechnersystem implementiert sein oder einem der vorgenannten Rechnersysteme und/oder Signalprozessoren. Es kann sich aber auch um spezielle Vorrichtungen, beispielsweise spezielle Schaltungen handeln.Both the fourth parameter modification device ( 144 ) and the second parameter modification device ( 141 ) can be implemented on another computer system or one of the aforementioned computer systems and / or signal processors. However, they can also be special devices, for example special circuits.

Die vierte Parametermodifikationsvorrichtung (144) modifiziert in Abhängigkeit von den Signalen des fünften neuronalen Netzwerkmodells (158) und/oder des dritten Objekterkennungsergebnisses und/oder des zweiten Objekterkennungsergebnisses die Parameter des vierten neuronalen Netzwerkmodells (156).The fourth parameter modification device ( 144 ) modified depending on the signals of the fifth neural network model ( 158 ) and / or the third object recognition result and / or the second object recognition result, the parameters of the fourth neural network model ( 156 ).

Die zweite Parametermodifikationsvorrichtung (141) modifiziert in Abhängigkeit von den Signalen des fünften neuronalen Netzwerkmodells (158) und/oder des dritten Objekterkennungsergebnisses und/oder des zweiten Objekterkennungsergebnisses die Parameter des zweiten neuronalen Netzwerkmodells (136). Hierdurch wird die Vorrichtung selbstlernfähig.The second parameter modification device ( 141 ) modified depending on the signals of the fifth neural network model ( 158 ) and / or of the third object recognition result and / or of the second object recognition result, the parameters of the second neural network model ( 136 ). This makes the device self-learning.

Für sicherheitsrelevante Anwendungen ist es notwendig, ein Abdriften des fünften neuronalen Netzwerkmodells (158) und/oder der anderen neuronalen Netzwerkmodelle zu erkennen. Daher umfasst das vorgeschlagene Gesamtsystem eine zweite Sicherheitsvorrichtung (143). Die Aufgabe der zweiten Sicherheitsvorrichtung (143) ist es, die Arbeit des Gesamtsystems zu überwachen und offensichtlich falsche Ergebnisse der drei neuronalen Netze zu erkennen. Hierzu empfängt die zweite Sicherheitsvorrichtung (143) hochpriorisierte direkte Signale der dritten Sensoranordnung (151) in Form eines hoch priorisierten Signals (H151) der dritten Sensoranordnung (151), hoch priorisierte Signale (H155) des dritten Signalprozessors (155), hochpriorisierte direkte Signale der zweiten Sensoranordnung (131) in Form eines hoch priorisierten Signals (H131) der zweiten Sensoranordnung (131), hoch priorisierte Signale (H135) des zweiten Signalprozessors (135) und Benutzereingaben (H142) oder andere externe hoch priorisierte Signale. Alle diese hochpriorisierten Signale sind nur beispielhaft. Es kann sich bei jedem dieser hoch priorisierten Signale um ein einzelnes Signal oder ein Bündel von mehreren Signalen im Zeit- und/oder Raummultiplex handeln. Diese hoch priorisierten Signale sind bevorzugt aber nicht zwingend erforderlich. Sie ermöglichen dem System das Trainieren des Entscheiders in Form des fünften neuronalen Netzwerkmodells (158).For security-relevant applications it is necessary to prevent the fifth neural network model ( 158 ) and / or the other neural network models. The proposed overall system therefore includes a second safety device ( 143 ). The role of the second safety device ( 143 ) is to monitor the work of the overall system and to detect obviously incorrect results of the three neural networks. To do this, the second safety device ( 143 ) high-priority direct signals of the third sensor arrangement ( 151 ) in the form of a high-priority signal (H151) from the third sensor arrangement ( 151 ), high-priority signals (H155) of the third signal processor ( 155 ), high-priority direct signals from the second sensor arrangement ( 131 ) in the form of a high-priority signal (H131) from the second sensor arrangement ( 131 ), high-priority signals (H135) of the second signal processor ( 135 ) and user inputs (H142) or other external high-priority signals. All of these high-priority signals are only exemplary. Each of these high-priority signals can be a single signal or a bundle of several signals in time and / or space multiplex. These high-priority signals are preferred but not absolutely necessary. They enable the system to train the decision maker in the form of the fifth neural network model ( 158 ).

Ferner umfasst das in diesem Abschnitt beschriebene Gesamtmesssystem bevorzugt eine Benutzersteuerungsanzeige (9), die Einstellungen anzeigt, die als Reaktion auf die Identifizierung von Objekten und/oder Objektkomponenten und/oder der Anordnung von Objekten und/oder Objektkomponenten in den ersten Ultraschallmesswerten und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit vom ersten Objekterkennungsergebnis gemacht werden. Die Benutzersteuerungsanzeige (9) kann grundsätzlich mit der Anzeige (19) eine Einheit bilden.Furthermore, the overall measurement system described in this section preferably includes a user control display ( 9 ), which displays settings made in response to the identification of objects and / or object components and / or the arrangement of objects and / or object components in the first ultrasound measurement values and / or in the two- or three-dimensional representations and / or as a function of the first Object recognition result can be made. The user control display ( 9 ) can basically with the display ( 19th ) form a unit.

Bei dem hier beschriebenen dritten Messsystem (162) aktiviert bevorzugt die Benutzersteuerungsanzeige (9) eine als Reaktion auf die Identifizierung von Objekten und/oder Objektkomponenten und/oder der Anordnung von Objekten und/oder Objektkomponenten in den dritten Messwerten der dritten Sensoranordnung (151) und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in den dritten Objekterkennungsergebnissen Steuerungsmöglichkeiten und zeigt diese an.With the third measuring system described here ( 162 ) preferably activates the user control display ( 9 ) a response to the identification of objects and / or object components and / or the arrangement of objects and / or object components in the third measured values of the third sensor arrangement ( 151 ) and / or in the two- or three-dimensional representations and / or in the third object recognition results control options and displays them.

Das hin diesem Abschnitt beschriebene umfasst zum Zwecke des Trainings des vierten neuronalen Netzwerkmodells (156) bevorzugt auch einen vierten Trainingsbildspeicher (157), der Trainingsbilder für das vierte neuronale Netzwerkmodell (156) speichert.For the purpose of training the fourth neural network model ( 156 ) also prefers a fourth training image memory ( 157 ), the training images for the fourth neural network model ( 156 ) saves.

Bei dem in diesem Abschnitt beschriebene dritten Messsystem (162) ist die Anzeige (19) bevorzugt ferner dazu ausgebildet, die zwei- oder dreidimensionalen Darstellungen anzuzeigen, die zumindest zeitweise zusätzlich mit der durch das vierte neuronale Netzwerkmodell (156) bestimmten Identifikation und/oder einem Teil des dritten Objekterkennungsergebnisses versehen sind.With the third measuring system described in this section ( 162 ) the display is ( 19th ) preferably also designed to display the two- or three-dimensional representations, which at least at times also include the information provided by the fourth neural network model ( 156 ) certain Identification and / or a part of the third object recognition result are provided.

Das zuvor beschrieben Gesamtmesssystem umfasst bevorzugt ferner eine Vielzahl von dritten Benutzersteuerungen (145), wobei das Einstellen einer oder mehrerer der dritten Benutzersteuerungen (145) als Reaktion auf die Identifizierung einer Anordnung von Objekten und/oder Objektkomponenten oder von Objekten in den dritten Objekterkennungsergebnissen und/oder in den zweiten Objekterkennungsergebnissen und/oder in den zwei- oder dreidimensionalen Darstellungen und/oder in Abhängigkeit von der gemeinsamen Objekterkennungshypothese erfolgt.The overall measurement system described above preferably also includes a plurality of third user controls ( 145 ), whereby setting one or more of the third user controls ( 145 ) takes place in response to the identification of an arrangement of objects and / or object components or of objects in the third object recognition results and / or in the second object recognition results and / or in the two- or three-dimensional representations and / or as a function of the common object recognition hypothesis.

Der bevorzugt verwendete Bildprozessor (18) setzt diese Informationen in eine geeignete zwei- oder dreidimensionale Darstellung um, die von der Anzeige (19) für den Fahrzeugführer ausgegeben wird. Die Informationen über Objektpositionen und Klassifizierungen werden bevorzugt auch an die Benutzersteuerungen (140a, 145, 160) übergeben. Die Auswahl einer abgespeicherten Benutzersteuerung oder die Anpassung von Regelparamatern einer Steuerung als Reaktion auf die Klassifizierung wird von der Benutzersteuerung (140a, 145, 160) umgesetzt und an den dritten Einstellungsspeicher (154) weitergegeben, bzw. von der Benutzersteuerungsanzeige (19) angezeigt. Der dritte Einstellungsspeicher (154) übermittelt auch von der Klassifizierung abhängige Parameter an den Bildprozessor (18), sodass die von der Anzeige (19) ausgegebene Darstellung der Objekte und ihrer Identifikation automatisch geeignet angepasst werden kann.The preferred image processor used ( 18th ) converts this information into a suitable two- or three-dimensional representation, which is provided by the display ( 19th ) is issued to the driver. The information about object positions and classifications is also given preference to the user controls ( 140a , 145 , 160 ) to hand over. The selection of a saved user control or the adjustment of control parameters of a control in response to the classification is carried out by the user control ( 140a , 145 , 160 ) and transferred to the third setting memory ( 154 ) or from the user control display ( 19th ) is displayed. The third setting memory ( 154 ) also transmits parameters dependent on the classification to the image processor ( 18th ) so that the display ( 19th ) the displayed representation of the objects and their identification can be automatically adapted accordingly.

Abschließend sei hier ausdrücklich darauf hingewiesen, dass die Sendesteuerung des zweiten Messsystems (161) nicht zwingend erforderlich ist, wenn das zweite Messsystem (161) für das angewendete Messprinzip keine Aussendung von Messsignalen benötigt. In dem Falle kann es sogar sein, dass die zweite Ansteuerungselektronik (134), die zweite Sensoransteuerung (133) und der zweite Einstellungsspeicher (134) sogar wegfallen. In der Regel werden diese aber noch Empfangsparameter der zweiten Sensoranordnung (131) bestimmen.Finally, it should be expressly pointed out here that the transmission control of the second measuring system ( 161 ) is not absolutely necessary if the second measuring system ( 161 ) no transmission of measuring signals is required for the applied measuring principle. In this case it may even be that the second control electronics ( 134 ), the second sensor control ( 133 ) and the second setting memory ( 134 ) even omitted. As a rule, however, these are still receiving parameters of the second sensor arrangement ( 131 ) determine.

Abschließend sei hier ausdrücklich auch darauf hingewiesen, dass die Sendesteuerung des dritten Messsystems (162) nicht zwingend erforderlich ist, wenn das dritte Messsystem (162) für das angewendete Messprinzip keine Aussendung von Messsignalen benötigt. In dem Falle kann es sogar sein, dass die dritte Ansteuerungselektronik (154), die dritte Sensoransteuerung (153) und der dritte Einstellungsspeicher (154) sogar wegfallen. In der Regel werden diese aber noch Empfangsparameter der dritten Sensoranordnung (151) bestimmen.Finally, it should also be expressly pointed out here that the transmission control of the third measuring system ( 162 ) is not absolutely necessary if the third measuring system ( 162 ) no transmission of measuring signals is required for the applied measuring principle. In this case it may even be that the third control electronics ( 154 ), the third sensor control ( 153 ) and the third setting memory ( 154 ) even omitted. As a rule, however, these are still receiving parameters of the third sensor arrangement ( 151 ) determine.

Figur 20Figure 20

zeigt ein Modell zum Trainieren und Verwenden eines Gesamtsystems nach 19. (Kann auf ein Gesamtsystem nach 18 leicht übertragen werden.)shows a model for training and using an overall system 19th . (Can refer to an overall system 18th easily transferred.)

Das Verfahren umfasst als einen ersten Schritt die Durchführung (171) eines Verfahrens nach 7 für das zweite Messsystem (161) mit der Ermittlung der zweiten Sensormesswerte und Ermittlung eines zweiten Objekterkennungsergebnisses.The first step of the procedure is to carry out ( 171 ) a procedure 7th for the second measuring system ( 161 ) with the determination of the second sensor measured values and determination of a second object recognition result.

Das Verfahren umfasst als einen zweiten Schritt die Durchführung (172) eines Verfahrens nach 7 für das dritte Messsystem (162).As a second step, the procedure comprises the implementation ( 172 ) a procedure 7th for the third measuring system ( 162 ).

Das Verfahren umfasst als einen dritten Schritt als Ergebnisschritt des zweiten Schrittes die Ermittlung der dritten Sensormesswerte und die Ermittlung eines dritten Objekterkennungsergebnisses.As a third step, as a result step of the second step, the method comprises the determination of the third sensor measured values and the determination of a third object recognition result.

Das Verfahren umfasst als einen vierten Schritt das Installieren (173) eines fünften neuronalen Netzwerkmodells (158) auf einem computerbasierten System. Dieser Schritt kann ggf. auch das Laden von Parametern für das fünfte neuronalen Netzwerkmodell (158) umfassen.The fourth step of the process is installing ( 173 ) of a fifth neural network model ( 158 ) on a computer-based system. This step can also include loading parameters for the fifth neural network model ( 158 ) include.

Das Verfahren umfasst als einen fünften Schritt das Trainieren (174) des fünften neuronalen Netzwerkmodells (158), um die Objekte und/oder Objektkomponenten und/oder Anordnungen von Objekten und/oder Objektkomponenten in dem zweiten Objekterkennungsergebnis und/oder in dem dritten Objekterkennungsergebnis zu identifizierenThe method comprises as a fifth step training ( 174 ) of the fifth neural network model ( 158 ) in order to identify the objects and / or object components and / or arrangements of objects and / or object components in the second object recognition result and / or in the third object recognition result

Das Verfahren umfasst als einen sechsten Schritt, der ein Ergebnisschritt des fünften Schritts ist, das Erzeugen einer gemeinsamen Objekterkennungshypothese.The method comprises, as a sixth step, which is a result step of the fifth step, generating a common object recognition hypothesis.

Das Verfahren umfasst als einen siebten Schritt das Verwenden (175) des trainierten fünften neuronalen Netzwerkmodells (158)

  • • zur Identifizierung von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten auf Basis des zweiten Objekterkennungsergebnisses und des dritten Objekterkennungsergebnisses durch das fünfte neuronale Netzwerkmodell (158) und/oder
  • • zur Erzeugung einer gemeinsamen Objekterkennungshypothese auf Basis des zweiten Objekterkennungsergebnisses und des dritten Objekterkennungsergebnisses durch das fünfte neuronale Netzwerkmodell (158).
The method comprises as a seventh step using ( 175 ) of the trained fifth neural network model ( 158 )
  • • to identify objects and / or object components and / or arrangements of objects and / or object components based on the second object recognition result and the third object recognition result by the fifth neural network model ( 158 ) and or
  • • for generating a common object recognition hypothesis based on the second object recognition result and the third object recognition result by the fifth neural network model ( 158 ).

Figur 21 Figure 21

zeigt ein Modell zum Trainieren und Abspeichern der Parameter der neuronalen Netzwerkmodelle eines Gesamtsystems nach 19. (Kann auf ein Gesamtsystem nach 18 leicht übertragen werden.)shows a model for training and storing the parameters of the neural network models of an overall system 19th . (Can refer to an overall system 18th easily transferred.)

Das Verfahren umfasst als einen ersten Schritt der Durchführung (171) eines Verfahrens nach 7 für das zweite Messsystem (161).As a first step, the procedure includes ( 171 ) a procedure 7th for the second measuring system ( 161 ).

Das Verfahren umfasst als einen zweiten Schritt als Ergebnisschritt des ersten Schritts das Ermitteln der zweiten Sensormesswerte und das Ermitteln eines zweiten Objekterkennungsergebnisses.As a second step, as a result step of the first step, the method comprises the determination of the second sensor measurement values and the determination of a second object recognition result.

Das Verfahren umfasst als einen dritten Schritt den Schritt der Durchführung (172) eines Verfahrens nach 7 für das dritte Messsystem (162).As a third step, the method includes the step of performing ( 172 ) a procedure 7th for the third measuring system ( 162 ).

Das Verfahren umfasst als einen vierten Schritt, der ein Ergebnisschritt des dritten Schritts ist, die Ermittlung der dritten Sensormesswerte und die Ermittlung eines dritten Objekterkennungsergebnisses.As a fourth step, which is a result step of the third step, the method comprises the determination of the third sensor measured values and the determination of a third object recognition result.

Das Verfahren umfasst als einen fünften Schritt, den Schritt des Installierens (173) eines fünften neuronalen Netzwerkmodells (158) auf einem computerbasierten System. Dieser Schritt kann ggf. auch das Laden von Parametern für das fünfte neuronalen Netzwerkmodell (158) umfassen.The method comprises as a fifth step, the step of installing ( 173 ) of a fifth neural network model ( 158 ) on a computer-based system. This step can also include loading parameters for the fifth neural network model ( 158 ) include.

Das Verfahren umfasst als einen sechsten Schritt, das Trainieren (174) des fünften neuronalen Netzwerkmodells (158). Dies geschieht, um die Objekte und/oder Objektkomponenten und/oder Anordnungen von Objekten und/oder Objektkomponenten in dem zweiten Objekterkennungsergebnis und/oder in dem dritten Objekterkennungsergebnis zu identifizieren und eine gemeinsame Objekterkennungshypothese zu erzeugen.The method includes, as a sixth step, training ( 174 ) of the fifth neural network model ( 158 ). This is done in order to identify the objects and / or object components and / or arrangements of objects and / or object components in the second object recognition result and / or in the third object recognition result and to generate a common object recognition hypothesis.

Das Verfahren umfasst als einen siebten Schritt die Sicherung (185) der Parameterdaten des trainierten fünften neuronalen Netzwerks (158) in einem fünften Trainingsdatenspeicher (159).As a seventh step, the procedure includes securing ( 185 ) the parameter data of the trained fifth neural network ( 158 ) in a fifth training data memory ( 159 ).

Figur 22Figure 22

zeigt ein Modell zum Ladender Parameter der neuronalen Netzwerkmodelle eines Gesamtsystems nach 19 und dem Verwenden des so vorbereiteten Gesamtsystems. (Kann auf ein Gesamtsystem nach 18 leicht übertragen werden.)Fig. 12 shows a model for loading the parameters of the neural network models of an overall system 19th and using the entire system prepared in this way. (Can refer to an overall system 18th easily transferred.)

Das Verfahren umfasst einen ersten Schritt des Ladens (71) der zuvor gesicherten Parameter des zweiten neuronalen Netzwerkmodells (136) für das zweite Messsystem (161) aus dem zweiten Trainingsdatenspeicher (137) als aktuelle Parameter des zweiten neuronalen Netzwerkmodells (136) für das zweite Messsystem (161).The process includes a first step of loading ( 71 ) the previously saved parameters of the second neural network model ( 136 ) for the second measuring system ( 161 ) from the second training data memory ( 137 ) as current parameters of the second neural network model ( 136 ) for the second measuring system ( 161 ).

Das Verfahren umfasst als einen zweiten Schritt das Laden (192) der zuvor gesicherten Parameter des vierten neuronalen Netzwerkmodells (156) aus dem vierten Trainingsdatenspeicher (157) in das vierte neuronale Netzwerkmodell (156).As a second step, the method includes loading ( 192 ) the previously saved parameters of the fourth neural network model ( 156 ) from the fourth training data memory ( 157 ) into the fourth neural network model ( 156 ).

Das Verfahren umfasst als einen dritten Schritt das Laden (193) der zuvor gesicherten Parameter des fünften neuronalen Netzwerkmodells (158) aus dem fünften Trainingsdatenspeicher (159) in das fünfte neuronale Netzwerkmodell (158).As a third step, the method includes loading ( 193 ) the previously saved parameters of the fifth neural network model ( 158 ) from the fifth training data memory ( 159 ) into the fifth neural network model ( 158 ).

Das Verfahren umfasst als einen vierten Schritt das Verwenden (175) des trainierten fünften neuronalen Netzwerkmodells (158)

  • • zur Identifizierung von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten auf Basis des dritten Objekterkennungsergebnisses und des zweiten Objekterkennungsergebnisses durch das fünfte neuronale Netzwerkmodell (158) und/oder
  • • zur Erzeugung einer gemeinsamen Objekterkennungshypothese auf Basis des zweiten Objekterkennungsergebnisses und des dritten Objekterkennungsergebnisses durch das fünfte neuronale Netzwerkmodell (158).
The method comprises as a fourth step using ( 175 ) of the trained fifth neural network model ( 158 )
  • • for the identification of objects and / or object components and / or of arrangements of objects and / or object components on the basis of the third object recognition result and the second object recognition result by the fifth neural network model ( 158 ) and or
  • • for generating a common object recognition hypothesis based on the second object recognition result and the third object recognition result by the fifth neural network model ( 158 ).

Figuren 23 und 24Figures 23 and 24

Die 23 und 24 sind im Text oben beschrieben.The 23 and 24 are described in the text above.

Glossarglossary

UltraschallwandlerUltrasonic transducer

In einem Bauteil kombinierter Ultraschallsender- und empfängerUltrasonic transmitter and receiver combined in one component

Neuronales Netzwerk / neuronales NetzwerkmodellNeural network / neural network model

Wikipedia (Stand 18.01.2019) definiert ein neuronales Netz wie folgt: Als neuronales Netz wird in den Neurowissenschaften eine beliebige Anzahl miteinander verbundener Neuronen bezeichnet, die als Teil eines Nervensystems einen Zusammenhang bilden, der einer bestimmten Funktion dienen soll. Abstrahiert werden in der Computational Neuroscience auch vereinfachte Modelle einer biologischen Vernetzung darunter verstanden. In der Informatik, Informationstechnik und Robotik werden deren Strukturen als künstliches neuronales Netz modelliert und technisch nachgebildet, simuliert und abgewandelt. Von der Funktionsweise biologischer Neuronen inspiriertes System, das als Basis für Machine Learning Verfahren dientWikipedia (as of January 18, 2019) defines a neural network as follows: In neuroscience, a neural network is any number of interconnected neurons that, as part of a nervous system, form a connection that is supposed to serve a specific function. In computational neuroscience, simplified models of a biological network are also understood as abstract. In computer science, information technology and robotics, their structures are modeled as an artificial neural network and technically reproduced, simulated and modified. From System inspired by the functioning of biological neurons, which serves as the basis for machine learning processes

Das Nervensystem von Menschen und Tieren besteht aus Nervenzellen (Neuronen) und Gliazellen sowie einer Umgebung. Die Neuronen sind über Synapsen miteinander verknüpft, die als Verknüpfungsstellen oder Knoten eines interneuronalen Netzwerks aufgefasst werden können. Daneben findet zwischen Neuronen und Zellen der Neuroglia, insbesondere Oligodendroglia und Astroglia, in chemischer und elektrischer Form ein Austausch statt, der die Gewichtung von Signalen verändern kann. Die „Schaltungstechnik“ von Neuronen kennt üblicherweise mehrere Eingänge und einen Ausgang. Wenn die Summe der Eingangssignale einen gewissen Schwellenwert überschreitet, „feuert“ das Neuron (Erregungsbildung): Ein Aktionspotential (AP) wird am Axonhügel ausgelöst, im Initialsegment gebildet und entlang des Axons weitergeleitet (Erregungsleitung). Aktionspotentiale in Serie sind die primären Ausgangssignale von Neuronen. Diese Signale können über Synapsen anderen Zellen vermittelt werden (Erregungsübertragung). An elektrischen Synapsen werden die Potentialänderungen in unmittelbarem Kontakt weitergegeben. An chemischen Synapsen werden diese in ein Transmitter-Quantum als sekundäres Signal umgesetzt, also durch Botenstoffe übermittelt (Transmission). Bei einer Divergenz gibt ein Neuron Signale an mehrere andere Neuronen weiter, und bei einer Konvergenz erhält ein Neuron Signale von mehreren anderen. The nervous system of humans and animals consists of nerve cells (neurons) and glial cells and an environment. The neurons are linked to one another via synapses, which can be understood as connecting points or nodes of an interneuronal network. In addition, there is an exchange in chemical and electrical form between neurons and cells of the neuroglia, in particular oligodendroglia and astroglia, which can change the weighting of signals. The "circuit technology" of neurons usually knows several inputs and one output. If the sum of the input signals exceeds a certain threshold value, the neuron “fires” (excitation generation): An action potential (AP) is triggered on the axon hill, formed in the initial segment and transmitted along the axon (excitation conduction). Action potentials in series are the primary output signals from neurons. These signals can be transmitted to other cells via synapses (transmission of excitation). At electrical synapses, the changes in potential are passed on in direct contact. At chemical synapses, these are converted into a transmitter quantum as a secondary signal, i.e. transmitted by messenger substances (transmission). With divergence, one neuron sends signals to several other neurons, and with convergence, one neuron receives signals from several others.

Kennzeichnend für Nervenzellen sind ihre Zellfortsätze, mit denen Kontakte zu einzelnen anderen Zellen hergestellt werden. Als Dendriten dienen sie vorrangig der Aufnahme von Signalen anderer Zellen, während Signale an andere Zellen über den Neuriten fortgeleitet werden, auch Axon genannt in der Umhüllung durch Gliazellen. Mit Abzweigungen seines Axons als Axonkollaterale kann das Signal eines Neurons efferent an mehrere andere Neuronen übermittelt werden (Divergenz). Auch können einem Neuron afferent Signale von verschiedenen anderen Neuronen zufließen (Konvergenz), vorwiegend über seine Dendriten als Eingänge. Während das über die Membran fortgeleitete Aktionspotential bei elektrischen Synapsen prompt als elektrisches Signal übergeben wird, wird es bei chemischen Synapsen zunächst an der präsynaptischen Membranregion eines Neurons umgebildet in ein sekundäres chemisches Signal. Dies geschieht als potentialabhängige neurokrine Sekretion durch Ausschüttung (Exozytose) der in synaptischen Vesikeln vorrätig gehaltenen Moleküle eines Signalstoffs. Nach Überbrücken des schmalen synaptischen Spalts per Diffusion wirkt dieser Botenstoff als Neurotransmitter - oder daneben als ein neuromodulatorischer Kotransmitter - auf die Membranregion der postsynaptisch zugeordneten Zelle, wenn sie mit passenden Rezeptormolekülen ausgestattet dafür empfänglich ist. Mit der Rezeptorbindung wird ein Transmitter erkannt und darüber direkt (ionotrop) oder mittelbar (metabotrop) eine vorübergehende regionale Veränderung der Membrandurchlässigkeit veranlasst. Durch die Membran ein- oder ausströmende kleine Ionen rufen also wieder postsynaptisch Potentialänderungen hervor, als lokale elektrische Signale. Die eintreffenden Signale laufen auf der Membran eines Neurons zusammen, werden hier räumlich wie zeitlich integriert und summierend zusammengefasst. Solche postsynaptischen Potentiale (PSP) prägen sich verschieden aus, abhängig von der Membranausstattung mit Rezeptoren und lonenkanälen. Sie können als graduierte Potentiale nicht nur unterschiedlich starke Signale sein, sondern zudem qualitativ grundsätzlich anders: exzitatorische (EPSP) regen die Erregungsbildung an; inhibitorische (IPSP) hemmen die Bildung eines Aktionspotentials. Mit dieser Form synaptischer Verknüpfung als chemischer Transmission erhalten Signale also ein Vorzeichen. Des Weiteren können sie an der Verknüpfungsstelle prozessabhängig gewichtet werden, verstärkt oder abgeschwächt. Bei einer häufig wiederholten Übertragung in rascher Folge kann es zu länger anhaltenden Veränderungen kommen, die als Langzeit-Potenzierung (LTP) die synaptische Übertragung verstärken. Bei geringer Frequenz können in unterschiedlicher Art Veränderungen auftreten, die zu einer dauerhaften Abschwächung als Langzeit-Depression (LTD) führen. Auf diese Weise kann der Signalübertragungsprozess selber den synaptischen Modus formen beziehungsweise überformen (neuronale Plastizität). Die Vernetzung von Neuronen zeigt damit keine starre Verschaltung, sondern eine vom Vorzustand abhängige Gewichtung der Signalwege, die sich durch wiederholten Gebrauch ändert. Über das Lernen in neuronalen Netzen gibt es verschiedene, inzwischen gut standardisierte Theorien. Die erste neuronale Lernregel wurde 1949 von Donald O. Hebb beschrieben (Hebbsche Lernregel); wesentliche Entwicklungen erfolgten u. a. durch Arbeiten des Finnen Teuvo Kohonen Mitte der 1980er Jahre. Daraus ergaben sich typische Eigenschaften neuronaler Netze, die gleichermaßen für natürliche, wie für künstliche „neuronale Systeme“ gelten. Dazu gehört die Eigenschaft, dass sie komplexe Muster erlernen können, ohne dass eine Abstraktion über die diesen Mustern eventuell zugrunde liegenden Regeln stattfindet. Das heißt, dass neuronale Netze nicht einem Logiksystem, sondern einer intuitiven Musterverarbeitung folgen (s. a. Künstliche Intelligenz). Dies bedeutet weiterhin, dass vor dem Lernen nicht erst die Regeln entwickelt werden müssen. Andererseits kann aus dem neuronalen Netz auch nicht nachträglich eine eventuelle Logik ermittelt werden, die dessen Lernerfolg ausmachte. Dies bedeutet wiederum nicht, dass logisches Verhalten und präzise Regeln nicht von Neuronalen Netzen erlernt bzw. angewendet werden könnten. Nur müssen diese durch Training ggf. mühsam erarbeitet werden; etwa beim Erlernen der Grammatik einer Sprache über Jahre hinweg. Neuronale Netze lernen nicht explizit, sondern implizit: Die Grammatik der Muttersprache wird von einem Kleinkind zuerst implizit erlernt. Als Schulkind erlernt es die Regeln dann im Allgemeinen - noch einmal - explizit, über Regeln. Speziell für die Simulation künstlicher neuronaler Netze in Wissenschaft und Technik mittels spezieller Schaltungen oder Vorrichtungen oder mittels Prozessoren mit geeigneter Programmierung gilt: Das „richtige“ Trainieren eines neuronalen Netzes ist Voraussetzung für den Lernerfolg bzw. für die richtige Verarbeitung eines Musters in einem Nervensystem. Umgekehrt gilt, dass eine Vorhersage über die „richtige“ Interpretation eines Musters durch ein neuronales Netz nicht präzise möglich ist, solange nicht dieses spezifische Netz mit dieser spezifischen Lernerfahrung angewendet bzw. durchgerechnet wird. Neuronale Netze haben somit das Problem, dass nach dem Lernvorgang Muster, die nicht den Vorbildern ähneln, die in der Lernmenge implementiert sind, stochastisches (d. h. scheinbar „zufälliges“) Verhalten der Ausgangsneuronen hervorrufen. Sie arbeiten nicht exakt, sondern näherungsweise. Es ist bekannt, dass die Funktion eines neuronalen Netzes auch durch ein Petri-Netz oder einen HMM-Erkenner wahrgenommen werden kann und dass eine Transformation zwischen diesen Abbildungen möglich ist. Es wird daher ausdrücklich beansprucht, dass unter neuronalen Netzen auch Teilvorrichtungen mit HMM-Erkennern und/oder mit Petri-Netzen mit umfasst sind.Characteristic of nerve cells are their cell extensions, with which contacts to individual other cells are made. As dendrites, they are primarily used to receive signals from other cells, while signals to other cells are passed on via the neurite, also called axon in the envelope by glial cells. With branches from its axon as axon collaterals, the signal of a neuron can be transmitted efferent to several other neurons (divergence). A neuron can also receive afferent signals from various other neurons (convergence), primarily via its dendrites as inputs. While the action potential transmitted across the membrane is promptly transferred as an electrical signal in electrical synapses, in chemical synapses it is first transformed into a secondary chemical signal at the presynaptic membrane region of a neuron. This occurs as a potential-dependent neurocrine secretion through the release (exocytosis) of the molecules of a signal substance that are held in stock in synaptic vesicles. After bridging the narrow synaptic gap by diffusion, this messenger substance acts as a neurotransmitter - or as a neuromodulatory cotransmitter - on the membrane region of the postsynaptically assigned cell, if it is equipped with suitable receptor molecules and is receptive to it. With the receptor binding, a transmitter is recognized and directly (ionotropically) or indirectly (metabotropically) a temporary regional change in membrane permeability is initiated. Small ions flowing in or out through the membrane again cause changes in potential postsynaptically, as local electrical signals. The incoming signals converge on the membrane of a neuron, where they are spatially and temporally integrated and summarized. Such postsynaptic potentials (PSP) develop differently, depending on the membrane equipment with receptors and ion channels. As graduated potentials, they can not only be signals of different strength, but also fundamentally different in quality: excitatory (EPSP) stimulate the formation of arousal; inhibitory (IPSP) inhibit the formation of an action potential. With this form of synaptic connection as chemical transmission, signals are given a sign. Furthermore, they can be weighted, strengthened or weakened depending on the process at the connection point. Frequently repeated transmission in rapid succession can lead to longer-lasting changes which, as long-term potentiation (LTP), intensify synaptic transmission. At a low frequency, different types of changes can occur, which lead to a permanent weakening as long-term depression (LTD). In this way, the signal transmission process itself can shape or reshape the synaptic mode (neuronal plasticity). The networking of neurons does not show a rigid connection, but a weighting of the signal path that depends on the previous state and changes with repeated use. There are various, now well-standardized theories about learning in neural networks. The first neural learning rule was described by Donald O. Hebb in 1949 (Hebb's learning rule); Significant developments took place, inter alia, through the work of the Finn Teuvo Kohonen in the mid-1980s. This resulted in typical properties of neural networks that apply equally to natural as well as artificial "neural systems". This includes the property that they can learn complex patterns without any abstraction about the rules on which these patterns are based. This means that neural networks do not follow a logic system, but an intuitive pattern processing (see also artificial intelligence). This also means that the rules do not have to be developed before learning. On the other hand, a possible logic that determined its learning success cannot be determined retrospectively from the neural network. Again, this does not mean that logical behavior and precise rules cannot be learned or applied by neural networks. You just have to go through this Training may be laboriously worked out; for example when learning the grammar of a language over the years. Neural networks do not learn explicitly, but implicitly: the grammar of the mother tongue is first learned implicitly by a toddler. As a schoolchild, they generally learn the rules - again - explicitly, through rules. Especially for the simulation of artificial neural networks in science and technology by means of special circuits or devices or by means of processors with suitable programming, the following applies: The “correct” training of a neural network is a prerequisite for learning success or for the correct processing of a pattern in a nervous system. Conversely, a prediction about the “correct” interpretation of a pattern by a neural network is not precisely possible as long as this specific network is not used or calculated with this specific learning experience. Neural networks thus have the problem that after the learning process, patterns that do not resemble the models implemented in the learning set cause stochastic (ie apparently “random”) behavior of the output neurons. They do not work exactly, but approximately. It is known that the function of a neural network can also be perceived by a Petri network or an HMM recognizer and that a transformation between these images is possible. It is therefore expressly claimed that sub-devices with HMM detectors and / or with Petri networks are also included under neural networks.

Deep LearningDeep learning

Machine Learning Verfahren, das auf einem neuronalen Netzwerkmodell mit vielen Zwischenschichten basiert und selbstständig lernt, welche aus den Eingangsdaten abgeleitete Repräsentation der Daten notwendig ist, um die gestellte Lernaufgabe zu erfüllen.Machine learning process that is based on a neural network model with many intermediate layers and independently learns which representation of the data derived from the input data is necessary in order to fulfill the learning task.

Wikipedia (Stand 18.01.2019) definiert das Deep Learning wie folgt: Deep Learning, auf Deutsch etwa tiefgehendes Lernen, bezeichnet eine Klasse von Optimierungsmethoden künstlicher neuronaler Netze, die zahlreiche verdeckte Zwischenlagen (englisch hidden layers) zwischen Eingabeschicht und Ausgabeschicht haben und dadurch eine umfangreiche innere Struktur aufweisen. In Erweiterungen der Lernalgorithmen für Netzstrukturen mit sehr wenigen oder keinen Zwischenlagen, wie beim einlagigen Perzeptron, ermöglichen die Methoden des Deep Learnings auch bei zahlreichen Zwischenlagen einen stabilen Lernerfolg. Nach Jürgen Schmidhuber ist „Deep Learning“ nur ein neuer Begriff für künstliche neuronale Netze und tauchte erstmals im Jahr 2000 in der Veröffentlichung Multi-Valued and Universal Binary Neurons: Theory, Learning and Applications auf. Die in der Anfangszeit der künstlichen Intelligenz gelösten Probleme waren für den Menschen intellektuell schwierig, aber für Computer einfach zu verarbeiten. Diese Probleme ließen sich durch formale mathematische Regeln beschreiben. Die wahre Herausforderung an die künstliche Intelligenz bestand jedoch in der Lösung von Aufgaben, die für die Menschen leicht durchzuführen sind, deren Lösung sich aber nur schwer durch mathematische Regeln formulieren lassen. Dies sind Aufgaben, die der Mensch intuitiv löst, wie zum Beispiel Sprach- oder Gesichtserkennung. Eine computerbasierte Lösung für diese Art von Aufgaben beinhaltet die Fähigkeit von Computern, aus der Erfahrung zu lernen und die Welt in Bezug auf eine Hierarchie von Konzepten zu verstehen. Hierbei ist jedes Konzept durch seine Beziehung zu einfacheren Konzepten definiert. Durch das Sammeln von Wissen aus der Erfahrung vermeidet dieser Ansatz die Notwendigkeit für die menschlichen Bediener, all das Wissen, das der Computer für seine Arbeit benötigt, formal spezifizieren zu müssen. Die Hierarchie der Konzepte erlaubt es dem Computer, komplizierte Konzepte zu erlernen, indem er sie aus einfacheren zusammensetzt. Wenn man ein Diagramm zeichnet, das zeigt, wie diese Konzepte übereinander aufgebaut werden, dann ist das Diagramm tief, mit vielen Schichten. Aus diesem Grund wird dieser Ansatz in der künstlichen Intelligenz „Deep Learning“ genannt. Es ist schwierig für einen Computer, die Bedeutung von rohen sensorischen Eingangsdaten zu verstehen, wie beispielsweise in der Handschrifterkennung, wo ein Text zunächst nur als eine Sammlung von Bildpunkten existiert. Die Überführung einer Menge von Bildpunkten in eine Kette von Ziffern und Buchstaben ist sehr kompliziert. Komplexe Muster müssen aus Rohdaten extrahiert werden. Das Lernen oder Auswerten dieser Zuordnung scheint unüberwindbar schwierig, wenn sie manuell programmiert werden würde. Eine der häufigsten Techniken in der künstlichen Intelligenz ist maschinelles Lernen. Maschinelles Lernen ist ein selbstadaptiver Algorithmus. Deep Learning, eine Teilmenge des maschinellen Lernens, nutzt eine Reihe hierarchischer Schichten bzw. eine Hierarchie von Konzepten, um den Prozess des maschinellen Lernens durchzuführen. Die hierbei benutzten künstlichen neuronalen Netze sind wie das menschliche Gehirn gebaut, wobei die Neuronen wie ein Netz miteinander verbunden sind. Die erste Schicht des neuronalen Netzes, der sichtbaren Eingangsschicht (englisch input layer), verarbeitet eine Rohdateneingabe, wie beispielsweise die einzelnen Pixel eines Bildes. Die Dateneingabe enthält Variablen, die der Beobachtung zugänglich sind, daher „sichtbare Schicht“. Diese erste Schicht leitet ihre Ausgaben an die nächste Schicht weiter. Diese zweite Schicht verarbeitet die Informationen der vorherigen Schicht und gibt das Ergebnis ebenfalls weiter. Die nächste Schicht nimmt die Informationen der zweiten Schicht entgegen und verarbeitet sie weiter. Diese Schichten werden als versteckte Ebenen (englisch hidden layers) bezeichnet. Die in ihnen enthaltenen Merkmale werden zunehmend abstrakt. Ihre Werte sind nicht in den Ursprungsdaten angegeben. Stattdessen muss das Modell bestimmen, welche Konzepte für die Erklärung der Beziehungen in den beobachteten Daten nützlich sind. Dies geht über alle Ebenen des künstlichen neuronalen Netzes so weiter. Das Ergebnis wird in der sichtbaren letzten Schicht (englisch output layer) ausgegeben. Hierdurch wird die gewünschte komplizierte Datenverarbeitung in eine Reihe von verschachtelten einfachen Zuordnungen unterteilt, die jeweils durch eine andere Schicht des Modells beschrieben werden. Die hier vorgestellte Technik zur sensorischen Verarbeitung geht weit über diese Ansätze hinaus. Insbesondere stellt sie erstmals eine selbstlernende Vernetzung mehrerer neuronaler Netze zu, die in jeder Ebene der Kette selbstlernend ist. Jedes neuronale Netz des Netzes aus neuronalen Netzen stellt dabei einen Knoten dieses Netzes dar. Jeder Knoten eines Neuronalen-Netz-Netzes ist also selbst ein neuronales Netz.Wikipedia (as of January 18, 2019) defines deep learning as follows: Deep learning refers to a class of optimization methods in artificial neural networks that have numerous hidden layers between the input layer and the output layer, making them extensive have internal structure. In extensions of the learning algorithms for network structures with very few or no intermediate layers, such as the single-layer perceptron, the deep learning methods enable stable learning success even with numerous intermediate layers. According to Jürgen Schmidhuber, "deep learning" is just a new term for artificial neural networks and appeared for the first time in 2000 in the publication Multi-Valued and Universal Binary Neurons: Theory, Learning and Applications. The problems solved in the early days of artificial intelligence were intellectually difficult for humans, but easy for computers to process. These problems could be described by formal mathematical rules. The real challenge to artificial intelligence, however, was to solve tasks that are easy for humans to perform, but whose solution is difficult to formulate using mathematical rules. These are tasks that humans solve intuitively, such as speech or face recognition. A computer-based solution to this type of task involves the ability of computers to learn from experience and understand the world in terms of a hierarchy of concepts. Here each concept is defined by its relationship to simpler concepts. By gaining knowledge from experience, this approach avoids the need for human operators to formally specify all of the knowledge the computer needs to do its job. The hierarchy of concepts allows the computer to learn complicated concepts by assembling them from simpler ones. If you draw a diagram that shows how these concepts are built on top of each other, then the diagram is deep, with many layers. For this reason, this approach is called “deep learning” in artificial intelligence. It is difficult for a computer to understand the meaning of raw sensory input data, such as in handwriting recognition, where text initially only exists as a collection of pixels. The conversion of a set of pixels into a chain of numbers and letters is very complicated. Complex patterns have to be extracted from raw data. Learning or evaluating this assignment seems insurmountably difficult if it were programmed manually. One of the most common techniques in artificial intelligence is machine learning. Machine learning is a self-adaptive algorithm. Deep learning, a subset of machine learning, uses a series of hierarchical layers or a hierarchy of concepts to carry out the machine learning process. The artificial neural networks used here are built like the human brain, with the neurons connected to one another like a network. The first layer of the neural network, the visible input layer, processes a raw data input, such as the individual pixels of an image. The data input contains variables that are accessible for observation, hence the "visible layer". This first shift forwards its output to the next shift. This second layer processes the information from the previous layer and also forwards the result. The next layer receives the information from the second layer and processes it further. These layers are known as hidden layers. The the features contained in them are becoming increasingly abstract. Their values are not given in the original data. Instead, the model must determine which concepts are useful in explaining the relationships in the observed data. This continues across all levels of the artificial neural network. The result is output in the last visible layer (English output layer). This divides the desired complex data processing into a series of nested simple associations, each of which is described by a different layer of the model. The technology presented here for sensory processing goes far beyond these approaches. In particular, it provides for the first time a self-learning network of several neural networks that is self-learning in every level of the chain. Each neural network of the network of neural networks represents a node of this network. Each node of a neural network network is therefore itself a neural network.

BezugszeichenlisteList of reference symbols

99
Benutzersteuerungsanzeige;User control display;
1010
Benutzersteuerung;User control;
1111
Ultraschallwandleranordnung;Ultrasonic transducer assembly;
1212th
Ansteuerungselektronik;Control electronics;
1313th
Sendersteuerung;Transmitter control;
1414th
Einstellungsspeicher;Settings memory;
1515th
Signalprozessor;Signal processor;
1616
erstes neuronales Netzwerkmodell in einem ersten Speicher;first neural network model in a first memory;
1717th
erster Trainingsdatenspeicher;first training data memory;
1818th
Bildprozessor;Image processor;
1919th
Anzeige;Display;
2121st
Installation des ersten neuronalen Netzwerkmodells (16) für das Ultraschallmesssystem (164) auf dem Rechnersystem;Installation of the first neural network model ( 16 ) for the ultrasonic measuring system ( 164 ) on the computer system;
2222nd
Übergabe von Echosignalen verschiedener Objekte in verschiedenen Positionen an das erste neuronale Netzwerkmodell für das Ultraschallmesssystem (164);Transfer of echo signals from different objects in different positions to the first neural network model for the ultrasonic measurement system ( 164 );
2323
Identifikation der Objekte für das erste neuronale Netzwerkmodell für das Ultraschallmesssystem (164);Identification of the objects for the first neural network model for the ultrasonic measurement system ( 164 );
2424
Übergabe von Live-Ultraschallsignalen an das trainierte erste neuronale Netzwerkmodell für das Ultraschallmesssystem im Fahrzeug und Durchführung einer Objektidentifizierung durch das trainierte erste neuronale Netzwerkmodell zur Erzeugung eines ersten Objekterkennungsergebnisses;Transfer of live ultrasound signals to the trained first neural network model for the ultrasonic measurement system in the vehicle and implementation of an object identification by the trained first neural network model to generate a first object recognition result;
2525
Verwendung der durch das erste neuronale Netzwerkmodell für das Ultraschallmesssystem durchgeführten ersten Objektidentifizierung in Form eines ersten Objekterkennungsergebnisses;Use of the first object identification carried out by the first neural network model for the ultrasonic measuring system in the form of a first object recognition result;
3535
Sicherung der Parameterdaten des trainierten ersten neuronalen Netzwerkmodells (16) für das Ultraschallmesssystem in einem ersten Trainingsdatenspeicher (17);Saving the parameter data of the trained first neural network model ( 16 ) for the ultrasonic measuring system in a first training data memory ( 17th );
4141
Laden der zuvor gesicherten Parameter des ersten neuronalen Netzwerkmodells (16) für das Ultraschallmesssystem aus dem ersten Trainingsdatenspeicher (17) als aktuelle Parameter des ersten neuronalen Netzwerkmodells (16);Load the previously saved parameters of the first neural network model ( 16 ) for the ultrasonic measuring system from the first training data memory ( 17th ) as the current parameters of the first neural network model ( 16 );
5151
Installation des zweiten neuronalen Netzwerkmodells (136) für das zweite Messsystem (161) auf dem Rechnersystem;Installation of the second neural network model ( 136 ) for the second measuring system ( 161 ) on the computer system;
5252
Übergabe von Sensorsignalen verschiedener Objekte in verschiedenen Positionen an das zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161);Transfer of sensor signals from different objects in different positions to the second neural network model ( 136 ) for the second measuring system ( 161 );
5353
Identifikation der Objekte für das zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161);Identification of the objects for the second neural network model ( 136 ) for the second measuring system ( 161 );
5454
Übergabe von Live-Sensorsignalen der zweiten Sensoranordnung (131) an das trainierte zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) und Durchführung einer Objektidentifizierung durch das trainierte zweite neuronale Netzwerkmodell (136) zur Erzeugung eines zweiten Objekterkennungsergebnisses;Transfer of live sensor signals from the second sensor arrangement ( 131 ) to the trained second neural network model ( 136 ) for the second measuring system ( 161 ) and implementation of an object identification by the trained second neural network model ( 136 ) for generating a second object recognition result;
5555
Verwendung der durch das zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) durchgeführten zweiten Objektidentifizierung in Form eines zweiten Objekterkennungsergebnisses;Use of the through the second neural network model ( 136 ) for the second measuring system ( 161 ) a second object identification carried out in the form of a second object recognition result;
6161
Installation des vierten neuronalen Netzwerkmodells (156) für das dritte Messsystem (162) auf dem Rechnersystem;Installation of the fourth neural network model ( 156 ) for the third measuring system ( 162 ) on the computer system;
6262
Übergabe von Sensorsignalen verschiedener Objekte in verschiedenen Positionen an das vierte neuronale Netzwerkmodell (156) für das dritte Messsystem (162);Transfer of sensor signals from different objects in different positions to the fourth neural network model ( 156 ) for the third measuring system ( 162 );
6363
Identifikation der Objekte für das vierte neuronale Netzwerkmodell (156) für das dritte Messsystem (162);Identification of the objects for the fourth neural network model ( 156 ) for the third measuring system ( 162 );
64 64
Übergabe von Live-Sensorsignalen der dritten Sensoranordnung (151) an das trainierte vierte neuronale Netzwerkmodell (156) für das dritte Messsystem (162) und Durchführung einer Objektidentifizierung durch das trainierte vierte neuronale Netzwerkmodell (156) zur Erzeugung eines dritten Objekterkennungsergebnisses;Transfer of live sensor signals from the third sensor arrangement ( 151 ) to the trained fourth neural network model ( 156 ) for the third measuring system ( 162 ) and carrying out an object identification by the trained fourth neural network model ( 156 ) for generating a third object recognition result;
6565
Sicherung der Parameterdaten des trainierten zweiten neuronalen Netzwerkmodells (136) für das zweite Messsystem (161) in einem zweiten Trainingsdatenspeicher (137);Saving the parameter data of the trained second neural network model ( 136 ) for the second measuring system ( 161 ) in a second training data memory ( 137 );
65b65b
Verwendung der durch das vierte neuronale Netzwerkmodell (1356) für das dritte Messsystem (162) durchgeführten dritten Objektidentifizierung in Form eines dritten Objekterkennungsergebnisses;Use of the through the fourth neural network model ( 1356 ) for the third measuring system ( 162 ) third object identification carried out in the form of a third object recognition result;
7171
Laden der zuvor gesicherten Parameter des zweiten neuronalen Netzwerkmodells (136) für das zweite Messsystem (161) aus dem zweiten Trainingsdatenspeicher (137) als aktuelle Parameter des zweiten neuronalen Netzwerkmodells (136) für das zweite Messsystem (161);Load the previously saved parameters of the second neural network model ( 136 ) for the second measuring system ( 161 ) from the second training data memory ( 137 ) as current parameters of the second neural network model ( 136 ) for the second measuring system ( 161 );
7272
Laden der zuvor gesicherten Parameter des vierten neuronalen Netzwerkmodells (156) für das dritte Messsystem (162) aus dem vierten Trainingsdatenspeicher (157) als aktuelle Parameter des vierten neuronalen Netzwerkmodells (156) für das dritte Messsystem (162);Load the previously saved parameters of the fourth neural network model ( 156 ) for the third measuring system ( 162 ) from the fourth training data memory ( 157 ) as the current parameters of the fourth neural network model ( 156 ) for the third measuring system ( 162 );
8484
Vergleich der ersten Objekterkennungsergebnisse der durch das erste neuronale Netzwerkmodell (16) für das Ultraschallmesssystem (164) durchgeführten ersten Objektidentifizierung mit den alternativen zweiten Objekterkennungsergebnissen der durch das zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) durchgeführten alternativen zweiten Objektidentifizierung und Ermittlung einer gemeinsamen Objekterkennungshypothese;Comparison of the first object recognition results from the first neural network model ( 16 ) for the ultrasonic measuring system ( 164 ) carried out first object identification with the alternative second object recognition results of the second neural network model ( 136 ) for the second measuring system ( 161 ) alternative second object identification carried out and determination of a common object recognition hypothesis;
8585
Verwendung der gemeinsamen Objekterkennungshypothese;Use of the common object recognition hypothesis;
8686
erste Parameteranpassung des ersten neuronalen Netzwerkmodells (16) für das Ultraschallmesssystem (164) in Abhängigkeit vom Vergleichsergebnis der ersten Objekterkennungsergebnisse der durch das erste neuronale Netzwerkmodell (16) für das Ultraschallmesssystem (164) durchgeführten ersten Objektidentifizierung mit den alternativen zweiten Objekterkennungsergebnissen der durch das zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) durchgeführten alternativen zweiten Objektidentifizierung in Schritt 84;first parameter adjustment of the first neural network model ( 16 ) for the ultrasonic measuring system ( 164 ) depending on the comparison result of the first object recognition results of the first neural network model ( 16 ) for the ultrasonic measuring system ( 164 ) carried out first object identification with the alternative second object recognition results of the second neural network model ( 136 ) for the second measuring system ( 161 ) carried out alternative second object identification in step 84 ;
8787
zweite Parameteranpassung des zweiten neuronalen Netzwerkmodells (136) für das zweite Messsystem (161) in Abhängigkeit vom Vergleichsergebnis der ersten Objekterkennungsergebnisse der durch das erste neuronale Netzwerkmodell (16) für das Ultraschallmesssystem (164) durchgeführten ersten Objektidentifizierung mit den alternativen zweiten Objekterkennungsergebnissen der durch das zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) durchgeführten alternativen zweiten Objektidentifizierung in Schritt 84;second parameter adjustment of the second neural network model ( 136 ) for the second measuring system ( 161 ) depending on the comparison result of the first object recognition results of the first neural network model ( 16 ) for the ultrasonic measuring system ( 164 ) carried out first object identification with the alternative second object recognition results of the second neural network model ( 136 ) for the second measuring system ( 161 ) carried out alternative second object identification in step 84 ;
8888
vierte Parameteranpassung des vierten neuronalen Netzwerkmodells (156) für das dritte Messsystem (162) in Abhängigkeit vom Vergleichsergebnis der zweiten Objekterkennungsergebnisse der durch das zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) durchgeführten zweiten Objektidentifizierung mit den dritten Objekterkennungsergebnissen der durch das vierte neuronale Netzwerkmodell (156) für das dritte Messsystem (162) durchgeführten alternativen dritten Objektidentifizierung in Schritt 204;fourth parameter adjustment of the fourth neural network model ( 156 ) for the third measuring system ( 162 ) depending on the comparison result of the second object recognition results of the second neural network model ( 136 ) for the second measuring system ( 161 ) carried out second object identification with the third object recognition results of the fourth neural network model ( 156 ) for the third measuring system ( 162 ) carried out alternative third object identification in step 204 ;
9191
Installation des dritten neuronalen Netzwerkmodells (138) für den Vergleich der ersten Objekterkennungsergebnisse der durch das erste neuronale Netzwerkmodell (16) für das Ultraschallmesssystem (164) durchgeführten ersten Objektidentifizierung mit den alternativen zweiten Objekterkennungsergebnissen der durch das zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) durchgeführten alternativen zweiten Objektidentifizierung und für die Ermittlung einer gemeinsamen Objekterkennungshypothese auf dem Rechnersystem;Installation of the third neural network model ( 138 ) for the comparison of the first object recognition results of the first neural network model ( 16 ) for the ultrasonic measuring system ( 164 ) carried out first object identification with the alternative second object recognition results of the second neural network model ( 136 ) for the second measuring system ( 161 ) carried out alternative second object identification and for the determination of a common object recognition hypothesis on the computer system;
9292
Training des dritten neuronalen Netzwerkmodells (138) durch Übergabe von korrekten und nicht korrekten ersten Objekterkennungsergebnissen und korrekten und nicht korrekten alternativen zweiten Objekterkennungsergebnissen an das dritte neuronale Netzwerkmodell (138) zusammen mit Daten über deren Korrektheit und/oder Nichtkorrektheit und Ermittlung der Parameter des dritten neuronalen Netzwerkmodells (138) in Abhängigkeit von diesen Daten und/oder Änderung der Parameter des dritten neuronalen Netzwerkmodells (138) in Abhängigkeit von diesen Daten;Training of the third neural network model ( 138 ) by transferring correct and incorrect first object recognition results and correct and incorrect alternative second object recognition results to the third neural network model ( 138 ) together with data about their correctness and / or incorrectness and determination of the parameters of the third neural network model ( 138 ) depending on this data and / or change in the parameters of the third neural network model ( 138 ) depending on this data;
9393
Übergabe von ersten Live- Objekterkennungsergebnissen und von alternativen zweiten Live-Objekterkennungsergebnissen an das trainierte dritte neuronale Netzwerkmodell (138);Transfer of first live object recognition results and alternative second live object recognition results to the trained third neural network model ( 138 );
9494
Ermittlung einer gemeinsamen Objekterkennungshypothese auf Basis der ersten Live-Objekterkennungsergebnisse und der alternativen zweiten Live-Objekterkennungsergebnisse durch das dritte neuronale Netzwerkmodell (138);Determination of a common object recognition hypothesis based on the first live object recognition results and the alternative second live object recognition results by the third neural network model ( 138 );
9595
Verwendung der durch das dritte neuronale Netzwerkmodell (138) für das Gesamtmesssystem ermittelten gemeinsamen Objekterkennungshypothese;Use of the third neural network model ( 138 ) common object recognition hypothesis determined for the overall measurement system;
105105
Sicherung der Parameterdaten des trainierten dritten neuronalen Netzwerks (138) in einem dritten Trainingsdatenspeicher (139);Saving the parameter data of the trained third neural network ( 138 ) in a third training data memory ( 139 );
111111
Laden der zuvor gesicherten Parameter des dritten neuronalen Netzwerkmodells (138) aus dem dritten Trainingsdatenspeicher (139) in das dritte neuronale Netzwerkmodell (138);Load the previously saved parameters of the third neural network model ( 138 ) from the third training data memory ( 139 ) into the third neural network model ( 138 );
130130
zweite Benutzersteuerung, die mit der ersten Benutzersteuerung (10) identisch sein kann, wenn sie im Zeitmultiplex betrieben wird;second user control that is linked to the first user control ( 10 ) can be identical if it is operated in time division multiplex;
131131
zweite Sensoranordnung;second sensor arrangement;
132132
zweite Ansteuerungselektronik;second control electronics;
133133
zweite Sensoransteuerung;second sensor control;
134134
zweiter Einstellungsspeicher;second setting memory;
135135
zweiter Signalprozessor, der mit dem ersten Signalprozessor (15) identisch sein kann, wenn die Aufgabe im Zeitmultiplex gelöst wird;second signal processor that works with the first signal processor ( 15th ) can be identical if the task is solved in time division multiplex;
136136
zweites neuronales Netzwerkmodell in einem zweiten Speicher;second neural network model in a second memory;
137137
zweiter Trainingsdatenspeicher;second training data memory;
138138
drittes neuronales Netzwerkmodell;third neural network model;
139139
dritter Trainingsdatenspeicher;third training data memory;
140140
erste Parametermodifikationsvorrichtung für das erste neuronale Netzwerkmodell (16);first parameter modification device for the first neural network model ( 16 );
140a140a
zweite Benutzersteuerung, die mit der ersten Benutzersteuerung (10) und/oder der dritten Benutzersteuerung (160) identisch sein kann, wenn sie im Zeitmultiplex betrieben wird;second user control that is linked to the first user control ( 10 ) and / or the third user control ( 160 ) can be identical if it is operated in time division multiplex;
141141
zweite Parametermodifikationsvorrichtung für das zweite neuronale Netzwerkmodell (136);second parameter modification device for the second neural network model ( 136 );
142142
erste Sicherheitsvorrichtung;first safety device;
143143
zweite Sicherheitsvorrichtung;second safety device;
144144
vierte Parametermodifikationsvorrichtung für das vierte neuronale Netzwerkmodell (156);fourth parameter modification device for the fourth neural network model ( 156 );
145145
dritte Benutzersteuerung;third user control;
151151
dritte Sensoranordnung;third sensor arrangement;
152152
dritte Ansteuerungselektronik;third control electronics;
153153
dritte Sensoransteuerung;third sensor control;
154154
dritter Einstellungsspeicher;third setting memory;
155155
dritter Signalprozessor, der mit dem ersten Signalprozessor (13) und/oder zweiten Signalprozessor (135) identisch sein kann, wenn die Aufgabe im Zeitmultiplex gelöst wird;third signal processor that works with the first signal processor ( 13th ) and / or second signal processor ( 135 ) can be identical if the task is solved in time division multiplex;
156156
viertes neuronales Netzwerkmodell;fourth neural network model;
157157
vierter Trainingsdatenspeicher;fourth training data memory;
158158
fünftes neuronales Netzwerkmodell;fifth neural network model;
159159
fünfter Trainingsdatenspeicher;fifth training data memory;
160160
dritte Benutzersteuerung, die mit der ersten Benutzersteuerung (10) und/oder der zweiten Benutzersteuerung (140a) identisch sein kann, wenn sie im Zeitmultiplex betrieben wird;third user control that is linked to the first user control ( 10 ) and / or the second user control ( 140a) can be identical if it is operated in time division multiplex;
161161
zweites Messsystem;second measuring system;
162162
drittes Messsystem;third measuring system;
163163
vierte Parametermodifikationsvorrichtung für das vierte neuronale Netzwerkmodell (156);fourth parameter modification device for the fourth neural network model ( 156 );
164164
Ultraschallmesssystem;Ultrasonic measuring system;
171171
Durchführung eines Verfahrens nach 7 für das zweite Messsystem (161) mit Ermittlung der zweiten Sensormesswerte und Ermittlung eines zweiten Objekterkennungsergebnisses;Implementation of a procedure according to 7th for the second measuring system ( 161 ) with determination of the second sensor measurement values and determination of a second object recognition result;
172172
Durchführung eines Verfahrens nach 7 für das dritte Messsystem (162) mit Ermittlung der dritten Sensormesswerte und Ermittlung eines dritten Objekterkennungsergebnisses;Implementation of a procedure according to 7th for the third measuring system ( 162 ) with determination of the third sensor measurement values and determination of a third object recognition result;
173173
Installieren eines fünften neuronalen Netzwerkmodells (158) auf einem computerbasierten System;Install a fifth neural network model ( 158 ) on a computer-based system;
174 174
Trainieren des fünften neuronalen Netzwerkmodells (158), um die Objekte und/oder Objektkomponenten und/oder Anordnungen von Objekten und/oder Objektkomponenten in dem zweiten Objekterkennungsergebnis und/oder in dem dritten Objekterkennungsergebnis zu identifizieren und Erzeugen einer gemeinsamen Objekterkennungshypothese;Training the fifth neural network model ( 158 ) to identify the objects and / or object components and / or arrangements of objects and / or object components in the second object recognition result and / or in the third object recognition result and to generate a common object recognition hypothesis;
175175
Verwenden des trainierten fünften neuronalen Netzwerkmodells (158) zur Identifizierung von Objekten und/oder Objektkomponenten und/oder von Anordnungen von Objekten und/oder Objektkomponenten auf Basis des zweiten Objekterkennungsergebnisses und des dritten Objekterkennungsergebnisses durch das fünfte neuronale Netzwerkmodell (158) und/oder zur Erzeugung einer gemeinsamen Objekterkennungshypothese auf Basis des zweiten Objekterkennungsergebnisses und des dritten Objekterkennungsergebnisses durch das fünfte neuronale Netzwerkmodell (158);Using the trained fifth neural network model ( 158 ) to identify objects and / or object components and / or arrangements of objects and / or object components on the basis of the second object recognition result and the third object recognition result by the fifth neural network model ( 158 ) and / or to generate a common object recognition hypothesis on the basis of the second object recognition result and the third object recognition result by the fifth neural network model ( 158 );
185185
Sicherung der Parameterdaten des trainierten fünften neuronalen Netzwerks (158) in einem fünften Trainingsdatenspeicher (159);Saving the parameter data of the trained fifth neural network ( 158 ) in a fifth training data memory ( 159 );
192192
Laden der zuvor gesicherten Parameter des vierten neuronalen Netzwerkmodells (156) aus dem vierten Trainingsdatenspeicher (157) in das vierte neuronale Netzwerkmodell (156);Load the previously saved parameters of the fourth neural network model ( 156 ) from the fourth training data memory ( 157 ) into the fourth neural network model ( 156 );
193193
Laden der zuvor gesicherten Parameter des fünften neuronalen Netzwerkmodells (158) aus dem fünften Trainingsdatenspeicher (159) in das fünfte neuronale Netzwerkmodell (158);Load the previously saved parameters of the fifth neural network model ( 158 ) from the fifth training data memory ( 159 ) into the fifth neural network model ( 158 );
201201
Installation des fünften neuronalen Netzwerkmodells (158) für den Vergleich der zweiten Objekterkennungsergebnisse der durch das zweite neuronale Netzwerkmodell (136) für das zweite Messsystem (161) durchgeführten ersten Objektidentifizierung mit den dritten Objekterkennungsergebnissen der durch das vierte neuronale Netzwerkmodell (1356) für das dritte Messsystem (162) durchgeführten alternativen dritten Objektidentifizierung und für die Ermittlung einer gemeinsamen Objekterkennungshypothese auf dem Rechnersystem;Installation of the fifth neural network model ( 158 ) for the comparison of the second object recognition results of the second neural network model ( 136 ) for the second measuring system ( 161 ) carried out first object identification with the third object recognition results of the fourth neural network model ( 1356 ) for the third measuring system ( 162 ) carried out alternative third object identification and for the determination of a common object recognition hypothesis on the computer system;
202202
Training des fünften neuronalen Netzwerkmodells (158) durch Übergabe von korrekten und nicht korrekten zweiten Objekterkennungsergebnissen und korrekten und nicht korrekten dritten Objekterkennungsergebnissen an das fünfte neuronale Netzwerkmodell (158) zusammen mit Daten über deren Korrektheit und/oder Nichtkorrektheit und Ermittlung der Parameter des fünfte neuronalen Netzwerkmodells (158) in Abhängigkeit von diesen Daten und/oder Änderung der Parameter des fünften neuronalen Netzwerkmodells (158) in Abhängigkeit von diesen Daten;Training the fifth neural network model ( 158 ) by transferring correct and incorrect second object recognition results and correct and incorrect third object recognition results to the fifth neural network model ( 158 ) together with data about their correctness and / or incorrectness and determination of the parameters of the fifth neural network model ( 158 ) depending on this data and / or change in the parameters of the fifth neural network model ( 158 ) depending on this data;
203203
Übergabe von zweiten Live- Objekterkennungsergebnissen und von dritten Live-Objekterkennungsergebnissen an das trainierte fünfte neuronale Netzwerkmodell (158);Transfer of second live object recognition results and third live object recognition results to the trained fifth neural network model ( 158 );
204204
Ermittlung einer gemeinsamen Objekterkennungshypothese auf Basis der zweiten Live-Objekterkennungsergebnisse und der dritten Live-Objekterkennungsergebnisse durch das fünfte neuronale Netzwerkmodell (158);Determination of a common object recognition hypothesis based on the second live object recognition results and the third live object recognition results by the fifth neural network model ( 158 );
205205
Verwendung der durch das fünfte neuronale Netzwerkmodell (158) für das Gesamtmesssystem ermittelten gemeinsamen Objekterkennungshypothese;Use of the fifth neural network model ( 158 ) common object recognition hypothesis determined for the overall measurement system;
211211
Laden (211) der zuvor gesicherten Parameter des fünften neuronalen Netzwerkmodells (158) aus dem fünften Trainingsdatenspeicher (159) oder einem anderen Datenspeicher der gerade diese Daten vorhält, in das fünfte neuronale Netzwerkmodell (158). Hierbei kann sich dieses fünfte neuronale Netzwerkmodell (158) in einem komplett anderen funktionsähnlichen Gesamtsystem befinden als das Gesamtsystem, mit dem die zu ladenden Daten erstellt wurden;Load ( 211 ) the previously saved parameters of the fifth neural network model ( 158 ) from the fifth training data memory ( 159 ) or another data storage device that currently holds this data into the fifth neural network model ( 158 ). This fifth neural network model ( 158 ) are in a completely different, functionally similar overall system than the overall system with which the data to be loaded was created;
215215
Sicherung (215) der Parameterdaten des trainierten fünften neuronalen Netzwerks (158) in einem fünften Trainingsdatenspeicher (159). Hierdurch können die so gesicherten Parameter des fünften neuronalen Netzwerkmodells (158) in funktionsähnlichen Systemen durch Programmierung und/oder Konstruktion dieser Systeme oder von Teilen dieser verwendet werden;Fuse ( 215 ) the parameter data of the trained fifth neural network ( 158 ) in a fifth training data memory ( 159 ). This allows the parameters of the fifth neural network model ( 158 ) are used in functionally similar systems by programming and / or construction of these systems or parts of them;
10101010
Fahrzeugteil;Vehicle part;
10121012
Ultraschallwandleranordnung;Ultrasonic transducer assembly;
10141014
Mikrobeamformer;Microbeamformer;
10161016
Sende- / Empfangs-Umschalter;Send / receive switch;
10181018
Sendesteuerung;Transmission control;
10201020
Hauptstrahlformer;Main jet shaper;
1026 1026
Signalprozessor;Signal processor;
10281028
Bildspeicher;Image memory;
10301030
Bildprozessor;Image processor;
10321032
Abtastwandler;Scan converter;
10341034
Trainingsbildspeicher;Training image memory;
10361036
Grafikprozessor;Graphics processor;
10381038
Bedienfeld des Benutzers oder Benutzersteuerfeld;User control panel or user control panel;
10401040
Bildanzeige;Image display;
10421042
Volumenrenderer;Volume renderer;
10441044
Multiplanar-Reformatierer;Multiplanar reformatter;
10461046
Touchscreen-Anzeigesteuerung;Touch screen display control;
10481048
Benutzersteuerungseinstellungssteuerung;User control setting control;
10521052
Video-Prozessor;Video processor;
10541054
Doppler-Prozessor;Doppler processor;
10601060
Touchscreen-Anzeige;Touch screen display;
10801080
neuronales Netzwerkmodell;neural network model;
10901090
Installation des neuronalen Netwerkmodells;Installation of the neural network model;
10921092
Präsentation von Bildern und/oder Messdatensätzen der gleichen Fahrzeugumfeldsituationsgeometrie, die bevorzugt von einer Vielzahl von Testfahrten für ähnliche Situationen erhalten wurden, gegenüber dem neuronalen Netzwerkmodell;Presentation of images and / or measurement data sets of the same vehicle surroundings situation geometry, which were preferably obtained from a large number of test drives for similar situations, compared to the neural network model;
10941094
Training des neuronalen Netzwerkmodells, um es zur Ausbildung der Geometrie zu trainieren durch Präsentation des bekannten Typs der Situationsgeometrie und seiner Ansicht in den Bildern und/oder Messdatensätzen zusammen mit der Präsentation in Schritt (1092).Training of the neural network model in order to train it to develop the geometry by presenting the known type of situation geometry and its view in the images and / or measurement data sets together with the presentation in step ( 1092 ).
10961096
Präsentation von durch das Ultraschallsystem aufgenommene Umfeldkarten und/oder Messdatensätzen gengenüber dem neuronalen Netzwerkmodell zur Identifizierung der Fahrzeugumfeldsituationsgeometrie als Objekterkennungsergebnis;Presentation of environment maps recorded by the ultrasound system and / or measurement data sets compared to the neural network model for identifying the vehicle environment situation geometry as object recognition result;
10981098
Verwendung der durch das neuronale Netzwerkmodell erzeugten Identifikation.Use of the identification generated by the neural network model.
H11H11
hoch priorisierte Signal der Ultraschallwandleranordnung (11) an die erste Sicherheitseinrichtung (142);high-priority signal of the ultrasonic transducer arrangement ( 11 ) to the first safety device ( 142 );
H15H15
hoch priorisierte Signal des ersten Signalprozessors (15) an die erste Sicherheitseinrichtung (142)high priority signal of the first signal processor ( 15th ) to the first safety device ( 142 )
H131H131
hoch priorisierte Signal der zweiten Sensoranordnung (131) an die erste Sicherheitseinrichtung (142);high-priority signal of the second sensor arrangement ( 131 ) to the first safety device ( 142 );
H135H135
hoch priorisierte Signal des zweiten Signalprozessors (135) an die erste Sicherheitseinrichtung (142);high priority signal of the second signal processor ( 135 ) to the first safety device ( 142 );
H142H142
Benutzereingabe oder anderes externes hoch priorisiertes SignalUser input or other external high priority signal
H151H151
hoch priorisierte Signal der dritten Sensoranordnung (151) an die zweite Sicherheitseinrichtung (143);high-priority signal of the third sensor arrangement ( 151 ) to the second safety device ( 143 );
H155H155
hoch priorisierte Signal des dritten Signalprozessors (155) an die zweite Sicherheitseinrichtung (143);high priority signal of the third signal processor ( 155 ) to the second safety device ( 143 );

Liste der zitierten SchriftenList of the cited writings

  • DE 10 2008 036 009 B4DE 10 2008 036 009 B4
  • DE 103 36 638 A1DE 103 36 638 A1
  • [Dror 1995] I.E. Dror, M. Zagaeski, C. F. Moss, „Three-dimensional target recognition via sonar: a neural network model“, Neural Networks, vol. 8, no. 1, pp. 149-160, 1995 [Dror 1995] IE Dror, M. Zagaeski, CF Moss, “Three-dimensional target recognition via sonar: a neural network model”, Neural Networks, vol. 8, no. 1, pp. 149-160,1995
  • [LeCun 2015] Y. LeCun, Y. Begio, G. Hinton, „Deep Learning“, Nature, vol. 521, pp.436-444, 2015 [LeCun 2015] Y. LeCun, Y. Begio, G. Hinton, "Deep Learning," Nature, vol. 521, pp. 436-444, 2015
  • [Zhang 2018] W. J. Zhang, G. Yang, Y. Lin, C. Ji and M. M. Gupta, „On Definition of Deep Learning,“ 2018 World Automation Congress (WAC), Stevenson, WA, 2018, pp. 1-5, 2018 [Zhang 2018] WJ Zhang, G. Yang, Y. Lin, C. Ji and MM Gupta, "On Definition of Deep Learning," 2018 World Automation Congress (WAC), Stevenson, WA, 2018, pp. 1-5, 2018

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • DE 102008036009 B4 [0006, 0318]DE 102008036009 B4 [0006, 0318]
  • DE 10336638 A1 [0006, 0318]DE 10336638 A1 [0006, 0318]

Zitierte Nicht-PatentliteraturNon-patent literature cited

  • I.E. Dror, M. Zagaeski, C. F. Moss, „Three-dimensional target recognition via sonar: a neural network model“, Neural Networks, vol. 8, no. 1, pp. 149-160, 1995 [0318]I.E. Dror, M. Zagaeski, C. F. Moss, "Three-dimensional target recognition via sonar: a neural network model", Neural Networks, vol. 8, no. 1, pp. 149-160, 1995 [0318]
  • Y. LeCun, Y. Begio, G. Hinton, „Deep Learning“, Nature, vol. 521, pp.436-444, 2015 [0318]Y. LeCun, Y. Begio, G. Hinton, "Deep Learning," Nature, vol. 521, pp.436-444, 2015 [0318]
  • W. J. Zhang, G. Yang, Y. Lin, C. Ji and M. M. Gupta, „On Definition of Deep Learning,“ 2018 World Automation Congress (WAC), Stevenson, WA, 2018, pp. 1-5, 2018 [0318]W. J. Zhang, G. Yang, Y. Lin, C. Ji and M. M. Gupta, "On Definition of Deep Learning," 2018 World Automation Congress (WAC), Stevenson, WA, 2018, pp. 1-5, 2018 [0318]

Claims (5)

Ein sicherheitsrelevantes Messsystem zur Verwendung in Fahrzeugen und/oder Kraftfahrzeugen dadurch gekennzeichnet, - dass sie eine erste Sicherheitsvorrichtung (142) und ein oder mehrere neuronale Netzwerkmodelle (16, 136, 138) zur Auswertung der Messdaten zumindest einer Sensoranordnung (11, 131) des Messsystems umfasst und - dass die erste Sicherheitsvorrichtung (142) zumindest das neuronale Netzwerkmodell (138) überwacht, das diese Messdaten oder daraus abgeleitete Daten verarbeitet.A safety-relevant measuring system for use in vehicles and / or motor vehicles, characterized in that it has a first safety device (142) and one or more neural network models (16, 136, 138) for evaluating the measurement data of at least one sensor arrangement (11, 131) of the measuring system and that the first safety device (142) monitors at least the neural network model (138) which processes these measurement data or data derived therefrom. Messsystem nach dem vorhergehenden Anspruch dadurch gekennzeichnet, - dass die Sicherheitsvorrichtung von Signalen (H11, H131) der mindestens einen Sensoranordnung (11, 131) des Messsystems beeinflusst werden kann.Measuring system according to the preceding claim, characterized in that the safety device can be influenced by signals (H11, H131) from the at least one sensor arrangement (11, 131) of the measuring system. Messsystem nach einem oder mehreren der vorhergehenden Ansprüche dadurch gekennzeichnet, - dass die Sicherheitsvorrichtung (142) die Parameter zumindest eines neuronalen Netzwerkmodells (16, 136, 138) beeinflussen kann.Measuring system according to one or more of the preceding claims, characterized in that the safety device (142) can influence the parameters of at least one neural network model (16, 136, 138). Messsystem nach einem oder mehreren der vorhergehenden Ansprüche dadurch gekennzeichnet, - dass die Sicherheitsvorrichtung (142) von einem Benutzersignal (H142) oder einem externen Steuersignal (H142) beeinflusst werden kann.Measuring system according to one or more of the preceding claims, characterized in that the safety device (142) can be influenced by a user signal (H142) or an external control signal (H142). Messsystem nach einem oder mehreren der vorhergehenden Ansprüche dadurch gekennzeichnet, - dass die Sicherheitsvorrichtung (142) sicherheitsgefährdende und/oder potenziell sicherheitsgefährdende Signalisierungen des zumindest einen neuronalen Netzwerkmodells (16, 136, 138) sicher unterbinden kann.Measuring system according to one or more of the preceding claims, characterized in that the safety device (142) can safely prevent safety-endangering and / or potentially safety-endangering signaling of the at least one neural network model (16, 136, 138).
DE102019105389.7A 2019-02-09 2019-03-04 Safety device for a self-learning measuring system in the vehicle for the detection and classification of objects in the area around the vehicle with the help of a deep learning process Pending DE102019105389A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019103228.8 2019-02-09
DE102019103228 2019-02-09

Publications (1)

Publication Number Publication Date
DE102019105389A1 true DE102019105389A1 (en) 2020-08-13

Family

ID=71738900

Family Applications (8)

Application Number Title Priority Date Filing Date
DE102019105346.3A Pending DE102019105346A1 (en) 2019-02-09 2019-03-04 Procedure for a measurement system in the vehicle for the detection and classification of objects in the vicinity of the vehicle with the help of a deep learning procedure
DE102019105363.3A Active DE102019105363B4 (en) 2019-02-09 2019-03-04 Procedure for a measuring system in the vehicle for the detection and classification of objects in the area around the vehicle using a deep learning procedure with a self-learning decision maker
DE102019105372.2A Pending DE102019105372A1 (en) 2019-02-09 2019-03-04 Ultrasonic measuring system in the vehicle for the detection and classification of objects in the vicinity of the vehicle
DE102019105337.4A Pending DE102019105337A1 (en) 2019-02-09 2019-03-04 Ultrasonic measuring system in the vehicle for the detection and classification of objects in the vicinity of the vehicle with the help of a deep learning process
DE102019105359.5A Active DE102019105359B4 (en) 2019-02-09 2019-03-04 Process for an ultrasonic measuring system in the vehicle for the detection and classification of objects in the area around the vehicle with the help of a deep learning process and a self-learning decision maker
DE102019105389.7A Pending DE102019105389A1 (en) 2019-02-09 2019-03-04 Safety device for a self-learning measuring system in the vehicle for the detection and classification of objects in the area around the vehicle with the help of a deep learning process
DE102019105343.9A Pending DE102019105343A1 (en) 2019-02-09 2019-03-04 Measurement system in the vehicle for the detection and classification of objects in the vicinity of the vehicle with the help of a deep learning process
DE102019105340.4A Pending DE102019105340A1 (en) 2019-02-09 2019-03-04 Process for an ultrasonic measuring system in the vehicle for the detection and classification of objects in the vicinity of the vehicle with the help of a deep learning process

Family Applications Before (5)

Application Number Title Priority Date Filing Date
DE102019105346.3A Pending DE102019105346A1 (en) 2019-02-09 2019-03-04 Procedure for a measurement system in the vehicle for the detection and classification of objects in the vicinity of the vehicle with the help of a deep learning procedure
DE102019105363.3A Active DE102019105363B4 (en) 2019-02-09 2019-03-04 Procedure for a measuring system in the vehicle for the detection and classification of objects in the area around the vehicle using a deep learning procedure with a self-learning decision maker
DE102019105372.2A Pending DE102019105372A1 (en) 2019-02-09 2019-03-04 Ultrasonic measuring system in the vehicle for the detection and classification of objects in the vicinity of the vehicle
DE102019105337.4A Pending DE102019105337A1 (en) 2019-02-09 2019-03-04 Ultrasonic measuring system in the vehicle for the detection and classification of objects in the vicinity of the vehicle with the help of a deep learning process
DE102019105359.5A Active DE102019105359B4 (en) 2019-02-09 2019-03-04 Process for an ultrasonic measuring system in the vehicle for the detection and classification of objects in the area around the vehicle with the help of a deep learning process and a self-learning decision maker

Family Applications After (2)

Application Number Title Priority Date Filing Date
DE102019105343.9A Pending DE102019105343A1 (en) 2019-02-09 2019-03-04 Measurement system in the vehicle for the detection and classification of objects in the vicinity of the vehicle with the help of a deep learning process
DE102019105340.4A Pending DE102019105340A1 (en) 2019-02-09 2019-03-04 Process for an ultrasonic measuring system in the vehicle for the detection and classification of objects in the vicinity of the vehicle with the help of a deep learning process

Country Status (1)

Country Link
DE (8) DE102019105346A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021101575A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se Process for the production of an optical system with NV centers by means of optically transparent film structures
US20210387584A1 (en) * 2020-06-15 2021-12-16 Lytx, Inc. Sensor fusion for collision detection

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT524821A1 (en) * 2021-03-01 2022-09-15 Avl List Gmbh Method and system for generating scenario data for testing a driver assistance system of a vehicle
AT524822A1 (en) * 2021-03-01 2022-09-15 Avl List Gmbh Method for testing a driver assistance system of a vehicle
DE102021208988A1 (en) * 2021-08-17 2023-02-23 Zf Friedrichshafen Ag Training method for training an artificial machine learning system for detecting malfunctions and vehicle device
DE102022202036A1 (en) 2022-02-28 2023-08-31 Robert Bosch Gesellschaft mit beschränkter Haftung Method and device for providing a classification result for object identification using ultrasound-based sensor systems in mobile devices

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10336638A1 (en) * 2003-07-25 2005-02-10 Robert Bosch Gmbh Apparatus for classifying at least one object in a vehicle environment
DE102008036009B4 (en) * 2008-03-28 2018-03-22 Volkswagen Ag Method for collision protection of a motor vehicle and parking garage assistant
DE102017210151A1 (en) * 2017-06-19 2018-12-20 Zf Friedrichshafen Ag Device and method for controlling a vehicle module in response to a state signal

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4100500A1 (en) * 1991-01-10 1992-07-16 Bodenseewerk Geraetetech SIGNAL PROCESSING ARRANGEMENT FOR THE CLASSIFICATION OF OBJECTS BASED ON THE SIGNALS OF SENSORS
DE4240789C2 (en) * 1992-12-04 2003-08-28 Bodenseewerk Geraetetech Procedure for identifying objects
DE102005021225A1 (en) * 2005-05-09 2006-11-16 Robert Bosch Gmbh Method and device for detecting the surface condition of objects of road traffic or persons
US10139827B2 (en) * 2016-06-28 2018-11-27 Ford Global Technologies, Llc Detecting physical threats approaching a vehicle
DE102017108348B3 (en) * 2017-04-20 2018-06-21 Valeo Schalter Und Sensoren Gmbh Configuration of a sensor system with a neural network for a motor vehicle
DE102017116016A1 (en) * 2017-07-17 2019-01-17 Valeo Schalter Und Sensoren Gmbh A motor vehicle sensor device having a plurality of sensor units and a neural network for generating an integrated representation of an environment
US11741354B2 (en) * 2017-08-25 2023-08-29 Ford Global Technologies, Llc Shared processing with deep neural networks
DE102017011329A1 (en) * 2017-12-08 2018-07-05 Daimler Ag Signal processing arrangement and method for operating a vehicle
DE102018101513A1 (en) * 2018-01-24 2019-07-25 Valeo Schalter Und Sensoren Gmbh Method for detecting garage parking spaces

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10336638A1 (en) * 2003-07-25 2005-02-10 Robert Bosch Gmbh Apparatus for classifying at least one object in a vehicle environment
DE102008036009B4 (en) * 2008-03-28 2018-03-22 Volkswagen Ag Method for collision protection of a motor vehicle and parking garage assistant
DE102017210151A1 (en) * 2017-06-19 2018-12-20 Zf Friedrichshafen Ag Device and method for controlling a vehicle module in response to a state signal

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021101575A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se Process for the production of an optical system with NV centers by means of optically transparent film structures
DE102021101576A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se Process for the production of an optical system with NV centers by means of laminated optically transparent film structures
DE102021101566A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se NV center based, microwave-free and galvanically isolated magnetometer with quantum point measurement over a sensor element surface
DE102021101579A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se Direct contact sensor system with NV centers for measurements on abrasive fluids
DE102021101569A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se NV center based current sensor
DE102021101565A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se NV center based, microwave-free and galvanically isolated magnetometer with a circuit board made of glass
DE102021101583A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se Recipients with NV centers
DE102021101580A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se Sensor element with spatial density modulation of the NV center density
DE102021101581A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se Vehicle with a sensor element with NV centers
DE102021101570A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se Energy supply device with NV center based current sensor
DE102021101577A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se Optical system with NV centers and optically transparent film structures
DE102021101568A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se NV center based, microwave-free and galvanically isolated sensor module
DE102021101567A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se NV center based, microwave-free and galvanically isolated magnetometer with HD NV diamonds
WO2021151429A2 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se Nv center-based microwave-free galvanically isolated magnetometer
DE102021101571A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se Power monitoring device with NV center based current sensors
DE102021101582A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se Quantum system with NV centers with temporally asymmetrical pump intensity
DE102021101572A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se Quantum optical system with NV centers and transparent circuit carriers
DE102021101573A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se Process for the production of an optical system with NV centers by means of glass frit structures
DE102021101578A1 (en) 2020-01-30 2021-08-05 Elmos Semiconductor Se Use of an optical device with NV centers in an area of ionizing radiation
US20210387584A1 (en) * 2020-06-15 2021-12-16 Lytx, Inc. Sensor fusion for collision detection
US11769332B2 (en) * 2020-06-15 2023-09-26 Lytx, Inc. Sensor fusion for collision detection

Also Published As

Publication number Publication date
DE102019105343A1 (en) 2020-08-13
DE102019105346A1 (en) 2020-08-13
DE102019105372A1 (en) 2020-08-13
DE102019105359A1 (en) 2020-08-13
DE102019105359B4 (en) 2020-10-29
DE102019105363B4 (en) 2020-10-29
DE102019105337A1 (en) 2020-08-13
DE102019105363A1 (en) 2020-08-13
DE102019105340A1 (en) 2020-08-13

Similar Documents

Publication Publication Date Title
DE102019105363B4 (en) Procedure for a measuring system in the vehicle for the detection and classification of objects in the area around the vehicle using a deep learning procedure with a self-learning decision maker
EP3695244B1 (en) Method and device for creating an inverse sensor model and method for detecting obstacles
DE102019206908A1 (en) Method for training at least one algorithm for a control unit of a motor vehicle, computer program product, motor vehicle and system
DE102016212700A1 (en) Method and system for controlling a vehicle
DE112017006567T5 (en) AUTONOMOUS VEHICLE WITH DRIVER TRAINING
DE102019134408A1 (en) Self-learning network of neural network models for safety-relevant applications in the vehicle for the detection and classification of objects in the vicinity of the vehicle with the help of a deep learning process
DE102019215902A1 (en) Method for determining a quality level of data sets from sensors
DE102020101060B4 (en) Self-learning ultrasonic measuring system in the vehicle for the detection and classification of objects in the vehicle's surroundings with a multiplanar reformatter
DE102021128041A1 (en) IMPROVEMENT OF A VEHICLE NEURAL NETWORK
DE102020100996A1 (en) Ultrasonic measuring system with a self-learning AI control of microbeamformers in the vehicle
DE102019216206A1 (en) Device and method for determining a U-turn strategy of an autonomous vehicle
DE102020128978A1 (en) TRAINING DEEP NEURAL NETWORKS WITH SYNTHETIC IMAGES
DE102018210375A1 (en) Driver assistance system, vehicle, method for operating the driver assistance system, computer program and computer-readable storage medium
DE102020101000B4 (en) Ultrasonic measurement system in the vehicle with a Doppler processor as a feature extractor for a self-learning neural network
DE102020101036B4 (en) Self-learning ultrasonic measuring system in the vehicle for the detection and classification of objects in the vehicle's surroundings with a volume renderer
DE102020214596A1 (en) Method for generating training data for a recognition model for recognizing objects in sensor data of an environment sensor system of a vehicle, method for generating such a recognition model and method for controlling an actuator system of a vehicle
EP3748453A1 (en) Method and device for automatically executing a control function of a vehicle
EP4022589A1 (en) Automated detection of abnormal behaviour of a road user
EP3748454A1 (en) Method and device for automatically executing a control function of a vehicle
DE102022109385A1 (en) Reward feature for vehicles
DE102014118624A1 (en) Method for simulatively determining an interaction between a sensor of a motor vehicle and a virtual object in a virtual surrounding area of the motor vehicle and computing device
DE102020209987A1 (en) Device and method for processing environmental sensor data
DE102019217225A1 (en) Method for training a machine learning system for an object recognition device
DE102022102501B3 (en) Method, system and computer program product for determining an assessment of the functionality of a component of a motor vehicle
DE102023000578A1 (en) Method for determining potential, future positions of a potential collision object using an adaptive system, and method for training a corresponding adaptive system

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: ELMOS SEMICONDUCTOR SE, DE

Free format text: FORMER OWNER: ELMOS SEMICONDUCTOR AKTIENGESELLSCHAFT, 44227 DORTMUND, DE