DE4001493A1 - Automatic control of vehicle motion - using ultrasonic object sensor providing input to learning process for vehicle control - Google Patents
Automatic control of vehicle motion - using ultrasonic object sensor providing input to learning process for vehicle controlInfo
- Publication number
- DE4001493A1 DE4001493A1 DE4001493A DE4001493A DE4001493A1 DE 4001493 A1 DE4001493 A1 DE 4001493A1 DE 4001493 A DE4001493 A DE 4001493A DE 4001493 A DE4001493 A DE 4001493A DE 4001493 A1 DE4001493 A1 DE 4001493A1
- Authority
- DE
- Germany
- Prior art keywords
- learning
- vehicle
- cycle
- sensors
- phase
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000008569 process Effects 0.000 title claims abstract description 13
- 238000013528 artificial neural network Methods 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 10
- 230000006399 behavior Effects 0.000 claims description 9
- 230000010365 information processing Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 210000002569 neuron Anatomy 0.000 claims description 5
- 230000001133 acceleration Effects 0.000 claims description 2
- 208000033748 Device issues Diseases 0.000 claims 1
- 230000003542 behavioural effect Effects 0.000 claims 1
- 238000003780 insertion Methods 0.000 claims 1
- 230000037431 insertion Effects 0.000 claims 1
- 230000004044 response Effects 0.000 claims 1
- 230000003319 supportive effect Effects 0.000 claims 1
- 230000007704 transition Effects 0.000 claims 1
- 230000008901 benefit Effects 0.000 abstract description 2
- 230000007935 neutral effect Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 7
- 238000004088 simulation Methods 0.000 description 5
- 210000002364 input neuron Anatomy 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000004205 output neuron Anatomy 0.000 description 2
- 101100102516 Clonostachys rogersoniana vern gene Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000011273 social behavior Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/87—Combinations of sonar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/93—Sonar systems specially adapted for specific applications for anti-collision purposes
- G01S15/931—Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Acoustics & Sound (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
Die Erfindung betrifft ein Verfahren und eine Einrichtung zur selbsttätigen Steuerung oder Steuerungsunterstützung von autonom oder teilautonom bewegbaren Geräten, wie Fahr zeugen, Robotern etc., mit den Merkmalen des Oberbegriffs des Anspruchs 1.The invention relates to a method and a device for automatic control or control support of autonomously or partially autonomously movable devices such as driving witnesses, robots etc., with the characteristics of the generic term of claim 1.
Bei einem bekannten Verfahren wird zur Verarbeitung der Sensorsignale ein herkömmlicher Rechner eingesetzt, der auf dem Prinzip des "von Neuman-Rechners" basiert, welcher mit Rechenwerk, Leitwerk und Speicher versehen ist und über Programme gesteuert wird.In a known method for processing the Sensor signals used a conventional computer, the on the principle of "von Neuman-based", which is based on Calculator, tail and memory is provided and over Programs is controlled.
Bei komplexen Realzeitaufgaben wie der Sensordatenverarbei tung für eine autonome Steuerung eines Fahrzeugs oder eines Roboterarmes, hat der Einsatz eines solchen konventionellen Rechners die folgenden Nachteile:For complex real-time tasks such as sensor data processing device for autonomous control of a vehicle or Robotic arm has the use of such a conventional one Calculator the following disadvantages:
- 1. Die Daten müssen in serieller Informationsverarbeitung von einem Rechenprogramm gesteuert durch das Rechenwerk geleitet und verrechnet werden. Dies ist zeitaufwendig.1. The data must be in serial information processing controlled by a computer program by the arithmetic unit managed and offset. This is time consuming.
- 2. Die Programmerstellung ist kompliziert und oft sehr zeitaufwendig.2. Program creation is complicated and often very difficult time consuming.
- 3. Das Systemwissen muß vorher explizit bekannt sein.3. The system knowledge must be explicitly known beforehand.
- 4. Nur lineare Zusammenhänge sind abbildbar. Synergetische oder komplexe kybernetische Systeme sind nicht abbildbar. 4. Only linear relationships can be mapped. Synergistic or complex cybernetic systems cannot be mapped.
- 5. Die Steuerung ist empfindlich bei Störungen der Sensor daten, des Verarbeitungsprogrammes und gegen Geräteaus fall (keine Fehlertoleranz).5. The controller is sensitive to sensor malfunctions data, the processing program and against the device fall (no fault tolerance).
Eine informationsverarbeitende Netzwerkstruktur, ein soge nanntes "Neuronales Netz", bezeichnet ein informationsverar beitendes System, das aus parallel arbeitsfähigen Prozesso ren besteht, die untereinander prinzipiell beliebig, meist jedoch nach hierarchischen Gesichtspunkten verknüpft sind, wobei die Prozessoren sowohl einfache als auch komplexe Rechenvorgänge ausführen können, die Verknüpfung der Prozes soren untereinander über multiplikative Verbindungen er folgt, welche über die Dauer der Informationsverarbeitung justierbar, also veränderlich gestaltet sind, und bestimmte Prozessoren des Systems die designierte Aufgabe übernehmen, mit der Umgebung Informationen auszutauschen.An information processing network structure, a so-called called "neural network", denotes an information processing processing system, which is made of parallel working processo ren exists, which in principle arbitrarily with each other, mostly but are linked from a hierarchical point of view, the processors being both simple and complex Calculations can perform the linking of the processes sensors among themselves via multiplicative connections follows which over the duration of information processing adjustable, that is to say changeable, and certain Processors of the system take on the designated task, exchange information with the environment.
Neuronale Netze sind bisher im wesentlichen Gegenstand theoretischer Untersuchungen mit dem Ziel gewesen, die durch die "von Neuman"-Architektur heutiger Rechner aufer legten Grenzen zu sprengen (Aufsatz "Natürliche und künst liche Intelligenz" von R. Opitz DE-Z Forum (Data General GmbH, 1984, S. 15-18)). Mithilfe von Strukturrechnern mit adaptiven, neuronalen Netzwerken, welche zahlreiche mitein ander verbundene Knoten, sogenannte Neuronen, aufweisen, suchen Forscher derzeit weltweit Funktionen bzw. Eigenschaf ten eines menschlichen Gehirnes zu verstehen, zu simulieren und letztendlich nachzubilden. Pragmatische Umsetzungen sind jedoch aufgrund fehlenden Verständnisses und von Trans ferschwierigkeiten der kybernetischen Zusammenhänge nicht anzutreffen. So sind keine praktischen Applikationen in industriell hergestellten Produkten bekannt.So far, neural networks have been the main subject theoretical investigations with the aim of due to the "von Neuman" architecture of today's computers set boundaries to be broken (essay "Natural and Art Intelligence "by R. Opitz DE-Z Forum (Data General GmbH, 1984, pp. 15-18)). With the help of structural calculators adaptive, neural networks, which are numerous have connected nodes, so-called neurons, Researchers are currently looking for functions and properties worldwide human brain, to simulate and ultimately replicate it. Pragmatic implementations However, due to a lack of understanding and of trans difficulties of the cybernetic connections to be found. So there are no practical applications in industrially manufactured products known.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Einrichtung der im Oberbegriff des Anspruchs 1 angege benen Art zu schaffen, bei denen die selbsttätige Steuerung oder Steuerungshilfe von Geräten, die in einer mindestens ein Hindernis aufweisenden Umgebung sich bewegen und eine Fahr- oder Bewegungsaufgabe besitzen, mit dem Ziel einer kollisionsfreien Umfahrung des Hindernisses oder der Hinder nisse und einer umgebungsangepaßten Rangieraufgabenabwick lung verbessert werden.The invention has for its object a method and a device specified in the preamble of claim 1 to create the same type in which the automatic control or control aid of devices that are in a minimum an obstacle-bearing environment and one Have a driving or movement task with the aim of one collision-free avoidance of the obstacle or obstacle nisse and a shunting tasks adapted to the environment lung can be improved.
Zur Lösung dieser Aufgabe dienen ein Verfahren mit den Merkmalen des Anspruchs 1 und eine Einrichtung mit den Merkmalen des Anspruchs 13.A method using the Features of claim 1 and a device with the Features of claim 13.
Vorteilhafte Ausgestaltungen der Erfindung sind in den Unteransprüchen angegeben.Advantageous embodiments of the invention are in the Subclaims specified.
Mit besonderem Vorteil ist die Erfindung zur selbsttätigen Steuerung von Fahrzeugen wie auch als Fahr- oder Rangier hilfe einsetzbar. Die Fahrzeugsteuerung mit einem Verfahren und einer Einrichtung nach der Erfindung ermöglicht nämlichThe invention is particularly advantageous for automatic operation Control of vehicles as well as driving or shunting help usable. The vehicle control with a procedure and a device according to the invention enables namely
- - eine Hinderniskollisionsvermeidung bei autonomer Fahrt, wobei sich eine Parallelfahrt zu Objekten, ein Durchfah ren von Toren und dgl. realisieren lassen;- avoiding an obstacle collision when driving autonomously, where a parallel trip to objects, a passage have gates and the like realized;
- - eine Fahrhilfe für einen das Fahrzeug normalerweise führenden Fahrer, beispielsweise beim Parken, bei der Nahbereichsnavigation oder bei der Rückwärtsfahrt;- a driving aid for the vehicle normally leading drivers, for example when parking, at the Short-range navigation or when reversing;
- - eine verbesserte Situationserkennung durch Klassifizieren einer Hindernis- oder Objektkontur;- Improved situation detection through classification an obstacle or object contour;
- - kooperatives Verhalten bei Überholfahrt und Ausweichmanö vern;- Cooperative behavior during overtaking and evasive maneuvers vern;
- - Vermeidung von Auffahrunfällen.- Avoiding rear-end collisions.
Die Anwendung eines Verfahrens und einer Einrichtung nach der Erfindung ermöglicht aber nicht nur vorteilhafte Lösun gen im Straßenverkehr sondern auch von Transportaufgaben in Fabriken, auf Bahnhöfen und Flughäfen sowie im Baustellen verkehr mit komplexen unüberschaubaren Umgebungsbedingungen.The application of a method and a facility according to the invention not only enables advantageous solutions conditions in road traffic but also of transport tasks in Factories, at train stations and airports as well as in construction sites traffic with complex unmanageable environmental conditions.
Durch die mindest zeitweise autonome Fahrzeugführung läßt sich menschliches Fehlverhalten bei der Fahrzeugführung weitgehend ausschalten.Due to the at least temporarily autonomous vehicle control human misbehavior when driving largely turn off.
Die Erfindung kann aber auch bei anderen bewegbaren Geräten, wie Robotern angewendet werden, bei denen die Steuerung der Roboterbewegung mithilfe herkömmlicher Rechner höchst um ständlich und zeitaufwendig ist und stets auch einer aufwen digen Programmierung bedarf, insbesondere in hostiler, chaotischer und dynamisch sich verändernder bzw. von vorne herein unbekannter Umgebung.However, the invention can also be used with other movable devices, how robots are used where the control of the Robots move around using conventional computers is time consuming and time consuming and always one programming, especially in hostiler, chaotic and dynamically changing or from the front in unknown surroundings.
Eine Programmierung entfällt beim Einsatz eines neuronalen Netzwerkes. Es ist für die Zwecke der Erfindung möglich, einen herkömmlichen von-Neuman-Rechner zur Simulation eines neuronalen Netzes einzusetzen. Zum Bereitstellen höherer Realzeitfähigkeit werden vorteilhaft jedoch statt eines herkömmlichen Rechners "echte" neuronale Rechner eingesetzt, die über sogenannte Neurochips verfügen.Programming is not necessary when using a neural Network. It is possible for the purposes of the invention a conventional von Neuman computer to simulate a neural network. To provide higher However, real-time capabilities are advantageous instead of one conventional computers used "real" neural computers, which have so-called neurochips.
Die Erfindung ist im folgenden anhand von Zeichnungen mit weiteren Einzelheiten näher erläutert.The invention is in the following with reference to drawings further details explained.
Es zeigen:Show it:
Fig. 1 ein Schema eines mit einer Steuerung gemäß der Erfindung ausgerüsteten autonomen oder teilauto nomen Fahrzeuges; Figure 1 is a schematic of an equipped with a controller according to the invention autonomous or semi-autonomous vehicle.
Fig. 2 ein Schema der Simulation der Lernphase einer autonomen Fahrzeugführung; Fig. 2 is a diagram of simulation of the learning phase of an autonomous vehicle guidance;
Fig. 3 ein Schema der Simulation der Kannphase einer autonomen Fahrzeugführung; Fig. 3 is a schematic of the simulation can phase of an autonomous vehicle guidance;
Fig. 4 und 5 Bildschirmdarstellungen während der Konfigura tionsphase und der Lernphase; FIGS. 4 and 5 screens during Configurati phase and the learning phase;
Fig. 6 und 7 Bildschirmdarstellungen vor dem Start der Lernphase und beim Training des neuronalen Netz werkes; FIGS. 6 and 7 screens before the start of the learning phase, and in training the neural network;
Fig. 8 eine kombinierte Bildschirmdarstellung während der Kannphase; Fig. 8 is a combined screen display during the can phase;
Fig. 9 ein Beispiel für den Aufbau eines neuronalen Netzwerkes nach der Erfindung für autonome Fahr zeugführung im Verkehr. Fig. 9 shows an example of the structure of a neural network according to the invention for autonomous vehicle management in traffic.
Im Schema nach Fig. 1 sind an einem Fahrzeug 2 insgesamt neun Ultraschallsensoren 4 mit Meßkeulen 8 angeordnet, deren Ausgangssignale an die Eingänge 8 eines Vorprozessors 10 zur binären Kodierung abgegeben werden. An den Ausgängen 12 dieses Vorprozessors 10 liegen siebenundzwanzig Ausgangs signale in binärer Form vor. Diese siebenundzwanzig Aus gangssignale werden an eine Eingangsschnittstelle eines insgesamt mit dem Bezugszeichen 14 bezeichneten neuronalen Netzwerkes eingegeben und von dort über die mit 16 bezeich neten Neuronen in Form von Ausgangssignalen 18 zu einer Wandlervorrichtung 20 weitergegeben, welche die Ausgangssig nale in Steuersignale 22 wandelt, deren Anzahl der Anzahl der auszuführenden Fahrfunktionen (Beschleunigen/Bremsen) entspricht. Diese Signale werden in insgesamt mit dem Be zugszeichen 24 bezeichnete Aktuatoren (Bremsen/Antriebe) des Fahrzeuges zur Auslösung der gewünschten Fahrfunktion einge geben, wie in Fig. 1 mit einer Fächer von Pfeilen angedeutet ist.In the scheme of Fig. 1 nine ultrasonic transducers 4 are arranged with Meßkeulen 8 on a vehicle 2 in total, whose output signals are supplied to the inputs 8 of a preprocessor 10 for binary coding. At the outputs 12 of this preprocessor 10 there are twenty-seven output signals in binary form. These twenty-seven output signals are input to an input interface of a neural network designated as a whole by reference numeral 14 and from there via the neurons denoted by 16 in the form of output signals 18 to a converter device 20 which converts the output signals into control signals 22 , the number thereof corresponds to the number of driving functions to be performed (acceleration / braking). These signals are entered into actuators (brakes / drives) of the vehicle designated as a whole with the reference numeral 24 for triggering the desired driving function, as indicated in FIG. 1 with a fan of arrows.
Die dadurch ausgelöste Fahrfunktion führt zu neuen Sensor signalen, die wie beschrieben erneut verarbeitet werden.The driving function triggered by this leads to new sensors signals that are reprocessed as described.
Fig. 2 zeigt ein Übersichtsschema einer Simulation der mit einem System nach Fig. 1 durchführbaren Steuerung mittels zweier Personalcomputer PC1 und PC2. FIG. 2 shows an overview diagram of a simulation of the control which can be carried out with a system according to FIG. 1 by means of two personal computers PC 1 and PC 2 .
In dem mit 26 bezeichneten Block der Fig. 2 wird auf dem Bildschirm des PC1 ein sogenannter Fahrgrund durch Aufbauen von Hindernissen in einem zweidimensionalen Feld erstellt.In the block designated by 26 in FIG. 2, a so-called driving reason is created on the screen of the PC 1 by building up obstacles in a two-dimensional field.
Im Block 28 wird durch fremdgesteuertes Führen des Fahrzeugs durch den Fahrgrund längs einer gewählten zu lernenden Bahn eine Lerndatei erstellt.In block 28 , a learning file is created by externally controlled guidance of the vehicle through the driving ground along a selected path to be learned.
Im Block 30 wird auf dem Bildschirm des PC2 das neuronale Netzwerk 14 nach Fig. 1 mit der Lerndatei trainiert.In block 30 , the neural network 14 according to FIG. 1 is trained with the learning file on the screen of the PC 2 .
In Fig. 3 ist schematisch das Fahren des Fahrzeugs in der "Kannphase" dargestellt. Hier sind die beiden Personalcom puter PC1 und PC2 sehr interaktiv zusammengeschaltet. Auf dem Bildschirm des PC1 wird gemäß der Darstellung im Block 32 festgestellt, wie das Fahrzeug in dem mit Block 26 er stellten Fahrgrund autonom, d. h. von dem neuronalen Netzwerk 14 gesteuert fährt. Im Block 34 werden das trainierte Netz werk und die Sensoren auf dem Bildschirm des PC2 darge stellt.In Fig. 3, the driving of the vehicle is shown in the "can phase" schematically. Here the two personal computers PC 1 and PC 2 are interconnected very interactively. On the screen of the PC 1 , as shown in block 32, it is determined how the vehicle is traveling autonomously, ie controlled by the neural network 14 , in the driving reason set with block 26 . In block 34 , the trained network and the sensors on the screen of the PC 2 are Darge.
In den Fig. 4 und 5 sind die Bildschirmdarstellungen gemäß den Blöcken 26 und 28 in Fig. 2 detailliert dargestellt.In Figs. 4 and 5, the screen images according to blocks 26 and 28 in Fig. 2 in detail.
In den Fig. 4 und 5 sind Hindernisse durch dunkel gefärbte Kreise 27, Rechtecke 29, 31 und einen Winkel 33 symbolisiert. Diese Hindernisse werden gemäß Fig. 4 zu der gezeigten Konfiguration, d. h. einem "Fahrgrund" durch Betätigen einer nicht gezeigten Maus plaziert. Unter dem eigentlichen Bildschirm 36 des PC1 sind Tasten 38 bis 46 gezeichnet, welche durch Antippen die Funktion "Laden", "Speichern", "neu", "Hilfe" und "zurück" ausführen können.In Figs. 4 and 5 obstacles by dark-colored circles 27, rectangles 29, 31 and an angle 33 are symbolized. These obstacles are placed according to FIG. 4 to the configuration shown, ie a "driving reason" by operating a mouse, not shown. Keys 38 to 46 are drawn under the actual screen 36 of the PC 1 and can be tapped to perform the "Load", "Save", "New", "Help" and "Back" functions.
Bestehende Fahrgründe können verändert werden. Dazu ist das Feld "Laden" aufzurufen und der Name des Fahrgrundes anzu geben.Existing driving reasons can be changed. That’s it Call up the "Load" field and display the name of the driving reason give.
Mit "Speichern" können modifizierte oder neu erstellte Fahrgründe gespeichert werden.With "Save" modified or newly created Driving reasons are saved.
Mit der Taste "neu" kann die Fläche jederzeit gelöscht und ein neuer Fahrgrund erstellt werden.With the button "new" the area can be deleted at any time and a new driving reason can be created.
Durch Betätigen der Taste "zurück" kann die Konfigurati onsphase beendet und ins Hauptmenü gesprungen werden.By pressing the "back" button, the configurati ons phase and jump to the main menu.
Gemäß der Darstellung in Fig. 5 wird nach Erstellen eines Fahrgrundes auf dem Bildschirm 36 des PC1 ein simuliertes Fahrzeug 50 in den Fahrgrund plaziert und fremdgesteuert längs eines Lernparcours durch den Fahrgrund gesteuert, der mittels einer strichpunktierten Linie 52 in Fig. 5 angedeu tet ist.According to the illustration in FIG. 5, after creating a driving reason on the screen 36 of the PC 1, a simulated vehicle 50 is placed in the driving reason and controlled externally along a learning course through the driving reason, which is indicated by means of a dash-dotted line 52 in FIG. 5 .
Über die Tasten 38 bis 46 werden in diesem Fall die Funkti onen "Laden", "Start", "Stop", "Hilfe" und "zurück" einge stellt.In this case, the functions "Load", "Start", "Stop", "Help" and "Back" are set using keys 38 to 46 .
In dem rechts vom Bildschirm 36 dargestellten Feld 37 ist die Fahrtrichtung ablesbar, in welche das Fahrzeug 50 auf dem Bildschirm mittels einer Windrose fremdgesteuert wird.The direction of travel into which the vehicle 50 is externally controlled on the screen by means of a wind rose can be read in the field 37 shown on the right of the screen 36 .
Bevor ein neuronales Netzwerk trainiert werden kann, muß es dimensioniert und parametriert werden. Da neun Sensoren 4 am Fahrzeug 2 vorgesehen sind und deren Werte mit drei bit codiert werden, beträgt die Größe des Inputvektors und damit die Anzahl der Neuronen 16 an der Eingangsschnittstel le insgesamt siebenundzwanzig. Bei dem gezeigten Beispiel besteht der Outputvektor aus vier bit, obwohl acht Fahrmög lichkeiten in der Einheit 20 codiert sind.Before a neural network can be trained, it must be dimensioned and parameterized. Since nine sensors 4 are provided on vehicle 2 and their values are coded with three bits, the size of the input vector and thus the number of neurons 16 at the input interface is a total of twenty-seven. In the example shown, the output vector consists of four bits, although eight driving possibilities are coded in the unit 20 .
Es besteht somit die Möglichkeit, die Topologie inklusive sogenannter "versteckter Ebenen" zu variieren, sowie die Lernparameter zu verändern. Diese Parameter werden im neuro nalen Simulator in einer Tabelle eingetragen. In dieser Tabelle entspricht ein Koeffizient I dem Lernparameter η und ein Koeffizient II dem Momenten-Term α. Für eine opti male Wahl der Parameter η, α werden in der Literatur für andere Fälle die Werte η=0,9 und α=0,6 empfohlen. Andere Werte können jedoch erfahrungsgemäß zu schnellerer Konver genz führen.It is therefore possible to include the topology so-called "hidden levels" to vary, as well as the Change learning parameters. These parameters are in the neuro nal simulator entered in a table. In this In the table, a coefficient I corresponds to the learning parameter η and a coefficient II the moment term α. For an opti Male choice of parameters η, α are used in the literature for other cases the values η = 0.9 and α = 0.6 are recommended. Other Experience has shown that values can convert to faster lead.
Nachfolgend wird die Durchführung einer Lernphase auf dem neuronalen Simulator anhand der Fig. 6 und 7 erläutert. Zu Beginn wird im Simulator ein neuronales Netzwerk mit sieben undzwanzig Input-Neuronen, vier Output-Neuronen und einer beliebigen Anzahl und Größe von versteckten Ebenen aufge baut. Dieses Netz wird mit Zufallswerten aus einem kleinen Wertebereich (-0,1/01) initialisiert. Nun kann der Lernvor gang gestartet werden. Die Input-Neuronen sind in dem Block 30 (gemäß Fig. 2), welcher den Bildschirm des PC2 symboli siert, mit der Bezugszahl 56 und die Output-Neuronen mit der Bezugszahl 58 bezeichnet. Unterhalb der Input-Neuronen 56 sind eine OK-Taste 60 und eine Löschtaste 62 dargestellt. Darunter sind drei Fenster 64, 66 und 68 dargestellt, wobei in den Fenstern 64, 66 der Hinweis erscheint, daß eine Kon vergenzdatei und eine Informationsdatei angelegt werden. Im Fenster 68 erscheint zur Bestätigung der Name der Lerndatei. Durch Anklicken der OK-Taste wird der Lernvorgang gestartet. The implementation of a learning phase on the neural simulator is explained below with reference to FIGS. 6 and 7. Initially, a neural network with twenty-seven input neurons, four output neurons and any number and size of hidden levels is built up in the simulator. This network is initialized with random values from a small range of values (-0.1 / 01). The learning process can now be started. The input neurons are denoted in block 30 (according to FIG. 2), which symbolizes the screen of the PC 2 , with the reference number 56 and the output neurons with the reference number 58 . An OK key 60 and a delete key 62 are shown below the input neurons 56 . Three windows 64 , 66 and 68 are shown below, the window 64 , 66 indicating that a convergence file and an information file are being created. The name of the learning file appears in window 68 for confirmation. The learning process is started by clicking the OK button.
Die Konvergenzdatei dient dazu, den Ablauf des Lernvorganges bei längeren Lernzeiten (2 Stunden bis 3 Tage) nachvoll ziehen zu können. Nach jedem Lernzyklus, d. h. nach vollstän digem Durchlauf durch die Lerndatei, werden der globale Fehler des Netzes, die Anzahl der Zyklen und die Anzahl der Felder beim letzten Durchlauf der Lerndatei eingetragen.The convergence file is used to run the learning process in case of longer learning periods (2 hours to 3 days) to be able to pull. After each learning cycle, i.e. H. after complete dig through the learning file, the global Network errors, the number of cycles and the number of Fields entered during the last run of the learning file.
Die Konvergenzdatei kann bei längerer Lerndauer bis zu 100 KB groß werden. Mithilfe der Konvergenzdatei kann ein Über schreiten lokaler Minima sowie die Konvergenzgeschwindigkeit erkannt werden.The convergence file can last up to 100 for longer learning periods KB grow big. Using the convergence file, an over pace local minima as well as the rate of convergence be recognized.
Die Informationsdatei besteht in jedem Fall nur aus vier
Zeilen. Diese Zeilen werden nach jedem Lernzyklus aufs neue
in die Informationsdatei eingetragen. Der Inhalt sieht z. B.
folgendermaßen aus:
Anzahl Lernschritte - 60 792
Anzahl Zyklen - 447
Anzahl Muster - 136
globaler Fehler - 0,057In any case, the information file consists of only four lines. These lines are entered in the information file again after each learning cycle. The content looks e.g. B. from:
Number of learning steps - 60 792
Number of cycles - 447
Number of samples - 136
global error - 0.057
Diese Datei gibt somit den aktuellen Lernzustand des neuro nalen Netzwerkes an. Dies ermöglicht ein Abbrechen des Lernvorgangs und ein späteres Weitertrainieren des Netzes.This file gives the current learning status of the neuro network. This allows you to cancel the Learning process and a later training of the network.
In Fig. 7 ist das Training des neuronalen Netzwerkes darge stellt. Wurde die OK-Taste 60 gedrückt, so ist die Darstel lung auf dem Bildschirm 30 etwa folgendermaßen:In Fig. 7 the training of the neural network is Darge presents. If the OK button 60 was pressed, the display on the screen 30 is approximately as follows:
Im Teil unterhalb der Input-Neuronen 56 werden die Anzahl der Muster, die Anzahl der Darstellungen, die Anzahl der Zyklen (Durchläufe durch die Lerndatei), die Anzahl der Fehler im aktuellen Zyklus sowie der globale Fehler, der nach jedem Zylkus neu berechnet wird, in der Zeile 70 ange zeigt. In der Sensorikzeile 72 werden aus der Lerndatei gelesene und in einen binären Input-Vektor kodierte Werte angezeigt. Oberhalb des Netzwerkes werden im Feld 74 der aktuelle Output des Netzes und im Feld 76 der gewünschte, d. h. der zu trainierende Output angezeigt.In the part below the input neurons 56 , the number of patterns, the number of representations, the number of cycles (passes through the learning file), the number of errors in the current cycle and the global error, which is recalculated after each cycle, shown in line 70 . Values read from the learning file and encoded in a binary input vector are displayed in sensor line 72 . Above the network, the current output of the network is displayed in field 74 and the desired, ie the output to be trained, is displayed in field 76 .
Im Normalfall wird der globale Fehler stetig kleiner werden. Wenn der globale Fehler sich sehr nahe bei Null befindet und sich über mehrere Zyklen hinweg nicht mehr verändert, kann der Lernvorgang abgebrochen werden. Dabei muß der Fehler pro Zyklus nicht unbedingt Null sein. Bei sehr großen Lerndateien (mehr als 500 Muster) kann es zu sich widerspre chenden Lernmustern kommen. In diesem Fall wird der globale Fehler auf eine Zahl zwischen drei und zehn konvergieren und noch einige Fehler pro Zyklus aufweisen. Diese können selektiert und korrigiert werden. Trotzdem ist das Netz aus reichend trainiert und kann in der Kannphase ausprobiert werden. Der Lernvorgang wird mittels einer nicht dargestell ten "Escape"-Taste abgebrochen.In general, the global error will steadily decrease. When the global error is very close to zero and doesn't change over several cycles, the learning process can be canceled. The Errors per cycle are not necessarily zero. With very large ones Learning files (more than 500 patterns) can contradict themselves learning patterns. In this case, the global Errors converge to a number between three and ten and still have some errors per cycle. these can selected and corrected. Nevertheless, the network is off adequately trained and can be tried in the can phase will. The learning process is not shown using a ten "Escape" key canceled.
In Fig. 8 ist die Kannphase durch interaktives Zusammenwir ken der beiden Personalcomputer PC1 und PC2 und Darstellung von deren beiden Bildschirmen 28 und 30 dargestellt.In Fig. 8, the optional phase is shown by interactive interaction between the two personal computers PC 1 and PC 2 and the representation of their two screens 28 and 30 .
Durch Betätigen der Taste 38 wird ein gewünschter Fahrgrund im Bildschirm des PC1 dargestellt und das Fahrzeug 50 wie gezeigt positioniert.By pressing the key 38 , a desired driving reason is displayed on the screen of the PC 1 and the vehicle 50 is positioned as shown.
Auf dem PC2 wird der Simulator gestartet und das zum Fahr grund gemäß PC1 trainierte neuronale Netz geladen und ge startet, wobei sich der in Fig. 8 rechts dargestellte Bild schirmaufbau ergibt. Durch Anwählen der Taste 40 wird die Simulation gestartet.On the PC 2 , the simulator is started and the neural network trained for driving in accordance with PC 1 is loaded and started, resulting in the screen structure shown on the right in FIG. 8. The simulation is started by pressing key 40 .
Auf dem Bildschirm 36 des PC1 sieht man das Fahrzeug 50 autonom durch das neuronale Netzwerk auf PC2 gesteuert um die Hindernisse herum fahren. Werden die Hindernisse ge schnitten oder überfahren, so bedeutet dies, daßOn the screen 36 of the PC 1 , the vehicle 50 can be seen to drive autonomously through the neural network on the PC 2 around the obstacles. If the obstacles are cut or run over, this means that
- - das Netz nicht ausreichend trainiert wurde,- the network has not been adequately trained,
- - die Lerndatei zu wenig Lernmuster enthielt,- the learning file contained too few learning patterns,
- - die Lerndatei zu viele sich widersprechende Input-Output- Relationen aufwies,- the learning file too many contradicting input-output Had relations,
- - ein falscher Fahrgrund geladen wurde.- the wrong driving reason has been loaded.
Da durch Neupositionieren des Fahrzeuges und erneutes Star ten eine andere Bahn gefunden werden kann, sollten einige Starts an verschiedenen Ausgangspositionen ausprobiert werden.Because by repositioning the vehicle and starting again Another path can be found, some should Tried out starts at different starting positions will.
Wenn auch kein perfektes Fahrverhalten erwartet werden kann, sollte doch ein prinzipiell an den aufgebauten Hinder nissen orientiertes Fahrverhalten, wie reflexives Ausweichen an den Hindernissen, offensichtlich werden.Even if perfect driving behavior is not expected can, but should in principle to the built obstacle nissen-oriented driving behavior, such as reflexive avoidance at the obstacles, become obvious.
Auf dem Bildschirm des PC2 erkennt man in der Zeile 70 die aktuellen Sensorik-Werte, den kodierten Input-Vektor, den Output-Vektor, sowie die aktuelle Fahrtrichtung des Fahrzeu ges 50.Line 70 on the screen of PC 2 shows the current sensor values, the coded input vector, the output vector and the current direction of travel of vehicle 50 .
Die Kannphase wird durch Drücken der Stop-Taste 42 beendet.The optional phase is ended by pressing the stop button 42 .
Bei dem beschriebenen Beispiel ist das autonome Fahren eines Fahrzeugs 50 nach dem Lernen eines Hindernisumfahrens auf einem vorgegebenen Fahrgrund (Fig. 4) dargestellt.In the example described, the autonomous driving of a vehicle 50 after learning to drive around an obstacle is shown on a predetermined driving surface ( FIG. 4).
Jedoch läßt sich die Erfindung auch auf mehrere solche Fahrzeuge zum Trainieren kooperativen Fahrverhaltens solcher mehrerer Fahrzeuge anwenden. Dabei ist nach dem Erstellen eines Fahrgrundes und einer Lerndateigenerierung sowie einem Training am Lernfahrzeug ein trainiertes Netz zur Steuerung aller Fahrzeuge anzustreben, wobei die Fahrzeuge frei wählbar positionierbar sind und ein kollisionsfreies simultanes autonomes Fahren aller Fahrzeuge das endgültige Lernziel ist.However, the invention can also be applied to several such Vehicles for training cooperative driving behavior use multiple vehicles. It is after creating a driving reason and a learning file generation as well a trained network for training on the learning vehicle Aim to control all vehicles, with the vehicles freely selectable and collision-free simultaneous autonomous driving of all vehicles the final Learning objective is.
Ein Beispiel für den Aufbau der Gesamtarchitektur eines Lernfahrzeuges mit neuronalem Netzwerk ist in Fig. 9 darge stellt. Es beinhaltet Fahrstrategie, Wegplanung, Objekter kennung, Landkarten und ein Lernmodul.An example of the structure of the overall architecture of a learning vehicle with a neural network is shown in Fig. 9 Darge. It includes driving strategy, route planning, object recognition, maps and a learning module.
Dabei sind in den beiden unteren ovalen Feldern 80, 82 Sen soren für die Gesamtposition des Fahrzeuges und Entfernungs meßsensoren sowie in dem oberen ovalen Feld 84 Aktuatoren zur Betätigung der verschiedenen Fahrfunktionen angedeutet.Here, in the two lower oval fields 80 , 82 sen sensors for the overall position of the vehicle and distance measuring sensors as well as 84 actuators for actuating the various driving functions are indicated in the upper oval field.
Das Feld 86 enthält eine map mit Umgebungshindernissen, während das Feld 88 eine map mit sonstigen Umgebungseigen schaften enthält.Field 86 contains a map with environmental obstacles, while field 88 contains a map with other environmental properties.
Im Feld 90 ist ein Hindernis-Klassifizierer angedeutet. Den Feldern 86, 88, 90 sind Felder 92, 94, 96 nachgeschaltet. Dabei enthält das Feld 92 einen Modul für Lernen nach einem über geordneten Lernziel. Das Feld 94 enthält eine Optimierungs- Vorrichtung für die Wegplanung. Das Feld 96 enthält einen Baustein zum Entwickeln von Fahrstrategien. Zwischen das Aktuatorik-Feld 84 und die Felder 94, 96 ist eine Steuerein richtung zur assoziativen Aktuatorik-Steuerung angeordnet.An obstacle classifier is indicated in field 90 . Fields 86 , 88 , 90 are followed by fields 92 , 94 , 96 . Field 92 contains a module for learning according to an overarching learning goal. Field 94 contains an optimization device for route planning. Field 96 contains a module for developing driving strategies. A control device for associative actuator control is arranged between the actuator field 84 and the fields 94 , 96 .
Mit dem beschriebenen Verfahren und der beschriebenen Ein richtung gemäß der Erfindung lassen sich folgende vorteil hafte Wirkungen erzielen:With the described method and the described A direction according to the invention can be the following advantage achieve adhesive effects:
- 1. Beim Training eines Simulationsfahrzeuges mit Sensorik, Aktuatorik und einem neuronalen Netzwerk stellte sich heraus, daß gefahrene Bahnen in Hinderniskursen teilweise abstrahiert (Reflexverhalten) gespeichert wurden und nach Wiederabruf ein ähnliches Fahrverhalten durch das Netzwerk für das Fahrzeug erzielbar war.1. When training a simulation vehicle with sensors, Actuators and a neural network turned out out that driven tracks in obstacle courses partially were abstracted (reflex behavior) and after recall a similar driving behavior by the Network was achievable for the vehicle.
- 2. Es war nicht wie bisher notwendig, Fahrzeugsteuerungen und Fahrverhalten mit erheblichem Aufwand zu pro grammieren.2. It was not, as previously necessary, vehicle controls and driving behavior with considerable effort to pro gramming.
- 3. Die Fehlertoleranz gegen Sensorstörungen war sehr hoch.3. The fault tolerance against sensor faults was very high.
- 4. Neben dem Training von Einzelhindernisfahrten waren sehr komplexe Fahrsituationen ohne mathematische Aufbereitung erlernbar.4. In addition to training individual obstacle rides were very complex driving situations without mathematical preparation learnable.
- 5. Bei Verwendung mehrerer Fahrzeuge mit Steuerung war durch ein Netzwerk kooperatives Fahrverhalten erreichbar (Ausweichmanöver, Fahrstrategien).5. When using multiple vehicles with controls achievable through a network of cooperative driving behavior (Evasive maneuvers, driving strategies).
- 6. Es konnte eine vollkommen neue Art und Qualität der Leistungserzeugung durch "Lernen an Beispielen" mittels einer Lernphase (Training durch Beispiele) und einer Kannphase (Abruf der Informationen aus dem Netz) und die Informationsspeicherung erreicht werden.6. It could be a completely new type and quality of Power generation through "learning from examples" using a learning phase (training with examples) and an optional phase (retrieval of information from the Network) and information storage can be achieved.
- 7. Die Abdeckung komplexer Informationsrepräsentationen ist sehr hoch.7. The coverage of complex information representations is very high.
- 8. Die Abrufzeitkonstante liegt im Bereich von Millisekun den. Dies ist um Faktoren höher als konventionelle KI- Systeme und eignet dieses Verfahren für diverse Realzeit aufgaben der Regelung und Steuerung von kybernetischen Prozessen.8. The polling time constant is in the millisecun range the. This is a factor higher than conventional AI Systems and is suitable for various real-time processes tasks of regulating and controlling cybernetic Processes.
- 9. Das Lernen nach dem beschriebenen Beispiel kann durch Lernen nach einem übergeordneten Lernziel (Reinforcement Learning) und ein Versuchsmodul ersetzt werden. Damit entstehen Systemarchitekturen.9. Learning according to the example described can by Learning according to a higher learning goal (reinforcement Learning) and an experimental module. In order to system architectures emerge.
- 10. Die simulierten Netzwerke können nach Training in neuro nale VLSI-Implementationen umgesetzt und in Produkten verwendet werden.10. The simulated networks can be trained in neuro VLSI implementations implemented and in products be used.
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4001493A DE4001493A1 (en) | 1990-01-19 | 1990-01-19 | Automatic control of vehicle motion - using ultrasonic object sensor providing input to learning process for vehicle control |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4001493A DE4001493A1 (en) | 1990-01-19 | 1990-01-19 | Automatic control of vehicle motion - using ultrasonic object sensor providing input to learning process for vehicle control |
Publications (1)
Publication Number | Publication Date |
---|---|
DE4001493A1 true DE4001493A1 (en) | 1991-07-25 |
Family
ID=6398398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4001493A Ceased DE4001493A1 (en) | 1990-01-19 | 1990-01-19 | Automatic control of vehicle motion - using ultrasonic object sensor providing input to learning process for vehicle control |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE4001493A1 (en) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4218599A1 (en) * | 1992-06-05 | 1993-12-16 | Bodenseewerk Geraetetech | Navigation and guidance system for autonomous mobile robots - has sensors for input to neuronal network based controller that has learning capacity to determine direction and motion commands |
EP0582236A1 (en) * | 1992-08-04 | 1994-02-09 | Takata Corporation | Vehicle crash predictive and evasive operation system by neural networks |
EP0718732A3 (en) * | 1994-11-15 | 1996-08-28 | Alexander Kaske | Method and device for controlling an autonomous exploring robot |
DE19517198C1 (en) * | 1995-05-11 | 1996-10-10 | Samson Ag | Controlling stroke position of regulating member |
DE19523111A1 (en) * | 1995-06-26 | 1997-01-02 | Daimler Benz Ag | Regulation of distance between motor vehicles, between vehicle behind and vehicle in front |
DE10226140A1 (en) * | 2002-06-13 | 2004-01-08 | Kuka Roboter Gmbh | Method, for preventing collisions between industrial robots and other objects, involves checking predicted path configuration by distance/obstruction algorithms, stopping robot/other objects if collision impending |
US6678582B2 (en) | 2002-05-30 | 2004-01-13 | Kuka Roboter Gmbh | Method and control device for avoiding collisions between cooperating robots |
DE10324517A1 (en) * | 2003-05-28 | 2004-12-16 | Daimlerchrysler Ag | Robot and teaching method therefor, for controlling the area in which the robot operates, is based on definition of permitted and forbidden movement areas in a computer model defining the robot's range of movement |
EP1659471A1 (en) * | 2004-11-17 | 2006-05-24 | Hitachi, Ltd. | Autonomous mobile equipment with position-of-object and own position detecting system |
DE19704983B4 (en) * | 1997-01-29 | 2006-07-06 | Diehl Bgt Defence Gmbh & Co. Kg | Autonomous system, especially autonomous platform |
DE102006044086B4 (en) * | 2006-09-20 | 2013-05-29 | Audi Ag | System and method for the simulation of traffic situations, in particular accident-critical dangerous situations, as well as a driving simulator |
DE102016009655A1 (en) | 2016-08-09 | 2017-04-06 | Daimler Ag | Method for operating a vehicle |
CN107491072A (en) * | 2017-09-05 | 2017-12-19 | 百度在线网络技术(北京)有限公司 | Vehicle obstacle-avoidance method and apparatus |
DE102016218232A1 (en) | 2016-09-22 | 2018-03-22 | Volkswagen Aktiengesellschaft | A mobile unit positioning system, vehicle, and method of operating a positioning system |
DE102017108348B3 (en) | 2017-04-20 | 2018-06-21 | Valeo Schalter Und Sensoren Gmbh | Configuration of a sensor system with a neural network for a motor vehicle |
DE102017121581A1 (en) | 2017-09-18 | 2019-03-21 | Valeo Schalter Und Sensoren Gmbh | Use of a method for processing ultrasonically obtained data |
DE102017123388A1 (en) | 2017-10-09 | 2019-04-11 | Valeo Schalter Und Sensoren Gmbh | Position determination by means of ultrasound using an artificial neural network |
DE102017127600A1 (en) * | 2017-11-22 | 2019-05-23 | Connaught Electronics Ltd. | Method for automatic parking for a motor vehicle with a driving support system |
DE102018205050A1 (en) * | 2018-04-04 | 2019-10-10 | Zf Friedrichshafen Ag | Recognition of a passenger's request to be transported by a passenger transport vehicle |
CN111542836A (en) * | 2017-10-04 | 2020-08-14 | 华为技术有限公司 | Method for selecting action for object by using neural network |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4875172A (en) * | 1984-09-28 | 1989-10-17 | Yutaka Kanayama | Locomotion-command method for mobile robots |
-
1990
- 1990-01-19 DE DE4001493A patent/DE4001493A1/en not_active Ceased
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4875172A (en) * | 1984-09-28 | 1989-10-17 | Yutaka Kanayama | Locomotion-command method for mobile robots |
Non-Patent Citations (4)
Title |
---|
FUJIWARA, K., u.a.: Development of Guidless Robot Vehicle, In: Proc. of 11th Intern. Symposium on Industrial Robots 1981, S. 203-210 * |
KLAR, H., RAMACHER, U.: Microelectronics for Artificial Neural Nets Fortschr. Ber. VDI Reihe 21 Nr. 42 Düsseldorf: VDI-Verlag 1989 * |
LEVI, P.: Autonome mobile Roboter, In: Technische Rundschau, 1987, H. 13, S. 126-135 * |
OPITZ, R.: Natürliche und künstliche Intelligenz In: Forum(Data General GmbH) 1984, S. 15-18 * |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4218599A1 (en) * | 1992-06-05 | 1993-12-16 | Bodenseewerk Geraetetech | Navigation and guidance system for autonomous mobile robots - has sensors for input to neuronal network based controller that has learning capacity to determine direction and motion commands |
EP0582236A1 (en) * | 1992-08-04 | 1994-02-09 | Takata Corporation | Vehicle crash predictive and evasive operation system by neural networks |
US5541590A (en) * | 1992-08-04 | 1996-07-30 | Takata Corporation | Vehicle crash predictive and evasive operation system by neural networks |
EP0718732A3 (en) * | 1994-11-15 | 1996-08-28 | Alexander Kaske | Method and device for controlling an autonomous exploring robot |
DE19517198C1 (en) * | 1995-05-11 | 1996-10-10 | Samson Ag | Controlling stroke position of regulating member |
DE19523111A1 (en) * | 1995-06-26 | 1997-01-02 | Daimler Benz Ag | Regulation of distance between motor vehicles, between vehicle behind and vehicle in front |
DE19704983B4 (en) * | 1997-01-29 | 2006-07-06 | Diehl Bgt Defence Gmbh & Co. Kg | Autonomous system, especially autonomous platform |
US6678582B2 (en) | 2002-05-30 | 2004-01-13 | Kuka Roboter Gmbh | Method and control device for avoiding collisions between cooperating robots |
DE10226140A1 (en) * | 2002-06-13 | 2004-01-08 | Kuka Roboter Gmbh | Method, for preventing collisions between industrial robots and other objects, involves checking predicted path configuration by distance/obstruction algorithms, stopping robot/other objects if collision impending |
DE10324517A1 (en) * | 2003-05-28 | 2004-12-16 | Daimlerchrysler Ag | Robot and teaching method therefor, for controlling the area in which the robot operates, is based on definition of permitted and forbidden movement areas in a computer model defining the robot's range of movement |
EP1659471A1 (en) * | 2004-11-17 | 2006-05-24 | Hitachi, Ltd. | Autonomous mobile equipment with position-of-object and own position detecting system |
US7660665B2 (en) | 2004-11-17 | 2010-02-09 | Hitachi, Ltd. | Autonomous mobile equipment and position-of-object and own position detecting system |
DE102006044086B4 (en) * | 2006-09-20 | 2013-05-29 | Audi Ag | System and method for the simulation of traffic situations, in particular accident-critical dangerous situations, as well as a driving simulator |
DE102016009655A1 (en) | 2016-08-09 | 2017-04-06 | Daimler Ag | Method for operating a vehicle |
US11415996B2 (en) | 2016-09-22 | 2022-08-16 | Volkswagen Aktiengesellschaft | Positioning system for a mobile unit, vehicle and method for operating a positioning system |
DE102016218232A1 (en) | 2016-09-22 | 2018-03-22 | Volkswagen Aktiengesellschaft | A mobile unit positioning system, vehicle, and method of operating a positioning system |
WO2018054579A1 (en) | 2016-09-22 | 2018-03-29 | Volkswagen Aktiengesellschaft | Position-determining system for a mobile unit, vehicle, and method for operating a position-determining system |
DE102016218232B4 (en) | 2016-09-22 | 2024-02-15 | Volkswagen Aktiengesellschaft | Positioning system for a mobile unit, vehicle and method for operating a positioning system |
DE102017108348B3 (en) | 2017-04-20 | 2018-06-21 | Valeo Schalter Und Sensoren Gmbh | Configuration of a sensor system with a neural network for a motor vehicle |
CN107491072A (en) * | 2017-09-05 | 2017-12-19 | 百度在线网络技术(北京)有限公司 | Vehicle obstacle-avoidance method and apparatus |
CN107491072B (en) * | 2017-09-05 | 2021-03-30 | 百度在线网络技术(北京)有限公司 | Vehicle obstacle avoidance method and device |
DE102017121581B4 (en) | 2017-09-18 | 2019-05-09 | Valeo Schalter Und Sensoren Gmbh | Use of a method for processing ultrasonically obtained data |
DE102017121581A1 (en) | 2017-09-18 | 2019-03-21 | Valeo Schalter Und Sensoren Gmbh | Use of a method for processing ultrasonically obtained data |
CN111542836A (en) * | 2017-10-04 | 2020-08-14 | 华为技术有限公司 | Method for selecting action for object by using neural network |
CN111542836B (en) * | 2017-10-04 | 2024-05-17 | 华为技术有限公司 | Method for selecting action by using neural network as object |
DE102017123388A1 (en) | 2017-10-09 | 2019-04-11 | Valeo Schalter Und Sensoren Gmbh | Position determination by means of ultrasound using an artificial neural network |
DE102017127600A1 (en) * | 2017-11-22 | 2019-05-23 | Connaught Electronics Ltd. | Method for automatic parking for a motor vehicle with a driving support system |
DE102018205050A1 (en) * | 2018-04-04 | 2019-10-10 | Zf Friedrichshafen Ag | Recognition of a passenger's request to be transported by a passenger transport vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE4001493A1 (en) | Automatic control of vehicle motion - using ultrasonic object sensor providing input to learning process for vehicle control | |
DE3534183C2 (en) | ||
EP3765927B1 (en) | Method for generating a training data record for training an artificial intelligence module for a control device of a vehicle | |
EP3982349B1 (en) | Flight device and method and computer aided system for controlling an aircraft | |
DE102019118366A1 (en) | Method and control device for a system for controlling a motor vehicle | |
EP3776515B1 (en) | Method and device for coordinating driving manoeuvres between one vehicle and at least one other vehicle | |
WO2021069129A1 (en) | Device and method for controlling a robot device | |
DE102018119867B4 (en) | Autonomous behavior control using policy triggering and execution | |
AT524822B1 (en) | Method for testing a driver assistance system of a vehicle | |
DE102019202106A1 (en) | Method for validating automated functions of a vehicle | |
EP0998700B1 (en) | Method for generating connecting paths which can be used for guiding a vehicle to a predetermined target path | |
DE102021101225A1 (en) | Autonomous vehicle and method of operating it | |
DE102021110309A1 (en) | Method for modeling human driving behavior for training motion controllers based on a neural network | |
DE102018216561A1 (en) | Method, device and computer program for determining an agent's strategy | |
WO2021191120A1 (en) | Method for determining a value of a controller variable | |
DE102021114768A1 (en) | Vehicle control using a neural network controller in combination with a model-based controller | |
WO2021244793A1 (en) | Remote-controlled intervention in the tactical planning of autonomous vehicles | |
DE102020204042A1 (en) | Method and system for programming an autonomously operated vehicle to carry out a trajectory | |
DE102020211260A1 (en) | Teaching in trajectories in a motor vehicle | |
DE102015223329A1 (en) | Method for controlling a material handling vehicle, evaluation device for a material handling vehicle, industrial truck | |
DE102022131178B3 (en) | Method for automated driving of a vehicle and method for generating a machine learning model capable of this, as well as processor circuit and vehicle | |
DE102019128115B4 (en) | Vehicle model for longitudinal dynamics | |
EP4414142A1 (en) | Autonomous driving of a device | |
DE102021210593A1 (en) | Method for training a neural environment network for determining an object-enriched environment of a mobile platform | |
DE102019209725B4 (en) | Method for adjusting means of a control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8131 | Rejection |