DE4001493A1 - Automatic control of vehicle motion - using ultrasonic object sensor providing input to learning process for vehicle control - Google Patents

Automatic control of vehicle motion - using ultrasonic object sensor providing input to learning process for vehicle control

Info

Publication number
DE4001493A1
DE4001493A1 DE4001493A DE4001493A DE4001493A1 DE 4001493 A1 DE4001493 A1 DE 4001493A1 DE 4001493 A DE4001493 A DE 4001493A DE 4001493 A DE4001493 A DE 4001493A DE 4001493 A1 DE4001493 A1 DE 4001493A1
Authority
DE
Germany
Prior art keywords
learning
vehicle
cycle
sensors
phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE4001493A
Other languages
German (de)
Inventor
Achim Gayer
Rigobert Opitz
Knud Dr Overlach
Thomas Weber
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PIETZSCH IBP GmbH
IBP Pietzsch GmbH
Original Assignee
PIETZSCH IBP GmbH
IBP Pietzsch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PIETZSCH IBP GmbH, IBP Pietzsch GmbH filed Critical PIETZSCH IBP GmbH
Priority to DE4001493A priority Critical patent/DE4001493A1/en
Publication of DE4001493A1 publication Critical patent/DE4001493A1/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Acoustics & Sound (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

An automatic motion control system, for a vehicle or mobile robot, uses signals generated by ultrasonic sensors (4) that are located on the surface to detect the presence of any object. The sensor signals are fed to a preprocessor (10) for binary coding that generates (27) binary outputs. The signals are combined in a neutral network and are received by a converter (20) coupled to the vehicle drives. The vehicle is moved in a selected environment as part of a learning process. Data is entered into memory for later use. ADVANTAGE - Improved motion control and collision avoidance.

Description

Die Erfindung betrifft ein Verfahren und eine Einrichtung zur selbsttätigen Steuerung oder Steuerungsunterstützung von autonom oder teilautonom bewegbaren Geräten, wie Fahr­ zeugen, Robotern etc., mit den Merkmalen des Oberbegriffs des Anspruchs 1.The invention relates to a method and a device for automatic control or control support of autonomously or partially autonomously movable devices such as driving witnesses, robots etc., with the characteristics of the generic term of claim 1.

Bei einem bekannten Verfahren wird zur Verarbeitung der Sensorsignale ein herkömmlicher Rechner eingesetzt, der auf dem Prinzip des "von Neuman-Rechners" basiert, welcher mit Rechenwerk, Leitwerk und Speicher versehen ist und über Programme gesteuert wird.In a known method for processing the Sensor signals used a conventional computer, the on the principle of "von Neuman-based", which is based on Calculator, tail and memory is provided and over Programs is controlled.

Bei komplexen Realzeitaufgaben wie der Sensordatenverarbei­ tung für eine autonome Steuerung eines Fahrzeugs oder eines Roboterarmes, hat der Einsatz eines solchen konventionellen Rechners die folgenden Nachteile:For complex real-time tasks such as sensor data processing device for autonomous control of a vehicle or Robotic arm has the use of such a conventional one Calculator the following disadvantages:

  • 1. Die Daten müssen in serieller Informationsverarbeitung von einem Rechenprogramm gesteuert durch das Rechenwerk geleitet und verrechnet werden. Dies ist zeitaufwendig.1. The data must be in serial information processing controlled by a computer program by the arithmetic unit managed and offset. This is time consuming.
  • 2. Die Programmerstellung ist kompliziert und oft sehr zeitaufwendig.2. Program creation is complicated and often very difficult time consuming.
  • 3. Das Systemwissen muß vorher explizit bekannt sein.3. The system knowledge must be explicitly known beforehand.
  • 4. Nur lineare Zusammenhänge sind abbildbar. Synergetische oder komplexe kybernetische Systeme sind nicht abbildbar. 4. Only linear relationships can be mapped. Synergistic or complex cybernetic systems cannot be mapped.  
  • 5. Die Steuerung ist empfindlich bei Störungen der Sensor­ daten, des Verarbeitungsprogrammes und gegen Geräteaus­ fall (keine Fehlertoleranz).5. The controller is sensitive to sensor malfunctions data, the processing program and against the device fall (no fault tolerance).

Eine informationsverarbeitende Netzwerkstruktur, ein soge­ nanntes "Neuronales Netz", bezeichnet ein informationsverar­ beitendes System, das aus parallel arbeitsfähigen Prozesso­ ren besteht, die untereinander prinzipiell beliebig, meist jedoch nach hierarchischen Gesichtspunkten verknüpft sind, wobei die Prozessoren sowohl einfache als auch komplexe Rechenvorgänge ausführen können, die Verknüpfung der Prozes­ soren untereinander über multiplikative Verbindungen er­ folgt, welche über die Dauer der Informationsverarbeitung justierbar, also veränderlich gestaltet sind, und bestimmte Prozessoren des Systems die designierte Aufgabe übernehmen, mit der Umgebung Informationen auszutauschen.An information processing network structure, a so-called called "neural network", denotes an information processing processing system, which is made of parallel working processo ren exists, which in principle arbitrarily with each other, mostly but are linked from a hierarchical point of view, the processors being both simple and complex Calculations can perform the linking of the processes sensors among themselves via multiplicative connections follows which over the duration of information processing adjustable, that is to say changeable, and certain Processors of the system take on the designated task, exchange information with the environment.

Neuronale Netze sind bisher im wesentlichen Gegenstand theoretischer Untersuchungen mit dem Ziel gewesen, die durch die "von Neuman"-Architektur heutiger Rechner aufer­ legten Grenzen zu sprengen (Aufsatz "Natürliche und künst­ liche Intelligenz" von R. Opitz DE-Z Forum (Data General GmbH, 1984, S. 15-18)). Mithilfe von Strukturrechnern mit adaptiven, neuronalen Netzwerken, welche zahlreiche mitein­ ander verbundene Knoten, sogenannte Neuronen, aufweisen, suchen Forscher derzeit weltweit Funktionen bzw. Eigenschaf­ ten eines menschlichen Gehirnes zu verstehen, zu simulieren und letztendlich nachzubilden. Pragmatische Umsetzungen sind jedoch aufgrund fehlenden Verständnisses und von Trans­ ferschwierigkeiten der kybernetischen Zusammenhänge nicht anzutreffen. So sind keine praktischen Applikationen in industriell hergestellten Produkten bekannt.So far, neural networks have been the main subject theoretical investigations with the aim of due to the "von Neuman" architecture of today's computers set boundaries to be broken (essay "Natural and Art Intelligence "by R. Opitz DE-Z Forum (Data General GmbH, 1984, pp. 15-18)). With the help of structural calculators adaptive, neural networks, which are numerous have connected nodes, so-called neurons, Researchers are currently looking for functions and properties worldwide human brain, to simulate and ultimately replicate it. Pragmatic implementations However, due to a lack of understanding and of trans difficulties of the cybernetic connections to be found. So there are no practical applications in industrially manufactured products known.

Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Einrichtung der im Oberbegriff des Anspruchs 1 angege­ benen Art zu schaffen, bei denen die selbsttätige Steuerung oder Steuerungshilfe von Geräten, die in einer mindestens ein Hindernis aufweisenden Umgebung sich bewegen und eine Fahr- oder Bewegungsaufgabe besitzen, mit dem Ziel einer kollisionsfreien Umfahrung des Hindernisses oder der Hinder­ nisse und einer umgebungsangepaßten Rangieraufgabenabwick­ lung verbessert werden.The invention has for its object a method and a device specified in the preamble of claim 1  to create the same type in which the automatic control or control aid of devices that are in a minimum an obstacle-bearing environment and one Have a driving or movement task with the aim of one collision-free avoidance of the obstacle or obstacle nisse and a shunting tasks adapted to the environment lung can be improved.

Zur Lösung dieser Aufgabe dienen ein Verfahren mit den Merkmalen des Anspruchs 1 und eine Einrichtung mit den Merkmalen des Anspruchs 13.A method using the Features of claim 1 and a device with the Features of claim 13.

Vorteilhafte Ausgestaltungen der Erfindung sind in den Unteransprüchen angegeben.Advantageous embodiments of the invention are in the Subclaims specified.

Mit besonderem Vorteil ist die Erfindung zur selbsttätigen Steuerung von Fahrzeugen wie auch als Fahr- oder Rangier­ hilfe einsetzbar. Die Fahrzeugsteuerung mit einem Verfahren und einer Einrichtung nach der Erfindung ermöglicht nämlichThe invention is particularly advantageous for automatic operation Control of vehicles as well as driving or shunting help usable. The vehicle control with a procedure and a device according to the invention enables namely

  • - eine Hinderniskollisionsvermeidung bei autonomer Fahrt, wobei sich eine Parallelfahrt zu Objekten, ein Durchfah­ ren von Toren und dgl. realisieren lassen;- avoiding an obstacle collision when driving autonomously, where a parallel trip to objects, a passage have gates and the like realized;
  • - eine Fahrhilfe für einen das Fahrzeug normalerweise führenden Fahrer, beispielsweise beim Parken, bei der Nahbereichsnavigation oder bei der Rückwärtsfahrt;- a driving aid for the vehicle normally leading drivers, for example when parking, at the Short-range navigation or when reversing;
  • - eine verbesserte Situationserkennung durch Klassifizieren einer Hindernis- oder Objektkontur;- Improved situation detection through classification an obstacle or object contour;
  • - kooperatives Verhalten bei Überholfahrt und Ausweichmanö­ vern;- Cooperative behavior during overtaking and evasive maneuvers vern;
  • - Vermeidung von Auffahrunfällen.- Avoiding rear-end collisions.

Die Anwendung eines Verfahrens und einer Einrichtung nach der Erfindung ermöglicht aber nicht nur vorteilhafte Lösun­ gen im Straßenverkehr sondern auch von Transportaufgaben in Fabriken, auf Bahnhöfen und Flughäfen sowie im Baustellen­ verkehr mit komplexen unüberschaubaren Umgebungsbedingungen.The application of a method and a facility according to the invention not only enables advantageous solutions conditions in road traffic but also of transport tasks in Factories, at train stations and airports as well as in construction sites traffic with complex unmanageable environmental conditions.

Durch die mindest zeitweise autonome Fahrzeugführung läßt sich menschliches Fehlverhalten bei der Fahrzeugführung weitgehend ausschalten.Due to the at least temporarily autonomous vehicle control human misbehavior when driving largely turn off.

Die Erfindung kann aber auch bei anderen bewegbaren Geräten, wie Robotern angewendet werden, bei denen die Steuerung der Roboterbewegung mithilfe herkömmlicher Rechner höchst um­ ständlich und zeitaufwendig ist und stets auch einer aufwen­ digen Programmierung bedarf, insbesondere in hostiler, chaotischer und dynamisch sich verändernder bzw. von vorne­ herein unbekannter Umgebung.However, the invention can also be used with other movable devices, how robots are used where the control of the Robots move around using conventional computers is time consuming and time consuming and always one programming, especially in hostiler, chaotic and dynamically changing or from the front in unknown surroundings.

Eine Programmierung entfällt beim Einsatz eines neuronalen Netzwerkes. Es ist für die Zwecke der Erfindung möglich, einen herkömmlichen von-Neuman-Rechner zur Simulation eines neuronalen Netzes einzusetzen. Zum Bereitstellen höherer Realzeitfähigkeit werden vorteilhaft jedoch statt eines herkömmlichen Rechners "echte" neuronale Rechner eingesetzt, die über sogenannte Neurochips verfügen.Programming is not necessary when using a neural Network. It is possible for the purposes of the invention a conventional von Neuman computer to simulate a neural network. To provide higher However, real-time capabilities are advantageous instead of one conventional computers used "real" neural computers, which have so-called neurochips.

Die Erfindung ist im folgenden anhand von Zeichnungen mit weiteren Einzelheiten näher erläutert.The invention is in the following with reference to drawings further details explained.

Es zeigen:Show it:

Fig. 1 ein Schema eines mit einer Steuerung gemäß der Erfindung ausgerüsteten autonomen oder teilauto­ nomen Fahrzeuges; Figure 1 is a schematic of an equipped with a controller according to the invention autonomous or semi-autonomous vehicle.

Fig. 2 ein Schema der Simulation der Lernphase einer autonomen Fahrzeugführung; Fig. 2 is a diagram of simulation of the learning phase of an autonomous vehicle guidance;

Fig. 3 ein Schema der Simulation der Kannphase einer autonomen Fahrzeugführung; Fig. 3 is a schematic of the simulation can phase of an autonomous vehicle guidance;

Fig. 4 und 5 Bildschirmdarstellungen während der Konfigura­ tionsphase und der Lernphase; FIGS. 4 and 5 screens during Configurati phase and the learning phase;

Fig. 6 und 7 Bildschirmdarstellungen vor dem Start der Lernphase und beim Training des neuronalen Netz­ werkes; FIGS. 6 and 7 screens before the start of the learning phase, and in training the neural network;

Fig. 8 eine kombinierte Bildschirmdarstellung während der Kannphase; Fig. 8 is a combined screen display during the can phase;

Fig. 9 ein Beispiel für den Aufbau eines neuronalen Netzwerkes nach der Erfindung für autonome Fahr­ zeugführung im Verkehr. Fig. 9 shows an example of the structure of a neural network according to the invention for autonomous vehicle management in traffic.

Im Schema nach Fig. 1 sind an einem Fahrzeug 2 insgesamt neun Ultraschallsensoren 4 mit Meßkeulen 8 angeordnet, deren Ausgangssignale an die Eingänge 8 eines Vorprozessors 10 zur binären Kodierung abgegeben werden. An den Ausgängen 12 dieses Vorprozessors 10 liegen siebenundzwanzig Ausgangs­ signale in binärer Form vor. Diese siebenundzwanzig Aus­ gangssignale werden an eine Eingangsschnittstelle eines insgesamt mit dem Bezugszeichen 14 bezeichneten neuronalen Netzwerkes eingegeben und von dort über die mit 16 bezeich­ neten Neuronen in Form von Ausgangssignalen 18 zu einer Wandlervorrichtung 20 weitergegeben, welche die Ausgangssig­ nale in Steuersignale 22 wandelt, deren Anzahl der Anzahl der auszuführenden Fahrfunktionen (Beschleunigen/Bremsen) entspricht. Diese Signale werden in insgesamt mit dem Be­ zugszeichen 24 bezeichnete Aktuatoren (Bremsen/Antriebe) des Fahrzeuges zur Auslösung der gewünschten Fahrfunktion einge­ geben, wie in Fig. 1 mit einer Fächer von Pfeilen angedeutet ist.In the scheme of Fig. 1 nine ultrasonic transducers 4 are arranged with Meßkeulen 8 on a vehicle 2 in total, whose output signals are supplied to the inputs 8 of a preprocessor 10 for binary coding. At the outputs 12 of this preprocessor 10 there are twenty-seven output signals in binary form. These twenty-seven output signals are input to an input interface of a neural network designated as a whole by reference numeral 14 and from there via the neurons denoted by 16 in the form of output signals 18 to a converter device 20 which converts the output signals into control signals 22 , the number thereof corresponds to the number of driving functions to be performed (acceleration / braking). These signals are entered into actuators (brakes / drives) of the vehicle designated as a whole with the reference numeral 24 for triggering the desired driving function, as indicated in FIG. 1 with a fan of arrows.

Die dadurch ausgelöste Fahrfunktion führt zu neuen Sensor­ signalen, die wie beschrieben erneut verarbeitet werden.The driving function triggered by this leads to new sensors  signals that are reprocessed as described.

Fig. 2 zeigt ein Übersichtsschema einer Simulation der mit einem System nach Fig. 1 durchführbaren Steuerung mittels zweier Personalcomputer PC1 und PC2. FIG. 2 shows an overview diagram of a simulation of the control which can be carried out with a system according to FIG. 1 by means of two personal computers PC 1 and PC 2 .

In dem mit 26 bezeichneten Block der Fig. 2 wird auf dem Bildschirm des PC1 ein sogenannter Fahrgrund durch Aufbauen von Hindernissen in einem zweidimensionalen Feld erstellt.In the block designated by 26 in FIG. 2, a so-called driving reason is created on the screen of the PC 1 by building up obstacles in a two-dimensional field.

Im Block 28 wird durch fremdgesteuertes Führen des Fahrzeugs durch den Fahrgrund längs einer gewählten zu lernenden Bahn eine Lerndatei erstellt.In block 28 , a learning file is created by externally controlled guidance of the vehicle through the driving ground along a selected path to be learned.

Im Block 30 wird auf dem Bildschirm des PC2 das neuronale Netzwerk 14 nach Fig. 1 mit der Lerndatei trainiert.In block 30 , the neural network 14 according to FIG. 1 is trained with the learning file on the screen of the PC 2 .

In Fig. 3 ist schematisch das Fahren des Fahrzeugs in der "Kannphase" dargestellt. Hier sind die beiden Personalcom­ puter PC1 und PC2 sehr interaktiv zusammengeschaltet. Auf dem Bildschirm des PC1 wird gemäß der Darstellung im Block 32 festgestellt, wie das Fahrzeug in dem mit Block 26 er­ stellten Fahrgrund autonom, d. h. von dem neuronalen Netzwerk 14 gesteuert fährt. Im Block 34 werden das trainierte Netz­ werk und die Sensoren auf dem Bildschirm des PC2 darge­ stellt.In Fig. 3, the driving of the vehicle is shown in the "can phase" schematically. Here the two personal computers PC 1 and PC 2 are interconnected very interactively. On the screen of the PC 1 , as shown in block 32, it is determined how the vehicle is traveling autonomously, ie controlled by the neural network 14 , in the driving reason set with block 26 . In block 34 , the trained network and the sensors on the screen of the PC 2 are Darge.

In den Fig. 4 und 5 sind die Bildschirmdarstellungen gemäß den Blöcken 26 und 28 in Fig. 2 detailliert dargestellt.In Figs. 4 and 5, the screen images according to blocks 26 and 28 in Fig. 2 in detail.

In den Fig. 4 und 5 sind Hindernisse durch dunkel gefärbte Kreise 27, Rechtecke 29, 31 und einen Winkel 33 symbolisiert. Diese Hindernisse werden gemäß Fig. 4 zu der gezeigten Konfiguration, d. h. einem "Fahrgrund" durch Betätigen einer nicht gezeigten Maus plaziert. Unter dem eigentlichen Bildschirm 36 des PC1 sind Tasten 38 bis 46 gezeichnet, welche durch Antippen die Funktion "Laden", "Speichern", "neu", "Hilfe" und "zurück" ausführen können.In Figs. 4 and 5 obstacles by dark-colored circles 27, rectangles 29, 31 and an angle 33 are symbolized. These obstacles are placed according to FIG. 4 to the configuration shown, ie a "driving reason" by operating a mouse, not shown. Keys 38 to 46 are drawn under the actual screen 36 of the PC 1 and can be tapped to perform the "Load", "Save", "New", "Help" and "Back" functions.

Bestehende Fahrgründe können verändert werden. Dazu ist das Feld "Laden" aufzurufen und der Name des Fahrgrundes anzu­ geben.Existing driving reasons can be changed. That’s it Call up the "Load" field and display the name of the driving reason give.

Mit "Speichern" können modifizierte oder neu erstellte Fahrgründe gespeichert werden.With "Save" modified or newly created Driving reasons are saved.

Mit der Taste "neu" kann die Fläche jederzeit gelöscht und ein neuer Fahrgrund erstellt werden.With the button "new" the area can be deleted at any time and a new driving reason can be created.

Durch Betätigen der Taste "zurück" kann die Konfigurati­ onsphase beendet und ins Hauptmenü gesprungen werden.By pressing the "back" button, the configurati ons phase and jump to the main menu.

Gemäß der Darstellung in Fig. 5 wird nach Erstellen eines Fahrgrundes auf dem Bildschirm 36 des PC1 ein simuliertes Fahrzeug 50 in den Fahrgrund plaziert und fremdgesteuert längs eines Lernparcours durch den Fahrgrund gesteuert, der mittels einer strichpunktierten Linie 52 in Fig. 5 angedeu­ tet ist.According to the illustration in FIG. 5, after creating a driving reason on the screen 36 of the PC 1, a simulated vehicle 50 is placed in the driving reason and controlled externally along a learning course through the driving reason, which is indicated by means of a dash-dotted line 52 in FIG. 5 .

Über die Tasten 38 bis 46 werden in diesem Fall die Funkti­ onen "Laden", "Start", "Stop", "Hilfe" und "zurück" einge­ stellt.In this case, the functions "Load", "Start", "Stop", "Help" and "Back" are set using keys 38 to 46 .

In dem rechts vom Bildschirm 36 dargestellten Feld 37 ist die Fahrtrichtung ablesbar, in welche das Fahrzeug 50 auf dem Bildschirm mittels einer Windrose fremdgesteuert wird.The direction of travel into which the vehicle 50 is externally controlled on the screen by means of a wind rose can be read in the field 37 shown on the right of the screen 36 .

Bevor ein neuronales Netzwerk trainiert werden kann, muß es dimensioniert und parametriert werden. Da neun Sensoren 4 am Fahrzeug 2 vorgesehen sind und deren Werte mit drei bit codiert werden, beträgt die Größe des Inputvektors und damit die Anzahl der Neuronen 16 an der Eingangsschnittstel­ le insgesamt siebenundzwanzig. Bei dem gezeigten Beispiel besteht der Outputvektor aus vier bit, obwohl acht Fahrmög­ lichkeiten in der Einheit 20 codiert sind.Before a neural network can be trained, it must be dimensioned and parameterized. Since nine sensors 4 are provided on vehicle 2 and their values are coded with three bits, the size of the input vector and thus the number of neurons 16 at the input interface is a total of twenty-seven. In the example shown, the output vector consists of four bits, although eight driving possibilities are coded in the unit 20 .

Es besteht somit die Möglichkeit, die Topologie inklusive sogenannter "versteckter Ebenen" zu variieren, sowie die Lernparameter zu verändern. Diese Parameter werden im neuro­ nalen Simulator in einer Tabelle eingetragen. In dieser Tabelle entspricht ein Koeffizient I dem Lernparameter η und ein Koeffizient II dem Momenten-Term α. Für eine opti­ male Wahl der Parameter η, α werden in der Literatur für andere Fälle die Werte η=0,9 und α=0,6 empfohlen. Andere Werte können jedoch erfahrungsgemäß zu schnellerer Konver­ genz führen.It is therefore possible to include the topology so-called "hidden levels" to vary, as well as the Change learning parameters. These parameters are in the neuro nal simulator entered in a table. In this In the table, a coefficient I corresponds to the learning parameter η and a coefficient II the moment term α. For an opti Male choice of parameters η, α are used in the literature for other cases the values η = 0.9 and α = 0.6 are recommended. Other Experience has shown that values can convert to faster lead.

Nachfolgend wird die Durchführung einer Lernphase auf dem neuronalen Simulator anhand der Fig. 6 und 7 erläutert. Zu Beginn wird im Simulator ein neuronales Netzwerk mit sieben­ undzwanzig Input-Neuronen, vier Output-Neuronen und einer beliebigen Anzahl und Größe von versteckten Ebenen aufge­ baut. Dieses Netz wird mit Zufallswerten aus einem kleinen Wertebereich (-0,1/01) initialisiert. Nun kann der Lernvor­ gang gestartet werden. Die Input-Neuronen sind in dem Block 30 (gemäß Fig. 2), welcher den Bildschirm des PC2 symboli­ siert, mit der Bezugszahl 56 und die Output-Neuronen mit der Bezugszahl 58 bezeichnet. Unterhalb der Input-Neuronen 56 sind eine OK-Taste 60 und eine Löschtaste 62 dargestellt. Darunter sind drei Fenster 64, 66 und 68 dargestellt, wobei in den Fenstern 64, 66 der Hinweis erscheint, daß eine Kon­ vergenzdatei und eine Informationsdatei angelegt werden. Im Fenster 68 erscheint zur Bestätigung der Name der Lerndatei. Durch Anklicken der OK-Taste wird der Lernvorgang gestartet. The implementation of a learning phase on the neural simulator is explained below with reference to FIGS. 6 and 7. Initially, a neural network with twenty-seven input neurons, four output neurons and any number and size of hidden levels is built up in the simulator. This network is initialized with random values from a small range of values (-0.1 / 01). The learning process can now be started. The input neurons are denoted in block 30 (according to FIG. 2), which symbolizes the screen of the PC 2 , with the reference number 56 and the output neurons with the reference number 58 . An OK key 60 and a delete key 62 are shown below the input neurons 56 . Three windows 64 , 66 and 68 are shown below, the window 64 , 66 indicating that a convergence file and an information file are being created. The name of the learning file appears in window 68 for confirmation. The learning process is started by clicking the OK button.

Die Konvergenzdatei dient dazu, den Ablauf des Lernvorganges bei längeren Lernzeiten (2 Stunden bis 3 Tage) nachvoll­ ziehen zu können. Nach jedem Lernzyklus, d. h. nach vollstän­ digem Durchlauf durch die Lerndatei, werden der globale Fehler des Netzes, die Anzahl der Zyklen und die Anzahl der Felder beim letzten Durchlauf der Lerndatei eingetragen.The convergence file is used to run the learning process in case of longer learning periods (2 hours to 3 days) to be able to pull. After each learning cycle, i.e. H. after complete dig through the learning file, the global Network errors, the number of cycles and the number of Fields entered during the last run of the learning file.

Die Konvergenzdatei kann bei längerer Lerndauer bis zu 100 KB groß werden. Mithilfe der Konvergenzdatei kann ein Über­ schreiten lokaler Minima sowie die Konvergenzgeschwindigkeit erkannt werden.The convergence file can last up to 100 for longer learning periods KB grow big. Using the convergence file, an over pace local minima as well as the rate of convergence be recognized.

Die Informationsdatei besteht in jedem Fall nur aus vier Zeilen. Diese Zeilen werden nach jedem Lernzyklus aufs neue in die Informationsdatei eingetragen. Der Inhalt sieht z. B. folgendermaßen aus:
Anzahl Lernschritte - 60 792
Anzahl Zyklen - 447
Anzahl Muster - 136
globaler Fehler - 0,057
In any case, the information file consists of only four lines. These lines are entered in the information file again after each learning cycle. The content looks e.g. B. from:
Number of learning steps - 60 792
Number of cycles - 447
Number of samples - 136
global error - 0.057

Diese Datei gibt somit den aktuellen Lernzustand des neuro­ nalen Netzwerkes an. Dies ermöglicht ein Abbrechen des Lernvorgangs und ein späteres Weitertrainieren des Netzes.This file gives the current learning status of the neuro network. This allows you to cancel the Learning process and a later training of the network.

In Fig. 7 ist das Training des neuronalen Netzwerkes darge­ stellt. Wurde die OK-Taste 60 gedrückt, so ist die Darstel­ lung auf dem Bildschirm 30 etwa folgendermaßen:In Fig. 7 the training of the neural network is Darge presents. If the OK button 60 was pressed, the display on the screen 30 is approximately as follows:

Im Teil unterhalb der Input-Neuronen 56 werden die Anzahl der Muster, die Anzahl der Darstellungen, die Anzahl der Zyklen (Durchläufe durch die Lerndatei), die Anzahl der Fehler im aktuellen Zyklus sowie der globale Fehler, der nach jedem Zylkus neu berechnet wird, in der Zeile 70 ange­ zeigt. In der Sensorikzeile 72 werden aus der Lerndatei gelesene und in einen binären Input-Vektor kodierte Werte angezeigt. Oberhalb des Netzwerkes werden im Feld 74 der aktuelle Output des Netzes und im Feld 76 der gewünschte, d. h. der zu trainierende Output angezeigt.In the part below the input neurons 56 , the number of patterns, the number of representations, the number of cycles (passes through the learning file), the number of errors in the current cycle and the global error, which is recalculated after each cycle, shown in line 70 . Values read from the learning file and encoded in a binary input vector are displayed in sensor line 72 . Above the network, the current output of the network is displayed in field 74 and the desired, ie the output to be trained, is displayed in field 76 .

Im Normalfall wird der globale Fehler stetig kleiner werden. Wenn der globale Fehler sich sehr nahe bei Null befindet und sich über mehrere Zyklen hinweg nicht mehr verändert, kann der Lernvorgang abgebrochen werden. Dabei muß der Fehler pro Zyklus nicht unbedingt Null sein. Bei sehr großen Lerndateien (mehr als 500 Muster) kann es zu sich widerspre­ chenden Lernmustern kommen. In diesem Fall wird der globale Fehler auf eine Zahl zwischen drei und zehn konvergieren und noch einige Fehler pro Zyklus aufweisen. Diese können selektiert und korrigiert werden. Trotzdem ist das Netz aus­ reichend trainiert und kann in der Kannphase ausprobiert werden. Der Lernvorgang wird mittels einer nicht dargestell­ ten "Escape"-Taste abgebrochen.In general, the global error will steadily decrease. When the global error is very close to zero and doesn't change over several cycles, the learning process can be canceled. The Errors per cycle are not necessarily zero. With very large ones Learning files (more than 500 patterns) can contradict themselves learning patterns. In this case, the global Errors converge to a number between three and ten and still have some errors per cycle. these can selected and corrected. Nevertheless, the network is off adequately trained and can be tried in the can phase will. The learning process is not shown using a ten "Escape" key canceled.

In Fig. 8 ist die Kannphase durch interaktives Zusammenwir­ ken der beiden Personalcomputer PC1 und PC2 und Darstellung von deren beiden Bildschirmen 28 und 30 dargestellt.In Fig. 8, the optional phase is shown by interactive interaction between the two personal computers PC 1 and PC 2 and the representation of their two screens 28 and 30 .

Durch Betätigen der Taste 38 wird ein gewünschter Fahrgrund im Bildschirm des PC1 dargestellt und das Fahrzeug 50 wie gezeigt positioniert.By pressing the key 38 , a desired driving reason is displayed on the screen of the PC 1 and the vehicle 50 is positioned as shown.

Auf dem PC2 wird der Simulator gestartet und das zum Fahr­ grund gemäß PC1 trainierte neuronale Netz geladen und ge­ startet, wobei sich der in Fig. 8 rechts dargestellte Bild­ schirmaufbau ergibt. Durch Anwählen der Taste 40 wird die Simulation gestartet.On the PC 2 , the simulator is started and the neural network trained for driving in accordance with PC 1 is loaded and started, resulting in the screen structure shown on the right in FIG. 8. The simulation is started by pressing key 40 .

Auf dem Bildschirm 36 des PC1 sieht man das Fahrzeug 50 autonom durch das neuronale Netzwerk auf PC2 gesteuert um die Hindernisse herum fahren. Werden die Hindernisse ge­ schnitten oder überfahren, so bedeutet dies, daßOn the screen 36 of the PC 1 , the vehicle 50 can be seen to drive autonomously through the neural network on the PC 2 around the obstacles. If the obstacles are cut or run over, this means that

  • - das Netz nicht ausreichend trainiert wurde,- the network has not been adequately trained,
  • - die Lerndatei zu wenig Lernmuster enthielt,- the learning file contained too few learning patterns,
  • - die Lerndatei zu viele sich widersprechende Input-Output- Relationen aufwies,- the learning file too many contradicting input-output Had relations,
  • - ein falscher Fahrgrund geladen wurde.- the wrong driving reason has been loaded.

Da durch Neupositionieren des Fahrzeuges und erneutes Star­ ten eine andere Bahn gefunden werden kann, sollten einige Starts an verschiedenen Ausgangspositionen ausprobiert werden.Because by repositioning the vehicle and starting again Another path can be found, some should Tried out starts at different starting positions will.

Wenn auch kein perfektes Fahrverhalten erwartet werden kann, sollte doch ein prinzipiell an den aufgebauten Hinder­ nissen orientiertes Fahrverhalten, wie reflexives Ausweichen an den Hindernissen, offensichtlich werden.Even if perfect driving behavior is not expected can, but should in principle to the built obstacle nissen-oriented driving behavior, such as reflexive avoidance at the obstacles, become obvious.

Auf dem Bildschirm des PC2 erkennt man in der Zeile 70 die aktuellen Sensorik-Werte, den kodierten Input-Vektor, den Output-Vektor, sowie die aktuelle Fahrtrichtung des Fahrzeu­ ges 50.Line 70 on the screen of PC 2 shows the current sensor values, the coded input vector, the output vector and the current direction of travel of vehicle 50 .

Die Kannphase wird durch Drücken der Stop-Taste 42 beendet.The optional phase is ended by pressing the stop button 42 .

Bei dem beschriebenen Beispiel ist das autonome Fahren eines Fahrzeugs 50 nach dem Lernen eines Hindernisumfahrens auf einem vorgegebenen Fahrgrund (Fig. 4) dargestellt.In the example described, the autonomous driving of a vehicle 50 after learning to drive around an obstacle is shown on a predetermined driving surface ( FIG. 4).

Jedoch läßt sich die Erfindung auch auf mehrere solche Fahrzeuge zum Trainieren kooperativen Fahrverhaltens solcher mehrerer Fahrzeuge anwenden. Dabei ist nach dem Erstellen eines Fahrgrundes und einer Lerndateigenerierung sowie einem Training am Lernfahrzeug ein trainiertes Netz zur Steuerung aller Fahrzeuge anzustreben, wobei die Fahrzeuge frei wählbar positionierbar sind und ein kollisionsfreies simultanes autonomes Fahren aller Fahrzeuge das endgültige Lernziel ist.However, the invention can also be applied to several such Vehicles for training cooperative driving behavior use multiple vehicles. It is after creating a driving reason and a learning file generation as well  a trained network for training on the learning vehicle Aim to control all vehicles, with the vehicles freely selectable and collision-free simultaneous autonomous driving of all vehicles the final Learning objective is.

Ein Beispiel für den Aufbau der Gesamtarchitektur eines Lernfahrzeuges mit neuronalem Netzwerk ist in Fig. 9 darge­ stellt. Es beinhaltet Fahrstrategie, Wegplanung, Objekter­ kennung, Landkarten und ein Lernmodul.An example of the structure of the overall architecture of a learning vehicle with a neural network is shown in Fig. 9 Darge. It includes driving strategy, route planning, object recognition, maps and a learning module.

Dabei sind in den beiden unteren ovalen Feldern 80, 82 Sen­ soren für die Gesamtposition des Fahrzeuges und Entfernungs­ meßsensoren sowie in dem oberen ovalen Feld 84 Aktuatoren zur Betätigung der verschiedenen Fahrfunktionen angedeutet.Here, in the two lower oval fields 80 , 82 sen sensors for the overall position of the vehicle and distance measuring sensors as well as 84 actuators for actuating the various driving functions are indicated in the upper oval field.

Das Feld 86 enthält eine map mit Umgebungshindernissen, während das Feld 88 eine map mit sonstigen Umgebungseigen­ schaften enthält.Field 86 contains a map with environmental obstacles, while field 88 contains a map with other environmental properties.

Im Feld 90 ist ein Hindernis-Klassifizierer angedeutet. Den Feldern 86, 88, 90 sind Felder 92, 94, 96 nachgeschaltet. Dabei enthält das Feld 92 einen Modul für Lernen nach einem über­ geordneten Lernziel. Das Feld 94 enthält eine Optimierungs- Vorrichtung für die Wegplanung. Das Feld 96 enthält einen Baustein zum Entwickeln von Fahrstrategien. Zwischen das Aktuatorik-Feld 84 und die Felder 94, 96 ist eine Steuerein­ richtung zur assoziativen Aktuatorik-Steuerung angeordnet.An obstacle classifier is indicated in field 90 . Fields 86 , 88 , 90 are followed by fields 92 , 94 , 96 . Field 92 contains a module for learning according to an overarching learning goal. Field 94 contains an optimization device for route planning. Field 96 contains a module for developing driving strategies. A control device for associative actuator control is arranged between the actuator field 84 and the fields 94 , 96 .

Mit dem beschriebenen Verfahren und der beschriebenen Ein­ richtung gemäß der Erfindung lassen sich folgende vorteil­ hafte Wirkungen erzielen:With the described method and the described A direction according to the invention can be the following advantage achieve adhesive effects:

  • 1. Beim Training eines Simulationsfahrzeuges mit Sensorik, Aktuatorik und einem neuronalen Netzwerk stellte sich heraus, daß gefahrene Bahnen in Hinderniskursen teilweise abstrahiert (Reflexverhalten) gespeichert wurden und nach Wiederabruf ein ähnliches Fahrverhalten durch das Netzwerk für das Fahrzeug erzielbar war.1. When training a simulation vehicle with sensors, Actuators and a neural network turned out  out that driven tracks in obstacle courses partially were abstracted (reflex behavior) and after recall a similar driving behavior by the Network was achievable for the vehicle.
  • 2. Es war nicht wie bisher notwendig, Fahrzeugsteuerungen und Fahrverhalten mit erheblichem Aufwand zu pro­ grammieren.2. It was not, as previously necessary, vehicle controls and driving behavior with considerable effort to pro gramming.
  • 3. Die Fehlertoleranz gegen Sensorstörungen war sehr hoch.3. The fault tolerance against sensor faults was very high.
  • 4. Neben dem Training von Einzelhindernisfahrten waren sehr komplexe Fahrsituationen ohne mathematische Aufbereitung erlernbar.4. In addition to training individual obstacle rides were very complex driving situations without mathematical preparation learnable.
  • 5. Bei Verwendung mehrerer Fahrzeuge mit Steuerung war durch ein Netzwerk kooperatives Fahrverhalten erreichbar (Ausweichmanöver, Fahrstrategien).5. When using multiple vehicles with controls achievable through a network of cooperative driving behavior (Evasive maneuvers, driving strategies).
  • 6. Es konnte eine vollkommen neue Art und Qualität der Leistungserzeugung durch "Lernen an Beispielen" mittels einer Lernphase (Training durch Beispiele) und einer Kannphase (Abruf der Informationen aus dem Netz) und die Informationsspeicherung erreicht werden.6. It could be a completely new type and quality of Power generation through "learning from examples" using a learning phase (training with examples) and an optional phase (retrieval of information from the Network) and information storage can be achieved.
  • 7. Die Abdeckung komplexer Informationsrepräsentationen ist sehr hoch.7. The coverage of complex information representations is very high.
  • 8. Die Abrufzeitkonstante liegt im Bereich von Millisekun­ den. Dies ist um Faktoren höher als konventionelle KI- Systeme und eignet dieses Verfahren für diverse Realzeit­ aufgaben der Regelung und Steuerung von kybernetischen Prozessen.8. The polling time constant is in the millisecun range the. This is a factor higher than conventional AI Systems and is suitable for various real-time processes tasks of regulating and controlling cybernetic Processes.
  • 9. Das Lernen nach dem beschriebenen Beispiel kann durch Lernen nach einem übergeordneten Lernziel (Reinforcement Learning) und ein Versuchsmodul ersetzt werden. Damit entstehen Systemarchitekturen.9. Learning according to the example described can by  Learning according to a higher learning goal (reinforcement Learning) and an experimental module. In order to system architectures emerge.
  • 10. Die simulierten Netzwerke können nach Training in neuro­ nale VLSI-Implementationen umgesetzt und in Produkten verwendet werden.10. The simulated networks can be trained in neuro VLSI implementations implemented and in products be used.

Claims (15)

1. Verfahren zur selbsttätigen Steuerung von autonom oder teilautonom bewegbaren Geräten mit die Umgebung auf­ nehmenden Ortungssensoren zum Abgeben von Sensorsig­ nalen, welche für den Abstand des Gerätes von minde­ stens einem Hindernis oder Objekt charakteristisch sind, und mit einer Verarbeitungseinheit, in welche die Sensorsignale eingegeben werden, und welche minde­ stens ein Steuersignal für Antriebe/Bremsen des Gerätes zum Beschleunigen/Abbremsen der jeweiligen Bewegung des Gerätes abgibt, um eine Kollision mit dem Hindernis zu vermeiden und gewünschtes Fahr- und Bewegungsverhal­ ten zu erzeugen, dadurch gekennzeichnet, daß die Verarbeitungseinheit als informationsver­ arbeitende Netzwerkstruktur ("neuronales Netz") ausge­ bildet oder simuliert ist, daß das Gerät in einer Lernphase aus einer begrenzten Anzahl ausgewählter Situationen fremdgesteuert einen Bewegungsablaufzyklus ausführt, daß die dabei gewonnenen Sensor- und Aktua­ tor-Datensätze der Netzwerkstruktur in einer Lernphase wiederholt eingegeben und der Bewegungsablaufzyklus lehrhaft vorgegeben werden, und daß bei Unterschreiten eines vorgegebenen globalen Fehlers die Lernphase abgeschlossen und zu einer Kannphase übergegangen wird, in welcher das Gerät in bekannter oder unbekann­ ter Umgebung autonom den oder einen in unbekannter Umgebung durch die Objekte beeinflußten gelernten Bewegungablaufzyklus mindestens angenähert ausführt. 1. A method for the automatic control of autonomously or partially autonomously movable devices with the environment on receiving location sensors for emitting sensor signals which are characteristic of the distance of the device from at least one obstacle or object, and with a processing unit into which the sensor signals are input are, and which at least emits a control signal for drives / brakes of the device for accelerating / braking the respective movement of the device in order to avoid a collision with the obstacle and to generate desired driving and movement behavior, characterized in that the processing unit as information processing network structure ("neural network") is formed or simulated that the device in a learning phase from a limited number of selected situations externally controlled executes a motion cycle that the sensor and actuator data records of the network structure obtained in egg ner learning phase repeatedly entered and the movement cycle are instructively specified, and that when falling below a predetermined global error, the learning phase is completed and a transition is made to a phase in which the device in a known or unknown environment autonomously influenced the or an unknown environment by the objects learned movement cycle at least approximates. 2. Verfahren nach Anspruch 1, dadurch gekenn­ zeichnet, daß in einer Datenerfassungsphase die Sensor-/Aktuator-Datensätze bei jeder Durchführung des fremdgesteuerten Bewegungsablaufzyklus in eine Lerndatei eingespeichert werden.2. The method according to claim 1, characterized records that in a data acquisition phase the sensor / actuator data records with each execution of the externally controlled movement sequence cycle into one Learning file can be saved. 3. Verfahren nach Anspruch 2, dadurch gekenn­ zeichnet, daß in jedem Lernzyklus während der Lernphase die Lerndatei vollständig mehrmals und lern­ adäquat zusammengestellt durchlaufen (zu Vermeidung von Verlernen) und die Anzahl der Zyklen, der globale Fehler und die Anzahl der Fehler beim Durchlauf der Lerndatei in eine Konvergenzdatei eingetragen werden, und daß bei Überschreiten einer vorgegebenen Konver­ genzmarke der Lernzyklus beendet wird.3. The method according to claim 2, characterized records that in each learning cycle during the Learn phase the learning file completely several times and learn go through properly compiled (to avoid of unlearning) and the number of cycles, the global Errors and the number of errors when running the Learning file are entered in a convergence file, and that when a predetermined conver is exceeded limit the learning cycle is ended. 4. Verfahren nach Anspruch 2 oder 3, dadurch ge­ kennzeichnet, daß in der Lernphase eine Informationsdatei, enthaltend die Anzahl der Lern­ schritte, die Anzahl der Zyklen, die Anzahl der Lern­ muster (Fahrgründe) und den globalen Fehler, erstellt wird.4. The method according to claim 2 or 3, characterized ge indicates that a Information file containing the number of learners steps, the number of cycles, the number of learning pattern (driving reasons) and the global error becomes. 5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß das Gerät ein Fahrzeug und der Bewegungsablaufzyklus ein Fahr­ zyklus längs einer Bahn mit dem Fahrzeug in einer das mindestens eine Hindernis aufweisenden Umgebung (Fahr­ grund) sind.5. The method according to any one of the preceding claims, characterized in that the device a vehicle and the motion cycle a driving cycle along a path with the vehicle in one at least one environment with obstacles (driving reason) are. 6. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß das Gerät ein Robo­ ter und der Bewegungsablaufzyklus ein kinematischer dreidimensionaler Ablauf längs einer Bewegungsbahn mit dem Roboter in einer mindestens ein Hindernis aufwei­ senden Umgebung (Fahrgrund) ist.6. The method according to any one of claims 1 to 4, characterized characterized that the device is a Robo ter and the motion sequence cycle is kinematic three-dimensional process along a trajectory  the robot in at least one obstacle send environment (driving reason). 7. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß die Or­ tungssensoren jeweils problemisomorph aufgebaut werden und die gewonnenen Sensorsignale aller Sensoren für die informationsverarbeitende Netzstruktur gemeinsam zu mindestens einem Steuersignal (Eingabevektor) verar­ beitet werden.7. The method according to any one of the preceding claims, characterized in that the Or tion sensors are each problem isomorphic and the sensor signals obtained from all sensors for the information processing network structure together to at least one control signal (input vector) be prepared. 8. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß sowohl Objekte bzw. Objektkonturen als auch Objektklassi­ fikationen zum Training des Netzwerkes gemeinsam als Eingabegröße (Vektor) benutzt werden und gemeinsam die Abbildung der Aktuatorik-Datensätze erzeugen.8. The method according to any one of the preceding claims, characterized in that both Objects or object contours as well as object classifications network training together as Input size (vector) and the Generate an image of the actuator data records. 9. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß weiter­ gehendes selbsttätiges Lernen mit Vorgabe eines Lern­ zieles (Lernsätze) durch Einfügung und Verwendung eines Probier- und Bewegungszyklus mit begrenzter Anzahl von Versuchen durchgeführt wird und positive Reaktionen im Netzwerk gespeichert werden, während negative Verhalten verfallen (Selbstadaption).9. The method according to any one of the preceding claims, characterized in that further self-paced learning by default goal (learning sentences) through insertion and use a trial and exercise cycle with limited Number of attempts is made and positive Responses are saved on the network while negative behavior expires (self-adaptation). 10. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß globale Bewegungsstrategien und Abläufe mit lokal/situativen trainierten Verhaltensrepräsentationen kombiniert werden, und im Eingabevektor des Netzwerkes Anteile der Bewegungsstrategie mit trainiert werden, die in der Kannphase durch höhere Hierarchien im Sinne von hierarchischen Netzwerkarchitekturen eingerichtet und gesetzt werden.10. The method according to any one of the preceding claims, characterized in that global Movement strategies and processes with local / situational trained behavioral representations combined and shares in the input vector of the network the movement strategy to be trained with that in the optional phase through higher hierarchies in the sense of hierarchical network architectures set up and  be set. 11. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß Bewegungsabläufe unter Verwendung von vergangenen zeit­ stufenweise vorhergehenden Bewegungsmustern mit Gewich­ tungsstufen in der Trainingsphase im Eingabevektor benutzt werden und in der Kannphase dadurch Prozeduren der Bewegung berücksichtigt und erzeugt werden.11. The method according to any one of the preceding claims, characterized in that Movements using past time gradual previous movement patterns with weight levels in the training phase in the input vector be used and procedures in the can phase the movement are taken into account and generated. 12. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß herkömm­ liche Rechner mit simulierten neuronalen Netzwerken, Hybridsysteme mit speziell angepaßten Elementen und/oder Neurochips verwendet werden.12. The method according to any one of the preceding claims, characterized in that convention computer with simulated neural networks, Hybrid systems with specially adapted elements and / or neurochips can be used. 13. Einrichtung zur selbsttätigen oder unterstützenden Steuerung von autonom oder teilautonom bewegbaren Geräten, wie Fahrzeugen, mit die Umgebung aufnehmenden Ortungssensoren zum Bilden von Sensorsignalen, welche für den Abstand des Gerätes von mindestens einem Hin­ dernis, einer Objektkontur od. dgl. charakteristisch sind, und mit einer Verarbeitungseinheit, in welche die Sensorsignale eingegeben werden, und welche Steuer­ signale für Antriebe/Bremsen des Gerätes zum Beschleu­ nigen/Abbremsen der jeweiligen Bewegung des Gerätes abgibt, dadurch gekennzeichnet, daß die Verarbeitungseinheit eine informationsverarbeitende Netzwerkstruktur (neuronales Netz) mit einer der Anzahl der Sensorsignale entsprechenden Anzahl von Eingabe- Schnittstellen, einer Vielzahl von Neuronen (Knoten­ punkten) und einer der Anzahl von Antriebs-/Bremsfunk­ tionen entsprechenden Anzahl von Ausgabe-Schnittstellen für das mindestens eine Steuersignal ist. 13. Self-supporting or supportive facility Control of autonomously or partially autonomously movable Devices, such as vehicles, with the environment Location sensors for forming sensor signals, which for the distance of the device from at least one Hin dernis, an object contour or the like. characteristic and with a processing unit into which the sensor signals are entered, and what tax signals for drives / brakes of the device for acceleration nig / slow down the respective movement of the device issues, characterized in that the Processing unit an information processing Network structure (neural network) with one of the number number of input signals corresponding to the sensor signals Interfaces, a variety of neurons (nodes score) and one of the number of drive / brake radio corresponding number of output interfaces for the at least one control signal.   14. Einrichtung nach Anspruch 13, bei dem die Sensoren an einem Fahrzeug angebracht sind, das sich autonom in einer vorgegebenen Umgebung bewegen soll, dadurch gekennzeichnet, daß die Sensoren als sowohl sendende als auch empfangende Sensoren, insbe­ sondere als Ultraschallsensoren oder Mikrowellen­ sensoren, ausgebildet sind, die synchron mit einer Taktzeit betätigt werden, welche gleich oder größer als die einem vorgegebenen größten Hindernisabstand entsprechende Laufzeit (Summe aus Hin- und Rücklauf­ zeit) eines Sensorimpulses bei einer vorgegebenen maximalen Fahrzeuggeschwindigkeit ist.14. The device of claim 13, wherein the sensors on are attached to a vehicle that is autonomous in should move a given environment, thereby characterized in that the sensors as both sending and receiving sensors, esp especially as ultrasonic sensors or microwaves sensors that are designed in sync with a Cycle times are operated, which are the same or greater than the given greatest obstacle distance Corresponding term (sum of the outward and return runs time) of a sensor pulse at a given maximum vehicle speed. 15. Einrichtung nach Anspruch 13 oder 14, dadurch ge­ kennzeichnet, daß die Anzahl der Neuronen an den Eingabe-Schnittstellen gleich dem Produkt aus der Anzahl Sensoren multipliziert mit der Informations­ anzahl (z. B. 3 bit) parallel je Sensorsignal ist.15. The device according to claim 13 or 14, characterized ge indicates that the number of neurons at the input interfaces equal to the product the number of sensors multiplied by the information number (e.g. 3 bits) in parallel per sensor signal.
DE4001493A 1990-01-19 1990-01-19 Automatic control of vehicle motion - using ultrasonic object sensor providing input to learning process for vehicle control Ceased DE4001493A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE4001493A DE4001493A1 (en) 1990-01-19 1990-01-19 Automatic control of vehicle motion - using ultrasonic object sensor providing input to learning process for vehicle control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE4001493A DE4001493A1 (en) 1990-01-19 1990-01-19 Automatic control of vehicle motion - using ultrasonic object sensor providing input to learning process for vehicle control

Publications (1)

Publication Number Publication Date
DE4001493A1 true DE4001493A1 (en) 1991-07-25

Family

ID=6398398

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4001493A Ceased DE4001493A1 (en) 1990-01-19 1990-01-19 Automatic control of vehicle motion - using ultrasonic object sensor providing input to learning process for vehicle control

Country Status (1)

Country Link
DE (1) DE4001493A1 (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4218599A1 (en) * 1992-06-05 1993-12-16 Bodenseewerk Geraetetech Navigation and guidance system for autonomous mobile robots - has sensors for input to neuronal network based controller that has learning capacity to determine direction and motion commands
EP0582236A1 (en) * 1992-08-04 1994-02-09 Takata Corporation Vehicle crash predictive and evasive operation system by neural networks
EP0718732A3 (en) * 1994-11-15 1996-08-28 Alexander Kaske Method and device for controlling an autonomous exploring robot
DE19517198C1 (en) * 1995-05-11 1996-10-10 Samson Ag Controlling stroke position of regulating member
DE19523111A1 (en) * 1995-06-26 1997-01-02 Daimler Benz Ag Regulation of distance between motor vehicles, between vehicle behind and vehicle in front
DE10226140A1 (en) * 2002-06-13 2004-01-08 Kuka Roboter Gmbh Method, for preventing collisions between industrial robots and other objects, involves checking predicted path configuration by distance/obstruction algorithms, stopping robot/other objects if collision impending
US6678582B2 (en) 2002-05-30 2004-01-13 Kuka Roboter Gmbh Method and control device for avoiding collisions between cooperating robots
DE10324517A1 (en) * 2003-05-28 2004-12-16 Daimlerchrysler Ag Robot and teaching method therefor, for controlling the area in which the robot operates, is based on definition of permitted and forbidden movement areas in a computer model defining the robot's range of movement
EP1659471A1 (en) * 2004-11-17 2006-05-24 Hitachi, Ltd. Autonomous mobile equipment with position-of-object and own position detecting system
DE19704983B4 (en) * 1997-01-29 2006-07-06 Diehl Bgt Defence Gmbh & Co. Kg Autonomous system, especially autonomous platform
DE102006044086B4 (en) * 2006-09-20 2013-05-29 Audi Ag System and method for the simulation of traffic situations, in particular accident-critical dangerous situations, as well as a driving simulator
DE102016009655A1 (en) 2016-08-09 2017-04-06 Daimler Ag Method for operating a vehicle
CN107491072A (en) * 2017-09-05 2017-12-19 百度在线网络技术(北京)有限公司 Vehicle obstacle-avoidance method and apparatus
DE102016218232A1 (en) 2016-09-22 2018-03-22 Volkswagen Aktiengesellschaft A mobile unit positioning system, vehicle, and method of operating a positioning system
DE102017108348B3 (en) 2017-04-20 2018-06-21 Valeo Schalter Und Sensoren Gmbh Configuration of a sensor system with a neural network for a motor vehicle
DE102017121581A1 (en) 2017-09-18 2019-03-21 Valeo Schalter Und Sensoren Gmbh Use of a method for processing ultrasonically obtained data
DE102017123388A1 (en) 2017-10-09 2019-04-11 Valeo Schalter Und Sensoren Gmbh Position determination by means of ultrasound using an artificial neural network
DE102017127600A1 (en) * 2017-11-22 2019-05-23 Connaught Electronics Ltd. Method for automatic parking for a motor vehicle with a driving support system
DE102018205050A1 (en) * 2018-04-04 2019-10-10 Zf Friedrichshafen Ag Recognition of a passenger's request to be transported by a passenger transport vehicle
CN111542836A (en) * 2017-10-04 2020-08-14 华为技术有限公司 Method for selecting action for object by using neural network

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4875172A (en) * 1984-09-28 1989-10-17 Yutaka Kanayama Locomotion-command method for mobile robots

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4875172A (en) * 1984-09-28 1989-10-17 Yutaka Kanayama Locomotion-command method for mobile robots

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
FUJIWARA, K., u.a.: Development of Guidless Robot Vehicle, In: Proc. of 11th Intern. Symposium on Industrial Robots 1981, S. 203-210 *
KLAR, H., RAMACHER, U.: Microelectronics for Artificial Neural Nets Fortschr. Ber. VDI Reihe 21 Nr. 42 Düsseldorf: VDI-Verlag 1989 *
LEVI, P.: Autonome mobile Roboter, In: Technische Rundschau, 1987, H. 13, S. 126-135 *
OPITZ, R.: Natürliche und künstliche Intelligenz In: Forum(Data General GmbH) 1984, S. 15-18 *

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4218599A1 (en) * 1992-06-05 1993-12-16 Bodenseewerk Geraetetech Navigation and guidance system for autonomous mobile robots - has sensors for input to neuronal network based controller that has learning capacity to determine direction and motion commands
EP0582236A1 (en) * 1992-08-04 1994-02-09 Takata Corporation Vehicle crash predictive and evasive operation system by neural networks
US5541590A (en) * 1992-08-04 1996-07-30 Takata Corporation Vehicle crash predictive and evasive operation system by neural networks
EP0718732A3 (en) * 1994-11-15 1996-08-28 Alexander Kaske Method and device for controlling an autonomous exploring robot
DE19517198C1 (en) * 1995-05-11 1996-10-10 Samson Ag Controlling stroke position of regulating member
DE19523111A1 (en) * 1995-06-26 1997-01-02 Daimler Benz Ag Regulation of distance between motor vehicles, between vehicle behind and vehicle in front
DE19704983B4 (en) * 1997-01-29 2006-07-06 Diehl Bgt Defence Gmbh & Co. Kg Autonomous system, especially autonomous platform
US6678582B2 (en) 2002-05-30 2004-01-13 Kuka Roboter Gmbh Method and control device for avoiding collisions between cooperating robots
DE10226140A1 (en) * 2002-06-13 2004-01-08 Kuka Roboter Gmbh Method, for preventing collisions between industrial robots and other objects, involves checking predicted path configuration by distance/obstruction algorithms, stopping robot/other objects if collision impending
DE10324517A1 (en) * 2003-05-28 2004-12-16 Daimlerchrysler Ag Robot and teaching method therefor, for controlling the area in which the robot operates, is based on definition of permitted and forbidden movement areas in a computer model defining the robot's range of movement
EP1659471A1 (en) * 2004-11-17 2006-05-24 Hitachi, Ltd. Autonomous mobile equipment with position-of-object and own position detecting system
US7660665B2 (en) 2004-11-17 2010-02-09 Hitachi, Ltd. Autonomous mobile equipment and position-of-object and own position detecting system
DE102006044086B4 (en) * 2006-09-20 2013-05-29 Audi Ag System and method for the simulation of traffic situations, in particular accident-critical dangerous situations, as well as a driving simulator
DE102016009655A1 (en) 2016-08-09 2017-04-06 Daimler Ag Method for operating a vehicle
US11415996B2 (en) 2016-09-22 2022-08-16 Volkswagen Aktiengesellschaft Positioning system for a mobile unit, vehicle and method for operating a positioning system
DE102016218232A1 (en) 2016-09-22 2018-03-22 Volkswagen Aktiengesellschaft A mobile unit positioning system, vehicle, and method of operating a positioning system
WO2018054579A1 (en) 2016-09-22 2018-03-29 Volkswagen Aktiengesellschaft Position-determining system for a mobile unit, vehicle, and method for operating a position-determining system
DE102016218232B4 (en) 2016-09-22 2024-02-15 Volkswagen Aktiengesellschaft Positioning system for a mobile unit, vehicle and method for operating a positioning system
DE102017108348B3 (en) 2017-04-20 2018-06-21 Valeo Schalter Und Sensoren Gmbh Configuration of a sensor system with a neural network for a motor vehicle
CN107491072A (en) * 2017-09-05 2017-12-19 百度在线网络技术(北京)有限公司 Vehicle obstacle-avoidance method and apparatus
CN107491072B (en) * 2017-09-05 2021-03-30 百度在线网络技术(北京)有限公司 Vehicle obstacle avoidance method and device
DE102017121581B4 (en) 2017-09-18 2019-05-09 Valeo Schalter Und Sensoren Gmbh Use of a method for processing ultrasonically obtained data
DE102017121581A1 (en) 2017-09-18 2019-03-21 Valeo Schalter Und Sensoren Gmbh Use of a method for processing ultrasonically obtained data
CN111542836A (en) * 2017-10-04 2020-08-14 华为技术有限公司 Method for selecting action for object by using neural network
CN111542836B (en) * 2017-10-04 2024-05-17 华为技术有限公司 Method for selecting action by using neural network as object
DE102017123388A1 (en) 2017-10-09 2019-04-11 Valeo Schalter Und Sensoren Gmbh Position determination by means of ultrasound using an artificial neural network
DE102017127600A1 (en) * 2017-11-22 2019-05-23 Connaught Electronics Ltd. Method for automatic parking for a motor vehicle with a driving support system
DE102018205050A1 (en) * 2018-04-04 2019-10-10 Zf Friedrichshafen Ag Recognition of a passenger's request to be transported by a passenger transport vehicle

Similar Documents

Publication Publication Date Title
DE4001493A1 (en) Automatic control of vehicle motion - using ultrasonic object sensor providing input to learning process for vehicle control
DE3534183C2 (en)
EP3765927B1 (en) Method for generating a training data record for training an artificial intelligence module for a control device of a vehicle
EP3982349B1 (en) Flight device and method and computer aided system for controlling an aircraft
DE102019118366A1 (en) Method and control device for a system for controlling a motor vehicle
EP3776515B1 (en) Method and device for coordinating driving manoeuvres between one vehicle and at least one other vehicle
WO2021069129A1 (en) Device and method for controlling a robot device
DE102018119867B4 (en) Autonomous behavior control using policy triggering and execution
AT524822B1 (en) Method for testing a driver assistance system of a vehicle
DE102019202106A1 (en) Method for validating automated functions of a vehicle
EP0998700B1 (en) Method for generating connecting paths which can be used for guiding a vehicle to a predetermined target path
DE102021101225A1 (en) Autonomous vehicle and method of operating it
DE102021110309A1 (en) Method for modeling human driving behavior for training motion controllers based on a neural network
DE102018216561A1 (en) Method, device and computer program for determining an agent's strategy
WO2021191120A1 (en) Method for determining a value of a controller variable
DE102021114768A1 (en) Vehicle control using a neural network controller in combination with a model-based controller
WO2021244793A1 (en) Remote-controlled intervention in the tactical planning of autonomous vehicles
DE102020204042A1 (en) Method and system for programming an autonomously operated vehicle to carry out a trajectory
DE102020211260A1 (en) Teaching in trajectories in a motor vehicle
DE102015223329A1 (en) Method for controlling a material handling vehicle, evaluation device for a material handling vehicle, industrial truck
DE102022131178B3 (en) Method for automated driving of a vehicle and method for generating a machine learning model capable of this, as well as processor circuit and vehicle
DE102019128115B4 (en) Vehicle model for longitudinal dynamics
EP4414142A1 (en) Autonomous driving of a device
DE102021210593A1 (en) Method for training a neural environment network for determining an object-enriched environment of a mobile platform
DE102019209725B4 (en) Method for adjusting means of a control device

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection