DE4218599C2 - Navigations- und Führungssystem für autonome, mobile Roboter - Google Patents

Navigations- und Führungssystem für autonome, mobile Roboter

Info

Publication number
DE4218599C2
DE4218599C2 DE4218599A DE4218599A DE4218599C2 DE 4218599 C2 DE4218599 C2 DE 4218599C2 DE 4218599 A DE4218599 A DE 4218599A DE 4218599 A DE4218599 A DE 4218599A DE 4218599 C2 DE4218599 C2 DE 4218599C2
Authority
DE
Germany
Prior art keywords
neural network
navigation
guidance system
sensor
target state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE4218599A
Other languages
English (en)
Other versions
DE4218599A1 (de
Inventor
Uwe Krogmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bodenseewerk Geratetechnik GmbH
Original Assignee
Bodenseewerk Geratetechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bodenseewerk Geratetechnik GmbH filed Critical Bodenseewerk Geratetechnik GmbH
Priority to DE4218599A priority Critical patent/DE4218599C2/de
Publication of DE4218599A1 publication Critical patent/DE4218599A1/de
Application granted granted Critical
Publication of DE4218599C2 publication Critical patent/DE4218599C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Feedback Control In General (AREA)

Description

Die Erfindung betrifft ein Navigations- und Führungssystem für autonome, mobile Roboter gemäß dem Oberbegriff des Patentanspruchs 1.
Bei solchen autonomen, mobilen Robotern handelt es sich um autonome Systeme, die in der Lage sind, sich im Rahmen einer zielgerichteten Aufgabenstellung in einer Umgebung selbsttätig zu bewegen und zu orientieren. Darüberhinaus sollen sie die Fähigkeit besitzen, auf unvorhergesehene Ereignisse und Veränderungen in dieser Umgebung in einer Weise zu reagieren, daß die Ausführung der Aufgabe in Echtzeit weiter verfolgt werden kann.
Ein Teilaspekt dieser Problematik ist die Navigation und Führung des Roboters in der betreffenden Umgebung. Dazu gehört die Standortbestimmung, das Erkennen von Hindernissen und die Fahrwegplanung. Das ist mit herkömmlichen Rechnern praktisch nicht zu bewerkstelligen.
Durch die DE 40 01 493 A1 ist ein Navigations- und Führungssystem für autonome, mobile Roboter mit einem Entfernungssensor und einem weiteren Sensor und mit neuronalen Netzwerkmitteln bekannt, auf welche Daten von dem Entfernungssensor und dem weiteren Sensor aufgeschaltet sind und welche zur Erzeugung von Richtungs- und Fahrtkommandos aus den Daten der Sensoren trainiert sind. Der weitere Sensor liefert dabei in nicht näher offenbarter Weise Informationen über die Gesamtposition des Fahrzeugs. Die Sensoren werden von einer Mehrzahl von Ultraschallsensoren gebildet. Ein solches Führungssystem vermag sich nur dann in seiner Umgebung zu orientieren, wenn diese Umgebung Hindernisse enthält, auf welche die Ultraschallsensoren ansprechen. Es ist zwar wichtig, daß das Führungssystem Hindernisse erkennt. Das Führungssystem sollte sich aber auch in der Umgebung orientieren können, wenn diese keine hervorstehenden Hindernisse enthält, also beispielsweise von einem flachen Gelände gebildet ist.
Der Erfindung liegt die Aufgabe zugrunde, ein Navigations- und Führungssystem für mobile Roboter der eingangs definierten Art so auszubilden, daß das Führungssystem zwar vorstehende Hindernisse erkennen kann, zur Führung des mobilen Roboters aber nicht auf das Vorhandensein solcher vorstehenden Hindernisse angewiesen ist.
Erfindungsgemäß wird diese Aufgabe dadurch gelöst, daß
  • - einer der Sensoren ein bilderfassender Sensor ist, der Pixel liefert, welche ein Bild des von dem Sensor erfaßten Gesichtsfeldes darstellen, und
  • - der Entfernungssensor ein bilderfassender Laser- Entfernungsmesser ist, der die Entfernungen zu den verschiedenen Punkten des abgetasteten Gesichtsfeldes erfaßt, so daß ein räumliches Profil erhalten wird.
Der mobile Roboter enthält neben dem Entfernungssensor einen bilderfassenden Sensor. Diese Sensoren liefern Informationen über die Umgebung, in welcher sich der mobile Roboter bewegt und zwar in Form eines Bildes der Umgebung verbunden mit Entfernungsinformationen. Es hat sich gezeigt, daß diese Informationen es dem Roboter gestatten, seinen Standort zu bestimmen und Hindernisse zu erkennen. Durch die neuronalen Netzwerkmittel wird der Roboter in die Lage versetzt, sich selbst zu organisieren, zu lernen sowie sich an unvorhergesehene, veränderliche Situationen in seiner Umgebung anzupassen. Der Roboter kann seinen Fahrweg planen und optimieren und seine Bewegungen dementsprechend regeln.
Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
Ein Ausführungsbeispiel der Erfindung ist nachstehend unter Bezugnahme auf die zugehörigen Zeichnungen näher erläutert.
Fig. 1 ist ein Blockdiagramm und zeigt die Sensor-Netzwerk- Architektur bei einem Navigations- und Führungssystem für mobile Roboter.
Fig. 2 zeigt den Aufbau des neuronalen Netzwerkes zur Bestimmung eines Soll-Fahrweges.
Fig. 3 zeigt einen als neuronales Netzwerk ausgebildeten Führungsregler bei einem Navigations- und Führungssystem für mobile Roboter.
Fig. 4 zeigt die Architektur für das Trainieren des neuronalen Netzwerkes.
Fig. 5 ist das Ergebnis einer Simulation und zeigt, wie der mobile Roboter einem vorher trainierten Fahrweg folgt.
Fig. 6 ist ebenfalls das Ergebnis einer Simulation ähnlich Fig. 5 und zeigt, wie der mobile Roboter einen vorher nicht trainierten Weg sucht.
Fig. 1 zeigt die grundlegende Sensor-Netzwerk-Architektur eines Navigations- und Führungssystems für mobile Roboter. Der mobile Roboter enthält einen bilderfassenden Sensor 10. Das kann ein Videosensor, ein Radarsensor oder ein Infrarotsensor sein. Der Sensor 10 liefert Pixel, die ein Bild des von dem Sensor erfaßten Gesichtsfeldes darstellen. Der bilderfassende Sensor kann z. B. eine Pixelmatrix mit 32×32 Pixeln liefern. Weiterhin enthält der mobile Roboter einen Entfernungssensor 12. Das kann ein Laser-Entfernungsmesser sein. Auch der Entfernungssensor ist "bilderfassend" in dem Sinne, daß er die Entfernungen zu den verschiedenen Punkten des abgetasteten Gesichtsfeldes erfaßt und somit ein räumliches Profil liefert. Der Laser Entfernungsmesser kann beispielsweise 8×32 Pixel liefern. Die Ausgangsdaten des bilderfassenden Sensors 10 und des Entfernungssensors 12 sind auf ein neuronales Netzwerk 14 geschaltet. Das neuronale Netzwerk 14 ist ein dreischichtiges Netzwerk mit einer Eingangsschicht 16, einer "verborgenen" Schicht 18 und einer Ausgangsschicht 20. Das neuronale Netzwerk ist ausschließlich vorwärts vernetzt. Es enthält keine Verbindungen innerhalb einer Schicht und keine Rückführungen. Dadurch ist die Stabilität des Netzwerkes gewährleistet. Das neuronale Netzwerk 14 liefert nach geeignetem Training an einem Ausgang 22 Richtungskommandos und an einem Ausgang 24 Fahrtkommandos zur Bestimmung der Fahrtrichtung und Geschwindigkeit des mobilen Roboters.
Diese Information wird in einem neuronalen Führungssystem des mobilen Roboters weiterverarbeitet.
Das Netzwerk 14 wird überwacht trainiert mit realen oder simulierten Szenen oder Umgebungsdaten. Das Training erfolgt mit Hilfe des "Backpropagation"-Algorithmus.
Bei einfachen mobilen Robotern können die Richtungs- und Fahrtkommandos, wie sie von dem neuronalen Netz 14 ausgegeben werden, direkt auf Stellglieder des Roboters aufgeschaltet werden. Das ist insbesondere möglich, wenn es sich um Einsätze in weitgehend strukturierter Umgebung handelt. Mobile Roboter für Einsätze in unstrukturierter und möglicherweise nicht­ kooperativer Umgebung erfordern eine Struktur des Führungssystems, wie sie in Fig. 2 dargestellt ist.
Die Netzwerkmittel enthalten dort ein erstes neuronales Netzwerk 26. Auf das neuronale Netzwerk 26 sind die Daten von dem bilderfassenden Sensor 10 und dem Entfernungssensor 12 aufgeschaltet. Das neuronale Netzwerk 26 ist so trainiert, daß es die Daten des bilderfassenden Sensors 10 und des Entfernungssensors 12 zunächst strukturiert. Es werden Merkmale, Cluster, Kategorien etc. extrahiert. Hierzu werden als Netzwerkstrukturen selbstorganisierende Merkmalskarten und adaptive Resonator-Technologien verwendet.
Die so strukturierten Daten werden in einem zweiten neuronalen Netzwerk 28 einem Klassifikationsprozeß unterworfen. Das Netzwerk 28 ist ein "Backpropagation"-Netzwerk oder ein "Assoziativspeicher"-Netzwerk.
Basierend auf den Ergebnissen der Datenstrukturierung und der Klassifikation werden durch ein weiteres neuronales Netzwerk 30 mögliche Fahrwege generiert. Aus diesen Fahrwegen wird ein optimaler Fahrweg ausgewählt. Für diese Optimierungsaufgabe wird als Netzwerk 30 ein "Hopfield"-Netzwerk verwendet. Das Netzwerk 30 liefert als Ergebnis der Fahrweg-Planung einen Soll-Fahrweg für das jeweils aktuelle Planungsintervall. Ein solcher Soll-Fahrweg kann beschrieben werden durch drei zeitabhängige Variablen X(t), Y(t) und (t), wobei X(t) die Nord-Positionskoordinate, Y(t) die Ost-Positionskoordinate und der Winkel (t) die Richtung der Bezugsachse des mobilen Roboters in dem Navigationsreferenzsystem des Einsatzgebietes angibt. Diese Daten des Soll-Fahrwegs können in einem Soll- Zustandsvektor Z D(t) zusammengefaßt werden:
Z D(t) = XD(t), YD(t), D(t)T.
Fig. 3 zeigt nun einen ebenfalls mit einem neuronalen Netzwerk 32 ausgebildeten Regler 33, der den mobilen Roboter 34 längs des so vorgegebenen Soll-Fahrweges führt. Das Netzwerk 32 ist ein mehrschichtiges "Feedforward"-Netzwerk mit einer Eingangsschicht 35, einer "verborgenen" Schicht 36 und einer Ausgangsschicht 38. Auf das Netzwerk 32 werden die zeitabhängigen Komponenten des Soll-Zustandsvektors Z D(t) in Form diskreter, mit einer Abtastperiode T abgetasteter Werte Z D(nT) aufgeschaltet. Die Abtastung des Soll-Zustandsvektors Z D(t) ist in Fig. 3 durch einen Schalter 40 dargestellt. Die abgetasteten diskreten Werte werden durch Verzögerungsglieder 42, 44 . . . nacheinander um jeweils eine Abtastperiode T verzögert und auf das neuronale Netzwerk 32 aufgeschaltet. Es liegt dann an einem ersten Eingang 46 des neuronalen Netzwerkes 32 der Soll-Zustandsvektor Z D(nT) zum Zeitpunkt nT. An einem zweiten Eingang 48 des neuronalen Netzwerkes 32 liegt der Soll-Zustandsvektor Z D((n-1)T), der dem Abtastzeitpunkt (n-1)T zugeordnet ist, usw. An einem Eingang 50 liegt schließlich der Soll-Zustandsvektor Z D((n-k)T). Das neuronale Netzwerk erhält somit an seinen Eingängen 46 . . . 50 sämtliche Soll-Zustandsvektoren für ein "Planungsintervall" der Länge kT. Das Netzwerk 32 liefert an einem Ausgang 52 zum Zeitpunkt nT einen Stellvektor u(nT).
Der Regler 33 enthält eine Rückführschleife 54. Der Stellvektor u(nT) wird über Verzögerungsglieder 56, 58 . . . um jeweils eine Abtastperiode T verzögert auf weitere Eingänge 60 . . . 62 des neuronalen Netzwerkes 32 geschaltet. Der Eingang 62 erhält den Stellvektor u((n-1)T). Der Eingang 60 erhält schließlich den Stellvektor u((n-1)T).
Der Stellvektor ist
u(t) = v(t), (t)T.
Der Stellvektor u(t) enthält somit die Komponenten Fahrgeschwindigkeit v(t) und Stellung (t) des Fahrtrichtungsgebers. Dieser Stellvektor ist auf die Stellglieder des mobilen Roboters 34 aufgeschaltet. Der mobile Roboter 34 folgt dann einem Fahrweg, der durch einen Ist- Zustandsvektor Z(t) gekennzeichnet ist und dem durch den Soll- Zustandsvektor Z D(t) vorgegebenen optimalen Fahrweg entspricht.
Fig. 4 veranschaulicht das Trainieren des Netzwerkes 32 des Reglers 33.
Auf den mobilen Roboter 34 oder ein nichtlineares Modell dieses mobilen Roboters werden in festen Abtastperioden Stellvektoren u(nT) aufgeschaltet. Diese Stellvektoren ergeben sich durch Abtastung eines zeitabhängigen Stellvektors u(t). Diese Abtastung ist durch einen Schalter 64 symbolisiert. Der mobile Roboter 34 (oder das Modell des mobilen Roboters) folgt dann einem Fahrweg, der durch einen zeitabhängigen Zustandsvektor Z(t) beschrieben wird. Der Zustandsvektor Z(t) wird wieder mit den festen Abtastperioden T abgetastet. Diese Abtastung ist durch einen Schalter 66 angedeutet. Die so erhaltenen Zustandsvektoren werden durch Verzögerungsglieder 68, 70, . . . um jeweils eine Abtastperiode T verzögert und auf Eingänge 72, 74, . . . 76 des neuronalen Netzes 32 geschaltet. An dem Eingang 72 liegt dann der Zustandsvektor Z(nT), der dem Abtastzeitpunkt nT zugeordnet ist. An dem Eingang 74 liegt der Zustandsvektor Z((n-1)T), der dem Abtastzeitpunkt (n-1)T zugeordnet ist. An dem Eingang 76 liegt schließlich der Zustandsvektor Z((n-k)T), der dem Abtastzeitpunkt (n-k)T zugeordnet ist.
In einer Schleife 78 entsprechend der Rückführschleife 54 in Fig. 3 ist der eingegebene Stellvektor u(nT) mit stufenweiser Verzögerung auf Eingänge des neuronalen Netzwerkes 32 geschaltet. Die stufenweise Verzögerung wird durch Verzögerungsglieder 80, 82, . . . bewirkt. An einem Eingang 84 liegt der eingegebene Stellvektor u((n-1)T). An einem Eingang 86 liegt schließlich der eingegebene Stellvektor u((n-1)T).
Das neuronale Netzwerk 32 liefert an einem Ausgang 88 einen Schätzwert û(nT) für den Stellvektor. Dieser Schätzwert weicht zunächst von dem eingegebenen Stellvektor u(nT) ab. Es wird in einem Summierpunkt 90 die Differenz von eingegebenem Stellvektor und Schätzwert gebildet. Diese Differenz ist auf einen Lern-Algorithmus 92 geschaltet. Der Lern-Algorithmus 92 ist ein "Backpropagation"-Algorithmus. Durch diesen Algorithmus werden die Verbindungsgewichte wÿ des neuronalen Netzwerkes schrittweise verändert. Diese Veränderung geschieht in einer solchen Weise, daß nach einer Vielzahl von Lernschritten das neuronale Netzwerk den Zusammenhang zwischen eingegebenen Zustandsvektoren Z und Stellvektoren u korrekt wiedergibt. Die Veränderung der wÿ ist durch einen Pfeil 94 angedeutet.
Fig. 5 zeigt das Ergebnis einer Simulation der Bewegung eines mobilen Roboters, der mit einem Regler 33 der beschriebenen Art, der gemäß Fig. 4 trainiert wurde, längs eines vorgegebenen, durch einen Soll-Zustandsvektor definierten Soll-Fahrweges geführt wird. Die ausgezogenen Linien zeigen den Soll-Fahrweg, die gepunkteten Linien zeigen den Ist- Fahrweg. Fig. 5 zeigt den Fall, daß die vorgegebenen Fahrwege selbst vorher trainiert worden waren. Fig. 6 ist eine entsprechende Darstellung für den Fall, daß die vorgegebenen Fahrwege selbst nicht trainiert worden waren. Das unerwartet gute Verhalten des Netzwerkes liegt an der generalisierenden Wirkung der hier verwendeten Struktur des Netzwerkes.

Claims (7)

1. Navigations- und Führungssystem für autonome, mobile Roboter mit die Umgebung aufnehmenden Sensoren einschließlich einem Entfernungssensor (12) und mit neuronalen Netzwerkmitteln (14; 26, 28, 30; 32), auf welche Daten von dem Entfernungssensor (12) aufgeschaltet sind und welche zur Erzeugung von Richtungs- und Fahrtkommandos aus den Daten der Sensoren trainiert sind, dadurch gekennzeichnet, daß
  • - einer der Sensoren ein bilderfassender Sensor (10) ist, der Pixel liefert, welche ein Bild des von dem Sensor erfaßten Gesichtsfeldes darstellen, und
  • - der Entfernungssensor (12) ein bilderfassender Laser- Entfernungsmesser ist, der die Entfernungen zu den verschiedenen Punkten des abgetasteten Gesichtsfeldes erfaßt, so daß ein räumliches Profil erhalten wird.
2. Navigations- und Führungssystem nach Anspruch 1, dadurch gekennzeichnet, daß das Netzwerk (14) drei Schichten (16, 18, 20) enthält und ausschließlich vorwärts vernetzt ist.
3. Navigations- und Führungssystem nach Anspruch 1, gekennzeichnet durch
  • (a) ein erstes neuronales Netzwerk (26) dessen Netzwerkarchitektur zum Strukturieren der Sensordaten selbst­ organisierende Merkmalskarten oder adaptive Resonator- Technologien verwendet mit dem Ziel, Merkmale, Cluster oder Kategorien zu extrahieren,
  • (b) ein zweites neuronales Netzwerk (28) vom Typ "Backpropagation" oder "Assoziativspeicher" auf welches strukturierte Ausgangsdaten des ersten neuronalen Netzwerkes (26) aufgeschaltet sind zur Durchführung eines Klassifikationsprozesses mit den strukturierten Daten, und
  • (c) ein drittes neuronales Netzwerk (30) vom "Hopfield"-Typ zur Generierung möglicher Fahrwege des mobilen Roboters und einer Optimierung des Fahrweges basierend auf dem Ergebnis der Strukturierung der Daten und der Klassifikation, wobei der optimierte Fahrweg durch einen Soll-Zustandsvektor (Z D(t)) dargestellt ist.
4. Navigations- und Führungssystem nach Anspruch 3, dadurch gekennzeichnet, daß der Soll-Zustandsvektor (Z D(t)) auf einen mit einem neuronalen Netz (32) aufgebauten Regler (33) aufgeschaltet ist, der Stellsignale (u(t)) für Fahrgeschwindigkeit und Fahrtrichtung erzeugt, derart daß der Ist-Zustandsvektor (Z(t)) des mobilen Roboters dem Soll- Zustandsvektor (Z D(t)) folgt.
5. Navigations- und Führungssystem nach Anspruch 4, dadurch gekennzeichnet, daß der Regler (33) ein dreischichtiges neuronales Netzwerk (32) aufweist.
6. Navigations- und Führungssystem nach Anspruch 4 oder 5, dadurch gekennzeichnet, daß
  • (a) der zeitabhängige Soll-Zustandsvektor (Z D(t)) durch Abtastmittel (40) in festen Abtastperioden (T) abtastbar ist, so daß abgetastete Soll-Zustandsvektoren (Z D(nT)) erhalten und auf den Regler (33) aufgeschaltet werden,
  • (b) das neuronale Netzwerk (32) eine Mehrzahl von Eingängen (46, 48 . . . 50) aufweist, die in eine Reihe von einem ersten bis zu einem letzten Eingang (46 bzw. 50) geordnet sind,
  • (c) eine Mehrzahl von Verzögerungsgliedern (42, 44 . . . ) vorgesehen sind, die jeweils zwischen benachbarte Eingänge (46, 48, . . . 50) des neuronalen Netzwerkes (32) geschaltet sind und jeweils eine Verzögerung um eine Abtastperiode bewirken, und
  • (d) die abgetasteten Soll-Zustandsvektoren (Z D(nT)) auf den ersten Eingang (46) der Reihe aufschaltbar sind.
7. Navigations- und Führungssystem nach Anspruch 6, dadurch gekennzeichnet, daß
  • (a) der Regler (33) eine Rückführschleife (54) aufweist, über welche Stellvektoren (u(nT)) auf weitere Eingänge (60, . . . 62) aufschaltbar sind, die in einer Reihe von einem ersten (60) zu einem letzten Eingang (62) geordnet sind,
  • (b) eine Mehrzahl von Verzögerungsgliedern (56, 58, . . . ) vorgesehen sind, die in der Rückführschleife (54) vor und zwischen den weiteren Eingängen (60, . . . 62) geschaltet sind und jeweils eine Verzögerung um eine Abtastperiode bewirken, und
  • (c) die Stellvektoren (u(nT)) jeweils auf das dem ersten Eingang (60) vorgeschaltete Verzögerungsglied (56) aufgeschaltet sind.
DE4218599A 1992-06-05 1992-06-05 Navigations- und Führungssystem für autonome, mobile Roboter Expired - Fee Related DE4218599C2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE4218599A DE4218599C2 (de) 1992-06-05 1992-06-05 Navigations- und Führungssystem für autonome, mobile Roboter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE4218599A DE4218599C2 (de) 1992-06-05 1992-06-05 Navigations- und Führungssystem für autonome, mobile Roboter

Publications (2)

Publication Number Publication Date
DE4218599A1 DE4218599A1 (de) 1993-12-16
DE4218599C2 true DE4218599C2 (de) 1996-06-27

Family

ID=6460485

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4218599A Expired - Fee Related DE4218599C2 (de) 1992-06-05 1992-06-05 Navigations- und Führungssystem für autonome, mobile Roboter

Country Status (1)

Country Link
DE (1) DE4218599C2 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7049945B2 (en) 2000-05-08 2006-05-23 Automotive Technologies International, Inc. Vehicular blind spot identification and monitoring system
US7209221B2 (en) * 1994-05-23 2007-04-24 Automotive Technologies International, Inc. Method for obtaining and displaying information about objects in a vehicular blind spot
US7783403B2 (en) 1994-05-23 2010-08-24 Automotive Technologies International, Inc. System and method for preventing vehicular accidents
DE19546506A1 (de) * 1995-12-13 1997-06-19 Daimler Benz Ag Fahrzeug-Navigationssystem und Signalverarbeitungsverfahren für ein solches Navigationssystem
GB9827358D0 (en) * 1998-12-12 2000-01-19 British Aerospace Combat aid system
US7852462B2 (en) 2000-05-08 2010-12-14 Automotive Technologies International, Inc. Vehicular component control methods based on blind spot monitoring
WO2002027275A2 (en) * 2000-09-27 2002-04-04 Hrl Laboratories, Llc Distributed sensing apparatus and method of use therefor
DE102016009655A1 (de) 2016-08-09 2017-04-06 Daimler Ag Verfahren zum Betrieb eines Fahrzeugs
CN112212867A (zh) * 2020-10-19 2021-01-12 中国科学技术大学 一种机器人自定位与导航的方法及系统
CN113485326A (zh) * 2021-06-28 2021-10-08 南京深一科技有限公司 一种基于视觉导航的自主移动机器人
CN113867370B (zh) * 2021-12-02 2022-04-12 智道网联科技(北京)有限公司 一种基于时间同步的障碍物航向角计算方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4001493A1 (de) * 1990-01-19 1991-07-25 Pietzsch Ibp Gmbh Verfahren und einrichtung zur selbsttaetigen steuerung von bewegbaren geraeten

Also Published As

Publication number Publication date
DE4218599A1 (de) 1993-12-16

Similar Documents

Publication Publication Date Title
DE102007001025B4 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE4218599C2 (de) Navigations- und Führungssystem für autonome, mobile Roboter
EP3765927B1 (de) Verfahren zum erzeugen eines trainingsdatensatzes zum trainieren eines künstlichen-intelligenz-moduls für eine steuervorrichtung eines fahrzeugs
DE102013203165A1 (de) Verbesserte Datenverbindung einer Vereinigung unter Verwendung einer gewichteten bayesschen Filterung
WO2020016385A1 (de) Verfahren und system zum bestimmen einer position eines fahrzeugs
DE112020001369T5 (de) Gepulste synaptische elemente für gepulste neuronale netze
DE10011890C2 (de) Verfahren zur Bestimmung der Zustandsgrössen eines sich bewegenden starren Körpers im Raum
DE4001493A1 (de) Verfahren und einrichtung zur selbsttaetigen steuerung von bewegbaren geraeten
DE102020209538A1 (de) Vorrichtung und Verfahren zum Ermitteln einer physikalischen Eigenschaft eines physikalischen Objekts
DE102019215903A1 (de) Verfahren und Vorrichtung zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten eines Sensors insbesondere eines Fahrzeugs, Verfahren zum Trainieren und Verfahren zum Ansteuern
DE102018128535B4 (de) Trainieren eines künstlichen neuronalen Netzwerks mit durch Sensoren eines Fahrzeugs erfassten Daten
EP3746850B1 (de) Verfahren zum ermitteln eines zeitlichen verlaufs einer messgrösse, prognosesystem, aktorsteuerungssystem, verfahren zum trainieren des aktorsteuerungssystems, trainingssystem, computerprogramm und maschinenlesbares speichermedium
EP3741518B1 (de) Verfahren und vorrichtung für eine automatisierte beeinflussung eines aktuators
EP1020699B1 (de) Flugkörper
DE102020200165B4 (de) Robotersteuereinrichtung und Verfahren zum Steuern eines Roboters
DE19645556A1 (de) Vorrichtung zur Erzeugung von Lenksignalen für zielverfolgende Flugkörper
EP1014028B1 (de) Lenk,- Navigations- und Regelsystem für Flugkörper
DE102021114768A1 (de) Fahrzeugsteuerung unter Verwendung eines Controllers eines neuronalen Netzes in Kombination mit einem modellbasierten Controller
DE102021210593A1 (de) Verfahren zum Trainieren eines neuronalen Umfeld-Netzwerks zum Bestimmen eines Objekt-angereicherten Umfelds einer mobilen Plattform
DE10044026C1 (de) Verfahren zum Verfolgen eines sich bewegenden Ziels
DE102020214123B4 (de) Verfahren zur Erfassung eines Umfelds eines ersten Sensorsystems
DE102021212697A1 (de) Verfahren zum Bestimmen eines Bewegungspfades für ein mobiles Gerät
DE19704983B4 (de) Autonomes System, insbesondere autonome Plattform
WO2023194009A1 (de) Verfahren zur prädiktion von trajektorien von objekten
DE102022207041A1 (de) Verfahren zum Planen von Bewegungstrajektorien durch ein Modell für maschinelles Lernen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee