DE4218599C2 - Navigations- und Führungssystem für autonome, mobile Roboter - Google Patents
Navigations- und Führungssystem für autonome, mobile RoboterInfo
- Publication number
- DE4218599C2 DE4218599C2 DE4218599A DE4218599A DE4218599C2 DE 4218599 C2 DE4218599 C2 DE 4218599C2 DE 4218599 A DE4218599 A DE 4218599A DE 4218599 A DE4218599 A DE 4218599A DE 4218599 C2 DE4218599 C2 DE 4218599C2
- Authority
- DE
- Germany
- Prior art keywords
- neural network
- navigation
- guidance system
- sensor
- target state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Feedback Control In General (AREA)
Description
Die Erfindung betrifft ein Navigations- und Führungssystem für
autonome, mobile Roboter gemäß dem Oberbegriff des Patentanspruchs 1.
Bei solchen autonomen, mobilen Robotern handelt es sich um
autonome Systeme, die in der Lage sind, sich im Rahmen einer
zielgerichteten Aufgabenstellung in einer Umgebung selbsttätig
zu bewegen und zu orientieren. Darüberhinaus sollen sie die
Fähigkeit besitzen, auf unvorhergesehene Ereignisse und
Veränderungen in dieser Umgebung in einer Weise zu reagieren,
daß die Ausführung der Aufgabe in Echtzeit weiter verfolgt
werden kann.
Ein Teilaspekt dieser Problematik ist die Navigation und
Führung des Roboters in der betreffenden Umgebung. Dazu gehört
die Standortbestimmung, das Erkennen von Hindernissen und die
Fahrwegplanung. Das ist mit herkömmlichen Rechnern praktisch
nicht zu bewerkstelligen.
Durch die DE 40 01 493 A1 ist ein Navigations- und
Führungssystem für autonome, mobile Roboter mit einem
Entfernungssensor und einem weiteren Sensor und mit neuronalen
Netzwerkmitteln bekannt, auf welche Daten von dem
Entfernungssensor und dem weiteren Sensor aufgeschaltet sind
und welche zur Erzeugung von Richtungs- und Fahrtkommandos aus
den Daten der Sensoren trainiert sind. Der weitere Sensor
liefert dabei in nicht näher offenbarter Weise Informationen
über die Gesamtposition des Fahrzeugs. Die Sensoren werden von
einer Mehrzahl von Ultraschallsensoren gebildet. Ein solches
Führungssystem vermag sich nur dann in seiner Umgebung zu
orientieren, wenn diese Umgebung Hindernisse enthält, auf
welche die Ultraschallsensoren ansprechen. Es ist zwar
wichtig, daß das Führungssystem Hindernisse erkennt. Das
Führungssystem sollte sich aber auch in der Umgebung
orientieren können, wenn diese keine hervorstehenden
Hindernisse enthält, also beispielsweise von einem flachen
Gelände gebildet ist.
Der Erfindung liegt die Aufgabe zugrunde, ein Navigations- und
Führungssystem für mobile Roboter der eingangs definierten Art
so auszubilden, daß das Führungssystem zwar vorstehende
Hindernisse erkennen kann, zur Führung des mobilen Roboters
aber nicht auf das Vorhandensein solcher vorstehenden
Hindernisse angewiesen ist.
Erfindungsgemäß wird diese Aufgabe dadurch gelöst, daß
- - einer der Sensoren ein bilderfassender Sensor ist, der Pixel liefert, welche ein Bild des von dem Sensor erfaßten Gesichtsfeldes darstellen, und
- - der Entfernungssensor ein bilderfassender Laser- Entfernungsmesser ist, der die Entfernungen zu den verschiedenen Punkten des abgetasteten Gesichtsfeldes erfaßt, so daß ein räumliches Profil erhalten wird.
Der mobile Roboter enthält neben dem Entfernungssensor einen
bilderfassenden Sensor. Diese Sensoren liefern Informationen
über die Umgebung, in welcher sich der mobile Roboter bewegt
und zwar in Form eines Bildes der Umgebung verbunden mit
Entfernungsinformationen. Es hat sich gezeigt, daß diese
Informationen es dem Roboter gestatten, seinen Standort zu
bestimmen und Hindernisse zu erkennen. Durch die neuronalen
Netzwerkmittel wird der Roboter in die Lage versetzt, sich
selbst zu organisieren, zu lernen sowie sich an
unvorhergesehene, veränderliche Situationen in seiner Umgebung
anzupassen. Der Roboter kann seinen Fahrweg planen und
optimieren und seine Bewegungen dementsprechend regeln.
Ausgestaltungen der Erfindung sind Gegenstand der
Unteransprüche.
Ein Ausführungsbeispiel der Erfindung ist nachstehend unter
Bezugnahme auf die zugehörigen Zeichnungen näher erläutert.
Fig. 1 ist ein Blockdiagramm und zeigt die Sensor-Netzwerk-
Architektur bei einem Navigations- und Führungssystem
für mobile Roboter.
Fig. 2 zeigt den Aufbau des neuronalen Netzwerkes zur
Bestimmung eines Soll-Fahrweges.
Fig. 3 zeigt einen als neuronales Netzwerk ausgebildeten
Führungsregler bei einem Navigations- und Führungssystem
für mobile Roboter.
Fig. 4 zeigt die Architektur für das Trainieren des neuronalen
Netzwerkes.
Fig. 5 ist das Ergebnis einer Simulation und zeigt, wie der
mobile Roboter einem vorher trainierten Fahrweg folgt.
Fig. 6 ist ebenfalls das Ergebnis einer Simulation ähnlich
Fig. 5 und zeigt, wie der mobile Roboter einen vorher
nicht trainierten Weg sucht.
Fig. 1 zeigt die grundlegende Sensor-Netzwerk-Architektur eines
Navigations- und Führungssystems für mobile Roboter. Der
mobile Roboter enthält einen bilderfassenden Sensor 10. Das
kann ein Videosensor, ein Radarsensor oder ein Infrarotsensor
sein. Der Sensor 10 liefert Pixel, die ein Bild des von dem
Sensor erfaßten Gesichtsfeldes darstellen. Der bilderfassende
Sensor kann z. B. eine Pixelmatrix mit 32×32 Pixeln liefern.
Weiterhin enthält der mobile Roboter einen Entfernungssensor
12. Das kann ein Laser-Entfernungsmesser sein. Auch der
Entfernungssensor ist "bilderfassend" in dem Sinne, daß er die
Entfernungen zu den verschiedenen Punkten des abgetasteten
Gesichtsfeldes erfaßt und somit ein räumliches Profil liefert.
Der Laser Entfernungsmesser kann beispielsweise 8×32 Pixel
liefern. Die Ausgangsdaten des bilderfassenden Sensors 10 und
des Entfernungssensors 12 sind auf ein neuronales Netzwerk 14
geschaltet. Das neuronale Netzwerk 14 ist ein dreischichtiges
Netzwerk mit einer Eingangsschicht 16, einer "verborgenen"
Schicht 18 und einer Ausgangsschicht 20. Das neuronale
Netzwerk ist ausschließlich vorwärts vernetzt. Es enthält
keine Verbindungen innerhalb einer Schicht und keine
Rückführungen. Dadurch ist die Stabilität des Netzwerkes
gewährleistet. Das neuronale Netzwerk 14 liefert nach
geeignetem Training an einem Ausgang 22 Richtungskommandos und
an einem Ausgang 24 Fahrtkommandos zur Bestimmung der
Fahrtrichtung und Geschwindigkeit des mobilen Roboters.
Diese Information wird in einem neuronalen Führungssystem des
mobilen Roboters weiterverarbeitet.
Das Netzwerk 14 wird überwacht trainiert mit realen oder
simulierten Szenen oder Umgebungsdaten. Das Training erfolgt
mit Hilfe des "Backpropagation"-Algorithmus.
Bei einfachen mobilen Robotern können die Richtungs- und
Fahrtkommandos, wie sie von dem neuronalen Netz 14 ausgegeben
werden, direkt auf Stellglieder des Roboters aufgeschaltet
werden. Das ist insbesondere möglich, wenn es sich um Einsätze
in weitgehend strukturierter Umgebung handelt. Mobile Roboter
für Einsätze in unstrukturierter und möglicherweise nicht
kooperativer Umgebung erfordern eine Struktur des
Führungssystems, wie sie in Fig. 2 dargestellt ist.
Die Netzwerkmittel enthalten dort ein erstes neuronales
Netzwerk 26. Auf das neuronale Netzwerk 26 sind die Daten von
dem bilderfassenden Sensor 10 und dem Entfernungssensor 12
aufgeschaltet. Das neuronale Netzwerk 26 ist so trainiert, daß
es die Daten des bilderfassenden Sensors 10 und des
Entfernungssensors 12 zunächst strukturiert. Es werden
Merkmale, Cluster, Kategorien etc. extrahiert. Hierzu werden
als Netzwerkstrukturen selbstorganisierende Merkmalskarten und
adaptive Resonator-Technologien verwendet.
Die so strukturierten Daten werden in einem zweiten neuronalen
Netzwerk 28 einem Klassifikationsprozeß unterworfen. Das
Netzwerk 28 ist ein "Backpropagation"-Netzwerk oder ein
"Assoziativspeicher"-Netzwerk.
Basierend auf den Ergebnissen der Datenstrukturierung und der
Klassifikation werden durch ein weiteres neuronales Netzwerk
30 mögliche Fahrwege generiert. Aus diesen Fahrwegen wird ein
optimaler Fahrweg ausgewählt. Für diese Optimierungsaufgabe
wird als Netzwerk 30 ein "Hopfield"-Netzwerk verwendet. Das
Netzwerk 30 liefert als Ergebnis der Fahrweg-Planung einen
Soll-Fahrweg für das jeweils aktuelle Planungsintervall. Ein
solcher Soll-Fahrweg kann beschrieben werden durch drei
zeitabhängige Variablen X(t), Y(t) und (t), wobei X(t) die
Nord-Positionskoordinate, Y(t) die Ost-Positionskoordinate und
der Winkel (t) die Richtung der Bezugsachse des mobilen
Roboters in dem Navigationsreferenzsystem des Einsatzgebietes
angibt. Diese Daten des Soll-Fahrwegs können in einem Soll-
Zustandsvektor Z D(t) zusammengefaßt werden:
Z D(t) = XD(t), YD(t), D(t)T.
Fig. 3 zeigt nun einen ebenfalls mit einem neuronalen Netzwerk
32 ausgebildeten Regler 33, der den mobilen Roboter 34 längs
des so vorgegebenen Soll-Fahrweges führt. Das Netzwerk 32 ist
ein mehrschichtiges "Feedforward"-Netzwerk mit einer
Eingangsschicht 35, einer "verborgenen" Schicht 36 und einer
Ausgangsschicht 38. Auf das Netzwerk 32 werden die
zeitabhängigen Komponenten des Soll-Zustandsvektors Z D(t) in
Form diskreter, mit einer Abtastperiode T abgetasteter Werte
Z D(nT) aufgeschaltet. Die Abtastung des Soll-Zustandsvektors
Z D(t) ist in Fig. 3 durch einen Schalter 40 dargestellt. Die
abgetasteten diskreten Werte werden durch Verzögerungsglieder
42, 44 . . . nacheinander um jeweils eine Abtastperiode T
verzögert und auf das neuronale Netzwerk 32 aufgeschaltet. Es
liegt dann an einem ersten Eingang 46 des neuronalen
Netzwerkes 32 der Soll-Zustandsvektor Z D(nT) zum Zeitpunkt nT.
An einem zweiten Eingang 48 des neuronalen Netzwerkes 32 liegt
der Soll-Zustandsvektor Z D((n-1)T), der dem Abtastzeitpunkt
(n-1)T zugeordnet ist, usw. An einem Eingang 50 liegt
schließlich der Soll-Zustandsvektor Z D((n-k)T). Das neuronale
Netzwerk erhält somit an seinen Eingängen 46 . . . 50 sämtliche
Soll-Zustandsvektoren für ein "Planungsintervall" der Länge
kT. Das Netzwerk 32 liefert an einem Ausgang 52 zum Zeitpunkt
nT einen Stellvektor u(nT).
Der Regler 33 enthält eine Rückführschleife 54. Der
Stellvektor u(nT) wird über Verzögerungsglieder 56, 58 . . . um
jeweils eine Abtastperiode T verzögert auf weitere Eingänge
60 . . . 62 des neuronalen Netzwerkes 32 geschaltet. Der Eingang
62 erhält den Stellvektor u((n-1)T). Der Eingang 60 erhält
schließlich den Stellvektor u((n-1)T).
Der Stellvektor ist
u(t) = v(t), (t)T.
Der Stellvektor u(t) enthält somit die Komponenten
Fahrgeschwindigkeit v(t) und Stellung (t) des
Fahrtrichtungsgebers. Dieser Stellvektor ist auf die
Stellglieder des mobilen Roboters 34 aufgeschaltet. Der mobile
Roboter 34 folgt dann einem Fahrweg, der durch einen Ist-
Zustandsvektor Z(t) gekennzeichnet ist und dem durch den Soll-
Zustandsvektor Z D(t) vorgegebenen optimalen Fahrweg
entspricht.
Fig. 4 veranschaulicht das Trainieren des Netzwerkes 32 des
Reglers 33.
Auf den mobilen Roboter 34 oder ein nichtlineares Modell
dieses mobilen Roboters werden in festen Abtastperioden
Stellvektoren u(nT) aufgeschaltet. Diese Stellvektoren ergeben
sich durch Abtastung eines zeitabhängigen Stellvektors u(t).
Diese Abtastung ist durch einen Schalter 64 symbolisiert. Der
mobile Roboter 34 (oder das Modell des mobilen Roboters) folgt
dann einem Fahrweg, der durch einen zeitabhängigen
Zustandsvektor Z(t) beschrieben wird. Der Zustandsvektor Z(t)
wird wieder mit den festen Abtastperioden T abgetastet. Diese
Abtastung ist durch einen Schalter 66 angedeutet. Die so
erhaltenen Zustandsvektoren werden durch Verzögerungsglieder
68, 70, . . . um jeweils eine Abtastperiode T verzögert und auf
Eingänge 72, 74, . . . 76 des neuronalen Netzes 32 geschaltet. An
dem Eingang 72 liegt dann der Zustandsvektor Z(nT), der dem
Abtastzeitpunkt nT zugeordnet ist. An dem Eingang 74 liegt der
Zustandsvektor Z((n-1)T), der dem Abtastzeitpunkt (n-1)T
zugeordnet ist. An dem Eingang 76 liegt schließlich der
Zustandsvektor Z((n-k)T), der dem Abtastzeitpunkt (n-k)T
zugeordnet ist.
In einer Schleife 78 entsprechend der Rückführschleife 54 in
Fig. 3 ist der eingegebene Stellvektor u(nT) mit stufenweiser
Verzögerung auf Eingänge des neuronalen Netzwerkes 32
geschaltet. Die stufenweise Verzögerung wird durch
Verzögerungsglieder 80, 82, . . . bewirkt. An einem Eingang 84
liegt der eingegebene Stellvektor u((n-1)T). An einem Eingang
86 liegt schließlich der eingegebene Stellvektor u((n-1)T).
Das neuronale Netzwerk 32 liefert an einem Ausgang 88 einen
Schätzwert û(nT) für den Stellvektor. Dieser Schätzwert weicht
zunächst von dem eingegebenen Stellvektor u(nT) ab. Es wird in
einem Summierpunkt 90 die Differenz von eingegebenem
Stellvektor und Schätzwert gebildet. Diese Differenz ist auf
einen Lern-Algorithmus 92 geschaltet. Der Lern-Algorithmus 92
ist ein "Backpropagation"-Algorithmus. Durch diesen
Algorithmus werden die Verbindungsgewichte wÿ des neuronalen
Netzwerkes schrittweise verändert. Diese Veränderung geschieht
in einer solchen Weise, daß nach einer Vielzahl von
Lernschritten das neuronale Netzwerk den Zusammenhang zwischen
eingegebenen Zustandsvektoren Z und Stellvektoren u korrekt
wiedergibt. Die Veränderung der wÿ ist durch einen Pfeil 94
angedeutet.
Fig. 5 zeigt das Ergebnis einer Simulation der Bewegung eines
mobilen Roboters, der mit einem Regler 33 der beschriebenen
Art, der gemäß Fig. 4 trainiert wurde, längs eines
vorgegebenen, durch einen Soll-Zustandsvektor definierten
Soll-Fahrweges geführt wird. Die ausgezogenen Linien zeigen
den Soll-Fahrweg, die gepunkteten Linien zeigen den Ist-
Fahrweg. Fig. 5 zeigt den Fall, daß die vorgegebenen Fahrwege
selbst vorher trainiert worden waren. Fig. 6 ist eine
entsprechende Darstellung für den Fall, daß die vorgegebenen
Fahrwege selbst nicht trainiert worden waren. Das unerwartet
gute Verhalten des Netzwerkes liegt an der generalisierenden
Wirkung der hier verwendeten Struktur des Netzwerkes.
Claims (7)
1. Navigations- und Führungssystem für autonome, mobile
Roboter mit die Umgebung aufnehmenden Sensoren
einschließlich einem Entfernungssensor (12) und mit
neuronalen Netzwerkmitteln (14; 26, 28, 30; 32), auf welche
Daten von dem Entfernungssensor (12) aufgeschaltet sind
und welche zur Erzeugung von Richtungs- und Fahrtkommandos
aus den Daten der Sensoren trainiert sind, dadurch
gekennzeichnet, daß
- - einer der Sensoren ein bilderfassender Sensor (10) ist, der Pixel liefert, welche ein Bild des von dem Sensor erfaßten Gesichtsfeldes darstellen, und
- - der Entfernungssensor (12) ein bilderfassender Laser- Entfernungsmesser ist, der die Entfernungen zu den verschiedenen Punkten des abgetasteten Gesichtsfeldes erfaßt, so daß ein räumliches Profil erhalten wird.
2. Navigations- und Führungssystem nach Anspruch 1, dadurch
gekennzeichnet, daß das Netzwerk (14) drei Schichten
(16, 18, 20) enthält und ausschließlich vorwärts vernetzt
ist.
3. Navigations- und Führungssystem nach Anspruch 1,
gekennzeichnet durch
- (a) ein erstes neuronales Netzwerk (26) dessen Netzwerkarchitektur zum Strukturieren der Sensordaten selbst organisierende Merkmalskarten oder adaptive Resonator- Technologien verwendet mit dem Ziel, Merkmale, Cluster oder Kategorien zu extrahieren,
- (b) ein zweites neuronales Netzwerk (28) vom Typ "Backpropagation" oder "Assoziativspeicher" auf welches strukturierte Ausgangsdaten des ersten neuronalen Netzwerkes (26) aufgeschaltet sind zur Durchführung eines Klassifikationsprozesses mit den strukturierten Daten, und
- (c) ein drittes neuronales Netzwerk (30) vom "Hopfield"-Typ zur Generierung möglicher Fahrwege des mobilen Roboters und einer Optimierung des Fahrweges basierend auf dem Ergebnis der Strukturierung der Daten und der Klassifikation, wobei der optimierte Fahrweg durch einen Soll-Zustandsvektor (Z D(t)) dargestellt ist.
4. Navigations- und Führungssystem nach Anspruch 3, dadurch
gekennzeichnet, daß der Soll-Zustandsvektor (Z D(t)) auf
einen mit einem neuronalen Netz (32) aufgebauten Regler
(33) aufgeschaltet ist, der Stellsignale (u(t)) für
Fahrgeschwindigkeit und Fahrtrichtung erzeugt, derart daß
der Ist-Zustandsvektor (Z(t)) des mobilen Roboters dem Soll-
Zustandsvektor (Z D(t)) folgt.
5. Navigations- und Führungssystem nach Anspruch 4, dadurch
gekennzeichnet, daß der Regler (33) ein dreischichtiges
neuronales Netzwerk (32) aufweist.
6. Navigations- und Führungssystem nach Anspruch 4 oder 5,
dadurch gekennzeichnet, daß
- (a) der zeitabhängige Soll-Zustandsvektor (Z D(t)) durch Abtastmittel (40) in festen Abtastperioden (T) abtastbar ist, so daß abgetastete Soll-Zustandsvektoren (Z D(nT)) erhalten und auf den Regler (33) aufgeschaltet werden,
- (b) das neuronale Netzwerk (32) eine Mehrzahl von Eingängen (46, 48 . . . 50) aufweist, die in eine Reihe von einem ersten bis zu einem letzten Eingang (46 bzw. 50) geordnet sind,
- (c) eine Mehrzahl von Verzögerungsgliedern (42, 44 . . . ) vorgesehen sind, die jeweils zwischen benachbarte Eingänge (46, 48, . . . 50) des neuronalen Netzwerkes (32) geschaltet sind und jeweils eine Verzögerung um eine Abtastperiode bewirken, und
- (d) die abgetasteten Soll-Zustandsvektoren (Z D(nT)) auf den ersten Eingang (46) der Reihe aufschaltbar sind.
7. Navigations- und Führungssystem nach Anspruch 6, dadurch
gekennzeichnet, daß
- (a) der Regler (33) eine Rückführschleife (54) aufweist, über welche Stellvektoren (u(nT)) auf weitere Eingänge (60, . . . 62) aufschaltbar sind, die in einer Reihe von einem ersten (60) zu einem letzten Eingang (62) geordnet sind,
- (b) eine Mehrzahl von Verzögerungsgliedern (56, 58, . . . ) vorgesehen sind, die in der Rückführschleife (54) vor und zwischen den weiteren Eingängen (60, . . . 62) geschaltet sind und jeweils eine Verzögerung um eine Abtastperiode bewirken, und
- (c) die Stellvektoren (u(nT)) jeweils auf das dem ersten Eingang (60) vorgeschaltete Verzögerungsglied (56) aufgeschaltet sind.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4218599A DE4218599C2 (de) | 1992-06-05 | 1992-06-05 | Navigations- und Führungssystem für autonome, mobile Roboter |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4218599A DE4218599C2 (de) | 1992-06-05 | 1992-06-05 | Navigations- und Führungssystem für autonome, mobile Roboter |
Publications (2)
Publication Number | Publication Date |
---|---|
DE4218599A1 DE4218599A1 (de) | 1993-12-16 |
DE4218599C2 true DE4218599C2 (de) | 1996-06-27 |
Family
ID=6460485
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4218599A Expired - Fee Related DE4218599C2 (de) | 1992-06-05 | 1992-06-05 | Navigations- und Führungssystem für autonome, mobile Roboter |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE4218599C2 (de) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7049945B2 (en) | 2000-05-08 | 2006-05-23 | Automotive Technologies International, Inc. | Vehicular blind spot identification and monitoring system |
US7209221B2 (en) * | 1994-05-23 | 2007-04-24 | Automotive Technologies International, Inc. | Method for obtaining and displaying information about objects in a vehicular blind spot |
US7783403B2 (en) | 1994-05-23 | 2010-08-24 | Automotive Technologies International, Inc. | System and method for preventing vehicular accidents |
DE19546506A1 (de) * | 1995-12-13 | 1997-06-19 | Daimler Benz Ag | Fahrzeug-Navigationssystem und Signalverarbeitungsverfahren für ein solches Navigationssystem |
GB9827358D0 (en) * | 1998-12-12 | 2000-01-19 | British Aerospace | Combat aid system |
US7852462B2 (en) | 2000-05-08 | 2010-12-14 | Automotive Technologies International, Inc. | Vehicular component control methods based on blind spot monitoring |
WO2002027275A2 (en) * | 2000-09-27 | 2002-04-04 | Hrl Laboratories, Llc | Distributed sensing apparatus and method of use therefor |
DE102016009655A1 (de) | 2016-08-09 | 2017-04-06 | Daimler Ag | Verfahren zum Betrieb eines Fahrzeugs |
CN112212867A (zh) * | 2020-10-19 | 2021-01-12 | 中国科学技术大学 | 一种机器人自定位与导航的方法及系统 |
CN113485326A (zh) * | 2021-06-28 | 2021-10-08 | 南京深一科技有限公司 | 一种基于视觉导航的自主移动机器人 |
CN113867370B (zh) * | 2021-12-02 | 2022-04-12 | 智道网联科技(北京)有限公司 | 一种基于时间同步的障碍物航向角计算方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4001493A1 (de) * | 1990-01-19 | 1991-07-25 | Pietzsch Ibp Gmbh | Verfahren und einrichtung zur selbsttaetigen steuerung von bewegbaren geraeten |
-
1992
- 1992-06-05 DE DE4218599A patent/DE4218599C2/de not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
DE4218599A1 (de) | 1993-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102007001025B4 (de) | Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems | |
DE4218599C2 (de) | Navigations- und Führungssystem für autonome, mobile Roboter | |
EP3765927B1 (de) | Verfahren zum erzeugen eines trainingsdatensatzes zum trainieren eines künstlichen-intelligenz-moduls für eine steuervorrichtung eines fahrzeugs | |
DE102013203165A1 (de) | Verbesserte Datenverbindung einer Vereinigung unter Verwendung einer gewichteten bayesschen Filterung | |
WO2020016385A1 (de) | Verfahren und system zum bestimmen einer position eines fahrzeugs | |
DE112020001369T5 (de) | Gepulste synaptische elemente für gepulste neuronale netze | |
DE10011890C2 (de) | Verfahren zur Bestimmung der Zustandsgrössen eines sich bewegenden starren Körpers im Raum | |
DE4001493A1 (de) | Verfahren und einrichtung zur selbsttaetigen steuerung von bewegbaren geraeten | |
DE102020209538A1 (de) | Vorrichtung und Verfahren zum Ermitteln einer physikalischen Eigenschaft eines physikalischen Objekts | |
DE102019215903A1 (de) | Verfahren und Vorrichtung zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten eines Sensors insbesondere eines Fahrzeugs, Verfahren zum Trainieren und Verfahren zum Ansteuern | |
DE102018128535B4 (de) | Trainieren eines künstlichen neuronalen Netzwerks mit durch Sensoren eines Fahrzeugs erfassten Daten | |
EP3746850B1 (de) | Verfahren zum ermitteln eines zeitlichen verlaufs einer messgrösse, prognosesystem, aktorsteuerungssystem, verfahren zum trainieren des aktorsteuerungssystems, trainingssystem, computerprogramm und maschinenlesbares speichermedium | |
EP3741518B1 (de) | Verfahren und vorrichtung für eine automatisierte beeinflussung eines aktuators | |
EP1020699B1 (de) | Flugkörper | |
DE102020200165B4 (de) | Robotersteuereinrichtung und Verfahren zum Steuern eines Roboters | |
DE19645556A1 (de) | Vorrichtung zur Erzeugung von Lenksignalen für zielverfolgende Flugkörper | |
EP1014028B1 (de) | Lenk,- Navigations- und Regelsystem für Flugkörper | |
DE102021114768A1 (de) | Fahrzeugsteuerung unter Verwendung eines Controllers eines neuronalen Netzes in Kombination mit einem modellbasierten Controller | |
DE102021210593A1 (de) | Verfahren zum Trainieren eines neuronalen Umfeld-Netzwerks zum Bestimmen eines Objekt-angereicherten Umfelds einer mobilen Plattform | |
DE10044026C1 (de) | Verfahren zum Verfolgen eines sich bewegenden Ziels | |
DE102020214123B4 (de) | Verfahren zur Erfassung eines Umfelds eines ersten Sensorsystems | |
DE102021212697A1 (de) | Verfahren zum Bestimmen eines Bewegungspfades für ein mobiles Gerät | |
DE19704983B4 (de) | Autonomes System, insbesondere autonome Plattform | |
WO2023194009A1 (de) | Verfahren zur prädiktion von trajektorien von objekten | |
DE102022207041A1 (de) | Verfahren zum Planen von Bewegungstrajektorien durch ein Modell für maschinelles Lernen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |