DE3741259A1 - Verfahren und vorrichtung zur autonomen steuerung eines fahrzeuges - Google Patents
Verfahren und vorrichtung zur autonomen steuerung eines fahrzeugesInfo
- Publication number
- DE3741259A1 DE3741259A1 DE19873741259 DE3741259A DE3741259A1 DE 3741259 A1 DE3741259 A1 DE 3741259A1 DE 19873741259 DE19873741259 DE 19873741259 DE 3741259 A DE3741259 A DE 3741259A DE 3741259 A1 DE3741259 A1 DE 3741259A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- distance
- measurement
- information
- central computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000000034 method Methods 0.000 title claims description 33
- 230000007613 environmental effect Effects 0.000 claims abstract description 22
- 238000003384 imaging method Methods 0.000 claims abstract description 18
- 238000001514 detection method Methods 0.000 claims abstract description 11
- 238000005259 measurement Methods 0.000 claims description 36
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000003860 storage Methods 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 238000012937 correction Methods 0.000 claims description 3
- 238000002604 ultrasonography Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 238000004140 cleaning Methods 0.000 claims description 2
- 230000015654 memory Effects 0.000 claims 4
- 230000003287 optical effect Effects 0.000 claims 3
- 238000012546 transfer Methods 0.000 claims 3
- 230000008878 coupling Effects 0.000 claims 2
- 238000010168 coupling process Methods 0.000 claims 2
- 238000005859 coupling reaction Methods 0.000 claims 2
- 101100521334 Mus musculus Prom1 gene Proteins 0.000 claims 1
- 230000005540 biological transmission Effects 0.000 claims 1
- 238000013500 data storage Methods 0.000 claims 1
- 239000011152 fibreglass Substances 0.000 claims 1
- 239000012530 fluid Substances 0.000 claims 1
- 230000006870 function Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 claims 1
- 239000000725 suspension Substances 0.000 claims 1
- 238000004891 communication Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/93—Sonar systems specially adapted for specific applications for anti-collision purposes
- G01S15/931—Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
- G01S17/875—Combinations of systems using electromagnetic waves other than radio waves for determining attitude
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0272—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
Description
Die Erfindung betrifft ein Verfahren sowie eine Vorrichtung
zur Durchführung dieses Verfahrens nach Anspruch 1.
Die Erfindung findet vorzugsweise Anwendung in Fahrzeugen,
mit denen der innerbetriebliche Materialtransport
automatisiert durchgeführt werden soll, etwa bei
Fahrzeugen, mit denen bestimmte Wege oder Wegmuster wie
sie bei Reinigungsmaschinen vorkommen, gefahren werden
sollen, und bei autonomen, mobilen Robotern, bei denen der
oder die Arbeitsarme auf einer mobilen Plattform montiert
sind und auf diese Weise eine hohe Beweglichkeit im
Arbeitsprozeß bekommen. Dabei soll sich das Fahrzeug oder
die mobile Plattform selbst d. h. autonom steuern.
Bei den bisher bekannten fahrerlosen Transportfahrzeugen
hat man die Umgebung mit künstlichen "Marken" wie z. B. im
Boden eingelassene Drähte, Magnete, auf den Boden gemahlte
oder geklebte Markierungen aller Art etc. versehen. Es
wurden einfache Sensoren verwendet, die diese Marken sicher
erkennen. Man spricht in diesem Zusammenhang von einer
verarmten Umwelt und meint damit, daß die Umgebung nur noch
durch die sinnvoll eingebrachten Marken repräsentiert wird.
Diese Marken schränken die Flexibilität eines Systems
jedoch stark ein. Bei jeder Änderung muß die von den
einfachen Sensoren wahrgenommene Umgebungsmarkierung
entsprechend mitgeändert werden. Dieses System von
Markierungen wird bei großen Anlagen sehr komplex und ist
für komplizierte Wegführungen nicht geeignet.
Man kann dabei nicht von einer autonomen Steuerung
sprechen, da die Fahrzeuge z. B. dem Draht folgen müssen
und keine im Fahrzeug befindliche Intelligenz die
Wegfindung unterstützt. Herkömmliche fahrerlose
Transportsysteme werden von einem Leitrechner zentral
gesteuert. Im Leitrechner muß zu jedem Zeitpunkt die
vollständige Information über den Ort aller Fahrzeuge
vorliegen. Dies führt verständlicherweise bei großen
Systemen zu sehr hohem Aufwand an Kommunikation und
Steuerung. Die Fahrzeuge haben insofern keine Autonomie.
Bekannt sind Systeme, bei denen die Steuerung der
Fahrzeuge mit einer Kamera unterstützt wird. Diese Kamera
sieht entweder eine verarmte Umgebung (z. B. einen auf den
Boden befindlichen Strich, etwa eine Fahrbahnbegrenzung)
oder die Umgebung direkt. Die erste Sorte kann nicht als
autonom bezeichnet werden. Die zweite Sorte ist nur mit mit
erheblichen Aufwand realisierbar. Erste militärische
Versuchsfahrzeuge in den USA sind sehr langsam, da die Zeit
für die Berechnung der Informationen aus dem Bild sehr groß
sind.
Während herkömmliche fahrerlose Transportfahrzeuge also
ihren Weg an einem im Boden verlegten Draht oder auf den
Boden aufgebrachte Farbbänder mit geeigneten Sensoren
detektieren, besteht hier die erfinderische Aufgabe darin,
ein System und ein Verfahren anzugeben mit dem die Umgebung
wahrgenommen, Wege "gelernt" und auf Befehl Fahr- oder
Transportaufträge ausgeführt werden können. Dies ist nur
mit einem Sensorsystem möglich, das diejenige Information
aus der Umgebung entnimmt, die Orientierung und Navigation
mit geringem Aufwand ermöglicht. Eine spezielle
Infrastruktur wie z. B. die Drähte, metallische Raster oder
Farbstreifen sollen nicht erforderlich sein.
Prinzipiell bietet die Umgebung durch ihre körperliche
Struktur und Form genügend Information zur Orientierung.
Die Umgebung ist 3-dimensional. Das bedeutet für die
Vermessung die Aufnahme und Auswertung von 3-D-Bildern.
Die Lösung dieser Aufgabe würde sehr große Vorteile mit
sich bringen, weil für derartige Fahrzeuge keine
Installationen an Decken oder Böden erforderlich sind,
geringe Anforderungen an Bodenqualität gestellt werden,
(Genauigkeit, Material, Ebenheit), extrem schnelles Lernen
neuer Kurse durch Teach-In möglich sind und sowohl in
Hallen als auch im Außengelände gefahren werden kann und
damit der Aufwand an Kommunikation, Infrastrukturmaßnahmen
und Steuerungstechnik erheblich reduziert würde.
Die erfinderische Lösung der Aufgabenstellung geht von
folgenden Überlegungen aus:
Für die sensorielle Erfassung der Umgebung wird eine
direkte Umgebungsvermessung mit aktiven Strahlern
durchgeführt. Um die Umgebung dabei in einer Weise zu
vermessen, die eine Wiedererkennung bei einer zweiten
Vermessung zuläßt, ist eine relativ feine Oberflächen
abtastung erforderlich. Dies kann mit Lasern durchgeführt
werden, weil nur diese ausreichende Reichweite, feine
Strahlbündelung und schnelle Distanzmessung ermöglichen.
Mit einem Laserentfernungsmesser in Verbindung mit
Winkelmessung des Entfernungsmeßstrahl werden deshalb zur
Umgebungsvermessung Entfernung und Winkel relativ zum
Fahrzeug von Punkten auf den Objekten, die diese Umgebung
bilden gemessen.
Die Zusammenfassung vieler Meßpunkte der Umgebung ergibt
ein sog. Entfernungsbild der Umgebung. Im zweidimensionalen
Fall (z. B. Drehung des Meßstrahls in einer Ebene) gleicht
das Entfernungsbild einem horizontalen Schnittbild durch
Gegenstände die die Umgebung repräsentieren. Der
Datenanfall bei diesem Sensor ist sehr hoch, da die moderne
Meßtechnik Meßmittel bereitstellt sowohl die Entfernung als
auch den Winkel in hoher Auflösung gemessen zu können.
Ein weiteres erfindungsgemäßes Sensorsystem zur Lösung der
Aufgabe ist das Koppelnavigationssystem, mit dem die
Bewegung des Fahrzeuges oder der mobilen Plattform sensiert
wird. Position und Vektor ergeben sich aus der
rechnerischen Integration der gemessenen vektoriellen
Wegelemente längs des zurückgelegten Weges. Derartige
Systeme müssen z. B. Radumdrehungen und Radstellungen
(Odometrische Systeme) oder sensieren Winkeländerungen
mittels Kreisel (inertiale Systeme). Sie sind mit einem
Fehler behaftet, der mit der zurückgelegten Wegstrecke
und ggf. Zeit wächst. Die Meßergebnisse dieser Systeme
müssen deshalb ständig korrigiert werden.
Kurzzeitig liefern das Koppelnavigationssysteme sehr gute
Meßergebnisse. Diese Tatsache wird erfindungsgemäß bei der
Entfernungsbildaufnahme mehrfach benutzt. Da die
Entfernungsbildaufnahme eine gewisse Zeit in Anspruch
nimmt, sind die Aufnahmeorte für jeden Meßpunkt der
Umgebung unterschiedlich. Die aus den Daten des
Koppelnavigationssystems errechnete Position erlaubt nun
die vektorielle Addition von Umgebungsmeßwert und jeweiligem
Aufnahmeort, so daß alle Umgebungspunkte auf ein festes
Koordinatensystem transformiert werden können. Damit ist
der Weg frei durch Zusammenwirkung beider Sensorsysteme die
gesamte Umgebung in einem ortsfesten Koordinatensystem zu
kartieren. Dies ist ein wiederholbarer Vorgang der bei
einer Teach-In Fahrt aber auch bei jeder Wiederholungsfahrt
durchgeführt werden kann.
Da das Koppelnavigationsystem aber über längere Strecken
fehlerhafte Ergebnisse liefert wird erfindungsgemäß vom
absolut messenden Laser-Entfernungsbildsystem zur Reduktion
dieses Fehlers Gebrauch gemacht. Dies geschieht durch
Vergleich der genauen Umgebungsmeßdaten mit gespeicherten
Umgebungsmeßdaten. Der absolute Positionsfehler wird dabei
auf eine Größe reduziert, die kleiner als der Meßfehler des
Laser-Entfernungsbildsystems ist. Je genauer das Koppel
navigationssystem arbeitet, desto seltener ist eine
Fehlerreduzierung der Absolutposition mit Hilfe des Laser-
Entfernungsbildsystem erforderlich um den aktuellen
Positionsfehler in vorbestimmten Schranken zu halten.
Die Datenflut wird erfindungsgemäß on-line von einem
leistungsfähigen Zentralrechner abgearbeitet. Zusätzlich
kann durch geeignete Algorithmen die Datenmenge reduziert
werden, indem auf ein ortsfestes Koordinatensystem
transformierte Entfernungsbildteile durch einfache Kurven
approximiert werden. Nach bestimmten Kriterien werden die
transformierten Entfernungsbilder nach wiedererkennbaren
eindeutigen Merkmalen abgesucht und die zugehörigen
Ortskoordinaten und Merkmalart gespeichert.
Ein einfaches Beispiel eines derartigen Orientierungs
elementes ist eine Ecke, für deren Vorhandensein sich
eindeutige Kriterien aufstellen lassen und die eindeutig in
einem Koordinatensystem lokalisiert, beschrieben und
wiedererkannt werden kann.
Viele zeitlich nacheinander aufgenommene, auf ein
ortsfestes Koordinatensystem transformierte Entfernungs
bilder können rechnerisch zu einem Entfernungsbild der
Umgebung zusammengesetzt werden.
Die Vorteile des erfindungsgemäßen Sensor Systems bestehen
u. a. darin, daß die Auswertung der Umgebungsvermessung
fast immer auf die Erkennung und Berechnung von kleinen
Entfernungsbildunterschieden (dem akkumulierten Fehler des
Koppelnavigationssystems) beschränkt ist, weil meistens
ähnliche, auf das ortsfeste Koordinatensystem
transformierte Entfernungsbilder zur Orientierung und
Navigation miteinander zu verglichen werden. Dies ist ohne
weiteres on-line durchführbar. Da mit Hilfe des
Koppelnavigationssystems die Zeit zwischen diesen
Auswertungen überbrückt werden kann, steht das Laser-
Entfernungsbildsystem noch für andere Aufgaben wie z. B.
Hinderniserkennung, Hinderniswarnung und Hindernisanalyse
zur Verfügung.
Von einem Hinderniswarnsystem wird eine Reichweite über
einige Meter, Wahrnehmung jedes Hindernisses in der nahen
Umgebung, großer Winkelarbeitsbereich, Erkennung und
Unterscheidung von bewegten Hindernissen, geringe
Herstellungskosten gefordert. Alle Forderungen sind in
idealer Weise automatisch durch das technische Prinzip des
Laser-Entfernungsbildsystems erfüllt. Es stellt ein
ideales Hinderniswarnsystem für größere Reichweiten dar.
Unterstützt wird das weitreichende Laser-Bildsystem durch
ein Ultraschall Hinderniswarnsystem. Mit diesem System
werden auch auf der Fahrbahn liegende Hindernisse noch
erfaßt.
Darüber hinaus ist das Fahrzeug mit Notausschaltern und
Kontaktschalter ausgerüstet die unmittelbaren Berührungs
schutz gewährleisten.
Auf diese Weise ist ein gestaffeltes arbeitendes Sicher
heitssystem im Sensorsystem integriert, das den durch die
autonome Steuerung erhöhten Sicherheitsanforderungen
entspricht.
Laser-Entfernungsbildsystem, Koppelnavigationssystem und
leistungsfähiger Zentralrechner erlauben die grundsätzliche
Lösung der Aufgabe der Steuerung autonomer Fahrzeuge oder
mobiler Plattformen. Für größere Fahrzeuge oder mobile
Plattformen können mehrere Laser-Bildsysteme im erfindungs
gemäßen Sensor System z. B. für die Abdeckung nach vorn und
hinten integriert sein.
Ein typisches Ausführungsbeispiel des erfindungsgemäßen
Verfahrens und zugehörige Vorrichtungen sind in den Figuren
1 bis 6 schematisch wiedergegeben. Es zeigt
Fig. 1 eine erfindungsgemäßes Sensorsystem auf einem
Fahrzeug oder einer mobilen Plattform als Block
diagramm,
Fig. 2 einen erfindungsgemäßen Zentralrechner als
Blockdiagramm,
Fig. 3 schematische Korrektur der Position durch Umgebungs
erfassung,
Fig. 4 wie das erfindungsgemäße Sensorsystem die Umgebung
sieht,
Fig. 5 ein Transportfahrzeug mit erfindungsgemäßem
Sensorsystem in Schrägansicht,
Fig. 6 Beispiel einer mobilen Plattform mit erfindungs
gemäßem Sensorsystem.
Das typische Ausführungsbeispiel ist in Fig. 1 als
Blockdiagramm dargestellt. Es handelt sich um ein autonomes
Fahrzeug mit einem Fahrwerk mit drei Rädern, von denen ein
einzelnes Rad 10 a angetrieben und gelenkt wird und die
restlichen zwei Räder 10 b, 10 c auf einer Achse frei
mitlaufen. Der Entfernungsmesser 1, angetrieben mit dem
Motor 2, drehbar um die als Pfeil dargestellte Hochachse
des Fahrzeuges, sendet einen Meßstrahl 30 rundum. Der
Winkel des Meßstrahls wird mit dem Winkelencoder 3 gemessen
wird. Entfernung und Winkel werden in die Laser-
Entfernungsbildsystemsteuereinheit 4 übertragen zu
Datentelegrammen zusammengefaßt und an den Zentralrechner 5
übertragen.
Die Bewegung des Fahrzeuges wird an den Rädern 10 b, 10 c mit
den Winkelencodern 9 sensiert. Die Winkeländerungen werden
in der Steuereinheit 8 des Koppelnavigationssystems mit dem
Lenkwinkel, der mit dem Winkelsensor 11 gemessen wird,
vorverarbeitet, zu Datentelegrammen zusammengefaßt und an
den Zentralrechner 5 übertragen.
Mit den Ultraschall Sensoren 7 . . . 7 n wird die nähere
Umgebung um das Fahrzeug nach Hindernissen geprüft, indem
jeder Sensor Schallpulse aussendet, deren Laufzeit zu einem
Objekt und zurück in der Ultraschallsteuereinheit 6
gemessen wird und vorverarbeitet zum Zentralrechner 5
übertragen.
Mit einem Handbediengerät 13, das mit dem Zentralrechner 5
verbunden ist kann das Fahrzeug manuell gesteuert werden
und es können über die Tastatur dieses Gerätes Kommandos
und Informationen in das Fahrzeug eingegeben werden.
Mit dem IR-Kommunikationsgerät 13, das mit dem
Zentralrechner 5 verbunden ist, kann das Fahrzeug
Informationen senden oder Empfangen.
Mit der Kamera 14, die ebenfalls mit dem Zentralrechner 5
verbunden ist, können Bilder der Umgebung aufgenommen und
dem Zentralrechner zugeführt werden.
Der Zentralrechner generiert aus den ihm zugeführten Daten
und Befehlen, aus den Messungen der Umwelt und aus seinem
gespeicherten Bestand an Informationen Steuerkommandos, die
in der Fahr- und Lenksteuereinheit 18 in Ansteuersignale
für den Fahrmotor 19 und Lenkmotor 20 umgesetzt werden.
Da die zu verarbeitende Datenmenge in diesem Ausführungs
beispiel beträchtlich ist wird der Zentralrechner 5
(Fig. 2) aus Parallelprozessoren 15 gebildet um die verschiedenen
Sensordaten parallel und schnell zu verarbeiten. Jedes
periphäre Sensorsystem 4, 6, 8 ist mit eigenen Prozessoren
ausgestattet, die direkt mit bestimmten Parallelprozessoren
15 aus dem Zentralrechner kommunizieren. Die Kommunikation
geschieht über standardisierte, schnelle, serielle
Schnittstellen, sog. Links. Der Prozessor 16 liefert die
Daten der IR-Kommunikationseinheit 13 und des Bediengerätes
12 vorverarbeitet über einen Link an das Parallel
prozessorsystem. Die Arbeitsprogramme, Umgebungsdaten und
Weginformationen werden in der vom Prozessor 16 verwalteten
Permanentspeichereinheit 17 verwaltet und bei Bedarf in die
jeweiligen Arbeitsspeicher 15 a der Parallelprozessoren
15 transferiert.
Zur Erlernung der Umgebung werden mit einem Fahrzeug die
Wege abgefahren und entsprechende Hinweise bezüglich der
Strecke eingegeben. Dies geschieht mit Hilfe der
Handbedieneinheit 13 während einer Teach-In Fahrt. Schon
während dieser Teach-In Fahrt wird die Umgebung permanent
vermessen und die Umgebungs- und Positionsdaten oder die
entsprechenden reduzierten Daten gespeichert. Die
Speicherung erfolgt auf der Permanentspeichereinheit 17,
deren Inhalt dubliziert und somit für weitere Fahrzeuge
nutzbar gemacht werden kann. Diese Teach-In Fahrt ähnelt
dem Teach-In bei Handhabungsrobotern.
Fig. 3 veranschaulicht die Art und Weise der genauen
Navigation. X, Y stellt das ortsfeste Koordinatensystem dar.
Das Fahrzeug hat den Befehl den Weg 23 zu fahren und die
Umgebungsinformation 25 gespeichert. Es fährt aber
tatsächlich den Weg 24 weil die Daten der
Koppelnavigationsteuereinheit fehlerhaft sind. Bis zum
Punkt 22 hat die Umgebungsvermessung entsprechend Anspruch
1, das auf das ortsfeste Koordinatensystem transformierte
Entfernungsbild 26 ergeben. Aus Vergleich der
Entfernungsbilder 25 und 26 wird im Zentralrechner die
Verschiebung 21 errechnet, die als Korrekturwert der aus
den Daten der Koppelnavigationssteuereinheit errechneten
Position angebracht wird. Dies bedeutet, daß gleichzeitig
im Zentralrechner 5 Steuersignale generiert werden, die
dafür sorgen, daß die Motoren 19 und 20 das Fahrzeug wieder
auf den Kurs 23 bringen. Dieser Regelungsprozeß läuft
kontinuierlich ab.
Fig. 4 veranschaulicht wie das auf das ortsfeste
Koordinatensystem transformierte Entfernungsbild dazu
verwendet werden kann bewegte Fahrzeuge zu erkennen. Zwei
aufeinanderfolgende Entfernungsbilder, in schneller Folge
aufgenommen, zeigen die Bewegung eines Fahrzeuges 28, 29
deutlich. Durch rechnerischen Vergleich der
Entfernungsbilder wird die Geschwindigkeit und
Fahrtrichtung ermittelt. Hindernisse wie z. B. 37 werden
leicht und frühzeitig erkannt und ortsrichtig vermessen.
Aus den Daten 32 kann leicht durch Approximationsrechnungen
die reduzierte Entfernungsbildinformation 31 errechnet
werden und aus dieser die Eckpunkte 33 a bis f. Diese
Rechnungen verkleinern den zu speichernden Datenumfang
beträchtlich und erleichtern die Wiedererkennung.
Fig. 5 zeigt ein Ausführungsbeispiel eines
Transportfahrzeuges mit erfindungsgemäßem Sensorsystem in
Schrägansicht. Dabei ist das Laser-Entfernungsbildsystem 1
bis 3 zentral unterhalb der Lastaufnahmemittels 34
angeordnet und hat rundum Sicht zur Entfernungsbildaufnahme
dargestellt durch die Meßstrahlen 30. Die Meßrichtung ist
horizontal vom Fahrzeug weggerichtet, so daß die Umgebung
sowie Hindernisse erfaßt werden. Die Lastaufnahmemittel
werden dabei um die Strahlbreite von wenigen cm erhöht
angebaut. Diese Konfiguration erlaubt neben der Rundumsicht
die Umweltvermessung in Vorwärts- und Rückwärtsfahrt und
Hinderniswarnung in Vorwärts- und Rückwärtsfahrt.
Die Ultraschallsensoren 7 decken in diesem Ausführungs
beispiel den tieferen Bereich um das Fahrzeug zur
Hinderniserkennung ab. Kontaktschutzeinrichtungen 35
stellen eine weitere Sicherheitseinrichtung dar.
Fig. 6 zeigt ein Ausführungsbeispiel einer mobilen
Arbeitsplattform mit einem erfindungsgemäßen Sensorsystem.
Wie bei Fig. 5 wird die Rundumsicht durch den zentralen
Einbau des Laserentfernungsmessers 1 erzielt. Als
Arbeitsmittel ist auf der mobilen Plattform 27 ein
Roboterarm 36 montiert, der in dieser Konfiguration frei
beweglich ist. Das Laser-Entfernungsbildsystem in
Verbindung mit einem Koppelnavigationssystem ermöglichen
die freie Positionierung und Navigation dieses
Roboterarmes relativ zum Werkstück.
Claims (62)
1. Verfahren zur autonomen Steuerung eines Fahrzeuges oder
einer mobilen Plattform mittels eines Sensorsystems mit
mindestens einem Laser-Entfernungsbildsystem, einem Koppel
navigationssystem und einem Zentralrechner,
dadurch gekennzeichnet, daß
mit dem Koppelnavigationssystem kontinuierlich inkrementale
Positionsveränderungen gemessen werden, diese an einen
Zentralrechner übertragen werden, zur Berechnung von
Position und Vektor addiert werden, mit dem Laser-
Entfernungsbildsystem kontinuierlich während der Bewegung
Oberflächenpunkte der Umgebung oder Segmente der Umgebung
mit einem oder mehreren Entfernungsmeßstrahlen hinsichtlich
der Entfernung und des Winkels relativ zum Fahrzeug oder
der mobilen Plattform vermessen werden, die Meßergebnisse
der Umgebungsvermessung mit dem Vektor und der Position des
Fahrzeugs oder der mobilen Plattform, zugehörig zum
Zeitpunkt der Meßpunktaufnahme in ein ortsfestes
Koordinatensystem transformiert werden, die transformierten
Umgebungsmeßdaten, die den akkumulierten Positionsfehler
aus den addierten Koppelnavigationssystem Daten enthalten,
im Zentralrechner mit einem gespeicherten Informations
bestand über die Umgebung verglichen werden, die
Koordinatenverschiebung aus der aktuellen Messung und der
gespeicherten Information berechnet wird, die Position um
die errechnete Koordinatenverschiebung korrigiert wird, die
Abweichung der Position von der, sich aus der jeweiligen
Aufgabe ergebenden Sollposition berechnet wird, diese
Abweichung als Korrekturwert einer Regelschaltung
zugeführt wird, die Steuersignale für den Antrieb
und die Lenkung ermittelt.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
der Kurs aus der Aufgabenstellung im Zentralrechner
selbsttätig berechnet wird.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
das ein per Rechner erstelltes Wegnetz in den Zentral
rechner des Fahrzeuges eingegeben und dort gespeichert
wird.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
nach Einschalten des Fahrzeuges oder der Mobilen Plattform
eine Umgebungsvermessung abläuft, Position und Vektor durch
Vergleich mit dem gespeicherten Umgebungsinformationen
berechnet werden, das neue ortsfeste Koordinatensystem im
Zentralrechner derartig festgelegt wird, daß die gemessene
und gespeicherte Umgebungsinformation übereinstimmt.
5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
bei Ausschalten des Fahrzeuges oder der mobilen Plattform
die momentane Position und der momentaner Vektor permanent
gespeichert werden.
6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
der Informationsbestand über die Umgebung mit dem Laser-
Entfernungsbildsystem während eines Teach-In durch
Verfahren des Fahrzeugs oder einer mobilen Plattform auf
dem gewünschten Kurs per Hand oder ferngesteuert per Hand
bei gleichzeitiger Positions- und Umgebungsvermessung
mit dem Sensorsystem erzeugt wird.
7. Verfahren nach Anspruch 1 und 6, dadurch gekennzeichnet,
daß die Umgebungsinformationen entweder direkt gespeichert
wird, oder vorverarbeitete Daten gespeichert werden.
8. Verfahren nach Anspruch 1 und 6, dadurch gekennzeichnet,
daß zusätzlich eingegebene Daten über besondere Wegmerk
male, Verkehrsregeln, Fahrkurselemente, Fahrtrichtung,
Transportpunkte und Umgebungsbereiche, die sich nicht für
Orientierungsberechnungen eigen und weitere aufgaben
spezifische Informationen gespeichert werden.
9. Verfahren nach Anspruch 1 und 6, dadurch gekennzeichnet,
daß der während des Teach-In erzeugte Umgebungs
informationsbestand als leicht wiedererkennbare
Entfernungsbildelemente berechnet und gespeichert werden.
10. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
bei Umgebungsveränderung der Bestand an Informationen über
die Umgebung im Zentralrechner selbsttätig verändert,
ergänzt oder reduziert wird.
11. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
die transformierten Umgebungsmeßdaten im Zentralrechner
stückweise mit einfachen Funktionen approximiert werden.
12. Verfahren nach Anspruch 1 und 10, dadurch gekenn
zeichnet, daß die im Datenumfang reduzierten trans
formierten Umgebungsmeßdaten Daten oder die transformierten
Umgebungsmeßdaten selbst im Zentralrechner auf leicht
wiedererkennbare Elemente wie Geradenstücke, Ecken,
Sprünge und deren Abstände untereinander untersucht werden,
deren Orte oder Abstände gespeichert werden.
13. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
auf das ortsfeste Koordinatensystem transformierte
Entfernungsbild oder daraus reduzierte Informationen durch
Vergleich mit Entfernungsbildern von gespeicherten Objekten
oder daraus reduzierten gespeicherten Informationen auf die
Erkennung dieser Objekte analysiert wird und Steuersignale
für den Antrieb und die Lenkung daraus abgeleitet werden.
14. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
die in das ortsfeste Koordinatensystem transformierten
Entfernungsbilder des Laser-Entfernungsbildsystems für Hin
derniserkennung on-line (in Ist-Zeit) ausgewertet werden.
15. Verfahren nach Anspruch 1 und Anspruch 14, dadurch
gekennzeichnet, daß das Ergebnis der Berechnung zur
Entscheidung über die Einleitung eines Haltemanövers oder
einer Ausweichbewegung verwendet wird.
16. Verfahren nach Anspruch 1 und Anspruch 14, dadurch
gekennzeichnet, daß die in das ortsfeste Koordinatensystem
transformierten Entfernungsbilder des Laser-Entfernungs
bildsystems für Erkennung bewegter Objekte on-line (in Ist-
Zeit) ausgewertet werden.
17. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
Verkehrsregeln für die Begegnung von Fahrzeugen oder
mobilen Plattformen im Zentralrechner gespeichert sind.
18. Vorrichtung zur Durchführung des Verfahrens 1 zur
Steuerung eines Fahrzeuges oder einer mobilen Plattform
mittels eines Sensorsystems mit mindestens einem Laser-
Entfernungsbildsystem, einem Koppelnavigationssystem und
einem Zentralrechner,
dadurch gekennzeichnet, daß
mit dem Koppelnavigationssystem kontinuierlich inkrementale
Positionsveränderungen gemessen werden, zur Berechnung von
Position und Vektor des Fahrzeuges oder der mobilen
Plattform addiert werden, in den Zentralrechner übertragen
werden, mit dem Laser-Entfernungsbildsystem kontinuierlich
während der Bewegung Oberflächenpunkte der Umgebung oder
Segmente der Umgebung mit einem oder mehreren
Entfernungsmeßstrahlen hinsichtich der Entfernung und des
Winkels relativ zum Fahrzeug oder der mobilen Plattform
vermessen werden, die Meßergebnisse der Umgebungsvermessung
in den Zentralrechner übertragen werden, mit dem Vektor und
der Position des Fahrzeugs oder der mobilen Plattform,
zugehörig zum Zeitpunkt der Meßpunktaufnahme in ein
fahrzeugunabhängiges ortsfestes Koordinatensystem
transformiert werden, der Zentralrechner aus diesen Daten
Steuersignale für den Antrieb und Lenkung errechnet.
19. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß die Entfernungsmessung nach dem Pulslaufzeit
meßverfahren arbeitet.
20. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß die Entfernungsmessung nach dem Phasenvergleichs
verfahren arbeitet.
21. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß Sender und Empfänger des Entfernungsmessers glasfaser
gekoppelt sind und die Elektronik vom Optikteil des
Entfernungsmessers separiert ist.
22. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß die Entfernungsmessung nach dem Triangulationsverfahren
arbeitet.
23. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß mehrere Entfernungsmeßstrahlen und Entfernungsauswerte
schaltungen parallel verwendet werden.
24. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß die Meßstrahlablenkung durch Drehung des Entfernungs
messers um die Hochachse des Fahrzeuges erfolgt.
25. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß der Entfernungsmesser im Elevationswinkel motorisch
verstellt werden kann.
26. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß die Meßstrahlablenkung mittels motorisch verstellbarer
Spiegel erfolgt.
27. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß die Winkelstellung des den Strahl ablenkenden
mechanischen Elementes mit einem Winkelencoder gemessen
wird.
28. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß die Winkelstellung des den Strahl ablenkenden
mechanischen Elementes mit einem Potentiometer gemessen
wird.
29. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß das Laser-Entfernungsbildsystem rundum Sicht hat.
30. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß die Lastaufnahmevorrichtung oberhalb der Ebene des
Fahrzeuges angebracht wird, aus der der Meßstrahl austritt.
31. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß der Zentralrechner aus Parallelprozessoren mit
zugeordneten Speichern besteht.
32. Vorrichtung nach Anspruch 18 und Anspruch 31, dadurch
gekennzeichnet, daß die einzelnen Sensorsystemteile mit
einzelnen Parallelprozessoren direkt Daten austauschen.
33. Vorrichtung nach Anspruch 18 und Anspruch 31, dadurch
gekennzeichnet, daß die Verarbeitung der anfallenden
Sensordaten parallel erfolgt.
34. Vorrichtung nach Anspruch 18 und Anspruch 31, dadurch
gekennzeichnet, daß die Arbeitsprogramme permanent gespei
chert werden und zum Ablauf in den Parallelprozessoren in
deren RAM-Speicher übertragen werden.
35. Vorrichtung nach Anspruch 18 und Anspruch 31, dadurch
gekennzeichnet, daß die Parallelprozessoren über serielle
Schnittstellen, sogenannte Links, vernetzt sind und darüber
kommunizieren.
36. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß der Informationsbestand auf einem permanent speichernden
Medium abgelegt wird.
37. Vorrichtung nach Anspruch 18 und Anspruch 36, dadurch
gekennzeichnet, daß das Speichermedium ein elektrisch
gepufferter RAM-Speicher ist.
38. Vorrichtung nach Anspruch 18 und Anspruch 36, dadurch
gekennzeichnet, daß die Speicherbausteine EEPROMs
(electronically ereasable PROMs) sind.
39. Vorrichtung nach Anspruch 18 und Anspruch 36, dadurch
gekennzeichnet, daß die Informationen auf magnetischen
Datenträgern gespeichert werden.
40. Vorrichtung nach Anspruch 18 und Anspruch 36, dadurch
gekennzeichnet, daß die Informationen auf einem optisch
abtastbaren Datenspeicher gespeichert werden.
41. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß die Informationen mittels einer Datenübertragungs
strecke von und zum Rechner übertragen werden.
42. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß der Informationsbestand außerhalb des Fahrzeugs
gespeichert wird.
43. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß die Umgebungsinformationen vom Laser-Entfernungs
bildsystem und Koppelnavigationssystem durch Daten weitere
Sensorsysteme ergänzt werden.
44. Vorrichtung nach Anspruch 18 und 43, dadurch gekenn
zeichnet, daß das weitere Sensorsystem ein Ultraschall
hindernismeßsystem ist.
45. Vorrichtung nach Anspruch 18, 43 und 44, dadurch gekenn
zeichnet, daß das Ultraschallsystem aus mehreren Sensoren
besteht die mit einer Entfernungsmeßschaltung verbunden
sind.
46. Vorrichtung nach Anspruch 18 und 43, dadurch
gekennzeichnet, daß das Fahrzeug mit berührungs
empfindlichen Elememten ausgestattet ist.
47. Vorrichtung nach Anspruch 18 und 43, dadurch
gekennzeichnet, daß als zusätzliches Sensorsystem zur
Umgebungsvermessung und Erkennung ein Bildsystem mit
Videokameras verwendet wird.
48. Vorrichtung nach Anspruch 18 und 43, dadurch
gekennzeichnet, daß mindestens eine Kamera Bilder von dem
vom Laser-Entfernungsbildsystem überdeckten Bereich
liefert, zu deren Bildauswertung die Entfernungsinformation
genutzt wird.
49. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß ein mit dem Sensorsystem ausgerüstetes Fahrzeug oder
mobile Plattform zusätzlich mit Arbeitsmitteln ausgerüstet
ist.
50. Vorrichtung nach Anspruch 18 und 49, dadurch gekenn
zeichnet, daß das Arbeitsmittel ein oder mehrere
Roboterarme sind.
51. Vorrichtung nach Anspruch 18 und 49 und 50, dadurch
gekennzeichnet, daß an mindestens einem Roboterarm
mindestens eine Videokamera befestigt ist.
52. Verfahren nach Anspruch 18 und 49, dadurch gekenn
zeichnet, daß das Arbeitsmittel ein Reinigungswerkzeug ist.
53. Vorrichtung nach Anspruch 18 und 49, dadurch gekenn
zeichnet, daß das Arbeitsmittel ein Rasenschneider ist.
54. Vorrichtung nach Anspruch 18 und 49, dadurch gekenn
zeichnet, daß das Arbeitsmittel ein Lastübernahme-
/Übergabemittel ist.
55. Vorrichtung nach Anspruch 18 und 49, dadurch gekenn
zeichnet, daß das Arbeitsmittel ein Container Aufnahme
mittel ist.
56. Vorrichtung nach Anspruch 18 und 43, dadurch
gekennzeichnet, daß als zusätzliches Sensorsystem zur
Umgebungsvermessung ein Feinpositionierungssystem verwendet
wird.
57. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß das Koppelnavigationssystem ein odometrisches System
ist.
58. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß das Koppelnavigationssystem aus mehreren Korrelations
sensoren besteht, mit denen durch optische Korrelation
methoden die Bewegung über Grund vom Fahrzeug aus gemessen
wird.
59. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß das Koppelnavigationssystem aus mehreren
Schallsende/Empfangseinrichtungen besteht und die durch die
Bewegung hervorgerufene Frequenzverschiebung des in mehrere
Richtungen schräg auf den Boden gerichteten Schalls, zur
Geschwindigkeitsbestimmung verwendet wird.
60. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß als Sensor im Koppelnavigationssystem ein Kreisel
integriert ist, mit dem die Änderung des Fahrzeugvektors
festgestellt wird.
61. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß das Laser-Entfernungsbildsystem unempfindlich
geschaltet wird und nur als Marken in die Umgebung
plazierte Reflektoren detektiert.
62. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß die Amplitude des reflektierten Signals gemessen und
als Information für die Umgebungserkennung herangezogen
wird.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19873741259 DE3741259A1 (de) | 1987-12-05 | 1987-12-05 | Verfahren und vorrichtung zur autonomen steuerung eines fahrzeuges |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19873741259 DE3741259A1 (de) | 1987-12-05 | 1987-12-05 | Verfahren und vorrichtung zur autonomen steuerung eines fahrzeuges |
Publications (1)
Publication Number | Publication Date |
---|---|
DE3741259A1 true DE3741259A1 (de) | 1989-06-15 |
Family
ID=6341949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19873741259 Ceased DE3741259A1 (de) | 1987-12-05 | 1987-12-05 | Verfahren und vorrichtung zur autonomen steuerung eines fahrzeuges |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE3741259A1 (de) |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19520532A1 (de) * | 1994-06-06 | 1996-01-25 | Electrolux Ab | Verbessertes Verfahren zum Orten von Leitsendern für selbstfahrende Vorrichtungen |
DE19962491A1 (de) * | 1999-12-23 | 2001-07-05 | Daimler Chrysler Ag | Verfahren zur optischen Überwachung der Umgebung eines sich bewegenden Fahrzeugs |
DE10234730A1 (de) * | 2002-07-30 | 2004-02-19 | Josef Schreiner | Verfahren zur Positionsbestimmung eines Transportfahrzeuges |
US6709026B2 (en) | 2000-01-13 | 2004-03-23 | Itt Manufacturing Enterprises, Inc. | Coupling housing and quick-connect coupling for hoses and pipes in motor vehicles in the form of a composite structure |
DE10252901A1 (de) * | 2002-11-12 | 2004-05-27 | Siemens Ag | Verfahren und System zum Materialtransport |
DE10331948A1 (de) * | 2003-07-15 | 2005-02-24 | Valeo Schalter Und Sensoren Gmbh | Verfahren und System zur Unterstützung des Manövrierens von Fahrzeugen |
EP1441271A3 (de) * | 2003-01-23 | 2006-01-04 | Lg Electronics Inc. | Vorrichtung zur Lageerkennung für einen Reinigungsroboter |
EP1731982A1 (de) * | 2005-06-02 | 2006-12-13 | Jervis B. Webb International Company | Trägheitsnavigationssteuerungssystem für ein fahrerloses Fahrzeug unter Verwendung von Laser-Hindernissensoren |
DE102007021693A1 (de) * | 2007-05-09 | 2008-11-13 | Götting jun., Hans-Heinrich, Dipl.-Ing. (FH) | Hilfssystem zur Lagebestimmung eines Fahrzeugs |
US7648329B2 (en) | 2004-05-03 | 2010-01-19 | Jervis B. Webb Company | Automatic transport loading system and method |
US7980808B2 (en) | 2004-05-03 | 2011-07-19 | Jervis B. Webb Company | Automatic transport loading system and method |
DE102010021042A1 (de) | 2010-05-19 | 2011-11-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur rechnergestützten Spurführung von Fahrzeugen |
US8075243B2 (en) | 2004-05-03 | 2011-12-13 | Jervis B. Webb Company | Automatic transport loading system and method |
EP2434312A1 (de) * | 2010-09-24 | 2012-03-28 | Sick AG | Laserscanner mit einstückiger Lichtablenkeinheit mit Winkelmaßverkörperung |
US8192137B2 (en) | 2004-05-03 | 2012-06-05 | Jervis B. Webb Company | Automatic transport loading system and method |
US8210791B2 (en) | 2004-05-03 | 2012-07-03 | Jervis B. Webb Company | Automatic transport loading system and method |
DE19757849C5 (de) * | 1997-12-24 | 2013-11-21 | Sick Ag | Scanner und Vorrichtung zur optischen Erfassung von Hindernissen, sowie deren Verwendung |
CN105595923A (zh) * | 2015-11-03 | 2016-05-25 | 林启东 | 一种智能刷地装置及其控制方法 |
DE10152927B4 (de) * | 2000-10-26 | 2016-08-04 | Panasonic Intellectual Property Management Co., Ltd. | Autonome Bewegungsvorrichtung mit einer Hindernisumgehungsfunktion |
WO2018184844A1 (de) * | 2017-04-06 | 2018-10-11 | Robert Bosch Gmbh | Verfahren und vorrichtung zum betreiben eines automatisierten fahrzeugs |
DE102018100534A1 (de) * | 2018-01-11 | 2019-07-11 | B. Strautmann & Söhne GmbH u. Co. KG | Steuerungsverfahren für eine Fütterungsmaschine |
DE102018117242A1 (de) * | 2018-07-17 | 2020-01-23 | Jungheinrich Aktiengesellschaft | Flurförderzeug mit einer Kamera |
USRE48490E1 (en) | 2006-07-13 | 2021-03-30 | Velodyne Lidar Usa, Inc. | High definition LiDAR system |
US10983218B2 (en) | 2016-06-01 | 2021-04-20 | Velodyne Lidar Usa, Inc. | Multiple pixel scanning LIDAR |
US11073617B2 (en) | 2016-03-19 | 2021-07-27 | Velodyne Lidar Usa, Inc. | Integrated illumination and detection for LIDAR based 3-D imaging |
US11082010B2 (en) | 2018-11-06 | 2021-08-03 | Velodyne Lidar Usa, Inc. | Systems and methods for TIA base current detection and compensation |
US11137480B2 (en) | 2016-01-31 | 2021-10-05 | Velodyne Lidar Usa, Inc. | Multiple pulse, LIDAR based 3-D imaging |
US11294041B2 (en) | 2017-12-08 | 2022-04-05 | Velodyne Lidar Usa, Inc. | Systems and methods for improving detection of a return signal in a light ranging and detection system |
US11703569B2 (en) | 2017-05-08 | 2023-07-18 | Velodyne Lidar Usa, Inc. | LIDAR data acquisition and control |
US11796648B2 (en) | 2018-09-18 | 2023-10-24 | Velodyne Lidar Usa, Inc. | Multi-channel lidar illumination driver |
US11808891B2 (en) | 2017-03-31 | 2023-11-07 | Velodyne Lidar Usa, Inc. | Integrated LIDAR illumination power control |
US11885958B2 (en) | 2019-01-07 | 2024-01-30 | Velodyne Lidar Usa, Inc. | Systems and methods for a dual axis resonant scanning mirror |
US11933967B2 (en) | 2019-08-22 | 2024-03-19 | Red Creamery, LLC | Distally actuated scanning mirror |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2364002C2 (de) * | 1973-12-21 | 1983-02-24 | Frey, Helmut, Dr.jur., 8000 München | Orientierungsvorrichtung für ein Gerätesystem, das sich zur Bearbeitung einer Fläche auf dieser bewegt |
DE3244828A1 (de) * | 1982-02-19 | 1983-09-08 | Kubota Ltd., Osaka | Automatisch sich bewegendes fahrzeug vom lern-wiedergabe-typ |
EP0120195A2 (de) * | 1983-02-24 | 1984-10-03 | Nippondenso Co., Ltd. | Leitsystem für ein fahrendes Fahrzeug |
DE3441450A1 (de) * | 1984-05-11 | 1985-11-14 | KUBOTA, Ltd., Osaka | Mit lichtstrahlen arbeitende detektiereinrichtung |
EP0193985A1 (de) * | 1985-02-25 | 1986-09-10 | Industrial Contractors Holland B.V. | Navigationssystem für ein nicht an eine Bahn gebundenes Fahrzeug |
US4700427A (en) * | 1985-10-17 | 1987-10-20 | Knepper Hans Reinhard | Method of automatically steering self-propelled floor-cleaning machines and floor-cleaning machine for practicing the method |
-
1987
- 1987-12-05 DE DE19873741259 patent/DE3741259A1/de not_active Ceased
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2364002C2 (de) * | 1973-12-21 | 1983-02-24 | Frey, Helmut, Dr.jur., 8000 München | Orientierungsvorrichtung für ein Gerätesystem, das sich zur Bearbeitung einer Fläche auf dieser bewegt |
DE3244828A1 (de) * | 1982-02-19 | 1983-09-08 | Kubota Ltd., Osaka | Automatisch sich bewegendes fahrzeug vom lern-wiedergabe-typ |
EP0120195A2 (de) * | 1983-02-24 | 1984-10-03 | Nippondenso Co., Ltd. | Leitsystem für ein fahrendes Fahrzeug |
DE3441450A1 (de) * | 1984-05-11 | 1985-11-14 | KUBOTA, Ltd., Osaka | Mit lichtstrahlen arbeitende detektiereinrichtung |
EP0193985A1 (de) * | 1985-02-25 | 1986-09-10 | Industrial Contractors Holland B.V. | Navigationssystem für ein nicht an eine Bahn gebundenes Fahrzeug |
US4700427A (en) * | 1985-10-17 | 1987-10-20 | Knepper Hans Reinhard | Method of automatically steering self-propelled floor-cleaning machines and floor-cleaning machine for practicing the method |
Cited By (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19520532C2 (de) * | 1994-06-06 | 1998-05-07 | Electrolux Ab | Verfahren zum schnellen Messen der Richtung von einer autonomen Vorrichtung zu einem Transponder sowie selbstfahrende autonome Vorrichtung #### |
DE19520532A1 (de) * | 1994-06-06 | 1996-01-25 | Electrolux Ab | Verbessertes Verfahren zum Orten von Leitsendern für selbstfahrende Vorrichtungen |
DE19757849C5 (de) * | 1997-12-24 | 2013-11-21 | Sick Ag | Scanner und Vorrichtung zur optischen Erfassung von Hindernissen, sowie deren Verwendung |
DE19962491A1 (de) * | 1999-12-23 | 2001-07-05 | Daimler Chrysler Ag | Verfahren zur optischen Überwachung der Umgebung eines sich bewegenden Fahrzeugs |
US6709026B2 (en) | 2000-01-13 | 2004-03-23 | Itt Manufacturing Enterprises, Inc. | Coupling housing and quick-connect coupling for hoses and pipes in motor vehicles in the form of a composite structure |
DE10152927B4 (de) * | 2000-10-26 | 2016-08-04 | Panasonic Intellectual Property Management Co., Ltd. | Autonome Bewegungsvorrichtung mit einer Hindernisumgehungsfunktion |
DE10234730A1 (de) * | 2002-07-30 | 2004-02-19 | Josef Schreiner | Verfahren zur Positionsbestimmung eines Transportfahrzeuges |
US8457776B2 (en) | 2002-11-12 | 2013-06-04 | Siemens Aktiengesellschaft | Method and system for material transport |
DE10252901A1 (de) * | 2002-11-12 | 2004-05-27 | Siemens Ag | Verfahren und System zum Materialtransport |
EP1441271A3 (de) * | 2003-01-23 | 2006-01-04 | Lg Electronics Inc. | Vorrichtung zur Lageerkennung für einen Reinigungsroboter |
US7103449B2 (en) | 2003-01-23 | 2006-09-05 | Lg Electronics Inc. | Position information recognition apparatus for cleaning robot |
DE10331948A1 (de) * | 2003-07-15 | 2005-02-24 | Valeo Schalter Und Sensoren Gmbh | Verfahren und System zur Unterstützung des Manövrierens von Fahrzeugen |
US8075243B2 (en) | 2004-05-03 | 2011-12-13 | Jervis B. Webb Company | Automatic transport loading system and method |
US7980808B2 (en) | 2004-05-03 | 2011-07-19 | Jervis B. Webb Company | Automatic transport loading system and method |
US7648329B2 (en) | 2004-05-03 | 2010-01-19 | Jervis B. Webb Company | Automatic transport loading system and method |
US8210791B2 (en) | 2004-05-03 | 2012-07-03 | Jervis B. Webb Company | Automatic transport loading system and method |
US8192137B2 (en) | 2004-05-03 | 2012-06-05 | Jervis B. Webb Company | Automatic transport loading system and method |
EP1731982A1 (de) * | 2005-06-02 | 2006-12-13 | Jervis B. Webb International Company | Trägheitsnavigationssteuerungssystem für ein fahrerloses Fahrzeug unter Verwendung von Laser-Hindernissensoren |
USRE48503E1 (en) | 2006-07-13 | 2021-04-06 | Velodyne Lidar Usa, Inc. | High definition LiDAR system |
USRE48688E1 (en) | 2006-07-13 | 2021-08-17 | Velodyne Lidar Usa, Inc. | High definition LiDAR system |
USRE48666E1 (en) | 2006-07-13 | 2021-08-03 | Velodyne Lidar Usa, Inc. | High definition LiDAR system |
USRE48490E1 (en) | 2006-07-13 | 2021-03-30 | Velodyne Lidar Usa, Inc. | High definition LiDAR system |
USRE48491E1 (en) | 2006-07-13 | 2021-03-30 | Velodyne Lidar Usa, Inc. | High definition lidar system |
USRE48504E1 (en) | 2006-07-13 | 2021-04-06 | Velodyne Lidar Usa, Inc. | High definition LiDAR system |
DE102007021693A1 (de) * | 2007-05-09 | 2008-11-13 | Götting jun., Hans-Heinrich, Dipl.-Ing. (FH) | Hilfssystem zur Lagebestimmung eines Fahrzeugs |
DE102010021042A1 (de) | 2010-05-19 | 2011-11-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur rechnergestützten Spurführung von Fahrzeugen |
EP2434312A1 (de) * | 2010-09-24 | 2012-03-28 | Sick AG | Laserscanner mit einstückiger Lichtablenkeinheit mit Winkelmaßverkörperung |
CN105595923A (zh) * | 2015-11-03 | 2016-05-25 | 林启东 | 一种智能刷地装置及其控制方法 |
US11550036B2 (en) | 2016-01-31 | 2023-01-10 | Velodyne Lidar Usa, Inc. | Multiple pulse, LIDAR based 3-D imaging |
US11137480B2 (en) | 2016-01-31 | 2021-10-05 | Velodyne Lidar Usa, Inc. | Multiple pulse, LIDAR based 3-D imaging |
US11698443B2 (en) | 2016-01-31 | 2023-07-11 | Velodyne Lidar Usa, Inc. | Multiple pulse, lidar based 3-D imaging |
US11822012B2 (en) | 2016-01-31 | 2023-11-21 | Velodyne Lidar Usa, Inc. | Multiple pulse, LIDAR based 3-D imaging |
US11073617B2 (en) | 2016-03-19 | 2021-07-27 | Velodyne Lidar Usa, Inc. | Integrated illumination and detection for LIDAR based 3-D imaging |
US11561305B2 (en) | 2016-06-01 | 2023-01-24 | Velodyne Lidar Usa, Inc. | Multiple pixel scanning LIDAR |
US10983218B2 (en) | 2016-06-01 | 2021-04-20 | Velodyne Lidar Usa, Inc. | Multiple pixel scanning LIDAR |
US11550056B2 (en) | 2016-06-01 | 2023-01-10 | Velodyne Lidar Usa, Inc. | Multiple pixel scanning lidar |
US11874377B2 (en) | 2016-06-01 | 2024-01-16 | Velodyne Lidar Usa, Inc. | Multiple pixel scanning LIDAR |
US11808854B2 (en) | 2016-06-01 | 2023-11-07 | Velodyne Lidar Usa, Inc. | Multiple pixel scanning LIDAR |
US11808891B2 (en) | 2017-03-31 | 2023-11-07 | Velodyne Lidar Usa, Inc. | Integrated LIDAR illumination power control |
WO2018184844A1 (de) * | 2017-04-06 | 2018-10-11 | Robert Bosch Gmbh | Verfahren und vorrichtung zum betreiben eines automatisierten fahrzeugs |
US11703569B2 (en) | 2017-05-08 | 2023-07-18 | Velodyne Lidar Usa, Inc. | LIDAR data acquisition and control |
US11294041B2 (en) | 2017-12-08 | 2022-04-05 | Velodyne Lidar Usa, Inc. | Systems and methods for improving detection of a return signal in a light ranging and detection system |
DE102018100534A1 (de) * | 2018-01-11 | 2019-07-11 | B. Strautmann & Söhne GmbH u. Co. KG | Steuerungsverfahren für eine Fütterungsmaschine |
DE102018117242A1 (de) * | 2018-07-17 | 2020-01-23 | Jungheinrich Aktiengesellschaft | Flurförderzeug mit einer Kamera |
US11796648B2 (en) | 2018-09-18 | 2023-10-24 | Velodyne Lidar Usa, Inc. | Multi-channel lidar illumination driver |
US11082010B2 (en) | 2018-11-06 | 2021-08-03 | Velodyne Lidar Usa, Inc. | Systems and methods for TIA base current detection and compensation |
US11885958B2 (en) | 2019-01-07 | 2024-01-30 | Velodyne Lidar Usa, Inc. | Systems and methods for a dual axis resonant scanning mirror |
US11933967B2 (en) | 2019-08-22 | 2024-03-19 | Red Creamery, LLC | Distally actuated scanning mirror |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3741259A1 (de) | Verfahren und vorrichtung zur autonomen steuerung eines fahrzeuges | |
EP2837985B1 (de) | Fahrerloses Transportfahrzeug und Verfahren zum Betreiben eines fahrerlosen Transportfahrzeugs | |
EP0273976B1 (de) | Lenkvorrichtung für sich unbemannt bewegende körper | |
DE60208164T2 (de) | Verfahren und einrichtung zur bestimmung der position einer autonomen vorrichtung | |
EP1010047B1 (de) | Verfahren zur andockpositionierung einer autonomen mobilen einheit unter verwendung eines leitstrahles | |
EP2888556B1 (de) | Verfahren und vorrichtung zur ermittlung einer fahrzeugposition in einer kartierten umgebung | |
DE3911054C3 (de) | Navigationssystem und -Verfahren zur leitdrahtlosen Führung von fahrerlosen Flurförderzeugen | |
DE102005014648A1 (de) | Kompensationsverfahren eines Gyro-Sensors für Reinigungsroboter | |
EP2192384B1 (de) | Fahrerloses Transportsystem | |
CN109375629A (zh) | 一种巡逻车及其导航避障方法 | |
DE4300123C2 (de) | Verfahren zur Navigation eines mobilen Roboters | |
JP7209367B2 (ja) | ゴルフ場自動運転車のナビゲーション切り替え設備 | |
DE3709627A1 (de) | Selbstfahrendes fahrzeug | |
DE102018009114A1 (de) | Verfahren zur Bestimmung der Position eines auf einer Verfahrfläche bewegbaren Mobilteils und Anlage mit Mobilteil zur Durchführung des Verfahrens | |
DE102020105334A1 (de) | Verfahren für ein Steuern eines fahrerlosen Transportfahrzeugs und Steuerungssystem, das angepasst ist, um das Verfahren auszuführen | |
DE102010021042A1 (de) | Verfahren zur rechnergestützten Spurführung von Fahrzeugen | |
EP0196498B1 (de) | Ortungs- und Navigationsverfahren für Landfahrzeuge | |
DE112017003648T5 (de) | Mobiler roboter und steuerungsverfahren | |
Roth et al. | Navigation and docking manoeuvres of mobile robots in industrial environments | |
Behringer et al. | Rascal-an autonomous ground vehicle for desert driving in the darpa grand challenge 2005 | |
DE3930109C1 (de) | ||
WO1995029380A1 (en) | Navigation system for fast automated vehicles and mobile robots | |
Takeda et al. | Automated vehicle guidance using spotmark | |
DE4133533A1 (de) | Verfahren zur ist-lage-erfassung von landgebundenen fahrzeugen, insbesondere von mobilen autonomen robotern, von gabelstaplern und dergleichen, und lageerfassungssystem zur durchfuehrung eines solchen verfahrens | |
EP3358372A2 (de) | Verfahren zur navigation eines fahrzeugs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8101 | Request for examination as to novelty | ||
8110 | Request for examination paragraph 44 | ||
8105 | Search report available | ||
8131 | Rejection |