DE3741259A1 - Verfahren und vorrichtung zur autonomen steuerung eines fahrzeuges - Google Patents

Verfahren und vorrichtung zur autonomen steuerung eines fahrzeuges

Info

Publication number
DE3741259A1
DE3741259A1 DE19873741259 DE3741259A DE3741259A1 DE 3741259 A1 DE3741259 A1 DE 3741259A1 DE 19873741259 DE19873741259 DE 19873741259 DE 3741259 A DE3741259 A DE 3741259A DE 3741259 A1 DE3741259 A1 DE 3741259A1
Authority
DE
Germany
Prior art keywords
vehicle
distance
measurement
information
central computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE19873741259
Other languages
English (en)
Inventor
Johann F Dipl Phys Hipp
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hipp johann F dipl-Phys
Original Assignee
Hipp johann F dipl-Phys
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hipp johann F dipl-Phys filed Critical Hipp johann F dipl-Phys
Priority to DE19873741259 priority Critical patent/DE3741259A1/de
Publication of DE3741259A1 publication Critical patent/DE3741259A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • G01S17/875Combinations of systems using electromagnetic waves other than radio waves for determining attitude
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Description

Die Erfindung betrifft ein Verfahren sowie eine Vorrichtung zur Durchführung dieses Verfahrens nach Anspruch 1.
Die Erfindung findet vorzugsweise Anwendung in Fahrzeugen, mit denen der innerbetriebliche Materialtransport automatisiert durchgeführt werden soll, etwa bei Fahrzeugen, mit denen bestimmte Wege oder Wegmuster wie sie bei Reinigungsmaschinen vorkommen, gefahren werden sollen, und bei autonomen, mobilen Robotern, bei denen der oder die Arbeitsarme auf einer mobilen Plattform montiert sind und auf diese Weise eine hohe Beweglichkeit im Arbeitsprozeß bekommen. Dabei soll sich das Fahrzeug oder die mobile Plattform selbst d. h. autonom steuern.
Bei den bisher bekannten fahrerlosen Transportfahrzeugen hat man die Umgebung mit künstlichen "Marken" wie z. B. im Boden eingelassene Drähte, Magnete, auf den Boden gemahlte oder geklebte Markierungen aller Art etc. versehen. Es wurden einfache Sensoren verwendet, die diese Marken sicher erkennen. Man spricht in diesem Zusammenhang von einer verarmten Umwelt und meint damit, daß die Umgebung nur noch durch die sinnvoll eingebrachten Marken repräsentiert wird. Diese Marken schränken die Flexibilität eines Systems jedoch stark ein. Bei jeder Änderung muß die von den einfachen Sensoren wahrgenommene Umgebungsmarkierung entsprechend mitgeändert werden. Dieses System von Markierungen wird bei großen Anlagen sehr komplex und ist für komplizierte Wegführungen nicht geeignet.
Man kann dabei nicht von einer autonomen Steuerung sprechen, da die Fahrzeuge z. B. dem Draht folgen müssen und keine im Fahrzeug befindliche Intelligenz die Wegfindung unterstützt. Herkömmliche fahrerlose Transportsysteme werden von einem Leitrechner zentral gesteuert. Im Leitrechner muß zu jedem Zeitpunkt die vollständige Information über den Ort aller Fahrzeuge vorliegen. Dies führt verständlicherweise bei großen Systemen zu sehr hohem Aufwand an Kommunikation und Steuerung. Die Fahrzeuge haben insofern keine Autonomie.
Bekannt sind Systeme, bei denen die Steuerung der Fahrzeuge mit einer Kamera unterstützt wird. Diese Kamera sieht entweder eine verarmte Umgebung (z. B. einen auf den Boden befindlichen Strich, etwa eine Fahrbahnbegrenzung) oder die Umgebung direkt. Die erste Sorte kann nicht als autonom bezeichnet werden. Die zweite Sorte ist nur mit mit erheblichen Aufwand realisierbar. Erste militärische Versuchsfahrzeuge in den USA sind sehr langsam, da die Zeit für die Berechnung der Informationen aus dem Bild sehr groß sind.
Während herkömmliche fahrerlose Transportfahrzeuge also ihren Weg an einem im Boden verlegten Draht oder auf den Boden aufgebrachte Farbbänder mit geeigneten Sensoren detektieren, besteht hier die erfinderische Aufgabe darin, ein System und ein Verfahren anzugeben mit dem die Umgebung wahrgenommen, Wege "gelernt" und auf Befehl Fahr- oder Transportaufträge ausgeführt werden können. Dies ist nur mit einem Sensorsystem möglich, das diejenige Information aus der Umgebung entnimmt, die Orientierung und Navigation mit geringem Aufwand ermöglicht. Eine spezielle Infrastruktur wie z. B. die Drähte, metallische Raster oder Farbstreifen sollen nicht erforderlich sein.
Prinzipiell bietet die Umgebung durch ihre körperliche Struktur und Form genügend Information zur Orientierung.
Die Umgebung ist 3-dimensional. Das bedeutet für die Vermessung die Aufnahme und Auswertung von 3-D-Bildern.
Die Lösung dieser Aufgabe würde sehr große Vorteile mit sich bringen, weil für derartige Fahrzeuge keine Installationen an Decken oder Böden erforderlich sind, geringe Anforderungen an Bodenqualität gestellt werden, (Genauigkeit, Material, Ebenheit), extrem schnelles Lernen neuer Kurse durch Teach-In möglich sind und sowohl in Hallen als auch im Außengelände gefahren werden kann und damit der Aufwand an Kommunikation, Infrastrukturmaßnahmen und Steuerungstechnik erheblich reduziert würde.
Die erfinderische Lösung der Aufgabenstellung geht von folgenden Überlegungen aus:
Für die sensorielle Erfassung der Umgebung wird eine direkte Umgebungsvermessung mit aktiven Strahlern durchgeführt. Um die Umgebung dabei in einer Weise zu vermessen, die eine Wiedererkennung bei einer zweiten Vermessung zuläßt, ist eine relativ feine Oberflächen­ abtastung erforderlich. Dies kann mit Lasern durchgeführt werden, weil nur diese ausreichende Reichweite, feine Strahlbündelung und schnelle Distanzmessung ermöglichen. Mit einem Laserentfernungsmesser in Verbindung mit Winkelmessung des Entfernungsmeßstrahl werden deshalb zur Umgebungsvermessung Entfernung und Winkel relativ zum Fahrzeug von Punkten auf den Objekten, die diese Umgebung bilden gemessen.
Die Zusammenfassung vieler Meßpunkte der Umgebung ergibt ein sog. Entfernungsbild der Umgebung. Im zweidimensionalen Fall (z. B. Drehung des Meßstrahls in einer Ebene) gleicht das Entfernungsbild einem horizontalen Schnittbild durch Gegenstände die die Umgebung repräsentieren. Der Datenanfall bei diesem Sensor ist sehr hoch, da die moderne Meßtechnik Meßmittel bereitstellt sowohl die Entfernung als auch den Winkel in hoher Auflösung gemessen zu können.
Ein weiteres erfindungsgemäßes Sensorsystem zur Lösung der Aufgabe ist das Koppelnavigationssystem, mit dem die Bewegung des Fahrzeuges oder der mobilen Plattform sensiert wird. Position und Vektor ergeben sich aus der rechnerischen Integration der gemessenen vektoriellen Wegelemente längs des zurückgelegten Weges. Derartige Systeme müssen z. B. Radumdrehungen und Radstellungen (Odometrische Systeme) oder sensieren Winkeländerungen mittels Kreisel (inertiale Systeme). Sie sind mit einem Fehler behaftet, der mit der zurückgelegten Wegstrecke und ggf. Zeit wächst. Die Meßergebnisse dieser Systeme müssen deshalb ständig korrigiert werden.
Kurzzeitig liefern das Koppelnavigationssysteme sehr gute Meßergebnisse. Diese Tatsache wird erfindungsgemäß bei der Entfernungsbildaufnahme mehrfach benutzt. Da die Entfernungsbildaufnahme eine gewisse Zeit in Anspruch nimmt, sind die Aufnahmeorte für jeden Meßpunkt der Umgebung unterschiedlich. Die aus den Daten des Koppelnavigationssystems errechnete Position erlaubt nun die vektorielle Addition von Umgebungsmeßwert und jeweiligem Aufnahmeort, so daß alle Umgebungspunkte auf ein festes Koordinatensystem transformiert werden können. Damit ist der Weg frei durch Zusammenwirkung beider Sensorsysteme die gesamte Umgebung in einem ortsfesten Koordinatensystem zu kartieren. Dies ist ein wiederholbarer Vorgang der bei einer Teach-In Fahrt aber auch bei jeder Wiederholungsfahrt durchgeführt werden kann.
Da das Koppelnavigationsystem aber über längere Strecken fehlerhafte Ergebnisse liefert wird erfindungsgemäß vom absolut messenden Laser-Entfernungsbildsystem zur Reduktion dieses Fehlers Gebrauch gemacht. Dies geschieht durch Vergleich der genauen Umgebungsmeßdaten mit gespeicherten Umgebungsmeßdaten. Der absolute Positionsfehler wird dabei auf eine Größe reduziert, die kleiner als der Meßfehler des Laser-Entfernungsbildsystems ist. Je genauer das Koppel­ navigationssystem arbeitet, desto seltener ist eine Fehlerreduzierung der Absolutposition mit Hilfe des Laser- Entfernungsbildsystem erforderlich um den aktuellen Positionsfehler in vorbestimmten Schranken zu halten.
Die Datenflut wird erfindungsgemäß on-line von einem leistungsfähigen Zentralrechner abgearbeitet. Zusätzlich kann durch geeignete Algorithmen die Datenmenge reduziert werden, indem auf ein ortsfestes Koordinatensystem transformierte Entfernungsbildteile durch einfache Kurven approximiert werden. Nach bestimmten Kriterien werden die transformierten Entfernungsbilder nach wiedererkennbaren eindeutigen Merkmalen abgesucht und die zugehörigen Ortskoordinaten und Merkmalart gespeichert.
Ein einfaches Beispiel eines derartigen Orientierungs­ elementes ist eine Ecke, für deren Vorhandensein sich eindeutige Kriterien aufstellen lassen und die eindeutig in einem Koordinatensystem lokalisiert, beschrieben und wiedererkannt werden kann.
Viele zeitlich nacheinander aufgenommene, auf ein ortsfestes Koordinatensystem transformierte Entfernungs­ bilder können rechnerisch zu einem Entfernungsbild der Umgebung zusammengesetzt werden.
Die Vorteile des erfindungsgemäßen Sensor Systems bestehen u. a. darin, daß die Auswertung der Umgebungsvermessung fast immer auf die Erkennung und Berechnung von kleinen Entfernungsbildunterschieden (dem akkumulierten Fehler des Koppelnavigationssystems) beschränkt ist, weil meistens ähnliche, auf das ortsfeste Koordinatensystem transformierte Entfernungsbilder zur Orientierung und Navigation miteinander zu verglichen werden. Dies ist ohne weiteres on-line durchführbar. Da mit Hilfe des Koppelnavigationssystems die Zeit zwischen diesen Auswertungen überbrückt werden kann, steht das Laser- Entfernungsbildsystem noch für andere Aufgaben wie z. B. Hinderniserkennung, Hinderniswarnung und Hindernisanalyse zur Verfügung.
Von einem Hinderniswarnsystem wird eine Reichweite über einige Meter, Wahrnehmung jedes Hindernisses in der nahen Umgebung, großer Winkelarbeitsbereich, Erkennung und Unterscheidung von bewegten Hindernissen, geringe Herstellungskosten gefordert. Alle Forderungen sind in idealer Weise automatisch durch das technische Prinzip des Laser-Entfernungsbildsystems erfüllt. Es stellt ein ideales Hinderniswarnsystem für größere Reichweiten dar.
Unterstützt wird das weitreichende Laser-Bildsystem durch ein Ultraschall Hinderniswarnsystem. Mit diesem System werden auch auf der Fahrbahn liegende Hindernisse noch erfaßt.
Darüber hinaus ist das Fahrzeug mit Notausschaltern und Kontaktschalter ausgerüstet die unmittelbaren Berührungs­ schutz gewährleisten.
Auf diese Weise ist ein gestaffeltes arbeitendes Sicher­ heitssystem im Sensorsystem integriert, das den durch die autonome Steuerung erhöhten Sicherheitsanforderungen entspricht.
Laser-Entfernungsbildsystem, Koppelnavigationssystem und leistungsfähiger Zentralrechner erlauben die grundsätzliche Lösung der Aufgabe der Steuerung autonomer Fahrzeuge oder mobiler Plattformen. Für größere Fahrzeuge oder mobile Plattformen können mehrere Laser-Bildsysteme im erfindungs­ gemäßen Sensor System z. B. für die Abdeckung nach vorn und hinten integriert sein.
Ein typisches Ausführungsbeispiel des erfindungsgemäßen Verfahrens und zugehörige Vorrichtungen sind in den Figuren 1 bis 6 schematisch wiedergegeben. Es zeigt
Fig. 1 eine erfindungsgemäßes Sensorsystem auf einem Fahrzeug oder einer mobilen Plattform als Block­ diagramm,
Fig. 2 einen erfindungsgemäßen Zentralrechner als Blockdiagramm,
Fig. 3 schematische Korrektur der Position durch Umgebungs­ erfassung,
Fig. 4 wie das erfindungsgemäße Sensorsystem die Umgebung sieht,
Fig. 5 ein Transportfahrzeug mit erfindungsgemäßem Sensorsystem in Schrägansicht,
Fig. 6 Beispiel einer mobilen Plattform mit erfindungs­ gemäßem Sensorsystem.
Das typische Ausführungsbeispiel ist in Fig. 1 als Blockdiagramm dargestellt. Es handelt sich um ein autonomes Fahrzeug mit einem Fahrwerk mit drei Rädern, von denen ein einzelnes Rad 10 a angetrieben und gelenkt wird und die restlichen zwei Räder 10 b, 10 c auf einer Achse frei mitlaufen. Der Entfernungsmesser 1, angetrieben mit dem Motor 2, drehbar um die als Pfeil dargestellte Hochachse des Fahrzeuges, sendet einen Meßstrahl 30 rundum. Der Winkel des Meßstrahls wird mit dem Winkelencoder 3 gemessen wird. Entfernung und Winkel werden in die Laser- Entfernungsbildsystemsteuereinheit 4 übertragen zu Datentelegrammen zusammengefaßt und an den Zentralrechner 5 übertragen.
Die Bewegung des Fahrzeuges wird an den Rädern 10 b, 10 c mit den Winkelencodern 9 sensiert. Die Winkeländerungen werden in der Steuereinheit 8 des Koppelnavigationssystems mit dem Lenkwinkel, der mit dem Winkelsensor 11 gemessen wird, vorverarbeitet, zu Datentelegrammen zusammengefaßt und an den Zentralrechner 5 übertragen.
Mit den Ultraschall Sensoren 7 . . . 7 n wird die nähere Umgebung um das Fahrzeug nach Hindernissen geprüft, indem jeder Sensor Schallpulse aussendet, deren Laufzeit zu einem Objekt und zurück in der Ultraschallsteuereinheit 6 gemessen wird und vorverarbeitet zum Zentralrechner 5 übertragen.
Mit einem Handbediengerät 13, das mit dem Zentralrechner 5 verbunden ist kann das Fahrzeug manuell gesteuert werden und es können über die Tastatur dieses Gerätes Kommandos und Informationen in das Fahrzeug eingegeben werden.
Mit dem IR-Kommunikationsgerät 13, das mit dem Zentralrechner 5 verbunden ist, kann das Fahrzeug Informationen senden oder Empfangen.
Mit der Kamera 14, die ebenfalls mit dem Zentralrechner 5 verbunden ist, können Bilder der Umgebung aufgenommen und dem Zentralrechner zugeführt werden.
Der Zentralrechner generiert aus den ihm zugeführten Daten und Befehlen, aus den Messungen der Umwelt und aus seinem gespeicherten Bestand an Informationen Steuerkommandos, die in der Fahr- und Lenksteuereinheit 18 in Ansteuersignale für den Fahrmotor 19 und Lenkmotor 20 umgesetzt werden.
Da die zu verarbeitende Datenmenge in diesem Ausführungs­ beispiel beträchtlich ist wird der Zentralrechner 5 (Fig. 2) aus Parallelprozessoren 15 gebildet um die verschiedenen Sensordaten parallel und schnell zu verarbeiten. Jedes periphäre Sensorsystem 4, 6, 8 ist mit eigenen Prozessoren ausgestattet, die direkt mit bestimmten Parallelprozessoren 15 aus dem Zentralrechner kommunizieren. Die Kommunikation geschieht über standardisierte, schnelle, serielle Schnittstellen, sog. Links. Der Prozessor 16 liefert die Daten der IR-Kommunikationseinheit 13 und des Bediengerätes 12 vorverarbeitet über einen Link an das Parallel­ prozessorsystem. Die Arbeitsprogramme, Umgebungsdaten und Weginformationen werden in der vom Prozessor 16 verwalteten Permanentspeichereinheit 17 verwaltet und bei Bedarf in die jeweiligen Arbeitsspeicher 15 a der Parallelprozessoren 15 transferiert.
Zur Erlernung der Umgebung werden mit einem Fahrzeug die Wege abgefahren und entsprechende Hinweise bezüglich der Strecke eingegeben. Dies geschieht mit Hilfe der Handbedieneinheit 13 während einer Teach-In Fahrt. Schon während dieser Teach-In Fahrt wird die Umgebung permanent vermessen und die Umgebungs- und Positionsdaten oder die entsprechenden reduzierten Daten gespeichert. Die Speicherung erfolgt auf der Permanentspeichereinheit 17, deren Inhalt dubliziert und somit für weitere Fahrzeuge nutzbar gemacht werden kann. Diese Teach-In Fahrt ähnelt dem Teach-In bei Handhabungsrobotern.
Fig. 3 veranschaulicht die Art und Weise der genauen Navigation. X, Y stellt das ortsfeste Koordinatensystem dar. Das Fahrzeug hat den Befehl den Weg 23 zu fahren und die Umgebungsinformation 25 gespeichert. Es fährt aber tatsächlich den Weg 24 weil die Daten der Koppelnavigationsteuereinheit fehlerhaft sind. Bis zum Punkt 22 hat die Umgebungsvermessung entsprechend Anspruch 1, das auf das ortsfeste Koordinatensystem transformierte Entfernungsbild 26 ergeben. Aus Vergleich der Entfernungsbilder 25 und 26 wird im Zentralrechner die Verschiebung 21 errechnet, die als Korrekturwert der aus den Daten der Koppelnavigationssteuereinheit errechneten Position angebracht wird. Dies bedeutet, daß gleichzeitig im Zentralrechner 5 Steuersignale generiert werden, die dafür sorgen, daß die Motoren 19 und 20 das Fahrzeug wieder auf den Kurs 23 bringen. Dieser Regelungsprozeß läuft kontinuierlich ab.
Fig. 4 veranschaulicht wie das auf das ortsfeste Koordinatensystem transformierte Entfernungsbild dazu verwendet werden kann bewegte Fahrzeuge zu erkennen. Zwei aufeinanderfolgende Entfernungsbilder, in schneller Folge aufgenommen, zeigen die Bewegung eines Fahrzeuges 28, 29 deutlich. Durch rechnerischen Vergleich der Entfernungsbilder wird die Geschwindigkeit und Fahrtrichtung ermittelt. Hindernisse wie z. B. 37 werden leicht und frühzeitig erkannt und ortsrichtig vermessen. Aus den Daten 32 kann leicht durch Approximationsrechnungen die reduzierte Entfernungsbildinformation 31 errechnet werden und aus dieser die Eckpunkte 33 a bis f. Diese Rechnungen verkleinern den zu speichernden Datenumfang beträchtlich und erleichtern die Wiedererkennung.
Fig. 5 zeigt ein Ausführungsbeispiel eines Transportfahrzeuges mit erfindungsgemäßem Sensorsystem in Schrägansicht. Dabei ist das Laser-Entfernungsbildsystem 1 bis 3 zentral unterhalb der Lastaufnahmemittels 34 angeordnet und hat rundum Sicht zur Entfernungsbildaufnahme dargestellt durch die Meßstrahlen 30. Die Meßrichtung ist horizontal vom Fahrzeug weggerichtet, so daß die Umgebung sowie Hindernisse erfaßt werden. Die Lastaufnahmemittel werden dabei um die Strahlbreite von wenigen cm erhöht angebaut. Diese Konfiguration erlaubt neben der Rundumsicht die Umweltvermessung in Vorwärts- und Rückwärtsfahrt und Hinderniswarnung in Vorwärts- und Rückwärtsfahrt.
Die Ultraschallsensoren 7 decken in diesem Ausführungs­ beispiel den tieferen Bereich um das Fahrzeug zur Hinderniserkennung ab. Kontaktschutzeinrichtungen 35 stellen eine weitere Sicherheitseinrichtung dar.
Fig. 6 zeigt ein Ausführungsbeispiel einer mobilen Arbeitsplattform mit einem erfindungsgemäßen Sensorsystem. Wie bei Fig. 5 wird die Rundumsicht durch den zentralen Einbau des Laserentfernungsmessers 1 erzielt. Als Arbeitsmittel ist auf der mobilen Plattform 27 ein Roboterarm 36 montiert, der in dieser Konfiguration frei beweglich ist. Das Laser-Entfernungsbildsystem in Verbindung mit einem Koppelnavigationssystem ermöglichen die freie Positionierung und Navigation dieses Roboterarmes relativ zum Werkstück.

Claims (62)

1. Verfahren zur autonomen Steuerung eines Fahrzeuges oder einer mobilen Plattform mittels eines Sensorsystems mit mindestens einem Laser-Entfernungsbildsystem, einem Koppel­ navigationssystem und einem Zentralrechner, dadurch gekennzeichnet, daß mit dem Koppelnavigationssystem kontinuierlich inkrementale Positionsveränderungen gemessen werden, diese an einen Zentralrechner übertragen werden, zur Berechnung von Position und Vektor addiert werden, mit dem Laser- Entfernungsbildsystem kontinuierlich während der Bewegung Oberflächenpunkte der Umgebung oder Segmente der Umgebung mit einem oder mehreren Entfernungsmeßstrahlen hinsichtlich der Entfernung und des Winkels relativ zum Fahrzeug oder der mobilen Plattform vermessen werden, die Meßergebnisse der Umgebungsvermessung mit dem Vektor und der Position des Fahrzeugs oder der mobilen Plattform, zugehörig zum Zeitpunkt der Meßpunktaufnahme in ein ortsfestes Koordinatensystem transformiert werden, die transformierten Umgebungsmeßdaten, die den akkumulierten Positionsfehler aus den addierten Koppelnavigationssystem Daten enthalten, im Zentralrechner mit einem gespeicherten Informations­ bestand über die Umgebung verglichen werden, die Koordinatenverschiebung aus der aktuellen Messung und der gespeicherten Information berechnet wird, die Position um die errechnete Koordinatenverschiebung korrigiert wird, die Abweichung der Position von der, sich aus der jeweiligen Aufgabe ergebenden Sollposition berechnet wird, diese Abweichung als Korrekturwert einer Regelschaltung zugeführt wird, die Steuersignale für den Antrieb und die Lenkung ermittelt.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Kurs aus der Aufgabenstellung im Zentralrechner selbsttätig berechnet wird.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das ein per Rechner erstelltes Wegnetz in den Zentral­ rechner des Fahrzeuges eingegeben und dort gespeichert wird.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß nach Einschalten des Fahrzeuges oder der Mobilen Plattform eine Umgebungsvermessung abläuft, Position und Vektor durch Vergleich mit dem gespeicherten Umgebungsinformationen berechnet werden, das neue ortsfeste Koordinatensystem im Zentralrechner derartig festgelegt wird, daß die gemessene und gespeicherte Umgebungsinformation übereinstimmt.
5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß bei Ausschalten des Fahrzeuges oder der mobilen Plattform die momentane Position und der momentaner Vektor permanent gespeichert werden.
6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Informationsbestand über die Umgebung mit dem Laser- Entfernungsbildsystem während eines Teach-In durch Verfahren des Fahrzeugs oder einer mobilen Plattform auf dem gewünschten Kurs per Hand oder ferngesteuert per Hand bei gleichzeitiger Positions- und Umgebungsvermessung mit dem Sensorsystem erzeugt wird.
7. Verfahren nach Anspruch 1 und 6, dadurch gekennzeichnet, daß die Umgebungsinformationen entweder direkt gespeichert wird, oder vorverarbeitete Daten gespeichert werden.
8. Verfahren nach Anspruch 1 und 6, dadurch gekennzeichnet, daß zusätzlich eingegebene Daten über besondere Wegmerk­ male, Verkehrsregeln, Fahrkurselemente, Fahrtrichtung, Transportpunkte und Umgebungsbereiche, die sich nicht für Orientierungsberechnungen eigen und weitere aufgaben­ spezifische Informationen gespeichert werden.
9. Verfahren nach Anspruch 1 und 6, dadurch gekennzeichnet, daß der während des Teach-In erzeugte Umgebungs­ informationsbestand als leicht wiedererkennbare Entfernungsbildelemente berechnet und gespeichert werden.
10. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß bei Umgebungsveränderung der Bestand an Informationen über die Umgebung im Zentralrechner selbsttätig verändert, ergänzt oder reduziert wird.
11. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die transformierten Umgebungsmeßdaten im Zentralrechner stückweise mit einfachen Funktionen approximiert werden.
12. Verfahren nach Anspruch 1 und 10, dadurch gekenn­ zeichnet, daß die im Datenumfang reduzierten trans­ formierten Umgebungsmeßdaten Daten oder die transformierten Umgebungsmeßdaten selbst im Zentralrechner auf leicht wiedererkennbare Elemente wie Geradenstücke, Ecken, Sprünge und deren Abstände untereinander untersucht werden, deren Orte oder Abstände gespeichert werden.
13. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß auf das ortsfeste Koordinatensystem transformierte Entfernungsbild oder daraus reduzierte Informationen durch Vergleich mit Entfernungsbildern von gespeicherten Objekten oder daraus reduzierten gespeicherten Informationen auf die Erkennung dieser Objekte analysiert wird und Steuersignale für den Antrieb und die Lenkung daraus abgeleitet werden.
14. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die in das ortsfeste Koordinatensystem transformierten Entfernungsbilder des Laser-Entfernungsbildsystems für Hin­ derniserkennung on-line (in Ist-Zeit) ausgewertet werden.
15. Verfahren nach Anspruch 1 und Anspruch 14, dadurch gekennzeichnet, daß das Ergebnis der Berechnung zur Entscheidung über die Einleitung eines Haltemanövers oder einer Ausweichbewegung verwendet wird.
16. Verfahren nach Anspruch 1 und Anspruch 14, dadurch gekennzeichnet, daß die in das ortsfeste Koordinatensystem transformierten Entfernungsbilder des Laser-Entfernungs­ bildsystems für Erkennung bewegter Objekte on-line (in Ist- Zeit) ausgewertet werden.
17. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß Verkehrsregeln für die Begegnung von Fahrzeugen oder mobilen Plattformen im Zentralrechner gespeichert sind.
18. Vorrichtung zur Durchführung des Verfahrens 1 zur Steuerung eines Fahrzeuges oder einer mobilen Plattform mittels eines Sensorsystems mit mindestens einem Laser- Entfernungsbildsystem, einem Koppelnavigationssystem und einem Zentralrechner, dadurch gekennzeichnet, daß mit dem Koppelnavigationssystem kontinuierlich inkrementale Positionsveränderungen gemessen werden, zur Berechnung von Position und Vektor des Fahrzeuges oder der mobilen Plattform addiert werden, in den Zentralrechner übertragen werden, mit dem Laser-Entfernungsbildsystem kontinuierlich während der Bewegung Oberflächenpunkte der Umgebung oder Segmente der Umgebung mit einem oder mehreren Entfernungsmeßstrahlen hinsichtich der Entfernung und des Winkels relativ zum Fahrzeug oder der mobilen Plattform vermessen werden, die Meßergebnisse der Umgebungsvermessung in den Zentralrechner übertragen werden, mit dem Vektor und der Position des Fahrzeugs oder der mobilen Plattform, zugehörig zum Zeitpunkt der Meßpunktaufnahme in ein fahrzeugunabhängiges ortsfestes Koordinatensystem transformiert werden, der Zentralrechner aus diesen Daten Steuersignale für den Antrieb und Lenkung errechnet.
19. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß die Entfernungsmessung nach dem Pulslaufzeit­ meßverfahren arbeitet.
20. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß die Entfernungsmessung nach dem Phasenvergleichs­ verfahren arbeitet.
21. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß Sender und Empfänger des Entfernungsmessers glasfaser­ gekoppelt sind und die Elektronik vom Optikteil des Entfernungsmessers separiert ist.
22. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß die Entfernungsmessung nach dem Triangulationsverfahren arbeitet.
23. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß mehrere Entfernungsmeßstrahlen und Entfernungsauswerte­ schaltungen parallel verwendet werden.
24. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß die Meßstrahlablenkung durch Drehung des Entfernungs­ messers um die Hochachse des Fahrzeuges erfolgt.
25. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß der Entfernungsmesser im Elevationswinkel motorisch verstellt werden kann.
26. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß die Meßstrahlablenkung mittels motorisch verstellbarer Spiegel erfolgt.
27. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß die Winkelstellung des den Strahl ablenkenden mechanischen Elementes mit einem Winkelencoder gemessen wird.
28. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß die Winkelstellung des den Strahl ablenkenden mechanischen Elementes mit einem Potentiometer gemessen wird.
29. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß das Laser-Entfernungsbildsystem rundum Sicht hat.
30. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß die Lastaufnahmevorrichtung oberhalb der Ebene des Fahrzeuges angebracht wird, aus der der Meßstrahl austritt.
31. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß der Zentralrechner aus Parallelprozessoren mit zugeordneten Speichern besteht.
32. Vorrichtung nach Anspruch 18 und Anspruch 31, dadurch gekennzeichnet, daß die einzelnen Sensorsystemteile mit einzelnen Parallelprozessoren direkt Daten austauschen.
33. Vorrichtung nach Anspruch 18 und Anspruch 31, dadurch gekennzeichnet, daß die Verarbeitung der anfallenden Sensordaten parallel erfolgt.
34. Vorrichtung nach Anspruch 18 und Anspruch 31, dadurch gekennzeichnet, daß die Arbeitsprogramme permanent gespei­ chert werden und zum Ablauf in den Parallelprozessoren in deren RAM-Speicher übertragen werden.
35. Vorrichtung nach Anspruch 18 und Anspruch 31, dadurch gekennzeichnet, daß die Parallelprozessoren über serielle Schnittstellen, sogenannte Links, vernetzt sind und darüber kommunizieren.
36. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß der Informationsbestand auf einem permanent speichernden Medium abgelegt wird.
37. Vorrichtung nach Anspruch 18 und Anspruch 36, dadurch gekennzeichnet, daß das Speichermedium ein elektrisch gepufferter RAM-Speicher ist.
38. Vorrichtung nach Anspruch 18 und Anspruch 36, dadurch gekennzeichnet, daß die Speicherbausteine EEPROMs (electronically ereasable PROMs) sind.
39. Vorrichtung nach Anspruch 18 und Anspruch 36, dadurch gekennzeichnet, daß die Informationen auf magnetischen Datenträgern gespeichert werden.
40. Vorrichtung nach Anspruch 18 und Anspruch 36, dadurch gekennzeichnet, daß die Informationen auf einem optisch abtastbaren Datenspeicher gespeichert werden.
41. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß die Informationen mittels einer Datenübertragungs­ strecke von und zum Rechner übertragen werden.
42. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß der Informationsbestand außerhalb des Fahrzeugs gespeichert wird.
43. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß die Umgebungsinformationen vom Laser-Entfernungs­ bildsystem und Koppelnavigationssystem durch Daten weitere Sensorsysteme ergänzt werden.
44. Vorrichtung nach Anspruch 18 und 43, dadurch gekenn­ zeichnet, daß das weitere Sensorsystem ein Ultraschall­ hindernismeßsystem ist.
45. Vorrichtung nach Anspruch 18, 43 und 44, dadurch gekenn­ zeichnet, daß das Ultraschallsystem aus mehreren Sensoren besteht die mit einer Entfernungsmeßschaltung verbunden sind.
46. Vorrichtung nach Anspruch 18 und 43, dadurch gekennzeichnet, daß das Fahrzeug mit berührungs­ empfindlichen Elememten ausgestattet ist.
47. Vorrichtung nach Anspruch 18 und 43, dadurch gekennzeichnet, daß als zusätzliches Sensorsystem zur Umgebungsvermessung und Erkennung ein Bildsystem mit Videokameras verwendet wird.
48. Vorrichtung nach Anspruch 18 und 43, dadurch gekennzeichnet, daß mindestens eine Kamera Bilder von dem vom Laser-Entfernungsbildsystem überdeckten Bereich liefert, zu deren Bildauswertung die Entfernungsinformation genutzt wird.
49. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß ein mit dem Sensorsystem ausgerüstetes Fahrzeug oder mobile Plattform zusätzlich mit Arbeitsmitteln ausgerüstet ist.
50. Vorrichtung nach Anspruch 18 und 49, dadurch gekenn­ zeichnet, daß das Arbeitsmittel ein oder mehrere Roboterarme sind.
51. Vorrichtung nach Anspruch 18 und 49 und 50, dadurch gekennzeichnet, daß an mindestens einem Roboterarm mindestens eine Videokamera befestigt ist.
52. Verfahren nach Anspruch 18 und 49, dadurch gekenn­ zeichnet, daß das Arbeitsmittel ein Reinigungswerkzeug ist.
53. Vorrichtung nach Anspruch 18 und 49, dadurch gekenn­ zeichnet, daß das Arbeitsmittel ein Rasenschneider ist.
54. Vorrichtung nach Anspruch 18 und 49, dadurch gekenn­ zeichnet, daß das Arbeitsmittel ein Lastübernahme- /Übergabemittel ist.
55. Vorrichtung nach Anspruch 18 und 49, dadurch gekenn­ zeichnet, daß das Arbeitsmittel ein Container Aufnahme­ mittel ist.
56. Vorrichtung nach Anspruch 18 und 43, dadurch gekennzeichnet, daß als zusätzliches Sensorsystem zur Umgebungsvermessung ein Feinpositionierungssystem verwendet wird.
57. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß das Koppelnavigationssystem ein odometrisches System ist.
58. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß das Koppelnavigationssystem aus mehreren Korrelations­ sensoren besteht, mit denen durch optische Korrelation­ methoden die Bewegung über Grund vom Fahrzeug aus gemessen wird.
59. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß das Koppelnavigationssystem aus mehreren Schallsende/Empfangseinrichtungen besteht und die durch die Bewegung hervorgerufene Frequenzverschiebung des in mehrere Richtungen schräg auf den Boden gerichteten Schalls, zur Geschwindigkeitsbestimmung verwendet wird.
60. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß als Sensor im Koppelnavigationssystem ein Kreisel integriert ist, mit dem die Änderung des Fahrzeugvektors festgestellt wird.
61. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß das Laser-Entfernungsbildsystem unempfindlich geschaltet wird und nur als Marken in die Umgebung plazierte Reflektoren detektiert.
62. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß die Amplitude des reflektierten Signals gemessen und als Information für die Umgebungserkennung herangezogen wird.
DE19873741259 1987-12-05 1987-12-05 Verfahren und vorrichtung zur autonomen steuerung eines fahrzeuges Ceased DE3741259A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19873741259 DE3741259A1 (de) 1987-12-05 1987-12-05 Verfahren und vorrichtung zur autonomen steuerung eines fahrzeuges

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19873741259 DE3741259A1 (de) 1987-12-05 1987-12-05 Verfahren und vorrichtung zur autonomen steuerung eines fahrzeuges

Publications (1)

Publication Number Publication Date
DE3741259A1 true DE3741259A1 (de) 1989-06-15

Family

ID=6341949

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19873741259 Ceased DE3741259A1 (de) 1987-12-05 1987-12-05 Verfahren und vorrichtung zur autonomen steuerung eines fahrzeuges

Country Status (1)

Country Link
DE (1) DE3741259A1 (de)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19520532A1 (de) * 1994-06-06 1996-01-25 Electrolux Ab Verbessertes Verfahren zum Orten von Leitsendern für selbstfahrende Vorrichtungen
DE19962491A1 (de) * 1999-12-23 2001-07-05 Daimler Chrysler Ag Verfahren zur optischen Überwachung der Umgebung eines sich bewegenden Fahrzeugs
DE10234730A1 (de) * 2002-07-30 2004-02-19 Josef Schreiner Verfahren zur Positionsbestimmung eines Transportfahrzeuges
US6709026B2 (en) 2000-01-13 2004-03-23 Itt Manufacturing Enterprises, Inc. Coupling housing and quick-connect coupling for hoses and pipes in motor vehicles in the form of a composite structure
DE10252901A1 (de) * 2002-11-12 2004-05-27 Siemens Ag Verfahren und System zum Materialtransport
DE10331948A1 (de) * 2003-07-15 2005-02-24 Valeo Schalter Und Sensoren Gmbh Verfahren und System zur Unterstützung des Manövrierens von Fahrzeugen
EP1441271A3 (de) * 2003-01-23 2006-01-04 Lg Electronics Inc. Vorrichtung zur Lageerkennung für einen Reinigungsroboter
EP1731982A1 (de) * 2005-06-02 2006-12-13 Jervis B. Webb International Company Trägheitsnavigationssteuerungssystem für ein fahrerloses Fahrzeug unter Verwendung von Laser-Hindernissensoren
DE102007021693A1 (de) * 2007-05-09 2008-11-13 Götting jun., Hans-Heinrich, Dipl.-Ing. (FH) Hilfssystem zur Lagebestimmung eines Fahrzeugs
US7648329B2 (en) 2004-05-03 2010-01-19 Jervis B. Webb Company Automatic transport loading system and method
US7980808B2 (en) 2004-05-03 2011-07-19 Jervis B. Webb Company Automatic transport loading system and method
DE102010021042A1 (de) 2010-05-19 2011-11-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur rechnergestützten Spurführung von Fahrzeugen
US8075243B2 (en) 2004-05-03 2011-12-13 Jervis B. Webb Company Automatic transport loading system and method
EP2434312A1 (de) * 2010-09-24 2012-03-28 Sick AG Laserscanner mit einstückiger Lichtablenkeinheit mit Winkelmaßverkörperung
US8192137B2 (en) 2004-05-03 2012-06-05 Jervis B. Webb Company Automatic transport loading system and method
US8210791B2 (en) 2004-05-03 2012-07-03 Jervis B. Webb Company Automatic transport loading system and method
DE19757849C5 (de) * 1997-12-24 2013-11-21 Sick Ag Scanner und Vorrichtung zur optischen Erfassung von Hindernissen, sowie deren Verwendung
CN105595923A (zh) * 2015-11-03 2016-05-25 林启东 一种智能刷地装置及其控制方法
DE10152927B4 (de) * 2000-10-26 2016-08-04 Panasonic Intellectual Property Management Co., Ltd. Autonome Bewegungsvorrichtung mit einer Hindernisumgehungsfunktion
WO2018184844A1 (de) * 2017-04-06 2018-10-11 Robert Bosch Gmbh Verfahren und vorrichtung zum betreiben eines automatisierten fahrzeugs
DE102018100534A1 (de) * 2018-01-11 2019-07-11 B. Strautmann & Söhne GmbH u. Co. KG Steuerungsverfahren für eine Fütterungsmaschine
DE102018117242A1 (de) * 2018-07-17 2020-01-23 Jungheinrich Aktiengesellschaft Flurförderzeug mit einer Kamera
USRE48490E1 (en) 2006-07-13 2021-03-30 Velodyne Lidar Usa, Inc. High definition LiDAR system
US10983218B2 (en) 2016-06-01 2021-04-20 Velodyne Lidar Usa, Inc. Multiple pixel scanning LIDAR
US11073617B2 (en) 2016-03-19 2021-07-27 Velodyne Lidar Usa, Inc. Integrated illumination and detection for LIDAR based 3-D imaging
US11082010B2 (en) 2018-11-06 2021-08-03 Velodyne Lidar Usa, Inc. Systems and methods for TIA base current detection and compensation
US11137480B2 (en) 2016-01-31 2021-10-05 Velodyne Lidar Usa, Inc. Multiple pulse, LIDAR based 3-D imaging
US11294041B2 (en) 2017-12-08 2022-04-05 Velodyne Lidar Usa, Inc. Systems and methods for improving detection of a return signal in a light ranging and detection system
US11703569B2 (en) 2017-05-08 2023-07-18 Velodyne Lidar Usa, Inc. LIDAR data acquisition and control
US11796648B2 (en) 2018-09-18 2023-10-24 Velodyne Lidar Usa, Inc. Multi-channel lidar illumination driver
US11808891B2 (en) 2017-03-31 2023-11-07 Velodyne Lidar Usa, Inc. Integrated LIDAR illumination power control
US11885958B2 (en) 2019-01-07 2024-01-30 Velodyne Lidar Usa, Inc. Systems and methods for a dual axis resonant scanning mirror
US11933967B2 (en) 2019-08-22 2024-03-19 Red Creamery, LLC Distally actuated scanning mirror

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2364002C2 (de) * 1973-12-21 1983-02-24 Frey, Helmut, Dr.jur., 8000 München Orientierungsvorrichtung für ein Gerätesystem, das sich zur Bearbeitung einer Fläche auf dieser bewegt
DE3244828A1 (de) * 1982-02-19 1983-09-08 Kubota Ltd., Osaka Automatisch sich bewegendes fahrzeug vom lern-wiedergabe-typ
EP0120195A2 (de) * 1983-02-24 1984-10-03 Nippondenso Co., Ltd. Leitsystem für ein fahrendes Fahrzeug
DE3441450A1 (de) * 1984-05-11 1985-11-14 KUBOTA, Ltd., Osaka Mit lichtstrahlen arbeitende detektiereinrichtung
EP0193985A1 (de) * 1985-02-25 1986-09-10 Industrial Contractors Holland B.V. Navigationssystem für ein nicht an eine Bahn gebundenes Fahrzeug
US4700427A (en) * 1985-10-17 1987-10-20 Knepper Hans Reinhard Method of automatically steering self-propelled floor-cleaning machines and floor-cleaning machine for practicing the method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2364002C2 (de) * 1973-12-21 1983-02-24 Frey, Helmut, Dr.jur., 8000 München Orientierungsvorrichtung für ein Gerätesystem, das sich zur Bearbeitung einer Fläche auf dieser bewegt
DE3244828A1 (de) * 1982-02-19 1983-09-08 Kubota Ltd., Osaka Automatisch sich bewegendes fahrzeug vom lern-wiedergabe-typ
EP0120195A2 (de) * 1983-02-24 1984-10-03 Nippondenso Co., Ltd. Leitsystem für ein fahrendes Fahrzeug
DE3441450A1 (de) * 1984-05-11 1985-11-14 KUBOTA, Ltd., Osaka Mit lichtstrahlen arbeitende detektiereinrichtung
EP0193985A1 (de) * 1985-02-25 1986-09-10 Industrial Contractors Holland B.V. Navigationssystem für ein nicht an eine Bahn gebundenes Fahrzeug
US4700427A (en) * 1985-10-17 1987-10-20 Knepper Hans Reinhard Method of automatically steering self-propelled floor-cleaning machines and floor-cleaning machine for practicing the method

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19520532C2 (de) * 1994-06-06 1998-05-07 Electrolux Ab Verfahren zum schnellen Messen der Richtung von einer autonomen Vorrichtung zu einem Transponder sowie selbstfahrende autonome Vorrichtung ####
DE19520532A1 (de) * 1994-06-06 1996-01-25 Electrolux Ab Verbessertes Verfahren zum Orten von Leitsendern für selbstfahrende Vorrichtungen
DE19757849C5 (de) * 1997-12-24 2013-11-21 Sick Ag Scanner und Vorrichtung zur optischen Erfassung von Hindernissen, sowie deren Verwendung
DE19962491A1 (de) * 1999-12-23 2001-07-05 Daimler Chrysler Ag Verfahren zur optischen Überwachung der Umgebung eines sich bewegenden Fahrzeugs
US6709026B2 (en) 2000-01-13 2004-03-23 Itt Manufacturing Enterprises, Inc. Coupling housing and quick-connect coupling for hoses and pipes in motor vehicles in the form of a composite structure
DE10152927B4 (de) * 2000-10-26 2016-08-04 Panasonic Intellectual Property Management Co., Ltd. Autonome Bewegungsvorrichtung mit einer Hindernisumgehungsfunktion
DE10234730A1 (de) * 2002-07-30 2004-02-19 Josef Schreiner Verfahren zur Positionsbestimmung eines Transportfahrzeuges
US8457776B2 (en) 2002-11-12 2013-06-04 Siemens Aktiengesellschaft Method and system for material transport
DE10252901A1 (de) * 2002-11-12 2004-05-27 Siemens Ag Verfahren und System zum Materialtransport
EP1441271A3 (de) * 2003-01-23 2006-01-04 Lg Electronics Inc. Vorrichtung zur Lageerkennung für einen Reinigungsroboter
US7103449B2 (en) 2003-01-23 2006-09-05 Lg Electronics Inc. Position information recognition apparatus for cleaning robot
DE10331948A1 (de) * 2003-07-15 2005-02-24 Valeo Schalter Und Sensoren Gmbh Verfahren und System zur Unterstützung des Manövrierens von Fahrzeugen
US8075243B2 (en) 2004-05-03 2011-12-13 Jervis B. Webb Company Automatic transport loading system and method
US7980808B2 (en) 2004-05-03 2011-07-19 Jervis B. Webb Company Automatic transport loading system and method
US7648329B2 (en) 2004-05-03 2010-01-19 Jervis B. Webb Company Automatic transport loading system and method
US8210791B2 (en) 2004-05-03 2012-07-03 Jervis B. Webb Company Automatic transport loading system and method
US8192137B2 (en) 2004-05-03 2012-06-05 Jervis B. Webb Company Automatic transport loading system and method
EP1731982A1 (de) * 2005-06-02 2006-12-13 Jervis B. Webb International Company Trägheitsnavigationssteuerungssystem für ein fahrerloses Fahrzeug unter Verwendung von Laser-Hindernissensoren
USRE48503E1 (en) 2006-07-13 2021-04-06 Velodyne Lidar Usa, Inc. High definition LiDAR system
USRE48688E1 (en) 2006-07-13 2021-08-17 Velodyne Lidar Usa, Inc. High definition LiDAR system
USRE48666E1 (en) 2006-07-13 2021-08-03 Velodyne Lidar Usa, Inc. High definition LiDAR system
USRE48490E1 (en) 2006-07-13 2021-03-30 Velodyne Lidar Usa, Inc. High definition LiDAR system
USRE48491E1 (en) 2006-07-13 2021-03-30 Velodyne Lidar Usa, Inc. High definition lidar system
USRE48504E1 (en) 2006-07-13 2021-04-06 Velodyne Lidar Usa, Inc. High definition LiDAR system
DE102007021693A1 (de) * 2007-05-09 2008-11-13 Götting jun., Hans-Heinrich, Dipl.-Ing. (FH) Hilfssystem zur Lagebestimmung eines Fahrzeugs
DE102010021042A1 (de) 2010-05-19 2011-11-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur rechnergestützten Spurführung von Fahrzeugen
EP2434312A1 (de) * 2010-09-24 2012-03-28 Sick AG Laserscanner mit einstückiger Lichtablenkeinheit mit Winkelmaßverkörperung
CN105595923A (zh) * 2015-11-03 2016-05-25 林启东 一种智能刷地装置及其控制方法
US11550036B2 (en) 2016-01-31 2023-01-10 Velodyne Lidar Usa, Inc. Multiple pulse, LIDAR based 3-D imaging
US11137480B2 (en) 2016-01-31 2021-10-05 Velodyne Lidar Usa, Inc. Multiple pulse, LIDAR based 3-D imaging
US11698443B2 (en) 2016-01-31 2023-07-11 Velodyne Lidar Usa, Inc. Multiple pulse, lidar based 3-D imaging
US11822012B2 (en) 2016-01-31 2023-11-21 Velodyne Lidar Usa, Inc. Multiple pulse, LIDAR based 3-D imaging
US11073617B2 (en) 2016-03-19 2021-07-27 Velodyne Lidar Usa, Inc. Integrated illumination and detection for LIDAR based 3-D imaging
US11561305B2 (en) 2016-06-01 2023-01-24 Velodyne Lidar Usa, Inc. Multiple pixel scanning LIDAR
US10983218B2 (en) 2016-06-01 2021-04-20 Velodyne Lidar Usa, Inc. Multiple pixel scanning LIDAR
US11550056B2 (en) 2016-06-01 2023-01-10 Velodyne Lidar Usa, Inc. Multiple pixel scanning lidar
US11874377B2 (en) 2016-06-01 2024-01-16 Velodyne Lidar Usa, Inc. Multiple pixel scanning LIDAR
US11808854B2 (en) 2016-06-01 2023-11-07 Velodyne Lidar Usa, Inc. Multiple pixel scanning LIDAR
US11808891B2 (en) 2017-03-31 2023-11-07 Velodyne Lidar Usa, Inc. Integrated LIDAR illumination power control
WO2018184844A1 (de) * 2017-04-06 2018-10-11 Robert Bosch Gmbh Verfahren und vorrichtung zum betreiben eines automatisierten fahrzeugs
US11703569B2 (en) 2017-05-08 2023-07-18 Velodyne Lidar Usa, Inc. LIDAR data acquisition and control
US11294041B2 (en) 2017-12-08 2022-04-05 Velodyne Lidar Usa, Inc. Systems and methods for improving detection of a return signal in a light ranging and detection system
DE102018100534A1 (de) * 2018-01-11 2019-07-11 B. Strautmann & Söhne GmbH u. Co. KG Steuerungsverfahren für eine Fütterungsmaschine
DE102018117242A1 (de) * 2018-07-17 2020-01-23 Jungheinrich Aktiengesellschaft Flurförderzeug mit einer Kamera
US11796648B2 (en) 2018-09-18 2023-10-24 Velodyne Lidar Usa, Inc. Multi-channel lidar illumination driver
US11082010B2 (en) 2018-11-06 2021-08-03 Velodyne Lidar Usa, Inc. Systems and methods for TIA base current detection and compensation
US11885958B2 (en) 2019-01-07 2024-01-30 Velodyne Lidar Usa, Inc. Systems and methods for a dual axis resonant scanning mirror
US11933967B2 (en) 2019-08-22 2024-03-19 Red Creamery, LLC Distally actuated scanning mirror

Similar Documents

Publication Publication Date Title
DE3741259A1 (de) Verfahren und vorrichtung zur autonomen steuerung eines fahrzeuges
EP2837985B1 (de) Fahrerloses Transportfahrzeug und Verfahren zum Betreiben eines fahrerlosen Transportfahrzeugs
EP0273976B1 (de) Lenkvorrichtung für sich unbemannt bewegende körper
DE60208164T2 (de) Verfahren und einrichtung zur bestimmung der position einer autonomen vorrichtung
EP1010047B1 (de) Verfahren zur andockpositionierung einer autonomen mobilen einheit unter verwendung eines leitstrahles
EP2888556B1 (de) Verfahren und vorrichtung zur ermittlung einer fahrzeugposition in einer kartierten umgebung
DE3911054C3 (de) Navigationssystem und -Verfahren zur leitdrahtlosen Führung von fahrerlosen Flurförderzeugen
DE102005014648A1 (de) Kompensationsverfahren eines Gyro-Sensors für Reinigungsroboter
EP2192384B1 (de) Fahrerloses Transportsystem
CN109375629A (zh) 一种巡逻车及其导航避障方法
DE4300123C2 (de) Verfahren zur Navigation eines mobilen Roboters
JP7209367B2 (ja) ゴルフ場自動運転車のナビゲーション切り替え設備
DE3709627A1 (de) Selbstfahrendes fahrzeug
DE102018009114A1 (de) Verfahren zur Bestimmung der Position eines auf einer Verfahrfläche bewegbaren Mobilteils und Anlage mit Mobilteil zur Durchführung des Verfahrens
DE102020105334A1 (de) Verfahren für ein Steuern eines fahrerlosen Transportfahrzeugs und Steuerungssystem, das angepasst ist, um das Verfahren auszuführen
DE102010021042A1 (de) Verfahren zur rechnergestützten Spurführung von Fahrzeugen
EP0196498B1 (de) Ortungs- und Navigationsverfahren für Landfahrzeuge
DE112017003648T5 (de) Mobiler roboter und steuerungsverfahren
Roth et al. Navigation and docking manoeuvres of mobile robots in industrial environments
Behringer et al. Rascal-an autonomous ground vehicle for desert driving in the darpa grand challenge 2005
DE3930109C1 (de)
WO1995029380A1 (en) Navigation system for fast automated vehicles and mobile robots
Takeda et al. Automated vehicle guidance using spotmark
DE4133533A1 (de) Verfahren zur ist-lage-erfassung von landgebundenen fahrzeugen, insbesondere von mobilen autonomen robotern, von gabelstaplern und dergleichen, und lageerfassungssystem zur durchfuehrung eines solchen verfahrens
EP3358372A2 (de) Verfahren zur navigation eines fahrzeugs

Legal Events

Date Code Title Description
8101 Request for examination as to novelty
8110 Request for examination paragraph 44
8105 Search report available
8131 Rejection