DE102004047214B4 - Verfahren zur Navigation für Transportfahrzeuge - Google Patents

Verfahren zur Navigation für Transportfahrzeuge Download PDF

Info

Publication number
DE102004047214B4
DE102004047214B4 DE102004047214.9A DE102004047214A DE102004047214B4 DE 102004047214 B4 DE102004047214 B4 DE 102004047214B4 DE 102004047214 A DE102004047214 A DE 102004047214A DE 102004047214 B4 DE102004047214 B4 DE 102004047214B4
Authority
DE
Germany
Prior art keywords
target object
transport vehicle
autonomous
objects
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102004047214.9A
Other languages
English (en)
Other versions
DE102004047214A1 (de
Inventor
Ralf Brösel
Sven Horstmann
Lars Küttner
Dr. Stopp Andreas
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
STILL GmbH
Original Assignee
STILL GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by STILL GmbH filed Critical STILL GmbH
Priority to DE102004047214.9A priority Critical patent/DE102004047214B4/de
Publication of DE102004047214A1 publication Critical patent/DE102004047214A1/de
Application granted granted Critical
Publication of DE102004047214B4 publication Critical patent/DE102004047214B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Abstract

Verfahren zur Navigation für Transportfahrzeuge, das folgende Schritte umfasst: das Bestimmen der Position des Transportfahrzeugs; die Analyse einer Szene anhand von komplexen 3D-Entfernungsdaten; die Erkennung von mindestens einem Zielobjekt und von Freiräumen in der Szene; die Berechnung eines zugehörigen Vektors von der bestimmten Position des Transportfahrzeugs zum Zielobjekt durch einen Freiraum; die Planung eines Wegs zum Zielobjekt durch den Freiraum; und die Erfassung von einfachen 2D oder 3D-Merkmalen des zuvor erkannten Zielobjekts, um daraus während der Fahrt zyklisch neue Positionsinformation des Transportfahrzeugs zu errechnen und um den zuvor erstellten Plan zum Erreichen des Zielobjekts auszuführen, wobei das Transportfahrzeug einen 3-D Sensor für die komplexe 3-D-Szenenanalyse und einen weiteren Sensor zum Tracken für die schnelle 2D/3D echtzeitfähige zyklische Erkennung und Verfolgung bereitstellt.

Description

  • Die vorliegende Erfindung betrifft allgemein ein Verfahren zur Navigation für Transportfahrzeuge, und insbesondere ein Verfahren zur bildgestützten Navigation für autonome und halbautonome Transportfahrzeuge.
  • Stand der Technik
  • Aus dem Stand der Technik sind zahlreiche Systeme bekannt, die sich zum Ziel gesetzt haben, eine autonome Navigation für Transportfahrzeuge zu ermöglichen.
  • So z. B. beschreiben T. Lietmann, B. Lohmann in ”Image-Based Visual Servoing zur autonomen Navigation einer mobile Plattform” – at – Automatisierungstechnik 51 (2003), Seite 86 bis 95, ein Fahrzeug, insbesondere einen Rollstuhl, der ausgebildet ist, autonom zu navigieren. Die autonome Navigation basiert auf Image-Based Visual Servoing (IBVS), wobei der Rollstuhl aufgrund von visuellen Informationen bewegt werden soll, wobei die Stellgröße für die Navigation des Rollstuhls allein und direkt aus der Bildinformation der Kamera (d. h. ohne Berechnung der absoluten Lage im Weltkoordinatensystem) berechnet wird. Diese bekannte autonome Navigation gemäß T. Lietmann, B. Lohmann unterscheidet sich von einem System, das Visual Servoing (VS) dahingehend verwendet, dass in dem VS-System Bilder in einem geschlossenen Regelkreis fortlaufend aufgezeichnet werden und dass das Fahrzeug aufgrund der gewonnenen Bildinformation bewegt wird, bis die gestellte Aufgabe erfüllt wird. Somit erfolgt gemäß dem bekannten VS-System eine Berechnung der absoluten Lage des Fahrzeugs im Weltkoordinatensystem.
  • Gemäß T. Lietmann, B. Lohmann soll der Rollstuhl mittels IBVS in eine relative Lage bezüglich einer Landmarke navigieren, was allein durch Auswertung von Abweichungen im Kamerabild und ohne Bestimmung der Landmarkenposition im Weltkoordinatensystem geschieht. Dies wird mit Hilfe des von T. Lietmann, B. Lohmann vorgestellten 3D-VS erreicht, das eine Erweiterung des herkömmlichen 2D-VS darstellt, indem die Entfernung zwischen Kamera und Landmarke mit in die bildbasierte Regelung einbezogen wird. Der visuelle Regler wird dabei durch eine unterlagerte Trajektorienfolgeregelung unterstützt, welche die Fahrt des Rollstuhls überwacht. Zusätzlich wird die Kamera drehbar auf einem Schwenk-Neige-Kopf gelagert, sodass die Landmarke während der Fahrt im Kamerabild gehalten werden kann.
  • Der Ansatz von T. Lietmann, B. Lohmann sieht eine Planung der Trajektorien des Fahrzeugs bzw. des Rollstuhls zu einem Zielobjekt vor, wobei die Planung jedoch keine Hindernisse berücksichtigt. Dabei werden aus einem Bild einer Kamera mittels 3D-VS Parameter eines bekannten, jedoch künstlichen Musters ermittelt. Anschließend wird in einer Art Erkennung eine Ziel-Lage für die Kamera (und damit das Fahrzeug bzw. den Rollstuhl) berechnet. Diese Ziel-Lage wird, wie im Abschnitt 4 (Docking-Manöver mittels Visual Servoing) ff. der Publikation von T. Lietmann, B. Lohmann erläutert, mit jedem neuen Bild neu ausgerechnet und damit wird die Planung in jedem Schritt ebenfalls geändert, was den Rechenaufwand dieses Ansatzes aus dem Stand der Technik erheblich kompliziert.
  • Darüber hinaus sind NDC-Sensoren der Firma Netzler & Dahlgren Co AB Schweden für die autonome Navigation bekannt, die mit rotierenden Laser-Scannern arbeiten und die Messungen in einem Raum anhand von im Raum verteilten Reflektormarken durchführen. Ein mit einem NDC-Sensor verbundener Steuerungsrechner wird mit einem festen Plan bereitgestellt, um eine bestimmte Position zu erreichen. Dieser Plan wird von einem Regler abgefahren. Der Plan bleibt konstant, nur die Ist-Position des mit dem NDC-Sensor ausgestatteten Fahrzeugs wird ständig korrigiert. Letztere Lösung bietet keine ausreichende Flexibilität und geht mit einem erheblichen technischen Aufwand einher.
  • Aus der EP 0 800 129 A1 ist ein Gegengewichts-Gabelstapler, der wahlweise manuell oder automatisch betreibbar ist und mit einen Fahrantrieb, mit einer Lenkung, mit einer Bremsanlage und mit einer Gabel zur Handhabung von Paletten und darauf befindlichen Lasten versehen ist, wobei für den manuellen Betrieb der Fahrantrieb durch ein manuell erzeugtes Geschwindigkeitssignal steuerbar, die Lenkung manuell betätigbar und die Gabel manuell bedienbar ist, wobei der Gabelstapler für den automatischen Betrieb mit einem in Wirkverbindung mit dem Fahrantrieb, der Lenkung, der Bremsanlage und der Bewegungssteuerung der Gabel bringbaren Steuersystem ausgestattet ist, das Mittel zum Eingeben und Speichern von möglichen Fahrtrouten und einer Transportaufgabe, Mittel zum autonomen Bestimmen der Fahrzeugposition im Raum, Mittel zur Steuerung der Bewegung des Fahrzeugs in Abhängigkeit von dessen Position im Raum und von der vorgegebenen Transportaufgabe, Mittel zum Erkennen des Vorhandenseins, der Position und der Ausrichtung einer Palette, Mittel zur Steuerung der Bewegung der Gabel oder des Fahrzeugs in Abhängigkeit von der Position, der Ausrichtung der Palette und der Transportaufgabe und Mittel zum Abbremsen des Fahrzeugs beim Vorhandensein von Hindernissen aufweist. Die Mittel zum autonomen Bestimmen der Fahrzeugposition im Raum enthalten eine Odometrieanlage und eine Bildverarbeitungsanlage mit einer Navigationskamera. Die Lösung der EP 0 800 129 ist auch relativ aufwendig und gestattet zudem keine ausreichende Genauigkeit.
  • Aus der EP 0 766 846 B1 ist ein Verfahren zur Orientierung, Fahrwegplanung und Steuerung einer autonomen mobilen Einheit bekannt, wobei eine Fahrwegplanung anhand von Landmarken erfolgt, die nacheinander entlang des Fahrwegs angefahren werden.
  • Daher ist es eine Aufgabe der vorliegenden Erfindung ein Verfahren zur Navigation für Transportfahrzeuge, und insbesondere ein Verfahren zur bildgestützten Navigation für autonome und halbautonome Transportfahrzeuge zu schaffen, das die Nachteile aus dem Stand der Technik beseitigt und eine zuverlässiges, einfach implementierbares Verfahren zur Verfügung stellt.
  • Eine zusätzliche Aufgabe der vorliegenden Erfindung besteht in der Bereitstellung eines Verfahrens zur Navigation für Transportfahrzeuge, und insbesondere eines Verfahrens zur bildgestützten Navigation für autonome und halbautonome Transportfahrzeuge, das bei guter Genauigkeit an neue, unterschiedliche Umgebungen ohne weiteres anpassungsfähig ist.
  • Zusammenfassung der Erfindung
  • Diese und weitere der nachstehenden Beschreibung zu entnehmenden Aufgaben werden von einem Verfahren zur Navigation für Transportfahrzeuge gemäß Anspruch 1 gelöst. Weitere vorteilhafte Ausgestaltungen der vorliegenden Erfindung werden in den Unteransprüchen angeführt.
  • Weitere Merkmale und Vorteile der vorliegenden Erfindung sowie die Wirkungsweise verschiedener Ausführungsformen der vorliegenden Erfindung werden unten mit Bezug auf die nachstehende Beschreibung verständlich. Dabei dient die Beschreibung dazu, die Grundsätze der Erfindung zu erklären und einem Fachmann auf dem betreffenden Gebiet zu ermöglichen, die Erfindung zu verwenden und keineswegs dazu, ihren Schutzumfang zu beschränken.
  • Beschreibung der bevorzugten Ausführungsformen
  • In ihrer allgemeinsten Ausgestaltung betrifft das nachfolgend beschriebene Verfahren ein Verfahren zum Navigieren eines Transportfahrzeugs, beispielsweise eines Gabelstaplers oder Lastkraftwagens (LKWs), und zum Arbeiten in Nischen, Gassen, Containern, Waggons, LKWs, Trailer, wobei das Verfahren an einer bekannten Position des Transportfahrzeugs eine Analyse einer Szene durchführt, die Objekte und Freiräume in der Szene erkennt, eine Objektauswahl in Übereinstimmung mit einem Auftrag trifft, einen zugehörigen Dockingvektor berechnet, einen Weg zum Objekt durch den Freiraum plant, wobei das Transportfahrzeug die 2D-spezifischen Objektmerkmale im Wesentlichen kontinuierlich erfasst und den dazu relativen Ort geplant ansteuert. Dabei wird das ausgewählte Objekt als Landmarke benutzt. Der Auftrag betrifft insbesondere eine Lade-/Entladetätigkeit.
  • Es ist auch möglich, dass mehrere Objekte in der Szene ausgewählt werden, wobei nur eines das Zielobjekt des Dockingvektors ist, so dass die übrigen Objekte als Landmarken auf dem Weg zum Zielobjekt verwendet werden. Dieser Ansatz bietet Vorteile für den Fall, dass das Zielobjekt während der Fahrt des Transportfahrzeugs entlang des durch den Dockingvektor bestimmten Wegs schlecht ”einsehbar” ist.
  • Darüber hinaus ist es möglich, im Raum verteilte Reflektormarken, wie von den NDC-Sensoren der Firma Netzler & Dahlgren Co AB Schweden bekannt, als Landmarken auf dem Weg zum Zielobjekt zu verwenden oder solche Reflektormarken in Kombination mit Landmarken zu verwenden, die auf die übrigen erfassten Objekte der Szene basieren.
  • Nach dem Abstellen/Aufnehmen des transportierten Gegenstands fährt das Transportfahrzeug in gleicher Weise zu der absolut bekannten, ursprünglichen Position oder zu einer weiteren angegebenen Position zurück.
  • Das beschriebene Verfahren bietet besondere Vorteile, wenn es zusätzlich zu den vorstehenden Schritten sicherstellt, dass das Transportfahrzeug sich an seitlichen Begrenzungen oder Objekten sensorisch orientiert und ausgeregelt wird und dass die Orientierung beidseitig, links, rechts gewählt werden, so dass das Fahrzeug dadurch in langen Gassen über den sensorischen Sichtbereich hinaus fahren kann und auf die gleiche Weise zurückkehrt. Auf diese Weise ermöglicht das erfindungsgemäße Verfahren weiter entfernte und nicht unmittelbar sichtbare Lasten oder Abstellorte anzufahren und dort Lasten aufzunehmen oder abzustellen, ohne dabei die Abmessungen der Ladefläche zu kennen.
  • Ausführlicher erläutert wird erfindungsgemäß ein Verfahren zur Navigation für Transportfahrzeuge, und insbesondere ein Verfahren zur bildgestützten Navigation für autonome und halbautonome Transportfahrzeuge bereitgestellt, zum Navigieren und Arbeiten in Nischen, Gassen, Containern, Waggons, LKWs, Trailer, wobei das Transportfahrzeug an einer ihm bekannten Position eine Szenenanalyse anhand von komplexen, umfangreichen 3D-Entfernungsdaten durchführt. Dabei werden das Objekt bzw. die Objekte und Freiräume erkannt, die dem Auftrag gemäße Objektauswahl eines Zielobjekts getroffen, der zugehörigen Dockingvektor berechnet und ein Weg zu einem Zielobjekt durch den Freiraum geplant.
  • Wie vorstehend erläutert, können mehrere Objekte in der Szene ausgewählt werden, wobei nur eines das Zielobjekt des Dockingvektors ist, so dass die übrigen Objekte als Landmarken auf den Weg zum Zielobjekt verwendet werden. Darüber hinaus ist es möglich, im Raum verteilte Reflektormarken als Landmarken auf dem Weg zum Zielobjekt (Viapunkte) zu verwenden oder solche Reflektormarken in Kombination mit Landmarken zu verwenden, die auf die erfassten Objekte der Szene basieren.
  • Nach einer initialen komplexen Erkennung des Zielobjektes wird der Weg des Transportfahrzeugs, der in die gewünschte Dockingposition führt, unter der Annahme geplant, dass die Relativposition des Transportfahrzeugs zum Zielobjekt ausreichend genau gemessen worden ist. Abweichungen oder Veränderungen gegenüber der Initialen Erkennung können während der Anfahrt zum Zielobjekt ausgeregelt werden.
  • Danach werden mittels einfacherer Sensorik und Verarbeitung ausreichend einfache 2D oder 3D-Merkmale der zuvor erkannten Objekte erfasst, daraus während der Weiterfahrt zyklisch neue Positionsinformation des Transportfahrzeugs errechnet und diese benutzt, um den zuvor erstellten Plan zum Erreichen des Zielobjekts auszuführen, ohne auf eine weitere Positionierungseinrichtung angewiesen zu sein. Im Verlauf der Annäherung an das Zielobjekt können sich dabei die ”im Auge behaltenen” Merkmale ändern oder neue Merkmale sichtbar werden bzw. wegfallen. Diese Merkmalsänderungen werden bei der Optimierung der Regelung mit berücksichtigt. Nach Abstellen/Aufnehmen einer Last fährt das Fahrzeug in gleicher Weise zu einer absolut bekannten Position zurück.
  • Der geplante Weg wird von einem Regler abgefahren, wobei ständig die neuen vereinfachten Erkennungen erfolgen, mit deren Hilfe eine Ist-Position des Fahrzeuges durch den Regler korrigiert wird. Dadurch kommt das Transportfahrzeug am Ende des geplanten Pfades in der gewünschten Position relativ zum Objekt an.
  • Anschließend, nach Durchführung der Lade-/Entladetätigkeit, fährt das Transportfahrzeug entlang des geplanten Wegs in gleicher Weise in seine Ursprungsposition oder in eine andere vorgegebene Position zurück.
  • Grundsätzlich beruht die vorliegende Erfindung auf der Erkennung von in den Sensordaten enthaltenen Objekten oder Merkmalen, aus denen dann direkt durch Koordinatentransformationen eine relative Positionsinformation für den Sensor (und damit für das Transportfahrzeug) berechnet werden kann.
  • Das Verfahren gemäß der vorliegenden Erfindung umfasst eine 2-stufige modellbasierte Erkennung von mindestens einer natürlichen Landmarke, wobei zusätzlich weitere natürliche und/oder nicht natürliche Landmarken (z. B. Reflektormarken) eingesetzt werden können. Anders ausgedrückt, umfasst das erfindungsgemäße Verfahren eine komplexe 3D-Szenenanalyse und eine schnelle 2D/3D echtzeitfähige zyklische Erkennung und Verfolgung von ausgewählten Objekten oder Merkmalen zum Steuern/Regeln eines autonomen oder halbautonomen Transportfahrzeugs. Die schnelle 2D/3D echtzeitfähige zyklische Erkennung und Verfolgung findet dabei während der Bewegung des Transportfahrzeugs, insbesondere mit der jeweiligen Sollgeschwindigkeit, statt.
  • Erfindungsgemäß kann ein 3D-Sensor für die komplexe 3D-Szenenanalyse und ein weiterer Sensor zum Tracken für die schnelle 2D/3D echtzeitfähige zyklische Erkennung und Verfolgung bereitgestellt werden.
  • Aus den erkannten Objekten bzw. ihrer 3D-Modelle sind die gewünschten Merkmale für das schnelle Tracken abrufbar und nutzbar.
  • In einer nicht zur Erfindung gehörenden Ausführungsform kommt nur ein 3D-Sensor im Verfahren zum Einsatz. Dieser kann zur 3D-Messung scannend betrieben werden und anschließend mit einstellbarer oder nachführender Winkeleinstellung zum Tracken eingesetzt werden.
  • Eine weitere, nicht zur Erfindung gehörende, Lösung besteht in der Bereitstellung des einzigen 3D-Sensors als ausschwenkbaren Sensor (falls es sich bei dem Transportfahrzeug um einen LKW handelt, z. B. am LKW hinten) und zwar schwenkend für die 3D-Messung und dann mit einer nachführbaren Winkeistellung, bzw. mit kleinem Winkel schwingend zum Tracken. Es ist auch denkbar, den Sensor erst als 3D-Sensor und dann als verfahrbaren Sensor mit einem beweglichen Lastmittel und relativ dazu oder beide wahlweise zu betreiben.
  • Wenn das Verfahren sicherstellen soll, dass das Transportfahrzeug sich an seitlichen Begrenzungen oder Objekten sensorisch orientiert und ausgeregelt wird und dass die Orientierung beidseitig, links, rechts gewählt werden, um z. B. LKW Ladeflächen zu befahren, können weitere seitlich am Transportfahrzeug angeordnete Sensoren, wie beispielsweise in der EP 0 800 129 A1 gezeigt, bereitgestellt werden.
  • Die Verarbeitung der Signale des Sensors bzw. der Sensoren erfolgt auf eine für den Fachmann bekannten Weise und wird hier nicht weiter erläutert.
  • Nach einem vorteilhaften Aspekt der vorliegenden Erfindung können die zu trackenden Merkmale (oder Landmarken) objektbezogen aus der Szenenanalyse bestimmt, in Abhängigkeit der Objektposition (oder Landmarkenposition) nach Regeln automatisch gewählt werden. Die zu trackenden Merkmale (Landmarken) können im Laufe der Annäherung objektbezogen aus der Szenenanalyse, der daraus ermittelten Objektposition und der erreichten Transportfahrzeug-Position umgeschaltet werden, um beispielsweise die beste ”Sicht” auf eine Landmarke zu erlangen. Somit kann die Umschaltung in Abhängigkeit von sich ändernden Transportfahrzeug/Sensor-Positionen erfolgen. Der Sensor kann nachgeführt werden.
  • Das erfindungsgemäße Verfahren hat vielerlei Anwendungen und kann beispielsweise für autonome Transportfahrzeuge in engen Gassen, Blocklagern, LKWs usw. eingesetzt werden. In autonomen Anwendungen fährt das Transportfahrzeug fahrerlos, so dass das Verfahren gemäß der Erfindung die komplette Steuerung übernimmt, wohingegen in halbautonomen Anwendungen das Verfahren als Assistenzfunktion für Fahrer in den engen Bereichen wirkt. Halbautonome Assistenzfunktionen unterstützen den Fahrer beispielsweise beim Aufnehmen oder Ablegen von Lasten, beim Einfahren oder Ausfahren aus engen Gassen oder beim Unterfahren oder Andocken an Zielobjekte, wie z. B. LKW Auflieger/Anhänger oder Laderampen.
  • Im Zusammenhang mit dem erfindungsgemäßen Verfahren können auch weitere Objekte erkannt werden, welche nicht das Zielobjekt sind. Hierbei kann es sich beispielsweise um weitere Objekte handeln, welche als natürliche Landmarken genutzt werden. Falls das Zielobjekt nicht sichtbar ist, können weitere Objekte in besonders vorteilhafter Weise als Zwischenziel genutzt werden. Hierbei orientiert sich das Transportfahrzeug relativ zu den Objekten/Landmarken, welche ein Zwischenziel beschreiben. Dabei ist es weiterhin vorteilhaft, wenn die Schritte des Navigationsverfahrens zumindest teilweise mehrfach durchgeführt werden. Falls das Zielobjekt nicht sichtbar ist, kann wenigsten ein Zwischenziel definiert sein. Es können aber auch mehrere Zwischenziele berücksichtigt werden, wobei sodann für jedes Zwischenziel das zweistufige Verfahren erneut durchgeführt wird. Jede Zielposition eines Zwischenziels ist Ausgangspunkt für das darauf folgende Zwischenziel, das Verfahren wird solange fortgesetzt, bis das Zielobjekt erreicht ist. Es ist hierbei ein fließender Übergang von einer Zielposition relativ zu einem Zielobjekt zu einer weiteren Zielposition relativ zum gleichen oder zu einem weiteren Zielobjekt möglich. Das Verfahren kann hierbei sowohl autonom als auch halbautonom ablaufen.

Claims (9)

  1. Verfahren zur Navigation für Transportfahrzeuge, das folgende Schritte umfasst: das Bestimmen der Position des Transportfahrzeugs; die Analyse einer Szene anhand von komplexen 3D-Entfernungsdaten; die Erkennung von mindestens einem Zielobjekt und von Freiräumen in der Szene; die Berechnung eines zugehörigen Vektors von der bestimmten Position des Transportfahrzeugs zum Zielobjekt durch einen Freiraum; die Planung eines Wegs zum Zielobjekt durch den Freiraum; und die Erfassung von einfachen 2D oder 3D-Merkmalen des zuvor erkannten Zielobjekts, um daraus während der Fahrt zyklisch neue Positionsinformation des Transportfahrzeugs zu errechnen und um den zuvor erstellten Plan zum Erreichen des Zielobjekts auszuführen, wobei das Transportfahrzeug einen 3-D Sensor für die komplexe 3-D-Szenenanalyse und einen weiteren Sensor zum Tracken für die schnelle 2D/3D echtzeitfähige zyklische Erkennung und Verfolgung bereitstellt.
  2. Verfahren nach Anspruch 1, wobei das Zielobjekt als Landmarke im Erfassungsschritt benutzt wird.
  3. Verfahren nach Anspruch 1 oder 2, wobei der Schritt der Erkennung weitere Objekte erkennt, die nicht das Zielobjekt sind und wobei die weiteren Objekte als natürliche Landmarken im Erfassungsschritt benutzt werden.
  4. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, dass weiterhin die Bereitstellung von künstlichen Landmarken, insbesondere Reflektormarken umfasst, die im Erfassungsschritt benutzt werden.
  5. Verfahren nach Anspruch 3 oder 4, das weiterhin den Schritt der Umschaltung zwischen den Landmarken in Abhängigkeit von sich ändernden Transportfahrzeug/Sensor-Positionen umfasst.
  6. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, das weiterhin einen Schritt umfasst, bevor das Zielobjekt in den Sichtbereich des Transportfahrzeugs kommt, der sensorischen Orientierung und/oder Ausregelung an seitlichen Begrenzungen oder an den weiteren Objekten, so dass die Orientierung beidseitig, links, rechts, gewählt werden kann.
  7. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche wobei das Transportfahrzeug autonom oder halbautonom ist und/oder wobei das Transportfahrzeug als Gabelstapler oder Lastkraftwagen (LKW) ausgebildet ist.
  8. Verfahren nach Anspruch 7, wobei das Transportfahrzeug halbautonom ist und das weiterhin eine Assistenzfunktion zur Unterstützung eines menschlichen Fahrers für das Aufnehmen oder Ablegen einer Last oder das Einfahren oder Ausfahren aus einer engen Gasse oder das Andocken oder Unterfahren von Zielobjekten einschließt.
  9. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, wobei wenigstens ein Zwischenziel vorhanden ist und Schritte des Verfahrens zumindest teilweise mehrfach durchgeführt werden.
DE102004047214.9A 2004-09-27 2004-09-27 Verfahren zur Navigation für Transportfahrzeuge Active DE102004047214B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102004047214.9A DE102004047214B4 (de) 2004-09-27 2004-09-27 Verfahren zur Navigation für Transportfahrzeuge

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102004047214.9A DE102004047214B4 (de) 2004-09-27 2004-09-27 Verfahren zur Navigation für Transportfahrzeuge

Publications (2)

Publication Number Publication Date
DE102004047214A1 DE102004047214A1 (de) 2006-03-16
DE102004047214B4 true DE102004047214B4 (de) 2016-02-25

Family

ID=35853643

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004047214.9A Active DE102004047214B4 (de) 2004-09-27 2004-09-27 Verfahren zur Navigation für Transportfahrzeuge

Country Status (1)

Country Link
DE (1) DE102004047214B4 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006035929B4 (de) * 2006-07-31 2013-12-19 Götting KG Verfahren zum sensorgestützten Unterfahren eines Objekts oder zum Einfahren in ein Objekt mit einem Nutzfahrzeug
DE202013011144U1 (de) 2013-12-12 2014-02-28 Grenzebach Maschinenbau Gmbh Fahrerloses Transportfahrzeug für den Transport schwerer Lasten auf Lafetten
DE102013020851A1 (de) 2013-12-12 2015-06-18 Grenzebach Maschinenbau Gmbh Fahrerloses Transportfahrzeug für den Transport schwerer Lasten auf Lafetten und Verfahren zum Betrieb des Transportfahrzeugs
US9989967B2 (en) 2014-03-04 2018-06-05 Cybernet Systems Corporation All weather autonomously driven vehicles
NL2015843B1 (en) 2015-11-23 2017-06-07 Daf Trucks Nv Auto docking method for application in heavy trucks.
DE102016116855A1 (de) * 2016-09-08 2018-03-08 Knorr-Bremse Systeme für Nutzfahrzeuge GmbH System und Verfahren zum Steuern von Nutzfahrzeugen
DE102020214579A1 (de) 2020-11-19 2022-05-19 Robert Bosch Gesellschaft mit beschränkter Haftung Computer-implementiertes Verfahren und Steuergerät zum sensorgestützten Unterfahren eines Objektes mit einem Nutzfahrzeug mithilfe Methoden künstlicher Intelligenz

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0800129A1 (de) * 1996-04-03 1997-10-08 FIAT OM CARRELLI ELEVATORI S.p.A. Flurförderzeug, das wahlweise manuell oder automatisch betreibbar ausgebildet ist
EP0766846B1 (de) * 1994-06-22 1998-03-04 Siemens Aktiengesellschaft Verfahren zur orientierung, fahrwegplanung und steuerung einer autonomen mobilen einheit
DE19526702C2 (de) * 1995-07-24 2001-08-02 Horst J Roos Verfahren zum Rückwärtsrangieren eines lenkbaren Straßenfahrzeugs und Vorrichtung zur Durchführung des Verfahrens
DE10302545A1 (de) * 2003-01-23 2004-07-29 Conti Temic Microelectronic Gmbh Automatisches Ankuppel bzw. Andocken mittels 2D- und 3D-Bildsensorik
DE102004028763A1 (de) * 2004-06-16 2006-01-19 Daimlerchrysler Ag Andockassistent

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0766846B1 (de) * 1994-06-22 1998-03-04 Siemens Aktiengesellschaft Verfahren zur orientierung, fahrwegplanung und steuerung einer autonomen mobilen einheit
DE19526702C2 (de) * 1995-07-24 2001-08-02 Horst J Roos Verfahren zum Rückwärtsrangieren eines lenkbaren Straßenfahrzeugs und Vorrichtung zur Durchführung des Verfahrens
EP0800129A1 (de) * 1996-04-03 1997-10-08 FIAT OM CARRELLI ELEVATORI S.p.A. Flurförderzeug, das wahlweise manuell oder automatisch betreibbar ausgebildet ist
DE10302545A1 (de) * 2003-01-23 2004-07-29 Conti Temic Microelectronic Gmbh Automatisches Ankuppel bzw. Andocken mittels 2D- und 3D-Bildsensorik
DE102004028763A1 (de) * 2004-06-16 2006-01-19 Daimlerchrysler Ag Andockassistent

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Thorsten Lietmann, Boris Lohmann: Image-Based Visual Servoing zur autonomen Navigation einer mobilen Plattform. In: at, 02/2003, 86-95. *

Also Published As

Publication number Publication date
DE102004047214A1 (de) 2006-03-16

Similar Documents

Publication Publication Date Title
EP3401190B1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines kraftfahrzeugs zum manövrieren des kraftfahrzeugs in einem fahrbaren bereich, fahrerassistenzsystem sowie kraftfahrzeug
DE102008027692B4 (de) Verfahren zur Unterstützung eines Fahrers eines Fahrzeugs bei einem Parkvorgang
DE102006035929B4 (de) Verfahren zum sensorgestützten Unterfahren eines Objekts oder zum Einfahren in ein Objekt mit einem Nutzfahrzeug
DE19526702C2 (de) Verfahren zum Rückwärtsrangieren eines lenkbaren Straßenfahrzeugs und Vorrichtung zur Durchführung des Verfahrens
EP3388311B1 (de) Verfahren zum ferngesteuerten manövrieren eines kraftfahrzeugs auf einer parkfläche, infrastrukturvorrichtung für eine parkfläche sowie parkflächenkommunikationssystem
DE102016220945A1 (de) Verfahren und Vorrichtung zum Unterstützen eines Manövriervorganges eines Kraftfahrzeuges
WO2016142099A1 (de) Führen eines kraftfahrzeugs auf einem parkplatz
EP3333049A1 (de) Verfahren zum autonomen manövrieren eines kraftfahrzeugs auf einer parkfläche mit bestimmung eines fahrschlauchs anhand einer digitalen karte, infrastukturvorrichtung, fahrerassistenzsystemen, kraftfahrzeugs sowie kommunikationssystemen
DE102018205964A1 (de) Verfahren und Steuergerät zum Navigieren eines autonomen Flurförderfahrzeugs
DE102017115988A1 (de) Modifizieren einer Trajektorie abhängig von einer Objektklassifizierung
DE102016102065A1 (de) Verfahren zum Unterstützen einer autonomen Fahrt eines Kraftfahrzeugs, Steuereinrichtung sowie Parkassistenzsystem
EP4102330B1 (de) Verfahren zum bewegen eines fahrzeugs an eine komponente eines hierzu beabstandeten objekts (koordinatentransformation)
DE102017120726A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems für ein Fahrzeug mit Berücksichtigung eines Zwischenstopps an einer Stoppposition, Fahrerassistenzsystem sowie Kraftfahrzeug
EP3333116A1 (de) Verfahren zur automatischen ausrichtung eines flurförderzeugs in einem warenlager sowie system aus einem flurförderzeug und einem warenlager
DE102017108659A1 (de) Automatisches und kollaboratives Versorgungssystem
DE102004047214B4 (de) Verfahren zur Navigation für Transportfahrzeuge
DE102017200218A1 (de) Steuereinheit und Verfahren zur Berücksichtigung von Hindernissen bei einem Rückfahrassistenzsystem
EP3599115B1 (de) Verfahren und system zum automatischen erkennen eines ankuppelmanövers eines kraftfahrzeugs an einen anhänger
EP4118564A1 (de) Verfahren zum steuern eines fahrzeuges auf einem betriebshof, fahrtsteuereinheit und fahrzeug
DE10350923A1 (de) Verfahren zum Positionieren eines Fahrzeugteils unter einem Zielobjekt
DE102016122215A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs mit erweitertem Lernmodus, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102020205550A1 (de) Transportmittel-Assistenz- oder Steuerungssystem sowie dessen Verwendung als Lotsen
EP4102329B1 (de) Verfahren zum bewegen eines fahrzeugs an eine komponente eines hierzu beabstandeten objekts (vorpositionierungspunkt)
EP3584142A1 (de) Verfahren zum ermitteln einer soll-trajektorie für die durchführung eines rangiervorganges mit einem fahrzeuggespann
DE19902512A1 (de) Verfahren zur Beeinflussung eines Fahrzeugs durch einen Bediener

Legal Events

Date Code Title Description
OAV Publication of unexamined application with consent of applicant
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: DAIMLERCHRYSLER AG, 70327 STUTTGART, DE

8127 New person/name/address of the applicant

Owner name: DAIMLER AG, 70327 STUTTGART, DE

8127 New person/name/address of the applicant

Owner name: STOPP, ANDREAS, DR., 15366 NEUENHAGEN, DE

8127 New person/name/address of the applicant

Owner name: STILL GMBH, 22113 HAMBURG, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R082 Change of representative

Representative=s name: PATENTSHIP PATENTANWALTSGESELLSCHAFT MBH, DE

R082 Change of representative

Representative=s name: PATENTSHIP PATENTANWALTSGESELLSCHAFT MBH, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: G05D0001430000