DE102018205964A1 - Verfahren und Steuergerät zum Navigieren eines autonomen Flurförderfahrzeugs - Google Patents

Verfahren und Steuergerät zum Navigieren eines autonomen Flurförderfahrzeugs Download PDF

Info

Publication number
DE102018205964A1
DE102018205964A1 DE102018205964.0A DE102018205964A DE102018205964A1 DE 102018205964 A1 DE102018205964 A1 DE 102018205964A1 DE 102018205964 A DE102018205964 A DE 102018205964A DE 102018205964 A1 DE102018205964 A1 DE 102018205964A1
Authority
DE
Germany
Prior art keywords
environment
industrial truck
state
objects
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102018205964.0A
Other languages
English (en)
Inventor
Bastian Volpert
Markus Birk
Daniel Wolf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102018205964.0A priority Critical patent/DE102018205964A1/de
Publication of DE102018205964A1 publication Critical patent/DE102018205964A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • G01S13/426Scanning radar, e.g. 3D radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/881Radar or analogous systems specially adapted for specific applications for robotics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Abstract

Ein Verfahren zum Navigieren eines autonomen Flurförderfahrzeugs mit einem Kartieren (S1) eines ersten Zustands eines Umfelds (2) des Flurförderfahrzeugs mit mindestens einer auf dem Flurförderfahrzeug angeordneten Kamera (22, 24, 26) und mit mindestens einem auf dem Flurförderfahrzeug angeordneten Distanzmesser, einem Erfassen (S2) eines zweiten Zustands des Umfelds (2) des Flurförderfahrzeugs zumindest mit dem mindestens einen Distanzmesser und einem Vergleichen (S4) des kartierten ersten Zustands des Umfelds (2) mit dem erfassten zweiten Zustand des Umfelds (2) zum Steuern des Flurförderfahrzeugs zu einem Fahrziel und ein Steuergerät welches die Verfahrensschritte durchführt.

Description

  • Technisches Gebiet
  • Die Erfindung betrifft ein Verfahren zum Navigieren eines autonomen Fahrzeugs basierend auf einem Erfassen eines Umfelds des Fahrzeugs mit einem Distanzmesser.
  • Stand der Technik
  • Beim Betreiben von autonomen Fahrzeugen im Logistikumfeld und im Industrieumfeld ist es bekannt, einen Laserscanner zum Erfassen von Umfeldsituationen und zum Erkennen von Gefahrensituationen zu verwenden.
  • Aus der DE 10 2007 021 693 A1 ist ein System zur Lagebestimmung eines Fahrzeugs bekannt, bei welchem das Fahrzeug seine Lage anhand von mit einem Laserscanner erfasster stationärer Lagerware und anhand von in einer Karte verzeichneten und belegten Stellplätzen bestimmt.
  • Darstellung der Erfindung
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Navigieren eines autonomen Flurförderfahrzeugs.
  • Das Navigieren kann ein Steuern und/oder Regeln des autonomen Flurförderfahrzeugs oder der Fahrdynamik des Fahrzeugs aufweisen, um das autonome Flurförderfahrzeug zu einem Zielpunkt zu lenken oder zu steuern. Das Lenken oder das Steuern des autonomen Flurförderfahrzeugs kann ein Feststellen einer aktuellen Position als eine Ortsbestimmung, ein Ermitteln einer Route zum Zielpunkt und/oder deren automatisches Befahren durch das autonome Flurförderfahrzeug aufweisen.
  • Das autonome Flurförderfahrzeug, welches auch als autonomes Flurfördergerät bezeichnet werden kann, kann jedes bemannte oder unbemannte autonome Fahrzeug sein, welches zum Transportieren von Gütern und/oder Personen ausgebildet ist und in einem Umfeld der Logistik oder der Industrie einsetzbar ist.
    Ein Verfahrensschritt ist ein Kartieren eines ersten Zustands eines Umfelds des Flurförderfahrzeugs mit mindestens einer auf dem Flurförderfahrzeug angeordneten Kamera und mit mindestens einem auf dem Flurförderfahrzeug angeordneten Distanzmesser.
  • Das Kartieren eines Umfeldzustands kann ein Erfassen des Umfeldzustands aufweisen, wobei das Umfeld in seinem aktuellen Zustand bildbasiert und mittels eines Distanzmessers scannend erfasst werden kann. Durch bildbasiertes Erfassen des Umfeldzustands mittels der Kamera kann ein Bild des Umfelds in seinem aktuellen Zustand erzeugt werden. Durch scannendes Erfassen des Umfelds mittels des Distanzmessers kann eine Punktwolke des Umfelds in seinem aktuellen Zustand erzeugt werden. Das Kartieren des Umfeldzustands kann ferner ein Erzeugen oder Bereitstellen einer Karte des erfassten Umfeldzustands aufweisen.
  • Das Erfassen eines Umfeldzustands mit der Kamera kann ein Aufnehmen oder Erzeugen eines digitalen Bilds eines Bereichs des Fahrzeugumfelds entsprechend einem Blickwinkel der Kamera als deren Erfassungsbereich aufweisen. Der Blickwinkel kann mit einem Weitwinkelobjektiv oder Fisheye-Objektiv einen sphärischen Bereich bis ungefähr 180 Grad umfassen. Bei der Kamera kann es sich grundsätzlich um jeden bildgebenden Kamerasensor handeln, wobei dieser beispielsweise eine RGB-Kamera oder eine Infrarot-Kamera sein kann. Hierbei kann es sich jeweils um eine Panoramakamera oder eine omnidirektionale Kamera handeln. Das mit der Kamera erfasste Bild kann als Bildinformationen Pixel mit entsprechenden RGB-Informationen oder Wärmeinformationen aufweisen. Zum kontinuierlichen Erfassen des Fahrzeugs kann jede der genannten Kameras auch als Videokamera ausgebildet sein. So können Zustandsänderungen im Fahrzeugumfeld kontinuierlich in naher Echtzeit erfasst werden.
  • Das Erfassen eines Umfeldzustands mit dem Distanzmesser kann ein Scannen, ein Abtasten oder ein Messen einer eindimensionalen, zweidimensionalen oder dreidimensionalen Punktwolke des Fahrzeugumfelds aufweisen. Der Distanzmesser kann hierfür ein eindimensionaler, das heißt punktuell oder diskret abtastender messender Distanzmesser, ein zweidimensionaler, das heißt ein fächerartig scannender oder abtastender Distanzmesser, oder ein dreidimensionaler, das heißt ein räumlich scannender oder abtastender Distanzmesser, sein. Einzelne Messpunkte können dabei sukzessive oder synchron gemessen werden. Ein derartiger Distanzmesser kann jeder Sensor sein, welcher dazu ausgebildet ist, eine Distanz zu einem Objekt berührungslos zu messen. Ein derartiger Distanzmesser kann beispielsweise ein laserbasierter Sensor, ein radarbasierter Sensor, ein ultraschallbasierter Sensor oder auch eine 3D-Kamera sein. Das mit der 3D-Kamera erfasste Bild kann als Bildinformationen Pixel mit entsprechenden Tiefeninformationen aufweisen.
  • Ein weiterer Verfahrensschritt ist ein Erfassen eines zweiten Zustands des Umfelds des Flurförderfahrzeugs zumindest mit dem mindestens einen Distanzmesser.
  • Der erste und zweite Zustand des Umfelds können im Wesentlichen gleiche Zustände oder verschiedene Zustände des Umfelds und der sich in ihm befindenden Objekte sein. Unter gleichen Umfeldzuständen können Zustände verstanden werden, in welchen das jeweilige Umfeld bestehend aus den Objekten geometrisch im Wesentlichen unverändert ist. Unter verschiedenen Umfeldzuständen können Zustände verstanden werden, in welchen das jeweilige Umfeld bestehend aus den Objekten geometrisch anders oder verändert ist. Dies kann durch sich bewegende Objekte verursacht werden. Das Fahrzeugumfeld kann auch als Fahrzeugumgebung bezeichnet werden. Der Begriff des Zustands kann so hinsichtlich geometrischer Zustände des Umfelds verstanden werden.
  • Alternativ oder zusätzlich können sich der erste und zweite Zustand des Umfelds auf verschiedene Erfassungszeitpunkte beziehen. Der Begriff des Zustands kann so hinsichtlich temporärer Zustände des Umfelds verstanden werden.
  • Noch ein weiterer Verfahrensschritt ist ein Vergleichen des kartierten ersten Zustands des Umfelds mit dem erfassten zweiten Zustand des Umfelds zum Steuern des Flurförderfahrzeugs zu einem Fahrziel.
  • Das Vergleichen der Umfeldzustände kann ein Transformieren der bezüglich der beiden Zustände erfassten Messdaten mit der Kamera und dem Distanzmesser in ein gemeinsames Koordinatensystem aufweisen. Das Vergleichen der Umfeldzustände kann ferner ein Anpassen, Überlagern, Matchen oder Stichen von Bildern oder Punktwolken aufweisen. Das Vergleichen kann auch einen Soll-Ist-Vergleich aufweisen, wobei der erste Zustand des Umfelds ein Soll-Zustand und der zweite Zustand ein Ist-Zustand sein kann. Somit kann überprüft werden, ob sich der zweite Zustand vom erste unterscheidet und daher beim Navigieren des autonomen Flurförderfahrzeugs von einer vorgegebenen auf dem Soll-Zustand basierenden Route zu einem Fahrziel abgewichen werden kann. Das Fahrziel kann jeder von dem autonomen Flurförderfahrzeug anfahrbare Ort, beispielsweise ein Lagerort in einer Lagerhalle sein.
  • Im Rahmen der Erfindung kann somit mittels fahrzeugeigener Sensorik, welche zumindest eine Kamera und einen Distanzmesser aufweist, das Fahrzeugumfeld in einem Ausgangszustand kartiert und in einem zeitlich darauffolgenden Zustand erneut erfasst werden, um das Fahrzeug in einem sich dynamisch verändernden Umfeld zu navigieren.
  • Der Erfindung liegt die Erkenntnis zugrunde, dass ein Navigieren basierend auf einer externen Karte des Umfelds, welche nicht mittels fahrzeugeigener Sensorik erfasst worden ist, zu einer unsicheren Routenplanung führen kann, da die externe Karte einen Zustand des Umfelds beschreiben kann, welcher für einen Vergleich mit einem aktuellen Umfeldzustand unzureichend sein kann. Ein Grund hierfür kann beispielsweise sein, dass zu wenig Passpunktinformation für eine Transformation oder Positionsbestimmung des Fahrzeugaufenthaltsorts vorhanden sein kann oder dass der zeitliche Abstand zwischen der Kartenerstellung und dem Navigieren zu groß ist.
  • Ein Konzept der Erfindung besteht daher darin, dass ein im Wesentlichen autarkes System zur Umfelderfassung und Navigation für den Betrieb eines autonomen Flurförderfahrzeugs bereitgestellt wird. Eine autarke Umfelderfassung kann durch eine Kombination mehrerer Umfelderfassungssensoren auf dem Fahrzeug realisiert werden, da diese neben Redundanz auch eine Steigerung der Zuverlässigkeit in der Umfelderfassung darstellen können. Unter einer Zuverlässigkeit kann verstanden werden, dass eine Umfelderfassung unabhängig von den Umgebungsbedingungen und Umgebungseinflüssen zumindest mit einem der vorgesehenen Sensoren möglich ist, während ein anderer der vorgesehenen Sensoren das Umfeld nicht erfassen kann.
  • In einer Ausführungsform weist der mindestens eine Distanzmesser mindestens einen Radarsensor auf. Mit dem Radarsensor kann eine Punktwolke erfasst werden, wobei die Punktwolke Punkte bezüglich Objekten im Fahrzeugumfeld aufweist. Der Radarsensor kann ein eindimensional oder punktuell erfassender Radarsensor, ein zweidimensional oder fächerartig erfassender Radarsensor oder ein dreidimensional oder flächenhaft abtastender Radarsensor sein. Die Punktwolke kann eine entsprechend Dimension aufweisen, wobei diese im eindimensionalen Fall bereits aus einem Punkt bestehen kann. Mit dem Radarsensor kann ein Objekt somit diskret mit Einzelpunkten erfasst werden. Das Erfassen von sich bewegenden Objekten mittels eines Radarsensors ist aufgrund dessen räumlich und zeitlich hohen Auflösungen vorteilhaft. Der Radarsensor kann daher auch als bildgebender Radarsensor bezeichnet werden.
  • In einer weiteren Ausführungsform weist der mindestens einen Distanzmesser mindestens einen Ultraschallsensor auf. Der Ultraschallsensor kann alternativ oder zusätzlich zu einem Radarsensor zum Erfassen des Fahrzeugumfelds auf dem Fahrzeug vorgesehen sein. Der Ultraschallsensor kann wie der Radarsensor zum Erfassen von Objekten im Fahrzeugumfeld ausgebildet sein. Der Ultraschallsensor kann zum Erfassen von Objekten in einem Nahbereich, beispielsweise in einem Radius von etwa zehn Meter um das Fahrzeug, ausgebildet sein. Der Radarsensor kann ferner zum Erfassen von Objekten in einem Bereich vorgesehen sein, welcher im Vergleich zum Nahbereich eine größere räumliche Ausdehnung aufweist. Der Vorteil eines Ultraschallsensors kann darin gesehen werden, dass ein Erfassungsbereich um das Fahrzeug zuverlässiger abgedeckt werden kann.
  • Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Kombinieren von zumindest einem mit der mindestens einen Kamera erfassten Bild des Umfelds mit einer mit dem mindestens einen Distanzmesser erfassten Punktwolke des ersten Zustands des Umfelds zum Kartieren des Umfelds auf. Das Kombinieren des Bilds mit der Punktwolke kann ein Fusionieren dieser Messdaten aufweisen. Grundsätzlich können die Kamera und der Distanzmesser, welcher der Radarsensor sein kann, die gleiche Funktionalität bezüglich ihrer Eignung zur Umfelderfassung aufweisen. Sowohl mit der Kamera als auch mit dem Distanzmesser können Objekte im Umfeld erfasst und basierend auf einem erfassten Bild beziehungsweise einer erfassten Punktwolke das Objekt als solches erkannt werden. Die Kamera und der Radarsensor können somit einerseits redundante und andererseits sich ergänzende beziehungsweise sich überlappende Umfeldsituationen erfassen. Eine messtechnische Fusion von mindestens einer Kamera und einem Distanzmesser oder Radarsensor ist somit vorteilhaft, da die Datenerfassung eines Ausgangszustands des Umfelds zuverlässig und nahezu lückenlos erfolgen kann.
  • Eine Kombination mindestens eines Bilds mit mindestens einer Punktwolke des Fahrzeugumfelds kann konkret eine kombinierte Punktwolke und/oder eine mit Bildinformation ergänzte Punktwolke aufweisen. Die kombinierte Punktwolke kann neben der mit dem Distanzmesser erfassten Punktwolke weitere Punkte aufweisen, welche aus dem mindestens einen Bild der mindestens einen Kamera abgeleitet werden können. Die mit Bildinformation ergänzte Punktwolke kann die mit dem Distanzmesser erfasste Punktwolke aufweisen, wobei deren Punkte mit Bildinformation des mindestens einen Bilds der Kamera ergänzt werden kann. Mit anderen Worten kann die Punktwolke des Distanzmessers mit dem Bild der Kamera eingefärbt werden, wobei den Koordinaten eines Punkts ein RGB-Wert zugeordnet werden kann. Sowohl die kombinierte Punktwolke als auch die mit Bildinformation ergänzte Punktwolke kann darauf basieren, dass die lokalen Erfassungskoordinatensysteme der Kamera und des Distanzmessers in ein gemeinsames Koordinatensystem, beispielsweise eines der beiden Erfassungskoordinatensysteme, transformiert werden.
  • Das gemeinsame Verwenden von mindestens zwei verschiedenen Sensortypen zum Navigieren eines autonomen Flurförderfahrzeugs, zumindest einer Kamera und eines Distanzmessers, hat vorteilhafte Effekte. Für das Kartieren oder Erfassen des Umfelds des Flurförderfahrzeugs können beide Sensoren ein zuverlässiges Erfassen von verschiedenen Objekten, welche Personen und andere Objekte aufweisen können, nebeneinander bereitstellen. Ein Vorteil ist daher eine Redundanz in der Objekterfassung, beispielsweise im Erfassen von Personen oder Fußgängern. Dies hat wiederum den Vorteil einer erhöhten Arbeitssicherheit für eine sich im Umfeld des Fahrzeugs aufhaltende Person, da das Fahrzeug erst auf sie reagieren kann, da sie mit dem bereitgestellten Multisensorsystem zuverlässig erfasst worden sind.
  • Das gemeinsame Verwenden von Kamera und Distanzmesser ist ferner vorteilhaft, da einer der Sensoren den anderen ersetzen kann, falls dieser ausfällt oder defekt ist. Ist beispielsweise die Kamera verschmutzt, kann der Distanzmesser weiterhin das Fahrzeugumfeld erfassen oder umgekehrt. Herrschen in einem anderen Beispiel im Fahrzeugumfeld schlechte Lichtverhältnisse wegen Dunkelheit, stark einfallendem Licht oder Witterungseinflüssen kann die Kamera kein Bild des Umfelds erfassen, in welchem Objekte im Umfeld erkennbar sind, während der Distanzmesser trotzdem Objekte im Fahrzeugumfeld erfassen kann, da beispielsweise ein Radarsensor von Lichtverhältnissen unabhängig sein kann. Vor allem bei starkem Gegenlicht, direkt einfallendem Sonnenlicht oder Schneefall kann der Radarsensor eine Punktwolke erfassen während die Kamera kein Bild erfassen kann, welches Objektinformation enthält. Hierfür kann als Radarsensor ein Radarsensor vorgesehen sein, welcher eine polarimetrische Bauart oder polarimetrische Eigenschaften aufweist.
  • Der Verfahrensschritt des Kartierens des ersten Zustands des Fahrzeugumfelds mit der mindestens einen Kamera und mit dem mindestens einen Distanzmesser kann ein Erstellen einer Karte aufweisen. Für eine Kartenerstellung kann das mindestens eine Bild der Kamera oder mehrere Bilder einer oder mehrerer Kamera zu einem einzigen Bild mittels Stitching kombiniert werden. Das kombinierte Bild kann ein Panoramabild, ein Rundumbild oder ein sogenanntes Top-View-Bild sein. Das Top-View-Bild kann ein Bild aus einer Vogelperspektive oder eine Draufsicht sein. Hierzu können hochauflösende Bilder, Bilddaten und/oder Kameradaten verwendet werden. Mehrere Bilder können so zusammen in einem gemeinsamen Koordinatensystem, beispielsweise einem Fahrzeugkoordinatensystem, kombiniert und dargestellt werden. Synchron oder parallel dazu kann die mindestens eine Punktwolke, beispielsweise basierend auf Radardaten erfasst oder aufgezeichnet werden und die erfasste Punktwolke ebenfalls in das gemeinsame Koordinatensystem transformiert werden.
  • Eine Karte kann auch aus einer Kombination von einer Vielzahl von Bildern, welche eine Vielzahl von Top-View-Bildern sein können, und einer Vielzahl von Punktwolken, beispielsweise aus Radardaten, generiert werden. Der Verfahrensschritt des Kartierens kann somit durchgeführt werden während sich das Fahrzeug bewegt, wobei dessen Bewegungsverhalten bei der Kombination der Sensordaten berücksichtigt werden kann.
  • Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Klassifizieren von Objekten im Umfeld des Flurförderfahrzeugs als stationäre Objekte und als dynamische Objekte basierend auf mit dem Distanzmesser kontinuierlich erfassten Punktwolken auf. Die Klassifikation kann eine Objekterkennung stationärer und/oder dynamischer Objekte aufweisen. Ein stationäres Objekt kann ein stillstehendes, sich an einem Standort befindliches oder ein sich örtlich sowie zeitlich nicht veränderndes Objekt sein. Ein dynamisches Objekt kann ein sich bewegendes Objekt sein, welches sich selbst oder sich auf Grund äußerer Einflüsse bewegt. Ein solches Klassifizieren nach einem Bewegungsverhalten des Objekts kann basierend auf zeitlich versetzt erfasster Punktwolken mit dem Distanzmesser erfolgen. Einem Objekt zugeordnete Punkte können unterschiedliche Koordinaten aufweisen, aus welchen ein Bewegungsvektor des Objekts abgeleitet werden kann. Basierend auf der Klassifikation nach dem Bewegungsverhalten von Objekten im Fahrzeugumfeld kann ferner auf stehende oder sich bewegende Hindernisse in Fahrtrichtung oder auf eine abzufahrende Route des autonomen Flurförderfahrzeugs geschlossen werden. Dies kann beim Steuern des Flurförderfahrzeugs zum Fahrziel berücksichtigt werden, wobei von einer vorgegebenen Route durch Umfahren des Hindernisses mit einer neuen Routenwahl abgewichen werden kann. Hierbei kann ein erfasstes Bewegungsverhalten eines Objekts auf den Zeitpunkt des Passierens des Objekts anhand der aktuellen Objektbewegung prognostiziert werden.
  • Die Ausführungsform weist als zusätzlichen Verfahrensschritt ein Berücksichtigen des Klassifizierens von Objekten im Umfeld des Flurförderfahrzeugs als stationäre Objekte und als dynamische Objekte beim Vergleichen des ersten und zweiten Zustands des Umfelds auf. Erfasste und kartierte Objekte im Umfeld des Fahrzeugs können grundsätzlich Passpunktinformation für einen Vergleich zwischen den zwei Zuständen bereitstellen. Als dynamisch klassifizierte Objekte können hierfür nicht berücksichtigt werden, da sie keine örtliche Referenz für eine Transformation der erfassten Messdaten bereitstellen können. Ferner können für das Steuern des Fahrzeugs, welches ein Navigieren oder Festlegen einer Route aufweisen kann, dynamische Objekte und/oder stationäre Objekte als Referenz oder als Hindernis klassifiziert werden wonach sich das Fahrzeug orientieren kann oder worauf das Fahrzeug ausweichen kann. Dies hat den Vorteil, dass das Fahrzeug autark auf ein sich dynamisch veränderndes Umfeld reagieren kann und seinen Fahrbetrieb aufrechterhalten kann. Dies hat wiederum den Vorteil, dass Stillstände des Fahrzeugs minimiert werden können, woraus sich eine Effizienzsteigerung in einem Logistikprozess, in welchen das autonome Flurförderfahrzeug eingebunden sein kann, ergeben kann.
  • Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Klassifizieren von Objekten im Umfeld des Flurförderfahrzeugs als Personen und als andere Objekte basierend auf zumindest einem mit der mindestens einen Kamera erfassten Bild auf. Die Klassifikation kann eine Objekterkennung von lebenden und nicht lebenden Objekte aufweisen. Ein lebendes Objekt kann ein Mensch, ein Roboter oder ein Tier sein. Ein nicht lebendes Objekt kann jedes andere Objekt, beispielsweise eine Palette, ein Korb oder eine Maschine sein. Auch eine Klassifikation nach Fahrzeugen ist anwendbar. Ein solches Klassifizieren nach Bildinformationen kann in einem Bild einer Kamera mit bekannten Bildverarbeitungsalgorithmen, beispielsweise mittels semantischer Segmentierung, erfolgen. Einem derart klassifizierten Objekt kann ein potentielles oder bekanntes Bewegungsverhalten zugeordnet werden. Basierend auf der Klassifikation nach der Objektart von Objekten im Fahrzeugumfeld kann somit auch auf stehende oder sich bewegende Hindernisse in Fahrtrichtung oder auf einer abzufahrenden Route des autonomen Flurförderfahrzeugs geschlossen werden, um eine Objektkollision zu vermeiden. Auch die Klassifikation nach stationären und dynamischen Objekten kann alternativ oder zusätzlich beim Steuern des Flurförderfahrzeugs zum Fahrziel auf genannte Art und Weise berücksichtigt werden.
  • Die Ausführungsform weist als zusätzlichen Verfahrensschritt ein Berücksichtigen des Klassifizierens von Objekten im Umfeld des Flurförderfahrzeugs als Personen und als andere Objekte beim Vergleichen des ersten und zweiten Zustands des Umfelds auf. Als Personen klassifizierte Objekte können nicht als Passpunktinformation berücksichtigt werden, da sie keine örtliche Referenz für eine Transformation der erfassten Messdaten bereitstellen können. Ferner können für das Steuern des Fahrzeugs, welches ein Navigieren oder Festlegen einer Route aufweisen kann, Personen und/oder andere Objekte nicht berücksichtig oder verschieden berücksichtigt werden. Beispielsweise können Personen weiträumiger umfahren werden. Mit anderen Worten kann das autonome Fahrzeug zu Personen während der Fahrt einen größeren Sicherheitsabstand einhalten als zu anderen Objekten. Dies hat den Vorteil, dass die Sicherheit einer sich im Umfeld von autonomen Flurförderfahrzeugen befugt oder unbefugt aufhaltenden Person erhöht werden kann.
  • Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Bestimmen einer Lage des Flurförderfahrzeugs basierend auf dem Vergleichen des ersten und zweiten Zustands des Umfelds auf. Das Bestimmen der Fahrzeuglage kann dem Lokalisieren oder Positionieren des Fahrzeugs in seinem Umfeld dienen. Mit anderen Worten kann so der Aufenthaltsort des Fahrzeugs bestimmt werden. Die Lage des Fahrzeugs kann dessen Position, das heißt dessen Ort, und/oder dessen Ausrichtung, das heißt dessen Orientierung umfassen. Eine kontinuierliche Lagebestimmung des Fahrzeugs hat den Vorteil, dass eine neue Route zum Steuern des Fahrzeugs stets basierend auf aktueller Positionsinformation erfolgen kann.
  • Der Verfahrensschritt des Vergleichens der beiden Umfeldzustände kann ein Lokalisieren und/oder ein Bestimmen der Position des Fahrzeugs aufweisen.
  • Durch ein Vergleichen aufgenommener Kartendaten, das heißt durch ein Vergleichen von mindestens einem Kamerabild und/oder mindestens einer Punktwolke mit einem aktuell vorliegenden Kamerabild und/oder einer aktuell vorliegenden Punktwolke kann eine Position und Ausrichtung des Fahrzeugs bestimmt werden. Die jeweiligen Kartendaten können sich dabei grundsätzlich auf einen beliebigen Erfassungsort beziehen, solange in den Daten redundant erfasste Objekte vorhanden sind, auf welchen für die Transformation notwendige Merkmale oder Passpunkte erkannt werden können.
  • Aus dem Kartieren des ersten Umfeldzustands können Merkmale oder Passpunkte mittels Merkmalserkennung oder mittels sogenannter Feature-Detektoren extrahiert werden. Dabei kann es sich beispielsweise um Punktmerkmale, Linienmerkmale und/oder Bereichsmerkmale basierend auf einem oder mehreren kamerabasiert erfasster Bilder oder basierend auf einer oder mehreren radar- oder ultraschallbasiert erfasster Punktwolken handeln. Derartige Merkmale können auch als optische Marker für das Bestimmen einer Fahrzeugposition manuell oder automatisch verwendet werden.
  • Zum Lokalisieren oder Positionieren des Fahrzeugs kann mindestens eine der nachfolgenden Methoden angewandt werden, wobei auch mehrere dieser Methoden parallel oder in Kombination durchgeführt werden können.
  • Bezüglich mehrerer Umfeldzustände erfasste Punktwolken von einem Distanzmesser können mittels eines Occupancy-Grid-Mappings, welches auf einem Occupancy-Gird basieren kann, anhand eines Partikelfilters mit einer kartierten Punktwolke beziehungsweise einer Karte verglichen werden und so ein Aufenthaltsort des Fahrzeugs ermittelt werden. Hierbei können auch sogenannte Ghost-Punkte oder Artefakte in den Daten gefiltert werden. Dabei kann sich ein möglicher Aufenthaltsort des Fahrzeugs nach wenigen Berechnungsschritten, beispielsweise weniger als zehn, aus sich aus der Bewegung des Fahrzeugs aufeinanderfolgender Punktwolkenerfassungen in kurzen Zeitschritten, beispielsweise weniger als 10 Millisekunden, als der aktuelle Aufenthaltsort berechnen lassen.
  • Aus Reflektoren oder Objekten, die für eine radarbasierte Punktwolkenerfassung als Passpunkte fungieren können, und deren Positionen beziehungsweise Lage kartiert sein können, kann ein Abgleichen beziehungsweise Korrigieren der Fahrzeugposition ferner mittels eines Kalman-Filters erfolgen. Basierend auf dem Kalman-Filter kann beispielsweise auch ein zukünftiges Bewegungsverhalten eines erfassten Objekts prognostiziert werden.
  • Die Genauigkeit des Lokalisierens oder Positionierens des Fahrzeugs beziehungsweise das Bestimmen seines Aufenthaltsortes kann durch Verwenden einer Positionsschätzung basierend auf einem Odometriemodell in Kombination mit einem der genannten Methoden gesteigert werden.
  • Die Ausführungsform bezüglich der Lagebestimmung des Fahrzeugs weist als zusätzliche Verfahrensschritte ein Ermitteln stationärer Objekte und dynamischer Objekte im Umfeld zumindest basierend auf dem erfassten zweiten Zustand des Umfelds und ein Festlegen einer Trajektorie zum Steuern des Flurförderfahrzeugs zum Fahrziel basierend auf der bestimmten Lage und den ermittelten stationären und/oder dynamischen Objekten auf. Das Ermitteln der stationären und dynamischen Objekte kann auf der Klassifikation nach deren Bewegungsverhalten durchgeführt werden.
  • Das Steuern des Flurförderfahrzeugs zu einem Fahrziel kann ein Navigieren des Fahrzeugs zum Fahrziel aufweisen. Das Fahrziel kann von einem Nutzer oder Operator des Fahrzeugs in der mittels des Verfahrensschritts des Kartierens erstellten Karte vorgegeben werden, wobei ein Startpunkt und/oder ein Zielpunkt koordinatenmäßig festgelegt werden kann. Die Trajektorie kann basierend hierauf berechnet werden oder die Trajektorie kann einer vorprogrammierten Route folgen. Für eine dieser Trajektorien können alle bekannten Trassierungselemente, beispielsweise Geradenabschnitte, Kreisbögen oder Klothoiden verwendet werden. Durch das Lokalisieren des Fahrzeugs kann dessen aktuelle Position bestimmt werden, welche ein sogenanntes Heading des Fahrzeugs oder zweidimensionale Koordinaten aufweisen kann. Zudem kann ein nächster Zielpunkt der Trajektorie bestimmt werden, auf welchen das Fahrzeug zugesteuert werden kann. Ein sequentielles Lokalisieren und Abgleichen mit der erfassten Karte sowie mit momentanen Umfeldinformationen kann somit in vorteilhafter Weise ein fortlaufendes Planen einer Trajektorie und somit ein Navigieren in einem sich dynamisch ändernden Umfeld bereitstellen.
  • Zusätzlich zu der Kamera und dem Distanzmesser kann Odometriesensorik auf dem Fahrzeug angeordnet sein, mit welcher Odometriedaten, beispielsweise Raddrehzahlen erfassen werden können. Eine Geschwindigkeit über Grund kann ferner zur Korrektur der Odometriedaten verwendet werden. Dies kann einen Schlupf der Räder des Fahrzeugs und somit einen Drift in der Positionsbestimmung ausgleichen. Eine tatsächliche Geschwindigkeit über Grund, welche mittels dem Distanzmesser beziehungsweise punktwolkenbasiert bestimmt werden kann, kann so den Schlupf des Odometriesystems kompensieren. Analog hierzu kann eine optisch oder punktwolkenbasiert bestimmte Gier-Rate des Fahrzeug für eine entsprechende Korrektur verwendet werden. Hierzu kann ein Beschleunigungssensor auf dem Fahrzeug vorgesehen sein.
  • Zum Lokalisieren des Fahrzeugs kann ferner beispielsweise ein kaskadierter Kalman-Filter angewandt werden. Hierzu kann zunächst ein kinematisches Modell mit Odometriedaten und gemessenen Bewegungsgrößen über einen Kalman-Filter korrigiert werden. Daran anschließend kann eine Positionsbestimmung mittels der absolut messenden Erfassungssysteme, die einen Abgleich mit Kartendaten vornehmen können, mit einem korrigierten Kinematikmodell kombiniert werden, um eine weitere Korrektur und Verbesserung in der Positionsbestimmung des Fahrzeugs zu erhalten.
  • Eine weitere Ausführungsform weist als weitere Verfahrensschritte ein Ermitteln eines Freiraums im Fahrweg des Flurförderfahrzeugs basierend auf erfassten stationären und/oder dynamischen Objekten und ein Berücksichtigen des ermittelten Freiraums beim Steuern des Flurförderfahrzeugs auf. Basierend auf mindestens einem kamerabasiert erfassten Bild oder mindestens einer Punktwolke kann so ein Freiraum vor dem Fahrzeug ermittelt werden. Alternativ oder zusätzlich kann ein Freiraum vor dem Fahrzeug auch mit dem Odometriemodell oder odometrisch erfasster Daten in Kombination mit den mit der Kamera und/oder dem Distanzmesser erfassten Daten ermittelt werden. Der ermittelte Freiraum kann mit einer Fahrzeugbreite verglichen werden, um so eine Trajektorie zu berechnen und/oder um ein Objekt oder Hindernis zu umfahren. Ein Freiraum kann auch als eine Engstelle im Fahrweg des Fahrzeugs bezeichnet werden, welche mit einer fahrzeugspezifischen Breite oder mit einer Breite eines von dem Fahrzeug transportierten Objekts verglichen werden kann. Eine derartige Freiraumermittlung kann in vorteilhafter Weise zum Umfahren eines Hindernisses und/oder zum Vermeiden einer Kollision angewendet werden. Ein Berücksichtigen dynamischer Objekte hat den Vorteil, dass zudem das Bewegungsverhalten des dynamischen Objekts, welches ein Fußgänger sein kann, beim Umfahren oder beim Vermeiden einer Kollision durch ein Abbremsen des Fahrzeugs herangezogen werden kann.
  • Eine weitere Ausführungsform weist als weitere Verfahrensschritte ein Ermitteln eines Freiraums am Fahrziel des Flurförderfahrzeugs basierend auf erfassten stationären und dynamischen Objekten und ein Berücksichtigen des ermittelten Freiraums beim Ablegen eines vom Flurförderfahrzeug, beispielsweise einem führerlosen Transportfahrzeug oder -system, transportierten Objekts auf. Ein Bild oder eine Punktwolke kann ferner zum Bestimmen eines Abladeorts für das transportierte Objekt herangezogen werden, wobei der freie Raum an diesem Ort mit einer Dimension des transportierten und dort abzuladenden Objekts verglichen werden kann. Falls der freie Raum größer als eine Objektdimension ist, kann das Objekt dort abgeladen werden, ansonsten kann ein Abladen nicht durchgeführt werden und ein schadenverursachendes Abladen kann so vermieden werden. Beispielsweise kann so ein Palettenabladeort analysiert werden bevor ein autonomer Gabelstapler eine transportierte Palette dort ablädt. Auch bei einem Vorbeifahren kann der Gabelstapler so einen freien Platz in einem Hochregal seitlich oder vor ihm erkennen und kann auf Basis dieser Informationen entscheiden ob der Platz für eine geladene Palette ausreicht. Basierend auf Informationen aus Bildern, Punktwolken und/oder Odometriedaten kann eine Palette so sicher abgestellt werden.
  • Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein automatisches Erkennen von natürlichen Passpunkten im erfassten Umfeld des Flurförderfahrzeugs zum Vergleichen des ersten und zweiten Zustands des Umfelds auf. Natürliche Passpunkte können in einem Bild oder in einer Punktwolke bestimmt werden und basieren auf diesen Messdaten selbst, ohne künstliches Anbringen von Reflektoren oder sonstigen Messmarken. Natürliche Passpunkte können an geometrisch markanten Stellen, beispielsweise an Ecken oder Kanten, bestimmt werden. Ferner können natürliche Passpunkte auch in kontrastreichen Bildregionen bestimmt werden. Ein Heranziehen derart natürlicher Passpunkte für das Vergleichen der Umfeldzustände hat den Vorteil, dass der Automatisierungsgrad des Verfahrens zum Navigieren des Fahrzeugs gesteigert werden kann.
  • In einer weiteren Ausführungsform wird zumindest einer der beschriebenen Verfahrensschritte kontinuierlich durchgeführt. Ein kontinuierliches Durchführen kann ein sich wiederholendes Durchführen oder ein mehrfach nacheinander Durchführen eines oder mehrerer der beschriebenen Verfahrensschritte aufweisen. Verfahrensschritte können auch in einer Schleife ausgeführt werden.
  • Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Einbinden eines im Umfeld des Flurförderfahrzeugs erkannten Objekts in einen Logistikprozess auf. Beim Kartieren des Umfelds kann eine Karte beispielsweise mit Informationen zu einer von dem autonomen Flurförderfahrzeug oder einer Person ausgeführten Arbeit ergänzt werden. Beispielsweise kann ein Palettenabladeort der Kartierung hinzugefügt werden. Ein Fusionieren von Bildern mit Punktwolken kann so weitere Funktionalitäten ermöglichen, beispielsweise kann ein Lokalisieren, Erkennen und/oder Klassifizieren eines Objekts im Fahrzeugumfeld in einen Logistikprozess eingebunden werden. Beispielsweise kann so der Standort einer Palette oder einer Gitterbox so weitergegeben werden. Ferner kann einem Logistikprozess übermittelt werden, ob und wenn ja welches Objekt oder welches Stückgut das autonome Flurförderfahrzeug geladen hat. Das Einbinden eines oder mehrere der genannten Verfahrensschritte in einen Logistikprozess kann so einen Mehrwert für die vorhandene Logistik schaffen.
  • Die vorliegende Erfindung bezieht sich ferner auf ein Steuergerät, welches dazu eingerichtet ist, die Verfahrensschritte der Erfindung oder die Verfahrensschritte einer oder mehrere ihrer Ausführungsformen durchzuführen. Das Steuergerät kann eine Steuereinrichtung sein, mit welcher derartige, programmierte Verfahrensschritte auf dem Fahrzeug und/oder in einer Nutzerumgebung eines Nutzers eines autonomen Fahrzeugs gesteuert oder geregelt werden können.
  • Die vorliegende Erfindung bezieht sich zudem auf ein autonomes Flurförderfahrzeug mit einem derartigen Steuergerät. Das autonome Flurförderfahrzeug kann ein autonomes oder teilautonomes Flurförderfahrzeug sein.
  • In einer Ausführungsform sind die mindestens eine Kamera und/oder der mindestens eine Distanzmesser am Heckbereich des autonomen Flurförderfahrzeugs angeordnet. Das Anordnen von Sensoren im Allgemeinen und der Kamera beziehungsweise des Distanzmesser im Speziellen im Heckbereich des Flurförderfahrzeugs ist vorteilhaft, da sich im Heckbereich unbewegte Fahrzeugteile befinden können. Eine alternative oder zusätzliche Anordnung eines Sensors an einem Frontbereich, beispielsweise an einem Arbeitswerkzeug, oder einem Seitenbereich kann auch vorgesehen sein. In diesen Bereichen können sich allerdings bewegte Fahrzeugteile, beispielsweise das Arbeitswerkzeug selbst, befinden, welche ein Anordnen erschweren können. Daneben kann auch ein seitliches Anordnen der Kamera oder des Distanzmessers einen entsprechend seitlichen Erfassungsbereich erzeugen.
  • In einer weiteren Ausführungsform ist das autonome Flurförderfahrzeug als autonom fahrender Gabelstapler ausgebildet. Beim Navigieren eines Gabelstaplers ist das Vermeiden von Kollisionen mit Personen, welche sich im Umfeld des Gabelstaplers aufhalten, von besonderer Bedeutung, da so die Arbeitssicherheit im Umfeld des Gabelstaplers erhöht werden kann.
  • Figurenliste
    • 1 zeigt ein Ablaufdiagramm mit Verfahrensschritten eines Ausführungsbeispiels eines Verfahrens zum Navigieren eines autonomen Flurförderfahrzeugs.
    • 2 zeigt eine Navigationssituation zum Erläutern des Verfahrens gemäß 1.
    • 3 zeigt eine weitere Navigationssituation zum weiteren Erläutern des Verfahrens gemäß 1.
    • 4 zeigt eine weitere Navigationssituation zum weiteren Erläutern des Verfahrens gemäß 1.
    • 5 zeigt eine weitere Navigationssituation zum weiteren Erläutern des Verfahrens gemäß 1.
    • 6 zeigt eine weitere Navigationssituation zum weiteren Erläutern des Verfahrens gemäß 1.
    • 7 zeigt eine weitere Navigationssituation zum weiteren Erläutern des Verfahrens gemäß 1.
    • 8 zeigt eine weitere Navigationssituation zum weiteren Erläutern des Verfahrens gemäß 1.
    • 9 zeigt ein Ausführungsbeispiel eines autonomen Flurförderfahrzeugs in einer perspektivischen Ansicht.
  • Detaillierte Beschreibung von Ausführungsformen
  • In 1 sind Verfahrensschritte S1, S2, S3, S4, S5 des Verfahrens zum Navigieren eines Gabelstaplers 10 (gezeigt in den folgenden Figuren) in einer zeitlichen Abfolge gezeigt.
  • In einem ersten Schritt S1 erfolgt eine Umfeldkartierung mittels einer Vielzahl von Kameras 22, 24, 26 und einer Vielzahl von Radarsensoren 32, 34, 36 als Distanzmesser. Die Messdaten dieser Sensoren werden von einer Auswerteeinheit 40 gemeinsam ausgewertet, das heißt die Auswerteeinheit 40 verarbeitet Bilder der Kameras 22, 24, 26 und Punktwolken der Radarsensoren 32, 34, 36 bezüglich eines ersten Zustands des Umfelds 2 des Gabelstaplers 10.
  • In einem zweiten Schritt S2 erfolgt eine Umfelderfassung erneut mittels der Vielzahl von Kameras 22, 24, 26 und der Vielzahl von Radarsensoren 32, 34, 36 als Distanzmesser. Die wiederholt erfassten Messdaten dieser Sensoren werden wieder von der Auswerteeinheit 40 gemeinsam ausgewertet, das heißt die Auswerteeinheit 40 verarbeitet erneut Bilder der Kameras 22, 24, 26 und Punktwolken der Radarsensoren 32, 34, 36 bezüglich eines zweiten Zustands des Umfelds 2 des Gabelstaplers 10.
  • In einem dritten Schritt S3 erfolgt eine Objektklassifikation nach in den Schritten S1 und S2 erfassten stationären und dynamischen Personen 6 oder nach anderen Objekten 8.
  • In einem vierten Schritt S4 erfolgt ein Umfeldvergleich basierend auf der in Schritt S1 erfolgten Umfeldkartierung und basierend auf der in Schritt S2 erfolgten Umfelderfassung, wobei in Schritt S3 als stationär klassifizierte Objekte zur Positionieren des Gabelstaplers 10 herangezogen werden und als dynamisch klassifizierte Objekte hierfür nicht herangezogen werden.
  • In einem fünften Schritt S5 erfolgt eine Freiraumermittlung beim Navigieren des Gabelstaplers 10 in dessen Umfeld 2, wobei dies mit Bezug auf die 2 bis 8 näher erläutert wird.
  • Im Umfeld 2 beziehungsweise in einem Fahrweg des Gabelstaplers 10 befindet sich eine Person 6 als dynamisches Objekt und ein anderes Objekt 8 als statisches Objekt.
  • In den 2 bis 8 ist ein autonomer Gabelstapler 10 als autonomes Flurförderfahrzeug und eine um ihn erfasste Karte 4 gezeigt, wobei der Gabelstapler 10 mit Bezug auf 9 näher erläutert wird.
  • Der Gabelstapler 10 weist die drei Kameras 22, 24, 26 an einem Heckbereich 11 des Gabelstaplers 10 auf, deren Blickwinkel einen Kameraerfassungsbereich 20 aufspannen. Der Gabelstapler weist ferner die Radarsensoren 32, 34, 36 an einem Heckbereich 11 des Gabelstaplers 10 auf, deren Erfassungsbereiche einen Radarerfassungsbereich 30 aufspannen.
  • In 2 kartiert der Gabelstapler 10 einen ersten Bereich und Zustand seines Umfelds 2 und befindet sich noch entfernt von dem anderen Objekt 8 und der Person 6. Im erfassten Umfeld 2 sind extrahierte Passpunkte 5 als natürliche Radartargets gekennzeichnet, welche für ein kontinuierliches Positionieren des Gabelstaplers 10 in dessen Umfeld 2 und für einen kontinuierlichen Umfeldvergleich verwendet werden können.
  • In 3 kartiert der Gabelstapler 10 einen weiteren Bereich und Zustand seines Umfelds 2 und vergleicht diese mit dem zuvor erfassten Bereich und Zustand seines Umfelds 2. An seiner aktuellen Position befindet sich der Gabelstapler nahe an dem anderen Objekt 8. Beim Vorbeifahren an kartierten Lagerplätzen 9 hat der Gabelstapler 10 einen Freiraum 3 erkannt.
  • In 4 kartiert der Gabelstapler 10 einen weiteren Bereich und Zustand seines Umfelds 2 und vergleicht diese mit einem der zuvor erfassten Bereiche und Zustände seines Umfelds 2. An seiner aktuellen Position befindet sich der Gabelstapler 10 nun vor dem anderen Objekt 8, welches sich in seinem Fahrweg befindet. Zum Umfahren von diesem Objekt 8 ermittelt der Gabelstapler 10 einen potentiellen Freiraum 3 zwischen dem Objekt 8 und den benachbarten Lagerplätzen 9, um zu prüfen ob ein Umfahren des Objekts 8 möglich ist beziehungsweise ob ein Anhalten notwendig ist, um eine Kollision mit dem Objekt 8 zu vermeiden.
  • In den 5 und 6 kartiert der Gabelstapler 10 jeweils einen weiteren Bereich und Zustand seines Umfelds 2 und vergleicht diese mit einem der zuvor erfassten Bereiche und Zustände seines Umfelds 2. Der Gabelstapler 10 umfährt nun das Objekt 8, wobei der Gabelstapler 10 eine Route durch den Freiraum 3 wählt, welcher breiter ist als die Breite des Gabelstaplers 10.
  • In 7 kartiert der Gabelstapler 10 einen weiteren Bereich und Zustand seines Umfelds 2 und vergleicht diese mit einem der zuvor erfassten Bereiche und Zustände seines Umfelds 2. Der Gabelstapler 10 ändert seine Fahrrichtung und biegt nun im Lager ab, wobei er sich auf eine sich bewegende Person 6 zubewegt.
  • In 8 kartiert der Gabelstapler 10 einen weiteren Bereich und Zustand seines Umfelds 2 und vergleicht diese mit einem der zuvor erfassten Bereiche und Zustände seines Umfelds 2. Der Gabelstapler 10 erfasst die in Fahrrichtung sich befindende Person 6 und hält an, da ein jeweiliger Freiraum seitlich der Person für ein Umfahren der Person nicht ausreicht.
  • Das autarke Reagieren des autonomen Gabelstaplers 10 auf Objekte 8 und sich bewegende Personen 6, welche sich in seinem Fahrweg aufhalten zeigt die Vorteile eines fahrzeugspezifischen Kartierens des Umfelds 2 zum Positionieren und Navigieren in einem derart typisch dynamischen Umfeld 2 eines Lagers auf.
  • In 9 ist der Gabelstapler 10 mit einem Steuergerät 50 zum Durchführen der Verfahrensschritte S1, S2, S3, S4, S5 gemäß 1 dargestellt.
  • Die Kameras 22, 24, 26 sind auf einem Dach 12 des Gabelstaplers 10 angeordnet, wobei die erste Kamera 22 als Rückblickskamera, die zweite Kamera 24 als seitlich nach links blickende Kamera und die dritte Kamera 26 als seitlich nach rechts blickende Kamera mit entsprechenden Blickwinkeln nach hinten, nach links und nach rechts eingerichtet sind.
  • Die Kameras 22, 24, 26 sind als Weitwinkelkameras ausgebildet, wobei ihr jeweiliger Blickwinkel bis zu etwa 180 Grad betragen kann. Der erste Radarsensor 32 und der zweite Radarsensor 34 ist jeweils an einem seitlichen Holm 13 einer offenen Fahrerkabine 14 des Gabelstaplers 10 angeordnet. Die Fahrerkabine 14 wird dabei nach oben von dem Dach 12 und nach hinten von den beiden Holmen 13 begrenzt.
  • Bei den Radarsensoren 32, 34 handelt es sich um fächerartig scannende Radarsensoren 32, 34, welche eine Scanebene horizontal, schräg oder vertikal in Höhe ihres jeweiligen Anbringungsortes auf den Holmen 13 ausbilden. In diesem Ausführungsbeispiel sind die Radarsensoren 32, 34 in etwa auf gleicher Höhe an den Holmen 13 angebracht, wodurch sie in einer gemeinsamen Scanebene, beispielsweise in einer horizontalen Ebene, Punktwolken erfassen.
  • Ein weiterer Radarsensor 36 ist unterhalb der anderen Radarsensoren 32, 34 am Chassis 15 des Gabelstaplers 10 in dessen Heckbereich 11 angeordnet. Der weitere Radarsensor 36 kann in einer zu den von den beiden anderen Radarsensoren 32, 34 aufgespannten Scanebene weiteren Scanebene eine Punktwolke erfassen. Die Scanebenen sind hier parallel zueinander, beispielsweise horizontal ausgerichtet.
  • Bei den Kameras 22, 24, 26 sowie bei den Radarsensoren 32, 34, 36 handelt es sich jeweils um baugleiche Kameras beziehungsweise Sensoren.
  • Bezugszeichenliste
  • 2
    Umfeld
    3
    Freiraum
    4
    Karte
    5
    Passpunkt
    6
    Person
    8
    anderes Objekt
    9
    Lagerplatz
    10
    Gabelstapler
    11
    Heckbereich
    12
    Dach
    13
    Holm
    14
    Fahrerkabine
    15
    Chassis
    20
    Kameraerfassungsbereich
    22
    erste Kamera
    24
    zweite Kamera
    26
    dritte Kamera
    30
    Radarerfassungsbereich
    32
    erster Radarsensor
    34
    zweiter Radarsensor
    36
    dritter Radarsensor
    40
    Auswerteeinheit
    50
    Steuergerät
    S1
    Umfeldkartierung
    S2
    Umfelderfassung
    S3
    Objektklassifikation
    S4
    Umfeldvergleich
    S5
    Freiraumermittlung
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102007021693 A1 [0003]

Claims (16)

  1. Verfahren zum Navigieren eines autonomen Flurförderfahrzeugs, mit den Verfahrensschritten Kartieren (S1) eines ersten Zustands eines Umfelds (2) des Flurförderfahrzeugs mit mindestens einer auf dem Flurförderfahrzeug angeordneten Kamera (22, 24, 26) und mit mindestens einem auf dem Flurförderfahrzeug angeordneten Distanzmesser, Erfassen (S2) eines zweiten Zustands des Umfelds (2) des Flurförderfahrzeugs zumindest mit dem mindestens einen Distanzmesser und Vergleichen (S4) des kartierten ersten Zustands des Umfelds (2) mit dem erfassten zweiten Zustand des Umfelds (2) zum Steuern des Flurförderfahrzeugs zu einem Fahrziel.
  2. Verfahren nach Anspruch 1, wobei der mindestens eine Distanzmesser mindestens einen Radarsensor (32, 34, 36) aufweist.
  3. Verfahren nach Anspruch 1 oder 2, wobei der mindestens eine Distanzmesser mindestens einen Ultraschallsensor aufweist.
  4. Verfahren nach einem der vorherigen Ansprüche, mit Kombinieren von zumindest einem mit der mindestens einen Kamera (22, 24, 26) erfassten Bild des Umfelds (2) mit einer mit dem mindestens einen Distanzmesser erfassten Punktwolke des ersten Zustands des Umfelds (2) zum Kartieren (S1) des Umfelds (2).
  5. Verfahren nach einem der vorherigen Ansprüche, mit Klassifizieren (S3) von Objekten im Umfeld (2) des Flurförderfahrzeugs als stationäre Objekte und als dynamische Objekte basierend auf mit dem Distanzmesser kontinuierlich erfassten Punktwolken und Berücksichtigen des Klassifizierens (S3) beim Vergleichen (S4) des ersten und zweiten Zustands des Umfelds (2).
  6. Verfahren nach einem der vorherigen Ansprüche, mit Klassifizieren von Objekten im Umfeld (2) des Flurförderfahrzeugs als Personen (6) und als andere Objekte (8) basierend auf zumindest einem mit der mindestens einen Kamera (22, 24, 26) erfassten Bild und Berücksichtigen des Klassifizierens beim Vergleichen (S4) des ersten und zweiten Zustands des Umfelds (2).
  7. Verfahren nach einem der vorherigen Ansprüche, mit Bestimmen einer Lage des Flurförderfahrzeugs basierend auf dem Vergleichen (S4) des ersten und zweiten Zustands des Umfelds (2), Ermitteln stationärer Objekte und dynamischer Objekte im Umfeld (2) zumindest basierend auf dem erfassten zweiten Zustand des Umfelds (2) und Festlegen einer Trajektorie zum Steuern des Flurförderfahrzeugs zum Fahrziel basierend auf der bestimmten Lage und den ermittelten stationären und/oder dynamischen Objekten.
  8. Verfahren nach einem der vorherigen Ansprüche, mit Ermitteln (S5) eines Freiraums (3) im Fahrweg des Flurförderfahrzeugs basierend auf erfassten stationären und/oder dynamischen Objekten und Berücksichtigen des ermittelten Freiraums (3) beim Steuern des Flurförderfahrzeugs.
  9. Verfahren nach einem der vorherigen Ansprüche, mit Ermitteln eines Freiraums am Fahrziel des Flurförderfahrzeugs basierend auf erfassten stationären und dynamischen Objekten und Berücksichtigen des ermittelten Freiraums beim Ablegen eines vom Flurförderfahrzeug transportierten Objekts.
  10. Verfahren nach einem der vorherigen Ansprüche, mit automatischem Erkennen von natürlichen Passpunkten (5) im erfassten Umfeld (2) des Flurförderfahrzeugs zum Vergleichen (S4) des ersten und zweiten Zustands des Umfelds (2).
  11. Verfahren nach einem der vorherigen Ansprüche, wobei zumindest einer der Verfahrensschritte nach einem der vorherigen Ansprüche kontinuierlich durchgeführt wird.
  12. Verfahren nach einem der vorherigen Ansprüche, mit Einbinden eines im Umfeld (2) des Flurförderfahrzeugs erkannten Objekts in einen Logistikprozess.
  13. Steuergerät, welches dazu eingerichtet ist, Verfahrensschritte nach einem der vorherigen Ansprüche durchzuführen.
  14. Autonomes Flurförderfahrzeug mit einem Steuergerät (50) nach Anspruch 13.
  15. Autonomes Flurförderfahrzeug nach Anspruch 14, wobei die mindestens eine Kamera und/oder der mindestens eine Distanzmesser am Heckbereich (11) des autonomen Flurförderfahrzeugs angeordnet ist.
  16. Autonomes Flurförderfahrzeug nach einem der Ansprüche 14 oder 15, wobei das autonome Flurförderfahrzeug als autonom fahrender Gabelstapler (10) ausgebildet ist.
DE102018205964.0A 2018-04-19 2018-04-19 Verfahren und Steuergerät zum Navigieren eines autonomen Flurförderfahrzeugs Withdrawn DE102018205964A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018205964.0A DE102018205964A1 (de) 2018-04-19 2018-04-19 Verfahren und Steuergerät zum Navigieren eines autonomen Flurförderfahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018205964.0A DE102018205964A1 (de) 2018-04-19 2018-04-19 Verfahren und Steuergerät zum Navigieren eines autonomen Flurförderfahrzeugs

Publications (1)

Publication Number Publication Date
DE102018205964A1 true DE102018205964A1 (de) 2019-10-24

Family

ID=68105069

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018205964.0A Withdrawn DE102018205964A1 (de) 2018-04-19 2018-04-19 Verfahren und Steuergerät zum Navigieren eines autonomen Flurförderfahrzeugs

Country Status (1)

Country Link
DE (1) DE102018205964A1 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019203200A1 (de) * 2019-03-08 2020-09-10 Zf Friedrichshafen Ag Steuersystem für ein fahrerloses Transportfahrzeug
DE102019120022A1 (de) * 2019-07-24 2021-01-28 Jungheinrich Aktiengesellschaft Flurförderzeug mit einer Objekterkennung
WO2021197785A1 (de) 2020-04-01 2021-10-07 Sew-Eurodrive Gmbh & Co. Kg Mobiles system und verfahren zum betreiben eines mobilen systems
DE102020207479A1 (de) 2020-06-17 2021-12-23 Zf Friedrichshafen Ag Gabelzinkensensoren zur Erkennung von Querverkehr
DE102020210637A1 (de) 2020-08-20 2022-02-24 Volkswagen Aktiengesellschaft Computerprogramm, Verfahren und Vorrichtung zum Überwachen einer Umgebung
DE102020211892A1 (de) 2020-09-23 2022-03-24 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Objekterkennung, Computerprogramm, Speichermedium, Objekterkennungseinrichtung und Überwachungsanordnung
DE102020126401A1 (de) 2020-10-08 2022-04-14 Jungheinrich Aktiengesellschaft Verfahren zur Bestimmung von Abstandswerten zu einem Flurförderzeug sowie ein solches
DE102021210525A1 (de) 2021-09-22 2023-03-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Organisieren eines Lagerbereichs eines Warenlagers und zum Betreiben eines Warenlagers
DE102022205674A1 (de) 2022-06-02 2023-12-07 Zf Friedrichshafen Ag Verfahren und Steuereinrichtung zum Steuern eines Flurförderzeugs

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004047130A1 (de) * 2004-09-27 2006-04-13 Daimlerchrysler Ag Umgebungsmodellierung für autonome mobile Systeme
DE102007021693A1 (de) 2007-05-09 2008-11-13 Götting jun., Hans-Heinrich, Dipl.-Ing. (FH) Hilfssystem zur Lagebestimmung eines Fahrzeugs
DE102010028911A1 (de) * 2010-05-12 2011-11-17 Robert Bosch Gmbh Verfahren und Vorrichtung zur Überwachung einer Bewegung eines Fahrzeugs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004047130A1 (de) * 2004-09-27 2006-04-13 Daimlerchrysler Ag Umgebungsmodellierung für autonome mobile Systeme
DE102007021693A1 (de) 2007-05-09 2008-11-13 Götting jun., Hans-Heinrich, Dipl.-Ing. (FH) Hilfssystem zur Lagebestimmung eines Fahrzeugs
DE102010028911A1 (de) * 2010-05-12 2011-11-17 Robert Bosch Gmbh Verfahren und Vorrichtung zur Überwachung einer Bewegung eines Fahrzeugs

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019203200A1 (de) * 2019-03-08 2020-09-10 Zf Friedrichshafen Ag Steuersystem für ein fahrerloses Transportfahrzeug
DE102019120022A1 (de) * 2019-07-24 2021-01-28 Jungheinrich Aktiengesellschaft Flurförderzeug mit einer Objekterkennung
WO2021197785A1 (de) 2020-04-01 2021-10-07 Sew-Eurodrive Gmbh & Co. Kg Mobiles system und verfahren zum betreiben eines mobilen systems
DE102021001282A1 (de) 2020-04-01 2021-10-07 Sew-Eurodrive Gmbh & Co Kg Mobiles System und Verfahren zum Betreiben eines mobilen Systems
DE102020207479A1 (de) 2020-06-17 2021-12-23 Zf Friedrichshafen Ag Gabelzinkensensoren zur Erkennung von Querverkehr
DE102020210637A1 (de) 2020-08-20 2022-02-24 Volkswagen Aktiengesellschaft Computerprogramm, Verfahren und Vorrichtung zum Überwachen einer Umgebung
DE102020211892A1 (de) 2020-09-23 2022-03-24 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Objekterkennung, Computerprogramm, Speichermedium, Objekterkennungseinrichtung und Überwachungsanordnung
WO2022063654A1 (de) * 2020-09-23 2022-03-31 Robert Bosch Gmbh Verfahren zur objekterkennung, computerprogramm, speichermedium, objekterkennungseinrichtung und überwachungsanordnung
DE102020126401A1 (de) 2020-10-08 2022-04-14 Jungheinrich Aktiengesellschaft Verfahren zur Bestimmung von Abstandswerten zu einem Flurförderzeug sowie ein solches
DE102021210525A1 (de) 2021-09-22 2023-03-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Organisieren eines Lagerbereichs eines Warenlagers und zum Betreiben eines Warenlagers
DE102022205674A1 (de) 2022-06-02 2023-12-07 Zf Friedrichshafen Ag Verfahren und Steuereinrichtung zum Steuern eines Flurförderzeugs

Similar Documents

Publication Publication Date Title
DE102018205964A1 (de) Verfahren und Steuergerät zum Navigieren eines autonomen Flurförderfahrzeugs
EP3177889B1 (de) Vorrichtung und verfahren zur volumenbestimmung eines durch ein flurförderzeug bewegten objekts
EP3587220B1 (de) Fahrzeug mit rangiersystem
DE112013000938B4 (de) System und verfahren zum materialtransport mit einem oder mehreren bildgebungsgeräten
DE102019108505A1 (de) Landwirtschaftliche Arbeitsmaschine
DE102019124152A1 (de) Kupplungsunterstützungssystem
WO2016120044A1 (de) Vermessen einer abmessung auf einer oberfläche
DE102017108254B4 (de) Rundumsichtkamerasystem zur Objekterkennung und -verfolgung und Verfahren zum Ausstatten eines Fahrzeugs mit einem Rundumsichtkamerasystem
WO2019201537A1 (de) Verfahren und steuergerät zum kennzeichnen einer person
EP3805891A1 (de) Fahrerloses transportfahrzeug für die innerbetriebliche warenlogistik
EP3482622A1 (de) Verfahren zur automatischen führung eines fahrzeugs entlang eines virtuellen schienensystems
DE102020105334A1 (de) Verfahren für ein Steuern eines fahrerlosen Transportfahrzeugs und Steuerungssystem, das angepasst ist, um das Verfahren auszuführen
EP3977225B1 (de) Verfahren zur erstellung einer umgebungskarte für die verwendung bei der autonomen navigation eines mobilen roboters
DE102016211227A1 (de) Verfahren und Fahrzeugsteuersystem zum Erzeugen von Abbildungen eines Umfeldmodells und entsprechendes Fahrzeug
DE102020106304A1 (de) Verfahren zum Steuern eines Fahrzeuges auf einem Betriebshof, Fahrt- Steuereinheit und Fahrzeug
DE102017123226A1 (de) Verfahren zum Bestimmen einer kritischen Höhe eines vorausliegenden Streckenabschnitts für ein Fahrzeug, das ein Zugfahrzeug und einen Anhänger umfasst
DE10323643A1 (de) Sensorsystem für ein autonomes Flurförderfahrzeug
DE102019206582A1 (de) Vorrichtung, System, Verfahren und Computerprogram zur Geschwindigkeitsregelung eines Fahrzeugs
DE102004047214B4 (de) Verfahren zur Navigation für Transportfahrzeuge
WO2019162327A2 (de) Verfahren zur ermittlung einer entfernung zwischen einem kraftfahrzeug und einem objekt
DE102015007678A1 (de) Fahrzeug sowie Verfahren und Vorrichtung zur Selbstlokalisation eines Fahrzeugs
EP3929841A1 (de) System und verfahren zur erkennung und vermeidung von bildfehlern
DE102018210361B4 (de) Verfahren zum Ermitteln einer Relativpose zwischen einem Fahrzeug und einem Zielobjekt
DE202020005653U1 (de) System zur Lokalisierung und Identifizierung von Objekten
DE102016116855A1 (de) System und Verfahren zum Steuern von Nutzfahrzeugen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee