-
Technisches Gebiet
-
Die Erfindung betrifft ein Verfahren zum Navigieren eines autonomen Fahrzeugs basierend auf einem Erfassen eines Umfelds des Fahrzeugs mit einem Distanzmesser.
-
Stand der Technik
-
Beim Betreiben von autonomen Fahrzeugen im Logistikumfeld und im Industrieumfeld ist es bekannt, einen Laserscanner zum Erfassen von Umfeldsituationen und zum Erkennen von Gefahrensituationen zu verwenden.
-
Aus der
DE 10 2007 021 693 A1 ist ein System zur Lagebestimmung eines Fahrzeugs bekannt, bei welchem das Fahrzeug seine Lage anhand von mit einem Laserscanner erfasster stationärer Lagerware und anhand von in einer Karte verzeichneten und belegten Stellplätzen bestimmt.
-
Darstellung der Erfindung
-
Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Navigieren eines autonomen Flurförderfahrzeugs.
-
Das Navigieren kann ein Steuern und/oder Regeln des autonomen Flurförderfahrzeugs oder der Fahrdynamik des Fahrzeugs aufweisen, um das autonome Flurförderfahrzeug zu einem Zielpunkt zu lenken oder zu steuern. Das Lenken oder das Steuern des autonomen Flurförderfahrzeugs kann ein Feststellen einer aktuellen Position als eine Ortsbestimmung, ein Ermitteln einer Route zum Zielpunkt und/oder deren automatisches Befahren durch das autonome Flurförderfahrzeug aufweisen.
-
Das autonome Flurförderfahrzeug, welches auch als autonomes Flurfördergerät bezeichnet werden kann, kann jedes bemannte oder unbemannte autonome Fahrzeug sein, welches zum Transportieren von Gütern und/oder Personen ausgebildet ist und in einem Umfeld der Logistik oder der Industrie einsetzbar ist.
Ein Verfahrensschritt ist ein Kartieren eines ersten Zustands eines Umfelds des Flurförderfahrzeugs mit mindestens einer auf dem Flurförderfahrzeug angeordneten Kamera und mit mindestens einem auf dem Flurförderfahrzeug angeordneten Distanzmesser.
-
Das Kartieren eines Umfeldzustands kann ein Erfassen des Umfeldzustands aufweisen, wobei das Umfeld in seinem aktuellen Zustand bildbasiert und mittels eines Distanzmessers scannend erfasst werden kann. Durch bildbasiertes Erfassen des Umfeldzustands mittels der Kamera kann ein Bild des Umfelds in seinem aktuellen Zustand erzeugt werden. Durch scannendes Erfassen des Umfelds mittels des Distanzmessers kann eine Punktwolke des Umfelds in seinem aktuellen Zustand erzeugt werden. Das Kartieren des Umfeldzustands kann ferner ein Erzeugen oder Bereitstellen einer Karte des erfassten Umfeldzustands aufweisen.
-
Das Erfassen eines Umfeldzustands mit der Kamera kann ein Aufnehmen oder Erzeugen eines digitalen Bilds eines Bereichs des Fahrzeugumfelds entsprechend einem Blickwinkel der Kamera als deren Erfassungsbereich aufweisen. Der Blickwinkel kann mit einem Weitwinkelobjektiv oder Fisheye-Objektiv einen sphärischen Bereich bis ungefähr 180 Grad umfassen. Bei der Kamera kann es sich grundsätzlich um jeden bildgebenden Kamerasensor handeln, wobei dieser beispielsweise eine RGB-Kamera oder eine Infrarot-Kamera sein kann. Hierbei kann es sich jeweils um eine Panoramakamera oder eine omnidirektionale Kamera handeln. Das mit der Kamera erfasste Bild kann als Bildinformationen Pixel mit entsprechenden RGB-Informationen oder Wärmeinformationen aufweisen. Zum kontinuierlichen Erfassen des Fahrzeugs kann jede der genannten Kameras auch als Videokamera ausgebildet sein. So können Zustandsänderungen im Fahrzeugumfeld kontinuierlich in naher Echtzeit erfasst werden.
-
Das Erfassen eines Umfeldzustands mit dem Distanzmesser kann ein Scannen, ein Abtasten oder ein Messen einer eindimensionalen, zweidimensionalen oder dreidimensionalen Punktwolke des Fahrzeugumfelds aufweisen. Der Distanzmesser kann hierfür ein eindimensionaler, das heißt punktuell oder diskret abtastender messender Distanzmesser, ein zweidimensionaler, das heißt ein fächerartig scannender oder abtastender Distanzmesser, oder ein dreidimensionaler, das heißt ein räumlich scannender oder abtastender Distanzmesser, sein. Einzelne Messpunkte können dabei sukzessive oder synchron gemessen werden. Ein derartiger Distanzmesser kann jeder Sensor sein, welcher dazu ausgebildet ist, eine Distanz zu einem Objekt berührungslos zu messen. Ein derartiger Distanzmesser kann beispielsweise ein laserbasierter Sensor, ein radarbasierter Sensor, ein ultraschallbasierter Sensor oder auch eine 3D-Kamera sein. Das mit der 3D-Kamera erfasste Bild kann als Bildinformationen Pixel mit entsprechenden Tiefeninformationen aufweisen.
-
Ein weiterer Verfahrensschritt ist ein Erfassen eines zweiten Zustands des Umfelds des Flurförderfahrzeugs zumindest mit dem mindestens einen Distanzmesser.
-
Der erste und zweite Zustand des Umfelds können im Wesentlichen gleiche Zustände oder verschiedene Zustände des Umfelds und der sich in ihm befindenden Objekte sein. Unter gleichen Umfeldzuständen können Zustände verstanden werden, in welchen das jeweilige Umfeld bestehend aus den Objekten geometrisch im Wesentlichen unverändert ist. Unter verschiedenen Umfeldzuständen können Zustände verstanden werden, in welchen das jeweilige Umfeld bestehend aus den Objekten geometrisch anders oder verändert ist. Dies kann durch sich bewegende Objekte verursacht werden. Das Fahrzeugumfeld kann auch als Fahrzeugumgebung bezeichnet werden. Der Begriff des Zustands kann so hinsichtlich geometrischer Zustände des Umfelds verstanden werden.
-
Alternativ oder zusätzlich können sich der erste und zweite Zustand des Umfelds auf verschiedene Erfassungszeitpunkte beziehen. Der Begriff des Zustands kann so hinsichtlich temporärer Zustände des Umfelds verstanden werden.
-
Noch ein weiterer Verfahrensschritt ist ein Vergleichen des kartierten ersten Zustands des Umfelds mit dem erfassten zweiten Zustand des Umfelds zum Steuern des Flurförderfahrzeugs zu einem Fahrziel.
-
Das Vergleichen der Umfeldzustände kann ein Transformieren der bezüglich der beiden Zustände erfassten Messdaten mit der Kamera und dem Distanzmesser in ein gemeinsames Koordinatensystem aufweisen. Das Vergleichen der Umfeldzustände kann ferner ein Anpassen, Überlagern, Matchen oder Stichen von Bildern oder Punktwolken aufweisen. Das Vergleichen kann auch einen Soll-Ist-Vergleich aufweisen, wobei der erste Zustand des Umfelds ein Soll-Zustand und der zweite Zustand ein Ist-Zustand sein kann. Somit kann überprüft werden, ob sich der zweite Zustand vom erste unterscheidet und daher beim Navigieren des autonomen Flurförderfahrzeugs von einer vorgegebenen auf dem Soll-Zustand basierenden Route zu einem Fahrziel abgewichen werden kann. Das Fahrziel kann jeder von dem autonomen Flurförderfahrzeug anfahrbare Ort, beispielsweise ein Lagerort in einer Lagerhalle sein.
-
Im Rahmen der Erfindung kann somit mittels fahrzeugeigener Sensorik, welche zumindest eine Kamera und einen Distanzmesser aufweist, das Fahrzeugumfeld in einem Ausgangszustand kartiert und in einem zeitlich darauffolgenden Zustand erneut erfasst werden, um das Fahrzeug in einem sich dynamisch verändernden Umfeld zu navigieren.
-
Der Erfindung liegt die Erkenntnis zugrunde, dass ein Navigieren basierend auf einer externen Karte des Umfelds, welche nicht mittels fahrzeugeigener Sensorik erfasst worden ist, zu einer unsicheren Routenplanung führen kann, da die externe Karte einen Zustand des Umfelds beschreiben kann, welcher für einen Vergleich mit einem aktuellen Umfeldzustand unzureichend sein kann. Ein Grund hierfür kann beispielsweise sein, dass zu wenig Passpunktinformation für eine Transformation oder Positionsbestimmung des Fahrzeugaufenthaltsorts vorhanden sein kann oder dass der zeitliche Abstand zwischen der Kartenerstellung und dem Navigieren zu groß ist.
-
Ein Konzept der Erfindung besteht daher darin, dass ein im Wesentlichen autarkes System zur Umfelderfassung und Navigation für den Betrieb eines autonomen Flurförderfahrzeugs bereitgestellt wird. Eine autarke Umfelderfassung kann durch eine Kombination mehrerer Umfelderfassungssensoren auf dem Fahrzeug realisiert werden, da diese neben Redundanz auch eine Steigerung der Zuverlässigkeit in der Umfelderfassung darstellen können. Unter einer Zuverlässigkeit kann verstanden werden, dass eine Umfelderfassung unabhängig von den Umgebungsbedingungen und Umgebungseinflüssen zumindest mit einem der vorgesehenen Sensoren möglich ist, während ein anderer der vorgesehenen Sensoren das Umfeld nicht erfassen kann.
-
In einer Ausführungsform weist der mindestens eine Distanzmesser mindestens einen Radarsensor auf. Mit dem Radarsensor kann eine Punktwolke erfasst werden, wobei die Punktwolke Punkte bezüglich Objekten im Fahrzeugumfeld aufweist. Der Radarsensor kann ein eindimensional oder punktuell erfassender Radarsensor, ein zweidimensional oder fächerartig erfassender Radarsensor oder ein dreidimensional oder flächenhaft abtastender Radarsensor sein. Die Punktwolke kann eine entsprechend Dimension aufweisen, wobei diese im eindimensionalen Fall bereits aus einem Punkt bestehen kann. Mit dem Radarsensor kann ein Objekt somit diskret mit Einzelpunkten erfasst werden. Das Erfassen von sich bewegenden Objekten mittels eines Radarsensors ist aufgrund dessen räumlich und zeitlich hohen Auflösungen vorteilhaft. Der Radarsensor kann daher auch als bildgebender Radarsensor bezeichnet werden.
-
In einer weiteren Ausführungsform weist der mindestens einen Distanzmesser mindestens einen Ultraschallsensor auf. Der Ultraschallsensor kann alternativ oder zusätzlich zu einem Radarsensor zum Erfassen des Fahrzeugumfelds auf dem Fahrzeug vorgesehen sein. Der Ultraschallsensor kann wie der Radarsensor zum Erfassen von Objekten im Fahrzeugumfeld ausgebildet sein. Der Ultraschallsensor kann zum Erfassen von Objekten in einem Nahbereich, beispielsweise in einem Radius von etwa zehn Meter um das Fahrzeug, ausgebildet sein. Der Radarsensor kann ferner zum Erfassen von Objekten in einem Bereich vorgesehen sein, welcher im Vergleich zum Nahbereich eine größere räumliche Ausdehnung aufweist. Der Vorteil eines Ultraschallsensors kann darin gesehen werden, dass ein Erfassungsbereich um das Fahrzeug zuverlässiger abgedeckt werden kann.
-
Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Kombinieren von zumindest einem mit der mindestens einen Kamera erfassten Bild des Umfelds mit einer mit dem mindestens einen Distanzmesser erfassten Punktwolke des ersten Zustands des Umfelds zum Kartieren des Umfelds auf. Das Kombinieren des Bilds mit der Punktwolke kann ein Fusionieren dieser Messdaten aufweisen. Grundsätzlich können die Kamera und der Distanzmesser, welcher der Radarsensor sein kann, die gleiche Funktionalität bezüglich ihrer Eignung zur Umfelderfassung aufweisen. Sowohl mit der Kamera als auch mit dem Distanzmesser können Objekte im Umfeld erfasst und basierend auf einem erfassten Bild beziehungsweise einer erfassten Punktwolke das Objekt als solches erkannt werden. Die Kamera und der Radarsensor können somit einerseits redundante und andererseits sich ergänzende beziehungsweise sich überlappende Umfeldsituationen erfassen. Eine messtechnische Fusion von mindestens einer Kamera und einem Distanzmesser oder Radarsensor ist somit vorteilhaft, da die Datenerfassung eines Ausgangszustands des Umfelds zuverlässig und nahezu lückenlos erfolgen kann.
-
Eine Kombination mindestens eines Bilds mit mindestens einer Punktwolke des Fahrzeugumfelds kann konkret eine kombinierte Punktwolke und/oder eine mit Bildinformation ergänzte Punktwolke aufweisen. Die kombinierte Punktwolke kann neben der mit dem Distanzmesser erfassten Punktwolke weitere Punkte aufweisen, welche aus dem mindestens einen Bild der mindestens einen Kamera abgeleitet werden können. Die mit Bildinformation ergänzte Punktwolke kann die mit dem Distanzmesser erfasste Punktwolke aufweisen, wobei deren Punkte mit Bildinformation des mindestens einen Bilds der Kamera ergänzt werden kann. Mit anderen Worten kann die Punktwolke des Distanzmessers mit dem Bild der Kamera eingefärbt werden, wobei den Koordinaten eines Punkts ein RGB-Wert zugeordnet werden kann. Sowohl die kombinierte Punktwolke als auch die mit Bildinformation ergänzte Punktwolke kann darauf basieren, dass die lokalen Erfassungskoordinatensysteme der Kamera und des Distanzmessers in ein gemeinsames Koordinatensystem, beispielsweise eines der beiden Erfassungskoordinatensysteme, transformiert werden.
-
Das gemeinsame Verwenden von mindestens zwei verschiedenen Sensortypen zum Navigieren eines autonomen Flurförderfahrzeugs, zumindest einer Kamera und eines Distanzmessers, hat vorteilhafte Effekte. Für das Kartieren oder Erfassen des Umfelds des Flurförderfahrzeugs können beide Sensoren ein zuverlässiges Erfassen von verschiedenen Objekten, welche Personen und andere Objekte aufweisen können, nebeneinander bereitstellen. Ein Vorteil ist daher eine Redundanz in der Objekterfassung, beispielsweise im Erfassen von Personen oder Fußgängern. Dies hat wiederum den Vorteil einer erhöhten Arbeitssicherheit für eine sich im Umfeld des Fahrzeugs aufhaltende Person, da das Fahrzeug erst auf sie reagieren kann, da sie mit dem bereitgestellten Multisensorsystem zuverlässig erfasst worden sind.
-
Das gemeinsame Verwenden von Kamera und Distanzmesser ist ferner vorteilhaft, da einer der Sensoren den anderen ersetzen kann, falls dieser ausfällt oder defekt ist. Ist beispielsweise die Kamera verschmutzt, kann der Distanzmesser weiterhin das Fahrzeugumfeld erfassen oder umgekehrt. Herrschen in einem anderen Beispiel im Fahrzeugumfeld schlechte Lichtverhältnisse wegen Dunkelheit, stark einfallendem Licht oder Witterungseinflüssen kann die Kamera kein Bild des Umfelds erfassen, in welchem Objekte im Umfeld erkennbar sind, während der Distanzmesser trotzdem Objekte im Fahrzeugumfeld erfassen kann, da beispielsweise ein Radarsensor von Lichtverhältnissen unabhängig sein kann. Vor allem bei starkem Gegenlicht, direkt einfallendem Sonnenlicht oder Schneefall kann der Radarsensor eine Punktwolke erfassen während die Kamera kein Bild erfassen kann, welches Objektinformation enthält. Hierfür kann als Radarsensor ein Radarsensor vorgesehen sein, welcher eine polarimetrische Bauart oder polarimetrische Eigenschaften aufweist.
-
Der Verfahrensschritt des Kartierens des ersten Zustands des Fahrzeugumfelds mit der mindestens einen Kamera und mit dem mindestens einen Distanzmesser kann ein Erstellen einer Karte aufweisen. Für eine Kartenerstellung kann das mindestens eine Bild der Kamera oder mehrere Bilder einer oder mehrerer Kamera zu einem einzigen Bild mittels Stitching kombiniert werden. Das kombinierte Bild kann ein Panoramabild, ein Rundumbild oder ein sogenanntes Top-View-Bild sein. Das Top-View-Bild kann ein Bild aus einer Vogelperspektive oder eine Draufsicht sein. Hierzu können hochauflösende Bilder, Bilddaten und/oder Kameradaten verwendet werden. Mehrere Bilder können so zusammen in einem gemeinsamen Koordinatensystem, beispielsweise einem Fahrzeugkoordinatensystem, kombiniert und dargestellt werden. Synchron oder parallel dazu kann die mindestens eine Punktwolke, beispielsweise basierend auf Radardaten erfasst oder aufgezeichnet werden und die erfasste Punktwolke ebenfalls in das gemeinsame Koordinatensystem transformiert werden.
-
Eine Karte kann auch aus einer Kombination von einer Vielzahl von Bildern, welche eine Vielzahl von Top-View-Bildern sein können, und einer Vielzahl von Punktwolken, beispielsweise aus Radardaten, generiert werden. Der Verfahrensschritt des Kartierens kann somit durchgeführt werden während sich das Fahrzeug bewegt, wobei dessen Bewegungsverhalten bei der Kombination der Sensordaten berücksichtigt werden kann.
-
Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Klassifizieren von Objekten im Umfeld des Flurförderfahrzeugs als stationäre Objekte und als dynamische Objekte basierend auf mit dem Distanzmesser kontinuierlich erfassten Punktwolken auf. Die Klassifikation kann eine Objekterkennung stationärer und/oder dynamischer Objekte aufweisen. Ein stationäres Objekt kann ein stillstehendes, sich an einem Standort befindliches oder ein sich örtlich sowie zeitlich nicht veränderndes Objekt sein. Ein dynamisches Objekt kann ein sich bewegendes Objekt sein, welches sich selbst oder sich auf Grund äußerer Einflüsse bewegt. Ein solches Klassifizieren nach einem Bewegungsverhalten des Objekts kann basierend auf zeitlich versetzt erfasster Punktwolken mit dem Distanzmesser erfolgen. Einem Objekt zugeordnete Punkte können unterschiedliche Koordinaten aufweisen, aus welchen ein Bewegungsvektor des Objekts abgeleitet werden kann. Basierend auf der Klassifikation nach dem Bewegungsverhalten von Objekten im Fahrzeugumfeld kann ferner auf stehende oder sich bewegende Hindernisse in Fahrtrichtung oder auf eine abzufahrende Route des autonomen Flurförderfahrzeugs geschlossen werden. Dies kann beim Steuern des Flurförderfahrzeugs zum Fahrziel berücksichtigt werden, wobei von einer vorgegebenen Route durch Umfahren des Hindernisses mit einer neuen Routenwahl abgewichen werden kann. Hierbei kann ein erfasstes Bewegungsverhalten eines Objekts auf den Zeitpunkt des Passierens des Objekts anhand der aktuellen Objektbewegung prognostiziert werden.
-
Die Ausführungsform weist als zusätzlichen Verfahrensschritt ein Berücksichtigen des Klassifizierens von Objekten im Umfeld des Flurförderfahrzeugs als stationäre Objekte und als dynamische Objekte beim Vergleichen des ersten und zweiten Zustands des Umfelds auf. Erfasste und kartierte Objekte im Umfeld des Fahrzeugs können grundsätzlich Passpunktinformation für einen Vergleich zwischen den zwei Zuständen bereitstellen. Als dynamisch klassifizierte Objekte können hierfür nicht berücksichtigt werden, da sie keine örtliche Referenz für eine Transformation der erfassten Messdaten bereitstellen können. Ferner können für das Steuern des Fahrzeugs, welches ein Navigieren oder Festlegen einer Route aufweisen kann, dynamische Objekte und/oder stationäre Objekte als Referenz oder als Hindernis klassifiziert werden wonach sich das Fahrzeug orientieren kann oder worauf das Fahrzeug ausweichen kann. Dies hat den Vorteil, dass das Fahrzeug autark auf ein sich dynamisch veränderndes Umfeld reagieren kann und seinen Fahrbetrieb aufrechterhalten kann. Dies hat wiederum den Vorteil, dass Stillstände des Fahrzeugs minimiert werden können, woraus sich eine Effizienzsteigerung in einem Logistikprozess, in welchen das autonome Flurförderfahrzeug eingebunden sein kann, ergeben kann.
-
Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Klassifizieren von Objekten im Umfeld des Flurförderfahrzeugs als Personen und als andere Objekte basierend auf zumindest einem mit der mindestens einen Kamera erfassten Bild auf. Die Klassifikation kann eine Objekterkennung von lebenden und nicht lebenden Objekte aufweisen. Ein lebendes Objekt kann ein Mensch, ein Roboter oder ein Tier sein. Ein nicht lebendes Objekt kann jedes andere Objekt, beispielsweise eine Palette, ein Korb oder eine Maschine sein. Auch eine Klassifikation nach Fahrzeugen ist anwendbar. Ein solches Klassifizieren nach Bildinformationen kann in einem Bild einer Kamera mit bekannten Bildverarbeitungsalgorithmen, beispielsweise mittels semantischer Segmentierung, erfolgen. Einem derart klassifizierten Objekt kann ein potentielles oder bekanntes Bewegungsverhalten zugeordnet werden. Basierend auf der Klassifikation nach der Objektart von Objekten im Fahrzeugumfeld kann somit auch auf stehende oder sich bewegende Hindernisse in Fahrtrichtung oder auf einer abzufahrenden Route des autonomen Flurförderfahrzeugs geschlossen werden, um eine Objektkollision zu vermeiden. Auch die Klassifikation nach stationären und dynamischen Objekten kann alternativ oder zusätzlich beim Steuern des Flurförderfahrzeugs zum Fahrziel auf genannte Art und Weise berücksichtigt werden.
-
Die Ausführungsform weist als zusätzlichen Verfahrensschritt ein Berücksichtigen des Klassifizierens von Objekten im Umfeld des Flurförderfahrzeugs als Personen und als andere Objekte beim Vergleichen des ersten und zweiten Zustands des Umfelds auf. Als Personen klassifizierte Objekte können nicht als Passpunktinformation berücksichtigt werden, da sie keine örtliche Referenz für eine Transformation der erfassten Messdaten bereitstellen können. Ferner können für das Steuern des Fahrzeugs, welches ein Navigieren oder Festlegen einer Route aufweisen kann, Personen und/oder andere Objekte nicht berücksichtig oder verschieden berücksichtigt werden. Beispielsweise können Personen weiträumiger umfahren werden. Mit anderen Worten kann das autonome Fahrzeug zu Personen während der Fahrt einen größeren Sicherheitsabstand einhalten als zu anderen Objekten. Dies hat den Vorteil, dass die Sicherheit einer sich im Umfeld von autonomen Flurförderfahrzeugen befugt oder unbefugt aufhaltenden Person erhöht werden kann.
-
Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Bestimmen einer Lage des Flurförderfahrzeugs basierend auf dem Vergleichen des ersten und zweiten Zustands des Umfelds auf. Das Bestimmen der Fahrzeuglage kann dem Lokalisieren oder Positionieren des Fahrzeugs in seinem Umfeld dienen. Mit anderen Worten kann so der Aufenthaltsort des Fahrzeugs bestimmt werden. Die Lage des Fahrzeugs kann dessen Position, das heißt dessen Ort, und/oder dessen Ausrichtung, das heißt dessen Orientierung umfassen. Eine kontinuierliche Lagebestimmung des Fahrzeugs hat den Vorteil, dass eine neue Route zum Steuern des Fahrzeugs stets basierend auf aktueller Positionsinformation erfolgen kann.
-
Der Verfahrensschritt des Vergleichens der beiden Umfeldzustände kann ein Lokalisieren und/oder ein Bestimmen der Position des Fahrzeugs aufweisen.
-
Durch ein Vergleichen aufgenommener Kartendaten, das heißt durch ein Vergleichen von mindestens einem Kamerabild und/oder mindestens einer Punktwolke mit einem aktuell vorliegenden Kamerabild und/oder einer aktuell vorliegenden Punktwolke kann eine Position und Ausrichtung des Fahrzeugs bestimmt werden. Die jeweiligen Kartendaten können sich dabei grundsätzlich auf einen beliebigen Erfassungsort beziehen, solange in den Daten redundant erfasste Objekte vorhanden sind, auf welchen für die Transformation notwendige Merkmale oder Passpunkte erkannt werden können.
-
Aus dem Kartieren des ersten Umfeldzustands können Merkmale oder Passpunkte mittels Merkmalserkennung oder mittels sogenannter Feature-Detektoren extrahiert werden. Dabei kann es sich beispielsweise um Punktmerkmale, Linienmerkmale und/oder Bereichsmerkmale basierend auf einem oder mehreren kamerabasiert erfasster Bilder oder basierend auf einer oder mehreren radar- oder ultraschallbasiert erfasster Punktwolken handeln. Derartige Merkmale können auch als optische Marker für das Bestimmen einer Fahrzeugposition manuell oder automatisch verwendet werden.
-
Zum Lokalisieren oder Positionieren des Fahrzeugs kann mindestens eine der nachfolgenden Methoden angewandt werden, wobei auch mehrere dieser Methoden parallel oder in Kombination durchgeführt werden können.
-
Bezüglich mehrerer Umfeldzustände erfasste Punktwolken von einem Distanzmesser können mittels eines Occupancy-Grid-Mappings, welches auf einem Occupancy-Gird basieren kann, anhand eines Partikelfilters mit einer kartierten Punktwolke beziehungsweise einer Karte verglichen werden und so ein Aufenthaltsort des Fahrzeugs ermittelt werden. Hierbei können auch sogenannte Ghost-Punkte oder Artefakte in den Daten gefiltert werden. Dabei kann sich ein möglicher Aufenthaltsort des Fahrzeugs nach wenigen Berechnungsschritten, beispielsweise weniger als zehn, aus sich aus der Bewegung des Fahrzeugs aufeinanderfolgender Punktwolkenerfassungen in kurzen Zeitschritten, beispielsweise weniger als 10 Millisekunden, als der aktuelle Aufenthaltsort berechnen lassen.
-
Aus Reflektoren oder Objekten, die für eine radarbasierte Punktwolkenerfassung als Passpunkte fungieren können, und deren Positionen beziehungsweise Lage kartiert sein können, kann ein Abgleichen beziehungsweise Korrigieren der Fahrzeugposition ferner mittels eines Kalman-Filters erfolgen. Basierend auf dem Kalman-Filter kann beispielsweise auch ein zukünftiges Bewegungsverhalten eines erfassten Objekts prognostiziert werden.
-
Die Genauigkeit des Lokalisierens oder Positionierens des Fahrzeugs beziehungsweise das Bestimmen seines Aufenthaltsortes kann durch Verwenden einer Positionsschätzung basierend auf einem Odometriemodell in Kombination mit einem der genannten Methoden gesteigert werden.
-
Die Ausführungsform bezüglich der Lagebestimmung des Fahrzeugs weist als zusätzliche Verfahrensschritte ein Ermitteln stationärer Objekte und dynamischer Objekte im Umfeld zumindest basierend auf dem erfassten zweiten Zustand des Umfelds und ein Festlegen einer Trajektorie zum Steuern des Flurförderfahrzeugs zum Fahrziel basierend auf der bestimmten Lage und den ermittelten stationären und/oder dynamischen Objekten auf. Das Ermitteln der stationären und dynamischen Objekte kann auf der Klassifikation nach deren Bewegungsverhalten durchgeführt werden.
-
Das Steuern des Flurförderfahrzeugs zu einem Fahrziel kann ein Navigieren des Fahrzeugs zum Fahrziel aufweisen. Das Fahrziel kann von einem Nutzer oder Operator des Fahrzeugs in der mittels des Verfahrensschritts des Kartierens erstellten Karte vorgegeben werden, wobei ein Startpunkt und/oder ein Zielpunkt koordinatenmäßig festgelegt werden kann. Die Trajektorie kann basierend hierauf berechnet werden oder die Trajektorie kann einer vorprogrammierten Route folgen. Für eine dieser Trajektorien können alle bekannten Trassierungselemente, beispielsweise Geradenabschnitte, Kreisbögen oder Klothoiden verwendet werden. Durch das Lokalisieren des Fahrzeugs kann dessen aktuelle Position bestimmt werden, welche ein sogenanntes Heading des Fahrzeugs oder zweidimensionale Koordinaten aufweisen kann. Zudem kann ein nächster Zielpunkt der Trajektorie bestimmt werden, auf welchen das Fahrzeug zugesteuert werden kann. Ein sequentielles Lokalisieren und Abgleichen mit der erfassten Karte sowie mit momentanen Umfeldinformationen kann somit in vorteilhafter Weise ein fortlaufendes Planen einer Trajektorie und somit ein Navigieren in einem sich dynamisch ändernden Umfeld bereitstellen.
-
Zusätzlich zu der Kamera und dem Distanzmesser kann Odometriesensorik auf dem Fahrzeug angeordnet sein, mit welcher Odometriedaten, beispielsweise Raddrehzahlen erfassen werden können. Eine Geschwindigkeit über Grund kann ferner zur Korrektur der Odometriedaten verwendet werden. Dies kann einen Schlupf der Räder des Fahrzeugs und somit einen Drift in der Positionsbestimmung ausgleichen. Eine tatsächliche Geschwindigkeit über Grund, welche mittels dem Distanzmesser beziehungsweise punktwolkenbasiert bestimmt werden kann, kann so den Schlupf des Odometriesystems kompensieren. Analog hierzu kann eine optisch oder punktwolkenbasiert bestimmte Gier-Rate des Fahrzeug für eine entsprechende Korrektur verwendet werden. Hierzu kann ein Beschleunigungssensor auf dem Fahrzeug vorgesehen sein.
-
Zum Lokalisieren des Fahrzeugs kann ferner beispielsweise ein kaskadierter Kalman-Filter angewandt werden. Hierzu kann zunächst ein kinematisches Modell mit Odometriedaten und gemessenen Bewegungsgrößen über einen Kalman-Filter korrigiert werden. Daran anschließend kann eine Positionsbestimmung mittels der absolut messenden Erfassungssysteme, die einen Abgleich mit Kartendaten vornehmen können, mit einem korrigierten Kinematikmodell kombiniert werden, um eine weitere Korrektur und Verbesserung in der Positionsbestimmung des Fahrzeugs zu erhalten.
-
Eine weitere Ausführungsform weist als weitere Verfahrensschritte ein Ermitteln eines Freiraums im Fahrweg des Flurförderfahrzeugs basierend auf erfassten stationären und/oder dynamischen Objekten und ein Berücksichtigen des ermittelten Freiraums beim Steuern des Flurförderfahrzeugs auf. Basierend auf mindestens einem kamerabasiert erfassten Bild oder mindestens einer Punktwolke kann so ein Freiraum vor dem Fahrzeug ermittelt werden. Alternativ oder zusätzlich kann ein Freiraum vor dem Fahrzeug auch mit dem Odometriemodell oder odometrisch erfasster Daten in Kombination mit den mit der Kamera und/oder dem Distanzmesser erfassten Daten ermittelt werden. Der ermittelte Freiraum kann mit einer Fahrzeugbreite verglichen werden, um so eine Trajektorie zu berechnen und/oder um ein Objekt oder Hindernis zu umfahren. Ein Freiraum kann auch als eine Engstelle im Fahrweg des Fahrzeugs bezeichnet werden, welche mit einer fahrzeugspezifischen Breite oder mit einer Breite eines von dem Fahrzeug transportierten Objekts verglichen werden kann. Eine derartige Freiraumermittlung kann in vorteilhafter Weise zum Umfahren eines Hindernisses und/oder zum Vermeiden einer Kollision angewendet werden. Ein Berücksichtigen dynamischer Objekte hat den Vorteil, dass zudem das Bewegungsverhalten des dynamischen Objekts, welches ein Fußgänger sein kann, beim Umfahren oder beim Vermeiden einer Kollision durch ein Abbremsen des Fahrzeugs herangezogen werden kann.
-
Eine weitere Ausführungsform weist als weitere Verfahrensschritte ein Ermitteln eines Freiraums am Fahrziel des Flurförderfahrzeugs basierend auf erfassten stationären und dynamischen Objekten und ein Berücksichtigen des ermittelten Freiraums beim Ablegen eines vom Flurförderfahrzeug, beispielsweise einem führerlosen Transportfahrzeug oder -system, transportierten Objekts auf. Ein Bild oder eine Punktwolke kann ferner zum Bestimmen eines Abladeorts für das transportierte Objekt herangezogen werden, wobei der freie Raum an diesem Ort mit einer Dimension des transportierten und dort abzuladenden Objekts verglichen werden kann. Falls der freie Raum größer als eine Objektdimension ist, kann das Objekt dort abgeladen werden, ansonsten kann ein Abladen nicht durchgeführt werden und ein schadenverursachendes Abladen kann so vermieden werden. Beispielsweise kann so ein Palettenabladeort analysiert werden bevor ein autonomer Gabelstapler eine transportierte Palette dort ablädt. Auch bei einem Vorbeifahren kann der Gabelstapler so einen freien Platz in einem Hochregal seitlich oder vor ihm erkennen und kann auf Basis dieser Informationen entscheiden ob der Platz für eine geladene Palette ausreicht. Basierend auf Informationen aus Bildern, Punktwolken und/oder Odometriedaten kann eine Palette so sicher abgestellt werden.
-
Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein automatisches Erkennen von natürlichen Passpunkten im erfassten Umfeld des Flurförderfahrzeugs zum Vergleichen des ersten und zweiten Zustands des Umfelds auf. Natürliche Passpunkte können in einem Bild oder in einer Punktwolke bestimmt werden und basieren auf diesen Messdaten selbst, ohne künstliches Anbringen von Reflektoren oder sonstigen Messmarken. Natürliche Passpunkte können an geometrisch markanten Stellen, beispielsweise an Ecken oder Kanten, bestimmt werden. Ferner können natürliche Passpunkte auch in kontrastreichen Bildregionen bestimmt werden. Ein Heranziehen derart natürlicher Passpunkte für das Vergleichen der Umfeldzustände hat den Vorteil, dass der Automatisierungsgrad des Verfahrens zum Navigieren des Fahrzeugs gesteigert werden kann.
-
In einer weiteren Ausführungsform wird zumindest einer der beschriebenen Verfahrensschritte kontinuierlich durchgeführt. Ein kontinuierliches Durchführen kann ein sich wiederholendes Durchführen oder ein mehrfach nacheinander Durchführen eines oder mehrerer der beschriebenen Verfahrensschritte aufweisen. Verfahrensschritte können auch in einer Schleife ausgeführt werden.
-
Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Einbinden eines im Umfeld des Flurförderfahrzeugs erkannten Objekts in einen Logistikprozess auf. Beim Kartieren des Umfelds kann eine Karte beispielsweise mit Informationen zu einer von dem autonomen Flurförderfahrzeug oder einer Person ausgeführten Arbeit ergänzt werden. Beispielsweise kann ein Palettenabladeort der Kartierung hinzugefügt werden. Ein Fusionieren von Bildern mit Punktwolken kann so weitere Funktionalitäten ermöglichen, beispielsweise kann ein Lokalisieren, Erkennen und/oder Klassifizieren eines Objekts im Fahrzeugumfeld in einen Logistikprozess eingebunden werden. Beispielsweise kann so der Standort einer Palette oder einer Gitterbox so weitergegeben werden. Ferner kann einem Logistikprozess übermittelt werden, ob und wenn ja welches Objekt oder welches Stückgut das autonome Flurförderfahrzeug geladen hat. Das Einbinden eines oder mehrere der genannten Verfahrensschritte in einen Logistikprozess kann so einen Mehrwert für die vorhandene Logistik schaffen.
-
Die vorliegende Erfindung bezieht sich ferner auf ein Steuergerät, welches dazu eingerichtet ist, die Verfahrensschritte der Erfindung oder die Verfahrensschritte einer oder mehrere ihrer Ausführungsformen durchzuführen. Das Steuergerät kann eine Steuereinrichtung sein, mit welcher derartige, programmierte Verfahrensschritte auf dem Fahrzeug und/oder in einer Nutzerumgebung eines Nutzers eines autonomen Fahrzeugs gesteuert oder geregelt werden können.
-
Die vorliegende Erfindung bezieht sich zudem auf ein autonomes Flurförderfahrzeug mit einem derartigen Steuergerät. Das autonome Flurförderfahrzeug kann ein autonomes oder teilautonomes Flurförderfahrzeug sein.
-
In einer Ausführungsform sind die mindestens eine Kamera und/oder der mindestens eine Distanzmesser am Heckbereich des autonomen Flurförderfahrzeugs angeordnet. Das Anordnen von Sensoren im Allgemeinen und der Kamera beziehungsweise des Distanzmesser im Speziellen im Heckbereich des Flurförderfahrzeugs ist vorteilhaft, da sich im Heckbereich unbewegte Fahrzeugteile befinden können. Eine alternative oder zusätzliche Anordnung eines Sensors an einem Frontbereich, beispielsweise an einem Arbeitswerkzeug, oder einem Seitenbereich kann auch vorgesehen sein. In diesen Bereichen können sich allerdings bewegte Fahrzeugteile, beispielsweise das Arbeitswerkzeug selbst, befinden, welche ein Anordnen erschweren können. Daneben kann auch ein seitliches Anordnen der Kamera oder des Distanzmessers einen entsprechend seitlichen Erfassungsbereich erzeugen.
-
In einer weiteren Ausführungsform ist das autonome Flurförderfahrzeug als autonom fahrender Gabelstapler ausgebildet. Beim Navigieren eines Gabelstaplers ist das Vermeiden von Kollisionen mit Personen, welche sich im Umfeld des Gabelstaplers aufhalten, von besonderer Bedeutung, da so die Arbeitssicherheit im Umfeld des Gabelstaplers erhöht werden kann.
-
Figurenliste
-
- 1 zeigt ein Ablaufdiagramm mit Verfahrensschritten eines Ausführungsbeispiels eines Verfahrens zum Navigieren eines autonomen Flurförderfahrzeugs.
- 2 zeigt eine Navigationssituation zum Erläutern des Verfahrens gemäß 1.
- 3 zeigt eine weitere Navigationssituation zum weiteren Erläutern des Verfahrens gemäß 1.
- 4 zeigt eine weitere Navigationssituation zum weiteren Erläutern des Verfahrens gemäß 1.
- 5 zeigt eine weitere Navigationssituation zum weiteren Erläutern des Verfahrens gemäß 1.
- 6 zeigt eine weitere Navigationssituation zum weiteren Erläutern des Verfahrens gemäß 1.
- 7 zeigt eine weitere Navigationssituation zum weiteren Erläutern des Verfahrens gemäß 1.
- 8 zeigt eine weitere Navigationssituation zum weiteren Erläutern des Verfahrens gemäß 1.
- 9 zeigt ein Ausführungsbeispiel eines autonomen Flurförderfahrzeugs in einer perspektivischen Ansicht.
-
Detaillierte Beschreibung von Ausführungsformen
-
In 1 sind Verfahrensschritte S1, S2, S3, S4, S5 des Verfahrens zum Navigieren eines Gabelstaplers 10 (gezeigt in den folgenden Figuren) in einer zeitlichen Abfolge gezeigt.
-
In einem ersten Schritt S1 erfolgt eine Umfeldkartierung mittels einer Vielzahl von Kameras 22, 24, 26 und einer Vielzahl von Radarsensoren 32, 34, 36 als Distanzmesser. Die Messdaten dieser Sensoren werden von einer Auswerteeinheit 40 gemeinsam ausgewertet, das heißt die Auswerteeinheit 40 verarbeitet Bilder der Kameras 22, 24, 26 und Punktwolken der Radarsensoren 32, 34, 36 bezüglich eines ersten Zustands des Umfelds 2 des Gabelstaplers 10.
-
In einem zweiten Schritt S2 erfolgt eine Umfelderfassung erneut mittels der Vielzahl von Kameras 22, 24, 26 und der Vielzahl von Radarsensoren 32, 34, 36 als Distanzmesser. Die wiederholt erfassten Messdaten dieser Sensoren werden wieder von der Auswerteeinheit 40 gemeinsam ausgewertet, das heißt die Auswerteeinheit 40 verarbeitet erneut Bilder der Kameras 22, 24, 26 und Punktwolken der Radarsensoren 32, 34, 36 bezüglich eines zweiten Zustands des Umfelds 2 des Gabelstaplers 10.
-
In einem dritten Schritt S3 erfolgt eine Objektklassifikation nach in den Schritten S1 und S2 erfassten stationären und dynamischen Personen 6 oder nach anderen Objekten 8.
-
In einem vierten Schritt S4 erfolgt ein Umfeldvergleich basierend auf der in Schritt S1 erfolgten Umfeldkartierung und basierend auf der in Schritt S2 erfolgten Umfelderfassung, wobei in Schritt S3 als stationär klassifizierte Objekte zur Positionieren des Gabelstaplers 10 herangezogen werden und als dynamisch klassifizierte Objekte hierfür nicht herangezogen werden.
-
In einem fünften Schritt S5 erfolgt eine Freiraumermittlung beim Navigieren des Gabelstaplers 10 in dessen Umfeld 2, wobei dies mit Bezug auf die 2 bis 8 näher erläutert wird.
-
Im Umfeld 2 beziehungsweise in einem Fahrweg des Gabelstaplers 10 befindet sich eine Person 6 als dynamisches Objekt und ein anderes Objekt 8 als statisches Objekt.
-
In den 2 bis 8 ist ein autonomer Gabelstapler 10 als autonomes Flurförderfahrzeug und eine um ihn erfasste Karte 4 gezeigt, wobei der Gabelstapler 10 mit Bezug auf 9 näher erläutert wird.
-
Der Gabelstapler 10 weist die drei Kameras 22, 24, 26 an einem Heckbereich 11 des Gabelstaplers 10 auf, deren Blickwinkel einen Kameraerfassungsbereich 20 aufspannen. Der Gabelstapler weist ferner die Radarsensoren 32, 34, 36 an einem Heckbereich 11 des Gabelstaplers 10 auf, deren Erfassungsbereiche einen Radarerfassungsbereich 30 aufspannen.
-
In 2 kartiert der Gabelstapler 10 einen ersten Bereich und Zustand seines Umfelds 2 und befindet sich noch entfernt von dem anderen Objekt 8 und der Person 6. Im erfassten Umfeld 2 sind extrahierte Passpunkte 5 als natürliche Radartargets gekennzeichnet, welche für ein kontinuierliches Positionieren des Gabelstaplers 10 in dessen Umfeld 2 und für einen kontinuierlichen Umfeldvergleich verwendet werden können.
-
In 3 kartiert der Gabelstapler 10 einen weiteren Bereich und Zustand seines Umfelds 2 und vergleicht diese mit dem zuvor erfassten Bereich und Zustand seines Umfelds 2. An seiner aktuellen Position befindet sich der Gabelstapler nahe an dem anderen Objekt 8. Beim Vorbeifahren an kartierten Lagerplätzen 9 hat der Gabelstapler 10 einen Freiraum 3 erkannt.
-
In 4 kartiert der Gabelstapler 10 einen weiteren Bereich und Zustand seines Umfelds 2 und vergleicht diese mit einem der zuvor erfassten Bereiche und Zustände seines Umfelds 2. An seiner aktuellen Position befindet sich der Gabelstapler 10 nun vor dem anderen Objekt 8, welches sich in seinem Fahrweg befindet. Zum Umfahren von diesem Objekt 8 ermittelt der Gabelstapler 10 einen potentiellen Freiraum 3 zwischen dem Objekt 8 und den benachbarten Lagerplätzen 9, um zu prüfen ob ein Umfahren des Objekts 8 möglich ist beziehungsweise ob ein Anhalten notwendig ist, um eine Kollision mit dem Objekt 8 zu vermeiden.
-
In den 5 und 6 kartiert der Gabelstapler 10 jeweils einen weiteren Bereich und Zustand seines Umfelds 2 und vergleicht diese mit einem der zuvor erfassten Bereiche und Zustände seines Umfelds 2. Der Gabelstapler 10 umfährt nun das Objekt 8, wobei der Gabelstapler 10 eine Route durch den Freiraum 3 wählt, welcher breiter ist als die Breite des Gabelstaplers 10.
-
In 7 kartiert der Gabelstapler 10 einen weiteren Bereich und Zustand seines Umfelds 2 und vergleicht diese mit einem der zuvor erfassten Bereiche und Zustände seines Umfelds 2. Der Gabelstapler 10 ändert seine Fahrrichtung und biegt nun im Lager ab, wobei er sich auf eine sich bewegende Person 6 zubewegt.
-
In 8 kartiert der Gabelstapler 10 einen weiteren Bereich und Zustand seines Umfelds 2 und vergleicht diese mit einem der zuvor erfassten Bereiche und Zustände seines Umfelds 2. Der Gabelstapler 10 erfasst die in Fahrrichtung sich befindende Person 6 und hält an, da ein jeweiliger Freiraum seitlich der Person für ein Umfahren der Person nicht ausreicht.
-
Das autarke Reagieren des autonomen Gabelstaplers 10 auf Objekte 8 und sich bewegende Personen 6, welche sich in seinem Fahrweg aufhalten zeigt die Vorteile eines fahrzeugspezifischen Kartierens des Umfelds 2 zum Positionieren und Navigieren in einem derart typisch dynamischen Umfeld 2 eines Lagers auf.
-
In 9 ist der Gabelstapler 10 mit einem Steuergerät 50 zum Durchführen der Verfahrensschritte S1, S2, S3, S4, S5 gemäß 1 dargestellt.
-
Die Kameras 22, 24, 26 sind auf einem Dach 12 des Gabelstaplers 10 angeordnet, wobei die erste Kamera 22 als Rückblickskamera, die zweite Kamera 24 als seitlich nach links blickende Kamera und die dritte Kamera 26 als seitlich nach rechts blickende Kamera mit entsprechenden Blickwinkeln nach hinten, nach links und nach rechts eingerichtet sind.
-
Die Kameras 22, 24, 26 sind als Weitwinkelkameras ausgebildet, wobei ihr jeweiliger Blickwinkel bis zu etwa 180 Grad betragen kann. Der erste Radarsensor 32 und der zweite Radarsensor 34 ist jeweils an einem seitlichen Holm 13 einer offenen Fahrerkabine 14 des Gabelstaplers 10 angeordnet. Die Fahrerkabine 14 wird dabei nach oben von dem Dach 12 und nach hinten von den beiden Holmen 13 begrenzt.
-
Bei den Radarsensoren 32, 34 handelt es sich um fächerartig scannende Radarsensoren 32, 34, welche eine Scanebene horizontal, schräg oder vertikal in Höhe ihres jeweiligen Anbringungsortes auf den Holmen 13 ausbilden. In diesem Ausführungsbeispiel sind die Radarsensoren 32, 34 in etwa auf gleicher Höhe an den Holmen 13 angebracht, wodurch sie in einer gemeinsamen Scanebene, beispielsweise in einer horizontalen Ebene, Punktwolken erfassen.
-
Ein weiterer Radarsensor 36 ist unterhalb der anderen Radarsensoren 32, 34 am Chassis 15 des Gabelstaplers 10 in dessen Heckbereich 11 angeordnet. Der weitere Radarsensor 36 kann in einer zu den von den beiden anderen Radarsensoren 32, 34 aufgespannten Scanebene weiteren Scanebene eine Punktwolke erfassen. Die Scanebenen sind hier parallel zueinander, beispielsweise horizontal ausgerichtet.
-
Bei den Kameras 22, 24, 26 sowie bei den Radarsensoren 32, 34, 36 handelt es sich jeweils um baugleiche Kameras beziehungsweise Sensoren.
-
Bezugszeichenliste
-
- 2
- Umfeld
- 3
- Freiraum
- 4
- Karte
- 5
- Passpunkt
- 6
- Person
- 8
- anderes Objekt
- 9
- Lagerplatz
- 10
- Gabelstapler
- 11
- Heckbereich
- 12
- Dach
- 13
- Holm
- 14
- Fahrerkabine
- 15
- Chassis
- 20
- Kameraerfassungsbereich
- 22
- erste Kamera
- 24
- zweite Kamera
- 26
- dritte Kamera
- 30
- Radarerfassungsbereich
- 32
- erster Radarsensor
- 34
- zweiter Radarsensor
- 36
- dritter Radarsensor
- 40
- Auswerteeinheit
- 50
- Steuergerät
- S1
- Umfeldkartierung
- S2
- Umfelderfassung
- S3
- Objektklassifikation
- S4
- Umfeldvergleich
- S5
- Freiraumermittlung
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- DE 102007021693 A1 [0003]