DE202022103063U1 - Vorrichtung zum Ermitteln der räumlichen Lage von Aufnahmeelementen eines Containers - Google Patents

Vorrichtung zum Ermitteln der räumlichen Lage von Aufnahmeelementen eines Containers Download PDF

Info

Publication number
DE202022103063U1
DE202022103063U1 DE202022103063.4U DE202022103063U DE202022103063U1 DE 202022103063 U1 DE202022103063 U1 DE 202022103063U1 DE 202022103063 U DE202022103063 U DE 202022103063U DE 202022103063 U1 DE202022103063 U1 DE 202022103063U1
Authority
DE
Germany
Prior art keywords
container
spatial
points
coordinates
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202022103063.4U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sick AG filed Critical Sick AG
Priority to DE202022103063.4U priority Critical patent/DE202022103063U1/de
Publication of DE202022103063U1 publication Critical patent/DE202022103063U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66CCRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
    • B66C13/00Other constructional features or details
    • B66C13/16Applications of indicating, registering, or weighing devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)

Abstract

Vorrichtung zum Ermitteln der räumlichen Lage von Aufnahmeelementen (21) eines Containers (13), umfassend:
einen sich bewegenden Sensor (17), der ausgebildet ist, um einen jeweiligen Satz (33, 35) räumlicher Koordinaten von Punkten (31) für mehrere voneinander verschiedene Sensorpositionen zu erfassen,
wobei die Punkte (31) in einem Raumbereich liegen, der den Container (13) umfasst, und
eine Auswertungseinheit (19), die ausgebildet ist, um:
die jeweiligen Sätze (33, 35) räumlicher Koordinaten zu einer fusionierten Gesamtheit (41) von Koordinaten zusammenzusetzen,
anhand der fusionierten Gesamtheit (41) der Koordinaten der Punkte (31) eine jeweilige räumliche Lage der Aufnahmeelemente (21) des Containers (13) zu ermitteln.

Description

  • Die vorliegende Erfindung betrifft eine Vorrichtung zum Ermitteln der räumlichen Lage von Aufnahmeelementen eines Containers.
  • Bei der Automatisierung moderner Häfen spielt die Behandlung von Containern eine zentrale Rolle. Zum Bewegen eines Containers, d.h. zum Aufnehmen, Transportieren und erneuten Absetzen eines solchen, wird üblicherweise ein STS-Kran (STS vom Englischen: Ship To Shore) oder ein RTG-Kran (RTG vom Englischen: Rubber Tyred Gantry) verwendet. Der STS- oder RTG-Kran weist eine Laufkatze mit einem Containergeschirr auf, an dem sogenannte Twistlocks angebracht sind. Die Twistlocks sind dafür vorgesehen, in Aufnahmeelemente eines Containers einzugreifen und in diesen befestigt zu werden. Nachdem das Containergeschirr mittels der Twistlocks an dem Container befestigt ist, kann dieser mittels der Laufkatze des STS- oder RTG-Krans angehoben und zu einer gewünschten Position transportiert werden, an welcher der Container wieder abgesetzt wird.
  • Um den Container im Rahmen eines automatisierten Vorgangs aufzunehmen und anheben zu können, ist es notwendig, die Position der Aufnahmeelemente, beispielsweise sogenannter Corner Castings, genau zu ermitteln. Darüber hinaus sollte der Zustand der Aufnahmeelemente bzw. Corner Castings untersucht werden können, um beispielsweise zu ermitteln, ob diese defektfrei sind oder ob ein Twistlock in einem jeweiligen Corner Casting vorhanden und/oder korrekt angebracht ist.
  • Um die Position und den Zustand von Aufnahmeelementen bzw. Corner Castings eines Containers zu ermitteln, kann beispielsweise LIDAR-Technologie oder eine ähnliche optische Sensorik verwendet werden. Bei solchen Technologien reicht jedoch die räumliche Auflösung meistens nicht aus, um die Position und den Zustand von Aufnahmeelementen bzw. Corner Castings eines Containers zuverlässig zu ermitteln.
  • Eine Aufgabe der Erfindung besteht folglich darin, eine Vorrichtung zu schaffen, mit der die räumliche Lage von Aufnahmeelementen eines Containers zuverlässig ermittelt werden kann.
  • Diese Aufgabe wird durch eine Vorrichtung mit den Merkmalen des Anspruchs 1 gelöst.
  • Die Vorrichtung umfasst einen sich bewegenden Sensor und eine Auswertungseinheit. Der sich bewegende Sensor ist ausgebildet, um einen jeweiligen Satz räumlicher Koordinaten von Punkten für mehrere voneinander verschiedene Sensorpositionen zu ermitteln. Die Punkte liegen in einem Raumbereich, der einen Container umfasst. Die Auswertungseinheit ist ausgebildet, um die jeweiligen Sätze räumlicher Koordinaten zu einer fusionierten Gesamtheit von Koordinaten zusammenzusetzen. Anhand der fusionierten Gesamtheit der Koordinaten der Punkte ermittelt die Auswertungseinheit eine jeweilige räumliche Lage der Aufnahmeelemente des Containers.
  • Der sich bewegende Sensor kann als ein LIDAR-Sensor ausgebildet sein, mit dem ein vorbestimmter Raumbereich abgetastet werden kann, der durch das Sichtfeld des LIDAR-Sensors vorgegeben ist. Der Sensor kann also zur Entfernungsmessung ausgebildet sein, beispielsweise durch eine Messung der Lichtlaufzeit von vom Sensor ausgesandten Lichtpulsen. Durch jede Entfernungsmessung kann die räumliche Lage z.B. eines Punkts der Oberfläche des Containers als räumliche Koordinaten ermittelt werden.
  • Ferner kann der sich bewegende Sensor als ein zweidimensionaler Laserscanner ausgebildet sein, wobei ein von einem Laser erzeugter Lichtstrahl mit Hilfe einer Ablenkeinheit periodisch einen vorbestimmten Raumbereich abtastet. Das Licht wird an Objekten in dem Raumbereich (z.B. der Oberfläche eines Containers) remittiert und in dem Scanner ausgewertet. Aus der Winkelstellung der Ablenkeinheit wird auf die Winkellage des Objektes und aus der Lichtlaufzeit unter Verwendung der Lichtgeschwindigkeit zusätzlich auf die Entfernung des Objektes von dem Laserscanner geschlossen. Mit den Winkel- und Entfernungsangaben ist der Ort eines Objektes in dem Raumbereich in zweidimensionalen Polarkoordinaten erfasst. Damit lassen sich die Positionen von Objekten ermitteln oder deren Kontur bestimmen. Alternativ kann der sich bewegende Sensor als dreidimensionaler Laserscanner ausgebildet sein, wobei eine Relativbewegung in Querrichtung ebenfalls erfasst wird, beispielsweise durch einen weiteren Bewegungsfreiheitsgrad der Ablenkeinheit in dem Laserscanner. So können auch dreidimensionale Konturen ausgemessen werden.
  • Die Bewegung des Sensors kann dadurch erfolgen, dass dieser an einer Laufkatze eines Krans oberhalb des Containers angebracht ist. Der Sensor kann sich in diesem Fall beispielsweise mit der Laufkatze in Querrichtung des Containers und mit dem Kran in Längsrichtung des Containers bewegen. Alternativ oder zusätzlich kann der Sensor zur Bewegung an einer Einrichtung angebracht sein, die den Sensor rotiert oder kippt, beispielsweise bezogen auf die Laufkatze des Krans. Allgemein bezieht sich der Begriff „sich bewegender Sensor“ somit auf eine relative Bewegung des Sensors bezogen auf den Container, die sowohl eine Rotation als auch eine Translation umfassen kann.
  • Die räumlichen Koordinaten der Punkte des jeweiligen Satzes sind bevorzugt bezogen auf einen festen Raumpunkt definiert, beispielsweise bezogen auf eine Anfangsposition des sich bewegenden Sensors. Ferner umfassen die räumlichen Koordinaten beispielsweise kartesische x-, y- und z-Koordinaten der jeweiligen Punkte. Die räumliche Lage der Aufnahmeelemente des Containers umfasst einerseits deren Position im Raum einschließlich ihrer Abmessungen und andererseits die räumliche Orientierung der Aufnahmeelemente, d.h. drei Raumwinkel, die in demjenigen Koordinatensystem definiert sind, auf das sich die räumlichen Koordinaten der Punkte beziehen. Koordinaten von Punkten in den jeweiligen Sätzen können ferner an Außenflächen des Containers ermittelt werden.
  • Das Zusammensetzen der jeweiligen Sätze räumlicher Koordinaten der Punkte zu einer fusionierten Gesamtheit von Koordinaten kann derart erfolgen, dass die jeweiligen Sätze räumlicher Koordinaten für die jeweilige Sensorposition in ein gemeinsames Welt-Koordinatensystem überführt bzw. transformiert werden. Wenn der Sensor an einer Laufkatze eines Krans angebracht ist, kann eine jeweilige Transformationsmatrix für den entsprechenden Satz der Koordinaten beispielsweise anhand der momentanen Position der Laufkatze und/oder des Krans ermittelt werden. Zusätzlich oder alternativ kann eine solche Transformationsmatrix die Position und die Orientierung einer Einrichtung berücksichtigen, die zum Rotieren und/oder Verkippen des Sensors vorgesehen sein kann.
  • Die Transformation der Koordinaten zum Erzeugen der fusionierten Gesamtheit kann lediglich eine Vektoraddition beispielsweise der x-, y- und z-Koordinaten eines Punktes bzw. Messpunktes und der momentanen Position der Laufkatze in dem vordefinierten Welt-Koordinatensystem umfassen. Die Transformation kann jedoch auch eine Rotation zwischen dem Sensor- und dem Weltkoordinatensystem beinhalten. Beide Fälle lassen sich durch die Links-Multiplikation der Koordinaten mit einer homogenen Transformationsmatrix (4x4 Matrix) realisieren.
  • Die Ermittlung der räumlichen Lage der Aufnahmeelemente kann einerseits direkt anhand der fusionierten Gesamtheit der Koordinaten der Punkte erfolgen, die mittels des sich bewegenden Sensors insgesamt detektiert werden. Beispielsweise kann bei bekannter Geometrie der Aufnahmeelemente des Containers ein Modell eines jeweiligen Aufnahmeelements an eine „Wolke“ erfasster Punkte in einem vordefinierten Raumbereich angepasst werden. Der vordefinierte Raumbereich für eine solche Anpassung kann beispielsweise anhand einer bekannten Containergeometrie als ein Bereich festgelegt werden, in welchem sich das jeweilige Aufnahmeelement höchstwahrscheinlich befindet.
  • Alternativ kann die räumliche Lage der Aufnahmeelemente indirekt ermittelt werden, indem zunächst die räumliche Lage des Containers insgesamt ermittelt wird. Anschließend kann die räumliche Lage der jeweiligen Aufnahmeelemente anhand der ermittelten räumlichen Lage des Containers und anhand einer bekannten Containergeometrie bestimmt werden.
  • Die Verwendung von „Vorwissen“ bezüglich des Containers, z.B. bezogen auf den vordefinierten Raumbereich des Containers oder dessen räumliche Lage, kann die Datenmenge reduzieren, die von der Auswertungseinheit zu verarbeiten ist. Dadurch kann sich der computertechnische Aufwand verringern, der zum Betreiben der Vorrichtung erforderlich ist. Ferner kann sich die Verarbeitungsgeschwindigkeit erhöhen.
  • Bei den Aufnahmeelementen des Containers handelt es sich beispielsweise um Befestigungs-Aufnahmen oder Corner Castings, an denen der Container zum Anheben befestigt werden kann. Die Aufnahmeelemente des Containers befinden sich jedoch nicht notwendigerweise in jeweiligen Ecken an der Oberseite des Containers.
  • Da mehrere Sätze räumlicher Koordinaten für die voneinander verschiedenen Sensorpositionen miteinander fusioniert werden, wird einerseits die räumliche Auflösung im Vergleich zu einem sich nicht bewegenden Sensor erhöht, insbesondere dann, wenn sich die Raumbereiche überlagern, in denen die jeweiligen Sätze der räumlichen Koordinaten von Punkten erfasst werden. Ferner wird durch die Fusion der mehreren Sätze von räumlichen Koordinaten der Punkte der räumliche Sichtbereich im Vergleich zu einem sich nicht bewegenden Sensor erweitert. Durch die Erhöhung der Auflösung und die Erweiterung des Sichtbereichs lässt sich die räumliche Lage der Aufnahmeelemente des Containers genauer und zuverlässiger ermitteln.
  • Die Behandlung bzw. der Transport des Containers kann somit auf einfachere und schnellere Weise erfolgen, und es kann ein höherer Automatisierungsgrad erreicht werden, da beispielsweise der Zeitaufwand für eine optionale manuelle Kontrolle verringert ist, beispielsweise vor dem Anheben des Containers. Darüber hinaus wird auch das Unfallrisiko gesenkt, das mit einer solchen Kontrolle bzw. Inspektion, beispielsweise durch einen Hafenmitarbeiter, verbunden ist.
  • Vorteilhafte Weiterbildungen der Erfindung sind in den Unteransprüchen, der Beschreibung und den Zeichnungen angegeben.
  • Gemäß einer Ausführungsform können die mehreren voneinander verschiedenen Sensorpositionen einem jeweiligen Zeitpunkt zugeordnet sein, zu dem der sich bewegende Sensor einen jeweiligen Satz der räumlichen Koordinaten der Punkte erfasst.
  • Der Sensor kann bei dieser Ausführungsform an einem Kran fest angebracht sein, beispielsweise an dessen Laufkatze, der zum Bewegen des Containers vorgesehen ist. Der Sensor wird somit lediglich mit dem Kran bzw. der Laufkatze mitbewegt, und ein jeweiliger Satz räumlicher Koordinaten der Punkte, der beispielsweise einen Teilbereich an der Oberfläche des Containers abdeckt, kann beispielsweise zu vordefinierten Zeitpunkten und/oder mit gleichen Zeitintervallen zwischen diesen erfasst werden. Bei einer solchen festen Installation des Sensors, beispielsweise am Kran oder an der Laufkatze, entfallen weitere Elemente zur Bewegung des Sensors, so dass folglich auch kein Wartungsaufwand für solche Elemente erforderlich ist.
  • Der sich bewegende Sensor kann einen oder mehrere Sensoren und eine Einrichtung zum jeweiligen Verkippen des einen Sensors oder der mehreren Sensoren umfassen. Es kann eine mechanische Einheit zum Verkippen des Sensors vorgesehen sein, die auch als Swivel Unit bezeichnet wird. Der eine Sensor oder die mehreren Sensoren können wiederum an einer Laufkatze eines Krans angebracht sein, der zum Bewegen des Containers vorgesehen ist.
  • Wenn der Sensor beispielsweise als eine dreidimensionaler Scanner ausgebildet ist, der eine Oberseite des Containers vollständig erfassen kann, kann eine solche Ausführungsform der Vorrichtung nicht auf eine Bewegung eines Krans und/oder einer Laufkatze eines solchen angewiesen sein, um die räumlichen Koordinaten von Punkten an voneinander verschiedenen Sensorpositionen erfassen zu können. Vielmehr können mittels der Einrichtung zum Verkippen bereits unterschiedliche Sensorpositionen eingestellt werden. Die Einrichtung zum Verkippen ist allerdings mit zusätzlichen Kosten verbunden und erfordert zusätzlichen Wartungsaufwand im Vergleich zu einem Sensor, der an einem Kran fest installiert ist und sich lediglich mit diesem mitbewegt. Der Sensor kann ferner zusätzlich mit einer Laufkatze eines Krans, an welcher der Sensor angebracht sein kann, bewegt werden, insbesondere dann, wenn der Sensor die Oberseite des Containers nicht vollständig erfassen kann, wie etwa bei einem Linienscanner. Insgesamt ergibt sich bei einer solchen Ausführungsform eine Erhöhung der Auflösung und eine Erweiterung des Sichtbereichs der Vorrichtung.
  • Gemäß einer weiteren Ausführungsform kann der Sensor an einer Laufkatze eines Krans angebracht sein, der zum Bewegen des Containers vorgesehen ist. Die Auswertungseinheit kann ferner ausgebildet sein, um eine momentane Position der Laufkatze zu erfassen und eine jeweilige der voneinander verschiedenen Sensorpositionen anhand der momentanen Position der Laufkatze zu ermitteln.
  • Bei dieser Ausführungsform wird somit die Position der Laufkatze nachverfolgt, um die voneinander verschiedenen Sensorpositionen festzulegen, an denen die jeweiligen Sätze der räumlichen Koordinaten der Punkte erfasst werden. Ein Messsignal, das die momentane Position der Laufkatze bezogen auf den Kran angibt, kann ohnehin im Rahmen der Steuerung des Krans vorhanden und verfügbar sein oder durch eine zusätzliche Messeinheit (z.B. durch eine inertiale Messeinheit (IMU) oder durch einen Encoder) am Kran, an der Laufkatze oder am Sensor gemessen werden. In diesem Fall verringert sich der Aufwand, der zum Ermitteln der voneinander verschiedenen Sensorpositionen erforderlich ist, da diese von der Position der Laufkatze abgeleitet werden können.
  • Gemäß einer weiteren Ausführungsform kann die Auswertungseinheit ferner ausgebildet sein, um eine dreidimensionale Registrierung der jeweiligen Sätze räumlicher Koordinaten der Punkte für die mehreren voneinander verschiedenen Sensorpositionen mittels eines vordefinierten Algorithmus durchzuführen. Der vordefinierte Algorithmus kann ein klassischer Algorithmus sein, z.B. ein Iterative Closest Point Algorithmus (ICP-Algorithmus), oder ein modellbasierter Algorithmus, um die jeweiligen Sätze räumlicher Koordinaten der Punkte entsprechend der Bewegung des Sensors zu fusionieren bzw. zusammenzusetzen. Der modellbasierte Algorithmus kann einen Algorithmus des maschinellen Lernens verwenden, beispielsweise ein neuronales Netz.
  • Bei der Verwendung des vordefinierten Algorithmus kann darauf verzichtet werden, die Bewegung der Laufkatze zu erfassen, an welcher der Sensor angebracht sein kann, um die Sätze räumlicher Koordinaten anhand der Bewegung der Laufkatze zu fusionieren. Dadurch entfällt die Abhängigkeit der Vorrichtung von einer weiteren Einflussgröße bzw. von einem externen Messsignal.
  • Darüber hinaus kann der Algorithmus vorbestimmte Informationen bezüglich der Geometrie des Containers verwenden. Der Algorithmus ist folglich mit einem gewissen Vorwissen bezüglich des Containers und der Position der Aufnahmeelemente ausgestattet. Dadurch kann sich der Aufwand zum Ausführen des Algorithmus verringern, und die Genauigkeit der Ausgabe, d.h. die jeweilige räumliche Lage der Aufnahmeelemente des Containers, kann verbessert werden.
  • Durch die Fusion der räumlichen Koordinaten (d.h. von Messpunkten) wird so z.B. ein Datensatz mit einer höheren Dichte von räumlichen Koordinaten/Messpunkten geschaffen.
  • Die Auswertungseinheit kann ferner ausgebildet sein, um anhand der fusionierten Gesamtheit der Koordinaten der Punkte eine räumliche Position und eine räumliche Orientierung des Containers zu ermitteln und anhand der räumlichen Position und der räumlichen Orientierung des Containers die jeweilige räumliche Lage der Aufnahmeelemente des Containers zu ermitteln. Bei dieser Ausführungsform erfolgt die Ermittlung der räumlichen Lage der Aufnahmeelemente somit indirekt, indem zunächst der Container als Ganzes betrachtet und an die Punktwolke, d.h. die fusionierte Gesamtheit der Koordinaten der Punkte, bezüglich seiner räumlichen Lage angepasst wird. Da die räumliche Lage der Aufnahmeelemente innerhalb des Containers bekannt sein kann, kann somit der Aufwand zur Ermittlung der jeweiligen räumlichen Lage der Aufnahmeelemente verringert sein, da sich der Container als Ganzes auf einfachere Weise an die Punktwolke anpassen lässt.
  • Darüber hinaus kann eine solche Anpassung des gesamten Containers im Vergleich zu einer Anpassung jeweiliger Aufnahmeelemente mit größerer Genauigkeit erfolgen. Die Auswertungseinheit kann die fusionierte Gesamtheit der Koordinaten beispielsweise an ein einfaches Modell des Containers anpassen, z.B. mittels eines bekannten Fitting-Algorithmus. Alternativ kann wiederum ein Algorithmus des maschinellen Lernens verwendet werden, wie beispielsweise ein neuronales Netz, um die Position und die Ausrichtung des Containers zu schätzen.
  • Weiterhin kann die Auswertungseinheit ausgebildet sein, um anhand der fusionierten Gesamtheit der Koordinaten der Punkte einen Zustand des jeweiligen Aufnahmeelements des Containers zu ermitteln. Bei dieser Ausführungsform werden somit nicht nur die räumliche Lage, sondern darüber hinaus weitere Eigenschaften der Aufnahmeelemente ermittelt. Der Zustand des jeweiligen Aufnahmeelements kann einen defekten Zustand, einen Zustand mit Twistlock in dem jeweiligen Aufnahmeelement oder einen Zustand ohne Twistlock in dem jeweiligen Aufnahmeelement umfassen.
  • Wenn anhand der fusionierten Gesamtheit der Koordinaten ein defekter Zustand einer der Aufnahmeelemente ermittelt wird, kann beispielsweise die Verbindung eines Containergeschirrs bzw. der Twistlocks mit dem Container unterbunden werden, bevor versucht wird, den Container anzuheben. Dadurch kann das Unfallrisiko verringert werden, das beispielsweise mit dem Greifen eines defekten Corner Castings bzw. defekten Aufnahmeelements verbunden sein kann. Die Erfassung eines vorhandenen oder nicht vorhandenen Twistlocks in einem jeweiligen Aufnahmeelement kann darüber hinaus die Steuerung beim Anheben des Containers vereinfachen, wenn die Vorrichtung Informationen bezüglich der Zustände von Twistlocks in den jeweiligen Aufnahmeelementen für andere Steuerungen bereitstellt.
  • Nachfolgend wird die Erfindung beispielhaft anhand einer vorteilhaften Ausführungsform unter Bezugnahme auf die beigefügten Figuren beschrieben. Es zeigen, jeweils schematisch:
    • 1 einen Kran, einen Container und eine erfindungsgemäße Vorrichtung,
    • 2 ein Aufnahmeelement eines Containers in der Form eines Corner Castings,
    • 3 eine Darstellung für das Zusammensetzen zweier Sätze von Punkten und
    • 4 eine fusionierte Gesamtheit von Punkten, die an der Oberseite von Containern erfasst wurden.
  • 1 zeigt eine schematische Darstellung eines Krans 11, der zum Bewegen eines Containers 13 vorgesehen ist. Der Kran 11 umfasst zu diesem Zweck eine Laufkatze 15, an der zum Anheben, Bewegen und Absetzen des Containers 13 ein nicht dargestelltes Containergeschirr mit sogenannten Twistlocks angebracht ist. Der Kran 11 ist beispielsweise ein STS-Kran (STS vom Englischen: Ship To Shore) oder ein RTG-Kran (RTG vom Englischen: Rubber Tyred Gantry), wie sie typischerweise in modernen Hafenanlagen verwendet werden.
  • An der Laufkatze 15 ist ein Sensor 17 befestigt, der als LIDAR-Sensor ausgebildet ist. Der Sensor 17 weist daher einen Laserscanner auf, der einen gewissen Raumbereich an der Oberseite des Containers 13 erfasst. Mittels einer Detektionseinheit ist der Sensor 17 ferner ausgebildet, um einen Satz räumlicher Koordinaten von Punkten aus dem Sichtbereich des Sensors 17 zu erfassen, d.h. an der Oberseite des Containers 13.
  • Der Sensor 17 ist ferner mittels einer elektronischen Kommunikationsverbindung 18 mit einer Auswertungseinheit 19 verbunden. Die Auswertungseinheit 19 ist dafür vorgesehen, die jeweilige räumliche Lage von Aufnahmeelementen 21 (vgl. 2) an der Oberseite des Containers 13 zu ermitteln. Die Aufnahmeelemente 21 werden auch als „Corner Castings“ bezeichnet, da diese als Gussteile in jeweiligen oberen Ecken des Containers 13 angeordnet sind. Um den Container 13 anzuheben, werden die Twistlocks, die an dem nicht dargestellten Containergeschirr der Laufkatze 15 angebracht sind, jeweils mit den Aufnahmeelementen bzw. Corner Castings 21 des Containers 13 in Eingriff gebracht und befestigt.
  • Um eine solche Befestigung zuverlässig herzustellen, müssen bei einem automatisierten Vorgang, bei dem der Container ohne manuelle Unterstützung und Überprüfung bewegt werden soll, die Positionen der Aufnahmeelemente bzw. Corner Castings 21 sowie die Position und Orientierung des Containers insgesamt bekannt sein. Ferner ist es notwendig, dass auch der Zustand der Corner Castings 21 bekannt ist, d.h. ob diese defektfrei sind und ob momentan ein Twistlock in dem jeweiligen Corner Casting 21 angeordnet ist oder nicht.
  • In 2 sind außer dem Aufnahmeelement bzw. Corner Casting 21 Punkte 23 dargestellt, die mittels eines bekannten Sensors entlang Laserlinien 25 an der Oberseite eines Containers 13 ermittelt wurden. Die Punkte 23 sind somit das Ergebnis eines Scans entlang der zwei Laserlinien 25 mittels des bekannten LIDAR-Sensors.
  • Wie in 2 zu erkennen ist, weisen die Punkte 23 eine geringe Dichte auf, was einer geringen Auflösung des bekannten LIDAR-Sensors entspricht. Es könnte zwar möglich sein, mit Hilfe der Punkte 23 anhand eines geeigneten Auswerteverfahrens die Position und die Ausrichtung des Containers 13 zu ermitteln, wenn für diesen bekannte Informationen seiner Geometrie bereitgestellt werden. Eine zuverlässige Ermittlung der räumlichen Lage der Corner Castings 21 ist jedoch anhand der Punkte 23 kaum möglich.
  • Um dieses Problem aufgrund der geringen räumlichen Auflösung bekannter LIDAR-Sensoren zu lösen, ist vorgesehen, dass mit der erfindungsgemäßen Vorrichtung an mehreren voneinander verschiedenen Sensorpositionen ein jeweiliger Satz 33, 35 räumlicher Koordinaten von Punkten 31 erfasst wird (vgl. 3), indem der Sensor 17 (vgl. 1) zusammen mit der Laufkatze 15 bewegt wird. Mit anderen Worten werden während der Bewegung der Laufkatze 15 an voneinander verschiedenen Positionen des Sensors 17 jeweilige Scans an der Oberseite des Containers 13 durchgeführt, um an jeder dieser Positionen des Sensors 17 einen jeweiligen Satz 33, 35 räumlicher Koordinaten von Punkten 31 an der Oberseite des Containers 13 zu ermitteln.
  • Die jeweiligen Sätze 33, 35 räumlicher Koordinaten der Punkte 31 werden somit mittels des Sensors 17 zu verschiedenen Zeitpunkten und ausgehend von verschiedenen räumlichen Positionen erfasst und an die Auswertungseinheit 19 übertragen. Die Auswertungseinheit 19 setzt die jeweiligen Sätze 33, 35 der räumlichen Koordinaten bzw. Punkte 31, die für die Oberfläche des Containers 13 ermittelt werden, zu einer fusionierten Gesamtheit 41 (vgl. 4) von Koordinaten bzw. Punkten 31 zusammen.
  • Ein Beispiel eines solchen Zusammensetzens zweier Sätze 33, 35 von Punkten 31 ist schematisch in 3 dargestellt. Im Bereich der Oberseite des Containers 13 wird mittels des Sensors 17 (vgl. 1) eine erste Punktwolke bzw. der erste Satz 33 von Punkten 31 und eine zweite Punktwolke bzw. der zweite Satz 35 von Punkten 31 erfasst, die einen Überlagerungsbereich 37 aufweisen. Zur besseren Veranschaulichung sind die beiden Punktwolken 33, 35 mit einer gestrichelten Linie bzw. einer strichpunktierten Linie umgeben, die leicht gegeneinander versetzt sind.
  • Man erkennt, dass durch die Fusion der beiden Punktwolken 33, 35 die Dichte der Punkte 31 und damit die Auflösung des Sensors 17 im Überlagerungsbereich 37 deutlich erhöht ist. Dies gilt insbesondere für den Bereich 38 des linken unteren Corner Castings des Containers 13, der innerhalb des Überlagerungsbereichs 37 liegt und eine größere Dichte von Punkten 31 aufweist als der Bereich 39 des rechten Corner Castings, der außerhalb des Überlagerungsbereichs 37 liegt. Durch die Fusion der Punktwolken 33, 35 ist es folglich möglich, die räumliche Lage des Corner Castings im Bereich 38 mit größerer Zuverlässigkeit zu ermitteln.
  • 4 zeigt eine fusionierte Gesamtheit 41 von Punkten 31, die an der Oberseite zweier benachbarter Container 13 ermittelt wurden. Die Umrisse der Container 13 wurden der Übersichtlichkeit halber in 4 weggelassen. Dennoch sind die Abmessungen der Oberseite des rechten Containers 13 anhand der fusionierten Gesamteinheit 41 der Punkte erkennbar.
  • Die fusionierte Gesamtheit 41 ist durch Zusammensetzen einer Vielzahl jeweiliger Sätze räumlicher Koordinaten von Punkten 31 gebildet, die an einer entsprechenden Vielzahl voneinander verschiedener Sensorpositionen erfasst wurden. Zum Erfassen der Vielzahl jeweiliger Sätze von Punkten 31 wurde der Sensor 17 (vgl. 1) zusammen mit der Laufkatze 15 entlang der Oberseite des Containers 13 bewegt. Somit erfolgte eine Bewegung des Sensors 17 relativ zu dem Container 13, indem der Kran 11 als Ganzes in einer Längsrichtung bezüglich des Containers und die Laufkatze 15 in einer Querrichtung bezüglich des Containers bewegt wurde.
  • Um die Vielzahl von Sätzen räumlicher Koordinaten bzw. Punkten 31 zusammenzusetzen, wurden für jeden Satz die jeweiligen Positionen der Laufkatze 15 während deren Bewegung erfasst. Anhand der Verschiebung der Laufkatze 15 ermittelte die Auswertungseinheit 19 die räumliche Lage der jeweiligen Sätze von Koordinaten, die an den jeweiligen Sensorpositionen ermittelt wurden, um die Sätze der Koordinaten anschließend zusammenzusetzen und die fusionierte Gesamtheit 41 der Punkte zu bilden, die in 4 gezeigt ist.
  • In 4 sind ferner wiederum räumliche Bereiche 38 dargestellt, in denen sich die Corner Castings 21 (vgl. 2) befinden. Wie in 4 zu erkennen ist, reicht die Dichte der Punkte innerhalb der räumlichen Bereiche 38 aus, um die räumliche Lage der Corner Castings bzw. Aufnahmeelemente 21 des Containers 13 zu ermitteln. Eine solche Ermittlung erfolgt mittels eines geeigneten Algorithmus direkt anhand der Punkte innerhalb der räumlichen Bereiche 38, indem entweder ein geometrisches Modell der Corner Castings 21 an die Punkte angepasst wird oder indem die Sätze räumlicher Koordinaten der Punkte 31 in dem räumlichen Bereich 38 ausgewertet werden, beispielsweise bezüglich einer Statistik der z-Werte der Punkte, d.h. senkrecht zur Oberseite des Containers 13. Alternativ oder zusätzlich ist es auch möglich, die räumliche Lage des Containers 13 insgesamt anhand der fusionierten Gesamtheit 41 von Punkten zu ermitteln, beispielsweise ebenfalls durch Anpassung eines geometrischen Modells für den Container 13. Anschließend kann die räumliche Lage der Corner Castings innerhalb der räumlichen Bereiche 38 basierend auf der ermittelten räumlichen Lage des gesamten Containers 31 bestimmt werden, indem beispielsweise wiederum eine bekannte Containergeometrie sozusagen als „a-priori-Wissen“ verwendet wird.
  • Insgesamt gestattet die Vorrichtung eine genaue Ermittlung der räumlichen Lage der Aufnahmeelemente bzw. Corner Castings 21 des Containers 13, indem mehrere Sätze 33, 35 von Punkten 31 an voneinander verschiedenen Positionen des Sensors 17 erfasst und zu der fusionierten Gesamtheit 41 von Punkten 31 zusammengesetzt werden. Dadurch wird die Dichte der Punkte 31 und damit die entsprechende räumliche Auflösung der Vorrichtung verbessert, so dass die räumliche Lage der Aufnahmeelemente bzw. Corner Castings 21 mit größerer Zuverlässigkeit ermittelt werden kann.
  • Darüber hinaus kann anhand der Punkte 31 innerhalb der räumlichen Bereiche 38 (vgl. 4) der Zustand der Aufnahmeelemente 21 ermittelt werden. Dies bedeutet, dass anhand der Punkte innerhalb der räumlichen Bereiche 38 entschieden werden kann, ob das jeweilige Aufnahmeelement bzw. Corner Casting 21 defektfrei ist. Dies kann beispielsweise durch die Anpassung eines Modells der Corner Castings 21 an die Punkte 31 in den Bereichen 38 und die Berechnung der mittleren Abweichungen bzw. Abstände der Punkte 31 von dem angepassten Modell erfolgen. Ebenso kann anhand der Punkte 31 innerhalb der räumlichen Bereiche 38 festgestellt werden, ob ein Twistlock in dem jeweiligen Aufnahmeelement 21 angeordnet ist oder nicht. Dadurch lässt sich der Automatisierungsgrad bei der Behandlung von Containern mittels der erfindungsgemäßen Vorrichtung weiter verbessern.
  • Bezugszeichenliste
  • 11
    Kran
    13
    Container
    15
    Laufkatze
    17
    Sensor
    18
    elektronische Kommunikationsverbindung
    19
    Auswertungseinheit
    21
    Aufnahmeelement bzw. Corner Casting
    23
    Punkte
    25
    Laserlinie
    31
    Punkte
    33
    erste Punktwolke bzw. erster Satz von Punkten
    35
    zweite Punktwolke bzw. zweiter Satz von Punkten
    37
    Überlagerungsbereich
    38, 39
    Bereich der Aufnahmeelemente bzw. Corner Castings
    41
    fusionierte Gesamtheit von Koordinaten bzw. Punkten

Claims (9)

  1. Vorrichtung zum Ermitteln der räumlichen Lage von Aufnahmeelementen (21) eines Containers (13), umfassend: einen sich bewegenden Sensor (17), der ausgebildet ist, um einen jeweiligen Satz (33, 35) räumlicher Koordinaten von Punkten (31) für mehrere voneinander verschiedene Sensorpositionen zu erfassen, wobei die Punkte (31) in einem Raumbereich liegen, der den Container (13) umfasst, und eine Auswertungseinheit (19), die ausgebildet ist, um: die jeweiligen Sätze (33, 35) räumlicher Koordinaten zu einer fusionierten Gesamtheit (41) von Koordinaten zusammenzusetzen, anhand der fusionierten Gesamtheit (41) der Koordinaten der Punkte (31) eine jeweilige räumliche Lage der Aufnahmeelemente (21) des Containers (13) zu ermitteln.
  2. Vorrichtung nach Anspruch 1, wobei die mehreren voneinander verschiedenen Sensorpositionen einem jeweiligen Zeitpunkt zugeordnet sind, zu dem der sich bewegende Sensor (17) einen jeweiligen Satz (33, 35) der räumlichen Koordinaten der Punkte (31) erfasst.
  3. Vorrichtung nach Anspruch 1 oder 2, wobei der sich bewegende Sensor (17) einen oder mehrere Sensoren (17) und eine Einrichtung zum jeweiligen Verkippen des einen oder der mehreren Sensoren (17) umfasst.
  4. Vorrichtung nach einem der vorstehenden Ansprüche, wobei der Sensor (17) an einer Laufkatze (15) eines Krans (11) angebracht ist, der zum Bewegen des Containers (13) vorgesehen ist, und die Auswertungseinheit (19) ferner ausgebildet ist, um: eine momentane Position der Laufkatze (15) zu erfassen und eine jeweilige der voneinander verschiedenen Sensorpositionen anhand der momentanen Position der Laufkatze (15) zu ermitteln.
  5. Vorrichtung nach einem der Ansprüche 1 bis 3, wobei die Auswertungseinheit (19) ferner ausgebildet ist, um: eine dreidimensionale Registrierung der jeweiligen Sätze (33, 35) räumlicher Koordinaten der Punkte (31) für die mehreren voneinander verschiedenen Sensorpositionen mittels eines vordefinierten Algorithmus durchzuführen.
  6. Vorrichtung nach Anspruch 5, wobei der Algorithmus vorbestimmte Informationen bezüglich der Geometrie des Containers (13) verwendet.
  7. Vorrichtung nach einem der vorstehenden Ansprüche, wobei die Auswertungseinheit (19) ferner ausgebildet ist, um: anhand der fusionierten Gesamtheit (41) der Koordinaten der Punkte (31) eine räumliche Position und eine räumliche Orientierung des Containers (13) zu ermitteln und anhand der räumlichen Position und der räumlichen Orientierung des Containers (13) die jeweilige räumliche Lage der Aufnahmeelemente des Containers (13) zu ermitteln.
  8. Vorrichtung nach Anspruch 7, wobei die Auswertungseinheit (19) die fusionierte Gesamtheit (41) der Koordinaten an ein Modell des Containers (13) anpasst.
  9. Vorrichtung nach einem der vorstehenden Ansprüche, wobei die Auswertungseinheit (19) ferner ausgebildet ist, um anhand der fusionierten Gesamtheit (41) der Koordinaten der Punkte (31) einen Zustand des jeweiligen Aufnahmeelements des Containers (13) zu ermitteln.
DE202022103063.4U 2022-05-31 2022-05-31 Vorrichtung zum Ermitteln der räumlichen Lage von Aufnahmeelementen eines Containers Active DE202022103063U1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202022103063.4U DE202022103063U1 (de) 2022-05-31 2022-05-31 Vorrichtung zum Ermitteln der räumlichen Lage von Aufnahmeelementen eines Containers

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202022103063.4U DE202022103063U1 (de) 2022-05-31 2022-05-31 Vorrichtung zum Ermitteln der räumlichen Lage von Aufnahmeelementen eines Containers

Publications (1)

Publication Number Publication Date
DE202022103063U1 true DE202022103063U1 (de) 2023-09-04

Family

ID=88094449

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202022103063.4U Active DE202022103063U1 (de) 2022-05-31 2022-05-31 Vorrichtung zum Ermitteln der räumlichen Lage von Aufnahmeelementen eines Containers

Country Status (1)

Country Link
DE (1) DE202022103063U1 (de)

Similar Documents

Publication Publication Date Title
EP1987371B1 (de) Verfahren zur detektion von objekten mit einer schwenkbaren sensoreinrichtung
DE19858750B4 (de) Verfahren und Vorrichtungen zum Bestimmen der Position, Größe und Ausrichtung eines Objekts
DE102007046287B4 (de) Verfahren zur Kalibrierung einer Sensoranordnung
EP1788347B1 (de) Verfahren zur automatischen Parametrierung von Messsystemen
WO2000063681A2 (de) Bildbearbeitung zur vorbereitung einer texturnalyse
DE102014011821A1 (de) Vorrichtung und Verfahren zur Volumenbestimmung eines durch ein Flurförderzeug bewegten Objekts
EP3316181B1 (de) Verfahren zum erkennen von objekten in einem lager und flurförderzeug mit einer einrichtung zum erkennen von objekten in einem lager
EP3750842B1 (de) Verladen einer last mit einem kransystem
EP2037227A1 (de) Verfahren und Vorrichtung zum Bestimmen der Position eines Fahrzeugs
EP2356400B1 (de) Roboter zur automatischen 3d-vermessung und verfahren
DE102020118629A1 (de) Computerimplementiertes Verfahren zum Bestimmen der Validität einer geschätzten Position eines Fahrzeugs
DE102020105215A1 (de) Verfahren zum Kalibrieren einer Sensoreinheit eines Flurförderzeugs
EP2385014A1 (de) Flurförderzeug mit einer Einrichtung zur Identifizierung eines geladenen Transportgutes, und Verfahren zur Identifizierung eines geladenen Transportgutes eines Flurförderzeugs
EP4286790B1 (de) Vorrichtung und verfahren zum ermitteln der räumlichen lage von aufnahmeelementen eines containers
DE202022103063U1 (de) Vorrichtung zum Ermitteln der räumlichen Lage von Aufnahmeelementen eines Containers
EP3659113B1 (de) Erkennungssystem, arbeitsverfahren und trainingsverfahren zum erzeugen eines 3d-modells mit referenzdaten
DE102019209861A1 (de) System und Verfahren zur Visualisierung von Oberflächendefekten auf einem Werkstück
DE102007046288B4 (de) Verfahren und Sensoranordnung zur Vermessung optischer Merkmale
DE102018121158A1 (de) Verfahren zum Erfassen von Bodenabtastpunkten und Fahrerunterstützungssystem, das dafür konfiguriert ist, ein derartiges Verfahren auszuführen
DE112020002887T5 (de) Anzeigesystem für ein Arbeitsfahrzeug und Anzeigeverfahren für ein Arbeitsfahrzeug
DE102008014125A1 (de) Verfahren zur rechnergestützten Lokalisierung eines Objekts
DE10128722C1 (de) Vorrichtung zur Kontrolle von Objekten
DE102019127140A1 (de) Bestimmung eines Nickwinkels eines Umgebungssensors eines Fahrzeugs
DE102017219858A1 (de) Verfahren zum Betreiben eines Magnetfeldsensors und zugehörige Magnetfeldsensoranordnung
WO2019211209A1 (de) Verfahren zum bestimmen einer winkellage eines optoelektronischen sensors sowie prüfstand

Legal Events

Date Code Title Description
R207 Utility model specification