DE102019205186A1 - System zur Bewegungskompensation zwischen zwei Objekten, Fahrzeug mit dem System, feststehende Struktur mit dem System und Verfahren mit dem System - Google Patents

System zur Bewegungskompensation zwischen zwei Objekten, Fahrzeug mit dem System, feststehende Struktur mit dem System und Verfahren mit dem System Download PDF

Info

Publication number
DE102019205186A1
DE102019205186A1 DE102019205186.3A DE102019205186A DE102019205186A1 DE 102019205186 A1 DE102019205186 A1 DE 102019205186A1 DE 102019205186 A DE102019205186 A DE 102019205186A DE 102019205186 A1 DE102019205186 A1 DE 102019205186A1
Authority
DE
Germany
Prior art keywords
sensor
target area
movement
information
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019205186.3A
Other languages
English (en)
Inventor
Markus Schleyer
Daniel Neyer
Quang Huy Nguyen
Michael Erz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Van Halteren Technologies Boxtel BV
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102019205186.3A priority Critical patent/DE102019205186A1/de
Priority to EP20167485.0A priority patent/EP3722197A1/de
Publication of DE102019205186A1 publication Critical patent/DE102019205186A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B27/00Arrangement of ship-based loading or unloading equipment for cargo or passengers
    • B63B27/30Arrangement of ship-based loading or unloading equipment for transfer at sea between ships or between ships and off-shore structures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B17/00Vessels parts, details, or accessories, not otherwise provided for
    • B63B2017/0072Seaway compensators

Landscapes

  • Chemical & Material Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Ocean & Marine Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Es ist offenbart, dass eine Relativbewegung zwischen zwei Objekten ständig gemessen wird. Die Bewegungsinformation wird zur Kompensation der Bewegung beim Andocken einer Brücke oder eines anderen Elements von dem einen an den anderen Körper genutzt, um eine Zielposition zu treffen und beizubehalten.

Description

  • Gebiet der Erfindung
  • Die Erfindung betrifft ein System zur Bewegungskompensation zwischen zwei Objekten, wobei zumindest eines der Objekte, wie beispielsweise ein Fahrzeug oder Wasserfahrzeug, bewegbar ist. Des Weiteren betrifft die Erfindung ein Fahrzeug mit dem System und eine feststehende Struktur mit dem System. Außerdem ist ein Verfahren für das System vorgesehen.
  • Hintergrund der Erfindung
  • In der Offshore-Industrie, wie beispielsweise bei der Rohstoffförderung oder der Windenergiegewinnung, fallen zahlreiche Operationen an Objekten an. Diese können beispielsweise zwischen verschiedenen Schiffen oder Schiffen und feststehenden Strukturen oder Schiffen und schwimmenden Strukturen anfallen. Als feststehende Struktur kann beispielsweise eine Windenergieanlage oder eine feste Bohrplattform vorgesehen sein. Eine schwimmende Struktur ist beispielsweise als schwimmende Bohrplattform oder als ein unter Wasser an Seilen befindlicher Gegenstand ausgebildet. Bei den Operationen werden häufig Personen und Güter von einem Objekt zum anderen transferiert. Hierzu ist es notwendig, dass die Objekte miteinander verbunden werden, beispielsweise indem ein Schiff an eine feste Bohrplattform andockt, wobei vorausgesetzt wird, dass weder Personen, noch Güter verletzt oder beschädigt werden. Problematisch jedoch sind ungewollte und schwer oder nicht vorhersagbare Bewegungen des Objekts oder der Objekte, beispielsweise aufgrund der Wellenbewegung oder der Wetterbedingungen. Bei nicht optimalen Wetterbedingungen steigt das Risiko, dass Personen oder Güter bei solchen Operationen verletzt oder beschädigt werden, erheblich an. Um das Risiko zu senken oder zu vermeiden, werden die Operationen üblicher Weise bei nicht optimalen Wetterbedingungen unterbrochen oder verschoben. Wetterbedingte Verschiebungen oder Ausfälle führen zu erheblichen finanziellen Einbußen. Somit besteht ein hohes Interesse an Systemen, die es erlauben, auch Operationen unter schlechteren Bedingungen auszuführen.
  • Offenbarung der Erfindung
  • Demgegenüber liegt der Erfindung die Aufgabe zugrunde, ein System zu schaffen, mit dem ein Objekt vorrichtungstechnisch einfach, kostengünstig und sicher an ein weiteres Objekt andockbar ist. Des Weiteren liegt der Erfindung die Aufgabe zugrunde, ein Fahrzeug zu schaffen, das vorrichtungstechnisch einfach, kostengünstig und sicher an ein Objekt andockbar ist. Außerdem ist es die Aufgabe der Erfindung, eine feststehende Struktur zu schaffen, an die vorrichtungstechnisch einfach, kostengünstig und sicher ein Objekt andockbar ist. Des Weiteren ist es die Aufgabe der Erfindung, ein Verfahren zu schaffen, um vorrichtungstechnisch einfach, kostengünstig und sicher ein Objekt an ein weiteres Objekt anzudocken.
  • Die Aufgabe hinsichtlich des Systems wird gelöst gemäß den Merkmalen des Anspruchs 1, hinsichtlich des Fahrzeugs gemäß den Merkmalen des Anspruchs 10, hinsichtlich der feststehenden Struktur gemäß den Merkmalen des Anspruchs 11 und hinsichtlich des Verfahrens gemäß den Merkmalen des Anspruchs 12.
  • Vorteilhafte Weiterbildungen der Erfindung sind Gegenstand der Unteransprüche.
  • Erfindungsgemäß ist ein System, insbesondere zur Bewegungskompensation zwischen zwei Objekten, vorgesehen. Das System dient dazu, einen Kontaktbereich des mit dem System versehenen Objekts, insbesondere selbständig, an einen Zielbereich eines anderen Objekts anzunähern und anschließend die Bereiche miteinander zu kontaktieren, wobei insbesondere der Kontakt beibehalten werden soll. Alternativ können auch anschließend die Bereiche in einer, insbesondere vorher bestimmbaren und festlegbaren, Relativposition zueinander positioniert werden, beispielsweise auch mit einem Abstand. Vorzugsweise ist zumindest eines der Objekte bewegbar, wobei es sich bei dem Objekt dann um ein Fahrzeug, insbesondere um ein Wasserfahrzeug handeln kann. Das System hat des Weiteren vorzugsweise zumindest einen Sensor, der bei dem mit dem System versehenen Objekt anordenbar ist. Dieses Objekt kann ein Bauteil, beispielsweise eine Schiffsgangway, oder eine an einer Winde befestigte Last, haben, das den Kontaktbereich aufweist. Der zumindest eine Sensor ist bevorzugter Weise derart ausgestaltet, dass damit Sensorsignale oder Daten über den Zielbereich des anderen, insbesondere des nicht diesen Sensor aufweisenden Objekts, wie beispielsweise einer Bohrplattform, erfassbar sind. Des Weiteren kann zumindest ein Aktor vorgesehen sein. Dieser kann dann das Bauteil und/oder das Objekt mit dem Bauteil antreiben und bewegen, insbesondere um die Position des Kontaktbereichs zu ändern. Hierdurch kann eine Bewegungskompensation zwischen den Bereichen erfolgen. Alternativ oder zusätzlich kann hierdurch die Relativposition der Bereiche geändert werden. Des Weiteren ist vorzugsweise eine Steuereinheit vorgesehen oder das System ist mit einer Steuereinheit, beispielsweise über das Internet oder kabellos oder kabelgebunden, verbunden. Die Steuereinheit ist vorzugsweise derart ausgestaltet, dass damit die Informationen, insbesondere über einen geeigneten Algorithmus, bearbeitet werden, um insbesondere Bewegungs- und/oder Positionsinformationen des Zielbereichs relativ zum Kontaktbereich zu ermitteln. Der Aktor kann dann basierend auf dem von der Steuereinheit bearbeiteten Informationen derart angesteuert sein, dass sich die Bereiche einander annähern und sich anschließend kontaktieren oder anschließend die vorbestimmte Relativposition, insbesondere einen Abstand oder relativen Winkel, beibehalten, und/oder dass die Bewegungskompensation erfolgt. Weiterhin wäre es möglich, dass die Relativbewegung nicht vollständig kompensiert wird, sondern nur soweit minimiert wird, dass die Operation sicher ausgeführt werden kann. Zum Beispiel könnte bei bestehendem Kontakt geringe Winkeländerung zwischen Gangway und anderem Schiff toleriert werden.
  • Mit anderen Worten kann eine Relativbewegung zwischen zwei Objekten, insbesondere ständig, gemessen werden. Die Bewegungsinformation kann dann zur Kompensation der Relativbewegung beim Andocken, beispielsweise einer Brücke oder eines anderen Elements von dem einen an den anderen Körper genutzt werden, um die Zielposition zu treffen und beizubehalten.
  • Diese Lösung hat den Vorteil, dass Operationen, beispielsweise zwischen zwei schwimmenden Objekten oder Körpern, auch bei nicht optimalen Wetterbedingungen ausgeführt werden können. Dies erfolgt vorzugsweise, indem die Relativbewegung beispielsweise zwischen den Kontaktpunkten, beispielsweise zwischen einer Endseite einer Gangway und einer Andockstelle, zwischen beiden Körpern bestimmt wird und dann kompensiert werden kann.
  • Vorteilhafter Weise kann das System nur auf einem der beiden Objekte oder Körper installiert sein. Es sind dann keine Hilfsmittel oder Sensoren auf dem anderen Objekt, beispielsweise auf dem anderen Schwimmkörper, nötig. Dies führt zu einer hohen Einsatz-Flexibilität, da ein mit dem System ausgerüstetes Objekt beispielsweise an Objekte ohne entsprechende Einrichtung andocken kann. Des Weiteren wird die Sicherheit bei Operationen zwischen zwei Objekten, insbesondere zwischen zwei schwimmenden Körpern, erhöht. Eine manuelle Kompensation der Relativbewegung im Stand der Technik ist praktisch nicht möglich, so dass derzeit bei derartigen Operationen keine Kompensation stattfindet und immer erhebliche Risiken in Kauf genommen werden müssen und Unfälle nicht ausgeschlossen sind. Des Weiteren ist mit dem vorliegenden System eine schnelle Docking-Operation durchführbar. Es ist mit dem erfindungsgemäßen System nicht notwendig, beispielsweise für Operationen zwischen zwei schwimmenden Körpern, eine Relativbewegung zwischen deren Kontaktstellen über eine Sensorik zu bestimmen, die auf beiden schwimmenden Körpern vorgesehen ist. Es muss somit keine Sensorik auf beiden Körpern oder Objekten installiert sein, die Daten austauschen. Bei dem vorliegenden erfindungsgemäßen System ist es auch nicht notwendig, dass bei dem Objekt, dass keinen Sensor aufweist, Hilfsmittel für den Sensor angebracht werden, wie beispielsweise Reflektoren für Laser, Radar oder Marker für Kameras. Bei dem erfindungsgemäßen System ist somit vorteilhaft, dass die Relativposition zwischen dem Zielbereich und dem Kontaktbereich ermittelbar ist. Es wird somit nicht nur die Bewegung des Körpers bestimmt, auf dem das System installiert ist. Würde nur die Bewegung dieses Körpers bestimmt werden, dann wäre nur eine absolute Positionierung im Raum möglich, was insbesondere bei Operationen zwischen zwei bewegten Objekten problematisch wäre.
  • Bei dem vorliegenden System kann somit eine relative Bewegung zwischen zwei Objekten, beispielsweise zwischen zwei schwimmenden oder auch einem schwimmenden Objekt und einem festen Objekt, ermittelt werden. Die Bestimmung der relativen Bewegung erfolgt dabei nur von einem Objekt aus, womit bei dem anderen Objekt keine Hilfsmittel hierfür notwendig sind. Es müssen somit am anderen Objekt keine Hilfsmittel angebracht werden und es müssen keine Informationen vom anderen Objekt zum ersten Objekt kommuniziert werden.
  • In weiterer Ausgestaltung der Erfindung werden Informationen in Form von Bewegungs- und/oder Positionsinformationen über den Kontaktbereich des Bauteils des Objekts erfasst und/oder festgelegt und/oder der Steuereinheit zu bestimmten Zeitpunkten oder Ereignissen oder kontinuierlich gemeldet. Dies ist vorteilhaft, um die Relativposition zwischen dem Kontaktbereich und dem Zielbereich einfach zu ermitteln.
  • Vorzugsweise kann ein Auswahl-Algorithmus vorgesehen sein. Dieser ist beispielsweise derart ausgebildet, dass aus von dem zumindest einem Sensor erfassten Bereichen ein Zielbereich über die Steuereinheit, insbesondere automatisch, auswählbar ist. Im Anschluss kann dann der Zielbereich verfolgt werden. Nähert sich beispielsweise das Objekt mit dem Kontaktbereich an das weitere Objekt an, so kann das Objekt mit dem Kontaktbereich über den Auswahl-Algorithmus selbständig einen Zielbereich an dem anderen Objekt auswählen und dann im Anschluss die benötigten Informationen erfassen, um die Bewegungskompensation und/oder die Annäherung der Bereiche zu ermöglichen.
  • Bei einer weiteren bevorzugten Ausführungsform der Erfindung kann ein Eingabemittel vorgesehen sein. Dieses ist vorzugsweise derart ausgestaltet, dass damit von dem zumindest einen Sensor erfassten Bereichen ein Zielbereich manuell, insbesondere über einen Bediener, auswählbar ist und vorzugsweise im Anschluss verfolgt werden kann. Somit kann alternativ oder zusätzlich zur automatischen Auswahl auch eine manuelle Auswahl des Zielbereichs vorgesehen sein. Ein derartiges Eingabemittel ist vorteilhaft, beispielsweise, wenn sich ein Bediener des Objekts mit dem Kontaktbereich nicht auf eine reine automatische Zielbereichsauswahl verlassen möchte. Ist beides möglich, also eine automatische oder manuelle Zielauswahl, so kann der Bediener bei Bedarf, beispielsweise in schwierigen Situationen, auf die manuelle Zielbereichsauswahl zurückgreifen.
  • In weiterer Ausgestaltung der Erfindung ist vorzugsweise ein Verfolgungs-Algorithmus vorgesehen. Dieser kann derart ausgestaltet sein, dass über diesen anhand der von dem zumindest einem Sensor erfassten Informationen der, insbesondere der ausgewählte, Zielbereich verfolgt ist. Somit muss ein Bediener nach der Zielbereichsauswahl diesen Zielbereich nicht manuell verfolgen, sondern die Verfolgung erfolgt vorteilhafter Weise automatisch. Es ist denkbar, dass der ausgewählte Zielbereich markiert ist und in einer Anzeige angezeigt werden kann.
  • Mit Vorteil ist ein Positionsbestimmungs-Algorithmus vorgesehen, der derart ausgestaltet sein kann, dass über diesen Bewegungs- und/oder Positionsinformationen des, insbesondere ausgewählten und/oder verfolgten, Zielbereichs ermittelt sind. Somit kann dann einfach die Relativposition und -bewegung zum Kontaktbereich berechnet werden.
  • Vorzugsweise ist des Weiteren ein Kompensations-Algorithmus vorgesehen, der derart ausgestaltet ist, dass die Bereiche, also der Zielbereich und der Kontaktbereich, nach einer ungewollten Relativverschiebung oder -drehung, ausgehend von einer aktuellen Relativposition, wieder in diese Relativposition zurückgeführt werden oder weiter zueinander angenähert werden. Somit kann über den Kompensations-Algorithmus insbesondere die Bewegungskompensation ausgeführt werden. Bei einer Bewegungskompensation würden vorzugsweise der Kontaktbereich und Zielbereich in einer festen Relativ-Position zueinander stehen, obwohl sich das Objekt, insbesondere wellenbedingt, bewegt.
  • Wie vorstehende bereits angeführt, kann vorgesehen sein, dass eine Ermittlung oder Festlegung der Informationen in Form von Bewegungs- und/oder Positionsinformationen des Kontaktbereichs erfolgt. Aus den Informationen über den Zielbereich und aus der Information über den Kontaktbereich kann dann eine Relativbewegung und/oder eine Relativposition ermittelt werden. Die Informationen des Kontaktbereichs können beispielsweise beim Positionsbestimmungs-Algorithmus verwendet sein und gleichzeitig oder nach oder vor der Ermittlung der Informationen für den Zielbereich erfasst werden.
  • In weiterer Ausgestaltung der Erfindung ist vorzugsweise eines der Objekte eine feststehende Struktur und das andere Objekt bewegbar, insbesondere in Form eines Fahrzeugs. Denkbar wäre auch, dass beide Objekte bewegbar sind. Bei dem Fahrzeug handelt es sich vorzugsweise um ein Luftfahrzeug oder um ein wassergebundenes Fahrzeug oder um ein landgebundenes Fahrzeug. Als feststehende Struktur ist beispielsweise eine Offshore-Windturbine oder eine feste Bohrplattform vorgesehen. Als wassergebundenes Fahrzeug kann ein Schiff eine schwimmende Plattform oder eine Boje vorgesehen sein. Das erfindungsgemäße System ist dabei entweder auf der feststehenden Struktur oder auf dem bewegbaren Objekt angeordnet.
  • In weiterer Ausgestaltung der Erfindung ist das Bauteil eine über eine Winde und einen Kranarm bewegbare oder schwebbare Last. Der Kontaktbereich ist vorzugsweise hierbei eine unterseitige Auflagefläche der Last. Der Zielbereich kann eine Ablagefläche für die Last am anderen Objekt sein. Alternativ ist denkbar, dass das Bauteil ein Kranarm oder eine Zugangsbrücke oder -treppe oder eine Gangway eines Wasserfahrzeugs ist. Der Kontaktbereich ist vorzugsweise dann eine Anlagefläche davon, die in Kontakt mit dem anderen Objekt gebracht werden soll oder nahe an das Objekt herangeführt werden soll.
  • Denkbar wäre auch, dass das Bauteil ein Bauteil der Winde ist, wie beispielsweise ein Verbindungselement, wie beispielsweise ein Kranhaken für die Last. Ist die Bewegungskompensation für die Winde vorgesehen, so kann beispielsweise die Hubbewegung des Fahrzeugs, insbesondere des Wasserfahrzeugs, in der Endposition des Seils, wo sich beispielsweise der Kranhaken befindet, kompensiert werden. Das heißt, der Kranhaken würde im Wesentlichen an einer festen Position im Raum stehen, obwohl sich das Fahrzeug wellenbedingt bewegt.
  • Bei einer bewegungskompensierten Schiffsgangway könnte das Ende der Gangway über die Bewegungskompensation des Systems bewegungskompensiert sein. Hierdurch kann das Ende der Schiffsgangway trotz Schiffsbewegung an einer festen Position im Raum positioniert werden, womit ermöglicht ist, dass es zum Zielbereich geführt werden kann, um beispielsweise an einem Windrad anzudocken.
  • Vorzugsweise ist der zumindest eine Aktor oder sind eine Mehrzahl von Aktoren derart ausgestaltet, dass der Kontaktbereich des Bauteils in eine, zwei oder drei translatorische Richtung/en und/oder in eine, zwei oder drei rotatorische Richtung/en bewegbar ist. Somit ist denkbar, dass ein Teil oder alle Bewegungen kompensiert werden können. Je nach Anwendung wird dann eine bestimmte Anzahl oder Ausgestaltung des Aktors oder der Aktoren eingesetzt, um den Kontaktbereich in gewünschte Richtungen zu bewegen. Es hat sich gezeigt, dass beispielsweise bei einer Winde mit der am Seil befindlichen Last gute Ergebnisse erzielbar sind, wenn nur translatorische relative Hubbewegungen in vertikaler Richtung über die Bewegungskompensation des Systems kompensiert werden. Die rotatorischen und die restlichen translatorischen Bewegungen können dann unberücksichtigt bleiben, wobei die entsprechenden Bewegungen zwischen dem Kontaktbereich und dem Zielbereich möglich sind und toleriert werden. Mit anderen Worten kann beispielsweise beim Bauteil in Form der Last diese über den Aktor in Form der Winde in Schwerkraftrichtung bewegbar sein, um eine Bewegungskompensation durchzuführen.
  • In weiterer Ausgestaltung der Erfindung kann das Bauteil des bewegbaren Objekts relativ zu diesem mit dem zumindest einen oder einem weiteren Aktor bewegbar sein. In Abhängigkeit der über den zumindest einen Sensor erfassten Informationen kann das Bauteil derart über diesen zumindest einen Aktor relativ zu seinem Objekt bewegbar sein, dass sich der Kontakt- und Zielbereich einander annähern und/oder dass die Bereiche einen vorbestimmten Abstand oder einen Kontakt beibehalten und/oder dass eine Bewegungskompensation erfolgt.
  • In einer bevorzugten Ausführungsform der Erfindung ist der Sensor oder der Sensor in Kombination mit dem Auswahl-Algorithmus vorzugsweise derart ausgestaltet, dass - wie obenstehend bereits angeführt - beim Zielbereich keine Hilfsmittel notwendig sind, um diesen zu erfassen. Somit sind keine Anpassungen beim Objekt mit dem Zielbereich notwendig. Beispielsweise müssen beim Zielbereich keine Hilfsmittel oder zusätzliche Sensorik verwendet werden, damit der Sensor den Zielbereich erfassen kann. Es sind dann beispielsweise keine Motion Reference Units (MRU) oder festinstallierte Referenzmesspunkte zur Positionsbestimmung erforderlich, wie beispielsweise Reflektoren für Radarsensoren oder Laser. Somit ist es nicht notwendig, Referenzmesspunkte zu vermessen und aufwendig an die Steuereinheit zu melden.
  • Als Sensor kann beispielsweise ein, insbesondere 3D, bildgebender Sensor vorgesehen sein. Alternativ oder zusätzlich kann der Sensor oder ein weiterer Sensor als Kamera ausgestaltet sein. Hier eignet sich beispielsweise eine Monochrom-Kamera oder eine Farb-Kamera oder eine Stereo-Kamera oder eine Infrarot-Kamera oder eine Time-Off-Flight (TOF) Kamera. Alternativ oder zusätzlich kann der Sensor oder ein weiterer Sensor als Light-Detection-And-Ranging (LIDAR) Sensor ausgestaltet sein. Des Weiteren ist denkbar, alternativ oder zusätzlich, als Sensor einen Radarsensor und/oder einen Ultraschallsensor und/oder einen Intertialsensor Sensor, wie beispielsweise eine Motion-Reference-Unit (MRU), vorzusehen. Bevorzugter Weise kann ein Messbereich des Sensors oder der Sensoren über einen oder jeweils einen Verstellaktor verstellbar sein. Der Verstellaktor ist beispielsweise durch die Steuereinheit oder den Bediener steuerbar. Über den Vestellaktor ist der Sensor flexibel zum Zielbereich ausrichtbar. Dies kann beispielsweise automatisch erfolgen und/oder es erfolgt eine Positionierung, insbesondere eine Grobpositionierung, über den Bediener. Denkbar ist auch, dass bei einer Positionsveränderung zwischen dem Zielbereich und dem Kontaktbereich der Sensor dem Zielbereich automatisch durch entsprechende Ansteuerung des Verstellaktors folgt.
  • Der Sensor ist beispielsweise am bewegbaren Bauteil angebracht. Er kann beispielsweise zusammen mit dem Bauteil und/oder unabhängig vom Bauteil über den Verstellaktor bewegt werden. Eine Bewegung des Sensors zusammen mit dem Bauteil hat den Vorteil, dass bei einer Bewegung des Bauteils mit seinem Kontaktbereich hin zum Zielbereich der Sensor beispielsweise ebenfalls näher an den Zielbereich herangeführt werden kann. Bei Verwendung von Sensoren auf dem Objekt ist es notwendig die Bewegung/Position der Kontaktstelle des Bauteils aufwändig mithilfe der kinematischen Daten des Bauteils zu berechnen. Diese Berechnung entfällt oder vereinfacht sich, je näher die Sensorik oder der Sensor an dem Kontaktbereich angebracht ist.
  • Bei einem bevorzugten Ausführungsbeispiel ist am bewegbaren Bauteil, insbesondere in Form eines Auslegers, der Sensor in Form eines LIDAR-Sensors befestigt. Insbesondere ist der Sensor stirnseitig, also beispielsweise an einem Endabschnitt oder einer Spitze des Auslegers, angeordnet und somit beispielsweise nahe am Kontaktbereich oder benachbart zum Kontaktbereich. Außerdem ist der Sensor hierdurch vorteilhafterweise in einer exponierten Position, was zu einem freien Messbereich führt.
  • Alternativ oder zusätzlich kann zumindest ein Sensor oder ein weiterer Sensor und/oder ein Sensorpaar am Objekt mit dem Bauteil und somit vorzugsweise nicht am bewegbaren Bauteil befestigt sein. Als Sensor ist hier beispielsweise eine Kamera, insbesondere eine Pan-Tilt-Zoom (PTZ) Überwachungskamera vorgesehen. Ist ein Sensorpaar angeordnet, so kann neben der Kamera ein damit, insbesondere mechanisch, verbundener LIDAR-Sensor eingesetzt sein. Vorzugsweise ist die Anordnung des Sensors oder der Sensoren am Objekt derart vorgesehen, dass in dieser Position der Zielbereich trotz Bewegung oder Wellenbewegung des Objekts, stets im Messbereich vorgesehen ist. Dies wird insbesondere durch die PTZ Überwachungskamera sichergestellt. Ist der LIDAR-Sensor mechanisch mit der Kamera verbunden, so wird auch dieser entsprechend der Kamera mitbewegt, beispielsweise über einen Verstellaktor, womit nur ein Verstellaktor notwendig ist. Hierdurch ist auch dessen Messbereich den Anforderungen entsprechend erweitert. Der Sensor oder das Sensorpaar sind beispielsweise an einer bewegbaren Plattform angeordnet, über die das Bauteil um eine Hochachse des Fahrzeugs oder der Struktur bewegbar ist. Der Sensor oder das Sensorpaar können dann beispielsweise zusammen mit der Plattform über einen Aktor oder Verstellaktor bewegt werden.
  • Vorzugsweise ist neben dem Sensor oder dem Sensorpaar am Objekt ein weiterer Sensor vorgesehen, der insbesondere zur automatischen Erfassung oder bei der automatischen Auswahl des Zielbereichs vorgesehen ist. Der weitere Sensor ist beispielsweise an der Plattform befestigt oder am Fahrzeug oder der Struktur, also vorzugsweise nicht am Bauteil.
  • Der Sensor oder ein Teil der Sensoren oder alle Sensoren sind vorzugsweise intrinsisch und/oder extrinsisch kalibriert. Bei der intrinsischen Kalibrierung erfolgt beispielsweise eine Kalibrierung eines Sensors in Form einer Kamera zur zugeordneten Optik. Des Weiteren, falls mehrere Sensoren vorgesehen sind, werden diese oder ein Teil von diesen vorzugsweise gegeneinander kalibriert. Durch die Kalibrierungen kann eine Koordinatentransformation zwischen Sensor-Koordinatensystemen ermöglicht sein, damit die Steuereinheit die gewünschten Informationen einfach ermitteln kann. Beim, insbesondere gleichzeitigen, Einsatz mehrerer bildgebender Sensoren, werden die einzelnen Bilder (Kameras)/Punktwolken (Lidar) im Algorithmus an bestimmten Punkten zusammengeführt und/oder fusioniert. Gründe dafür können u.a. gegenseitige Plausibilisierung, Schaffung von Redundanz für Sensorausfall oder temporäre Okklusion oder Erhöhung der Stabilität der Algorithmen sein. Für eine sinnvolle Zusammenführung sollte die Relativposition (3 Translationen, 3 Rotationen) zwischen den Koordinatensystemen der bildgebenen Sensoren bekannt sein. Dies wird durch die extrinsische Kalibrierung gewährleistet.
  • Bei einer bevorzugten Lösung kann ein Eingabemittel oder ein weiteres Eingabemittel für den zumindest einen Aktor und/oder für den zumindest einen Verstellaktor vorgesehen sein. Bei dem Eingabemittel handelt es sich beispielsweise um einen Joystick. Das Eingabemittel kann derart ausgestaltet sein, dass damit über einen Bediener das den Kontaktbereich aufweisende Bauteil und/oder der zumindest eine Sensor bezüglich des Zielbereichs, insbesondere vorab, positionierbar ist. Somit ist auf einfache Weise beispielsweise eine Grobpositionierung durch einen Bediener möglich, bevor eine automatische Bewegungskompensation und/oder Annäherung der Bereiche erfolgt.
  • In weiterer Ausgestaltung der Erfindung ist denkbar, eine Anzeige oder ein Display vorzusehen. Auf diesem können dann beispielsweise mögliche von dem zumindest einen Sensor erfasste Zielbereiche dargestellt sein. Insbesondere kann ein von dem Sensor von einer Kamera erfasstes Bild dargestellt werden. Über ein oder das Eingabemittel kann der Bediener anhand der Anzeige einen Zielbereich auswählen. Des Weiteren ist denkbar, dass über die Anzeige anhand der von dem zumindest einen Sensor erfassten Informationen eine Position oder 3D-Position, des, insbesondere ausgewählten, Zielbereichs dargestellt ist.
  • Erfindungsgemäß ist ein Fahrzeug mit dem System gemäß einem oder mehreren der vorhergehenden Aspekte vorgesehen. Das Fahrzeug kann hierbei als Objekt mit dem Sensor eingesetzt sein.
  • Erfindungsgemäß ist eine feststehende Struktur vorgesehen, an die ein Fahrzeug, insbesondere ein Wasserfahrzeug, andockbar ist. Die Struktur kann dann das System gemäß einem oder mehrerer der vorhergehenden Aspekte aufweisen. Die Struktur kann dann als Objekt mit dem Sensor eingesetzt sein. Denkbar ist dabei, dass die Struktur das bewegbare Bauteil hat.
  • Erfindungsgemäß ist ein Verfahren mit einem System gemäß einem oder mehreren der vorhergehende Aspekte vorgesehen, das folgende Schritte aufweist:
    • - Erfassen von Sensorsignalen des zumindest einen Sensors,
    • - Auswahl des Zielbereichs anhand der erfassten Sensorsignale,
    • - Ermittlung der Informationen in Form von relativen Bewegungs- und/oder Positionsinformationen zwischen dem ausgewählten Zielbereich und dem Kontaktbereich des Bauteils oder des Objekts, insbesondere über den Positionsbestimmungs-Algorithmus,
    • - Ansteuerung des zumindest einen Aktors basierend auf den ermittelten Informationen derart, dass sich der Kontaktbereich und der Zielbereich einander annähern und/oder dass die Relativ-Bewegungskompensation oder die Bewegungskompensation, insbesondere über den Kompensations-Algorithmus, erfolgt.
  • Diese Lösung hat den Vorteil, dass auf einfache Weise eine Bewegungskompensation zwischen den Bereichen und/oder auf einfache Weise eine Annäherung der Bereiche ermöglicht ist. Die Kompensation kann beispielsweise durch eine entsprechende Ansteuerung des Kranarms, der Gangway oder der Winde erfolgen, mit deren Hilfe der Kontakt zum anderen Objekt aufgebaut wird. Es sind somit Operationen zwischen beispielsweise zwei schwimmenden oder auch einem schwimmenden und einem festen Körper auf einfache Weise ermöglicht.
  • In weiterer Ausgestaltung des Verfahrens können, beispielsweise nach der Ansteuerung des Aktors zur Initiierung einer relativen Bewegung zwischen den Bereichen, folgende Schritte folgen:
    • - Erfassen von Sensorsignalen des zumindest einen Sensors.
    • - Verfolgen oder Tracken oder Wiederfinden des gewählten Zielbereichs in den Sensorsignalen, insbesondere anhand des Verfolgungs-Algorithmus, insbesondere über die Steuereinheit. Somit muss vorteilhafter Weise nicht erneut manuell der Zielbereich ausgewählt werden.
    • - Ermittlung der Informationen in Form von Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs anhand der Sensorsignale des zumindest einen Sensors, insbesondere über den Positionsbestimmungs-Algorithmus.
    • - Ansteuerung des zumindest einen Aktors basierend auf den ermittelten Informationen derart, dass sich der Kontaktbereich und der Zielbereich einander annähern und/oder dass die Bewegungskompensation erfolgt. Diese Schritte können so oft wiederholt werden, bis die Bereiche kontaktiert sind oder in einem vorbestimmten Abstand zueinander angeordnet sind.
  • Bei der Verfolgung oder beim Wiederfinden des ausgewählten Zielbereichs wird mit anderen Worten der Zielbereich mit einem geeigneten Algorithmus, insbesondere mit dem Verfolgungs-Algorithmus, getrackt und die Positionsveränderung fortlaufend verfolgt. Dies kann beispielsweise mit einer oder mehreren der folgenden Methoden ausgeführt werden: Kalman-Filter, Partikelfilter, merkmalbasierte Methoden, regionenbasierte Methoden, konturbasierte Methoden, modellbasierte Methoden.
  • Vorzugsweise werden Informationen oder Lageinformationen kontinuierlich der Steuereinheit zur Regelung des zumindest einen Aktors, insbesondere für das bewegbare Bauteil, zugeführt, um die Bewegungskompensation, insbesondere bei manueller Assistenzfunktion oder automatisierter Kontaktherstellung, zu realisieren.
  • In weiterer Ausgestaltung des Verfahrens können bei der Ermittlung der Informationen in Form der Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs, insbesondere über den Positionsbestimmungs-Algorithmus, die Sensorsignale von einer Mehrzahl von Sensoren eingesetzt sein. Dies ist vorzugsweise insbesondere dann der Fall, wenn die Entfernung zwischen dem Zielbereich und dem Kontaktbereich einen bestimmten Schwellenwert übersteigt und/oder die Sensorsignale eines Sensors zu ungenau sind. Beispielsweise wird zunächst der Sensor oder das Sensorpaar am Objekt und nicht am Bauteil eingesetzt, wobei es sich beispielsweise um die Kamera oder um die Kamera und den LIDAR-Sensor handelt. Unter bestimmten Bedingungen kann dann bei Bedarf zusätzlich der Sensor am Bauteil verwendet werden, bei dem es sich vorzugsweise um den LIDAR-Sensor handelt.
  • In weiterer Ausgestaltung der Erfindung kann, falls die ermittelten Informationen des ausgewählten Zielbereichs zu ungenau sind, vorgesehen sein, dass dem Bediener dies, insbesondere in der Anzeige, mitgeteilt wird. Im Anschluss kann ein neuer Zielbereich manuell oder automatisch ausgewählt werden. Es ist denkbar, dass der Bediener die automatische Auswahl initiiert.
  • Vorzugsweise wird der Abstand zwischen dem Kontaktbereich und dem Zielbereich überwacht, beispielsweise kontinuierlich oder beispielsweise nach einer jeweiligen Ansteuerung des zumindest einen Aktors. Ab einem vorbestimmten Abstand oder bei Kontakt der Bereiche kann dann das Verfahren beendet werden. Das heißt beispielsweise, wenn die relative Entfernung der Bereiche einen vorher definierten Schwellwert unterschritten haben, dann kann der Kontakt als hergestellt betrachtet werden. Die Steuerung kann dann beispielsweise an eine allgemeine Bewegungskompensation des Fahrzeugs übergeben werden.
  • Vorzugsweise können der Kontaktbereich und der Zielbereich wahlweise manuell über das Eingabemittel durch einen Bediener angenähert werden oder automatisch über die Steuereinheit angenähert werden. Es ist beispielsweise denkbar, dass in unkritischen und einfachen Situationen der Bediener manuell die Bereiche einander annähert oder in die Annäherung bei Bedarf eingreift.
  • In weiterer Ausgestaltung der Erfindung kann die Auswahl des Zielbereichs am anderen Objekt entweder manuell über den Bediener oder automatisch über die Steuereinheit erfolgen. Bei der manuellen Auswahl kann der Bediener zunächst dafür sorgen, dass der Zielbereich im Sichtbereich der Sensoren vorgesehen ist. Hierfür kann er zumindest den einen Aktor und/oder den zumindest einen Verstellaktor ansteuern, um den zumindest einen Sensor entsprechend auszurichten. Bei der manuellen Auswahl können dem Bediener vorzugsweise die vom Sensor erfassten Sensorsignale, insbesondere bildhaft, dargestellt sein. Dies kann beispielsweise in Form eines Kamerabilds und/oder in Form einer LIDAR-Punktewolke und/oder in Form eines Radarbilds erfolgen. Anhand der dargestellten Informationen kann der Bediener den Zielbereich auswählen, beispielsweise über das Eingabemittel. Wie vorstehend bereits erläutert handelt es sich bei dem Eingabemittel um einen Joystick oder denkbar wäre auch ein berührungsempfindliches Display (Touchscreen). Wie vorstehend erläutert, kann dann nach der Auswahl des Zielbereichs basierend auf den Sensorsignalen eine Ermittlung der Informationen bezüglich des ausgewählten Zielbereichs, insbesondere über den Positionsbestimmungs-Algorithmus, erfolgen. Mit anderen Worten kann eine 3D-Lage des Zielbereichs anhand geeigneter Sensordaten bestimmt werden und vorzugsweise dem Bediener angezeigt werden, insbesondere über die Anzeige. Beispielsweise kann eine sogenannte Sensorfusion zwischen Stereo-Kamera-Daten und der LIDAR-Punktewolke erfolgen.
  • Bei der automatischen Auswahl des Zielbereichs kann der Auswahl-Algorithmus eingesetzt sein. Dieser ist vorzugsweise derart ausgestaltet, dass aus den Sensorsignalen oder Sensordaten der Zielbereich ermittelbar ist. Als Sensor eignet sich vorzugsweise eine Surround-View-Kamerasystem oder Sensoren mit einem großen Öffnungswinkel. Als Auswahl-Algorithmus kann eine oder mehrere der folgenden Methoden eingesetzt sein: Iterative-Closest-Point (ICP), RANSAC, Template-Matching, Segmentierungsmethoden wie Otsus, K-Means-Clustering, Watershed, Grab-Cut-Algorithmus. Im Anschluss an die vollautomatische Auswahl des Zielbereichs kann dann, wie vorstehend bereits erläutert, die Bestimmung der Informationen in Form der Bewegungs- und/oder Positionsinformation des ausgewählten Zielbereichs, insbesondere über den Positionsbestimmungs-Algorithmus, erfolgen, vorzugsweise relativ zum Kontaktbereich. Mit anderen Worten kann die 3D-Lage des Zielbereichs anhand geeigneter Sensordaten bestimmt werden und dem Bediener angezeigt werden.
  • Vorzugsweise können die vom Sensor oder von den Sensoren erfassten Daten auf der Anzeige visuell oder bildhaft dargestellt sein. Der ausgewählte Zielbereich kann hierbei beispielsweise markiert sein. Des Weiteren kann in der Anzeige, wie vorstehend bereits angeführt, die aktuelle Position der 3D-Lage des Zielbereichs dargestellt sein.
  • Zur Positionsbestimmung des Zielbereichs, insbesondere über den Positionsbestimmungs-Algorithmus, werden vorzugsweise die Informationen des Sensors am Objekt, also nicht des am Bauteil befestigten Sensors, verwendet. Der Sensor ist hierbei vorzugsweise in Form der Kamera ausgestaltet. Als Information kann ein Template-Kamerabild eingesetzt werden. Somit kann vorgesehen sein, dass beim Positionsbestimmungs-Algorithmus die Sensorsignale des Sensors in Form der Kamera eingesetzt sind. Mit dem Positionsbestimmungs-Algorithmus der Kamera kann dann, insbesondere zum Zeitpunkt der Auswahl des Zielbereichs, ein Template-Kamerabild für den Zielbereich erzeugt werden. Vorzugsweise kann beim Positionsbestimmungs-Algorithmus zumindest folgender Schritt vorgesehen sein:
    • - Suche des Zielbereichs anhand eines Template-Bildes des Zielbereichs im aktuellen Kamerabild. Es kann vorgesehen sein, dass beim Positionsbestimmungs-Algorithmus, beispielsweise wenn die Entfernung zwischen dem Kontaktbereich und dem Zielbereich einen bestimmten Wert überschreitet, die Sensordaten des Sensors am Bauteil, beispielsweise einem LIDAR-Sensor, zusätzlich zur Positionsbestimmung des Zielbereichs eingesetzt werden können. Ist der Zielbereich in den Sensorsignalen, insbesondere im Kamerabild, nicht oder nur mit einer Genauigkeit ermittelbar, die unterhalb einer vorbestimmten Genauigkeitsgrenze liegt, beispielsweise nur einen geringen Kontrast aufweist, kann beim Positionsbestimmungs-Algorithmus vorgesehen sein, dass dies dem Bediener mitgeteilt wird und dieser einen neuen Zielbereich auswählt. Alternativ wäre denkbar, dass automatisch ein neuer Zielbereich ausgewählt wird, insbesondere, ohne dass dies dem Bediener mitgeteilt wird.
  • In weiterer Ausgestaltung der Erfindung kann vorgesehen sein, dass der Verfolgungs-Algorithmus die Sensordaten zweier Sensoren nutzt, womit der Zielbereich vorteilhafter Weise sicher verfolgt werden kann. Als Sensoren eignen sich beispielsweise der Sensor (Kamera) oder das Sensorpaar am Objekt und nicht am Bauteil und der Sensor (LIDAR-Sensor) am Bauteil. Mit dem Verfolgungs-Algorithmus kann vorzugsweise die Position des Zielbereichs in den aktuellen Sensordaten über einen Filter, insbesondere über einen Kalman-Filter, verfolgt werden. Über den Filter kann vorzugsweise basierend auf der aktuellen Position des Zielbereichs die zukünftige Position berechnet oder geschätzt werden, oder es kann über den Filter basierend auf der letzten bekannten Position die aktuelle Position berechnet oder geschätzt werden.
  • Es ist offenbart, dass eine Relativbewegung zwischen zwei Objekten ständig gemessen wird. Die Bewegungsinformation wird zur Kompensation der Bewegung beim Andocken einer Brücke oder eines anderen Elements von dem einen an den anderen Körper genutzt, um eine Zielposition zu treffen und beizubehalten.
  • Figurenliste
  • Bevorzugte Ausführungsbeispiele der Erfindung werden im Folgenden anhand schematischer Zeichnungen näher erläutert. Es zeigen:
    • 1a bis 1d jeweils zwei Objekte, die jeweils als Fahrzeug oder Struktur ausgebildet sind, gemäß einem jeweiligen Ausführungsbeispiel, wobei jeweils eines der Objekte mit einem erfindungsgemäßen System ausgestattet ist,
    • 2 in einer schematischen Darstellung ein Wasserfahrzeug mit dem System gemäß einem weiteren Ausführungsbeispiel und ein Wasserfahrzeug mit einem Zielbereich,
    • 3 in einer schematischen Darstellung ein Wasserfahrzeug mit dem System gemäß einem weiteren Ausführungsbeispiel zusammen mit einem Wasserfahrzeug mit einem Zielbereich,
    • 4 in einem Ablaufdiagramm ein Verfahren mit dem System gemäß einem ersten Ausführungsbeispiel und
    • 5 in einem Ablaufdiagramm ein Verfahren mit dem System gemäß einem zweiten Ausführungsbeispiel.
  • 1a zeigt ein Objekt in Form eines schwimmenden Körpers, bei dem es sich um ein Wasserfahrzeug 1 handelt. Des Weiteren ist als Objekt eine feststehende Struktur 2 dargestellt, bei der es sich beispielsweise um eine Offshore-Windturbine oder feste Bohrplattform handelt. Das Wasserfahrzeug 1 weist ein Bauteil in Form einer Gangway 4 auf. Diese soll dabei an einen Andockbereich 6 der Struktur 2 andocken. Die Gangway 4 ist dabei über einen nicht dargestellten Aktor verschwenkbar, so dass ein freistehender stirnseitiger Endabschnitt 8 höhenverstellbar ist. Des Weiteren ist die Gangway 4 über einen Aktor um eine Hochachse des Wasserfahrzeugs 1 drehbar. Ein erfindungsgemäßes System zur Bewegungskompensation und zur Annäherung des Endabschnitts 8 an den Andockbereich 6 ist beim Wasserfahrzeug 1 vorgesehen.
  • Gemäß 1b ist ebenfalls ein Objekt in Form eines Wasserfahrzeugs 10 gezeigt. Des Weiteren ist ein Objekt in Form einer feststehenden Struktur 12 dargestellt. Im Unterschied zur 1a weist nicht das Wasserfahrzeug 10, sondern die Struktur 12 die bewegbare Gangway 4 auf. Das Wasserfahrzeug 10 weist dabei den Andockbereich 6 auf. Das erfindungsgemäße System zur Bewegungskompensation und zur Annäherung der Gangway 4 an den Andockbereich 6 ist dabei bei der Struktur 12 vorgesehen.
  • Gemäß 1c ist ein erstes Objekt in Form eines Wasserfahrzeugs 14 und ein zweites Objekt in Form eines Wasserfahrzeugs 16 dargestellt. Das Wasserfahrzeug 14 weist einen Kranarm 18 auf, der drehbar ist, damit sein freies Ende höhenverstellbar ist, und der vorzugsweise um eine Hochachse des Wasserfahrzeugs 14 bewegbar ist. Der Kranarm 14 wirkt mit einer (nicht dargestellten) Winde für ein Seil 20 zusammen, an dessen Ende eine Last 22 über einen Kranhaken befestigt ist. Die Last 22 soll dabei auf das Wasserfahrzeug 16 abgeladen werden. Hierzu hat das Wasserfahrzeug 14 das System zur Bewegungskompensation und zur Annäherung der Last 22 an das Wasserfahrzeug 16. Zumindest ein (nicht dargestellter) Sensor kann hierbei beispielsweise am freien Endabschnitt, also am vom Wasserfahrzeug 14 entfernten Endabschnitt, des Kranarms 18 vorgesehen sein. Dieser kann einen Zielbereich am Wasserfahrzeug 16 erfassen. Ein Kontaktbereich ist beispielsweise bei der Last 22 vorgesehen.
  • 1d zeigt neben dem Wasserfahrzeug 10 mit dem Andockbereich 6 das Wasserfahrzeug 1 mit der Gangway 4. Das Wasserfahrzeug 1 weist hierbei das System zur Bewegungskombination und zur Annäherung der Gangway 4 an den Andockbereich 6 auf.
  • Gemäß den 1a bis 1d ist ersichtlich, dass das System zur Bewegungskompensation bei Operationen zwischen einem Wasserfahrzeug und einer feststehenden Struktur oder bei Operationen zwischen zwei Wasserfahrzeugen einsetzbar ist. Vorteilhafterweise ist jeweils nur notwendig, dass jeweils eines der Objekte aus einer jeweiligen 1a bis 1b das System aufweist, während beim entsprechend anderen Objekt keinerlei Anpassungen für das System vorgenommen werden müssen. Das System wird also nur auf einem der Objekte installiert und ermöglicht diesem dann die mechanische Kontaktaufnahme zu einer Vielzahl anderer schwimmender oder feststehender Körper. Um Schäden bei oder während der Kontaktherstellung zu vermeiden und um den Kontakt schadenfrei über einen längeren Zeitraum aufrechterhalten zu können. Es können mit dem System beispielsweise durch Wind und Wellen hervorgerufene Bewegungen der Wasserfahrzeuge 1, 10, 14, 16 berücksichtigt werden und bei der Kontaktherstellung des Kontaktbereichs mit dem Zielbereich durch das System kompensiert werden. Dies erfolgt beispielsweise durch Verstellung der Position der Gangway 4 oder des Kranarms 18 oder der Seillänge des Seils 20.
  • Mit dem System aus der jeweiligen 1a bis 1d wird eine Relativbewegung zwischen den zwei Objekten, insbesondere zwischen dem Kontaktbereich und dem Zielbereich, ständig gemessen. Die Bewegungsinformation wird dann zur Kompensation der Bewegung beim Andocken der Gangway 4 oder Brücke oder eines anderen Elements von dem Einen an das andere Objekt genutzt, um eine Zielposition zu treffen und beizubehalten.
  • Für das System kann ein voll-automatisches und/oder ein halb-automatisches Verfahren vorgesehen sein. In 2 ist dabei eine Anordnung für das halb-automatische Verfahren dargestellt und in 3 ist eine Anordnung für das voll-automatische Verfahren gezeigt.
  • In 2 ist das Wasserfahrzeug 1 mit der Gangway 4 oder Brücke dargestellt. Des Weiteren ist ein Objekt in Form eines Wasserfahrzeugs 24 gezeigt, das einen Andockbereich 6 hat. Stirnseitig der Gangway 4, also an deren freien Ende, ist ein Sensor 26 in Form eines LIDAR-Sensors angeordnet und befestigt. Des Weiteren ist ein Sensorpaar 28 vorgesehen, das nicht an der Gangway 4, sondern direkt am Wasserfahrzeug 1 befestigt ist. Beispielsweise ist das Sensorpaar 28 an einer um eine Hochachse des Wasserfahrzeugs 1 drehbarer Plattform angeordnet, an der die Gangway 4 bewegbar gelagert ist. Das Sensorpaar 28 weist eine Kamera, insbesondere in Form einer Pan-Tilt-Zoom (PTZ) Kamera, und einen LIDAR-Sensor auf. Die Gangway hat endseitig einen Kontaktbereich 30, der zum Andocken an das Wasserfahrzeug 24 in Kontakt mit einem Zielbereich 32 gebracht werden soll. Eine Anordnung des Sensorpaars 28 am Wasserfahrzeug 1 erfolgt dabei vorzugsweise derart, dass bis zu einer bestimmten Wellenbewegung oder bei jeglicher Wellenbewegung der Zielbereich 32 erfassbar bleibt. Dies wird durch die PTZ-Kamera sichergestellt. Denkbar wäre auch die Wellenbewegung oder sonstige Bewegungen mit einer Bewegungskompensation für das Sensorpaar 28 zumindest teilweise auszugleichen. Das Sensorpaars 28 ist mechanisch fest verbunden und kann beispielsweise über einen Verstellaktor gemeinsam bewegt werden. Durch die mechanische Verbindung ist beispielsweise der LIDAR-Sensor mit der Kamera verbunden und sein Sichtfeld ist hierdurch entsprechend den Anforderungen erweitert.
  • Die Sensoren 26, 28 sind intrinsisch, extrinsisch und gegeneinander kalibriert. Hierdurch kann eine Koordinatentransformation zwischen den Sensor-Koordinatensystemen ermöglicht werden, wobei KB1 das Koordinaten-System des ersten Sensors des Sensorpaars 28 ist, KB2 das Koordinaten-System des zweiten Sensors des Sensorpaars 28 ist und KA das Koordinaten-System des Sensors 26 ist. Die Koordinatentransformation kann mit folgenden üblichen Formeln erfolgen: K B 1 K A T , K B 2 , K A T  und  K B 1 K B 2 T
    Figure DE102019205186A1_0001
    wobei T eine Transformationsmatrix ist. Bei der üblichen Verwendung homogener Koordinaten ist die Transformationsmatrix T eine 4x4 Matrix mit einer Subrotationsmatrix R, die die Rotation zwischen den Koordinatensystemen beschreibt, und der Subtranslationsmatrix t, die die Translation zwischen den Koordinatensystemen beschreibt.
  • Mit Hilfe der Transformationssmatrix K B 1 K B 2 T
    Figure DE102019205186A1_0002
    kann beispielsweise die Darstellung eines Vektors bezüglich des Koordinatensystems KB1 in eine Darstellung bezüglich des Koordinatenystems KB2 überführt werden: x K B 1 = K B 1 K B 2 T x K B 2
    Figure DE102019205186A1_0003
    x K B i = ( x y z 1 )
    Figure DE102019205186A1_0004
    K B 1 K B 2 T = [ R t 0 T 1 ]
    Figure DE102019205186A1_0005
    R = [ r 11 r 12 r 13 r 21 r 22 r 23 r 31 r 32 r 33 ]
    Figure DE102019205186A1_0006
    t = [ t x t y t z ]
    Figure DE102019205186A1_0007
    0 T = [ 0   0   0 ]
    Figure DE102019205186A1_0008
  • Mit Aktoren 34, die in 2 schematisch mit einem Block dargestellt sind, kann die Gangway 4 gedreht werden, so dass die Höhe des Kontaktbereichs 30 veränderbar ist und um eine Hochachse 36 des Wasserfahrzeugs 1 drehbar ist. Die Aktoren 34 sind über eine Steuereinheit 37 steuerbar.
  • Anhand der 4 wird das Verfahren für das System aus 2 erläutert, um die Bereiche 30 und 32 bis zum Kontakt einander anzunähern und eine Bewegungskompensation einer Relativbewegung dieser Bereiche 30, 32 durchzuführen. Im Schritt 36 sorgt ein Bediener dafür, dass der Zielbereich 32 aus 2 sich im Sichtbereich der Sensoren 26 und 28 befindet. Dies kann dadurch erfolgen, dass über die Aktoren 34 das Sensorpaar 26 zusammen mit der Gangway 4 bewegt wird, beispielsweise über die Plattform, und/oder das Wasserfahrzeug 1 durch seinen Antrieb bewegt wird und/oder dass für das Sensorpaar 28 und/oder für den Sensor 26 ein Verstellaktor oder jeweils ein Verstellaktor vorgesehen ist, über den/die diese/r bewegbar ist/sind. Eine manuelle Eingabe der Positionsänderung für die Sensoren 26, 28 erfolgt beispielsweise mit Hilfe eines Joysticks und/oder einer Tastaturkonsole und/oder eines Touchscreens.
  • Im Schritt 38 werden die Sensorsignale oder Sensordaten der Sensoren 26, 28 erfasst. Die Sensordaten der PTZ-Kamera des Sensorpaars 28 werden als Kamerabild
    Figure DE102019205186A1_0009
    ermittelt. Die Sensordaten des LIDAR-Sensors des Sensorpaars 28 werden mit einer LIDAR-Daten-Signatur
    Figure DE102019205186A1_0010
    erfasst. Des Weiteren werden die Sensordaten des LIDAR-Sensors (Sensor 26) mit einer LIDAR-Daten-Signatur
    Figure DE102019205186A1_0011
    erfasst.
  • Im Schritt 40 erfolgt die Visualisierung am Bildschirm. Hierbei werden dem Bediener die Sensorsignale der Szene bildhaft dargestellt. Dazu wird das Bild der PTZ-Kamera des Sensorpaars 28 mit den LIDAR-Punktewolken der LIDAR-Sensoren (Sensorpaar 28 und 26) überlagert auf einem Display oder Monitor dargestellt.
  • Im Schritt 42 wählt dann der Bediener anhand der auf dem Monitor dargestellten Sensorsignale
    Figure DE102019205186A1_0012
    ,
    Figure DE102019205186A1_0013
    und
    Figure DE102019205186A1_0014
    einen Zielbereich aus, wobei es sich beispielsweise bei dem Monitor um einen Touchscreen handelt. Nach der Auswahl des Zielbereichs werden dann in diesem Schritt 42 zu dem Zielbereich ein Template-Kamerabild
    Figure DE102019205186A1_0015
    der PTZ-Kamera (Sensorpaar 28) und LIDAR-Daten-Signaturen
    Figure DE102019205186A1_0016
    und
    Figure DE102019205186A1_0017
    der LIDAR-Sensoren (Sensorpaar 28 und Sensor 26) erzeugt, die den Zielbereich charakterisieren. Der ausgewählte Zielbereich wird dann im Monitor mit einer Markierung, beispielsweise einer Bounding-Box, markiert.
  • Im nächsten Schritt 44 erfolgt, dann mit dem Positionsbestimmungs-Algorithmus die Bestimmung der Informationen in Form von Bewegungs- und Positionsinformationen des Zielbereichs 32 relativ zum Kontaktbereich 30. Mit anderen Worten wird eine 3D-Lage des Zielbereichs anhand der Sensorsignale oder Sensordaten der Sensoren 26 und 28 bestimmt und dem Bediener angezeigt. Zunächst erfolgt die Bestimmung der 3D-Lage anhand der PTZ-Kamera des Sensorpaars 28. Es erfolgt ein sogenanntes Template-Matching, das eine laterale Position des Zielbereichs im erfassten Bild
    Figure DE102019205186A1_0018
    detektiert, wobei folgende Formel verwendet wird: R = u v ( I 0 B ( u , v ) I B ( u + u , v + v ) ) u v ( I 0 B ( u , v ) 2 u v I B ( u + u , v + v ) ) 2
    Figure DE102019205186A1_0019
  • Das Template-Bild ist in der Regel kleiner als das aktuelle Kamerabild. Beim Template-Matching wird als Moving-Window an jeder möglichen Position über das Kamerabild gelegt und die Korrelation berechnet. u' und v' sind hierbei die beiden Pixelkoordinaten der erfassten Bilder. u und v bezeichnen die a priori unbekannten (lateralen) Verschiebungen in den beiden Pixelkoordinaten zwischen Bildausschnitt und Template-Bild. Ziel ist es nun, Werte für u und v zu bestimmen, so dass sich eine möglichst große Übereinstimmung zwischen Bildausschnitt und Template-Bild ergibt. Der Grad der Übereinstimmung wird mathematisch durch die Korrelation ausgedrückt, die durch geeignete Wahl von u und v zu maximieren ist. Die Werte von u und v, die die Korrelation maximieren werden u0 und v0 genannt. Sie geben an, wo sich das Template-Bild bzw. der Zielbereich im Kamerabild befinden oder anders ausgedrückt, sie beschreiben die Position
    Figure DE102019205186A1_0020
    des Zielbereichs im Kamerabild. Die Position
    Figure DE102019205186A1_0021
    sich also wie folgt: r 0 = ( u 0 v 0 ) = arg ( max ( R ) )
    Figure DE102019205186A1_0022
    u0 und v0 sind also die Werte für u und v in obiger Formel für R, für die die Korrelation R maximal wird.
  • Aus einer Koordinatentransformation kann dann die zum Zielbereich zugeordnete Bildpunktmenge
    Figure DE102019205186A1_0023
    : K = { ( u 1 B 1 v 1 B 1 ) , ( u 2 B 1 v 2 B 1 ) ,... }
    Figure DE102019205186A1_0024
    in 3D ausgedrückt werden: ( u B 1 v B 1 )   K K B 1 K B 2 T ( u B 2 v B 2 )   K extr . Kalibration ( x y z )   K
    Figure DE102019205186A1_0025
  • Anschließend kann die 3D-Lage des Zielbereichs mit Hilfe des Random Sample Consensus (RANSAC) oder durch ein Iterative-Closest-Point (ICP) Algorithmus bestimmt werden. Falls eine relative Entfernung zwischen dem Kontaktbereich 30 und dem Zielbereich 32 über einem bestimmten Schwellenwert liegt, werden vorzugsweise die Daten
    Figure DE102019205186A1_0026
    des Sensors 26 zur genaueren Lagebestimmung zusätzlich verwendet. Falls der ausgewählte Zielbereich in den erfassten Sensorsignalen nur einen geringen Kontrast aufweist, so dass die Genauigkeit der Positionsbestimmung nur ungenau erfolgen kann, dann wird dem Bediener die unzuverlässige Messung signalisiert, und er kann eine neue Stelle markieren, was durch den Pfeil 46 in 4 gezeigt ist, womit im Anschluss wieder der Schritt 44 ausgeführt wird.
  • Nach dem Schritt 44, d. h., wenn die Bewegungs- und Positionsinformationen des ausgewählten Zielbereichs über den Positionsbestimmungs-Algorithmus mit einer ausreichenden Genauigkeit ermittelt worden sind, folgt Schritt 48. Hierbei werden die Bewegungs- und/oder Positionsinformationen fortwährend der Steuereinheit 37 zugeführt, die entsprechend die Aktoren 34 ansteuert. Diese werden dabei derart angesteuert, dass der Kontaktbereich 30 in Richtung des Zielbereichs 32 bewegt wird. Hierbei wird eine vorher definierte Strecke zurückgelegt und im Anschluss eine erneute Aufnahme der Sensorsignale der Sensoren 26 und 28 getriggert, was durch den Schritt 50 gezeigt ist. In Schritt 50 ist somit vorgesehen, dass die Sensoren 26 und 28 die Sensorsignale
    Figure DE102019205186A1_0027
    ,
    Figure DE102019205186A1_0028
    und
    Figure DE102019205186A1_0029
    aufnehmen.
  • Im anschließenden Schritt 52 erfolgt ein Verfolgen oder Wiederfinden des ausgewählten Zielbereichs 32 in den Sensorsignalen
    Figure DE102019205186A1_0030
    ,
    Figure DE102019205186A1_0031
    und
    Figure DE102019205186A1_0032
    anhand eines Verfolgungs-Algorithmus über die Steuereinheit 37. Dies erfolgt vorzugsweise mit einem Recursive-Least-Square (RLS) Algorithmus. Dieser ist ein Satz von mathematischen Gleichungen, der eine rechnerisch effiziente, insbesondere rekursive, Abschätzung des Zustands eines Prozesses darstellen. Hierbei wird der mittlere quadratische Fehler minimiert. Die aktuelle gemessene Position rt zum Zeitpunkt t dient als Eingangswert zur Schätzung der zukünftigen Position rt+1 verwendet. Bei der Position rt handelt es sich um die zuletzt bestimmte Positionsinformation des Zielbereichs, die initial in Schritt 44 ermittelt wurde und im folgenden Schritt 54 erneut ermittelt wird, was untenstehend näher erläutert wird. Die Schätzung des zukünftigen Wertes rt+1 basiert auf einem Recursive-Least-Square (RLS) Algorithmus. Dies ist beispielsweise in dem Buch: „Recursive Least Squares; Statistical Digital Processing and Modelling; von Monson H. Hayes, ISBN 0-471-59431-8 offenbart. Ein derartig umgesetzter Verfolgungs-Algorithmus weist eine äußerst schnelle Konvergenz auf. Denkbar wäre auch für den Verfolgungs-Algorithmus einen Least-Mean-Square (LMS) Algorithmus einzusetzen, der einfachere mathematische Operationen und einen geringeren Rechenressourcenbedarf aufweist. Zur Schätzung des Werts rt+1 wird vorzugesweise ein lineares Modell verwendet: r t + 1 = r t T θ t
    Figure DE102019205186A1_0033
  • Hierbei ist ein Messdaten-Vektor
    Figure DE102019205186A1_0034
    aus N Messungen bis zum Zeitpunkt t gebildet und
    Figure DE102019205186A1_0035
    sind Koeffizienten. Zunächst wird dann der sogenannte Kalman-Verstärkungsvektor berechnet: K t = P t 1 r t 1 λ + r t 1 T P t 1 r t 1
    Figure DE102019205186A1_0036
  • Hierbei ist λ(0 ≤ λ < 1) der sogenannte Forgetting Factor. Pt ist die inverse Korrelationsmatrix der Messdaten. Ein A-priori-fehler ∈ zwischen dem aktuellen Messwert rt und dem geschätzten Wert wird anschließend mit folgender Formel berechnet: ε t = r t r t 1 T θ t 1
    Figure DE102019205186A1_0037
  • Die Koeffizienten
    Figure DE102019205186A1_0038
    werden anhand der folgenden Gleichung ermittelt: θ t = θ t 1 + K t ε t
    Figure DE102019205186A1_0039
  • Des Weiteren wird eine inverse Korrelationsmatrix Pt anhand folgender Formel ermittelt: P t = P t 1 K t r t 1 T P t 1 λ
    Figure DE102019205186A1_0040
  • Anschließend erfolgt die Schätzung der Positionsinformation des Zielbereichs zum Zeitpunkt t + 1 anhand der oben genannten Gleichung: r t + 1 = r t T θ t
    Figure DE102019205186A1_0041
  • Es muss somit keine erneute Auswahl des Zielbereichs erfolgen, sondern der Zielbereich wurde anhand der Sensorsignale und dem Verfolgungs-Algorithmus getrackt. Alternativ kann anstatt des Recurcsive Least Squares Ansatzes beispielsweise ein Kalman-Filter verwendet werden.
  • Nachdem in Schritt 52 der Zielbereich verfolgt bzw. in den Sensorsignalen wiedergefunden wurde, werden im Folgeschritt 54 die Informationen in Form von Bewegungs- und Positionsinformationen des verfolgten Zielbereichs anhand der Sensorsignale
    Figure DE102019205186A1_0042
    ,
    Figure DE102019205186A1_0043
    und
    Figure DE102019205186A1_0044
    anhand der Sensoren 26 und 28 ermittelt. Die Vorgehensweise entspricht dabei derjenigen in Schritt 44.
  • Wenn dann im Schritt 54 beispielsweise die Positionsinformationen des Zielbereichs ermittelt wird, kann festgestellt werden, wie groß der Abstand zwischen dem Kontaktbereich 30 und dem Zielbereich 32 ist. Hat der Kontaktbereich 30 den Zielbereich 32 noch nicht erreicht, dann wird das Verfahren ab Schritt 48 erneut durchgeführt, was durch den Pfeil 56 gezeigt ist. Ist die Kontaktstelle erreicht, dann folgt nach dem Schritt 54 der Schritt 58. Das heißt, wenn eine relative Entfernung zwischen dem Kontaktbereich 30 und dem Zielbereich 32 einen vorher definierten Schwellenwert unterschritten hat, dann wird der Kontakt zwischen diesen Bereichen als hergestellt betrachtet. Die Steuerung wird dann an die allgemeine Bewegungskompensation des Objekts, in diesem Fall des Wasserfahrzeugs 1, übergeben.
  • Wie vorstehend bereits angeführt, ist mit dem erfindungsgemäßen System auch ein voll-automatisches Verfahren zur Bewegungskompensation und zur Zusammenführung zweier Bereiche möglich, was im Folgenden näher erläutert ist. Gemäß 3 ist im Unterschied zur 2 beim Wasserfahrzeug 1 ein weiterer Sensor 60 vorgesehen. Hierbei handelt es sich um einen scannenden Sensor mit einem vergleichsweise großen Öffnungswinkel. Beispielsweise kann ein LIDAR-Sensor eingesetzt sein. Mit dem Sensor 60 kann dann großflächig eine Umgebung gescannt werden, wobei dies vorzugsweise in einer vergleichsweise hohen Auflösung erfolgt. Eine Aufnahmegeschwindigkeit spielt dann eine untergeordnete Rolle. Die Sensoren 26 und 60 und das Sensorpaar 28 sind dabei intrinsisch, extrinsisch und gegeneinander kalibriert, womit eine Koordinatentransformation zwischen den einzelnen Sensor-Koordinatensystemen ermöglicht ist, wobei KC das Koordinaten-System des Sensors 60 ist. Die Koordinatentransformation kann mit folgenden üblichen Formeln erfolgen: K C K B 1 T ,   K C K B 2 T K C K A T ,   K B 1 K A T , K B 2 K A T  und  K B 1 K B 2 T
    Figure DE102019205186A1_0045
  • Im Folgenden wird das voll-automatische Verfahren mit dem System aus 3 anhand der 5 näher erläutert. Gemäß einem Schritt 62 ist in der 5 vorgesehen, dass der Sensor 60 Sensorsignale aufnimmt. Dies erfolgt in Form der Daten
    Figure DE102019205186A1_0046
    . Im folgenden Schritt 64 erfolgt die Identifizierung eines potentiellen Zielbereichs. Dies wird anhand einer Korrelation der Messdaten
    Figure DE102019205186A1_0047
    mit einer zuvor vorbestimmten Template-Datenbank mit möglichen Szenen durchgeführt: D = { D 1 C , D 2 C , D 3 C ,... }
    Figure DE102019205186A1_0048
  • Im folgenden Schritt 66 erfolgt dann die Ausrichtung des Sensors 26 und des Sensorpaars 28 hin zum Zielbereich 32.
  • Der gemäß 5 folgende Schritt 68 entspricht dem Schritt 38 aus 4, wobei Sensorsignale erfasst werden. Der folgende Schritt 70 entspricht dem Schritt 44 aus 4. Das heißt, es werden die Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs ermittelt. Ist dies nicht möglich, so wird das Verfahren ausgehend von Schritt 62 wiederholt, was durch den Pfeil 72 gekennzeichnet ist. Sind die gewünschten Informationen bestimmt, so folgen nach dem Schritt 70 die Schritte 74, 76, 78, 80 und 82, die den Schritten 48, 50, 52, 54 und 58 aus 4 entsprechen.
  • Somit kann festgestellt werden, dass bei dem voll-automatischen Verfahren der Zielbereich 32, also die Andockstelle, selbst durch das Verfahren identifiziert wird, beispielsweise mit einer Objekterkennung. Dagegen wird der Zielbereich beim halb-automatischen Verfahren vom Bediener anhand der Sensordaten vorgegeben.
  • Bezugszeichenliste
  • 1; 10; 14; 16; 24
    Wasserfahrzeug
    2; 12
    Struktur
    4
    Gangway
    6
    Andockbereich
    8
    Endabschnitt
    18
    Kranarm
    20
    Seil
    22
    Last
    26, 28; 60
    Sensor
    30
    Kontaktbereich
    32
    Zielbereich
    34
    Aktoren
    36, 38, 40, 42, 44, 48, 50, 52, 54, 58, 62, 64, 66, 68, 70, 74 - 82
    Schritt
    37
    Steuereinheit
    46, 56, 72
    Pfeil

Claims (15)

  1. System, um einen Kontaktbereich eines Objekts (1) des Systems an einen Zielbereich (32) eines anderen Objekts (24) anzunähern, damit sich die Bereiche (30, 32) anschließend kontaktieren oder damit die Bereiche (30, 32) in einer Relativposition zueinander positioniert sind, wobei zumindest eines der Objekte (1, 10, 16, 14, 24) bewegbar ist, und wobei das System zumindest einen Sensor (26, 28, 60) hat, der bei dem Objekt (1) des Systems anordenbar ist, wobei dieses Objekt (1) ein Bauteil (4) mit dem Kontaktbereich (30) aufweist, wobei eine Steuereinheit (37) vorgesehen ist, die derart ausgebildet ist, dass damit Informationen in Form von Bewegungs- und/oder Positionsinformationen über den Zielbereich (32) des anderen Objekts (24) relativ zum Kontaktbereich (30) anhand von Sensorsignalen des zumindest einen Sensors (26, 28, 60) ermittelbar sind, wobei zumindest ein Aktor (34) vorgesehen ist und der Bauteil (4) und/oder das Objekt (1) mit dem Bauteil (4) über den Aktor (34) bewegbar ist/sind, um eine Bewegungskompensation zwischen den Bereichen (30, 32) vorzusehen und/oder um die Relativposition der Bereiche (30, 32) zueinander zu ändern, und wobei der Aktor (34) basierend auf den über die Steuereinheit (37) verarbeiteten Informationen derart ansteuerbar ist, dass sich die Bereiche (30, 32) einander annähern und sich anschließend kontaktieren oder anschließend die vorbestimmte Relativposition beibehalten und/oder dass die Bewegungskompensation erfolgt.
  2. System nach Anspruch 1, wobei ein Auswahl-Algorithmus vorgesehen ist, der derart ausgestaltet ist, das aus den von dem zumindest einem Sensor (26, 28, 60) erfassten Sensorsignalen ein Zielbereich (32) automatisch ausgewählt ist, und/oder wobei ein Verfolgungs-Algorithmus vorgesehen ist, der derart ausgestaltet ist, dass über diesen anhand der von dem zumindest einen Sensor (26, 28, 60) erfassten Sensorsignale der Zielbereich (32) verfolgt ist, und/oder wobei ein Positionsbestimmungs-Algorithmus vorgesehen ist, der derart ausgestaltet ist, dass über diesen Bewegungs- und/oder Positionsinformationen des Zielbereichs basierend auf den Sensorsignalen der Sensoren (26, 28, 60) ermittelt sind, und/oder wobei ein Kompensations-Algorithmus vorgesehen ist, der derart ausgestaltet ist, dass der Kontaktbereich (30) und/oder der Zielbereich (32) nach einer ungewollten Relativverschiebung ausgehend von einer aktuellen Relativposition wieder in diese Relativposition zurückgeführt werden.
  3. System nach Anspruch 1 oder 2, wobei eines der Objekte eine feststehende Struktur (2, 12) und das andere Objekt (1, 10, 14, 16, 24) bewegbar ist oder wobei beide Objekte (10, 10, 14, 16, 24) bewegbar sind.
  4. System nach einem der Ansprüche 1 bis 3, wobei das Bauteil eine über eine Winde (20) bewegbare Last (22) ist und der Kontaktbereich eine unterseitige Auflagefläche der Last (22) oder wobei das Bauteil ein Kranarm oder eine Zugangsbrücke (4) ist.
  5. System nach einem der vorhergehenden Ansprüche, wobei der Sensor (26) am Bauteil (4) befestigt ist.
  6. System nach einem der vorhergehenden Ansprüche, wobei der Sensor (26) als Light-Detection-and-Ranging (LIDAR) Sensor ausgebildet ist.
  7. System nach einem der vorhergehenden Ansprüche, wobei der Sensor (28) oder ein weiterer Sensor (28) oder ein Sensorpaar (28) am Objekt (1) und nicht am bewegbaren Bauteil (4) befestigt ist.
  8. System nach Anspruch 7, wobei der Sensor (28) oder der weitere Sensor (28) eine Kamera ist oder wobei das Sensorpaar (28) eine Kamera und einen Light-Detection-and-Ranging (LIDAR) Sensor aufweist.
  9. System nach Anspruch 7 oder 8, wobei neben dem Sensor (28) oder dem Sensorpaar (28) am Objekt (1) ein weiterer Sensor (60) zur automatischen Erfassung des Zielbereichs (32) vorgesehen ist.
  10. Fahrzeug mit dem System gemäß einem der vorhergehenden Ansprüche, wobei dieses als Objekt mit dem Sensor (26, 28, 60) eingesetzt ist.
  11. Feststehende Struktur, an die ein Fahrzeug andockbar ist, wobei die Struktur (2, 12) das System gemäß einem Ansprüche 1 bis 9 aufweist, und wobei die Struktur (2, 12) als Objekt mit dem Sensor (26, 28, 60) eingesetzt ist.
  12. Verfahren mit einem System gemäß einem der Ansprüche 1 bis 9 mit den Schritten: - Erfassen von Sensorsignalen des zumindest einen Sensors (26, 28, 60), - Auswahl des Zielbereichs (32) anhand der Sensorsignale, - Ermittlung der Informationen in Form von Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs, - Ansteuerung des zumindest einen Aktors (34) basierend auf den ermittelten Informationen derart, dass sich der Kontaktbereich (30) und der Zielbereich (32) einander annähern und/oder dass die Bewegungskompensation erfolgt.
  13. Verfahren nach Anspruch 12, wobei nach der Ansteuerung des zumindest einen Aktors (34) und der Bewegung des Kontaktbereichs (30) folgende Schritte folgen: - Erfassen von Sensorsignalen des zumindest einen Sensors (26, 28, 60), - Verfolgen des ausgewählten Zielbereichs (32) in den Sensorsignalen, - Ermittlung der Informationen in Form von Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs (32) anhand der Sensorsignale des zumindest einen Sensors (26, 28, 60), - Ansteuern des zumindest einen Aktors (34) basierend auf den ermittelten Informationen derart, dass sich der Kontaktbereich (30) und der Zielbereich (32) einander annähern und/oder dass die Bewegungskompensation erfolgt.
  14. Verfahren nach Anspruch 12 oder 13, wobei bei der Ermittlung der Informationen in Form von Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs (32), falls die Entfernung zwischen diesen Bereichen einen bestimmten Schwellenwert übersteigt, die Sensorsignale von einer Mehrzahl von Sensoren (26, 28, 60) verwendet werden.
  15. Verfahren nach einem der Ansprüche 12 bis 14, wobei die Auswahl des Zielbereichs (32) manuell über einen Bediener oder automatisch über die Steuereinheit (37) erfolgt.
DE102019205186.3A 2019-04-11 2019-04-11 System zur Bewegungskompensation zwischen zwei Objekten, Fahrzeug mit dem System, feststehende Struktur mit dem System und Verfahren mit dem System Pending DE102019205186A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019205186.3A DE102019205186A1 (de) 2019-04-11 2019-04-11 System zur Bewegungskompensation zwischen zwei Objekten, Fahrzeug mit dem System, feststehende Struktur mit dem System und Verfahren mit dem System
EP20167485.0A EP3722197A1 (de) 2019-04-11 2020-04-01 System zur bewegungskompensation zwischen zwei objekten, fahrzeug mit dem system, feststehende struktur mit dem system und verfahren mit dem system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019205186.3A DE102019205186A1 (de) 2019-04-11 2019-04-11 System zur Bewegungskompensation zwischen zwei Objekten, Fahrzeug mit dem System, feststehende Struktur mit dem System und Verfahren mit dem System

Publications (1)

Publication Number Publication Date
DE102019205186A1 true DE102019205186A1 (de) 2020-10-15

Family

ID=70154254

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019205186.3A Pending DE102019205186A1 (de) 2019-04-11 2019-04-11 System zur Bewegungskompensation zwischen zwei Objekten, Fahrzeug mit dem System, feststehende Struktur mit dem System und Verfahren mit dem System

Country Status (2)

Country Link
EP (1) EP3722197A1 (de)
DE (1) DE102019205186A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020213322A1 (de) * 2020-10-22 2022-04-28 Robert Bosch Gesellschaft mit beschränkter Haftung System mit einer Bewegungskompensationseinrichtung und Verfahren
CN113232768B (zh) * 2021-04-25 2022-05-13 大连海事大学 一种具有波浪补偿功能的海上换乘栈桥及其工作方法
CN113104153B (zh) * 2021-04-25 2022-05-17 大连海事大学 一种海上换乘栈桥波浪补偿控制系统及其工作方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2931451B1 (fr) * 2008-05-22 2010-12-17 Fmc Technologies Sa Dispositif de commande pour systeme de chargement et/ou dechargement de fluides
WO2015044898A1 (en) * 2013-09-27 2015-04-02 Rolls-Royce Canada, Ltd. Two body motion compensation system for marine applications
DE102014220597A1 (de) * 2014-10-10 2016-04-14 Robert Bosch Gmbh Wellengangkompensationssystem
CN110337416B (zh) * 2017-02-28 2022-01-11 J.雷.麦克德莫特股份有限公司 利用目标跟踪协助的海上船至船提升

Also Published As

Publication number Publication date
EP3722197A1 (de) 2020-10-14

Similar Documents

Publication Publication Date Title
EP3722197A1 (de) System zur bewegungskompensation zwischen zwei objekten, fahrzeug mit dem system, feststehende struktur mit dem system und verfahren mit dem system
DE112017004688B4 (de) Messsystem, Arbeitsmaschine und Messverfahren
DE102010035898B3 (de) Unbemanntes Unterwasserfahrzeug und Verfahren zum Betrieb eines unbemannten Unterwasserfahrzeugs
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE102004033114A1 (de) Verfahren zur Kalibrierung eines Abstandsbildsensors
WO2000063681A2 (de) Bildbearbeitung zur vorbereitung einer texturnalyse
DE102006055652A1 (de) Verfahren zur Aufarbeitung dreidimensionaler Daten und Vorrichtung zur Aufarbeitung dreidimensionaler Daten
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
DE102007019491A1 (de) Fahrzeugumgebungs-Überwachungsvorrichtung, Fahrzeug, Fahrzeugumgebungs-Überwachungsverfahren und Fahrzeugumgebungs-Überwachungsprogramm
WO2009049750A2 (de) Verfahren zum kalibrieren einer anordnung mit mindestens einer omnidirektionalen kamera und einer optischen anzeigeeinheit
DE102018200060B4 (de) Verfahren zum Betreiben einer mobilen Arbeitsmaschine und mobile Arbeitsmaschine
DE102018121481A1 (de) Entfernungsmesssystem und Entfernungsmessverfahren
DE112015002764B4 (de) Montagewinkeleinstellverfahren und Montagewinkelerfassungseinrichtung für bordeigene Kamera
DE102016124747A1 (de) Erkennen eines erhabenen Objekts anhand perspektivischer Bilder
EP2350977B1 (de) Verfahren zur bildfusion von zumindest zwei bildern zu einem panoramabild
DE102009054214B4 (de) Verfahren und Vorrichtung zum Erzeugen einer Darstellung einer Umgebung
EP3435030A1 (de) Verfahren zur erstellung eines 3d-modells von einem objekt
DE10323643B4 (de) Sensorsystem für ein autonomes Flurförderfahrzeug
EP3770804A1 (de) Flurförderzeug mit einer objekterkennung
DE102014219428B4 (de) Selbstkalibrierung eines Stereokamerasystems im Auto
DE102006007550A1 (de) Vorrichtung und Verfahren zur Erkennung einer Fahrbahnmarkierung für ein Kraftfahrzeug
WO2019162327A2 (de) Verfahren zur ermittlung einer entfernung zwischen einem kraftfahrzeug und einem objekt
DE102004041938A1 (de) Stapelgerät, insbesondere Reachstacker, und Verfahren zum Greifen und Stapeln von Containern
DE102020209841B4 (de) Reinigungssystem mit einem selbstfahrenden Reinigungsroboter und einer Ladestation
EP3833576B1 (de) Kameraüberwachungssystem

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: VAN HALTEREN TECHNOLOGIES BOXTEL B.V., NL

Free format text: FORMER OWNER: ROBERT BOSCH GMBH, 70469 STUTTGART, DE

R082 Change of representative

Representative=s name: RAU, SCHNECK & HUEBNER PATENTANWAELTE RECHTSAN, DE