EP3722197A1 - System for motion compensation between two objects, vehicle with the system, fixed structure with the system and method using the system - Google Patents

System for motion compensation between two objects, vehicle with the system, fixed structure with the system and method using the system Download PDF

Info

Publication number
EP3722197A1
EP3722197A1 EP20167485.0A EP20167485A EP3722197A1 EP 3722197 A1 EP3722197 A1 EP 3722197A1 EP 20167485 A EP20167485 A EP 20167485A EP 3722197 A1 EP3722197 A1 EP 3722197A1
Authority
EP
European Patent Office
Prior art keywords
sensor
target area
movement
information
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP20167485.0A
Other languages
German (de)
French (fr)
Inventor
Markus Schleyer
Quang Huy Nguyen
Michael Erz
Daniel Neyer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Van Halteren Technologies Boxtel BV
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP3722197A1 publication Critical patent/EP3722197A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B27/00Arrangement of ship-based loading or unloading equipment for cargo or passengers
    • B63B27/30Arrangement of ship-based loading or unloading equipment for transfer at sea between ships or between ships and off-shore structures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B17/00Vessels parts, details, or accessories, not otherwise provided for
    • B63B2017/0072Seaway compensators

Definitions

  • the invention relates to a system for motion compensation between two objects, at least one of the objects, such as a vehicle or watercraft, being movable.
  • the invention also relates to a vehicle with the system and a fixed structure with the system. A procedure is also provided for the system.
  • a floating structure is designed, for example, as a floating drilling platform or as an object attached to ropes under water. Often people and goods are transferred from one object to another during operations. For this it is necessary that the objects are connected to one another, for example by docking a ship on a fixed drilling platform, whereby it is assumed that neither people nor goods are injured or damaged.
  • unwanted and difficult or unpredictable movements of the object or objects for example due to the wave movement or the weather conditions, are problematic.
  • the invention is based on the object of creating a system with which an object can be docked to another object in a simple, inexpensive and secure manner in terms of device technology. Furthermore, the invention is based on the object of creating a vehicle that can be docked to an object in a simple, inexpensive and secure manner in terms of device technology. In addition, it is the object of the invention to create a fixed structure to which an object can be docked in a simple, inexpensive and secure manner in terms of device technology. Furthermore, it is the object of the invention to create a method for docking an object to another object in a simple, inexpensive and secure manner in terms of device technology.
  • a system in particular for motion compensation between two objects.
  • the system is used to approach a contact area of the object provided with the system, in particular independently, to a target area of another object and then to contact the areas with one another, the contact in particular to be maintained.
  • the areas can then also be positioned in a position relative to one another, in particular a position that can be determined and fixed in advance, for example also at a distance.
  • At least one of the objects is preferably movable, the object then being a vehicle, in particular a watercraft.
  • the system furthermore preferably has at least one sensor which can be arranged on the object provided with the system.
  • This object can be a component, for example a ship's gangway, or one on a winch attached load, which has the contact area.
  • the at least one sensor is preferably designed in such a way that sensor signals or data about the target area of the other object, in particular the object that does not have this sensor, such as a drilling platform, can be detected.
  • at least one actuator can be provided. This can then drive and move the component and / or the object with the component, in particular in order to change the position of the contact area. This allows movement compensation between the areas. Alternatively or additionally, this can change the relative position of the areas.
  • a control unit is preferably provided or the system is connected to a control unit, for example via the Internet or wirelessly or by cable.
  • the control unit is preferably designed in such a way that it is used to process the information, in particular via a suitable algorithm, in order in particular to determine movement and / or position information of the target area relative to the contact area.
  • the actuator can then be controlled based on the information processed by the control unit in such a way that the areas approach one another and then contact one another or then maintain the predetermined relative position, in particular a distance or relative angle, and / or that the movement compensation takes place.
  • the relative movement not to be fully compensated, but only to be minimized to the extent that the operation can be carried out safely. For example, with existing contact, slight changes in the angle between the gangway and the other ship could be tolerated.
  • a relative movement between two objects in particular continuously, can be measured.
  • the movement information can then be used to compensate for the relative movement during docking, for example a bridge or another element from one body to the other, in order to meet and maintain the target position.
  • This solution has the advantage that operations, for example between two floating objects or bodies, can also be carried out in less than optimal weather conditions. This is preferably done in that the relative movement is determined, for example, between the contact points, for example between an end side of a gangway and a docking point, between the two bodies and can then be compensated for.
  • the system can advantageously only be installed on one of the two objects or bodies. No aids or sensors are then required on the other object, for example on the other float.
  • safety is increased during operations between two objects, in particular between two floating bodies.
  • a manual compensation of the relative movement in the prior art is practically impossible, so that no compensation currently takes place in operations of this kind and considerable risks always have to be accepted and accidents cannot be ruled out.
  • a quick docking operation can be carried out with the present system.
  • the system according to the invention it is not necessary, for example for operations between two floating bodies, to determine a relative movement between their contact points using a sensor system that is provided on both floating bodies. There is therefore no need to install any sensors on both bodies or objects that exchange data.
  • the relative position between the target area and the contact area can be determined. This not only determines the movement of the body on which the system is installed. If only the movement of this body were to be determined, then only absolute positioning in space would be possible, which would be problematic in particular for operations between two moving objects.
  • a relative movement between two objects for example between two floating objects or between a floating object and a fixed object, can thus be determined.
  • the relative movement is only determined from one object, which means that no tools are required for the other object. No aids need to be attached to the other object and no information needs to be communicated from the other object to the first object.
  • information in the form of movement and / or position information about the contact area of the component of the object is recorded and / or established and / or the control unit at certain times or events or reported continuously. This is advantageous in order to easily determine the relative position between the contact area and the target area.
  • a selection algorithm can preferably be provided. This is designed, for example, in such a way that a target area can be selected via the control unit, in particular automatically, from areas detected by the at least one sensor. The target area can then be followed. If, for example, the object with the contact area approaches the further object, the object with the contact area can independently select a target area on the other object using the selection algorithm and then subsequently acquire the information required for the movement compensation and / or the To enable convergence of the areas.
  • an input means can be provided. This is preferably designed in such a way that a target area can be selected manually, in particular via an operator, by the at least one sensor detected areas, and can then preferably be followed.
  • manual selection of the target area can thus also be provided.
  • Such an input means is advantageous, for example, if an operator of the object with the contact area does not want to rely on a purely automatic target area selection. If both are possible, i.e. automatic or manual target selection, the operator can fall back on manual target area selection if necessary, for example in difficult situations.
  • a tracking algorithm is preferably provided. This can be configured in such a way that the, in particular the selected, target area is tracked via it on the basis of the information recorded by the at least one sensor. Thus, after the target area has been selected, an operator does not have to track this target area manually, but the tracking advantageously takes place automatically. It is conceivable that the selected target area is marked and can be shown in a display.
  • a position determination algorithm is advantageously provided, which can be designed in such a way that it is used to determine movement and / or position information of the, in particular selected and / or tracked, target area. The position and movement relative to the contact area can then easily be calculated.
  • a compensation algorithm is preferably provided, which is designed in such a way that the areas, i.e. the target area and the contact area, are returned to this relative position or come closer to one another after an undesired relative displacement or rotation, starting from a current relative position will.
  • the movement compensation can be carried out via the compensation algorithm.
  • the contact area and target area would preferably be in a fixed relative position to one another, although the object moves, in particular due to waves.
  • the information is ascertained or determined in the form of movement and / or position information of the contact area.
  • a relative movement and / or a relative position can then be determined from the information about the target area and from the information about the contact area.
  • the information of the contact area can be used, for example, in the position determination algorithm and can be recorded simultaneously or after or before the determination of the information for the target area.
  • one of the objects is preferably a stationary structure and the other object is movable, in particular in the form of a vehicle. It would also be conceivable that both objects can be moved.
  • the vehicle is preferably an aircraft or a water-based vehicle or a land-based vehicle.
  • An offshore wind turbine or a fixed drilling platform, for example, is provided as the fixed structure.
  • a ship, a floating platform or a buoy can be provided as a water-bound vehicle.
  • the system according to the invention is arranged either on the fixed structure or on the movable object.
  • the component is a load that can be moved or suspended by means of a winch and a crane arm.
  • the contact area is preferably an underside bearing surface of the load.
  • the target area can be a storage area for the load on the other object.
  • the component is a crane arm or an access bridge or staircase or a gangway of a watercraft.
  • the contact area is then preferably a contact surface thereof, which is to be brought into contact with the other object or to be brought close to the object.
  • the component is a component of the winch, such as a connecting element, such as a crane hook for the load. If the movement compensation is provided for the winch, then, for example, the lifting movement of the vehicle, in particular the watercraft, can be compensated for in the end position of the rope, where the crane hook is, for example. This means that the crane hook would essentially be in a fixed position in space, although the vehicle is moving due to waves.
  • the end of the gangway could be movement-compensated via the movement compensation of the system.
  • the end of the ship gangway can be positioned at a fixed position in space despite the ship's movement, which enables it to be guided to the target area, for example to dock on a wind turbine.
  • the at least one actuator or a plurality of actuators is preferably designed such that the contact area of the component can be moved in one, two or three translational direction (s) and / or in one, two or three rotary direction (s). It is therefore conceivable that some or all of the movements can be compensated for. Depending on the application, a certain number or configuration of the actuator or actuators is then used in order to move the contact area in the desired directions. It has been shown that, for example, in the case of a winch with the load on the rope, good results can be achieved if only translational relative lifting movements in the vertical direction are compensated for via the movement compensation of the system.
  • the component of the movable object can be movable relative to this with the at least one or a further actuator.
  • the component can be moved relative to its object via this at least one actuator in such a way that the contact and target areas approach one another and / or that the areas maintain a predetermined distance or contact and / or that motion compensation takes place.
  • the senor or the sensor in combination with the selection algorithm is preferably designed in such a way that - as already mentioned above - no aids are required in the target area in order to detect it. This means that no adjustments to the object with the target area are necessary. For example, no aids or additional sensors need to be used in the target area so that the sensor can detect the target area. For example, no motion reference units (MRU) or permanently installed reference measuring points for position determination are then required, such as reflectors for radar sensors or lasers. It is therefore not necessary to measure reference measuring points and report them to the control unit in a complex manner.
  • MRU motion reference units
  • permanently installed reference measuring points for position determination are then required, such as reflectors for radar sensors or lasers. It is therefore not necessary to measure reference measuring points and report them to the control unit in a complex manner.
  • an imaging sensor in particular a 3D image sensor
  • the sensor or another sensor can be designed as a camera.
  • a monochrome camera or a color camera or a stereo camera or an infrared camera or a time-off-flight (TOF) camera are suitable here.
  • the sensor or a further sensor can be configured as a light detection and ranging (LIDAR) sensor.
  • LIDAR light detection and ranging
  • a measuring range of the sensor or sensors can preferably be adjustable via one or one adjustment actuator in each case.
  • the adjustment actuator can be controlled, for example, by the control unit or the operator.
  • the sensor is flexible via the Vestellaktor can be aligned to the target area. This can take place automatically, for example, and / or positioning, in particular rough positioning, takes place via the operator. It is also conceivable that, in the event of a change in position between the target area and the contact area, the sensor automatically follows the target area by activating the adjustment actuator accordingly.
  • the sensor is attached to the movable component, for example.
  • it can be moved together with the component and / or independently of the component via the adjustment actuator.
  • Moving the sensor together with the component has the advantage that when the component moves with its contact area towards the target area, the sensor can, for example, also be brought closer to the target area.
  • it is necessary to calculate the movement / position of the contact point of the component in a complex manner using the kinematic data of the component. This calculation is omitted or simplified the closer the sensor system or the sensor is attached to the contact area.
  • the senor in the form of a LIDAR sensor is attached to the movable component, in particular in the form of a boom.
  • the sensor is arranged on the end face, that is to say for example at an end section or a tip of the boom, and thus for example close to the contact area or adjacent to the contact area.
  • the sensor is thereby advantageously in an exposed position, which leads to a free measurement area.
  • At least one sensor or a further sensor and / or a sensor pair can be attached to the object with the component and thus preferably not to the movable component.
  • a camera in particular a pan-tilt-zoom (PTZ) surveillance camera, is provided here as the sensor.
  • a sensor pair is arranged, a LIDAR sensor connected to it, in particular mechanically, can be used in addition to the camera.
  • the arrangement of the sensor or sensors on the object is preferably provided in such a way that, in this position, the target area is always provided in the measurement area despite movement or wave movement of the object. This is ensured in particular by the PTZ surveillance camera.
  • the LIDAR sensor is mechanically connected to the camera, it is also moved along with the camera, for example via a Adjustment actuator, which means that only one adjustment actuator is necessary. This also extends its measuring range according to the requirements.
  • the sensor or the sensor pair are arranged, for example, on a movable platform via which the component can be moved about a vertical axis of the vehicle or the structure. The sensor or the pair of sensors can then, for example, be moved together with the platform via an actuator or adjustment actuator.
  • a further sensor is preferably provided on the object, which is provided in particular for automatic detection or for the automatic selection of the target area.
  • the further sensor is attached, for example, to the platform or to the vehicle or the structure, ie preferably not to the component.
  • the sensor or some of the sensors or all sensors are preferably intrinsically and / or extrinsically calibrated.
  • intrinsic calibration for example, a sensor is calibrated in the form of a camera for the associated optics.
  • several sensors are provided, these or some of them are preferably calibrated against one another.
  • the calibrations can enable a coordinate transformation between sensor coordinate systems so that the control unit can easily determine the desired information.
  • the individual images (cameras) / point clouds (lidar) are merged and / or merged in the algorithm at certain points.
  • Reasons for this can include mutual plausibility checks, creating redundancy for sensor failure or temporary occlusion or increasing the stability of the algorithms.
  • the relative position (3 translations, 3 rotations) between the coordinate systems of the imaging sensors should be known. This is guaranteed by the extrinsic calibration.
  • an input means or a further input means can be provided for the at least one actuator and / or for the at least one adjustment actuator.
  • the input means is, for example, a joystick.
  • the input means can be configured in such a way that the component having the contact area and / or the at least one sensor with respect to the target area, in particular in advance, is positionable. Thus, for example, rough positioning by an operator is possible in a simple manner before automatic movement compensation and / or approach of the areas takes place.
  • a display or a display Possible target areas detected by the at least one sensor can then be displayed on this, for example.
  • an image captured by the sensor by a camera can be displayed.
  • the operator can use the display to select a target area via an input means.
  • a position or 3D position of the, in particular selected, target area is shown on the display based on the information recorded by the at least one sensor.
  • a vehicle with the system according to one or more of the preceding aspects is provided.
  • the vehicle can be used as an object with the sensor.
  • a stationary structure is provided to which a vehicle, in particular a watercraft, can be docked.
  • the structure can then have the system according to one or more of the preceding aspects.
  • the structure can then be used as an object with the sensor. It is conceivable that the structure has the movable component.
  • This solution has the advantage that a movement compensation between the areas and / or an approximation of the areas is made possible in a simple manner.
  • the compensation can take place, for example, by a corresponding control of the crane arm, the gangway or the winch, with the help of which contact with the other object is established. Operations between, for example, two floating bodies or one floating body and one solid body are thus made possible in a simple manner.
  • the target area is tracked with a suitable algorithm, in particular with the tracking algorithm, and the change in position is continuously tracked.
  • a suitable algorithm in particular with the tracking algorithm, and the change in position is continuously tracked.
  • this can be done using one or more of the following methods: Kalman filters, particulate filters, feature-based methods, region-based methods, contour-based methods, model-based methods.
  • Information or position information is preferably continuously fed to the control unit for regulating the at least one actuator, in particular for the movable component, in order to implement the movement compensation, in particular with a manual assistance function or automated contact establishment.
  • the sensor signals from a plurality of sensors can be used in the determination of the information in the form of the movement and / or position information of the selected target area, in particular via the position determination algorithm. This is preferably the case in particular when the distance between the target area and the contact area exceeds a certain threshold value and / or the sensor signals of a sensor are too imprecise.
  • the sensor or the sensor pair is first used on the object and not on the component, for example the camera or the camera and the LIDAR sensor. Under certain conditions, the sensor on the component, which is preferably the LIDAR sensor, can then also be used if necessary.
  • the ascertained information of the selected target area is too imprecise, it can be provided that the operator is informed of this, in particular in the display. A new target area can then be selected manually or automatically. It is conceivable that the operator initiates the automatic selection.
  • the distance between the contact area and the target area is preferably monitored, for example continuously or for example after a respective activation of the at least one actuator.
  • the method can then be ended from a predetermined distance or when the areas come into contact. This means, for example, if the relative distance of the areas has fallen below a previously defined threshold value, then the contact can be regarded as established.
  • the control can then, for example, be transferred to a general movement compensation system for the vehicle.
  • the contact area and the target area can optionally be approached manually via the input means by an operator or automatically via the control unit be approximated. It is conceivable, for example, that in uncritical and simple situations the operator manually approaches the areas or intervenes in the approach if necessary.
  • the target area on the other object can be selected either manually via the operator or automatically via the control unit.
  • the operator can first ensure that the target area is provided in the field of vision of the sensors. To this end, it can control at least one actuator and / or the at least one adjustment actuator in order to align the at least one sensor accordingly.
  • the sensor signals detected by the sensor can preferably be shown to the operator, in particular as images. This can take place, for example, in the form of a camera image and / or in the form of a LIDAR point cloud and / or in the form of a radar image.
  • the operator can select the target area, for example via the input means.
  • the input means is a joystick or a touch-sensitive display (touchscreen) would also be conceivable.
  • the information relating to the selected target area can then be ascertained, in particular via the position-determining algorithm.
  • a 3D position of the target area can be determined using suitable sensor data and preferably displayed to the operator, in particular via the display. For example, a so-called sensor fusion between stereo camera data and the LIDAR point cloud can take place.
  • the selection algorithm can be used for the automatic selection of the target area. This is preferably configured in such a way that the target area can be determined from the sensor signals or sensor data. A surround view camera system or sensors with a large opening angle are preferably suitable as the sensor. One or more of the following methods can be used as the selection algorithm: Iterative Closest Point (ICP), RANSAC, template matching, segmentation methods such as Otsus, K-means clustering, watershed, grab-cut algorithm.
  • ICP Iterative Closest Point
  • RANSAC RANSAC
  • template matching segmentation methods such as Otsus, K-means clustering, watershed, grab-cut algorithm.
  • the data acquired by the sensor or by the sensors can preferably be represented visually or graphically on the display.
  • the selected target area can be marked here, for example.
  • the current position of the 3D position of the target area can be shown in the display.
  • the tracking algorithm uses the sensor data of two sensors, with which the target area can advantageously be tracked reliably.
  • Suitable sensors are, for example, the sensor (camera) or the sensor pair on the object and not on the component and the sensor (LIDAR sensor) on the Component.
  • the position of the target area in the current sensor data can preferably be tracked using a filter, in particular using a Kalman filter.
  • the future position can preferably be calculated or estimated via the filter based on the current position of the target area, or the current position can be calculated or estimated via the filter based on the last known position.
  • the movement information is used to compensate for the movement when a bridge or another element is docked from one body to the other in order to meet and maintain a target position.
  • Fig. 1a shows an object in the form of a floating body, which is a watercraft 1.
  • a stationary structure 2 is shown as the object, which is, for example, an offshore wind turbine or a fixed drilling platform.
  • the watercraft 1 has a component in the form of a gangway 4. This should be included dock to a docking area 6 of the structure 2.
  • the gangway 4 can be pivoted via an actuator, not shown, so that a free-standing front end section 8 can be adjusted in height.
  • the gangway 4 can be rotated about a vertical axis of the watercraft 1 via an actuator.
  • a system according to the invention for movement compensation and for bringing the end section 8 closer to the docking area 6 is provided in the watercraft 1.
  • FIG. 1b an object in the form of a watercraft 10 is also shown. Furthermore, an object in the form of a stationary structure 12 is shown. In contrast to the Fig. 1a does not have the watercraft 10, but the structure 12 has the movable gangway 4. The watercraft 10 has the docking area 6. The system according to the invention for movement compensation and for bringing the gangway 4 closer to the docking area 6 is provided in the structure 12.
  • a first object in the form of a watercraft 14 and a second object in the form of a watercraft 16 are shown.
  • the watercraft 14 has a crane arm 18 which is rotatable so that its free end can be adjusted in height, and which is preferably movable about a vertical axis of the watercraft 14.
  • the crane arm 14 interacts with a (not shown) winch for a rope 20, at the end of which a load 22 is fastened via a crane hook.
  • the load 22 is intended to be unloaded onto the watercraft 16.
  • the watercraft 14 has the system for motion compensation and for bringing the load 22 closer to the watercraft 16.
  • At least one sensor can be provided, for example, on the free end section of the crane arm 18, i.e. on the end section remote from the watercraft 14. This can capture a target area on the watercraft 16.
  • a contact area is provided for the load 22, for example.
  • Fig. 1d shows, in addition to the watercraft 10 with the docking area 6, the watercraft 1 with the gangway 4.
  • the watercraft 1 here has the system for combining movements and for bringing the gangway 4 closer to the docking area 6.
  • the system can be used for motion compensation in operations between a watercraft and a stationary structure or in operations between two watercraft. It is advantageous in each case only necessary that each one of the objects from a respective Figures 1a to 1b the system has, while the corresponding other object does not have to be adjusted for the system.
  • the system is only installed on one of the objects and then enables it to establish mechanical contact with a large number of other floating or stationary bodies. To avoid damage during or during the establishment of contact and to be able to maintain contact over a longer period of time without damage.
  • movements of the watercraft 1, 10, 14, 16 caused by wind and waves can be taken into account and compensated for by the system when the contact area is established with the target area. This is done, for example, by adjusting the position of the gangway 4 or the crane arm 18 or the length of the rope 20.
  • a fully automatic and / or a semi-automatic method can be provided for the system.
  • Fig. 2 an arrangement for the semi-automatic process is shown and in Fig. 3 an arrangement for the fully automatic process is shown.
  • Fig. 2 the watercraft 1 is shown with the gangway 4 or bridge. Furthermore, an object in the form of a watercraft 24 is shown which has a docking area 6.
  • a sensor 26 in the form of a LIDAR sensor is arranged and fastened on the face of the gangway 4, that is to say at its free end.
  • a pair of sensors 28 is provided, which is not attached to the gangway 4, but directly to the watercraft 1. For example, the pair of sensors 28 is arranged on a platform which is rotatable about a vertical axis of the watercraft 1 and on which the gangway 4 is movably mounted.
  • the sensor pair 28 has a camera, in particular in the form of a pan-tilt-zoom (PTZ) camera, and a LIDAR sensor.
  • the gangway has a contact area 30 at the end, which is to be brought into contact with a target area 32 for docking with the watercraft 24.
  • the sensor pair 28 is preferably arranged on the watercraft 1 in such a way that The target area 32 remains detectable until a certain wave movement or with any wave movement. This is ensured by the PTZ camera.
  • the wave movement or other movements would also be conceivable to at least partially compensate for the sensor pair 28 with movement compensation.
  • the sensor pair 28 is mechanically firmly connected and can be moved together, for example via an adjustment actuator.
  • the LIDAR sensor for example, is connected to the camera through the mechanical connection and its field of view is thereby expanded according to the requirements.
  • the sensors 26, 28 are intrinsically, extrinsically and calibrated against one another. This enables a coordinate transformation between the sensor coordinate systems, where K B1 is the coordinate system of the first sensor of the sensor pair 28, K B2 is the coordinate system of the second sensor of the sensor pair 28 and K A is the coordinate system of the sensor 26 is.
  • the coordinate transformation can be done with the following common formulas: T K B. 1 K A. , T K B. 2 K A. and T K B. 1 K B. 2 where T is a transformation matrix.
  • the transformation matrix T is a 4x4 matrix with a sub-rotation matrix R, which describes the rotation between the coordinate systems, and the sub-translation matrix t, which describes the translation between the coordinate systems.
  • the representation of a vector with respect to the coordinate system K B1 can be converted into a representation with respect to the coordinate system K B2 :
  • actuators 34 in Fig. 2 are shown schematically with a block, the gangway 4 can be rotated so that the height of the contact area 30 can be changed and rotated about a vertical axis 36 of the watercraft 1.
  • the actuators 34 can be controlled via a control unit 37.
  • step 36 an operator ensures that the target area 32 is off Fig. 2 is in the field of view of the sensors 26 and 28. This can take place in that the sensor pair 26 is moved together with the gangway 4 via the actuators 34, for example via the platform, and / or the watercraft 1 is moved by its drive and / or that for the sensor pair 28 and / or for the Sensor 26, an adjustment actuator or an adjustment actuator is provided, via which it is / are movable.
  • a manual input of the change in position for the sensors 26, 28 takes place, for example, with the aid of a joystick and / or a keyboard console and / or a touch screen.
  • step 38 the sensor signals or sensor data from sensors 26, 28 are recorded.
  • the sensor data of the PTZ camera of the sensor pair 28 are used as a camera image I. B determined.
  • the Sensor data of the LIDAR sensor of the sensor pair 28 are signed with a LIDAR data signature D. B recorded.
  • the sensor data of the LIDAR sensor (sensor 26) is provided with a LIDAR data signature D. A recorded.
  • step 40 the visualization takes place on the screen.
  • the sensor signals of the scene are shown to the operator in an image.
  • the image of the PTZ camera of the sensor pair 28 is shown superimposed on the LIDAR point clouds of the LIDAR sensors (sensor pair 28 and 26) on a display or monitor.
  • step 42 the operator then selects based on the sensor signals displayed on the monitor I. B , D. B and D. A from a target area, the monitor being, for example, a touchscreen.
  • a template camera image is then used for the target area I. ⁇ 0 B. the PTZ camera (sensor pair 28) and LIDAR data signatures D. ⁇ 0 B. and D. ⁇ 0 A. of the LIDAR sensors (sensor pair 28 and sensor 26) which characterize the target area.
  • the selected target area is then marked in the monitor with a marking, for example a bounding box.
  • the position determination algorithm is used to determine the information in the form of movement and position information of the target area 32 relative to the contact area 30.
  • a 3D position of the target area is determined using the sensor signals or sensor data from the sensors 26 and 28 determined and displayed to the operator.
  • the template image is usually smaller than the current camera image.
  • a moving window is placed over the camera image at every possible position and the correlation is calculated.
  • u ' and ⁇ ' are the two pixel coordinates of the captured images.
  • u and ⁇ denote the a priori unknown (lateral) shifts in the two pixel coordinates between the image section and the template image.
  • the aim is now to find values for u and v to be determined so that the closest possible correspondence between the image section and the template image results.
  • the degree of agreement is expressed mathematically by the correlation, which is to be maximized by a suitable choice of u and v.
  • the values of u and v that maximize the correlation are called u 0 and v 0 .
  • the 3D position of the target area can then be determined using the Random Sample Consensus (RANSAC) or an Iterative Closest Point (ICP) algorithm. If a relative distance between the contact area 30 and the target area 32 is above a certain threshold, the data D.
  • RANSAC Random Sample Consensus
  • ICP Iterative Closest Point
  • a of the sensor 26 is also used for more precise position determination. If the selected target area has only a low contrast in the detected sensor signals, so that the accuracy of the position determination can only be imprecise, then the unreliable measurement is signaled to the operator and he can mark a new point, which is indicated by the arrow 46 in Fig. 4 is shown, whereupon step 44 is carried out again.
  • step 48 follows.
  • the movement and / or position information is continuously fed to the control unit 37, which accordingly the actuators 34 controls. These are controlled in such a way that the contact area 30 in The direction of the target area 32 is moved. In this case, a previously defined distance is covered and then a renewed recording of the sensor signals from sensors 26 and 28 is triggered, which is shown by step 50.
  • step 50 it is thus provided that the sensors 26 and 28 receive the sensor signals I. B , D. B and D. A record.
  • the selected target area 32 is tracked or found again in the sensor signals I. B , D. B and D. A using a tracking algorithm via the control unit 37.
  • This is preferably done using a Recursive Least Square (RLS) algorithm.
  • RLS Recursive Least Square
  • This is a set of mathematical equations that represent a computationally efficient, in particular recursive, estimation of the state of a process. The mean square error is minimized here.
  • the current measured position r t at time t is used as an input value for estimating the future position r t +1 .
  • the position r t is the last determined position information of the target area, which was initially determined in step 44 and is determined again in the following step 54, which is explained in more detail below.
  • r ⁇ t T formed from N measurements up to time t and ⁇ t are coefficients.
  • K ⁇ t P t - 1 ⁇ r ⁇ t - 1 ⁇ + r ⁇ t - 1 T P t - 1 r ⁇ t - 1
  • ⁇ (0 ⁇ ⁇ ⁇ 1) is the so-called forgetting factor.
  • P t is the inverse correlation matrix of the measurement data.
  • ⁇ t r t - r ⁇ t - 1 T ⁇ ⁇ t - 1
  • a Kalman filter for example, can be used.
  • step 52 the information in the form of movement and position information of the tracked target area on the basis of the sensor signals is generated in subsequent step 54 I. B , D. B and D. A determined using the sensors 26 and 28. The procedure corresponds to that in step 44.
  • step 54 it can be determined how large the distance between the contact area 30 and the target area 32 is. If the contact area 30 has not yet reached the target area 32, the method is carried out again from step 48, which is shown by the arrow 56. If the contact point is reached, step 58 follows after step 54. That is, if a relative distance between the contact area 30 and the target area 32 has fallen below a previously defined threshold value, then the contact between these areas is regarded as established. The control is then passed on to the general movement compensation of the object, in this case the watercraft 1.
  • a further sensor 60 is provided in the watercraft 1.
  • This is a scanning sensor with a comparatively large opening angle.
  • a LIDAR sensor can be used.
  • the sensor 60 can then be used over a large area an environment can be scanned, this preferably being done in a comparatively high resolution.
  • a recording speed then plays a subordinate role.
  • the sensors 26 and 60 and the sensor pair 28 are intrinsically, extrinsically and mutually calibrated, which enables a coordinate transformation between the individual sensor coordinate systems, where K C is the coordinate system of the sensor 60.
  • the coordinate transformation can be done with the following common formulas: T K C. K B. 1 , T K C. K B. 2 , T K C. K A. , T K B. 1 K A. , T K B. 2 K A. and T K B. 1 K B. 2
  • a step 62 is in the Fig. 5 provided that the sensor 60 picks up sensor signals. This is done in the form of the data D. C.
  • step 66 the alignment of the sensor 26 and the sensor pair 28 towards the target area 32 then takes place.
  • step 68 corresponds to step 38 from Fig. 4 , whereby sensor signals are detected.
  • step 70 corresponds to step 44 from FIG Fig. 4 . This means that the movement and / or position information of the selected target area is determined. If this is not possible, the method is repeated starting from step 62, which is indicated by the arrow 72. Once the desired information has been determined, steps 74, 76, 78, 80 and 82 follow after step 70, followed by steps 48, 50, 52, 54 and 58 Fig. 4 correspond.
  • the target area 32 that is to say the docking point, is itself identified by the method, for example with object recognition.
  • the target area is specified by the operator using the sensor data in the semi-automatic process.

Landscapes

  • Chemical & Material Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Ocean & Marine Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

System zur Bewegungskompensation zwischen zwei Objekten, Fahrzeug mit dem System, feststehende Struktur mit dem System und Verfahren mit dem SystemEs ist offenbart, dass eine Relativbewegung zwischen zwei Objekten ständig gemessen wird. Die Bewegungsinformation wird zur Kompensation der Bewegung beim Andocken einer Brücke oder eines anderen Elements von dem einen an den anderen Körper genutzt, um eine Zielposition zu treffen und beizubehalten.System for movement compensation between two objects, vehicle with the system, fixed structure with the system and method with the system It is disclosed that a relative movement between two objects is continuously measured. The movement information is used to compensate for the movement when a bridge or another element is docked from one body to the other in order to meet and maintain a target position.

Description

Gebiet der ErfindungField of invention

Die Erfindung betrifft ein System zur Bewegungskompensation zwischen zwei Objekten, wobei zumindest eines der Objekte, wie beispielsweise ein Fahrzeug oder Wasserfahrzeug, bewegbar ist. Des Weiteren betrifft die Erfindung ein Fahrzeug mit dem System und eine feststehende Struktur mit dem System. Außerdem ist ein Verfahren für das System vorgesehen.The invention relates to a system for motion compensation between two objects, at least one of the objects, such as a vehicle or watercraft, being movable. The invention also relates to a vehicle with the system and a fixed structure with the system. A procedure is also provided for the system.

Hintergrund der ErfindungBackground of the invention

In der Offshore-Industrie, wie beispielsweise bei der Rohstoffförderung oder der Windenergiegewinnung, fallen zahlreiche Operationen an Objekten an. Diese können beispielsweise zwischen verschiedenen Schiffen oder Schiffen und feststehenden Strukturen oder Schiffen und schwimmenden Strukturen anfallen. Als feststehende Struktur kann beispielsweise eine Windenergieanlage oder eine feste Bohrplattform vorgesehen sein. Eine schwimmende Struktur ist beispielsweise als schwimmende Bohrplattform oder als ein unter Wasser an Seilen befindlicher Gegenstand ausgebildet. Bei den Operationen werden häufig Personen und Güter von einem Objekt zum anderen transferiert. Hierzu ist es notwendig, dass die Objekte miteinander verbunden werden, beispielsweise indem ein Schiff an eine feste Bohrplattform andockt, wobei vorausgesetzt wird, dass weder Personen, noch Güter verletzt oder beschädigt werden. Problematisch jedoch sind ungewollte und schwer oder nicht vorhersagbare Bewegungen des Objekts oder der Objekte, beispielsweise aufgrund der Wellenbewegung oder der Wetterbedingungen. Bei nicht optimalen Wetterbedingungen steigt das Risiko, dass Personen oder Güter bei solchen Operationen verletzt oder beschädigt werden, erheblich an. Um das Risiko zu senken oder zu vermeiden, werden die Operationen üblicher Weise bei nicht optimalen Wetterbedingungen unterbrochen oder verschoben. Wetterbedingte Verschiebungen oder Ausfälle führen zu erheblichen finanziellen Einbußen. Somit besteht ein hohes Interesse an Systemen, die es erlauben, auch Operationen unter schlechteren Bedingungen auszuführen.In the offshore industry, for example in the extraction of raw materials or wind energy generation, there are numerous operations on objects. These can occur, for example, between different ships or ships and fixed structures or ships and floating structures. For example, a wind power plant or a fixed drilling platform can be provided as the fixed structure. A floating structure is designed, for example, as a floating drilling platform or as an object attached to ropes under water. Often people and goods are transferred from one object to another during operations. For this it is necessary that the objects are connected to one another, for example by docking a ship on a fixed drilling platform, whereby it is assumed that neither people nor goods are injured or damaged. However, unwanted and difficult or unpredictable movements of the object or objects, for example due to the wave movement or the weather conditions, are problematic. If the weather conditions are not ideal, the risk of people or goods being injured or damaged during such operations increases considerably. In order to reduce or avoid the risk, the surgeries are usually performed interrupted or postponed weather conditions that are not optimal Weather-related shifts or failures lead to considerable financial losses. There is therefore a great deal of interest in systems that allow operations to be carried out even under poor conditions.

Offenbarung der ErfindungDisclosure of the invention

Demgegenüber liegt der Erfindung die Aufgabe zugrunde, ein System zu schaffen, mit dem ein Objekt vorrichtungstechnisch einfach, kostengünstig und sicher an ein weiteres Objekt andockbar ist. Des Weiteren liegt der Erfindung die Aufgabe zugrunde, ein Fahrzeug zu schaffen, das vorrichtungstechnisch einfach, kostengünstig und sicher an ein Objekt andockbar ist. Außerdem ist es die Aufgabe der Erfindung, eine feststehende Struktur zu schaffen, an die vorrichtungstechnisch einfach, kostengünstig und sicher ein Objekt andockbar ist. Des Weiteren ist es die Aufgabe der Erfindung, ein Verfahren zu schaffen, um vorrichtungstechnisch einfach, kostengünstig und sicher ein Objekt an ein weiteres Objekt anzudocken.In contrast, the invention is based on the object of creating a system with which an object can be docked to another object in a simple, inexpensive and secure manner in terms of device technology. Furthermore, the invention is based on the object of creating a vehicle that can be docked to an object in a simple, inexpensive and secure manner in terms of device technology. In addition, it is the object of the invention to create a fixed structure to which an object can be docked in a simple, inexpensive and secure manner in terms of device technology. Furthermore, it is the object of the invention to create a method for docking an object to another object in a simple, inexpensive and secure manner in terms of device technology.

Die Aufgabe hinsichtlich des Systems wird gelöst gemäß den Merkmalen des Anspruchs 1, hinsichtlich des Fahrzeugs gemäß den Merkmalen des Anspruchs 10, hinsichtlich der feststehenden Struktur gemäß den Merkmalen des Anspruchs 11 und hinsichtlich des Verfahrens gemäß den Merkmalen des Anspruchs 12.The object with regard to the system is achieved according to the features of claim 1, with regard to the vehicle according to the features of claim 10, with regard to the fixed structure according to the features of claim 11 and with regard to the method according to the features of claim 12.

Vorteilhafte Weiterbildungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous further developments of the invention are the subject of the subclaims.

Erfindungsgemäß ist ein System, insbesondere zur Bewegungskompensation zwischen zwei Objekten, vorgesehen. Das System dient dazu, einen Kontaktbereich des mit dem System versehenen Objekts, insbesondere selbständig, an einen Zielbereich eines anderen Objekts anzunähern und anschließend die Bereiche miteinander zu kontaktieren, wobei insbesondere der Kontakt beibehalten werden soll. Alternativ können auch anschließend die Bereiche in einer, insbesondere vorher bestimmbaren und festlegbaren, Relativposition zueinander positioniert werden, beispielsweise auch mit einem Abstand. Vorzugsweise ist zumindest eines der Objekte bewegbar, wobei es sich bei dem Objekt dann um ein Fahrzeug, insbesondere um ein Wasserfahrzeug handeln kann. Das System hat des Weiteren vorzugsweise zumindest einen Sensor, der bei dem mit dem System versehenen Objekt anordenbar ist. Dieses Objekt kann ein Bauteil, beispielsweise eine Schiffsgangway, oder eine an einer Winde befestigte Last, haben, das den Kontaktbereich aufweist. Der zumindest eine Sensor ist bevorzugter Weise derart ausgestaltet, dass damit Sensorsignale oder Daten über den Zielbereich des anderen, insbesondere des nicht diesen Sensor aufweisenden Objekts, wie beispielsweise einer Bohrplattform, erfassbar sind. Des Weiteren kann zumindest ein Aktor vorgesehen sein. Dieser kann dann das Bauteil und/oder das Objekt mit dem Bauteil antreiben und bewegen, insbesondere um die Position des Kontaktbereichs zu ändern. Hierdurch kann eine Bewegungskompensation zwischen den Bereichen erfolgen. Alternativ oder zusätzlich kann hierdurch die Relativposition der Bereiche geändert werden. Des Weiteren ist vorzugsweise eine Steuereinheit vorgesehen oder das System ist mit einer Steuereinheit, beispielsweise über das Internet oder kabellos oder kabelgebunden, verbunden. Die Steuereinheit ist vorzugsweise derart ausgestaltet, dass damit die Informationen, insbesondere über einen geeigneten Algorithmus, bearbeitet werden, um insbesondere Bewegungs- und/oder Positionsinformationen des Zielbereichs relativ zum Kontaktbereich zu ermitteln. Der Aktor kann dann basierend auf dem von der Steuereinheit bearbeiteten Informationen derart angesteuert sein, dass sich die Bereiche einander annähern und sich anschließend kontaktieren oder anschließend die vorbestimmte Relativposition, insbesondere einen Abstand oder relativen Winkel, beibehalten, und/oder dass die Bewegungskompensation erfolgt. Weiterhin wäre es möglich, dass die Relativbewegung nicht vollständig kompensiert wird, sondern nur soweit minimiert wird, dass die Operation sicher ausgeführt werden kann. Zum Beispiel könnte bei bestehendem Kontakt geringe Winkeländerung zwischen Gangway und anderem Schiff toleriert werden.According to the invention, a system is provided, in particular for motion compensation between two objects. The system is used to approach a contact area of the object provided with the system, in particular independently, to a target area of another object and then to contact the areas with one another, the contact in particular to be maintained. Alternatively, the areas can then also be positioned in a position relative to one another, in particular a position that can be determined and fixed in advance, for example also at a distance. At least one of the objects is preferably movable, the object then being a vehicle, in particular a watercraft. The system furthermore preferably has at least one sensor which can be arranged on the object provided with the system. This object can be a component, for example a ship's gangway, or one on a winch attached load, which has the contact area. The at least one sensor is preferably designed in such a way that sensor signals or data about the target area of the other object, in particular the object that does not have this sensor, such as a drilling platform, can be detected. Furthermore, at least one actuator can be provided. This can then drive and move the component and / or the object with the component, in particular in order to change the position of the contact area. This allows movement compensation between the areas. Alternatively or additionally, this can change the relative position of the areas. Furthermore, a control unit is preferably provided or the system is connected to a control unit, for example via the Internet or wirelessly or by cable. The control unit is preferably designed in such a way that it is used to process the information, in particular via a suitable algorithm, in order in particular to determine movement and / or position information of the target area relative to the contact area. The actuator can then be controlled based on the information processed by the control unit in such a way that the areas approach one another and then contact one another or then maintain the predetermined relative position, in particular a distance or relative angle, and / or that the movement compensation takes place. Furthermore, it would be possible for the relative movement not to be fully compensated, but only to be minimized to the extent that the operation can be carried out safely. For example, with existing contact, slight changes in the angle between the gangway and the other ship could be tolerated.

Mit anderen Worten kann eine Relativbewegung zwischen zwei Objekten, insbesondere ständig, gemessen werden. Die Bewegungsinformation kann dann zur Kompensation der Relativbewegung beim Andocken, beispielsweise einer Brücke oder eines anderen Elements von dem einen an den anderen Körper genutzt werden, um die Zielposition zu treffen und beizubehalten.In other words, a relative movement between two objects, in particular continuously, can be measured. The movement information can then be used to compensate for the relative movement during docking, for example a bridge or another element from one body to the other, in order to meet and maintain the target position.

Diese Lösung hat den Vorteil, dass Operationen, beispielsweise zwischen zwei schwimmenden Objekten oder Körpern, auch bei nicht optimalen Wetterbedingungen ausgeführt werden können. Dies erfolgt vorzugsweise, indem die Relativbewegung beispielsweise zwischen den Kontaktpunkten, beispielsweise zwischen einer Endseite einer Gangway und einer Andockstelle, zwischen beiden Körpern bestimmt wird und dann kompensiert werden kann.This solution has the advantage that operations, for example between two floating objects or bodies, can also be carried out in less than optimal weather conditions. This is preferably done in that the relative movement is determined, for example, between the contact points, for example between an end side of a gangway and a docking point, between the two bodies and can then be compensated for.

Vorteilhafter Weise kann das System nur auf einem der beiden Objekte oder Körper installiert sein. Es sind dann keine Hilfsmittel oder Sensoren auf dem anderen Objekt, beispielsweise auf dem anderen Schwimmkörper, nötig. Dies führt zu einer hohen Einsatz-Flexibilität, da ein mit dem System ausgerüstetes Objekt beispielsweise an Objekte ohne entsprechende Einrichtung andocken kann. Des Weiteren wird die Sicherheit bei Operationen zwischen zwei Objekten, insbesondere zwischen zwei schwimmenden Körpern, erhöht. Eine manuelle Kompensation der Relativbewegung im Stand der Technik ist praktisch nicht möglich, so dass derzeit bei derartigen Operationen keine Kompensation stattfindet und immer erhebliche Risiken in Kauf genommen werden müssen und Unfälle nicht ausgeschlossen sind. Des Weiteren ist mit dem vorliegenden System eine schnelle Docking-Operation durchführbar. Es ist mit dem erfindungsgemäßen System nicht notwendig, beispielsweise für Operationen zwischen zwei schwimmenden Körpern, eine Relativbewegung zwischen deren Kontaktstellen über eine Sensorik zu bestimmen, die auf beiden schwimmenden Körpern vorgesehen ist. Es muss somit keine Sensorik auf beiden Körpern oder Objekten installiert sein, die Daten austauschen. Bei dem vorliegenden erfindungsgemäßen System ist es auch nicht notwendig, dass bei dem Objekt, dass keinen Sensor aufweist, Hilfsmittel für den Sensor angebracht werden, wie beispielsweise Reflektoren für Laser, Radar oder Marker für Kameras. Bei dem erfindungsgemäßen System ist somit vorteilhaft, dass die Relativposition zwischen dem Zielbereich und dem Kontaktbereich ermittelbar ist. Es wird somit nicht nur die Bewegung des Körpers bestimmt, auf dem das System installiert ist. Würde nur die Bewegung dieses Körpers bestimmt werden, dann wäre nur eine absolute Positionierung im Raum möglich, was insbesondere bei Operationen zwischen zwei bewegten Objekten problematisch wäre.The system can advantageously only be installed on one of the two objects or bodies. No aids or sensors are then required on the other object, for example on the other float. This leads to a high degree of flexibility in use, since an object equipped with the system can, for example, dock onto objects without a corresponding device. Furthermore, safety is increased during operations between two objects, in particular between two floating bodies. A manual compensation of the relative movement in the prior art is practically impossible, so that no compensation currently takes place in operations of this kind and considerable risks always have to be accepted and accidents cannot be ruled out. Furthermore, a quick docking operation can be carried out with the present system. With the system according to the invention, it is not necessary, for example for operations between two floating bodies, to determine a relative movement between their contact points using a sensor system that is provided on both floating bodies. There is therefore no need to install any sensors on both bodies or objects that exchange data. In the present system according to the invention, it is also not necessary to attach aids for the sensor to the object that does not have a sensor, such as reflectors for lasers, radar or markers for cameras. In the system according to the invention, it is therefore advantageous that the relative position between the target area and the contact area can be determined. This not only determines the movement of the body on which the system is installed. If only the movement of this body were to be determined, then only absolute positioning in space would be possible, which would be problematic in particular for operations between two moving objects.

Bei dem vorliegenden System kann somit eine relative Bewegung zwischen zwei Objekten, beispielsweise zwischen zwei schwimmenden oder auch einem schwimmenden Objekt und einem festen Objekt, ermittelt werden. Die Bestimmung der relativen Bewegung erfolgt dabei nur von einem Objekt aus, womit bei dem anderen Objekt keine Hilfsmittel hierfür notwendig sind. Es müssen somit am anderen Objekt keine Hilfsmittel angebracht werden und es müssen keine Informationen vom anderen Objekt zum ersten Objekt kommuniziert werden.In the present system, a relative movement between two objects, for example between two floating objects or between a floating object and a fixed object, can thus be determined. The relative movement is only determined from one object, which means that no tools are required for the other object. No aids need to be attached to the other object and no information needs to be communicated from the other object to the first object.

In weiterer Ausgestaltung der Erfindung werden Informationen in Form von Bewegungs- und/oder Positionsinformationen über den Kontaktbereich des Bauteils des Objekts erfasst und/oder festgelegt und/oder der Steuereinheit zu bestimmten Zeitpunkten oder Ereignissen oder kontinuierlich gemeldet. Dies ist vorteilhaft, um die Relativposition zwischen dem Kontaktbereich und dem Zielbereich einfach zu ermitteln.In a further embodiment of the invention, information in the form of movement and / or position information about the contact area of the component of the object is recorded and / or established and / or the control unit at certain times or events or reported continuously. This is advantageous in order to easily determine the relative position between the contact area and the target area.

Vorzugsweise kann ein Auswahl-Algorithmus vorgesehen sein. Dieser ist beispielsweise derart ausgebildet, dass aus von dem zumindest einem Sensor erfassten Bereichen ein Zielbereich über die Steuereinheit, insbesondere automatisch, auswählbar ist. Im Anschluss kann dann der Zielbereich verfolgt werden. Nähert sich beispielsweise das Objekt mit dem Kontaktbereich an das weitere Objekt an, so kann das Objekt mit dem Kontaktbereich über den Auswahl-Algorithmus selbständig einen Zielbereich an dem anderen Objekt auswählen und dann im Anschluss die benötigten Informationen erfassen, um die Bewegungskompensation und/oder die Annäherung der Bereiche zu ermöglichen.A selection algorithm can preferably be provided. This is designed, for example, in such a way that a target area can be selected via the control unit, in particular automatically, from areas detected by the at least one sensor. The target area can then be followed. If, for example, the object with the contact area approaches the further object, the object with the contact area can independently select a target area on the other object using the selection algorithm and then subsequently acquire the information required for the movement compensation and / or the To enable convergence of the areas.

Bei einer weiteren bevorzugten Ausführungsform der Erfindung kann ein Eingabemittel vorgesehen sein. Dieses ist vorzugsweise derart ausgestaltet, dass damit von dem zumindest einen Sensor erfassten Bereichen ein Zielbereich manuell, insbesondere über einen Bediener, auswählbar ist und vorzugsweise im Anschluss verfolgt werden kann. Somit kann alternativ oder zusätzlich zur automatischen Auswahl auch eine manuelle Auswahl des Zielbereichs vorgesehen sein. Ein derartiges Eingabemittel ist vorteilhaft, beispielsweise, wenn sich ein Bediener des Objekts mit dem Kontaktbereich nicht auf eine reine automatische Zielbereichsauswahl verlassen möchte. Ist beides möglich, also eine automatische oder manuelle Zielauswahl, so kann der Bediener bei Bedarf, beispielsweise in schwierigen Situationen, auf die manuelle Zielbereichsauswahl zurückgreifen.In a further preferred embodiment of the invention, an input means can be provided. This is preferably designed in such a way that a target area can be selected manually, in particular via an operator, by the at least one sensor detected areas, and can then preferably be followed. As an alternative or in addition to the automatic selection, manual selection of the target area can thus also be provided. Such an input means is advantageous, for example, if an operator of the object with the contact area does not want to rely on a purely automatic target area selection. If both are possible, i.e. automatic or manual target selection, the operator can fall back on manual target area selection if necessary, for example in difficult situations.

In weiterer Ausgestaltung der Erfindung ist vorzugsweise ein Verfolgungs-Algorithmus vorgesehen. Dieser kann derart ausgestaltet sein, dass über diesen anhand der von dem zumindest einem Sensor erfassten Informationen der, insbesondere der ausgewählte, Zielbereich verfolgt ist. Somit muss ein Bediener nach der Zielbereichsauswahl diesen Zielbereich nicht manuell verfolgen, sondern die Verfolgung erfolgt vorteilhafter Weise automatisch. Es ist denkbar, dass der ausgewählte Zielbereich markiert ist und in einer Anzeige angezeigt werden kann.In a further embodiment of the invention, a tracking algorithm is preferably provided. This can be configured in such a way that the, in particular the selected, target area is tracked via it on the basis of the information recorded by the at least one sensor. Thus, after the target area has been selected, an operator does not have to track this target area manually, but the tracking advantageously takes place automatically. It is conceivable that the selected target area is marked and can be shown in a display.

Mit Vorteil ist ein Positionsbestimmungs-Algorithmus vorgesehen, der derart ausgestaltet sein kann, dass über diesen Bewegungs- und/oder Positionsinformationen des, insbesondere ausgewählten und/oder verfolgten, Zielbereichs ermittelt sind. Somit kann dann einfach die Relativposition und -bewegung zum Kontaktbereich berechnet werden.A position determination algorithm is advantageously provided, which can be designed in such a way that it is used to determine movement and / or position information of the, in particular selected and / or tracked, target area. The position and movement relative to the contact area can then easily be calculated.

Vorzugsweise ist des Weiteren ein Kompensations-Algorithmus vorgesehen, der derart ausgestaltet ist, dass die Bereiche, also der Zielbereich und der Kontaktbereich, nach einer ungewollten Relativverschiebung oder -drehung, ausgehend von einer aktuellen Relativposition, wieder in diese Relativposition zurückgeführt werden oder weiter zueinander angenähert werden. Somit kann über den Kompensations-Algorithmus insbesondere die Bewegungskompensation ausgeführt werden. Bei einer Bewegungskompensation würden vorzugsweise der Kontaktbereich und Zielbereich in einer festen Relativ-Position zueinander stehen, obwohl sich das Objekt, insbesondere wellenbedingt, bewegt.Furthermore, a compensation algorithm is preferably provided, which is designed in such a way that the areas, i.e. the target area and the contact area, are returned to this relative position or come closer to one another after an undesired relative displacement or rotation, starting from a current relative position will. Thus, in particular, the movement compensation can be carried out via the compensation algorithm. In the case of movement compensation, the contact area and target area would preferably be in a fixed relative position to one another, although the object moves, in particular due to waves.

Wie vorstehende bereits angeführt, kann vorgesehen sein, dass eine Ermittlung oder Festlegung der Informationen in Form von Bewegungs- und/oder Positionsinformationen des Kontaktbereichs erfolgt. Aus den Informationen über den Zielbereich und aus der Information über den Kontaktbereich kann dann eine Relativbewegung und/oder eine Relativposition ermittelt werden. Die Informationen des Kontaktbereichs können beispielsweise beim Positionsbestimmungs-Algorithmus verwendet sein und gleichzeitig oder nach oder vor der Ermittlung der Informationen für den Zielbereich erfasst werden.As already mentioned above, it can be provided that the information is ascertained or determined in the form of movement and / or position information of the contact area. A relative movement and / or a relative position can then be determined from the information about the target area and from the information about the contact area. The information of the contact area can be used, for example, in the position determination algorithm and can be recorded simultaneously or after or before the determination of the information for the target area.

In weiterer Ausgestaltung der Erfindung ist vorzugsweise eines der Objekte eine feststehende Struktur und das andere Objekt bewegbar, insbesondere in Form eines Fahrzeugs. Denkbar wäre auch, dass beide Objekte bewegbar sind. Bei dem Fahrzeug handelt es sich vorzugsweise um ein Luftfahrzeug oder um ein wassergebundenes Fahrzeug oder um ein landgebundenes Fahrzeug. Als feststehende Struktur ist beispielsweise eine Offshore-Windturbine oder eine feste Bohrplattform vorgesehen. Als wassergebundenes Fahrzeug kann ein Schiff eine schwimmende Plattform oder eine Boje vorgesehen sein. Das erfindungsgemäße System ist dabei entweder auf der feststehenden Struktur oder auf dem bewegbaren Objekt angeordnet.In a further embodiment of the invention, one of the objects is preferably a stationary structure and the other object is movable, in particular in the form of a vehicle. It would also be conceivable that both objects can be moved. The vehicle is preferably an aircraft or a water-based vehicle or a land-based vehicle. An offshore wind turbine or a fixed drilling platform, for example, is provided as the fixed structure. A ship, a floating platform or a buoy can be provided as a water-bound vehicle. The system according to the invention is arranged either on the fixed structure or on the movable object.

In weiterer Ausgestaltung der Erfindung ist das Bauteil eine über eine Winde und einen Kranarm bewegbare oder schwebbare Last. Der Kontaktbereich ist vorzugsweise hierbei eine unterseitige Auflagefläche der Last. Der Zielbereich kann eine Ablagefläche für die Last am anderen Objekt sein. Alternativ ist denkbar, dass das Bauteil ein Kranarm oder eine Zugangsbrücke oder -treppe oder eine Gangway eines Wasserfahrzeugs ist. Der Kontaktbereich ist vorzugsweise dann eine Anlagefläche davon, die in Kontakt mit dem anderen Objekt gebracht werden soll oder nahe an das Objekt herangeführt werden soll.In a further embodiment of the invention, the component is a load that can be moved or suspended by means of a winch and a crane arm. The contact area is preferably an underside bearing surface of the load. The target area can be a storage area for the load on the other object. Alternatively, it is conceivable that the component is a crane arm or an access bridge or staircase or a gangway of a watercraft. The contact area is then preferably a contact surface thereof, which is to be brought into contact with the other object or to be brought close to the object.

Denkbar wäre auch, dass das Bauteil ein Bauteil der Winde ist, wie beispielsweise ein Verbindungselement, wie beispielsweise ein Kranhaken für die Last. Ist die Bewegungskompensation für die Winde vorgesehen, so kann beispielsweise die Hubbewegung des Fahrzeugs, insbesondere des Wasserfahrzeugs, in der Endposition des Seils, wo sich beispielsweise der Kranhaken befindet, kompensiert werden. Das heißt, der Kranhaken würde im Wesentlichen an einer festen Position im Raum stehen, obwohl sich das Fahrzeug wellenbedingt bewegt.It would also be conceivable that the component is a component of the winch, such as a connecting element, such as a crane hook for the load. If the movement compensation is provided for the winch, then, for example, the lifting movement of the vehicle, in particular the watercraft, can be compensated for in the end position of the rope, where the crane hook is, for example. This means that the crane hook would essentially be in a fixed position in space, although the vehicle is moving due to waves.

Bei einer bewegungskompensierten Schiffsgangway könnte das Ende der Gangway über die Bewegungskompensation des Systems bewegungskompensiert sein. Hierdurch kann das Ende der Schiffsgangway trotz Schiffsbewegung an einer festen Position im Raum positioniert werden, womit ermöglicht ist, dass es zum Zielbereich geführt werden kann, um beispielsweise an einem Windrad anzudocken.In the case of a movement-compensated ship gangway, the end of the gangway could be movement-compensated via the movement compensation of the system. As a result, the end of the ship gangway can be positioned at a fixed position in space despite the ship's movement, which enables it to be guided to the target area, for example to dock on a wind turbine.

Vorzugsweise ist der zumindest eine Aktor oder sind eine Mehrzahl von Aktoren derart ausgestaltet, dass der Kontaktbereich des Bauteils in eine, zwei oder drei translatorische Richtung/en und/oder in eine, zwei oder drei rotatorische Richtung/en bewegbar ist. Somit ist denkbar, dass ein Teil oder alle Bewegungen kompensiert werden können. Je nach Anwendung wird dann eine bestimmte Anzahl oder Ausgestaltung des Aktors oder der Aktoren eingesetzt, um den Kontaktbereich in gewünschte Richtungen zu bewegen. Es hat sich gezeigt, dass beispielsweise bei einer Winde mit der am Seil befindlichen Last gute Ergebnisse erzielbar sind, wenn nur translatorische relative Hubbewegungen in vertikaler Richtung über die Bewegungskompensation des Systems kompensiert werden. Die rotatorischen und die restlichen translatorischen Bewegungen können dann unberücksichtigt bleiben, wobei die entsprechenden Bewegungen zwischen dem Kontaktbereich und dem Zielbereich möglich sind und toleriert werden. Mit anderen Worten kann beispielsweise beim Bauteil in Form der Last diese über den Aktor in Form der Winde in Schwerkraftrichtung bewegbar sein, um eine Bewegungskompensation durchzuführen.The at least one actuator or a plurality of actuators is preferably designed such that the contact area of the component can be moved in one, two or three translational direction (s) and / or in one, two or three rotary direction (s). It is therefore conceivable that some or all of the movements can be compensated for. Depending on the application, a certain number or configuration of the actuator or actuators is then used in order to move the contact area in the desired directions. It has been shown that, for example, in the case of a winch with the load on the rope, good results can be achieved if only translational relative lifting movements in the vertical direction are compensated for via the movement compensation of the system. The rotary and the remaining translational movements can then be disregarded, the corresponding movements between the contact area and the target area being possible and being tolerated. In other words, for example, with the component in the form of Load it to be movable in the direction of gravity via the actuator in the form of the winch in order to carry out movement compensation.

In weiterer Ausgestaltung der Erfindung kann das Bauteil des bewegbaren Objekts relativ zu diesem mit dem zumindest einen oder einem weiteren Aktor bewegbar sein. In Abhängigkeit der über den zumindest einen Sensor erfassten Informationen kann das Bauteil derart über diesen zumindest einen Aktor relativ zu seinem Objekt bewegbar sein, dass sich der Kontakt- und Zielbereich einander annähern und/oder dass die Bereiche einen vorbestimmten Abstand oder einen Kontakt beibehalten und/oder dass eine Bewegungskompensation erfolgt.In a further embodiment of the invention, the component of the movable object can be movable relative to this with the at least one or a further actuator. Depending on the information detected via the at least one sensor, the component can be moved relative to its object via this at least one actuator in such a way that the contact and target areas approach one another and / or that the areas maintain a predetermined distance or contact and / or that motion compensation takes place.

In einer bevorzugten Ausführungsform der Erfindung ist der Sensor oder der Sensor in Kombination mit dem Auswahl-Algorithmus vorzugsweise derart ausgestaltet, dass - wie obenstehend bereits angeführt - beim Zielbereich keine Hilfsmittel notwendig sind, um diesen zu erfassen. Somit sind keine Anpassungen beim Objekt mit dem Zielbereich notwendig. Beispielsweise müssen beim Zielbereich keine Hilfsmittel oder zusätzliche Sensorik verwendet werden, damit der Sensor den Zielbereich erfassen kann. Es sind dann beispielsweise keine Motion Reference Units (MRU) oder festinstallierte Referenzmesspunkte zur Positionsbestimmung erforderlich, wie beispielsweise Reflektoren für Radarsensoren oder Laser. Somit ist es nicht notwendig, Referenzmesspunkte zu vermessen und aufwendig an die Steuereinheit zu melden.In a preferred embodiment of the invention, the sensor or the sensor in combination with the selection algorithm is preferably designed in such a way that - as already mentioned above - no aids are required in the target area in order to detect it. This means that no adjustments to the object with the target area are necessary. For example, no aids or additional sensors need to be used in the target area so that the sensor can detect the target area. For example, no motion reference units (MRU) or permanently installed reference measuring points for position determination are then required, such as reflectors for radar sensors or lasers. It is therefore not necessary to measure reference measuring points and report them to the control unit in a complex manner.

Als Sensor kann beispielsweise ein, insbesondere 3D, bildgebender Sensor vorgesehen sein. Alternativ oder zusätzlich kann der Sensor oder ein weiterer Sensor als Kamera ausgestaltet sein. Hier eignet sich beispielsweise eine Monochrom-Kamera oder eine Farb-Kamera oder eine Stereo-Kamera oder eine Infrarot-Kamera oder eine Time-Off-Flight (TOF) Kamera. Alternativ oder zusätzlich kann der Sensor oder ein weiterer Sensor als Light-Detection-And-Ranging (LIDAR) Sensor ausgestaltet sein. Des Weiteren ist denkbar, alternativ oder zusätzlich, als Sensor einen Radarsensor und/oder einen Ultraschallsensor und/oder einen Intertialsensor Sensor, wie beispielsweise eine Motion-Reference-Unit (MRU), vorzusehen. Bevorzugter Weise kann ein Messbereich des Sensors oder der Sensoren über einen oder jeweils einen Verstellaktor verstellbar sein. Der Verstellaktor ist beispielsweise durch die Steuereinheit oder den Bediener steuerbar. Über den Vestellaktor ist der Sensor flexibel zum Zielbereich ausrichtbar. Dies kann beispielsweise automatisch erfolgen und/oder es erfolgt eine Positionierung, insbesondere eine Grobpositionierung, über den Bediener. Denkbar ist auch, dass bei einer Positionsveränderung zwischen dem Zielbereich und dem Kontaktbereich der Sensor dem Zielbereich automatisch durch entsprechende Ansteuerung des Verstellaktors folgt.For example, an imaging sensor, in particular a 3D image sensor, can be provided as the sensor. Alternatively or additionally, the sensor or another sensor can be designed as a camera. For example, a monochrome camera or a color camera or a stereo camera or an infrared camera or a time-off-flight (TOF) camera are suitable here. Alternatively or additionally, the sensor or a further sensor can be configured as a light detection and ranging (LIDAR) sensor. Furthermore, it is conceivable, alternatively or additionally, to provide a radar sensor and / or an ultrasonic sensor and / or an inertial sensor sensor, such as a motion reference unit (MRU), as the sensor. A measuring range of the sensor or sensors can preferably be adjustable via one or one adjustment actuator in each case. The adjustment actuator can be controlled, for example, by the control unit or the operator. The sensor is flexible via the Vestellaktor can be aligned to the target area. This can take place automatically, for example, and / or positioning, in particular rough positioning, takes place via the operator. It is also conceivable that, in the event of a change in position between the target area and the contact area, the sensor automatically follows the target area by activating the adjustment actuator accordingly.

Der Sensor ist beispielsweise am bewegbaren Bauteil angebracht. Er kann beispielsweise zusammen mit dem Bauteil und/oder unabhängig vom Bauteil über den Verstellaktor bewegt werden. Eine Bewegung des Sensors zusammen mit dem Bauteil hat den Vorteil, dass bei einer Bewegung des Bauteils mit seinem Kontaktbereich hin zum Zielbereich der Sensor beispielsweise ebenfalls näher an den Zielbereich herangeführt werden kann. Bei Verwendung von Sensoren auf dem Objekt ist es notwendig die Bewegung/Position der Kontaktstelle des Bauteils aufwändig mithilfe der kinematischen Daten des Bauteils zu berechnen. Diese Berechnung entfällt oder vereinfacht sich, je näher die Sensorik oder der Sensor an dem Kontaktbereich angebracht ist.The sensor is attached to the movable component, for example. For example, it can be moved together with the component and / or independently of the component via the adjustment actuator. Moving the sensor together with the component has the advantage that when the component moves with its contact area towards the target area, the sensor can, for example, also be brought closer to the target area. When using sensors on the object, it is necessary to calculate the movement / position of the contact point of the component in a complex manner using the kinematic data of the component. This calculation is omitted or simplified the closer the sensor system or the sensor is attached to the contact area.

Bei einem bevorzugten Ausführungsbeispiel ist am bewegbaren Bauteil, insbesondere in Form eines Auslegers, der Sensor in Form eines LIDAR-Sensors befestigt. Insbesondere ist der Sensor stirnseitig, also beispielsweise an einem Endabschnitt oder einer Spitze des Auslegers, angeordnet und somit beispielsweise nahe am Kontaktbereich oder benachbart zum Kontaktbereich. Außerdem ist der Sensor hierdurch vorteilhafterweise in einer exponierten Position, was zu einem freien Messbereich führt.In a preferred embodiment, the sensor in the form of a LIDAR sensor is attached to the movable component, in particular in the form of a boom. In particular, the sensor is arranged on the end face, that is to say for example at an end section or a tip of the boom, and thus for example close to the contact area or adjacent to the contact area. In addition, the sensor is thereby advantageously in an exposed position, which leads to a free measurement area.

Alternativ oder zusätzlich kann zumindest ein Sensor oder ein weiterer Sensor und/oder ein Sensorpaar am Objekt mit dem Bauteil und somit vorzugsweise nicht am bewegbaren Bauteil befestigt sein. Als Sensor ist hier beispielsweise eine Kamera, insbesondere eine Pan-Tilt-Zoom (PTZ) Überwachungskamera vorgesehen. Ist ein Sensorpaar angeordnet, so kann neben der Kamera ein damit, insbesondere mechanisch, verbundener LIDAR-Sensor eingesetzt sein. Vorzugsweise ist die Anordnung des Sensors oder der Sensoren am Objekt derart vorgesehen, dass in dieser Position der Zielbereich trotz Bewegung oder Wellenbewegung des Objekts, stets im Messbereich vorgesehen ist. Dies wird insbesondere durch die PTZ Überwachungskamera sichergestellt. Ist der LIDAR-Sensor mechanisch mit der Kamera verbunden, so wird auch dieser entsprechend der Kamera mitbewegt, beispielsweise über einen Verstellaktor, womit nur ein Verstellaktor notwendig ist. Hierdurch ist auch dessen Messbereich den Anforderungen entsprechend erweitert. Der Sensor oder das Sensorpaar sind beispielsweise an einer bewegbaren Plattform angeordnet, über die das Bauteil um eine Hochachse des Fahrzeugs oder der Struktur bewegbar ist. Der Sensor oder das Sensorpaar können dann beispielsweise zusammen mit der Plattform über einen Aktor oder Verstellaktor bewegt werden.Alternatively or additionally, at least one sensor or a further sensor and / or a sensor pair can be attached to the object with the component and thus preferably not to the movable component. A camera, in particular a pan-tilt-zoom (PTZ) surveillance camera, is provided here as the sensor. If a sensor pair is arranged, a LIDAR sensor connected to it, in particular mechanically, can be used in addition to the camera. The arrangement of the sensor or sensors on the object is preferably provided in such a way that, in this position, the target area is always provided in the measurement area despite movement or wave movement of the object. This is ensured in particular by the PTZ surveillance camera. If the LIDAR sensor is mechanically connected to the camera, it is also moved along with the camera, for example via a Adjustment actuator, which means that only one adjustment actuator is necessary. This also extends its measuring range according to the requirements. The sensor or the sensor pair are arranged, for example, on a movable platform via which the component can be moved about a vertical axis of the vehicle or the structure. The sensor or the pair of sensors can then, for example, be moved together with the platform via an actuator or adjustment actuator.

Vorzugsweise ist neben dem Sensor oder dem Sensorpaar am Objekt ein weiterer Sensor vorgesehen, der insbesondere zur automatischen Erfassung oder bei der automatischen Auswahl des Zielbereichs vorgesehen ist. Der weitere Sensor ist beispielsweise an der Plattform befestigt oder am Fahrzeug oder der Struktur, also vorzugsweise nicht am Bauteil.In addition to the sensor or the sensor pair, a further sensor is preferably provided on the object, which is provided in particular for automatic detection or for the automatic selection of the target area. The further sensor is attached, for example, to the platform or to the vehicle or the structure, ie preferably not to the component.

Der Sensor oder ein Teil der Sensoren oder alle Sensoren sind vorzugsweise intrinsisch und/oder extrinsisch kalibriert. Bei der intrinsischen Kalibrierung erfolgt beispielsweise eine Kalibrierung eines Sensors in Form einer Kamera zur zugeordneten Optik. Des Weiteren, falls mehrere Sensoren vorgesehen sind, werden diese oder ein Teil von diesen vorzugsweise gegeneinander kalibriert. Durch die Kalibrierungen kann eine Koordinatentransformation zwischen Sensor-Koordinatensystemen ermöglicht sein, damit die Steuereinheit die gewünschten Informationen einfach ermitteln kann. Beim, insbesondere gleichzeitigen, Einsatz mehrerer bildgebender Sensoren, werden die einzelnen Bilder (Kameras)/Punktwolken (Lidar) im Algorithmus an bestimmten Punkten zusammengeführt und/oder fusioniert. Gründe dafür können u.a. gegenseitige Plausibilisierung, Schaffung von Redundanz für Sensorausfall oder temporäre Okklusion oder Erhöhung der Stabilität der Algorithmen sein. Für eine sinnvolle Zusammenführung sollte die Relativposition (3 Translationen, 3 Rotationen) zwischen den Koordinatensystemen der bildgebenen Sensoren bekannt sein. Dies wird durch die extrinsische Kalibrierung gewährleistet.The sensor or some of the sensors or all sensors are preferably intrinsically and / or extrinsically calibrated. In intrinsic calibration, for example, a sensor is calibrated in the form of a camera for the associated optics. Furthermore, if several sensors are provided, these or some of them are preferably calibrated against one another. The calibrations can enable a coordinate transformation between sensor coordinate systems so that the control unit can easily determine the desired information. When several imaging sensors are used, in particular at the same time, the individual images (cameras) / point clouds (lidar) are merged and / or merged in the algorithm at certain points. Reasons for this can include mutual plausibility checks, creating redundancy for sensor failure or temporary occlusion or increasing the stability of the algorithms. For a meaningful merging, the relative position (3 translations, 3 rotations) between the coordinate systems of the imaging sensors should be known. This is guaranteed by the extrinsic calibration.

Bei einer bevorzugten Lösung kann ein Eingabemittel oder ein weiteres Eingabemittel für den zumindest einen Aktor und/oder für den zumindest einen Verstellaktor vorgesehen sein. Bei dem Eingabemittel handelt es sich beispielsweise um einen Joystick. Das Eingabemittel kann derart ausgestaltet sein, dass damit über einen Bediener das den Kontaktbereich aufweisende Bauteil und/oder der zumindest eine Sensor bezüglich des Zielbereichs, insbesondere vorab, positionierbar ist. Somit ist auf einfache Weise beispielsweise eine Grobpositionierung durch einen Bediener möglich, bevor eine automatische Bewegungskompensation und/oder Annäherung der Bereiche erfolgt.In a preferred solution, an input means or a further input means can be provided for the at least one actuator and / or for the at least one adjustment actuator. The input means is, for example, a joystick. The input means can be configured in such a way that the component having the contact area and / or the at least one sensor with respect to the target area, in particular in advance, is positionable. Thus, for example, rough positioning by an operator is possible in a simple manner before automatic movement compensation and / or approach of the areas takes place.

In weiterer Ausgestaltung der Erfindung ist denkbar, eine Anzeige oder ein Display vorzusehen. Auf diesem können dann beispielsweise mögliche von dem zumindest einen Sensor erfasste Zielbereiche dargestellt sein. Insbesondere kann ein von dem Sensor von einer Kamera erfasstes Bild dargestellt werden. Über ein oder das Eingabemittel kann der Bediener anhand der Anzeige einen Zielbereich auswählen. Des Weiteren ist denkbar, dass über die Anzeige anhand der von dem zumindest einen Sensor erfassten Informationen eine Position oder 3D-Position, des, insbesondere ausgewählten, Zielbereichs dargestellt ist.In a further embodiment of the invention it is conceivable to provide a display or a display. Possible target areas detected by the at least one sensor can then be displayed on this, for example. In particular, an image captured by the sensor by a camera can be displayed. The operator can use the display to select a target area via an input means. Furthermore, it is conceivable that a position or 3D position of the, in particular selected, target area is shown on the display based on the information recorded by the at least one sensor.

Erfindungsgemäß ist ein Fahrzeug mit dem System gemäß einem oder mehreren der vorhergehenden Aspekte vorgesehen. Das Fahrzeug kann hierbei als Objekt mit dem Sensor eingesetzt sein.According to the invention, a vehicle with the system according to one or more of the preceding aspects is provided. The vehicle can be used as an object with the sensor.

Erfindungsgemäß ist eine feststehende Struktur vorgesehen, an die ein Fahrzeug, insbesondere ein Wasserfahrzeug, andockbar ist. Die Struktur kann dann das System gemäß einem oder mehrerer der vorhergehenden Aspekte aufweisen. Die Struktur kann dann als Objekt mit dem Sensor eingesetzt sein. Denkbar ist dabei, dass die Struktur das bewegbare Bauteil hat.According to the invention, a stationary structure is provided to which a vehicle, in particular a watercraft, can be docked. The structure can then have the system according to one or more of the preceding aspects. The structure can then be used as an object with the sensor. It is conceivable that the structure has the movable component.

Erfindungsgemäß ist ein Verfahren mit einem System gemäß einem oder mehreren der vorhergehende Aspekte vorgesehen, das folgende Schritte aufweist:

  • Erfassen von Sensorsignalen des zumindest einen Sensors,
  • Auswahl des Zielbereichs anhand der erfassten Sensorsignale,
  • Ermittlung der Informationen in Form von relativen Bewegungs- und/oder Positionsinformationen zwischen dem ausgewählten Zielbereich und dem Kontaktbereich des Bauteils oder des Objekts, insbesondere über den Positionsbestimmungs-Algorithmus,
  • Ansteuerung des zumindest einen Aktors basierend auf den ermittelten Informationen derart, dass sich der Kontaktbereich und der Zielbereich einander annähern und/oder dass die Relativ-Bewegungskompensation oder die Bewegungskompensation, insbesondere über den Kompensations-Algorithmus, erfolgt.
According to the invention, a method with a system according to one or more of the preceding aspects is provided, which has the following steps:
  • Acquisition of sensor signals from the at least one sensor,
  • Selection of the target area based on the recorded sensor signals,
  • Determination of the information in the form of relative movement and / or position information between the selected target area and the contact area of the component or the object, in particular via the position determination algorithm,
  • Control of the at least one actuator based on the determined information in such a way that the contact area and the target area approach one another and / or that the relative movement compensation or the movement compensation takes place, in particular via the compensation algorithm.

Diese Lösung hat den Vorteil, dass auf einfache Weise eine Bewegungskompensation zwischen den Bereichen und/oder auf einfache Weise eine Annäherung der Bereiche ermöglicht ist. Die Kompensation kann beispielsweise durch eine entsprechende Ansteuerung des Kranarms, der Gangway oder der Winde erfolgen, mit deren Hilfe der Kontakt zum anderen Objekt aufgebaut wird. Es sind somit Operationen zwischen beispielsweise zwei schwimmenden oder auch einem schwimmenden und einem festen Körper auf einfache Weise ermöglicht.This solution has the advantage that a movement compensation between the areas and / or an approximation of the areas is made possible in a simple manner. The compensation can take place, for example, by a corresponding control of the crane arm, the gangway or the winch, with the help of which contact with the other object is established. Operations between, for example, two floating bodies or one floating body and one solid body are thus made possible in a simple manner.

In weiterer Ausgestaltung des Verfahrens können, beispielsweise nach der Ansteuerung des Aktors zur Initiierung einer relativen Bewegung zwischen den Bereichen, folgende Schritte folgen:

  • Erfassen von Sensorsignalen des zumindest einen Sensors.
  • Verfolgen oder Tracken oder Wiederfinden des gewählten Zielbereichs in den Sensorsignalen, insbesondere anhand des Verfolgungs-Algorithmus, insbesondere über die Steuereinheit. Somit muss vorteilhafter Weise nicht erneut manuell der Zielbereich ausgewählt werden.
  • Ermittlung der Informationen in Form von Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs anhand der Sensorsignale des zumindest einen Sensors, insbesondere über den Positionsbestimmungs-Algorithmus.
  • Ansteuerung des zumindest einen Aktors basierend auf den ermittelten Informationen derart, dass sich der Kontaktbereich und der Zielbereich einander annähern und/oder dass die Bewegungskompensation erfolgt. Diese Schritte können so oft wiederholt werden, bis die Bereiche kontaktiert sind oder in einem vorbestimmten Abstand zueinander angeordnet sind.
In a further refinement of the method, for example, after the actuator has been activated to initiate a relative movement between the areas, the following steps can follow:
  • Detecting sensor signals from the at least one sensor.
  • Tracking or tracking or retrieval of the selected target area in the sensor signals, in particular using the tracking algorithm, in particular via the control unit. The target area therefore advantageously does not have to be selected again manually.
  • Determination of the information in the form of movement and / or position information of the selected target area based on the sensor signals of the at least one sensor, in particular via the position determination algorithm.
  • Activation of the at least one actuator based on the ascertained information such that the contact area and the target area approach one another and / or that the movement compensation takes place. These steps can be repeated until the areas are contacted or are arranged at a predetermined distance from one another.

Bei der Verfolgung oder beim Wiederfinden des ausgewählten Zielbereichs wird mit anderen Worten der Zielbereich mit einem geeigneten Algorithmus, insbesondere mit dem Verfolgungs-Algorithmus, getrackt und die Positionsveränderung fortlaufend verfolgt. Dies kann beispielsweise mit einer oder mehreren der folgenden Methoden ausgeführt werden: Kalman-Filter, Partikelfilter, merkmalbasierte Methoden, regionenbasierte Methoden, konturbasierte Methoden, modellbasierte Methoden.In other words, when the selected target area is tracked or found again, the target area is tracked with a suitable algorithm, in particular with the tracking algorithm, and the change in position is continuously tracked. For example, this can be done using one or more of the following methods: Kalman filters, particulate filters, feature-based methods, region-based methods, contour-based methods, model-based methods.

Vorzugsweise werden Informationen oder Lageinformationen kontinuierlich der Steuereinheit zur Regelung des zumindest einen Aktors, insbesondere für das bewegbare Bauteil, zugeführt, um die Bewegungskompensation, insbesondere bei manueller Assistenzfunktion oder automatisierter Kontaktherstellung, zu realisieren.Information or position information is preferably continuously fed to the control unit for regulating the at least one actuator, in particular for the movable component, in order to implement the movement compensation, in particular with a manual assistance function or automated contact establishment.

In weiterer Ausgestaltung des Verfahrens können bei der Ermittlung der Informationen in Form der Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs, insbesondere über den Positionsbestimmungs-Algorithmus, die Sensorsignale von einer Mehrzahl von Sensoren eingesetzt sein. Dies ist vorzugsweise insbesondere dann der Fall, wenn die Entfernung zwischen dem Zielbereich und dem Kontaktbereich einen bestimmten Schwellenwert übersteigt und/oder die Sensorsignale eines Sensors zu ungenau sind. Beispielsweise wird zunächst der Sensor oder das Sensorpaar am Objekt und nicht am Bauteil eingesetzt, wobei es sich beispielsweise um die Kamera oder um die Kamera und den LIDAR-Sensor handelt. Unter bestimmten Bedingungen kann dann bei Bedarf zusätzlich der Sensor am Bauteil verwendet werden, bei dem es sich vorzugsweise um den LIDAR-Sensor handelt.
In weiterer Ausgestaltung der Erfindung kann, falls die ermittelten Informationen des ausgewählten Zielbereichs zu ungenau sind, vorgesehen sein, dass dem Bediener dies, insbesondere in der Anzeige, mitgeteilt wird. Im Anschluss kann ein neuer Zielbereich manuell oder automatisch ausgewählt werden. Es ist denkbar, dass der Bediener die automatische Auswahl initiiert.
In a further refinement of the method, the sensor signals from a plurality of sensors can be used in the determination of the information in the form of the movement and / or position information of the selected target area, in particular via the position determination algorithm. This is preferably the case in particular when the distance between the target area and the contact area exceeds a certain threshold value and / or the sensor signals of a sensor are too imprecise. For example, the sensor or the sensor pair is first used on the object and not on the component, for example the camera or the camera and the LIDAR sensor. Under certain conditions, the sensor on the component, which is preferably the LIDAR sensor, can then also be used if necessary.
In a further embodiment of the invention, if the ascertained information of the selected target area is too imprecise, it can be provided that the operator is informed of this, in particular in the display. A new target area can then be selected manually or automatically. It is conceivable that the operator initiates the automatic selection.

Vorzugsweise wird der Abstand zwischen dem Kontaktbereich und dem Zielbereich überwacht, beispielsweise kontinuierlich oder beispielsweise nach einer jeweiligen Ansteuerung des zumindest einen Aktors. Ab einem vorbestimmten Abstand oder bei Kontakt der Bereiche kann dann das Verfahren beendet werden. Das heißt beispielsweise, wenn die relative Entfernung der Bereiche einen vorher definierten Schwellwert unterschritten haben, dann kann der Kontakt als hergestellt betrachtet werden. Die Steuerung kann dann beispielsweise an eine allgemeine Bewegungskompensation des Fahrzeugs übergeben werden.The distance between the contact area and the target area is preferably monitored, for example continuously or for example after a respective activation of the at least one actuator. The method can then be ended from a predetermined distance or when the areas come into contact. This means, for example, if the relative distance of the areas has fallen below a previously defined threshold value, then the contact can be regarded as established. The control can then, for example, be transferred to a general movement compensation system for the vehicle.

Vorzugsweise können der Kontaktbereich und der Zielbereich wahlweise manuell über das Eingabemittel durch einen Bediener angenähert werden oder automatisch über die Steuereinheit angenähert werden. Es ist beispielsweise denkbar, dass in unkritischen und einfachen Situationen der Bediener manuell die Bereiche einander annähert oder in die Annäherung bei Bedarf eingreift.Preferably, the contact area and the target area can optionally be approached manually via the input means by an operator or automatically via the control unit be approximated. It is conceivable, for example, that in uncritical and simple situations the operator manually approaches the areas or intervenes in the approach if necessary.

In weiterer Ausgestaltung der Erfindung kann die Auswahl des Zielbereichs am anderen Objekt entweder manuell über den Bediener oder automatisch über die Steuereinheit erfolgen. Bei der manuellen Auswahl kann der Bediener zunächst dafür sorgen, dass der Zielbereich im Sichtbereich der Sensoren vorgesehen ist. Hierfür kann er zumindest den einen Aktor und/oder den zumindest einen Verstellaktor ansteuern, um den zumindest einen Sensor entsprechend auszurichten. Bei der manuellen Auswahl können dem Bediener vorzugsweise die vom Sensor erfassten Sensorsignale, insbesondere bildhaft, dargestellt sein. Dies kann beispielsweise in Form eines Kamerabilds und/oder in Form einer LIDAR-Punktewolke und/oder in Form eines Radarbilds erfolgen. Anhand der dargestellten Informationen kann der Bediener den Zielbereich auswählen, beispielsweise über das Eingabemittel. Wie vorstehend bereits erläutert handelt es sich bei dem Eingabemittel um einen Joystick oder denkbar wäre auch ein berührungsempfindliches Display (Touchscreen). Wie vorstehend erläutert, kann dann nach der Auswahl des Zielbereichs basierend auf den Sensorsignalen eine Ermittlung der Informationen bezüglich des ausgewählten Zielbereichs, insbesondere über den Positionsbestimmungs-Algorithmus, erfolgen. Mit anderen Worten kann eine 3D-Lage des Zielbereichs anhand geeigneter Sensordaten bestimmt werden und vorzugsweise dem Bediener angezeigt werden, insbesondere über die Anzeige. Beispielsweise kann eine sogenannte Sensorfusion zwischen Stereo-Kamera-Daten und der LIDAR-Punktewolke erfolgen.In a further embodiment of the invention, the target area on the other object can be selected either manually via the operator or automatically via the control unit. With manual selection, the operator can first ensure that the target area is provided in the field of vision of the sensors. To this end, it can control at least one actuator and / or the at least one adjustment actuator in order to align the at least one sensor accordingly. In the manual selection, the sensor signals detected by the sensor can preferably be shown to the operator, in particular as images. This can take place, for example, in the form of a camera image and / or in the form of a LIDAR point cloud and / or in the form of a radar image. On the basis of the information presented, the operator can select the target area, for example via the input means. As already explained above, the input means is a joystick or a touch-sensitive display (touchscreen) would also be conceivable. As explained above, after the target area has been selected, based on the sensor signals, the information relating to the selected target area can then be ascertained, in particular via the position-determining algorithm. In other words, a 3D position of the target area can be determined using suitable sensor data and preferably displayed to the operator, in particular via the display. For example, a so-called sensor fusion between stereo camera data and the LIDAR point cloud can take place.

Bei der automatischen Auswahl des Zielbereichs kann der Auswahl-Algorithmus eingesetzt sein. Dieser ist vorzugsweise derart ausgestaltet, dass aus den Sensorsignalen oder Sensordaten der Zielbereich ermittelbar ist. Als Sensor eignet sich vorzugsweise eine Surround-View-Kamerasystem oder Sensoren mit einem großen Öffnungswinkel. Als Auswahl-Algorithmus kann eine oder mehrere der folgenden Methoden eingesetzt sein: Iterative-Closest-Point (ICP), RANSAC, Template-Matching, Segmentierungsmethoden wie Otsus, K-Means-Clustering, Watershed, Grab-Cut-Algorithmus. Im Anschluss an die vollautomatische Auswahl des Zielbereichs kann dann, wie vorstehend bereits erläutert, die Bestimmung der Informationen in Form der Bewegungs- und/oder Positionsinformation des ausgewählten Zielbereichs, insbesondere über den Positionsbestimmungs-Algorithmus, erfolgen, vorzugsweise relativ zum Kontaktbereich. Mit anderen Worten kann die 3D-Lage des Zielbereichs anhand geeigneter Sensordaten bestimmt werden und dem Bediener angezeigt werden.The selection algorithm can be used for the automatic selection of the target area. This is preferably configured in such a way that the target area can be determined from the sensor signals or sensor data. A surround view camera system or sensors with a large opening angle are preferably suitable as the sensor. One or more of the following methods can be used as the selection algorithm: Iterative Closest Point (ICP), RANSAC, template matching, segmentation methods such as Otsus, K-means clustering, watershed, grab-cut algorithm. Following the fully automatic selection of the target area, as already explained above, the information can then be determined in the form of the movement and / or position information of the selected target area, in particular via the position determination algorithm relative to the contact area. In other words, the 3D position of the target area can be determined using suitable sensor data and displayed to the operator.

Vorzugsweise können die vom Sensor oder von den Sensoren erfassten Daten auf der Anzeige visuell oder bildhaft dargestellt sein. Der ausgewählte Zielbereich kann hierbei beispielsweise markiert sein. Des Weiteren kann in der Anzeige, wie vorstehend bereits angeführt, die aktuelle Position der 3D-Lage des Zielbereichs dargestellt sein.The data acquired by the sensor or by the sensors can preferably be represented visually or graphically on the display. The selected target area can be marked here, for example. Furthermore, as already mentioned above, the current position of the 3D position of the target area can be shown in the display.

Zur Positionsbestimmung des Zielbereichs, insbesondere über den Positionsbestimmungs-Algorithmus, werden vorzugsweise die Informationen des Sensors am Objekt, also nicht des am Bauteil befestigten Sensors, verwendet. Der Sensor ist hierbei vorzugsweise in Form der Kamera ausgestaltet. Als Information kann ein Template-Kamerabild eingesetzt werden. Somit kann vorgesehen sein, dass beim Positionsbestimmungs-Algorithmus die Sensorsignale des Sensors in Form der Kamera eingesetzt sind. Mit dem Positionsbestimmungs-Algorithmus der Kamera kann dann, insbesondere zum Zeitpunkt der Auswahl des Zielbereichs, ein Template-Kamerabild für den Zielbereich erzeugt werden. Vorzugsweise kann beim Positionsbestimmungs-Algorithmus zumindest folgender Schritt vorgesehen sein:

  • Suche des Zielbereichs anhand eines Template-Bildes des Zielbereichs im aktuellen Kamerabild. Es kann vorgesehen sein, dass beim Positionsbestimmungs-Algorithmus, beispielsweise wenn die Entfernung zwischen dem Kontaktbereich und dem Zielbereich einen bestimmten Wert überschreitet, die Sensordaten des Sensors am Bauteil, beispielsweise einem LIDAR-Sensor, zusätzlich zur Positionsbestimmung des Zielbereichs eingesetzt werden können. Ist der Zielbereich in den Sensorsignalen, insbesondere im Kamerabild, nicht oder nur mit einer Genauigkeit ermittelbar, die unterhalb einer vorbestimmten Genauigkeitsgrenze liegt, beispielsweise nur einen geringen Kontrast aufweist, kann beim Positionsbestimmungs-Algorithmus vorgesehen sein, dass dies dem Bediener mitgeteilt wird und dieser einen neuen Zielbereich auswählt. Alternativ wäre denkbar, dass automatisch ein neuer Zielbereich ausgewählt wird, insbesondere, ohne dass dies dem Bediener mitgeteilt wird.
To determine the position of the target area, in particular using the position determination algorithm, the information from the sensor on the object, that is, not from the sensor attached to the component, is preferably used. The sensor is preferably designed in the form of the camera. A template camera image can be used as information. It can thus be provided that the sensor signals of the sensor in the form of the camera are used in the position determination algorithm. With the position determination algorithm of the camera, a template camera image can then be generated for the target area, in particular at the time of the selection of the target area. Preferably, at least the following step can be provided in the position determination algorithm:
  • Search for the target area using a template image of the target area in the current camera image. It can be provided that in the position determination algorithm, for example if the distance between the contact area and the target area exceeds a certain value, the sensor data of the sensor on the component, for example a LIDAR sensor, can also be used to determine the position of the target area. If the target area in the sensor signals, in particular in the camera image, cannot be determined or can only be determined with an accuracy that is below a predetermined accuracy limit, for example only has a low contrast, the position determination algorithm can provide that this is communicated to the operator and that one selects new target area. Alternatively, it would be conceivable that a new target area is selected automatically, in particular without the operator being informed of this.

In weiterer Ausgestaltung der Erfindung kann vorgesehen sein, dass der Verfolgungs-Algorithmus die Sensordaten zweier Sensoren nutzt, womit der Zielbereich vorteilhafter Weise sicher verfolgt werden kann. Als Sensoren eignen sich beispielsweise der Sensor (Kamera) oder das Sensorpaar am Objekt und nicht am Bauteil und der Sensor (LIDAR-Sensor) am Bauteil. Mit dem Verfolgungs-Algorithmus kann vorzugsweise die Position des Zielbereichs in den aktuellen Sensordaten über einen Filter, insbesondere über einen Kalman-Filter, verfolgt werden. Über den Filter kann vorzugsweise basierend auf der aktuellen Position des Zielbereichs die zukünftige Position berechnet oder geschätzt werden, oder es kann über den Filter basierend auf der letzten bekannten Position die aktuelle Position berechnet oder geschätzt werden.In a further embodiment of the invention it can be provided that the tracking algorithm uses the sensor data of two sensors, with which the target area can advantageously be tracked reliably. Suitable sensors are, for example, the sensor (camera) or the sensor pair on the object and not on the component and the sensor (LIDAR sensor) on the Component. With the tracking algorithm, the position of the target area in the current sensor data can preferably be tracked using a filter, in particular using a Kalman filter. The future position can preferably be calculated or estimated via the filter based on the current position of the target area, or the current position can be calculated or estimated via the filter based on the last known position.

Es ist offenbart, dass eine Relativbewegung zwischen zwei Objekten ständig gemessen wird. Die Bewegungsinformation wird zur Kompensation der Bewegung beim Andocken einer Brücke oder eines anderen Elements von dem einen an den anderen Körper genutzt, um eine Zielposition zu treffen und beizubehalten.It is disclosed that a relative movement between two objects is constantly measured. The movement information is used to compensate for the movement when a bridge or another element is docked from one body to the other in order to meet and maintain a target position.

Kurze Beschreibung der ZeichnungenBrief description of the drawings

Bevorzugte Ausführungsbeispiele der Erfindung werden im Folgenden anhand schematischer Zeichnungen näher erläutert. Es zeigen:

  • Fig. 1a bis 1d jeweils zwei Objekte, die jeweils als Fahrzeug oder Struktur ausgebildet sind, gemäß einem jeweiligen Ausführungsbeispiel, wobei jeweils eines der Objekte mit einem erfindungsgemäßen System ausgestattet ist,
  • Fig. 2 in einer schematischen Darstellung ein Wasserfahrzeug mit dem System gemäß einem weiteren Ausführungsbeispiel und ein Wasserfahrzeug mit einem Zielbereich,
  • Fig. 3 in einer schematischen Darstellung ein Wasserfahrzeug mit dem System gemäß einem weiteren Ausführungsbeispiel zusammen mit einem Wasserfahrzeug mit einem Zielbereich,
  • Fig. 4 in einem Ablaufdiagramm ein Verfahren mit dem System gemäß einem ersten Ausführungsbeispiel und
  • Fig. 5 in einem Ablaufdiagramm ein Verfahren mit dem System gemäß einem zweiten Ausführungsbeispiel.
Preferred embodiments of the invention are explained in more detail below with reference to schematic drawings. Show it:
  • Figures 1a to 1d two objects, each designed as a vehicle or structure, according to a respective embodiment, one of the objects being equipped with a system according to the invention,
  • Fig. 2 in a schematic representation a watercraft with the system according to a further embodiment and a watercraft with a target area,
  • Fig. 3 in a schematic representation a watercraft with the system according to a further embodiment together with a watercraft with a target area,
  • Fig. 4 in a flow chart a method with the system according to a first embodiment and
  • Fig. 5 in a flow chart a method with the system according to a second embodiment.

Fig. 1a zeigt ein Objekt in Form eines schwimmenden Körpers, bei dem es sich um ein Wasserfahrzeug 1 handelt. Des Weiteren ist als Objekt eine feststehende Struktur 2 dargestellt, bei der es sich beispielsweise um eine Offshore-Windturbine oder feste Bohrplattform handelt. Das Wasserfahrzeug 1 weist ein Bauteil in Form einer Gangway 4 auf. Diese soll dabei an einen Andockbereich 6 der Struktur 2 andocken. Die Gangway 4 ist dabei über einen nicht dargestellten Aktor verschwenkbar, so dass ein freistehender stirnseitiger Endabschnitt 8 höhenverstellbar ist. Des Weiteren ist die Gangway 4 über einen Aktor um eine Hochachse des Wasserfahrzeugs 1 drehbar. Ein erfindungsgemäßes System zur Bewegungskompensation und zur Annäherung des Endabschnitts 8 an den Andockbereich 6 ist beim Wasserfahrzeug 1 vorgesehen. Fig. 1a shows an object in the form of a floating body, which is a watercraft 1. Furthermore, a stationary structure 2 is shown as the object, which is, for example, an offshore wind turbine or a fixed drilling platform. The watercraft 1 has a component in the form of a gangway 4. This should be included dock to a docking area 6 of the structure 2. The gangway 4 can be pivoted via an actuator, not shown, so that a free-standing front end section 8 can be adjusted in height. Furthermore, the gangway 4 can be rotated about a vertical axis of the watercraft 1 via an actuator. A system according to the invention for movement compensation and for bringing the end section 8 closer to the docking area 6 is provided in the watercraft 1.

Gemäß Fig. 1b ist ebenfalls ein Objekt in Form eines Wasserfahrzeugs 10 gezeigt. Des Weiteren ist ein Objekt in Form einer feststehenden Struktur 12 dargestellt. Im Unterschied zur Fig. 1a weist nicht das Wasserfahrzeug 10, sondern die Struktur 12 die bewegbare Gangway 4 auf. Das Wasserfahrzeug 10 weist dabei den Andockbereich 6 auf. Das erfindungsgemäße System zur Bewegungskompensation und zur Annäherung der Gangway 4 an den Andockbereich 6 ist dabei bei der Struktur 12 vorgesehen.According to Figure 1b an object in the form of a watercraft 10 is also shown. Furthermore, an object in the form of a stationary structure 12 is shown. In contrast to the Fig. 1a does not have the watercraft 10, but the structure 12 has the movable gangway 4. The watercraft 10 has the docking area 6. The system according to the invention for movement compensation and for bringing the gangway 4 closer to the docking area 6 is provided in the structure 12.

Gemäß Fig. 1c ist ein erstes Objekt in Form eines Wasserfahrzeugs 14 und ein zweites Objekt in Form eines Wasserfahrzeugs 16 dargestellt. Das Wasserfahrzeug 14 weist einen Kranarm 18 auf, der drehbar ist, damit sein freies Ende höhenverstellbar ist, und der vorzugsweise um eine Hochachse des Wasserfahrzeugs 14 bewegbar ist. Der Kranarm 14 wirkt mit einer (nicht dargestellten) Winde für ein Seil 20 zusammen, an dessen Ende eine Last 22 über einen Kranhaken befestigt ist. Die Last 22 soll dabei auf das Wasserfahrzeug 16 abgeladen werden. Hierzu hat das Wasserfahrzeug 14 das System zur Bewegungskompensation und zur Annäherung der Last 22 an das Wasserfahrzeug 16. Zumindest ein (nicht dargestellter) Sensor kann hierbei beispielsweise am freien Endabschnitt, also am vom Wasserfahrzeug 14 entfernten Endabschnitt, des Kranarms 18 vorgesehen sein. Dieser kann einen Zielbereich am Wasserfahrzeug 16 erfassen. Ein Kontaktbereich ist beispielsweise bei der Last 22 vorgesehen.According to Figure 1c a first object in the form of a watercraft 14 and a second object in the form of a watercraft 16 are shown. The watercraft 14 has a crane arm 18 which is rotatable so that its free end can be adjusted in height, and which is preferably movable about a vertical axis of the watercraft 14. The crane arm 14 interacts with a (not shown) winch for a rope 20, at the end of which a load 22 is fastened via a crane hook. The load 22 is intended to be unloaded onto the watercraft 16. For this purpose, the watercraft 14 has the system for motion compensation and for bringing the load 22 closer to the watercraft 16. At least one sensor (not shown) can be provided, for example, on the free end section of the crane arm 18, i.e. on the end section remote from the watercraft 14. This can capture a target area on the watercraft 16. A contact area is provided for the load 22, for example.

Fig. 1d zeigt neben dem Wasserfahrzeug 10 mit dem Andockbereich 6 das Wasserfahrzeug 1 mit der Gangway 4. Das Wasserfahrzeug 1 weist hierbei das System zur Bewegungskombination und zur Annäherung der Gangway 4 an den Andockbereich 6 auf. Fig. 1d shows, in addition to the watercraft 10 with the docking area 6, the watercraft 1 with the gangway 4. The watercraft 1 here has the system for combining movements and for bringing the gangway 4 closer to the docking area 6.

Gemäß den Figuren 1a bis 1d ist ersichtlich, dass das System zur Bewegungskompensation bei Operationen zwischen einem Wasserfahrzeug und einer feststehenden Struktur oder bei Operationen zwischen zwei Wasserfahrzeugen einsetzbar ist. Vorteilhafterweise ist jeweils nur notwendig, dass jeweils eines der Objekte aus einer jeweiligen Figur 1a bis 1b das System aufweist, während beim entsprechend anderen Objekt keinerlei Anpassungen für das System vorgenommen werden müssen. Das System wird also nur auf einem der Objekte installiert und ermöglicht diesem dann die mechanische Kontaktaufnahme zu einer Vielzahl anderer schwimmender oder feststehender Körper. Um Schäden bei oder während der Kontaktherstellung zu vermeiden und um den Kontakt schadenfrei über einen längeren Zeitraum aufrechterhalten zu können. Es können mit dem System beispielsweise durch Wind und Wellen hervorgerufene Bewegungen der Wasserfahrzeuge 1, 10, 14, 16 berücksichtigt werden und bei der Kontaktherstellung des Kontaktbereichs mit dem Zielbereich durch das System kompensiert werden. Dies erfolgt beispielsweise durch Verstellung der Position der Gangway 4 oder des Kranarms 18 oder der Seillänge des Seils 20.According to the Figures 1a to 1d it can be seen that the system can be used for motion compensation in operations between a watercraft and a stationary structure or in operations between two watercraft. It is advantageous in each case only necessary that each one of the objects from a respective Figures 1a to 1b the system has, while the corresponding other object does not have to be adjusted for the system. The system is only installed on one of the objects and then enables it to establish mechanical contact with a large number of other floating or stationary bodies. To avoid damage during or during the establishment of contact and to be able to maintain contact over a longer period of time without damage. With the system, for example, movements of the watercraft 1, 10, 14, 16 caused by wind and waves can be taken into account and compensated for by the system when the contact area is established with the target area. This is done, for example, by adjusting the position of the gangway 4 or the crane arm 18 or the length of the rope 20.

Mit dem System aus der jeweiligen Fig. 1a bis 1d wird eine Relativbewegung zwischen den zwei Objekten, insbesondere zwischen dem Kontaktbereich und dem Zielbereich, ständig gemessen. Die Bewegungsinformation wird dann zur Kompensation der Bewegung beim Andocken der Gangway 4 oder Brücke oder eines anderen Elements von dem Einen an das andere Objekt genutzt, um eine Zielposition zu treffen und beizubehalten.With the system from the respective Figures 1a to 1d a relative movement between the two objects, in particular between the contact area and the target area, is continuously measured. The movement information is then used to compensate for the movement when the gangway 4 or bridge or another element is docked from one object to the other in order to meet and maintain a target position.

Für das System kann ein voll-automatisches und/oder ein halb-automatisches Verfahren vorgesehen sein. In Fig. 2 ist dabei eine Anordnung für das halb-automatische Verfahren dargestellt und in Fig. 3 ist eine Anordnung für das voll-automatische Verfahren gezeigt.A fully automatic and / or a semi-automatic method can be provided for the system. In Fig. 2 an arrangement for the semi-automatic process is shown and in Fig. 3 an arrangement for the fully automatic process is shown.

In Fig. 2 ist das Wasserfahrzeug 1 mit der Gangway 4 oder Brücke dargestellt. Des Weiteren ist ein Objekt in Form eines Wasserfahrzeugs 24 gezeigt, das einen Andockbereich 6 hat. Stirnseitig der Gangway 4, also an deren freien Ende, ist ein Sensor 26 in Form eines LIDAR-Sensors angeordnet und befestigt. Des Weiteren ist ein Sensorpaar 28 vorgesehen, das nicht an der Gangway 4, sondern direkt am Wasserfahrzeug 1 befestigt ist. Beispielsweise ist das Sensorpaar 28 an einer um eine Hochachse des Wasserfahrzeugs 1 drehbarer Plattform angeordnet, an der die Gangway 4 bewegbar gelagert ist. Das Sensorpaar 28 weist eine Kamera, insbesondere in Form einer Pan-Tilt-Zoom (PTZ) Kamera, und einen LIDAR-Sensor auf. Die Gangway hat endseitig einen Kontaktbereich 30, der zum Andocken an das Wasserfahrzeug 24 in Kontakt mit einem Zielbereich 32 gebracht werden soll. Eine Anordnung des Sensorpaars 28 am Wasserfahrzeug 1 erfolgt dabei vorzugsweise derart, dass bis zu einer bestimmten Wellenbewegung oder bei jeglicher Wellenbewegung der Zielbereich 32 erfassbar bleibt. Dies wird durch die PTZ-Kamera sichergestellt. Denkbar wäre auch die Wellenbewegung oder sonstige Bewegungen mit einer Bewegungskompensation für das Sensorpaar 28 zumindest teilweise auszugleichen. Das Sensorpaars 28 ist mechanisch fest verbunden und kann beispielsweise über einen Verstellaktor gemeinsam bewegt werden. Durch die mechanische Verbindung ist beispielsweise der LIDAR-Sensor mit der Kamera verbunden und sein Sichtfeld ist hierdurch entsprechend den Anforderungen erweitert.In Fig. 2 the watercraft 1 is shown with the gangway 4 or bridge. Furthermore, an object in the form of a watercraft 24 is shown which has a docking area 6. A sensor 26 in the form of a LIDAR sensor is arranged and fastened on the face of the gangway 4, that is to say at its free end. Furthermore, a pair of sensors 28 is provided, which is not attached to the gangway 4, but directly to the watercraft 1. For example, the pair of sensors 28 is arranged on a platform which is rotatable about a vertical axis of the watercraft 1 and on which the gangway 4 is movably mounted. The sensor pair 28 has a camera, in particular in the form of a pan-tilt-zoom (PTZ) camera, and a LIDAR sensor. The gangway has a contact area 30 at the end, which is to be brought into contact with a target area 32 for docking with the watercraft 24. The sensor pair 28 is preferably arranged on the watercraft 1 in such a way that The target area 32 remains detectable until a certain wave movement or with any wave movement. This is ensured by the PTZ camera. The wave movement or other movements would also be conceivable to at least partially compensate for the sensor pair 28 with movement compensation. The sensor pair 28 is mechanically firmly connected and can be moved together, for example via an adjustment actuator. The LIDAR sensor, for example, is connected to the camera through the mechanical connection and its field of view is thereby expanded according to the requirements.

Die Sensoren 26, 28 sind intrinsisch, extrinsisch und gegeneinander kalibriert. Hierdurch kann eine Koordinatentransformation zwischen den Sensor-Koordinatensystemen ermöglicht werden, wobei KB1 das Koordinaten-System des ersten Sensors des Sensorpaars 28 ist, KB2 das Koordinaten-System des zweiten Sensors des Sensorpaars 28 ist und KA das Koordinaten-System des Sensors 26 ist. Die Koordinatentransformation kann mit folgenden üblichen Formeln erfolgen: T K B 1 K A , T K B 2 K A und T K B 1 K B 2

Figure imgb0001
wobei T eine Transformationsmatrix ist. Bei der üblichen Verwendung homogener Koordinaten ist die Transformationsmatrix T eine 4x4 Matrix mit einer Subrotationsmatrix R, die die Rotation zwischen den Koordinatensystemen beschreibt, und der Subtranslationsmatrix t, die die Translation zwischen den Koordinatensystemen beschreibt.
Mit Hilfe der Transformationssmatrix T K B 1 K B 2
Figure imgb0002
kann beispielsweise die Darstellung eines Vektors bezüglich des Koordinatensystems KB1 in eine Darstellung bezüglich des Koordinatenystems KB2 überführt werden: x K B 1 = T K B 1 K B 2 x K B 2
Figure imgb0003
x K Bi = x y z 1
Figure imgb0004
T K B 1 K B 2 = R t 0 T 1
Figure imgb0005
R = r 11 r 12 r 13 r 21 r 22 r 23 r 31 r 32 r 33
Figure imgb0006
t = t x t y t z
Figure imgb0007
0 T = 0 0 0
Figure imgb0008
The sensors 26, 28 are intrinsically, extrinsically and calibrated against one another. This enables a coordinate transformation between the sensor coordinate systems, where K B1 is the coordinate system of the first sensor of the sensor pair 28, K B2 is the coordinate system of the second sensor of the sensor pair 28 and K A is the coordinate system of the sensor 26 is. The coordinate transformation can be done with the following common formulas: T K B. 1 K A. , T K B. 2 K A. and T K B. 1 K B. 2
Figure imgb0001
where T is a transformation matrix. With the usual use of homogeneous coordinates, the transformation matrix T is a 4x4 matrix with a sub-rotation matrix R, which describes the rotation between the coordinate systems, and the sub-translation matrix t, which describes the translation between the coordinate systems.
With the help of the transformation matrix T K B. 1 K B. 2
Figure imgb0002
For example, the representation of a vector with respect to the coordinate system K B1 can be converted into a representation with respect to the coordinate system K B2 : x K B. 1 = T K B. 1 K B. 2 x K B. 2
Figure imgb0003
x K Bi = x y z 1
Figure imgb0004
T K B. 1 K B. 2 = R. t 0 T 1
Figure imgb0005
R. = r 11 r 12 r 13 r 21st r 22nd r 23 r 31 r 32 r 33
Figure imgb0006
t = t x t y t z
Figure imgb0007
0 T = 0 0 0
Figure imgb0008

Mit Aktoren 34, die in Fig. 2 schematisch mit einem Block dargestellt sind, kann die Gangway 4 gedreht werden, so dass die Höhe des Kontaktbereichs 30 veränderbar ist und um eine Hochachse 36 des Wasserfahrzeugs 1 drehbar ist. Die Aktoren 34 sind über eine Steuereinheit 37 steuerbar.With actuators 34 in Fig. 2 are shown schematically with a block, the gangway 4 can be rotated so that the height of the contact area 30 can be changed and rotated about a vertical axis 36 of the watercraft 1. The actuators 34 can be controlled via a control unit 37.

Anhand der Fig. 4 wird das Verfahren für das System aus Fig. 2 erläutert, um die Bereiche 30 und 32 bis zum Kontakt einander anzunähern und eine Bewegungskompensation einer Relativbewegung dieser Bereiche 30, 32 durchzuführen. Im Schritt 36 sorgt ein Bediener dafür, dass der Zielbereich 32 aus Fig. 2 sich im Sichtbereich der Sensoren 26 und 28 befindet. Dies kann dadurch erfolgen, dass über die Aktoren 34 das Sensorpaar 26 zusammen mit der Gangway 4 bewegt wird, beispielsweise über die Plattform, und/oder das Wasserfahrzeug 1 durch seinen Antrieb bewegt wird und/oder dass für das Sensorpaar 28 und/oder für den Sensor 26 ein Verstellaktor oder jeweils ein Verstellaktor vorgesehen ist, über den/die diese/r bewegbar ist/sind. Eine manuelle Eingabe der Positionsänderung für die Sensoren 26, 28 erfolgt beispielsweise mit Hilfe eines Joysticks und/oder einer Tastaturkonsole und/oder eines Touchscreens.Based on Fig. 4 the procedure for the system is made Fig. 2 explained in order to bring the areas 30 and 32 closer together up to the point of contact and to carry out a movement compensation of a relative movement of these areas 30, 32. In step 36, an operator ensures that the target area 32 is off Fig. 2 is in the field of view of the sensors 26 and 28. This can take place in that the sensor pair 26 is moved together with the gangway 4 via the actuators 34, for example via the platform, and / or the watercraft 1 is moved by its drive and / or that for the sensor pair 28 and / or for the Sensor 26, an adjustment actuator or an adjustment actuator is provided, via which it is / are movable. A manual input of the change in position for the sensors 26, 28 takes place, for example, with the aid of a joystick and / or a keyboard console and / or a touch screen.

Im Schritt 38 werden die Sensorsignale oder Sensordaten der Sensoren 26, 28 erfasst. Die Sensordaten der PTZ-Kamera des Sensorpaars 28 werden als Kamerabild I B ermittelt. Die Sensordaten des LIDAR-Sensors des Sensorpaars 28 werden mit einer LIDAR-Daten-Signatur D B erfasst. Des Weiteren werden die Sensordaten des LIDAR-Sensors (Sensor 26) mit einer LIDAR-Daten-Signatur D A erfasst.In step 38, the sensor signals or sensor data from sensors 26, 28 are recorded. The sensor data of the PTZ camera of the sensor pair 28 are used as a camera image I. B determined. The Sensor data of the LIDAR sensor of the sensor pair 28 are signed with a LIDAR data signature D. B recorded. In addition, the sensor data of the LIDAR sensor (sensor 26) is provided with a LIDAR data signature D. A recorded.

Im Schritt 40 erfolgt die Visualisierung am Bildschirm. Hierbei werden dem Bediener die Sensorsignale der Szene bildhaft dargestellt. Dazu wird das Bild der PTZ-Kamera des Sensorpaars 28 mit den LIDAR-Punktewolken der LIDAR-Sensoren (Sensorpaar 28 und 26) überlagert auf einem Display oder Monitor dargestellt.In step 40, the visualization takes place on the screen. The sensor signals of the scene are shown to the operator in an image. For this purpose, the image of the PTZ camera of the sensor pair 28 is shown superimposed on the LIDAR point clouds of the LIDAR sensors (sensor pair 28 and 26) on a display or monitor.

Im Schritt 42 wählt dann der Bediener anhand der auf dem Monitor dargestellten Sensorsignale I B , D B und D A einen Zielbereich aus, wobei es sich beispielsweise bei dem Monitor um einen Touchscreen handelt. Nach der Auswahl des Zielbereichs werden dann in diesem Schritt 42 zu dem Zielbereich ein Template-Kamerabild I 0 B

Figure imgb0009
der PTZ-Kamera (Sensorpaar 28) und LIDAR-Daten-Signaturen D 0 B
Figure imgb0010
und D 0 A
Figure imgb0011
der LIDAR-Sensoren (Sensorpaar 28 und Sensor 26) erzeugt, die den Zielbereich charakterisieren. Der ausgewählte Zielbereich wird dann im Monitor mit einer Markierung, beispielsweise einer Bounding-Box, markiert.In step 42 the operator then selects based on the sensor signals displayed on the monitor I. B , D. B and D. A from a target area, the monitor being, for example, a touchscreen. After the target area has been selected, in this step 42 a template camera image is then used for the target area I. 0 B.
Figure imgb0009
the PTZ camera (sensor pair 28) and LIDAR data signatures D. 0 B.
Figure imgb0010
and D. 0 A.
Figure imgb0011
of the LIDAR sensors (sensor pair 28 and sensor 26) which characterize the target area. The selected target area is then marked in the monitor with a marking, for example a bounding box.

Im nächsten Schritt 44 erfolgt, dann mit dem Positionsbestimmungs-Algorithmus die Bestimmung der Informationen in Form von Bewegungs- und Positionsinformationen des Zielbereichs 32 relativ zum Kontaktbereich 30. Mit anderen Worten wird eine 3D-Lage des Zielbereichs anhand der Sensorsignale oder Sensordaten der Sensoren 26 und 28 bestimmt und dem Bediener angezeigt. Zunächst erfolgt die Bestimmung der 3D-Lage anhand der PTZ-Kamera des Sensorpaars 28. Es erfolgt ein sogenanntes Template-Matching, das eine laterale Position des Zielbereichs im erfassten Bild I B detektiert, wobei folgende Formel verwendet wird: R = uʹvʹ I 0 B I B u + , v + uʹvʹ I 0 B 2 uʹvʹ I B u + , v + 2

Figure imgb0012
In the next step 44, the position determination algorithm is used to determine the information in the form of movement and position information of the target area 32 relative to the contact area 30. In other words, a 3D position of the target area is determined using the sensor signals or sensor data from the sensors 26 and 28 determined and displayed to the operator. First of all, the 3D position is determined using the PTZ camera of the sensor pair 28. So-called template matching takes place, which shows a lateral position of the target area in the captured image I. B is detected using the following formula: R. = uʹvʹ I. 0 B. I. B. u + , v + uʹvʹ I. 0 B. 2 uʹvʹ I. B. u + , v + 2
Figure imgb0012

Das Template-Bild ist in der Regel kleiner als das aktuelle Kamerabild. Beim Template-Matching wird als Moving-Window an jeder möglichen Position über das Kamerabild gelegt und die Korrelation berechnet. u' und ν' sind hierbei die beiden Pixelkoordinaten der erfassten Bilder. u und ν bezeichnen die a priori unbekannten (lateralen) Verschiebungen in den beiden Pixelkoordinaten zwischen Bildausschnitt und Template-Bild. Ziel ist es nun, Werte für u und v zu bestimmen, so dass sich eine möglichst große Übereinstimmung zwischen Bildausschnitt und Template-Bild ergibt. Der Grad der Übereinstimmung wird mathematisch durch die Korrelation ausgedrückt, die durch geeignete Wahl von u und v zu maximieren ist. Die Werte von u und v, die die Korrelation maximieren werden u0 und v0 genannt. Sie geben an, wo sich das Template-Bild bzw. der Zielbereich im Kamerabild befinden oder anders ausgedrückt, sie beschreiben die Position r 0 des Zielbereichs im Kamerabild. Die Position r 0 ergibt sich also wie folgt: r 0 = u 0 v 0 = arg max R

Figure imgb0013
u0 und v0 sind also die Werte für u und v in obiger Formel für R, für die die Korrelation R maximal wird.The template image is usually smaller than the current camera image. With template matching, a moving window is placed over the camera image at every possible position and the correlation is calculated. u ' and ν' are the two pixel coordinates of the captured images. u and ν denote the a priori unknown (lateral) shifts in the two pixel coordinates between the image section and the template image. The aim is now to find values for u and v to be determined so that the closest possible correspondence between the image section and the template image results. The degree of agreement is expressed mathematically by the correlation, which is to be maximized by a suitable choice of u and v. The values of u and v that maximize the correlation are called u 0 and v 0 . They indicate where the template image or the target area is located in the camera image or, in other words, they describe the position r 0 of the target area in the camera image. The position r 0 results as follows: r 0 = u 0 v 0 = bad Max R.
Figure imgb0013
u 0 and v 0 are therefore the values for u and v in the above formula for R, for which the correlation R is maximal.

Aus einer Koordinatentransformation kann dann die zum Zielbereich zugeordnete Bildpunktmenge

Figure imgb0014
: K = u 1 B 1 v 1 B 1 , u 2 B 2 v 2 B 1 ,
Figure imgb0015
in 3D ausgedrückt werden: u B 1 v B 1 K T K B 1 K B 2 u B 2 v B 2 K extr . Kalibration x y z K
Figure imgb0016
Anschließend kann die 3D-Lage des Zielbereichs mit Hilfe des Random Sample Consensus (RANSAC) oder durch ein Iterative-Closest-Point (ICP) Algorithmus bestimmt werden. Falls eine relative Entfernung zwischen dem Kontaktbereich 30 und dem Zielbereich 32 über einem bestimmten Schwellenwert liegt, werden vorzugsweise die Daten D A des Sensors 26 zur genaueren Lagebestimmung zusätzlich verwendet. Falls der ausgewählte Zielbereich in den erfassten Sensorsignalen nur einen geringen Kontrast aufweist, so dass die Genauigkeit der Positionsbestimmung nur ungenau erfolgen kann, dann wird dem Bediener die unzuverlässige Messung signalisiert, und er kann eine neue Stelle markieren, was durch den Pfeil 46 in Fig. 4 gezeigt ist, womit im Anschluss wieder der Schritt 44 ausgeführt wird.The set of pixels assigned to the target area can then be obtained from a coordinate transformation
Figure imgb0014
: K = u 1 B. 1 v 1 B. 1 , u 2 B. 2 v 2 B. 1 , ...
Figure imgb0015
expressed in 3D: u B. 1 v B. 1 K T K B. 1 K B. 2 u B. 2 v B. 2 K extr . Calibration x y z K
Figure imgb0016
The 3D position of the target area can then be determined using the Random Sample Consensus (RANSAC) or an Iterative Closest Point (ICP) algorithm. If a relative distance between the contact area 30 and the target area 32 is above a certain threshold, the data D. A of the sensor 26 is also used for more precise position determination. If the selected target area has only a low contrast in the detected sensor signals, so that the accuracy of the position determination can only be imprecise, then the unreliable measurement is signaled to the operator and he can mark a new point, which is indicated by the arrow 46 in Fig. 4 is shown, whereupon step 44 is carried out again.

Nach dem Schritt 44, d. h., wenn die Bewegungs- und Positionsinformationen des ausgewählten Zielbereichs über den Positionsbestimmungs-Algorithmus mit einer ausreichenden Genauigkeit ermittelt worden sind, folgt Schritt 48. Hierbei werden die Bewegungs- und/oder Positionsinformationen fortwährend der Steuereinheit 37 zugeführt, die entsprechend die Aktoren 34 ansteuert. Diese werden dabei derart angesteuert, dass der Kontaktbereich 30 in Richtung des Zielbereichs 32 bewegt wird. Hierbei wird eine vorher definierte Strecke zurückgelegt und im Anschluss eine erneute Aufnahme der Sensorsignale der Sensoren 26 und 28 getriggert, was durch den Schritt 50 gezeigt ist. In Schritt 50 ist somit vorgesehen, dass die Sensoren 26 und 28 die Sensorsignale I B , D B und D A aufnehmen.After step 44, that is, when the movement and position information of the selected target area has been determined with sufficient accuracy via the position determination algorithm, step 48 follows. Here, the movement and / or position information is continuously fed to the control unit 37, which accordingly the actuators 34 controls. These are controlled in such a way that the contact area 30 in The direction of the target area 32 is moved. In this case, a previously defined distance is covered and then a renewed recording of the sensor signals from sensors 26 and 28 is triggered, which is shown by step 50. In step 50 it is thus provided that the sensors 26 and 28 receive the sensor signals I. B , D. B and D. A record.

Im anschließenden Schritt 52 erfolgt ein Verfolgen oder Wiederfinden des ausgewählten Zielbereichs 32 in den Sensorsignalen I B , D B und D A anhand eines Verfolgungs-Algorithmus über die Steuereinheit 37. Dies erfolgt vorzugsweise mit einem Recursive-Least-Square (RLS) Algorithmus. Dieser ist ein Satz von mathematischen Gleichungen, der eine rechnerisch effiziente, insbesondere rekursive, Abschätzung des Zustands eines Prozesses darstellen. Hierbei wird der mittlere quadratische Fehler minimiert. Die aktuelle gemessene Position rt zum Zeitpunkt t dient als Eingangswert zur Schätzung der zukünftigen Position r t+1 verwendet. Bei der Position rt handelt es sich um die zuletzt bestimmte Positionsinformation des Zielbereichs, die initial in Schritt 44 ermittelt wurde und im folgenden Schritt 54 erneut ermittelt wird, was untenstehend näher erläutert wird. Die Schätzung des zukünftigen Wertes r t+1 basiert auf einem Recursive-Least-Square (RLS) Algorithmus. Dies ist beispielsweise in dem Buch: "Recursive Least Squares; Statistical Digital Processing and Modelling; von Monson H. Hayes, ISBN 0-471-59431-8 offenbart. Ein derartig umgesetzter Verfolgungs-Algorithmus weist eine äußerst schnelle Konvergenz auf. Denkbar wäre auch für den Verfolgungs-Algorithmus einen Least-Mean-Square (LMS) Algorithmus einzusetzen, der einfachere mathematische Operationen und einen geringeren Rechenressourcenbedarf aufweist. Zur Schätzung des Werts r t+1 wird vorzugesweise ein lineares Modell verwendet: r t + 1 = r t T θ t

Figure imgb0017
Hierbei ist ein Messdaten-Vektor r t T
Figure imgb0018
aus N Messungen bis zum Zeitpunkt t gebildet und Θ t sind Koeffizienten. Zunächst wird dann der sogenannte Kalman-Verstärkungsvektor berechnet: K t = P t 1 r t 1 λ + r t 1 T P t 1 r t 1
Figure imgb0019
Hierbei ist λ(0 ≤ λ < 1) der sogenannte Forgetting Factor. Pt ist die inverse Korrelationsmatrix der Messdaten. Ein A-priori-fehler zwischen dem aktuellen Messwert rt und dem geschätzten Wert wird anschließend mit folgender Formel berechnet: ϵ t = r t r t 1 T θ t 1
Figure imgb0020
Die Koeffizienten Θ t werden anhand der folgenden Gleichung ermittelt: θ t = θ t 1 + K t ϵ t
Figure imgb0021
Des Weiteren wird eine inverse Korrelationsmatrix Pt anhand folgender Formel ermittelt: P t = P t 1 K t r t 1 T P t 1 λ
Figure imgb0022
Anschließend erfolgt die Schätzung der Positionsinformation des Zielbereichs zum Zeitpunkt t + 1 anhand der oben genannten Gleichung: r t + 1 = r t T θ t
Figure imgb0023
Es muss somit keine erneute Auswahl des Zielbereichs erfolgen, sondern der Zielbereich wurde anhand der Sensorsignale und dem Verfolgungs-Algorithmus getrackt. Alternativ kann anstatt des Recurcsive Least Squares Ansatzes beispielsweise ein Kaiman-Filter verwendet werden.In the subsequent step 52, the selected target area 32 is tracked or found again in the sensor signals I. B , D. B and D. A using a tracking algorithm via the control unit 37. This is preferably done using a Recursive Least Square (RLS) algorithm. This is a set of mathematical equations that represent a computationally efficient, in particular recursive, estimation of the state of a process. The mean square error is minimized here. The current measured position r t at time t is used as an input value for estimating the future position r t +1 . The position r t is the last determined position information of the target area, which was initially determined in step 44 and is determined again in the following step 54, which is explained in more detail below. The estimation of the future value r t +1 is based on a Recursive Least Square (RLS) algorithm. This is for example in the Book: "Recursive Least Squares; Statistical Digital Processing and Modeling; by Monson H. Hayes, ISBN 0-471-59431-8 disclosed. A tracking algorithm implemented in this way exhibits extremely rapid convergence. It would also be conceivable to use a Least Mean Square (LMS) algorithm for the tracking algorithm, which has simpler mathematical operations and a lower computational resource requirement. A linear model is preferably used to estimate the value r t +1 : r t + 1 = r t T θ t
Figure imgb0017
Here is a measurement data vector r t T
Figure imgb0018
formed from N measurements up to time t and Θ t are coefficients. First, the so-called Kalman gain vector is calculated: K t = P t - 1 r t - 1 λ + r t - 1 T P t - 1 r t - 1
Figure imgb0019
Here λ (0 ≤ λ <1) is the so-called forgetting factor. P t is the inverse correlation matrix of the measurement data. An a priori error between the current measured value r t and the estimated value is then calculated using the following formula: ϵ t = r t - r t - 1 T θ t - 1
Figure imgb0020
The coefficients Θ t are determined using the following equation: θ t = θ t - 1 + K t ϵ t
Figure imgb0021
Furthermore, an inverse correlation matrix P t is determined using the following formula: P t = P t - 1 - K t r t - 1 T P t - 1 λ
Figure imgb0022
The position information of the target area is then estimated at time t + 1 using the above equation: r t + 1 = r t T θ t
Figure imgb0023
There is therefore no need to select the target area again; instead, the target area was tracked using the sensor signals and the tracking algorithm. Alternatively, instead of the recurcsive least squares approach, a Kalman filter, for example, can be used.

Nachdem in Schritt 52 der Zielbereich verfolgt bzw. in den Sensorsignalen wiedergefunden wurde, werden im Folgeschritt 54 die Informationen in Form von Bewegungs- und Positionsinformationen des verfolgten Zielbereichs anhand der Sensorsignale I B , D B und D A anhand der Sensoren 26 und 28 ermittelt. Die Vorgehensweise entspricht dabei derjenigen in Schritt 44.After the target area has been tracked or found again in the sensor signals in step 52, the information in the form of movement and position information of the tracked target area on the basis of the sensor signals is generated in subsequent step 54 I. B , D. B and D. A determined using the sensors 26 and 28. The procedure corresponds to that in step 44.

Wenn dann im Schritt 54 beispielsweise die Positionsinformationen des Zielbereichs ermittelt wird, kann festgestellt werden, wie groß der Abstand zwischen dem Kontaktbereich 30 und dem Zielbereich 32 ist. Hat der Kontaktbereich 30 den Zielbereich 32 noch nicht erreicht, dann wird das Verfahren ab Schritt 48 erneut durchgeführt, was durch den Pfeil 56 gezeigt ist. Ist die Kontaktstelle erreicht, dann folgt nach dem Schritt 54 der Schritt 58. Das heißt, wenn eine relative Entfernung zwischen dem Kontaktbereich 30 und dem Zielbereich 32 einen vorher definierten Schwellenwert unterschritten hat, dann wird der Kontakt zwischen diesen Bereichen als hergestellt betrachtet. Die Steuerung wird dann an die allgemeine Bewegungskompensation des Objekts, in diesem Fall des Wasserfahrzeugs 1, übergeben.If, for example, the position information of the target area is determined in step 54, it can be determined how large the distance between the contact area 30 and the target area 32 is. If the contact area 30 has not yet reached the target area 32, the method is carried out again from step 48, which is shown by the arrow 56. If the contact point is reached, step 58 follows after step 54. That is, if a relative distance between the contact area 30 and the target area 32 has fallen below a previously defined threshold value, then the contact between these areas is regarded as established. The control is then passed on to the general movement compensation of the object, in this case the watercraft 1.

Wie vorstehend bereits angeführt, ist mit dem erfindungsgemäßen System auch ein voll-automatisches Verfahren zur Bewegungskompensation und zur Zusammenführung zweier Bereiche möglich, was im Folgenden näher erläutert ist. Gemäß Fig. 3 ist im Unterschied zur Fig. 2 beim Wasserfahrzeug 1 ein weiterer Sensor 60 vorgesehen. Hierbei handelt es sich um einen scannenden Sensor mit einem vergleichsweise großen Öffnungswinkel. Beispielsweise kann ein LIDAR-Sensor eingesetzt sein. Mit dem Sensor 60 kann dann großflächig eine Umgebung gescannt werden, wobei dies vorzugsweise in einer vergleichsweise hohen Auflösung erfolgt. Eine Aufnahmegeschwindigkeit spielt dann eine untergeordnete Rolle. Die Sensoren 26 und 60 und das Sensorpaar 28 sind dabei intrinsisch, extrinsisch und gegeneinander kalibriert, womit eine Koordinatentransformation zwischen den einzelnen Sensor-Koordinatensystemen ermöglicht ist, wobei KC das Koordinaten-System des Sensors 60 ist. Die Koordinatentransformation kann mit folgenden üblichen Formeln erfolgen: T K C K B 1 , T K C K B 2 , T K C K A , T K B 1 K A , T K B 2 K A und T K B 1 K B 2

Figure imgb0024
As already stated above, a fully automatic method for motion compensation and for merging two areas is also possible with the system according to the invention, which is explained in more detail below. According to Fig. 3 is different to Fig. 2 a further sensor 60 is provided in the watercraft 1. This is a scanning sensor with a comparatively large opening angle. For example, a LIDAR sensor can be used. The sensor 60 can then be used over a large area an environment can be scanned, this preferably being done in a comparatively high resolution. A recording speed then plays a subordinate role. The sensors 26 and 60 and the sensor pair 28 are intrinsically, extrinsically and mutually calibrated, which enables a coordinate transformation between the individual sensor coordinate systems, where K C is the coordinate system of the sensor 60. The coordinate transformation can be done with the following common formulas: T K C. K B. 1 , T K C. K B. 2 , T K C. K A. , T K B. 1 K A. , T K B. 2 K A. and T K B. 1 K B. 2
Figure imgb0024

Im Folgenden wird das voll-automatische Verfahren mit dem System aus Fig. 3 anhand der Fig. 5 näher erläutert. Gemäß einem Schritt 62 ist in der Fig. 5 vorgesehen, dass der Sensor 60 Sensorsignale aufnimmt. Dies erfolgt in Form der Daten D C . Im folgenden Schritt 64 erfolgt die Identifizierung eines potentiellen Zielbereichs. Dies wird anhand einer Korrelation der Messdaten D C mit einer zuvor vorbestimmten Template-Datenbank mit möglichen Szenen durchgeführt: D = D 1 C , D 2 C , D 3 C ,

Figure imgb0025
Im folgenden Schritt 66 erfolgt dann die Ausrichtung des Sensors 26 und des Sensorpaars 28 hin zum Zielbereich 32.The following is the fully automatic procedure with the system Fig. 3 based on Fig. 5 explained in more detail. According to a step 62 is in the Fig. 5 provided that the sensor 60 picks up sensor signals. This is done in the form of the data D. C. In the following step 64, a potential target area is identified. This is based on a correlation of the measurement data D. C carried out with a predetermined template database with possible scenes: D. = D. 1 C. , D. 2 C. , D. 3 C. , ...
Figure imgb0025
In the following step 66, the alignment of the sensor 26 and the sensor pair 28 towards the target area 32 then takes place.

Der gemäß Fig. 5 folgende Schritt 68 entspricht dem Schritt 38 aus Fig. 4, wobei Sensorsignale erfasst werden. Der folgende Schritt 70 entspricht dem Schritt 44 aus Fig. 4. Das heißt, es werden die Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs ermittelt. Ist dies nicht möglich, so wird das Verfahren ausgehend von Schritt 62 wiederholt, was durch den Pfeil 72 gekennzeichnet ist. Sind die gewünschten Informationen bestimmt, so folgen nach dem Schritt 70 die Schritte 74, 76, 78, 80 und 82, die den Schritten 48, 50, 52, 54 und 58 aus Fig. 4 entsprechen.According to Fig. 5 following step 68 corresponds to step 38 from Fig. 4 , whereby sensor signals are detected. The following step 70 corresponds to step 44 from FIG Fig. 4 . This means that the movement and / or position information of the selected target area is determined. If this is not possible, the method is repeated starting from step 62, which is indicated by the arrow 72. Once the desired information has been determined, steps 74, 76, 78, 80 and 82 follow after step 70, followed by steps 48, 50, 52, 54 and 58 Fig. 4 correspond.

Somit kann festgestellt werden, dass bei dem voll-automatischen Verfahren der Zielbereich 32, also die Andockstelle, selbst durch das Verfahren identifiziert wird, beispielsweise mit einer Objekterkennung. Dagegen wird der Zielbereich beim halb-automatischen Verfahren vom Bediener anhand der Sensordaten vorgegeben.It can thus be ascertained that, in the fully automatic method, the target area 32, that is to say the docking point, is itself identified by the method, for example with object recognition. In contrast, the target area is specified by the operator using the sensor data in the semi-automatic process.

BezugszeichenlisteList of reference symbols

  • 1; 10; 14; 16; 24 Wasserfahrzeug1; 10; 14; 16; 24 watercraft
  • 2; 12 Struktur2; 12 structure
  • 4 Gangway4 gangway
  • 6 Andockbereich6 docking area
  • 8 Endabschnitt8 end section
  • 18 Kranarm18 crane arm
  • 20 Seil20 rope
  • 22 Last22 load
  • 26, 28; 60 Sensor26, 28; 60 sensor
  • 30 Kontaktbereich30 Contact Area
  • 32 Zielbereich32 Target area
  • 34 Aktoren34 actuators
  • 36, 38, 40, 42, 44, 48, 50, 52, 54, 58, 62, 64, 66, 68, 70, 74 - 82 Schritt36, 38, 40, 42, 44, 48, 50, 52, 54, 58, 62, 64, 66, 68, 70, 74 - 82 step
  • 37 Steuereinheit37 Control Unit
  • 46, 56, 72 Pfeil46, 56, 72 arrow

Claims (15)

System, um einen Kontaktbereich eines Objekts (1) des Systems an einen Zielbereich (32) eines anderen Objekts (24) anzunähern, damit sich die Bereiche (30, 32) anschließend kontaktieren oder damit die Bereiche (30, 32) in einer Relativposition zueinander positioniert sind, wobei zumindest eines der Objekte (1, 10, 16, 14, 24) bewegbar ist, und wobei das System zumindest einen Sensor (26, 28, 60) hat, der bei dem Objekt (1) des Systems anordenbar ist, wobei dieses Objekt (1) ein Bauteil (4) mit dem Kontaktbereich (30) aufweist, wobei eine Steuereinheit (37) vorgesehen ist, die derart ausgebildet ist, dass damit Informationen in Form von Bewegungs- und/oder Positionsinformationen über den Zielbereich (32) des anderen Objekts (24) relativ zum Kontaktbereich (30) anhand von Sensorsignalen des zumindest einen Sensors (26, 28, 60) ermittelbar sind, wobei zumindest ein Aktor (34) vorgesehen ist und der Bauteil (4) und/oder das Objekt (1) mit dem Bauteil (4) über den Aktor (34) bewegbar ist/sind, um eine Bewegungskompensation zwischen den Bereichen (30, 32) vorzusehen und/oder um die Relativposition der Bereiche (30, 32) zueinander zu ändern, und wobei der Aktor (34) basierend auf den über die Steuereinheit (37) verarbeiteten Informationen derart ansteuerbar ist, dass sich die Bereiche (30, 32) einander annähern und sich anschließend kontaktieren oder anschließend die vorbestimmte Relativposition beibehalten und/oder dass die Bewegungskompensation erfolgt.System for bringing a contact area of an object (1) of the system closer to a target area (32) of another object (24) so that the areas (30, 32) subsequently contact or so that the areas (30, 32) are in a position relative to one another are positioned, wherein at least one of the objects (1, 10, 16, 14, 24) is movable, and wherein the system has at least one sensor (26, 28, 60) which can be arranged on the object (1) of the system, this object (1) having a component (4) with the contact area (30), a control unit (37) being provided which is designed in such a way that information in the form of movement and / or position information about the target area (32 ) of the other object (24) relative to the contact area (30) can be determined on the basis of sensor signals from the at least one sensor (26, 28, 60), at least one actuator (34) being provided and the component (4) and / or the object (1) is movable with the component (4) via the actuator (34) / si nd, in order to provide movement compensation between the areas (30, 32) and / or to change the relative position of the areas (30, 32) to one another, and wherein the actuator (34) based on the information processed via the control unit (37) in this way It can be controlled that the areas (30, 32) approach one another and then contact one another or then maintain the predetermined relative position and / or that the movement compensation takes place. System nach Anspruch 1, wobei ein Auswahl-Algorithmus vorgesehen ist, der derart ausgestaltet ist, das aus den von dem zumindest einem Sensor (26, 28, 60) erfassten Sensorsignalen ein Zielbereich (32) automatisch ausgewählt ist, und/oder wobei ein Verfolgungs-Algorithmus vorgesehen ist, der derart ausgestaltet ist, dass über diesen anhand der von dem zumindest einen Sensor (26, 28, 60) erfassten Sensorsignale der Zielbereich (32) verfolgt ist, und/oder wobei ein Positionsbestimmungs-Algorithmus vorgesehen ist, der derart ausgestaltet ist, dass über diesen Bewegungs- und/oder Positionsinformationen des Zielbereichs basierend auf den Sensorsignalen der Sensoren (26, 28, 60) ermittelt sind, und/oder wobei ein Kompensations-Algorithmus vorgesehen ist, der derart ausgestaltet ist, dass der Kontaktbereich (30) und/oder der Zielbereich (32) nach einer ungewollten Relativverschiebung ausgehend von einer aktuellen Relativposition wieder in diese Relativposition zurückgeführt werden.System according to claim 1, wherein a selection algorithm is provided which is designed in such a way that a target area (32) is automatically selected from the sensor signals detected by the at least one sensor (26, 28, 60), and / or where a tracking Algorithm is provided, which is designed in such a way that the target area (32) is tracked using the sensor signals detected by the at least one sensor (26, 28, 60), and / or a position-determining algorithm is provided which is it is designed that movement and / or position information of the target area is determined via this based on the sensor signals of the sensors (26, 28, 60), and / or a compensation algorithm is provided which is designed in such a way that the contact area ( 30) and / or the target area (32) can be returned to this relative position after an undesired relative displacement, starting from a current relative position. System nach Anspruch 1 oder 2, wobei eines der Objekte eine feststehende Struktur (2, 12) und das andere Objekt (1, 10, 14, 16, 24) bewegbar ist oder wobei beide Objekte (10, 10, 14, 16, 24) bewegbar sind.System according to claim 1 or 2, wherein one of the objects is a fixed structure (2, 12) and the other object (1, 10, 14, 16, 24) is movable, or both objects (10, 10, 14, 16, 24 ) are movable. System nach einem der Ansprüche 1 bis 3, wobei das Bauteil eine über eine Winde (20) bewegbare Last (22) ist und der Kontaktbereich eine unterseitige Auflagefläche der Last (22) oder wobei das Bauteil ein Kranarm oder eine Zugangsbrücke (4) ist.System according to one of Claims 1 to 3, wherein the component is a load (22) movable via a winch (20) and the contact area is a bearing surface on the underside of the load (22) or wherein the component is a crane arm or an access bridge (4). System nach einem der vorhergehenden Ansprüche, wobei der Sensor (26) am Bauteil (4) befestigt ist.System according to one of the preceding claims, wherein the sensor (26) is attached to the component (4). System nach einem der vorhergehenden Ansprüche, wobei der Sensor (26) als Light-Detection-and-Ranging (LIDAR) Sensor ausgebildet ist.System according to one of the preceding claims, wherein the sensor (26) is designed as a light detection and ranging (LIDAR) sensor. System nach einem der vorhergehenden Ansprüche, wobei der Sensor (28) oder ein weiterer Sensor (28) oder ein Sensorpaar (28) am Objekt (1) und nicht am bewegbaren Bauteil (4) befestigt ist.System according to one of the preceding claims, wherein the sensor (28) or a further sensor (28) or a sensor pair (28) is attached to the object (1) and not to the movable component (4). System nach Anspruch 7, wobei der Sensor (28) oder der weitere Sensor (28) eine Kamera ist oder wobei das Sensorpaar (28) eine Kamera und einen Light-Detection-and-Ranging (LIDAR) Sensor aufweist.System according to claim 7, wherein the sensor (28) or the further sensor (28) is a camera or wherein the sensor pair (28) comprises a camera and a light detection and ranging (LIDAR) sensor. System nach Anspruch 7 oder 8, wobei neben dem Sensor (28) oder dem Sensorpaar (28) am Objekt (1) ein weiterer Sensor (60) zur automatischen Erfassung des Zielbereichs (32) vorgesehen ist.System according to Claim 7 or 8, in which, in addition to the sensor (28) or the sensor pair (28) on the object (1), a further sensor (60) is provided for automatic detection of the target area (32). Fahrzeug mit dem System gemäß einem der vorhergehenden Ansprüche, wobei dieses als Objekt mit dem Sensor (26, 28, 60) eingesetzt ist.Vehicle with the system according to one of the preceding claims, wherein this is used as an object with the sensor (26, 28, 60). Feststehende Struktur, an die ein Fahrzeug andockbar ist, wobei die Struktur (2, 12) das System gemäß einem Ansprüche 1 bis 9 aufweist, und wobei die Struktur (2, 12) als Objekt mit dem Sensor (26, 28, 60) eingesetzt ist.Fixed structure to which a vehicle can be docked, wherein the structure (2, 12) has the system according to one of Claims 1 to 9, and wherein the structure (2, 12) is used as an object with the sensor (26, 28, 60) is. Verfahren mit einem System gemäß einem der Ansprüche 1 bis 9 mit den Schritten: - Erfassen von Sensorsignalen des zumindest einen Sensors (26, 28, 60), - Auswahl des Zielbereichs (32) anhand der Sensorsignale, - Ermittlung der Informationen in Form von Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs, - Ansteuerung des zumindest einen Aktors (34) basierend auf den ermittelten Informationen derart, dass sich der Kontaktbereich (30) und der Zielbereich (32) einander annähern und/oder dass die Bewegungskompensation erfolgt. Method with a system according to one of Claims 1 to 9 with the steps: - Detecting sensor signals from the at least one sensor (26, 28, 60), - Selection of the target area (32) based on the sensor signals, - Determination of the information in the form of movement and / or position information of the selected target area, - Control of the at least one actuator (34) based on the determined information in such a way that the contact area (30) and the target area (32) approach one another and / or that the movement compensation takes place. Verfahren nach Anspruch 12, wobei nach der Ansteuerung des zumindest einen Aktors (34) und der Bewegung des Kontaktbereichs (30) folgende Schritte folgen: - Erfassen von Sensorsignalen des zumindest einen Sensors (26, 28, 60), - Verfolgen des ausgewählten Zielbereichs (32) in den Sensorsignalen, - Ermittlung der Informationen in Form von Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs (32) anhand der Sensorsignale des zumindest einen Sensors (26, 28, 60), - Ansteuern des zumindest einen Aktors (34) basierend auf den ermittelten Informationen derart, dass sich der Kontaktbereich (30) und der Zielbereich (32) einander annähern und/oder dass die Bewegungskompensation erfolgt. The method according to claim 12, wherein after the activation of the at least one actuator (34) and the movement of the contact area (30), the following steps follow: - Detecting sensor signals from the at least one sensor (26, 28, 60), - tracking the selected target area (32) in the sensor signals, - Determination of the information in the form of movement and / or position information of the selected target area (32) using the sensor signals of the at least one sensor (26, 28, 60), - Control of the at least one actuator (34) based on the determined information in such a way that the contact area (30) and the target area (32) approach one another and / or that the movement compensation takes place. Verfahren nach Anspruch 12 oder 13, wobei bei der Ermittlung der Informationen in Form von Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs (32), falls die Entfernung zwischen diesen Bereichen einen bestimmten Schwellenwert übersteigt, die Sensorsignale von einer Mehrzahl von Sensoren (26, 28, 60) verwendet werden.Method according to claim 12 or 13, wherein when determining the information in the form of movement and / or position information of the selected target area (32), if the distance between these areas exceeds a certain threshold value, the sensor signals from a plurality of sensors (26, 28, 60) can be used. Verfahren nach einem der Ansprüche 12 bis 14, wobei die Auswahl des Zielbereichs (32) manuell über einen Bediener oder automatisch über die Steuereinheit (37) erfolgt.Method according to one of Claims 12 to 14, the target area (32) being selected manually via an operator or automatically via the control unit (37).
EP20167485.0A 2019-04-11 2020-04-01 System for motion compensation between two objects, vehicle with the system, fixed structure with the system and method using the system Withdrawn EP3722197A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019205186.3A DE102019205186A1 (en) 2019-04-11 2019-04-11 System for motion compensation between two objects, vehicle with the system, fixed structure with the system and movement with the system

Publications (1)

Publication Number Publication Date
EP3722197A1 true EP3722197A1 (en) 2020-10-14

Family

ID=70154254

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20167485.0A Withdrawn EP3722197A1 (en) 2019-04-11 2020-04-01 System for motion compensation between two objects, vehicle with the system, fixed structure with the system and method using the system

Country Status (2)

Country Link
EP (1) EP3722197A1 (en)
DE (1) DE102019205186A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113104153A (en) * 2021-04-25 2021-07-13 大连海事大学 Marine transfer trestle wave compensation control system and working method thereof
CN113232768A (en) * 2021-04-25 2021-08-10 大连海事大学 Offshore transfer trestle with wave compensation function and working method thereof
EP3988439A1 (en) * 2020-10-22 2022-04-27 Robert Bosch GmbH System with a motion compensation device and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009141675A1 (en) * 2008-05-22 2009-11-26 Fmc Technologies Sa Control device for fluid transfer system on sea
WO2015044898A1 (en) * 2013-09-27 2015-04-02 Rolls-Royce Canada, Ltd. Two body motion compensation system for marine applications
DE102014220597A1 (en) * 2014-10-10 2016-04-14 Robert Bosch Gmbh Swell compensation system
US20180244505A1 (en) * 2017-02-28 2018-08-30 J. Ray Mcdermott S.A. Offshore ship-to-ship lifting with target tracking assistance

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009141675A1 (en) * 2008-05-22 2009-11-26 Fmc Technologies Sa Control device for fluid transfer system on sea
WO2015044898A1 (en) * 2013-09-27 2015-04-02 Rolls-Royce Canada, Ltd. Two body motion compensation system for marine applications
DE102014220597A1 (en) * 2014-10-10 2016-04-14 Robert Bosch Gmbh Swell compensation system
US20180244505A1 (en) * 2017-02-28 2018-08-30 J. Ray Mcdermott S.A. Offshore ship-to-ship lifting with target tracking assistance

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MONSON H. HAYES: "Statistical Digital Processing and Modelling", article "Recursive Least Squares"

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3988439A1 (en) * 2020-10-22 2022-04-27 Robert Bosch GmbH System with a motion compensation device and method
DE102020213322A1 (en) 2020-10-22 2022-04-28 Robert Bosch Gesellschaft mit beschränkter Haftung System with a motion compensation device and method
CN113104153A (en) * 2021-04-25 2021-07-13 大连海事大学 Marine transfer trestle wave compensation control system and working method thereof
CN113232768A (en) * 2021-04-25 2021-08-10 大连海事大学 Offshore transfer trestle with wave compensation function and working method thereof
CN113232768B (en) * 2021-04-25 2022-05-13 大连海事大学 Offshore transfer trestle with wave compensation function and working method thereof
CN113104153B (en) * 2021-04-25 2022-05-17 大连海事大学 Marine transfer trestle wave compensation control system and working method thereof

Also Published As

Publication number Publication date
DE102019205186A1 (en) 2020-10-15

Similar Documents

Publication Publication Date Title
EP3722197A1 (en) System for motion compensation between two objects, vehicle with the system, fixed structure with the system and method using the system
DE102010035898B3 (en) Unmanned underwater vehicle and method of operating an unmanned underwater vehicle
DE102007019491B4 (en) Vehicle environment monitoring device, vehicle, vehicle environment monitoring method, and vehicle environment monitoring program
DE102016013274A1 (en) IMAGE PROCESSING DEVICE AND METHOD FOR RECOGNIZING AN IMAGE OF AN OBJECT TO BE DETECTED FROM ENTRY DATA
DE102014005181A1 (en) Position and orientation of objects
EP1615047A2 (en) Method for calibrating an optical distance sensor mounted on a vehicle
DE112010004767T5 (en) Point cloud data processing device, point cloud data processing method and point cloud data processing program
DE102017218366A1 (en) METHOD AND PEDESTRIAN DETECTION APPROACH IN A VEHICLE
DE102006055652A1 (en) Method for processing three-dimensional data and apparatus for processing three-dimensional data
EP2234081A2 (en) Method for producing a known fixed spatial relationship between a laser scanner and a digital camera for traffic monitoring
WO2009049750A2 (en) Method for calibrating an assembly using at least one omnidirectional camera and an optical display unit
DE112015002764B4 (en) Mounting angle adjustment method and mounting angle detection device for on-board camera
DE102016124747A1 (en) Recognition of a raised object based on perspective images
EP2350977B1 (en) Method for combining at least two images to form a panoramic image
EP3770804A1 (en) Industrial truck with object detection
EP3435030A1 (en) Method for creating a 3d model of an object
DE102014201409B4 (en) PARKING - TRACKING DEVICE AND PROCEDURES OF THE SAME
DE102020133092A1 (en) POSITION ESTIMATE DEVICE AND POSITION ESTIMATE PROCEDURES
DE102014219428B4 (en) Self-calibration of a stereo camera system in a car
DE102006007550A1 (en) Roadway markings detecting method for motor vehicle, involves analyzing pixels in such a manner that roadway markings for vehicle are detected, and using ridge-operator as image recognition operator during analysis of pixels
WO2019162327A2 (en) Method for determining a distance between a motor vehicle and an object
DE102020209841B4 (en) Cleaning system with a self-propelled cleaning robot and a charging station
EP3833576B1 (en) Surveillance camera system
DE102017104957A1 (en) Method for determining a movement of mutually corresponding pixels in an image sequence from a surrounding area of a motor vehicle, evaluation device, driver assistance system and motor vehicle
EP3816756B1 (en) System and method for controlling a relativ movement

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN PUBLISHED

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20210414

RBV Designated contracting states (corrected)

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: VAN HALTEREN TECHNOLOGIES BOXTEL B.V.

17Q First examination report despatched

Effective date: 20221028

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20230308