EP3722197A1 - System zur bewegungskompensation zwischen zwei objekten, fahrzeug mit dem system, feststehende struktur mit dem system und verfahren mit dem system - Google Patents

System zur bewegungskompensation zwischen zwei objekten, fahrzeug mit dem system, feststehende struktur mit dem system und verfahren mit dem system Download PDF

Info

Publication number
EP3722197A1
EP3722197A1 EP20167485.0A EP20167485A EP3722197A1 EP 3722197 A1 EP3722197 A1 EP 3722197A1 EP 20167485 A EP20167485 A EP 20167485A EP 3722197 A1 EP3722197 A1 EP 3722197A1
Authority
EP
European Patent Office
Prior art keywords
sensor
target area
movement
information
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP20167485.0A
Other languages
English (en)
French (fr)
Inventor
Markus Schleyer
Quang Huy Nguyen
Michael Erz
Daniel Neyer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Van Halteren Technologies Boxtel BV
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP3722197A1 publication Critical patent/EP3722197A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B27/00Arrangement of ship-based loading or unloading equipment for cargo or passengers
    • B63B27/30Arrangement of ship-based loading or unloading equipment for transfer at sea between ships or between ships and off-shore structures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B17/00Vessels parts, details, or accessories, not otherwise provided for
    • B63B2017/0072Seaway compensators

Definitions

  • the invention relates to a system for motion compensation between two objects, at least one of the objects, such as a vehicle or watercraft, being movable.
  • the invention also relates to a vehicle with the system and a fixed structure with the system. A procedure is also provided for the system.
  • a floating structure is designed, for example, as a floating drilling platform or as an object attached to ropes under water. Often people and goods are transferred from one object to another during operations. For this it is necessary that the objects are connected to one another, for example by docking a ship on a fixed drilling platform, whereby it is assumed that neither people nor goods are injured or damaged.
  • unwanted and difficult or unpredictable movements of the object or objects for example due to the wave movement or the weather conditions, are problematic.
  • the invention is based on the object of creating a system with which an object can be docked to another object in a simple, inexpensive and secure manner in terms of device technology. Furthermore, the invention is based on the object of creating a vehicle that can be docked to an object in a simple, inexpensive and secure manner in terms of device technology. In addition, it is the object of the invention to create a fixed structure to which an object can be docked in a simple, inexpensive and secure manner in terms of device technology. Furthermore, it is the object of the invention to create a method for docking an object to another object in a simple, inexpensive and secure manner in terms of device technology.
  • a system in particular for motion compensation between two objects.
  • the system is used to approach a contact area of the object provided with the system, in particular independently, to a target area of another object and then to contact the areas with one another, the contact in particular to be maintained.
  • the areas can then also be positioned in a position relative to one another, in particular a position that can be determined and fixed in advance, for example also at a distance.
  • At least one of the objects is preferably movable, the object then being a vehicle, in particular a watercraft.
  • the system furthermore preferably has at least one sensor which can be arranged on the object provided with the system.
  • This object can be a component, for example a ship's gangway, or one on a winch attached load, which has the contact area.
  • the at least one sensor is preferably designed in such a way that sensor signals or data about the target area of the other object, in particular the object that does not have this sensor, such as a drilling platform, can be detected.
  • at least one actuator can be provided. This can then drive and move the component and / or the object with the component, in particular in order to change the position of the contact area. This allows movement compensation between the areas. Alternatively or additionally, this can change the relative position of the areas.
  • a control unit is preferably provided or the system is connected to a control unit, for example via the Internet or wirelessly or by cable.
  • the control unit is preferably designed in such a way that it is used to process the information, in particular via a suitable algorithm, in order in particular to determine movement and / or position information of the target area relative to the contact area.
  • the actuator can then be controlled based on the information processed by the control unit in such a way that the areas approach one another and then contact one another or then maintain the predetermined relative position, in particular a distance or relative angle, and / or that the movement compensation takes place.
  • the relative movement not to be fully compensated, but only to be minimized to the extent that the operation can be carried out safely. For example, with existing contact, slight changes in the angle between the gangway and the other ship could be tolerated.
  • a relative movement between two objects in particular continuously, can be measured.
  • the movement information can then be used to compensate for the relative movement during docking, for example a bridge or another element from one body to the other, in order to meet and maintain the target position.
  • This solution has the advantage that operations, for example between two floating objects or bodies, can also be carried out in less than optimal weather conditions. This is preferably done in that the relative movement is determined, for example, between the contact points, for example between an end side of a gangway and a docking point, between the two bodies and can then be compensated for.
  • the system can advantageously only be installed on one of the two objects or bodies. No aids or sensors are then required on the other object, for example on the other float.
  • safety is increased during operations between two objects, in particular between two floating bodies.
  • a manual compensation of the relative movement in the prior art is practically impossible, so that no compensation currently takes place in operations of this kind and considerable risks always have to be accepted and accidents cannot be ruled out.
  • a quick docking operation can be carried out with the present system.
  • the system according to the invention it is not necessary, for example for operations between two floating bodies, to determine a relative movement between their contact points using a sensor system that is provided on both floating bodies. There is therefore no need to install any sensors on both bodies or objects that exchange data.
  • the relative position between the target area and the contact area can be determined. This not only determines the movement of the body on which the system is installed. If only the movement of this body were to be determined, then only absolute positioning in space would be possible, which would be problematic in particular for operations between two moving objects.
  • a relative movement between two objects for example between two floating objects or between a floating object and a fixed object, can thus be determined.
  • the relative movement is only determined from one object, which means that no tools are required for the other object. No aids need to be attached to the other object and no information needs to be communicated from the other object to the first object.
  • information in the form of movement and / or position information about the contact area of the component of the object is recorded and / or established and / or the control unit at certain times or events or reported continuously. This is advantageous in order to easily determine the relative position between the contact area and the target area.
  • a selection algorithm can preferably be provided. This is designed, for example, in such a way that a target area can be selected via the control unit, in particular automatically, from areas detected by the at least one sensor. The target area can then be followed. If, for example, the object with the contact area approaches the further object, the object with the contact area can independently select a target area on the other object using the selection algorithm and then subsequently acquire the information required for the movement compensation and / or the To enable convergence of the areas.
  • an input means can be provided. This is preferably designed in such a way that a target area can be selected manually, in particular via an operator, by the at least one sensor detected areas, and can then preferably be followed.
  • manual selection of the target area can thus also be provided.
  • Such an input means is advantageous, for example, if an operator of the object with the contact area does not want to rely on a purely automatic target area selection. If both are possible, i.e. automatic or manual target selection, the operator can fall back on manual target area selection if necessary, for example in difficult situations.
  • a tracking algorithm is preferably provided. This can be configured in such a way that the, in particular the selected, target area is tracked via it on the basis of the information recorded by the at least one sensor. Thus, after the target area has been selected, an operator does not have to track this target area manually, but the tracking advantageously takes place automatically. It is conceivable that the selected target area is marked and can be shown in a display.
  • a position determination algorithm is advantageously provided, which can be designed in such a way that it is used to determine movement and / or position information of the, in particular selected and / or tracked, target area. The position and movement relative to the contact area can then easily be calculated.
  • a compensation algorithm is preferably provided, which is designed in such a way that the areas, i.e. the target area and the contact area, are returned to this relative position or come closer to one another after an undesired relative displacement or rotation, starting from a current relative position will.
  • the movement compensation can be carried out via the compensation algorithm.
  • the contact area and target area would preferably be in a fixed relative position to one another, although the object moves, in particular due to waves.
  • the information is ascertained or determined in the form of movement and / or position information of the contact area.
  • a relative movement and / or a relative position can then be determined from the information about the target area and from the information about the contact area.
  • the information of the contact area can be used, for example, in the position determination algorithm and can be recorded simultaneously or after or before the determination of the information for the target area.
  • one of the objects is preferably a stationary structure and the other object is movable, in particular in the form of a vehicle. It would also be conceivable that both objects can be moved.
  • the vehicle is preferably an aircraft or a water-based vehicle or a land-based vehicle.
  • An offshore wind turbine or a fixed drilling platform, for example, is provided as the fixed structure.
  • a ship, a floating platform or a buoy can be provided as a water-bound vehicle.
  • the system according to the invention is arranged either on the fixed structure or on the movable object.
  • the component is a load that can be moved or suspended by means of a winch and a crane arm.
  • the contact area is preferably an underside bearing surface of the load.
  • the target area can be a storage area for the load on the other object.
  • the component is a crane arm or an access bridge or staircase or a gangway of a watercraft.
  • the contact area is then preferably a contact surface thereof, which is to be brought into contact with the other object or to be brought close to the object.
  • the component is a component of the winch, such as a connecting element, such as a crane hook for the load. If the movement compensation is provided for the winch, then, for example, the lifting movement of the vehicle, in particular the watercraft, can be compensated for in the end position of the rope, where the crane hook is, for example. This means that the crane hook would essentially be in a fixed position in space, although the vehicle is moving due to waves.
  • the end of the gangway could be movement-compensated via the movement compensation of the system.
  • the end of the ship gangway can be positioned at a fixed position in space despite the ship's movement, which enables it to be guided to the target area, for example to dock on a wind turbine.
  • the at least one actuator or a plurality of actuators is preferably designed such that the contact area of the component can be moved in one, two or three translational direction (s) and / or in one, two or three rotary direction (s). It is therefore conceivable that some or all of the movements can be compensated for. Depending on the application, a certain number or configuration of the actuator or actuators is then used in order to move the contact area in the desired directions. It has been shown that, for example, in the case of a winch with the load on the rope, good results can be achieved if only translational relative lifting movements in the vertical direction are compensated for via the movement compensation of the system.
  • the component of the movable object can be movable relative to this with the at least one or a further actuator.
  • the component can be moved relative to its object via this at least one actuator in such a way that the contact and target areas approach one another and / or that the areas maintain a predetermined distance or contact and / or that motion compensation takes place.
  • the senor or the sensor in combination with the selection algorithm is preferably designed in such a way that - as already mentioned above - no aids are required in the target area in order to detect it. This means that no adjustments to the object with the target area are necessary. For example, no aids or additional sensors need to be used in the target area so that the sensor can detect the target area. For example, no motion reference units (MRU) or permanently installed reference measuring points for position determination are then required, such as reflectors for radar sensors or lasers. It is therefore not necessary to measure reference measuring points and report them to the control unit in a complex manner.
  • MRU motion reference units
  • permanently installed reference measuring points for position determination are then required, such as reflectors for radar sensors or lasers. It is therefore not necessary to measure reference measuring points and report them to the control unit in a complex manner.
  • an imaging sensor in particular a 3D image sensor
  • the sensor or another sensor can be designed as a camera.
  • a monochrome camera or a color camera or a stereo camera or an infrared camera or a time-off-flight (TOF) camera are suitable here.
  • the sensor or a further sensor can be configured as a light detection and ranging (LIDAR) sensor.
  • LIDAR light detection and ranging
  • a measuring range of the sensor or sensors can preferably be adjustable via one or one adjustment actuator in each case.
  • the adjustment actuator can be controlled, for example, by the control unit or the operator.
  • the sensor is flexible via the Vestellaktor can be aligned to the target area. This can take place automatically, for example, and / or positioning, in particular rough positioning, takes place via the operator. It is also conceivable that, in the event of a change in position between the target area and the contact area, the sensor automatically follows the target area by activating the adjustment actuator accordingly.
  • the sensor is attached to the movable component, for example.
  • it can be moved together with the component and / or independently of the component via the adjustment actuator.
  • Moving the sensor together with the component has the advantage that when the component moves with its contact area towards the target area, the sensor can, for example, also be brought closer to the target area.
  • it is necessary to calculate the movement / position of the contact point of the component in a complex manner using the kinematic data of the component. This calculation is omitted or simplified the closer the sensor system or the sensor is attached to the contact area.
  • the senor in the form of a LIDAR sensor is attached to the movable component, in particular in the form of a boom.
  • the sensor is arranged on the end face, that is to say for example at an end section or a tip of the boom, and thus for example close to the contact area or adjacent to the contact area.
  • the sensor is thereby advantageously in an exposed position, which leads to a free measurement area.
  • At least one sensor or a further sensor and / or a sensor pair can be attached to the object with the component and thus preferably not to the movable component.
  • a camera in particular a pan-tilt-zoom (PTZ) surveillance camera, is provided here as the sensor.
  • a sensor pair is arranged, a LIDAR sensor connected to it, in particular mechanically, can be used in addition to the camera.
  • the arrangement of the sensor or sensors on the object is preferably provided in such a way that, in this position, the target area is always provided in the measurement area despite movement or wave movement of the object. This is ensured in particular by the PTZ surveillance camera.
  • the LIDAR sensor is mechanically connected to the camera, it is also moved along with the camera, for example via a Adjustment actuator, which means that only one adjustment actuator is necessary. This also extends its measuring range according to the requirements.
  • the sensor or the sensor pair are arranged, for example, on a movable platform via which the component can be moved about a vertical axis of the vehicle or the structure. The sensor or the pair of sensors can then, for example, be moved together with the platform via an actuator or adjustment actuator.
  • a further sensor is preferably provided on the object, which is provided in particular for automatic detection or for the automatic selection of the target area.
  • the further sensor is attached, for example, to the platform or to the vehicle or the structure, ie preferably not to the component.
  • the sensor or some of the sensors or all sensors are preferably intrinsically and / or extrinsically calibrated.
  • intrinsic calibration for example, a sensor is calibrated in the form of a camera for the associated optics.
  • several sensors are provided, these or some of them are preferably calibrated against one another.
  • the calibrations can enable a coordinate transformation between sensor coordinate systems so that the control unit can easily determine the desired information.
  • the individual images (cameras) / point clouds (lidar) are merged and / or merged in the algorithm at certain points.
  • Reasons for this can include mutual plausibility checks, creating redundancy for sensor failure or temporary occlusion or increasing the stability of the algorithms.
  • the relative position (3 translations, 3 rotations) between the coordinate systems of the imaging sensors should be known. This is guaranteed by the extrinsic calibration.
  • an input means or a further input means can be provided for the at least one actuator and / or for the at least one adjustment actuator.
  • the input means is, for example, a joystick.
  • the input means can be configured in such a way that the component having the contact area and / or the at least one sensor with respect to the target area, in particular in advance, is positionable. Thus, for example, rough positioning by an operator is possible in a simple manner before automatic movement compensation and / or approach of the areas takes place.
  • a display or a display Possible target areas detected by the at least one sensor can then be displayed on this, for example.
  • an image captured by the sensor by a camera can be displayed.
  • the operator can use the display to select a target area via an input means.
  • a position or 3D position of the, in particular selected, target area is shown on the display based on the information recorded by the at least one sensor.
  • a vehicle with the system according to one or more of the preceding aspects is provided.
  • the vehicle can be used as an object with the sensor.
  • a stationary structure is provided to which a vehicle, in particular a watercraft, can be docked.
  • the structure can then have the system according to one or more of the preceding aspects.
  • the structure can then be used as an object with the sensor. It is conceivable that the structure has the movable component.
  • This solution has the advantage that a movement compensation between the areas and / or an approximation of the areas is made possible in a simple manner.
  • the compensation can take place, for example, by a corresponding control of the crane arm, the gangway or the winch, with the help of which contact with the other object is established. Operations between, for example, two floating bodies or one floating body and one solid body are thus made possible in a simple manner.
  • the target area is tracked with a suitable algorithm, in particular with the tracking algorithm, and the change in position is continuously tracked.
  • a suitable algorithm in particular with the tracking algorithm, and the change in position is continuously tracked.
  • this can be done using one or more of the following methods: Kalman filters, particulate filters, feature-based methods, region-based methods, contour-based methods, model-based methods.
  • Information or position information is preferably continuously fed to the control unit for regulating the at least one actuator, in particular for the movable component, in order to implement the movement compensation, in particular with a manual assistance function or automated contact establishment.
  • the sensor signals from a plurality of sensors can be used in the determination of the information in the form of the movement and / or position information of the selected target area, in particular via the position determination algorithm. This is preferably the case in particular when the distance between the target area and the contact area exceeds a certain threshold value and / or the sensor signals of a sensor are too imprecise.
  • the sensor or the sensor pair is first used on the object and not on the component, for example the camera or the camera and the LIDAR sensor. Under certain conditions, the sensor on the component, which is preferably the LIDAR sensor, can then also be used if necessary.
  • the ascertained information of the selected target area is too imprecise, it can be provided that the operator is informed of this, in particular in the display. A new target area can then be selected manually or automatically. It is conceivable that the operator initiates the automatic selection.
  • the distance between the contact area and the target area is preferably monitored, for example continuously or for example after a respective activation of the at least one actuator.
  • the method can then be ended from a predetermined distance or when the areas come into contact. This means, for example, if the relative distance of the areas has fallen below a previously defined threshold value, then the contact can be regarded as established.
  • the control can then, for example, be transferred to a general movement compensation system for the vehicle.
  • the contact area and the target area can optionally be approached manually via the input means by an operator or automatically via the control unit be approximated. It is conceivable, for example, that in uncritical and simple situations the operator manually approaches the areas or intervenes in the approach if necessary.
  • the target area on the other object can be selected either manually via the operator or automatically via the control unit.
  • the operator can first ensure that the target area is provided in the field of vision of the sensors. To this end, it can control at least one actuator and / or the at least one adjustment actuator in order to align the at least one sensor accordingly.
  • the sensor signals detected by the sensor can preferably be shown to the operator, in particular as images. This can take place, for example, in the form of a camera image and / or in the form of a LIDAR point cloud and / or in the form of a radar image.
  • the operator can select the target area, for example via the input means.
  • the input means is a joystick or a touch-sensitive display (touchscreen) would also be conceivable.
  • the information relating to the selected target area can then be ascertained, in particular via the position-determining algorithm.
  • a 3D position of the target area can be determined using suitable sensor data and preferably displayed to the operator, in particular via the display. For example, a so-called sensor fusion between stereo camera data and the LIDAR point cloud can take place.
  • the selection algorithm can be used for the automatic selection of the target area. This is preferably configured in such a way that the target area can be determined from the sensor signals or sensor data. A surround view camera system or sensors with a large opening angle are preferably suitable as the sensor. One or more of the following methods can be used as the selection algorithm: Iterative Closest Point (ICP), RANSAC, template matching, segmentation methods such as Otsus, K-means clustering, watershed, grab-cut algorithm.
  • ICP Iterative Closest Point
  • RANSAC RANSAC
  • template matching segmentation methods such as Otsus, K-means clustering, watershed, grab-cut algorithm.
  • the data acquired by the sensor or by the sensors can preferably be represented visually or graphically on the display.
  • the selected target area can be marked here, for example.
  • the current position of the 3D position of the target area can be shown in the display.
  • the tracking algorithm uses the sensor data of two sensors, with which the target area can advantageously be tracked reliably.
  • Suitable sensors are, for example, the sensor (camera) or the sensor pair on the object and not on the component and the sensor (LIDAR sensor) on the Component.
  • the position of the target area in the current sensor data can preferably be tracked using a filter, in particular using a Kalman filter.
  • the future position can preferably be calculated or estimated via the filter based on the current position of the target area, or the current position can be calculated or estimated via the filter based on the last known position.
  • the movement information is used to compensate for the movement when a bridge or another element is docked from one body to the other in order to meet and maintain a target position.
  • Fig. 1a shows an object in the form of a floating body, which is a watercraft 1.
  • a stationary structure 2 is shown as the object, which is, for example, an offshore wind turbine or a fixed drilling platform.
  • the watercraft 1 has a component in the form of a gangway 4. This should be included dock to a docking area 6 of the structure 2.
  • the gangway 4 can be pivoted via an actuator, not shown, so that a free-standing front end section 8 can be adjusted in height.
  • the gangway 4 can be rotated about a vertical axis of the watercraft 1 via an actuator.
  • a system according to the invention for movement compensation and for bringing the end section 8 closer to the docking area 6 is provided in the watercraft 1.
  • FIG. 1b an object in the form of a watercraft 10 is also shown. Furthermore, an object in the form of a stationary structure 12 is shown. In contrast to the Fig. 1a does not have the watercraft 10, but the structure 12 has the movable gangway 4. The watercraft 10 has the docking area 6. The system according to the invention for movement compensation and for bringing the gangway 4 closer to the docking area 6 is provided in the structure 12.
  • a first object in the form of a watercraft 14 and a second object in the form of a watercraft 16 are shown.
  • the watercraft 14 has a crane arm 18 which is rotatable so that its free end can be adjusted in height, and which is preferably movable about a vertical axis of the watercraft 14.
  • the crane arm 14 interacts with a (not shown) winch for a rope 20, at the end of which a load 22 is fastened via a crane hook.
  • the load 22 is intended to be unloaded onto the watercraft 16.
  • the watercraft 14 has the system for motion compensation and for bringing the load 22 closer to the watercraft 16.
  • At least one sensor can be provided, for example, on the free end section of the crane arm 18, i.e. on the end section remote from the watercraft 14. This can capture a target area on the watercraft 16.
  • a contact area is provided for the load 22, for example.
  • Fig. 1d shows, in addition to the watercraft 10 with the docking area 6, the watercraft 1 with the gangway 4.
  • the watercraft 1 here has the system for combining movements and for bringing the gangway 4 closer to the docking area 6.
  • the system can be used for motion compensation in operations between a watercraft and a stationary structure or in operations between two watercraft. It is advantageous in each case only necessary that each one of the objects from a respective Figures 1a to 1b the system has, while the corresponding other object does not have to be adjusted for the system.
  • the system is only installed on one of the objects and then enables it to establish mechanical contact with a large number of other floating or stationary bodies. To avoid damage during or during the establishment of contact and to be able to maintain contact over a longer period of time without damage.
  • movements of the watercraft 1, 10, 14, 16 caused by wind and waves can be taken into account and compensated for by the system when the contact area is established with the target area. This is done, for example, by adjusting the position of the gangway 4 or the crane arm 18 or the length of the rope 20.
  • a fully automatic and / or a semi-automatic method can be provided for the system.
  • Fig. 2 an arrangement for the semi-automatic process is shown and in Fig. 3 an arrangement for the fully automatic process is shown.
  • Fig. 2 the watercraft 1 is shown with the gangway 4 or bridge. Furthermore, an object in the form of a watercraft 24 is shown which has a docking area 6.
  • a sensor 26 in the form of a LIDAR sensor is arranged and fastened on the face of the gangway 4, that is to say at its free end.
  • a pair of sensors 28 is provided, which is not attached to the gangway 4, but directly to the watercraft 1. For example, the pair of sensors 28 is arranged on a platform which is rotatable about a vertical axis of the watercraft 1 and on which the gangway 4 is movably mounted.
  • the sensor pair 28 has a camera, in particular in the form of a pan-tilt-zoom (PTZ) camera, and a LIDAR sensor.
  • the gangway has a contact area 30 at the end, which is to be brought into contact with a target area 32 for docking with the watercraft 24.
  • the sensor pair 28 is preferably arranged on the watercraft 1 in such a way that The target area 32 remains detectable until a certain wave movement or with any wave movement. This is ensured by the PTZ camera.
  • the wave movement or other movements would also be conceivable to at least partially compensate for the sensor pair 28 with movement compensation.
  • the sensor pair 28 is mechanically firmly connected and can be moved together, for example via an adjustment actuator.
  • the LIDAR sensor for example, is connected to the camera through the mechanical connection and its field of view is thereby expanded according to the requirements.
  • the sensors 26, 28 are intrinsically, extrinsically and calibrated against one another. This enables a coordinate transformation between the sensor coordinate systems, where K B1 is the coordinate system of the first sensor of the sensor pair 28, K B2 is the coordinate system of the second sensor of the sensor pair 28 and K A is the coordinate system of the sensor 26 is.
  • the coordinate transformation can be done with the following common formulas: T K B. 1 K A. , T K B. 2 K A. and T K B. 1 K B. 2 where T is a transformation matrix.
  • the transformation matrix T is a 4x4 matrix with a sub-rotation matrix R, which describes the rotation between the coordinate systems, and the sub-translation matrix t, which describes the translation between the coordinate systems.
  • the representation of a vector with respect to the coordinate system K B1 can be converted into a representation with respect to the coordinate system K B2 :
  • actuators 34 in Fig. 2 are shown schematically with a block, the gangway 4 can be rotated so that the height of the contact area 30 can be changed and rotated about a vertical axis 36 of the watercraft 1.
  • the actuators 34 can be controlled via a control unit 37.
  • step 36 an operator ensures that the target area 32 is off Fig. 2 is in the field of view of the sensors 26 and 28. This can take place in that the sensor pair 26 is moved together with the gangway 4 via the actuators 34, for example via the platform, and / or the watercraft 1 is moved by its drive and / or that for the sensor pair 28 and / or for the Sensor 26, an adjustment actuator or an adjustment actuator is provided, via which it is / are movable.
  • a manual input of the change in position for the sensors 26, 28 takes place, for example, with the aid of a joystick and / or a keyboard console and / or a touch screen.
  • step 38 the sensor signals or sensor data from sensors 26, 28 are recorded.
  • the sensor data of the PTZ camera of the sensor pair 28 are used as a camera image I. B determined.
  • the Sensor data of the LIDAR sensor of the sensor pair 28 are signed with a LIDAR data signature D. B recorded.
  • the sensor data of the LIDAR sensor (sensor 26) is provided with a LIDAR data signature D. A recorded.
  • step 40 the visualization takes place on the screen.
  • the sensor signals of the scene are shown to the operator in an image.
  • the image of the PTZ camera of the sensor pair 28 is shown superimposed on the LIDAR point clouds of the LIDAR sensors (sensor pair 28 and 26) on a display or monitor.
  • step 42 the operator then selects based on the sensor signals displayed on the monitor I. B , D. B and D. A from a target area, the monitor being, for example, a touchscreen.
  • a template camera image is then used for the target area I. ⁇ 0 B. the PTZ camera (sensor pair 28) and LIDAR data signatures D. ⁇ 0 B. and D. ⁇ 0 A. of the LIDAR sensors (sensor pair 28 and sensor 26) which characterize the target area.
  • the selected target area is then marked in the monitor with a marking, for example a bounding box.
  • the position determination algorithm is used to determine the information in the form of movement and position information of the target area 32 relative to the contact area 30.
  • a 3D position of the target area is determined using the sensor signals or sensor data from the sensors 26 and 28 determined and displayed to the operator.
  • the template image is usually smaller than the current camera image.
  • a moving window is placed over the camera image at every possible position and the correlation is calculated.
  • u ' and ⁇ ' are the two pixel coordinates of the captured images.
  • u and ⁇ denote the a priori unknown (lateral) shifts in the two pixel coordinates between the image section and the template image.
  • the aim is now to find values for u and v to be determined so that the closest possible correspondence between the image section and the template image results.
  • the degree of agreement is expressed mathematically by the correlation, which is to be maximized by a suitable choice of u and v.
  • the values of u and v that maximize the correlation are called u 0 and v 0 .
  • the 3D position of the target area can then be determined using the Random Sample Consensus (RANSAC) or an Iterative Closest Point (ICP) algorithm. If a relative distance between the contact area 30 and the target area 32 is above a certain threshold, the data D.
  • RANSAC Random Sample Consensus
  • ICP Iterative Closest Point
  • a of the sensor 26 is also used for more precise position determination. If the selected target area has only a low contrast in the detected sensor signals, so that the accuracy of the position determination can only be imprecise, then the unreliable measurement is signaled to the operator and he can mark a new point, which is indicated by the arrow 46 in Fig. 4 is shown, whereupon step 44 is carried out again.
  • step 48 follows.
  • the movement and / or position information is continuously fed to the control unit 37, which accordingly the actuators 34 controls. These are controlled in such a way that the contact area 30 in The direction of the target area 32 is moved. In this case, a previously defined distance is covered and then a renewed recording of the sensor signals from sensors 26 and 28 is triggered, which is shown by step 50.
  • step 50 it is thus provided that the sensors 26 and 28 receive the sensor signals I. B , D. B and D. A record.
  • the selected target area 32 is tracked or found again in the sensor signals I. B , D. B and D. A using a tracking algorithm via the control unit 37.
  • This is preferably done using a Recursive Least Square (RLS) algorithm.
  • RLS Recursive Least Square
  • This is a set of mathematical equations that represent a computationally efficient, in particular recursive, estimation of the state of a process. The mean square error is minimized here.
  • the current measured position r t at time t is used as an input value for estimating the future position r t +1 .
  • the position r t is the last determined position information of the target area, which was initially determined in step 44 and is determined again in the following step 54, which is explained in more detail below.
  • r ⁇ t T formed from N measurements up to time t and ⁇ t are coefficients.
  • K ⁇ t P t - 1 ⁇ r ⁇ t - 1 ⁇ + r ⁇ t - 1 T P t - 1 r ⁇ t - 1
  • ⁇ (0 ⁇ ⁇ ⁇ 1) is the so-called forgetting factor.
  • P t is the inverse correlation matrix of the measurement data.
  • ⁇ t r t - r ⁇ t - 1 T ⁇ ⁇ t - 1
  • a Kalman filter for example, can be used.
  • step 52 the information in the form of movement and position information of the tracked target area on the basis of the sensor signals is generated in subsequent step 54 I. B , D. B and D. A determined using the sensors 26 and 28. The procedure corresponds to that in step 44.
  • step 54 it can be determined how large the distance between the contact area 30 and the target area 32 is. If the contact area 30 has not yet reached the target area 32, the method is carried out again from step 48, which is shown by the arrow 56. If the contact point is reached, step 58 follows after step 54. That is, if a relative distance between the contact area 30 and the target area 32 has fallen below a previously defined threshold value, then the contact between these areas is regarded as established. The control is then passed on to the general movement compensation of the object, in this case the watercraft 1.
  • a further sensor 60 is provided in the watercraft 1.
  • This is a scanning sensor with a comparatively large opening angle.
  • a LIDAR sensor can be used.
  • the sensor 60 can then be used over a large area an environment can be scanned, this preferably being done in a comparatively high resolution.
  • a recording speed then plays a subordinate role.
  • the sensors 26 and 60 and the sensor pair 28 are intrinsically, extrinsically and mutually calibrated, which enables a coordinate transformation between the individual sensor coordinate systems, where K C is the coordinate system of the sensor 60.
  • the coordinate transformation can be done with the following common formulas: T K C. K B. 1 , T K C. K B. 2 , T K C. K A. , T K B. 1 K A. , T K B. 2 K A. and T K B. 1 K B. 2
  • a step 62 is in the Fig. 5 provided that the sensor 60 picks up sensor signals. This is done in the form of the data D. C.
  • step 66 the alignment of the sensor 26 and the sensor pair 28 towards the target area 32 then takes place.
  • step 68 corresponds to step 38 from Fig. 4 , whereby sensor signals are detected.
  • step 70 corresponds to step 44 from FIG Fig. 4 . This means that the movement and / or position information of the selected target area is determined. If this is not possible, the method is repeated starting from step 62, which is indicated by the arrow 72. Once the desired information has been determined, steps 74, 76, 78, 80 and 82 follow after step 70, followed by steps 48, 50, 52, 54 and 58 Fig. 4 correspond.
  • the target area 32 that is to say the docking point, is itself identified by the method, for example with object recognition.
  • the target area is specified by the operator using the sensor data in the semi-automatic process.

Landscapes

  • Chemical & Material Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Ocean & Marine Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

System zur Bewegungskompensation zwischen zwei Objekten, Fahrzeug mit dem System, feststehende Struktur mit dem System und Verfahren mit dem SystemEs ist offenbart, dass eine Relativbewegung zwischen zwei Objekten ständig gemessen wird. Die Bewegungsinformation wird zur Kompensation der Bewegung beim Andocken einer Brücke oder eines anderen Elements von dem einen an den anderen Körper genutzt, um eine Zielposition zu treffen und beizubehalten.

Description

    Gebiet der Erfindung
  • Die Erfindung betrifft ein System zur Bewegungskompensation zwischen zwei Objekten, wobei zumindest eines der Objekte, wie beispielsweise ein Fahrzeug oder Wasserfahrzeug, bewegbar ist. Des Weiteren betrifft die Erfindung ein Fahrzeug mit dem System und eine feststehende Struktur mit dem System. Außerdem ist ein Verfahren für das System vorgesehen.
  • Hintergrund der Erfindung
  • In der Offshore-Industrie, wie beispielsweise bei der Rohstoffförderung oder der Windenergiegewinnung, fallen zahlreiche Operationen an Objekten an. Diese können beispielsweise zwischen verschiedenen Schiffen oder Schiffen und feststehenden Strukturen oder Schiffen und schwimmenden Strukturen anfallen. Als feststehende Struktur kann beispielsweise eine Windenergieanlage oder eine feste Bohrplattform vorgesehen sein. Eine schwimmende Struktur ist beispielsweise als schwimmende Bohrplattform oder als ein unter Wasser an Seilen befindlicher Gegenstand ausgebildet. Bei den Operationen werden häufig Personen und Güter von einem Objekt zum anderen transferiert. Hierzu ist es notwendig, dass die Objekte miteinander verbunden werden, beispielsweise indem ein Schiff an eine feste Bohrplattform andockt, wobei vorausgesetzt wird, dass weder Personen, noch Güter verletzt oder beschädigt werden. Problematisch jedoch sind ungewollte und schwer oder nicht vorhersagbare Bewegungen des Objekts oder der Objekte, beispielsweise aufgrund der Wellenbewegung oder der Wetterbedingungen. Bei nicht optimalen Wetterbedingungen steigt das Risiko, dass Personen oder Güter bei solchen Operationen verletzt oder beschädigt werden, erheblich an. Um das Risiko zu senken oder zu vermeiden, werden die Operationen üblicher Weise bei nicht optimalen Wetterbedingungen unterbrochen oder verschoben. Wetterbedingte Verschiebungen oder Ausfälle führen zu erheblichen finanziellen Einbußen. Somit besteht ein hohes Interesse an Systemen, die es erlauben, auch Operationen unter schlechteren Bedingungen auszuführen.
  • Offenbarung der Erfindung
  • Demgegenüber liegt der Erfindung die Aufgabe zugrunde, ein System zu schaffen, mit dem ein Objekt vorrichtungstechnisch einfach, kostengünstig und sicher an ein weiteres Objekt andockbar ist. Des Weiteren liegt der Erfindung die Aufgabe zugrunde, ein Fahrzeug zu schaffen, das vorrichtungstechnisch einfach, kostengünstig und sicher an ein Objekt andockbar ist. Außerdem ist es die Aufgabe der Erfindung, eine feststehende Struktur zu schaffen, an die vorrichtungstechnisch einfach, kostengünstig und sicher ein Objekt andockbar ist. Des Weiteren ist es die Aufgabe der Erfindung, ein Verfahren zu schaffen, um vorrichtungstechnisch einfach, kostengünstig und sicher ein Objekt an ein weiteres Objekt anzudocken.
  • Die Aufgabe hinsichtlich des Systems wird gelöst gemäß den Merkmalen des Anspruchs 1, hinsichtlich des Fahrzeugs gemäß den Merkmalen des Anspruchs 10, hinsichtlich der feststehenden Struktur gemäß den Merkmalen des Anspruchs 11 und hinsichtlich des Verfahrens gemäß den Merkmalen des Anspruchs 12.
  • Vorteilhafte Weiterbildungen der Erfindung sind Gegenstand der Unteransprüche.
  • Erfindungsgemäß ist ein System, insbesondere zur Bewegungskompensation zwischen zwei Objekten, vorgesehen. Das System dient dazu, einen Kontaktbereich des mit dem System versehenen Objekts, insbesondere selbständig, an einen Zielbereich eines anderen Objekts anzunähern und anschließend die Bereiche miteinander zu kontaktieren, wobei insbesondere der Kontakt beibehalten werden soll. Alternativ können auch anschließend die Bereiche in einer, insbesondere vorher bestimmbaren und festlegbaren, Relativposition zueinander positioniert werden, beispielsweise auch mit einem Abstand. Vorzugsweise ist zumindest eines der Objekte bewegbar, wobei es sich bei dem Objekt dann um ein Fahrzeug, insbesondere um ein Wasserfahrzeug handeln kann. Das System hat des Weiteren vorzugsweise zumindest einen Sensor, der bei dem mit dem System versehenen Objekt anordenbar ist. Dieses Objekt kann ein Bauteil, beispielsweise eine Schiffsgangway, oder eine an einer Winde befestigte Last, haben, das den Kontaktbereich aufweist. Der zumindest eine Sensor ist bevorzugter Weise derart ausgestaltet, dass damit Sensorsignale oder Daten über den Zielbereich des anderen, insbesondere des nicht diesen Sensor aufweisenden Objekts, wie beispielsweise einer Bohrplattform, erfassbar sind. Des Weiteren kann zumindest ein Aktor vorgesehen sein. Dieser kann dann das Bauteil und/oder das Objekt mit dem Bauteil antreiben und bewegen, insbesondere um die Position des Kontaktbereichs zu ändern. Hierdurch kann eine Bewegungskompensation zwischen den Bereichen erfolgen. Alternativ oder zusätzlich kann hierdurch die Relativposition der Bereiche geändert werden. Des Weiteren ist vorzugsweise eine Steuereinheit vorgesehen oder das System ist mit einer Steuereinheit, beispielsweise über das Internet oder kabellos oder kabelgebunden, verbunden. Die Steuereinheit ist vorzugsweise derart ausgestaltet, dass damit die Informationen, insbesondere über einen geeigneten Algorithmus, bearbeitet werden, um insbesondere Bewegungs- und/oder Positionsinformationen des Zielbereichs relativ zum Kontaktbereich zu ermitteln. Der Aktor kann dann basierend auf dem von der Steuereinheit bearbeiteten Informationen derart angesteuert sein, dass sich die Bereiche einander annähern und sich anschließend kontaktieren oder anschließend die vorbestimmte Relativposition, insbesondere einen Abstand oder relativen Winkel, beibehalten, und/oder dass die Bewegungskompensation erfolgt. Weiterhin wäre es möglich, dass die Relativbewegung nicht vollständig kompensiert wird, sondern nur soweit minimiert wird, dass die Operation sicher ausgeführt werden kann. Zum Beispiel könnte bei bestehendem Kontakt geringe Winkeländerung zwischen Gangway und anderem Schiff toleriert werden.
  • Mit anderen Worten kann eine Relativbewegung zwischen zwei Objekten, insbesondere ständig, gemessen werden. Die Bewegungsinformation kann dann zur Kompensation der Relativbewegung beim Andocken, beispielsweise einer Brücke oder eines anderen Elements von dem einen an den anderen Körper genutzt werden, um die Zielposition zu treffen und beizubehalten.
  • Diese Lösung hat den Vorteil, dass Operationen, beispielsweise zwischen zwei schwimmenden Objekten oder Körpern, auch bei nicht optimalen Wetterbedingungen ausgeführt werden können. Dies erfolgt vorzugsweise, indem die Relativbewegung beispielsweise zwischen den Kontaktpunkten, beispielsweise zwischen einer Endseite einer Gangway und einer Andockstelle, zwischen beiden Körpern bestimmt wird und dann kompensiert werden kann.
  • Vorteilhafter Weise kann das System nur auf einem der beiden Objekte oder Körper installiert sein. Es sind dann keine Hilfsmittel oder Sensoren auf dem anderen Objekt, beispielsweise auf dem anderen Schwimmkörper, nötig. Dies führt zu einer hohen Einsatz-Flexibilität, da ein mit dem System ausgerüstetes Objekt beispielsweise an Objekte ohne entsprechende Einrichtung andocken kann. Des Weiteren wird die Sicherheit bei Operationen zwischen zwei Objekten, insbesondere zwischen zwei schwimmenden Körpern, erhöht. Eine manuelle Kompensation der Relativbewegung im Stand der Technik ist praktisch nicht möglich, so dass derzeit bei derartigen Operationen keine Kompensation stattfindet und immer erhebliche Risiken in Kauf genommen werden müssen und Unfälle nicht ausgeschlossen sind. Des Weiteren ist mit dem vorliegenden System eine schnelle Docking-Operation durchführbar. Es ist mit dem erfindungsgemäßen System nicht notwendig, beispielsweise für Operationen zwischen zwei schwimmenden Körpern, eine Relativbewegung zwischen deren Kontaktstellen über eine Sensorik zu bestimmen, die auf beiden schwimmenden Körpern vorgesehen ist. Es muss somit keine Sensorik auf beiden Körpern oder Objekten installiert sein, die Daten austauschen. Bei dem vorliegenden erfindungsgemäßen System ist es auch nicht notwendig, dass bei dem Objekt, dass keinen Sensor aufweist, Hilfsmittel für den Sensor angebracht werden, wie beispielsweise Reflektoren für Laser, Radar oder Marker für Kameras. Bei dem erfindungsgemäßen System ist somit vorteilhaft, dass die Relativposition zwischen dem Zielbereich und dem Kontaktbereich ermittelbar ist. Es wird somit nicht nur die Bewegung des Körpers bestimmt, auf dem das System installiert ist. Würde nur die Bewegung dieses Körpers bestimmt werden, dann wäre nur eine absolute Positionierung im Raum möglich, was insbesondere bei Operationen zwischen zwei bewegten Objekten problematisch wäre.
  • Bei dem vorliegenden System kann somit eine relative Bewegung zwischen zwei Objekten, beispielsweise zwischen zwei schwimmenden oder auch einem schwimmenden Objekt und einem festen Objekt, ermittelt werden. Die Bestimmung der relativen Bewegung erfolgt dabei nur von einem Objekt aus, womit bei dem anderen Objekt keine Hilfsmittel hierfür notwendig sind. Es müssen somit am anderen Objekt keine Hilfsmittel angebracht werden und es müssen keine Informationen vom anderen Objekt zum ersten Objekt kommuniziert werden.
  • In weiterer Ausgestaltung der Erfindung werden Informationen in Form von Bewegungs- und/oder Positionsinformationen über den Kontaktbereich des Bauteils des Objekts erfasst und/oder festgelegt und/oder der Steuereinheit zu bestimmten Zeitpunkten oder Ereignissen oder kontinuierlich gemeldet. Dies ist vorteilhaft, um die Relativposition zwischen dem Kontaktbereich und dem Zielbereich einfach zu ermitteln.
  • Vorzugsweise kann ein Auswahl-Algorithmus vorgesehen sein. Dieser ist beispielsweise derart ausgebildet, dass aus von dem zumindest einem Sensor erfassten Bereichen ein Zielbereich über die Steuereinheit, insbesondere automatisch, auswählbar ist. Im Anschluss kann dann der Zielbereich verfolgt werden. Nähert sich beispielsweise das Objekt mit dem Kontaktbereich an das weitere Objekt an, so kann das Objekt mit dem Kontaktbereich über den Auswahl-Algorithmus selbständig einen Zielbereich an dem anderen Objekt auswählen und dann im Anschluss die benötigten Informationen erfassen, um die Bewegungskompensation und/oder die Annäherung der Bereiche zu ermöglichen.
  • Bei einer weiteren bevorzugten Ausführungsform der Erfindung kann ein Eingabemittel vorgesehen sein. Dieses ist vorzugsweise derart ausgestaltet, dass damit von dem zumindest einen Sensor erfassten Bereichen ein Zielbereich manuell, insbesondere über einen Bediener, auswählbar ist und vorzugsweise im Anschluss verfolgt werden kann. Somit kann alternativ oder zusätzlich zur automatischen Auswahl auch eine manuelle Auswahl des Zielbereichs vorgesehen sein. Ein derartiges Eingabemittel ist vorteilhaft, beispielsweise, wenn sich ein Bediener des Objekts mit dem Kontaktbereich nicht auf eine reine automatische Zielbereichsauswahl verlassen möchte. Ist beides möglich, also eine automatische oder manuelle Zielauswahl, so kann der Bediener bei Bedarf, beispielsweise in schwierigen Situationen, auf die manuelle Zielbereichsauswahl zurückgreifen.
  • In weiterer Ausgestaltung der Erfindung ist vorzugsweise ein Verfolgungs-Algorithmus vorgesehen. Dieser kann derart ausgestaltet sein, dass über diesen anhand der von dem zumindest einem Sensor erfassten Informationen der, insbesondere der ausgewählte, Zielbereich verfolgt ist. Somit muss ein Bediener nach der Zielbereichsauswahl diesen Zielbereich nicht manuell verfolgen, sondern die Verfolgung erfolgt vorteilhafter Weise automatisch. Es ist denkbar, dass der ausgewählte Zielbereich markiert ist und in einer Anzeige angezeigt werden kann.
  • Mit Vorteil ist ein Positionsbestimmungs-Algorithmus vorgesehen, der derart ausgestaltet sein kann, dass über diesen Bewegungs- und/oder Positionsinformationen des, insbesondere ausgewählten und/oder verfolgten, Zielbereichs ermittelt sind. Somit kann dann einfach die Relativposition und -bewegung zum Kontaktbereich berechnet werden.
  • Vorzugsweise ist des Weiteren ein Kompensations-Algorithmus vorgesehen, der derart ausgestaltet ist, dass die Bereiche, also der Zielbereich und der Kontaktbereich, nach einer ungewollten Relativverschiebung oder -drehung, ausgehend von einer aktuellen Relativposition, wieder in diese Relativposition zurückgeführt werden oder weiter zueinander angenähert werden. Somit kann über den Kompensations-Algorithmus insbesondere die Bewegungskompensation ausgeführt werden. Bei einer Bewegungskompensation würden vorzugsweise der Kontaktbereich und Zielbereich in einer festen Relativ-Position zueinander stehen, obwohl sich das Objekt, insbesondere wellenbedingt, bewegt.
  • Wie vorstehende bereits angeführt, kann vorgesehen sein, dass eine Ermittlung oder Festlegung der Informationen in Form von Bewegungs- und/oder Positionsinformationen des Kontaktbereichs erfolgt. Aus den Informationen über den Zielbereich und aus der Information über den Kontaktbereich kann dann eine Relativbewegung und/oder eine Relativposition ermittelt werden. Die Informationen des Kontaktbereichs können beispielsweise beim Positionsbestimmungs-Algorithmus verwendet sein und gleichzeitig oder nach oder vor der Ermittlung der Informationen für den Zielbereich erfasst werden.
  • In weiterer Ausgestaltung der Erfindung ist vorzugsweise eines der Objekte eine feststehende Struktur und das andere Objekt bewegbar, insbesondere in Form eines Fahrzeugs. Denkbar wäre auch, dass beide Objekte bewegbar sind. Bei dem Fahrzeug handelt es sich vorzugsweise um ein Luftfahrzeug oder um ein wassergebundenes Fahrzeug oder um ein landgebundenes Fahrzeug. Als feststehende Struktur ist beispielsweise eine Offshore-Windturbine oder eine feste Bohrplattform vorgesehen. Als wassergebundenes Fahrzeug kann ein Schiff eine schwimmende Plattform oder eine Boje vorgesehen sein. Das erfindungsgemäße System ist dabei entweder auf der feststehenden Struktur oder auf dem bewegbaren Objekt angeordnet.
  • In weiterer Ausgestaltung der Erfindung ist das Bauteil eine über eine Winde und einen Kranarm bewegbare oder schwebbare Last. Der Kontaktbereich ist vorzugsweise hierbei eine unterseitige Auflagefläche der Last. Der Zielbereich kann eine Ablagefläche für die Last am anderen Objekt sein. Alternativ ist denkbar, dass das Bauteil ein Kranarm oder eine Zugangsbrücke oder -treppe oder eine Gangway eines Wasserfahrzeugs ist. Der Kontaktbereich ist vorzugsweise dann eine Anlagefläche davon, die in Kontakt mit dem anderen Objekt gebracht werden soll oder nahe an das Objekt herangeführt werden soll.
  • Denkbar wäre auch, dass das Bauteil ein Bauteil der Winde ist, wie beispielsweise ein Verbindungselement, wie beispielsweise ein Kranhaken für die Last. Ist die Bewegungskompensation für die Winde vorgesehen, so kann beispielsweise die Hubbewegung des Fahrzeugs, insbesondere des Wasserfahrzeugs, in der Endposition des Seils, wo sich beispielsweise der Kranhaken befindet, kompensiert werden. Das heißt, der Kranhaken würde im Wesentlichen an einer festen Position im Raum stehen, obwohl sich das Fahrzeug wellenbedingt bewegt.
  • Bei einer bewegungskompensierten Schiffsgangway könnte das Ende der Gangway über die Bewegungskompensation des Systems bewegungskompensiert sein. Hierdurch kann das Ende der Schiffsgangway trotz Schiffsbewegung an einer festen Position im Raum positioniert werden, womit ermöglicht ist, dass es zum Zielbereich geführt werden kann, um beispielsweise an einem Windrad anzudocken.
  • Vorzugsweise ist der zumindest eine Aktor oder sind eine Mehrzahl von Aktoren derart ausgestaltet, dass der Kontaktbereich des Bauteils in eine, zwei oder drei translatorische Richtung/en und/oder in eine, zwei oder drei rotatorische Richtung/en bewegbar ist. Somit ist denkbar, dass ein Teil oder alle Bewegungen kompensiert werden können. Je nach Anwendung wird dann eine bestimmte Anzahl oder Ausgestaltung des Aktors oder der Aktoren eingesetzt, um den Kontaktbereich in gewünschte Richtungen zu bewegen. Es hat sich gezeigt, dass beispielsweise bei einer Winde mit der am Seil befindlichen Last gute Ergebnisse erzielbar sind, wenn nur translatorische relative Hubbewegungen in vertikaler Richtung über die Bewegungskompensation des Systems kompensiert werden. Die rotatorischen und die restlichen translatorischen Bewegungen können dann unberücksichtigt bleiben, wobei die entsprechenden Bewegungen zwischen dem Kontaktbereich und dem Zielbereich möglich sind und toleriert werden. Mit anderen Worten kann beispielsweise beim Bauteil in Form der Last diese über den Aktor in Form der Winde in Schwerkraftrichtung bewegbar sein, um eine Bewegungskompensation durchzuführen.
  • In weiterer Ausgestaltung der Erfindung kann das Bauteil des bewegbaren Objekts relativ zu diesem mit dem zumindest einen oder einem weiteren Aktor bewegbar sein. In Abhängigkeit der über den zumindest einen Sensor erfassten Informationen kann das Bauteil derart über diesen zumindest einen Aktor relativ zu seinem Objekt bewegbar sein, dass sich der Kontakt- und Zielbereich einander annähern und/oder dass die Bereiche einen vorbestimmten Abstand oder einen Kontakt beibehalten und/oder dass eine Bewegungskompensation erfolgt.
  • In einer bevorzugten Ausführungsform der Erfindung ist der Sensor oder der Sensor in Kombination mit dem Auswahl-Algorithmus vorzugsweise derart ausgestaltet, dass - wie obenstehend bereits angeführt - beim Zielbereich keine Hilfsmittel notwendig sind, um diesen zu erfassen. Somit sind keine Anpassungen beim Objekt mit dem Zielbereich notwendig. Beispielsweise müssen beim Zielbereich keine Hilfsmittel oder zusätzliche Sensorik verwendet werden, damit der Sensor den Zielbereich erfassen kann. Es sind dann beispielsweise keine Motion Reference Units (MRU) oder festinstallierte Referenzmesspunkte zur Positionsbestimmung erforderlich, wie beispielsweise Reflektoren für Radarsensoren oder Laser. Somit ist es nicht notwendig, Referenzmesspunkte zu vermessen und aufwendig an die Steuereinheit zu melden.
  • Als Sensor kann beispielsweise ein, insbesondere 3D, bildgebender Sensor vorgesehen sein. Alternativ oder zusätzlich kann der Sensor oder ein weiterer Sensor als Kamera ausgestaltet sein. Hier eignet sich beispielsweise eine Monochrom-Kamera oder eine Farb-Kamera oder eine Stereo-Kamera oder eine Infrarot-Kamera oder eine Time-Off-Flight (TOF) Kamera. Alternativ oder zusätzlich kann der Sensor oder ein weiterer Sensor als Light-Detection-And-Ranging (LIDAR) Sensor ausgestaltet sein. Des Weiteren ist denkbar, alternativ oder zusätzlich, als Sensor einen Radarsensor und/oder einen Ultraschallsensor und/oder einen Intertialsensor Sensor, wie beispielsweise eine Motion-Reference-Unit (MRU), vorzusehen. Bevorzugter Weise kann ein Messbereich des Sensors oder der Sensoren über einen oder jeweils einen Verstellaktor verstellbar sein. Der Verstellaktor ist beispielsweise durch die Steuereinheit oder den Bediener steuerbar. Über den Vestellaktor ist der Sensor flexibel zum Zielbereich ausrichtbar. Dies kann beispielsweise automatisch erfolgen und/oder es erfolgt eine Positionierung, insbesondere eine Grobpositionierung, über den Bediener. Denkbar ist auch, dass bei einer Positionsveränderung zwischen dem Zielbereich und dem Kontaktbereich der Sensor dem Zielbereich automatisch durch entsprechende Ansteuerung des Verstellaktors folgt.
  • Der Sensor ist beispielsweise am bewegbaren Bauteil angebracht. Er kann beispielsweise zusammen mit dem Bauteil und/oder unabhängig vom Bauteil über den Verstellaktor bewegt werden. Eine Bewegung des Sensors zusammen mit dem Bauteil hat den Vorteil, dass bei einer Bewegung des Bauteils mit seinem Kontaktbereich hin zum Zielbereich der Sensor beispielsweise ebenfalls näher an den Zielbereich herangeführt werden kann. Bei Verwendung von Sensoren auf dem Objekt ist es notwendig die Bewegung/Position der Kontaktstelle des Bauteils aufwändig mithilfe der kinematischen Daten des Bauteils zu berechnen. Diese Berechnung entfällt oder vereinfacht sich, je näher die Sensorik oder der Sensor an dem Kontaktbereich angebracht ist.
  • Bei einem bevorzugten Ausführungsbeispiel ist am bewegbaren Bauteil, insbesondere in Form eines Auslegers, der Sensor in Form eines LIDAR-Sensors befestigt. Insbesondere ist der Sensor stirnseitig, also beispielsweise an einem Endabschnitt oder einer Spitze des Auslegers, angeordnet und somit beispielsweise nahe am Kontaktbereich oder benachbart zum Kontaktbereich. Außerdem ist der Sensor hierdurch vorteilhafterweise in einer exponierten Position, was zu einem freien Messbereich führt.
  • Alternativ oder zusätzlich kann zumindest ein Sensor oder ein weiterer Sensor und/oder ein Sensorpaar am Objekt mit dem Bauteil und somit vorzugsweise nicht am bewegbaren Bauteil befestigt sein. Als Sensor ist hier beispielsweise eine Kamera, insbesondere eine Pan-Tilt-Zoom (PTZ) Überwachungskamera vorgesehen. Ist ein Sensorpaar angeordnet, so kann neben der Kamera ein damit, insbesondere mechanisch, verbundener LIDAR-Sensor eingesetzt sein. Vorzugsweise ist die Anordnung des Sensors oder der Sensoren am Objekt derart vorgesehen, dass in dieser Position der Zielbereich trotz Bewegung oder Wellenbewegung des Objekts, stets im Messbereich vorgesehen ist. Dies wird insbesondere durch die PTZ Überwachungskamera sichergestellt. Ist der LIDAR-Sensor mechanisch mit der Kamera verbunden, so wird auch dieser entsprechend der Kamera mitbewegt, beispielsweise über einen Verstellaktor, womit nur ein Verstellaktor notwendig ist. Hierdurch ist auch dessen Messbereich den Anforderungen entsprechend erweitert. Der Sensor oder das Sensorpaar sind beispielsweise an einer bewegbaren Plattform angeordnet, über die das Bauteil um eine Hochachse des Fahrzeugs oder der Struktur bewegbar ist. Der Sensor oder das Sensorpaar können dann beispielsweise zusammen mit der Plattform über einen Aktor oder Verstellaktor bewegt werden.
  • Vorzugsweise ist neben dem Sensor oder dem Sensorpaar am Objekt ein weiterer Sensor vorgesehen, der insbesondere zur automatischen Erfassung oder bei der automatischen Auswahl des Zielbereichs vorgesehen ist. Der weitere Sensor ist beispielsweise an der Plattform befestigt oder am Fahrzeug oder der Struktur, also vorzugsweise nicht am Bauteil.
  • Der Sensor oder ein Teil der Sensoren oder alle Sensoren sind vorzugsweise intrinsisch und/oder extrinsisch kalibriert. Bei der intrinsischen Kalibrierung erfolgt beispielsweise eine Kalibrierung eines Sensors in Form einer Kamera zur zugeordneten Optik. Des Weiteren, falls mehrere Sensoren vorgesehen sind, werden diese oder ein Teil von diesen vorzugsweise gegeneinander kalibriert. Durch die Kalibrierungen kann eine Koordinatentransformation zwischen Sensor-Koordinatensystemen ermöglicht sein, damit die Steuereinheit die gewünschten Informationen einfach ermitteln kann. Beim, insbesondere gleichzeitigen, Einsatz mehrerer bildgebender Sensoren, werden die einzelnen Bilder (Kameras)/Punktwolken (Lidar) im Algorithmus an bestimmten Punkten zusammengeführt und/oder fusioniert. Gründe dafür können u.a. gegenseitige Plausibilisierung, Schaffung von Redundanz für Sensorausfall oder temporäre Okklusion oder Erhöhung der Stabilität der Algorithmen sein. Für eine sinnvolle Zusammenführung sollte die Relativposition (3 Translationen, 3 Rotationen) zwischen den Koordinatensystemen der bildgebenen Sensoren bekannt sein. Dies wird durch die extrinsische Kalibrierung gewährleistet.
  • Bei einer bevorzugten Lösung kann ein Eingabemittel oder ein weiteres Eingabemittel für den zumindest einen Aktor und/oder für den zumindest einen Verstellaktor vorgesehen sein. Bei dem Eingabemittel handelt es sich beispielsweise um einen Joystick. Das Eingabemittel kann derart ausgestaltet sein, dass damit über einen Bediener das den Kontaktbereich aufweisende Bauteil und/oder der zumindest eine Sensor bezüglich des Zielbereichs, insbesondere vorab, positionierbar ist. Somit ist auf einfache Weise beispielsweise eine Grobpositionierung durch einen Bediener möglich, bevor eine automatische Bewegungskompensation und/oder Annäherung der Bereiche erfolgt.
  • In weiterer Ausgestaltung der Erfindung ist denkbar, eine Anzeige oder ein Display vorzusehen. Auf diesem können dann beispielsweise mögliche von dem zumindest einen Sensor erfasste Zielbereiche dargestellt sein. Insbesondere kann ein von dem Sensor von einer Kamera erfasstes Bild dargestellt werden. Über ein oder das Eingabemittel kann der Bediener anhand der Anzeige einen Zielbereich auswählen. Des Weiteren ist denkbar, dass über die Anzeige anhand der von dem zumindest einen Sensor erfassten Informationen eine Position oder 3D-Position, des, insbesondere ausgewählten, Zielbereichs dargestellt ist.
  • Erfindungsgemäß ist ein Fahrzeug mit dem System gemäß einem oder mehreren der vorhergehenden Aspekte vorgesehen. Das Fahrzeug kann hierbei als Objekt mit dem Sensor eingesetzt sein.
  • Erfindungsgemäß ist eine feststehende Struktur vorgesehen, an die ein Fahrzeug, insbesondere ein Wasserfahrzeug, andockbar ist. Die Struktur kann dann das System gemäß einem oder mehrerer der vorhergehenden Aspekte aufweisen. Die Struktur kann dann als Objekt mit dem Sensor eingesetzt sein. Denkbar ist dabei, dass die Struktur das bewegbare Bauteil hat.
  • Erfindungsgemäß ist ein Verfahren mit einem System gemäß einem oder mehreren der vorhergehende Aspekte vorgesehen, das folgende Schritte aufweist:
    • Erfassen von Sensorsignalen des zumindest einen Sensors,
    • Auswahl des Zielbereichs anhand der erfassten Sensorsignale,
    • Ermittlung der Informationen in Form von relativen Bewegungs- und/oder Positionsinformationen zwischen dem ausgewählten Zielbereich und dem Kontaktbereich des Bauteils oder des Objekts, insbesondere über den Positionsbestimmungs-Algorithmus,
    • Ansteuerung des zumindest einen Aktors basierend auf den ermittelten Informationen derart, dass sich der Kontaktbereich und der Zielbereich einander annähern und/oder dass die Relativ-Bewegungskompensation oder die Bewegungskompensation, insbesondere über den Kompensations-Algorithmus, erfolgt.
  • Diese Lösung hat den Vorteil, dass auf einfache Weise eine Bewegungskompensation zwischen den Bereichen und/oder auf einfache Weise eine Annäherung der Bereiche ermöglicht ist. Die Kompensation kann beispielsweise durch eine entsprechende Ansteuerung des Kranarms, der Gangway oder der Winde erfolgen, mit deren Hilfe der Kontakt zum anderen Objekt aufgebaut wird. Es sind somit Operationen zwischen beispielsweise zwei schwimmenden oder auch einem schwimmenden und einem festen Körper auf einfache Weise ermöglicht.
  • In weiterer Ausgestaltung des Verfahrens können, beispielsweise nach der Ansteuerung des Aktors zur Initiierung einer relativen Bewegung zwischen den Bereichen, folgende Schritte folgen:
    • Erfassen von Sensorsignalen des zumindest einen Sensors.
    • Verfolgen oder Tracken oder Wiederfinden des gewählten Zielbereichs in den Sensorsignalen, insbesondere anhand des Verfolgungs-Algorithmus, insbesondere über die Steuereinheit. Somit muss vorteilhafter Weise nicht erneut manuell der Zielbereich ausgewählt werden.
    • Ermittlung der Informationen in Form von Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs anhand der Sensorsignale des zumindest einen Sensors, insbesondere über den Positionsbestimmungs-Algorithmus.
    • Ansteuerung des zumindest einen Aktors basierend auf den ermittelten Informationen derart, dass sich der Kontaktbereich und der Zielbereich einander annähern und/oder dass die Bewegungskompensation erfolgt. Diese Schritte können so oft wiederholt werden, bis die Bereiche kontaktiert sind oder in einem vorbestimmten Abstand zueinander angeordnet sind.
  • Bei der Verfolgung oder beim Wiederfinden des ausgewählten Zielbereichs wird mit anderen Worten der Zielbereich mit einem geeigneten Algorithmus, insbesondere mit dem Verfolgungs-Algorithmus, getrackt und die Positionsveränderung fortlaufend verfolgt. Dies kann beispielsweise mit einer oder mehreren der folgenden Methoden ausgeführt werden: Kalman-Filter, Partikelfilter, merkmalbasierte Methoden, regionenbasierte Methoden, konturbasierte Methoden, modellbasierte Methoden.
  • Vorzugsweise werden Informationen oder Lageinformationen kontinuierlich der Steuereinheit zur Regelung des zumindest einen Aktors, insbesondere für das bewegbare Bauteil, zugeführt, um die Bewegungskompensation, insbesondere bei manueller Assistenzfunktion oder automatisierter Kontaktherstellung, zu realisieren.
  • In weiterer Ausgestaltung des Verfahrens können bei der Ermittlung der Informationen in Form der Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs, insbesondere über den Positionsbestimmungs-Algorithmus, die Sensorsignale von einer Mehrzahl von Sensoren eingesetzt sein. Dies ist vorzugsweise insbesondere dann der Fall, wenn die Entfernung zwischen dem Zielbereich und dem Kontaktbereich einen bestimmten Schwellenwert übersteigt und/oder die Sensorsignale eines Sensors zu ungenau sind. Beispielsweise wird zunächst der Sensor oder das Sensorpaar am Objekt und nicht am Bauteil eingesetzt, wobei es sich beispielsweise um die Kamera oder um die Kamera und den LIDAR-Sensor handelt. Unter bestimmten Bedingungen kann dann bei Bedarf zusätzlich der Sensor am Bauteil verwendet werden, bei dem es sich vorzugsweise um den LIDAR-Sensor handelt.
    In weiterer Ausgestaltung der Erfindung kann, falls die ermittelten Informationen des ausgewählten Zielbereichs zu ungenau sind, vorgesehen sein, dass dem Bediener dies, insbesondere in der Anzeige, mitgeteilt wird. Im Anschluss kann ein neuer Zielbereich manuell oder automatisch ausgewählt werden. Es ist denkbar, dass der Bediener die automatische Auswahl initiiert.
  • Vorzugsweise wird der Abstand zwischen dem Kontaktbereich und dem Zielbereich überwacht, beispielsweise kontinuierlich oder beispielsweise nach einer jeweiligen Ansteuerung des zumindest einen Aktors. Ab einem vorbestimmten Abstand oder bei Kontakt der Bereiche kann dann das Verfahren beendet werden. Das heißt beispielsweise, wenn die relative Entfernung der Bereiche einen vorher definierten Schwellwert unterschritten haben, dann kann der Kontakt als hergestellt betrachtet werden. Die Steuerung kann dann beispielsweise an eine allgemeine Bewegungskompensation des Fahrzeugs übergeben werden.
  • Vorzugsweise können der Kontaktbereich und der Zielbereich wahlweise manuell über das Eingabemittel durch einen Bediener angenähert werden oder automatisch über die Steuereinheit angenähert werden. Es ist beispielsweise denkbar, dass in unkritischen und einfachen Situationen der Bediener manuell die Bereiche einander annähert oder in die Annäherung bei Bedarf eingreift.
  • In weiterer Ausgestaltung der Erfindung kann die Auswahl des Zielbereichs am anderen Objekt entweder manuell über den Bediener oder automatisch über die Steuereinheit erfolgen. Bei der manuellen Auswahl kann der Bediener zunächst dafür sorgen, dass der Zielbereich im Sichtbereich der Sensoren vorgesehen ist. Hierfür kann er zumindest den einen Aktor und/oder den zumindest einen Verstellaktor ansteuern, um den zumindest einen Sensor entsprechend auszurichten. Bei der manuellen Auswahl können dem Bediener vorzugsweise die vom Sensor erfassten Sensorsignale, insbesondere bildhaft, dargestellt sein. Dies kann beispielsweise in Form eines Kamerabilds und/oder in Form einer LIDAR-Punktewolke und/oder in Form eines Radarbilds erfolgen. Anhand der dargestellten Informationen kann der Bediener den Zielbereich auswählen, beispielsweise über das Eingabemittel. Wie vorstehend bereits erläutert handelt es sich bei dem Eingabemittel um einen Joystick oder denkbar wäre auch ein berührungsempfindliches Display (Touchscreen). Wie vorstehend erläutert, kann dann nach der Auswahl des Zielbereichs basierend auf den Sensorsignalen eine Ermittlung der Informationen bezüglich des ausgewählten Zielbereichs, insbesondere über den Positionsbestimmungs-Algorithmus, erfolgen. Mit anderen Worten kann eine 3D-Lage des Zielbereichs anhand geeigneter Sensordaten bestimmt werden und vorzugsweise dem Bediener angezeigt werden, insbesondere über die Anzeige. Beispielsweise kann eine sogenannte Sensorfusion zwischen Stereo-Kamera-Daten und der LIDAR-Punktewolke erfolgen.
  • Bei der automatischen Auswahl des Zielbereichs kann der Auswahl-Algorithmus eingesetzt sein. Dieser ist vorzugsweise derart ausgestaltet, dass aus den Sensorsignalen oder Sensordaten der Zielbereich ermittelbar ist. Als Sensor eignet sich vorzugsweise eine Surround-View-Kamerasystem oder Sensoren mit einem großen Öffnungswinkel. Als Auswahl-Algorithmus kann eine oder mehrere der folgenden Methoden eingesetzt sein: Iterative-Closest-Point (ICP), RANSAC, Template-Matching, Segmentierungsmethoden wie Otsus, K-Means-Clustering, Watershed, Grab-Cut-Algorithmus. Im Anschluss an die vollautomatische Auswahl des Zielbereichs kann dann, wie vorstehend bereits erläutert, die Bestimmung der Informationen in Form der Bewegungs- und/oder Positionsinformation des ausgewählten Zielbereichs, insbesondere über den Positionsbestimmungs-Algorithmus, erfolgen, vorzugsweise relativ zum Kontaktbereich. Mit anderen Worten kann die 3D-Lage des Zielbereichs anhand geeigneter Sensordaten bestimmt werden und dem Bediener angezeigt werden.
  • Vorzugsweise können die vom Sensor oder von den Sensoren erfassten Daten auf der Anzeige visuell oder bildhaft dargestellt sein. Der ausgewählte Zielbereich kann hierbei beispielsweise markiert sein. Des Weiteren kann in der Anzeige, wie vorstehend bereits angeführt, die aktuelle Position der 3D-Lage des Zielbereichs dargestellt sein.
  • Zur Positionsbestimmung des Zielbereichs, insbesondere über den Positionsbestimmungs-Algorithmus, werden vorzugsweise die Informationen des Sensors am Objekt, also nicht des am Bauteil befestigten Sensors, verwendet. Der Sensor ist hierbei vorzugsweise in Form der Kamera ausgestaltet. Als Information kann ein Template-Kamerabild eingesetzt werden. Somit kann vorgesehen sein, dass beim Positionsbestimmungs-Algorithmus die Sensorsignale des Sensors in Form der Kamera eingesetzt sind. Mit dem Positionsbestimmungs-Algorithmus der Kamera kann dann, insbesondere zum Zeitpunkt der Auswahl des Zielbereichs, ein Template-Kamerabild für den Zielbereich erzeugt werden. Vorzugsweise kann beim Positionsbestimmungs-Algorithmus zumindest folgender Schritt vorgesehen sein:
    • Suche des Zielbereichs anhand eines Template-Bildes des Zielbereichs im aktuellen Kamerabild. Es kann vorgesehen sein, dass beim Positionsbestimmungs-Algorithmus, beispielsweise wenn die Entfernung zwischen dem Kontaktbereich und dem Zielbereich einen bestimmten Wert überschreitet, die Sensordaten des Sensors am Bauteil, beispielsweise einem LIDAR-Sensor, zusätzlich zur Positionsbestimmung des Zielbereichs eingesetzt werden können. Ist der Zielbereich in den Sensorsignalen, insbesondere im Kamerabild, nicht oder nur mit einer Genauigkeit ermittelbar, die unterhalb einer vorbestimmten Genauigkeitsgrenze liegt, beispielsweise nur einen geringen Kontrast aufweist, kann beim Positionsbestimmungs-Algorithmus vorgesehen sein, dass dies dem Bediener mitgeteilt wird und dieser einen neuen Zielbereich auswählt. Alternativ wäre denkbar, dass automatisch ein neuer Zielbereich ausgewählt wird, insbesondere, ohne dass dies dem Bediener mitgeteilt wird.
  • In weiterer Ausgestaltung der Erfindung kann vorgesehen sein, dass der Verfolgungs-Algorithmus die Sensordaten zweier Sensoren nutzt, womit der Zielbereich vorteilhafter Weise sicher verfolgt werden kann. Als Sensoren eignen sich beispielsweise der Sensor (Kamera) oder das Sensorpaar am Objekt und nicht am Bauteil und der Sensor (LIDAR-Sensor) am Bauteil. Mit dem Verfolgungs-Algorithmus kann vorzugsweise die Position des Zielbereichs in den aktuellen Sensordaten über einen Filter, insbesondere über einen Kalman-Filter, verfolgt werden. Über den Filter kann vorzugsweise basierend auf der aktuellen Position des Zielbereichs die zukünftige Position berechnet oder geschätzt werden, oder es kann über den Filter basierend auf der letzten bekannten Position die aktuelle Position berechnet oder geschätzt werden.
  • Es ist offenbart, dass eine Relativbewegung zwischen zwei Objekten ständig gemessen wird. Die Bewegungsinformation wird zur Kompensation der Bewegung beim Andocken einer Brücke oder eines anderen Elements von dem einen an den anderen Körper genutzt, um eine Zielposition zu treffen und beizubehalten.
  • Kurze Beschreibung der Zeichnungen
  • Bevorzugte Ausführungsbeispiele der Erfindung werden im Folgenden anhand schematischer Zeichnungen näher erläutert. Es zeigen:
    • Fig. 1a bis 1d jeweils zwei Objekte, die jeweils als Fahrzeug oder Struktur ausgebildet sind, gemäß einem jeweiligen Ausführungsbeispiel, wobei jeweils eines der Objekte mit einem erfindungsgemäßen System ausgestattet ist,
    • Fig. 2 in einer schematischen Darstellung ein Wasserfahrzeug mit dem System gemäß einem weiteren Ausführungsbeispiel und ein Wasserfahrzeug mit einem Zielbereich,
    • Fig. 3 in einer schematischen Darstellung ein Wasserfahrzeug mit dem System gemäß einem weiteren Ausführungsbeispiel zusammen mit einem Wasserfahrzeug mit einem Zielbereich,
    • Fig. 4 in einem Ablaufdiagramm ein Verfahren mit dem System gemäß einem ersten Ausführungsbeispiel und
    • Fig. 5 in einem Ablaufdiagramm ein Verfahren mit dem System gemäß einem zweiten Ausführungsbeispiel.
  • Fig. 1a zeigt ein Objekt in Form eines schwimmenden Körpers, bei dem es sich um ein Wasserfahrzeug 1 handelt. Des Weiteren ist als Objekt eine feststehende Struktur 2 dargestellt, bei der es sich beispielsweise um eine Offshore-Windturbine oder feste Bohrplattform handelt. Das Wasserfahrzeug 1 weist ein Bauteil in Form einer Gangway 4 auf. Diese soll dabei an einen Andockbereich 6 der Struktur 2 andocken. Die Gangway 4 ist dabei über einen nicht dargestellten Aktor verschwenkbar, so dass ein freistehender stirnseitiger Endabschnitt 8 höhenverstellbar ist. Des Weiteren ist die Gangway 4 über einen Aktor um eine Hochachse des Wasserfahrzeugs 1 drehbar. Ein erfindungsgemäßes System zur Bewegungskompensation und zur Annäherung des Endabschnitts 8 an den Andockbereich 6 ist beim Wasserfahrzeug 1 vorgesehen.
  • Gemäß Fig. 1b ist ebenfalls ein Objekt in Form eines Wasserfahrzeugs 10 gezeigt. Des Weiteren ist ein Objekt in Form einer feststehenden Struktur 12 dargestellt. Im Unterschied zur Fig. 1a weist nicht das Wasserfahrzeug 10, sondern die Struktur 12 die bewegbare Gangway 4 auf. Das Wasserfahrzeug 10 weist dabei den Andockbereich 6 auf. Das erfindungsgemäße System zur Bewegungskompensation und zur Annäherung der Gangway 4 an den Andockbereich 6 ist dabei bei der Struktur 12 vorgesehen.
  • Gemäß Fig. 1c ist ein erstes Objekt in Form eines Wasserfahrzeugs 14 und ein zweites Objekt in Form eines Wasserfahrzeugs 16 dargestellt. Das Wasserfahrzeug 14 weist einen Kranarm 18 auf, der drehbar ist, damit sein freies Ende höhenverstellbar ist, und der vorzugsweise um eine Hochachse des Wasserfahrzeugs 14 bewegbar ist. Der Kranarm 14 wirkt mit einer (nicht dargestellten) Winde für ein Seil 20 zusammen, an dessen Ende eine Last 22 über einen Kranhaken befestigt ist. Die Last 22 soll dabei auf das Wasserfahrzeug 16 abgeladen werden. Hierzu hat das Wasserfahrzeug 14 das System zur Bewegungskompensation und zur Annäherung der Last 22 an das Wasserfahrzeug 16. Zumindest ein (nicht dargestellter) Sensor kann hierbei beispielsweise am freien Endabschnitt, also am vom Wasserfahrzeug 14 entfernten Endabschnitt, des Kranarms 18 vorgesehen sein. Dieser kann einen Zielbereich am Wasserfahrzeug 16 erfassen. Ein Kontaktbereich ist beispielsweise bei der Last 22 vorgesehen.
  • Fig. 1d zeigt neben dem Wasserfahrzeug 10 mit dem Andockbereich 6 das Wasserfahrzeug 1 mit der Gangway 4. Das Wasserfahrzeug 1 weist hierbei das System zur Bewegungskombination und zur Annäherung der Gangway 4 an den Andockbereich 6 auf.
  • Gemäß den Figuren 1a bis 1d ist ersichtlich, dass das System zur Bewegungskompensation bei Operationen zwischen einem Wasserfahrzeug und einer feststehenden Struktur oder bei Operationen zwischen zwei Wasserfahrzeugen einsetzbar ist. Vorteilhafterweise ist jeweils nur notwendig, dass jeweils eines der Objekte aus einer jeweiligen Figur 1a bis 1b das System aufweist, während beim entsprechend anderen Objekt keinerlei Anpassungen für das System vorgenommen werden müssen. Das System wird also nur auf einem der Objekte installiert und ermöglicht diesem dann die mechanische Kontaktaufnahme zu einer Vielzahl anderer schwimmender oder feststehender Körper. Um Schäden bei oder während der Kontaktherstellung zu vermeiden und um den Kontakt schadenfrei über einen längeren Zeitraum aufrechterhalten zu können. Es können mit dem System beispielsweise durch Wind und Wellen hervorgerufene Bewegungen der Wasserfahrzeuge 1, 10, 14, 16 berücksichtigt werden und bei der Kontaktherstellung des Kontaktbereichs mit dem Zielbereich durch das System kompensiert werden. Dies erfolgt beispielsweise durch Verstellung der Position der Gangway 4 oder des Kranarms 18 oder der Seillänge des Seils 20.
  • Mit dem System aus der jeweiligen Fig. 1a bis 1d wird eine Relativbewegung zwischen den zwei Objekten, insbesondere zwischen dem Kontaktbereich und dem Zielbereich, ständig gemessen. Die Bewegungsinformation wird dann zur Kompensation der Bewegung beim Andocken der Gangway 4 oder Brücke oder eines anderen Elements von dem Einen an das andere Objekt genutzt, um eine Zielposition zu treffen und beizubehalten.
  • Für das System kann ein voll-automatisches und/oder ein halb-automatisches Verfahren vorgesehen sein. In Fig. 2 ist dabei eine Anordnung für das halb-automatische Verfahren dargestellt und in Fig. 3 ist eine Anordnung für das voll-automatische Verfahren gezeigt.
  • In Fig. 2 ist das Wasserfahrzeug 1 mit der Gangway 4 oder Brücke dargestellt. Des Weiteren ist ein Objekt in Form eines Wasserfahrzeugs 24 gezeigt, das einen Andockbereich 6 hat. Stirnseitig der Gangway 4, also an deren freien Ende, ist ein Sensor 26 in Form eines LIDAR-Sensors angeordnet und befestigt. Des Weiteren ist ein Sensorpaar 28 vorgesehen, das nicht an der Gangway 4, sondern direkt am Wasserfahrzeug 1 befestigt ist. Beispielsweise ist das Sensorpaar 28 an einer um eine Hochachse des Wasserfahrzeugs 1 drehbarer Plattform angeordnet, an der die Gangway 4 bewegbar gelagert ist. Das Sensorpaar 28 weist eine Kamera, insbesondere in Form einer Pan-Tilt-Zoom (PTZ) Kamera, und einen LIDAR-Sensor auf. Die Gangway hat endseitig einen Kontaktbereich 30, der zum Andocken an das Wasserfahrzeug 24 in Kontakt mit einem Zielbereich 32 gebracht werden soll. Eine Anordnung des Sensorpaars 28 am Wasserfahrzeug 1 erfolgt dabei vorzugsweise derart, dass bis zu einer bestimmten Wellenbewegung oder bei jeglicher Wellenbewegung der Zielbereich 32 erfassbar bleibt. Dies wird durch die PTZ-Kamera sichergestellt. Denkbar wäre auch die Wellenbewegung oder sonstige Bewegungen mit einer Bewegungskompensation für das Sensorpaar 28 zumindest teilweise auszugleichen. Das Sensorpaars 28 ist mechanisch fest verbunden und kann beispielsweise über einen Verstellaktor gemeinsam bewegt werden. Durch die mechanische Verbindung ist beispielsweise der LIDAR-Sensor mit der Kamera verbunden und sein Sichtfeld ist hierdurch entsprechend den Anforderungen erweitert.
  • Die Sensoren 26, 28 sind intrinsisch, extrinsisch und gegeneinander kalibriert. Hierdurch kann eine Koordinatentransformation zwischen den Sensor-Koordinatensystemen ermöglicht werden, wobei KB1 das Koordinaten-System des ersten Sensors des Sensorpaars 28 ist, KB2 das Koordinaten-System des zweiten Sensors des Sensorpaars 28 ist und KA das Koordinaten-System des Sensors 26 ist. Die Koordinatentransformation kann mit folgenden üblichen Formeln erfolgen: T K B 1 K A , T K B 2 K A und T K B 1 K B 2
    Figure imgb0001
    wobei T eine Transformationsmatrix ist. Bei der üblichen Verwendung homogener Koordinaten ist die Transformationsmatrix T eine 4x4 Matrix mit einer Subrotationsmatrix R, die die Rotation zwischen den Koordinatensystemen beschreibt, und der Subtranslationsmatrix t, die die Translation zwischen den Koordinatensystemen beschreibt.
    Mit Hilfe der Transformationssmatrix T K B 1 K B 2
    Figure imgb0002
    kann beispielsweise die Darstellung eines Vektors bezüglich des Koordinatensystems KB1 in eine Darstellung bezüglich des Koordinatenystems KB2 überführt werden: x K B 1 = T K B 1 K B 2 x K B 2
    Figure imgb0003
    x K Bi = x y z 1
    Figure imgb0004
    T K B 1 K B 2 = R t 0 T 1
    Figure imgb0005
    R = r 11 r 12 r 13 r 21 r 22 r 23 r 31 r 32 r 33
    Figure imgb0006
    t = t x t y t z
    Figure imgb0007
    0 T = 0 0 0
    Figure imgb0008
  • Mit Aktoren 34, die in Fig. 2 schematisch mit einem Block dargestellt sind, kann die Gangway 4 gedreht werden, so dass die Höhe des Kontaktbereichs 30 veränderbar ist und um eine Hochachse 36 des Wasserfahrzeugs 1 drehbar ist. Die Aktoren 34 sind über eine Steuereinheit 37 steuerbar.
  • Anhand der Fig. 4 wird das Verfahren für das System aus Fig. 2 erläutert, um die Bereiche 30 und 32 bis zum Kontakt einander anzunähern und eine Bewegungskompensation einer Relativbewegung dieser Bereiche 30, 32 durchzuführen. Im Schritt 36 sorgt ein Bediener dafür, dass der Zielbereich 32 aus Fig. 2 sich im Sichtbereich der Sensoren 26 und 28 befindet. Dies kann dadurch erfolgen, dass über die Aktoren 34 das Sensorpaar 26 zusammen mit der Gangway 4 bewegt wird, beispielsweise über die Plattform, und/oder das Wasserfahrzeug 1 durch seinen Antrieb bewegt wird und/oder dass für das Sensorpaar 28 und/oder für den Sensor 26 ein Verstellaktor oder jeweils ein Verstellaktor vorgesehen ist, über den/die diese/r bewegbar ist/sind. Eine manuelle Eingabe der Positionsänderung für die Sensoren 26, 28 erfolgt beispielsweise mit Hilfe eines Joysticks und/oder einer Tastaturkonsole und/oder eines Touchscreens.
  • Im Schritt 38 werden die Sensorsignale oder Sensordaten der Sensoren 26, 28 erfasst. Die Sensordaten der PTZ-Kamera des Sensorpaars 28 werden als Kamerabild I B ermittelt. Die Sensordaten des LIDAR-Sensors des Sensorpaars 28 werden mit einer LIDAR-Daten-Signatur D B erfasst. Des Weiteren werden die Sensordaten des LIDAR-Sensors (Sensor 26) mit einer LIDAR-Daten-Signatur D A erfasst.
  • Im Schritt 40 erfolgt die Visualisierung am Bildschirm. Hierbei werden dem Bediener die Sensorsignale der Szene bildhaft dargestellt. Dazu wird das Bild der PTZ-Kamera des Sensorpaars 28 mit den LIDAR-Punktewolken der LIDAR-Sensoren (Sensorpaar 28 und 26) überlagert auf einem Display oder Monitor dargestellt.
  • Im Schritt 42 wählt dann der Bediener anhand der auf dem Monitor dargestellten Sensorsignale I B , D B und D A einen Zielbereich aus, wobei es sich beispielsweise bei dem Monitor um einen Touchscreen handelt. Nach der Auswahl des Zielbereichs werden dann in diesem Schritt 42 zu dem Zielbereich ein Template-Kamerabild I 0 B
    Figure imgb0009
    der PTZ-Kamera (Sensorpaar 28) und LIDAR-Daten-Signaturen D 0 B
    Figure imgb0010
    und D 0 A
    Figure imgb0011
    der LIDAR-Sensoren (Sensorpaar 28 und Sensor 26) erzeugt, die den Zielbereich charakterisieren. Der ausgewählte Zielbereich wird dann im Monitor mit einer Markierung, beispielsweise einer Bounding-Box, markiert.
  • Im nächsten Schritt 44 erfolgt, dann mit dem Positionsbestimmungs-Algorithmus die Bestimmung der Informationen in Form von Bewegungs- und Positionsinformationen des Zielbereichs 32 relativ zum Kontaktbereich 30. Mit anderen Worten wird eine 3D-Lage des Zielbereichs anhand der Sensorsignale oder Sensordaten der Sensoren 26 und 28 bestimmt und dem Bediener angezeigt. Zunächst erfolgt die Bestimmung der 3D-Lage anhand der PTZ-Kamera des Sensorpaars 28. Es erfolgt ein sogenanntes Template-Matching, das eine laterale Position des Zielbereichs im erfassten Bild I B detektiert, wobei folgende Formel verwendet wird: R = uʹvʹ I 0 B I B u + , v + uʹvʹ I 0 B 2 uʹvʹ I B u + , v + 2
    Figure imgb0012
  • Das Template-Bild ist in der Regel kleiner als das aktuelle Kamerabild. Beim Template-Matching wird als Moving-Window an jeder möglichen Position über das Kamerabild gelegt und die Korrelation berechnet. u' und ν' sind hierbei die beiden Pixelkoordinaten der erfassten Bilder. u und ν bezeichnen die a priori unbekannten (lateralen) Verschiebungen in den beiden Pixelkoordinaten zwischen Bildausschnitt und Template-Bild. Ziel ist es nun, Werte für u und v zu bestimmen, so dass sich eine möglichst große Übereinstimmung zwischen Bildausschnitt und Template-Bild ergibt. Der Grad der Übereinstimmung wird mathematisch durch die Korrelation ausgedrückt, die durch geeignete Wahl von u und v zu maximieren ist. Die Werte von u und v, die die Korrelation maximieren werden u0 und v0 genannt. Sie geben an, wo sich das Template-Bild bzw. der Zielbereich im Kamerabild befinden oder anders ausgedrückt, sie beschreiben die Position r 0 des Zielbereichs im Kamerabild. Die Position r 0 ergibt sich also wie folgt: r 0 = u 0 v 0 = arg max R
    Figure imgb0013
    u0 und v0 sind also die Werte für u und v in obiger Formel für R, für die die Korrelation R maximal wird.
  • Aus einer Koordinatentransformation kann dann die zum Zielbereich zugeordnete Bildpunktmenge
    Figure imgb0014
    : K = u 1 B 1 v 1 B 1 , u 2 B 2 v 2 B 1 ,
    Figure imgb0015
    in 3D ausgedrückt werden: u B 1 v B 1 K T K B 1 K B 2 u B 2 v B 2 K extr . Kalibration x y z K
    Figure imgb0016
    Anschließend kann die 3D-Lage des Zielbereichs mit Hilfe des Random Sample Consensus (RANSAC) oder durch ein Iterative-Closest-Point (ICP) Algorithmus bestimmt werden. Falls eine relative Entfernung zwischen dem Kontaktbereich 30 und dem Zielbereich 32 über einem bestimmten Schwellenwert liegt, werden vorzugsweise die Daten D A des Sensors 26 zur genaueren Lagebestimmung zusätzlich verwendet. Falls der ausgewählte Zielbereich in den erfassten Sensorsignalen nur einen geringen Kontrast aufweist, so dass die Genauigkeit der Positionsbestimmung nur ungenau erfolgen kann, dann wird dem Bediener die unzuverlässige Messung signalisiert, und er kann eine neue Stelle markieren, was durch den Pfeil 46 in Fig. 4 gezeigt ist, womit im Anschluss wieder der Schritt 44 ausgeführt wird.
  • Nach dem Schritt 44, d. h., wenn die Bewegungs- und Positionsinformationen des ausgewählten Zielbereichs über den Positionsbestimmungs-Algorithmus mit einer ausreichenden Genauigkeit ermittelt worden sind, folgt Schritt 48. Hierbei werden die Bewegungs- und/oder Positionsinformationen fortwährend der Steuereinheit 37 zugeführt, die entsprechend die Aktoren 34 ansteuert. Diese werden dabei derart angesteuert, dass der Kontaktbereich 30 in Richtung des Zielbereichs 32 bewegt wird. Hierbei wird eine vorher definierte Strecke zurückgelegt und im Anschluss eine erneute Aufnahme der Sensorsignale der Sensoren 26 und 28 getriggert, was durch den Schritt 50 gezeigt ist. In Schritt 50 ist somit vorgesehen, dass die Sensoren 26 und 28 die Sensorsignale I B , D B und D A aufnehmen.
  • Im anschließenden Schritt 52 erfolgt ein Verfolgen oder Wiederfinden des ausgewählten Zielbereichs 32 in den Sensorsignalen I B , D B und D A anhand eines Verfolgungs-Algorithmus über die Steuereinheit 37. Dies erfolgt vorzugsweise mit einem Recursive-Least-Square (RLS) Algorithmus. Dieser ist ein Satz von mathematischen Gleichungen, der eine rechnerisch effiziente, insbesondere rekursive, Abschätzung des Zustands eines Prozesses darstellen. Hierbei wird der mittlere quadratische Fehler minimiert. Die aktuelle gemessene Position rt zum Zeitpunkt t dient als Eingangswert zur Schätzung der zukünftigen Position r t+1 verwendet. Bei der Position rt handelt es sich um die zuletzt bestimmte Positionsinformation des Zielbereichs, die initial in Schritt 44 ermittelt wurde und im folgenden Schritt 54 erneut ermittelt wird, was untenstehend näher erläutert wird. Die Schätzung des zukünftigen Wertes r t+1 basiert auf einem Recursive-Least-Square (RLS) Algorithmus. Dies ist beispielsweise in dem Buch: "Recursive Least Squares; Statistical Digital Processing and Modelling; von Monson H. Hayes, ISBN 0-471-59431-8 offenbart. Ein derartig umgesetzter Verfolgungs-Algorithmus weist eine äußerst schnelle Konvergenz auf. Denkbar wäre auch für den Verfolgungs-Algorithmus einen Least-Mean-Square (LMS) Algorithmus einzusetzen, der einfachere mathematische Operationen und einen geringeren Rechenressourcenbedarf aufweist. Zur Schätzung des Werts r t+1 wird vorzugesweise ein lineares Modell verwendet: r t + 1 = r t T θ t
    Figure imgb0017
    Hierbei ist ein Messdaten-Vektor r t T
    Figure imgb0018
    aus N Messungen bis zum Zeitpunkt t gebildet und Θ t sind Koeffizienten. Zunächst wird dann der sogenannte Kalman-Verstärkungsvektor berechnet: K t = P t 1 r t 1 λ + r t 1 T P t 1 r t 1
    Figure imgb0019
    Hierbei ist λ(0 ≤ λ < 1) der sogenannte Forgetting Factor. Pt ist die inverse Korrelationsmatrix der Messdaten. Ein A-priori-fehler zwischen dem aktuellen Messwert rt und dem geschätzten Wert wird anschließend mit folgender Formel berechnet: ϵ t = r t r t 1 T θ t 1
    Figure imgb0020
    Die Koeffizienten Θ t werden anhand der folgenden Gleichung ermittelt: θ t = θ t 1 + K t ϵ t
    Figure imgb0021
    Des Weiteren wird eine inverse Korrelationsmatrix Pt anhand folgender Formel ermittelt: P t = P t 1 K t r t 1 T P t 1 λ
    Figure imgb0022
    Anschließend erfolgt die Schätzung der Positionsinformation des Zielbereichs zum Zeitpunkt t + 1 anhand der oben genannten Gleichung: r t + 1 = r t T θ t
    Figure imgb0023
    Es muss somit keine erneute Auswahl des Zielbereichs erfolgen, sondern der Zielbereich wurde anhand der Sensorsignale und dem Verfolgungs-Algorithmus getrackt. Alternativ kann anstatt des Recurcsive Least Squares Ansatzes beispielsweise ein Kaiman-Filter verwendet werden.
  • Nachdem in Schritt 52 der Zielbereich verfolgt bzw. in den Sensorsignalen wiedergefunden wurde, werden im Folgeschritt 54 die Informationen in Form von Bewegungs- und Positionsinformationen des verfolgten Zielbereichs anhand der Sensorsignale I B , D B und D A anhand der Sensoren 26 und 28 ermittelt. Die Vorgehensweise entspricht dabei derjenigen in Schritt 44.
  • Wenn dann im Schritt 54 beispielsweise die Positionsinformationen des Zielbereichs ermittelt wird, kann festgestellt werden, wie groß der Abstand zwischen dem Kontaktbereich 30 und dem Zielbereich 32 ist. Hat der Kontaktbereich 30 den Zielbereich 32 noch nicht erreicht, dann wird das Verfahren ab Schritt 48 erneut durchgeführt, was durch den Pfeil 56 gezeigt ist. Ist die Kontaktstelle erreicht, dann folgt nach dem Schritt 54 der Schritt 58. Das heißt, wenn eine relative Entfernung zwischen dem Kontaktbereich 30 und dem Zielbereich 32 einen vorher definierten Schwellenwert unterschritten hat, dann wird der Kontakt zwischen diesen Bereichen als hergestellt betrachtet. Die Steuerung wird dann an die allgemeine Bewegungskompensation des Objekts, in diesem Fall des Wasserfahrzeugs 1, übergeben.
  • Wie vorstehend bereits angeführt, ist mit dem erfindungsgemäßen System auch ein voll-automatisches Verfahren zur Bewegungskompensation und zur Zusammenführung zweier Bereiche möglich, was im Folgenden näher erläutert ist. Gemäß Fig. 3 ist im Unterschied zur Fig. 2 beim Wasserfahrzeug 1 ein weiterer Sensor 60 vorgesehen. Hierbei handelt es sich um einen scannenden Sensor mit einem vergleichsweise großen Öffnungswinkel. Beispielsweise kann ein LIDAR-Sensor eingesetzt sein. Mit dem Sensor 60 kann dann großflächig eine Umgebung gescannt werden, wobei dies vorzugsweise in einer vergleichsweise hohen Auflösung erfolgt. Eine Aufnahmegeschwindigkeit spielt dann eine untergeordnete Rolle. Die Sensoren 26 und 60 und das Sensorpaar 28 sind dabei intrinsisch, extrinsisch und gegeneinander kalibriert, womit eine Koordinatentransformation zwischen den einzelnen Sensor-Koordinatensystemen ermöglicht ist, wobei KC das Koordinaten-System des Sensors 60 ist. Die Koordinatentransformation kann mit folgenden üblichen Formeln erfolgen: T K C K B 1 , T K C K B 2 , T K C K A , T K B 1 K A , T K B 2 K A und T K B 1 K B 2
    Figure imgb0024
  • Im Folgenden wird das voll-automatische Verfahren mit dem System aus Fig. 3 anhand der Fig. 5 näher erläutert. Gemäß einem Schritt 62 ist in der Fig. 5 vorgesehen, dass der Sensor 60 Sensorsignale aufnimmt. Dies erfolgt in Form der Daten D C . Im folgenden Schritt 64 erfolgt die Identifizierung eines potentiellen Zielbereichs. Dies wird anhand einer Korrelation der Messdaten D C mit einer zuvor vorbestimmten Template-Datenbank mit möglichen Szenen durchgeführt: D = D 1 C , D 2 C , D 3 C ,
    Figure imgb0025
    Im folgenden Schritt 66 erfolgt dann die Ausrichtung des Sensors 26 und des Sensorpaars 28 hin zum Zielbereich 32.
  • Der gemäß Fig. 5 folgende Schritt 68 entspricht dem Schritt 38 aus Fig. 4, wobei Sensorsignale erfasst werden. Der folgende Schritt 70 entspricht dem Schritt 44 aus Fig. 4. Das heißt, es werden die Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs ermittelt. Ist dies nicht möglich, so wird das Verfahren ausgehend von Schritt 62 wiederholt, was durch den Pfeil 72 gekennzeichnet ist. Sind die gewünschten Informationen bestimmt, so folgen nach dem Schritt 70 die Schritte 74, 76, 78, 80 und 82, die den Schritten 48, 50, 52, 54 und 58 aus Fig. 4 entsprechen.
  • Somit kann festgestellt werden, dass bei dem voll-automatischen Verfahren der Zielbereich 32, also die Andockstelle, selbst durch das Verfahren identifiziert wird, beispielsweise mit einer Objekterkennung. Dagegen wird der Zielbereich beim halb-automatischen Verfahren vom Bediener anhand der Sensordaten vorgegeben.
  • Bezugszeichenliste
    • 1; 10; 14; 16; 24 Wasserfahrzeug
    • 2; 12 Struktur
    • 4 Gangway
    • 6 Andockbereich
    • 8 Endabschnitt
    • 18 Kranarm
    • 20 Seil
    • 22 Last
    • 26, 28; 60 Sensor
    • 30 Kontaktbereich
    • 32 Zielbereich
    • 34 Aktoren
    • 36, 38, 40, 42, 44, 48, 50, 52, 54, 58, 62, 64, 66, 68, 70, 74 - 82 Schritt
    • 37 Steuereinheit
    • 46, 56, 72 Pfeil

Claims (15)

  1. System, um einen Kontaktbereich eines Objekts (1) des Systems an einen Zielbereich (32) eines anderen Objekts (24) anzunähern, damit sich die Bereiche (30, 32) anschließend kontaktieren oder damit die Bereiche (30, 32) in einer Relativposition zueinander positioniert sind, wobei zumindest eines der Objekte (1, 10, 16, 14, 24) bewegbar ist, und wobei das System zumindest einen Sensor (26, 28, 60) hat, der bei dem Objekt (1) des Systems anordenbar ist, wobei dieses Objekt (1) ein Bauteil (4) mit dem Kontaktbereich (30) aufweist, wobei eine Steuereinheit (37) vorgesehen ist, die derart ausgebildet ist, dass damit Informationen in Form von Bewegungs- und/oder Positionsinformationen über den Zielbereich (32) des anderen Objekts (24) relativ zum Kontaktbereich (30) anhand von Sensorsignalen des zumindest einen Sensors (26, 28, 60) ermittelbar sind, wobei zumindest ein Aktor (34) vorgesehen ist und der Bauteil (4) und/oder das Objekt (1) mit dem Bauteil (4) über den Aktor (34) bewegbar ist/sind, um eine Bewegungskompensation zwischen den Bereichen (30, 32) vorzusehen und/oder um die Relativposition der Bereiche (30, 32) zueinander zu ändern, und wobei der Aktor (34) basierend auf den über die Steuereinheit (37) verarbeiteten Informationen derart ansteuerbar ist, dass sich die Bereiche (30, 32) einander annähern und sich anschließend kontaktieren oder anschließend die vorbestimmte Relativposition beibehalten und/oder dass die Bewegungskompensation erfolgt.
  2. System nach Anspruch 1, wobei ein Auswahl-Algorithmus vorgesehen ist, der derart ausgestaltet ist, das aus den von dem zumindest einem Sensor (26, 28, 60) erfassten Sensorsignalen ein Zielbereich (32) automatisch ausgewählt ist, und/oder wobei ein Verfolgungs-Algorithmus vorgesehen ist, der derart ausgestaltet ist, dass über diesen anhand der von dem zumindest einen Sensor (26, 28, 60) erfassten Sensorsignale der Zielbereich (32) verfolgt ist, und/oder wobei ein Positionsbestimmungs-Algorithmus vorgesehen ist, der derart ausgestaltet ist, dass über diesen Bewegungs- und/oder Positionsinformationen des Zielbereichs basierend auf den Sensorsignalen der Sensoren (26, 28, 60) ermittelt sind, und/oder wobei ein Kompensations-Algorithmus vorgesehen ist, der derart ausgestaltet ist, dass der Kontaktbereich (30) und/oder der Zielbereich (32) nach einer ungewollten Relativverschiebung ausgehend von einer aktuellen Relativposition wieder in diese Relativposition zurückgeführt werden.
  3. System nach Anspruch 1 oder 2, wobei eines der Objekte eine feststehende Struktur (2, 12) und das andere Objekt (1, 10, 14, 16, 24) bewegbar ist oder wobei beide Objekte (10, 10, 14, 16, 24) bewegbar sind.
  4. System nach einem der Ansprüche 1 bis 3, wobei das Bauteil eine über eine Winde (20) bewegbare Last (22) ist und der Kontaktbereich eine unterseitige Auflagefläche der Last (22) oder wobei das Bauteil ein Kranarm oder eine Zugangsbrücke (4) ist.
  5. System nach einem der vorhergehenden Ansprüche, wobei der Sensor (26) am Bauteil (4) befestigt ist.
  6. System nach einem der vorhergehenden Ansprüche, wobei der Sensor (26) als Light-Detection-and-Ranging (LIDAR) Sensor ausgebildet ist.
  7. System nach einem der vorhergehenden Ansprüche, wobei der Sensor (28) oder ein weiterer Sensor (28) oder ein Sensorpaar (28) am Objekt (1) und nicht am bewegbaren Bauteil (4) befestigt ist.
  8. System nach Anspruch 7, wobei der Sensor (28) oder der weitere Sensor (28) eine Kamera ist oder wobei das Sensorpaar (28) eine Kamera und einen Light-Detection-and-Ranging (LIDAR) Sensor aufweist.
  9. System nach Anspruch 7 oder 8, wobei neben dem Sensor (28) oder dem Sensorpaar (28) am Objekt (1) ein weiterer Sensor (60) zur automatischen Erfassung des Zielbereichs (32) vorgesehen ist.
  10. Fahrzeug mit dem System gemäß einem der vorhergehenden Ansprüche, wobei dieses als Objekt mit dem Sensor (26, 28, 60) eingesetzt ist.
  11. Feststehende Struktur, an die ein Fahrzeug andockbar ist, wobei die Struktur (2, 12) das System gemäß einem Ansprüche 1 bis 9 aufweist, und wobei die Struktur (2, 12) als Objekt mit dem Sensor (26, 28, 60) eingesetzt ist.
  12. Verfahren mit einem System gemäß einem der Ansprüche 1 bis 9 mit den Schritten:
    - Erfassen von Sensorsignalen des zumindest einen Sensors (26, 28, 60),
    - Auswahl des Zielbereichs (32) anhand der Sensorsignale,
    - Ermittlung der Informationen in Form von Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs,
    - Ansteuerung des zumindest einen Aktors (34) basierend auf den ermittelten Informationen derart, dass sich der Kontaktbereich (30) und der Zielbereich (32) einander annähern und/oder dass die Bewegungskompensation erfolgt.
  13. Verfahren nach Anspruch 12, wobei nach der Ansteuerung des zumindest einen Aktors (34) und der Bewegung des Kontaktbereichs (30) folgende Schritte folgen:
    - Erfassen von Sensorsignalen des zumindest einen Sensors (26, 28, 60),
    - Verfolgen des ausgewählten Zielbereichs (32) in den Sensorsignalen,
    - Ermittlung der Informationen in Form von Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs (32) anhand der Sensorsignale des zumindest einen Sensors (26, 28, 60),
    - Ansteuern des zumindest einen Aktors (34) basierend auf den ermittelten Informationen derart, dass sich der Kontaktbereich (30) und der Zielbereich (32) einander annähern und/oder dass die Bewegungskompensation erfolgt.
  14. Verfahren nach Anspruch 12 oder 13, wobei bei der Ermittlung der Informationen in Form von Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs (32), falls die Entfernung zwischen diesen Bereichen einen bestimmten Schwellenwert übersteigt, die Sensorsignale von einer Mehrzahl von Sensoren (26, 28, 60) verwendet werden.
  15. Verfahren nach einem der Ansprüche 12 bis 14, wobei die Auswahl des Zielbereichs (32) manuell über einen Bediener oder automatisch über die Steuereinheit (37) erfolgt.
EP20167485.0A 2019-04-11 2020-04-01 System zur bewegungskompensation zwischen zwei objekten, fahrzeug mit dem system, feststehende struktur mit dem system und verfahren mit dem system Withdrawn EP3722197A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019205186.3A DE102019205186A1 (de) 2019-04-11 2019-04-11 System zur Bewegungskompensation zwischen zwei Objekten, Fahrzeug mit dem System, feststehende Struktur mit dem System und Verfahren mit dem System

Publications (1)

Publication Number Publication Date
EP3722197A1 true EP3722197A1 (de) 2020-10-14

Family

ID=70154254

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20167485.0A Withdrawn EP3722197A1 (de) 2019-04-11 2020-04-01 System zur bewegungskompensation zwischen zwei objekten, fahrzeug mit dem system, feststehende struktur mit dem system und verfahren mit dem system

Country Status (2)

Country Link
EP (1) EP3722197A1 (de)
DE (1) DE102019205186A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113104153A (zh) * 2021-04-25 2021-07-13 大连海事大学 一种海上换乘栈桥波浪补偿控制系统及其工作方法
CN113232768A (zh) * 2021-04-25 2021-08-10 大连海事大学 一种具有波浪补偿功能的海上换乘栈桥及其工作方法
EP3988439A1 (de) * 2020-10-22 2022-04-27 Robert Bosch GmbH System mit einer bewegungskompensationseinrichtung und verfahren

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009141675A1 (en) * 2008-05-22 2009-11-26 Fmc Technologies Sa Control device for fluid transfer system on sea
WO2015044898A1 (en) * 2013-09-27 2015-04-02 Rolls-Royce Canada, Ltd. Two body motion compensation system for marine applications
DE102014220597A1 (de) * 2014-10-10 2016-04-14 Robert Bosch Gmbh Wellengangkompensationssystem
US20180244505A1 (en) * 2017-02-28 2018-08-30 J. Ray Mcdermott S.A. Offshore ship-to-ship lifting with target tracking assistance

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009141675A1 (en) * 2008-05-22 2009-11-26 Fmc Technologies Sa Control device for fluid transfer system on sea
WO2015044898A1 (en) * 2013-09-27 2015-04-02 Rolls-Royce Canada, Ltd. Two body motion compensation system for marine applications
DE102014220597A1 (de) * 2014-10-10 2016-04-14 Robert Bosch Gmbh Wellengangkompensationssystem
US20180244505A1 (en) * 2017-02-28 2018-08-30 J. Ray Mcdermott S.A. Offshore ship-to-ship lifting with target tracking assistance

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MONSON H. HAYES: "Statistical Digital Processing and Modelling", article "Recursive Least Squares"

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3988439A1 (de) * 2020-10-22 2022-04-27 Robert Bosch GmbH System mit einer bewegungskompensationseinrichtung und verfahren
DE102020213322A1 (de) 2020-10-22 2022-04-28 Robert Bosch Gesellschaft mit beschränkter Haftung System mit einer Bewegungskompensationseinrichtung und Verfahren
CN113104153A (zh) * 2021-04-25 2021-07-13 大连海事大学 一种海上换乘栈桥波浪补偿控制系统及其工作方法
CN113232768A (zh) * 2021-04-25 2021-08-10 大连海事大学 一种具有波浪补偿功能的海上换乘栈桥及其工作方法
CN113232768B (zh) * 2021-04-25 2022-05-13 大连海事大学 一种具有波浪补偿功能的海上换乘栈桥及其工作方法
CN113104153B (zh) * 2021-04-25 2022-05-17 大连海事大学 一种海上换乘栈桥波浪补偿控制系统及其工作方法

Also Published As

Publication number Publication date
DE102019205186A1 (de) 2020-10-15

Similar Documents

Publication Publication Date Title
EP3722197A1 (de) System zur bewegungskompensation zwischen zwei objekten, fahrzeug mit dem system, feststehende struktur mit dem system und verfahren mit dem system
DE102010035898B3 (de) Unbemanntes Unterwasserfahrzeug und Verfahren zum Betrieb eines unbemannten Unterwasserfahrzeugs
DE102007019491B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung, Fahrzeug, Fahrzeugumgebungs-Überwachungsverfahren und Fahrzeugumgebungs-Überwachungsprogramm
DE102016013274A1 (de) Bildverarbeitungsvorrichtung und verfahren zur erkennung eines bilds eines zu erkennenden objekts aus eingabedaten
DE102014005181A1 (de) Positions- und Lagebestimmung von Objekten
EP1615047A2 (de) Verfahren zur Kalibrierung eines optischen Abstandssensors an einem Fahrzeug
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
DE112015002764B4 (de) Montagewinkeleinstellverfahren und Montagewinkelerfassungseinrichtung für bordeigene Kamera
DE102018200060B4 (de) Verfahren zum Betreiben einer mobilen Arbeitsmaschine und mobile Arbeitsmaschine
DE102013202915A1 (de) Verfahren und Vorrichtung zum Vermessen einer Parklücke für ein Einparkassistenzsystem eines Kraftfahrzeugs
DE102016124747A1 (de) Erkennen eines erhabenen Objekts anhand perspektivischer Bilder
EP2350977B1 (de) Verfahren zur bildfusion von zumindest zwei bildern zu einem panoramabild
EP3770804A1 (de) Flurförderzeug mit einer objekterkennung
EP3435030A1 (de) Verfahren zur erstellung eines 3d-modells von einem objekt
DE102014201409B4 (de) Parkplatz - trackinggerät und verfahren desselben
DE102020133092A1 (de) Positionsschätzungseinrichtung und positionsschätzungsverfahren
DE102014219428B4 (de) Selbstkalibrierung eines Stereokamerasystems im Auto
DE102006007550A1 (de) Vorrichtung und Verfahren zur Erkennung einer Fahrbahnmarkierung für ein Kraftfahrzeug
EP3704631A2 (de) Verfahren zur ermittlung einer entfernung zwischen einem kraftfahrzeug und einem objekt
DE102020209841B4 (de) Reinigungssystem mit einem selbstfahrenden Reinigungsroboter und einer Ladestation
DE102017104957A1 (de) Verfahren zum Bestimmen einer Bewegung von zueinander korrespondierenden Bildpunkten in einer Bildsequenz aus einem Umgebungsbereich eines Kraftfahrzeugs, Auswerteeinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
EP3816756B1 (de) System und verfahren zur regelung einer relativbewegung
DE102019220616A1 (de) Verfahren zur simultanen lokalisierung und abbildung
DE102009060901A1 (de) Landehilfseinrichtung

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN PUBLISHED

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20210414

RBV Designated contracting states (corrected)

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: VAN HALTEREN TECHNOLOGIES BOXTEL B.V.

17Q First examination report despatched

Effective date: 20221028

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20230308