WO2021219353A1 - Autonomes und/oder assistiertes kuppeln eines anhängers unter berücksichtigung des höhenprofils des untergrunds - Google Patents

Autonomes und/oder assistiertes kuppeln eines anhängers unter berücksichtigung des höhenprofils des untergrunds Download PDF

Info

Publication number
WO2021219353A1
WO2021219353A1 PCT/EP2021/059397 EP2021059397W WO2021219353A1 WO 2021219353 A1 WO2021219353 A1 WO 2021219353A1 EP 2021059397 W EP2021059397 W EP 2021059397W WO 2021219353 A1 WO2021219353 A1 WO 2021219353A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
trailer
control unit
coupling
sensor
Prior art date
Application number
PCT/EP2021/059397
Other languages
English (en)
French (fr)
Inventor
Gabriela Jager
Carolin HELLER
Original Assignee
Zf Friedrichshafen Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zf Friedrichshafen Ag filed Critical Zf Friedrichshafen Ag
Publication of WO2021219353A1 publication Critical patent/WO2021219353A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60DVEHICLE CONNECTIONS
    • B60D1/00Traction couplings; Hitches; Draw-gear; Towing devices
    • B60D1/58Auxiliary devices
    • B60D1/62Auxiliary devices involving supply lines, electric circuits, or the like
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60DVEHICLE CONNECTIONS
    • B60D1/00Traction couplings; Hitches; Draw-gear; Towing devices
    • B60D1/01Traction couplings or hitches characterised by their type
    • B60D1/06Ball-and-socket hitches, e.g. constructional details, auxiliary devices, their arrangement on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60DVEHICLE CONNECTIONS
    • B60D1/00Traction couplings; Hitches; Draw-gear; Towing devices
    • B60D1/24Traction couplings; Hitches; Draw-gear; Towing devices characterised by arrangements for particular functions
    • B60D1/36Traction couplings; Hitches; Draw-gear; Towing devices characterised by arrangements for particular functions for facilitating connection, e.g. hitch catchers, visual guide means, signalling aids
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser

Definitions

  • the present disclosure relates to the technical field of vehicle sensors and their data evaluation, as well as the technical field of driver assistance systems, in particular the field of driver assistance systems for coupling a trailer.
  • Autonomous or semi-autonomous vehicles have sensors such as cameras, radar and lidar sensors, which detect the surroundings of the vehicle using sensors and whose data are evaluated in a control unit using suitable software. On the basis of the information obtained through this data processing, a control unit can provide various driver assistance systems.
  • Such a driver assistance system can be, for example, a driver assistance system that helps a driver when coupling a stationary trailer, or autonomously attaches the stationary trailer.
  • US patent application US 2019/337343 A1 provides a method for detecting and locating a coupling of a trailer coupling which is assigned to a trailer which is positioned behind a towing vehicle.
  • the method includes determining an area of interest within images from a rear view camera.
  • US patent application US 2011/6052548 A1 provides a system for aligning a trailer coupling mounted on a vehicle with a trailer coupling mounted on a trailer.
  • An imaging system is provided to generate image data for analysis by a processor to identify the first and second sets of features associated with the tag.
  • the German patent application DE 10 2014 110498 A1 provides a method for supporting a coupling process of a motor vehicle to a trailer.
  • the coupling process takes place in an automated manner, with the detection of the Drawbar is carried out with the help of parking sensors and / or a reversing camera and the motor vehicle is guided with active control of a front axle and / or rear axle steering and the level (h) of the motor vehicle is lowered before the trailer hitch comes into contact with the drawbar .
  • US patent application US 2011/8061102 A1 provides a driver assistance device that captures an image captured by a reversing camera that captures an image in an area behind the towing vehicle including a trailer hitch, and the captured image with a pair of predicted left and right Course lines superimposed and superimposed on multiple distance indicator lines for display on a display device.
  • US patent application US 2011/6375831 A1 provides a system and a method for providing visual support by means of a graphic overlay, which is overlaid with a rear-view camera image that is displayed on a touchscreen, for example, to assist a vehicle driver when reversing a towing vehicle when aligning a To support the tow hitch with a trailer.
  • US patent application US 2011/8141397 A1 provides a method for coupling a motor vehicle with a trailer coupling to a coupling element of a trailer with at least partially automatic actuation of the motor vehicle on the basis of data acquired by an environmental sensor system, for example an environmental sensor system of the motor vehicle be ready.
  • a controlled level change is carried out on at least one axle by an air suspension system of the motor vehicle based on the recorded data.
  • US patent application US 2019/084479 A1 provides a clutch assist system and method.
  • An imaging device captures one or more images of a trailer with a coupling hitch.
  • a user input device is provided to indicate a position of the coupling coupler in the one or more captured images.
  • a controller generates an image field around the user-defined location, segments the field of view to identify the coupler and estimates a trailer height based on the height and projective geometry of the imager.
  • the exemplary embodiments show a control unit which is set up to detect a height profile based on sensor data and a position correction, for example a height correction, for a coupling head of a vehicle and / or for a coupling eye of a trailer based on the height profile and based on a To determine the vehicle model of the vehicle.
  • a position correction for example a height correction, for a coupling head of a vehicle and / or for a coupling eye of a trailer based on the height profile and based on a To determine the vehicle model of the vehicle.
  • the control unit can be provided, for example, to implement an assisted or autonomous coupling of the trailer on an irregular surface in a driver assistance system of a vehicle, whereby in particular the surface around the vehicle and possibly also the trailer is recognized and this background recognition is used as input is used for the driver assistance system.
  • the control unit according to the invention is able to autonomously couple a trailer to a vehicle even in the case of uneven surfaces, for example in the case of ruts in the road, or to assist with the coupling.
  • a possible use case here are small tractors with only small wheels, which are particularly affected by unevenness in the ground, for example ruts in a road. This avoids re-concreting the roadway and filling in the unevenness, which is usually time-consuming and costly.
  • the sensor data for determining the height profile can include, for example, data from a stereo camera, a lidar sensor, an ultrasonic sensor, or a radar sensor.
  • the control unit is set up to change the position of a coupling head of the vehicle and / or the position of a coupling eye of the trailer on the basis of the position correction, for example a coupling head of the vehicle and / or a coupling eye of the trailer upwards or downwards move down.
  • control unit is set up to use a point cloud, which includes data from one or more sensors, to record the height profile.
  • the control unit is set up to generate an underground map which includes cells and wherein each cell of the underground map includes height information.
  • each cell of the underground map includes height information.
  • the ground will be detected in the entire field of view of the sensors, or, alternatively, the ground will only be detected in a predefined area in front of the trailer, which is approximately the size of the vehicle.
  • the size of the cells of the underground map can be selected, for example, on the basis of the size of the wheels of the vehicle and / or the granularity of the underground.
  • control unit is set up to approximate the height profile by means of spline interpolation.
  • control unit is set up to determine the location of the coupling eye of the trailer on the basis of sensor data.
  • Sensor data for determining the location of the coupling eye of the trailer can be, for example, data from a stereo camera, a lidar sensor, an ultrasonic sensor, or a radar sensor.
  • control unit is set up to plan a two-dimensional trajectory for the vehicle to the location of the coupling eye of the trailer.
  • control unit is set up to determine an end position of the wheels of the vehicle on the basis of the two-dimensional trajectory and the vehicle model and to determine the position correction on the basis of the end position of the wheels of the vehicle and the height profile.
  • control unit is set up to output driving recommendations for a driver based on the determined two-dimensional trajectory, to create driving instructions for autonomous driving, or to send the position correction to a hydraulic system of the trailer.
  • control unit is set up to plan several two-dimensional trajectories for the vehicle to the location of the coupling eye of the trailer and to determine that two-dimensional trajectory and to optimize the trajectory on the basis of one or more boundary conditions.
  • the expected position correction can be determined for the respective two-dimensional trajectories and used as a boundary condition that the expected position correction for the trajectory to be selected is minimal.
  • the boundary condition can, for example, also consist in the fact that the end position of the vehicle on the optimized trajectory does not occupy any locations marked as “occupied” on an occupancy map.
  • the exemplary embodiments also show a method comprising the detection of a subsurface on the basis of sensor data and the determination of a position correction for a coupling head of a vehicle and / or for a coupling eye of a trailer due to the ground and a vehicle model of the vehicle.
  • the method can be a computer-implemented method, for example.
  • the exemplary embodiments also relate to a computer program that includes program instructions in order to carry out the method.
  • FIG. 1 is a block diagram schematically showing the configuration of a vehicle 100 according to an embodiment of the present invention.
  • FIG. 2a shows a block diagram showing an exemplary configuration of a control unit for autonomous driving.
  • FIG. 2b shows schematically a sensor processing unit according to the invention.
  • FIG. 3 shows an exemplary environment sensor, here in particular a radar sensor.
  • FIG. 4a, b, c show the generation of a two-dimensional raster map from detection events of a radar sensor.
  • FIG. 5 shows a vehicle and a trailer from a bird's eye view.
  • FIG. 6 shows the vehicle from FIG. 5 in three different places with different soil height profiles.
  • FIG. 7 shows the scenery from FIG. 5 in the side profile.
  • FIG. 8 shows the lifting of the trailer by a height correction determined by the control unit according to the invention.
  • FIG. 9 shows a flow chart for an exemplary embodiment of a method according to the invention, as it can be implemented in the control unit according to the invention.
  • FIG. 10a shows a background detection by an environment sensor on / in a vehicle according to the invention to determine a height correction for an (autonomous) trailer assistant according to the invention, as it is used in an embodiment of the present invention.
  • FIG. 10b shows the result of the background detection from FIG. 10a.
  • FIG. 11a, 11b and 11c show how an underground map based on the measured point cloud from FIG. 10b can be generated.
  • FIG. Figure 12a shows a vehicle model in which the vehicle is treated as a rigid body.
  • FIG. 12b shows how the end positions of the wheels can be determined with the aid of a vehicle model and based on a 2D trajectory and how the position of the clutch can be determined based on the end positions of the wheels.
  • FIG. 13a shows a use of the ascertained height correction in a driver assistance system.
  • FIG. 13b shows a use of the ascertained height correction in an autonomous coupling assistant.
  • FIG. 14 shows a background detection by an environment sensor on / in a vehicle according to the invention to determine a height correction for an (autonomous) trailer assistant according to the invention, as used in an embodiment of the present invention, with only a certain predefined area for the Subsurface detection is used
  • FIG. 15 shows the use according to the invention of a lidar sensor on / on a vehicle with a field of vision for underground detection.
  • FIG. 16 shows a flowchart for a further exemplary embodiment of a method according to the invention, as it can be implemented in the control unit according to the invention.
  • FIG. 17 shows a flowchart for a further exemplary embodiment of a method according to the invention, as it can be implemented in the control unit according to the invention.
  • FIG. 1 is a block diagram schematically showing the configuration of a vehicle 100 according to an embodiment of the present invention.
  • the vehicle 100 comprises several electronic components which are connected to one another via a vehicle communication network 128.
  • the vehicle communication network 128 may, for example, be a standard vehicle communication network installed in the vehicle, such as a CAN bus (Controller Area Network), a LIN bus (Local Interconnect Network), a LAN bus (Local Area Network), a MOST bus and / or a FlexRay bus or the like.
  • the vehicle 100 comprises a control unit 112 (ECU 1) for a braking system.
  • the braking system refers to the components that enable the vehicle to be braked.
  • the vehicle 100 also includes a control unit 114 (ECU 2) that controls a drive train.
  • the drive train refers to the drive components of the vehicle.
  • the powertrain may include an engine, a transmission, a drive / propeller shaft, a differential, and an axle drive.
  • the vehicle 100 further includes a control unit 116 (ECU 3) that controls a steering system.
  • the steering system refers to the components that enable directional control of the vehicle.
  • the control units 112, 114, 116, 118, and 122 can also receive vehicle operating parameters from the vehicle subsystems mentioned above, which these parameters detect by means of one or more vehicle sensors.
  • Vehicle sensors are preferably those sensors that detect a state of the vehicle or a state of vehicle parts, in particular their state of movement.
  • the sensors may include a vehicle speed sensor, a yaw rate sensor, an acceleration sensor, a steering wheel angle sensor, a vehicle load sensor, temperature sensors, pressure sensors, and the like.
  • sensors can also be arranged along the brake line in order to emit signals that indicate the brake fluid pressure at various points along the hydraulic brake line. Other sensors in the vicinity of the wheel can be provided which detect the wheel speed and the brake pressure applied to the wheel.
  • the vehicle sensor system of the vehicle 100 of the exemplary embodiment also includes a satellite navigation unit 124 (GNSS unit).
  • GNSS satellite navigation unit 124
  • GNSS stands for all global navigation satellite systems (GNSS), such as GPS, AGPS, Galileo, GLONASS (Russia), Compass (China), IRNSS (India) and the like.
  • the vehicle 100 further comprises one or more sensors which are designed to detect the surroundings of the vehicle, the sensors being mounted on the vehicle and recording images of the surroundings of the vehicle, or to detect objects or conditions in the surroundings of the vehicle.
  • the environment sensors 126 include in particular cameras, radar sensors, lidar sensors, ultrasonic sensors or the like.
  • the environment sensors 126 can be arranged inside the vehicle or outside the vehicle (for example on the outside of the vehicle).
  • a camera can be provided in a front area of the vehicle 100 for recording images of an area in front of the vehicle.
  • the vehicle 100 further comprises a sensor processing unit 122 (ECU 4), which is able to process received sensor data and make it available to the other control units 112, 114, 116 and 118, as well as other vehicle systems.
  • This processing of sensor data can include the fusion of data from various sensors or sensor types, the calculation and entry of occupancy probabilities in a grid map, the filtering or compression of sensor data, object recognition within the sensor data, and / or the like.
  • the vehicle 1 further includes an autonomous driving control unit 118 (ECU 5).
  • This control unit is able to carry out trajectory planning and to create driving instructions and to instruct them to be carried out.
  • the control unit for autonomous driving 118 (ECU 5) is set up to receive processed sensor data from the sensor processing unit 122 or unprocessed or only preprocessed sensor data from the environment sensors 126. On the basis of this sensor data, the control unit for autonomous driving 118 (ECU 5) can carry out the trajectory planning.
  • the input interface can, for example, include keyboards, switches, touch-sensitive screens (touchscreens), Eye-T rackers and the like.
  • FIG. 2a is a block diagram showing an exemplary configuration of an autonomous driving control unit 118 (ECU 5).
  • the control unit can be, for example, a control device (electronic control unit ECU or electronic control module ECM).
  • the control unit shown comprises a processor 41.
  • the processor of the control unit for autonomous driving 118 is designed, for example, to calculate an optimal driving position (for example following distance or lateral offset to a vehicle in front or the like) while driving, depending on the planned driving maneuver, based on information from a sensor-based environment model, taking into account the permissible lane area.
  • the calculated optimal driving position is used to control actuators of vehicle subsystems 112, 114 and 116, for example braking, drive and / or steering actuators.
  • the processor of the control unit is designed to carry out a trajectory planning for the location of a coupling eye on a trailer and to instruct it to be carried out.
  • the autonomous driving control unit 118 further includes a memory and an input / output interface.
  • the memory can consist of one or more non-transitory computer-readable media and comprises at least a program storage area and a data storage area.
  • the program storage area and the data storage area can comprise combinations of different types of memory, for example read-only memory 43 (ROM) and random access memory (RAM) 42 (e.g. dynamic RAM) ("DRAM"), synchronous DRAM ("SDRAM", etc.).
  • the autonomous driving controller 118 may include an external storage drive 44, such as an external hard disk drive (HDD), a flash memory drive, or a non-volatile solid state drive (SSD).
  • the control unit for autonomous driving 118 further comprises a communication interface 45 via which the control unit can communicate with the vehicle communication network (128 in FIG. 2).
  • FIG. 2b shows schematically a sensor processing unit 122 according to the invention. All components of the sensor processing unit 122 are connected via an internal communication network 46.
  • the sensor processing unit 122 comprises an application-specific integrated circuit 47 (ASIC or also FPGA). at the integrated circuit 47 can be, for example, a GPU or a GPU cluster.
  • the integrated circuit 47 is configured in such a way that it transfers sensor data in the form of a point cloud into an occupancy grid map for the field of view of the sensor.
  • the sensor processing unit 122 includes a processor 41.
  • CPU Central Processing Unit
  • the sensor processing unit 122 further includes a memory and an input / output interface.
  • the memory can consist of one or more non-transitory computer-readable media and comprises at least a program storage area and a data storage area.
  • the sensor processing unit 122 may include an external storage drive 44 such as an external hard disk drive (HDD), a flash memory drive, or a non-volatile solid state drive (SSD).
  • the sensor processing unit 122 further comprises a communication interface 45 via which the control unit can communicate with the vehicle communication network (128 in FIG. 2).
  • FIG. 3 shows an exemplary environment sensor 126, here in particular a radar sensor.
  • the radar sensor 126 is a detection and location device based on electromagnetic waves in the radio frequency range.
  • the radar sensor sends out a signal as a bundled electromagnetic wave (primary signal) and receives the echoes reflected from objects (secondary signal).
  • R ⁇ (t ⁇ , f ⁇ , qi, Vi i) obtained, such as azimuth angle f £ and elevation angle 0 j , which describe the direction to the target point, the distance r £ to the target point, the radial speed and the lateral speed / £ , those who Describe the relative movement between radar sensor 126 and target point P £.
  • the relative movement can be calculated, for example, by the Doppler effect from the shift in the frequency of the reflected signal. If necessary, the distance and the absolute speed of a target point P £ can be determined by stringing together individual measurements.
  • target points P £ By evaluating a large number of target points P £ (called “point cloud”) in their entirety, target points P £ can be identified as belonging to a unique object (clustering method), contours of objects can be recognized and with sufficient resolution of the radar sensor 126 images of the objects are obtained.
  • FIG. 4a, b, c show the generation of a two-dimensional raster map from detection events of a radar sensor.
  • FIG. 4a is a field of view 31 of a radar sensor in front of the vehicle 100 on which the radar sensor is installed.
  • An object 32 is located in the field of view 31 of the radar sensor.
  • the radar waves reflected on the object 32 generate detection events in the radar sensor, which the radar sensor outputs in the form of target points P £. All of the detection events detected in this way are in the form of a point cloud, which can be evaluated in an evaluation unit at the sensor (or also externally).
  • FIG. 4b shows a two-dimensional grid map 33 (also called “grid” for short), which is designed in such a way that it divides the field of view 31 of the radar sensor into cells in Cartesian fashion.
  • grid also called “grid” for short
  • All sensor data mainly punk clouds, are entered in such a grid map.
  • the detection events and information derived therefrom from a number of environmental sensors can be classified in a grid map of this type. This can also be the detection events of sensors of different sensor types, for example radar sensors, lidar sensors, ultrasound or the like. If the sensors are distributed around the vehicle, such a grid map can depict the surroundings around the vehicle.
  • the static environment of the vehicle 100 can be recognized.
  • the information from the grid map 33 from FIG. 4a, b, c can be entered in an accumulated raster map.
  • the vehicle 100 moves on this accumulated grid map and the new position of the vehicle 100 is continuously recalculated.
  • the sensor data are entered into the accumulated grid map in each measurement cycle with a compensated vehicle position. With this approach, sensor data can be accumulated over time and recorded and evaluated statistically (in relation to a “global” coordinate system).
  • FIG. 3 and FIGS. 4a, 4b and 4c for creating an occupancy grid map of the surroundings of a vehicle with a control unit according to the invention (118 in FIG. 1) who are used (see step S10 in FIG. 13) or using a lidar sensor, whose field of view is aligned with the ground (see also FIG. 15) can be used to create a height profile of the ground around and behind the vehicle.
  • FIG. 5 shows a vehicle 100 and a trailer 200 from a bird's eye view.
  • the control unit according to the invention (118 in FIG. 1) is designed to plan a trajectory Ti in the xy plane for the vehicle 100, so that by following the trajectory Ti it is achieved that the coupling head 101 of the vehicle 100 is direct is located under the coupling eye 201 of the trailer, so that a simple lowering of the coupling arm 202 of the trailer leads to the coupling of the trailer 200 to the vehicle 100.
  • Techniques for planning a 2D trajectory for a vehicle in order to connect a coupling eye detected by means of sensors Approaching trailers, as they are used in this invention can be found in the documents cited in the prior art, but in particular in the publication US 2016/052548 A1. In particular, the Grand Plain Reconstruction algorithm for trajectory planning should be mentioned at this point.
  • the height of the coupling eye 201 and the height of the coupling arm 202 can be remotely controlled, for example because the trailer 200 has a hydraulic control or an electric motor to control the coupling arm or coupling eye height.
  • the vehicle 100 can be designed to vary the height of the coupling head 101, for example by an autonomous adjustment of the damper heights of the shock absorber.
  • the control unit (118 in Fl G. 1) is also designed to send a signal to the trailer 200 in order to trigger a coupling of the trailer 200 to the vehicle 100.
  • FIG. 6 shows the vehicle 100 from FIG. 5 in three different places with different soil height profiles.
  • a first case 100 ‘ the vehicle 100 is on level ground.
  • a second case 100 ′′ the vehicle 100 is standing on an uneven surface, so that the vehicle 100 is inclined to the left when viewed from the front.
  • a third case 100 ′′ the vehicle 100 is standing on an uneven surface, so that the vehicle 100 is inclined to the right when viewed from the front.
  • the soil profile of a subsurface is not always level.
  • the height of the elements of the coupling varies depending on the position of the vehicle 100 and the trailer (200 in FIG. 5), not shown here, on the uneven ground. This can be done in the case of a 2D trajector planning, as already shown in FIG. 5 indicated, lead to errors, since the coupling head (101 in FIG. 5) of the vehicle or the coupling eye (201 in FIG. 5) of the trailer is not in the planned location due to the uneven surface. This would then lead to an unsuccessful coupling attempt.
  • the control unit according to the invention (118 in FIG. 1) is also set up to be controlled by the Sensor processing unit (122 in FIG. 1) to receive underground information and to carry out the trajectory planning based on this underground information.
  • FIG. 7 shows the scenery from FIG. 5 in the side profile.
  • the vehicle 100 and the trailer 200 are on an uneven surface.
  • these unevenness in the subsurface would lead to the coupling head 101 of the vehicle being positioned too high at the end of the trajectory Ti than the coupling eye 201 of the trailer could be coupled over it.
  • the control unit according to the invention (118 in FIG. 1), in addition to the above with reference to FIG. 5 described 2D trajectory in the xy-plane a position correction, for example a height correction in the z-direction by which either the coupling arm 202 of the trailer should be raised or the coupling head 101 of the vehicle should be lowered in order to couple the trailer 200 to the Vehicle 100 to enable.
  • the control unit could determine a lateral position correction. Since the unevenness of the ground is usually small in normal road traffic, such lateral position corrections can also be neglected.
  • the principle of the invention is therefore described in more detail using a height correction.
  • the person skilled in the art can also apply the principle of height correction to lateral position corrections that can be taken into account, for example, when planning trajectories or during the coupling process.
  • FIG. 8 shows the lifting of the trailer 200 by a height correction Ah determined by the control unit according to the invention (118 in FIG. 1).
  • the vehicle 100 from FIG. 7 has already driven up to the trailer 200 so that the vehicle is at the end of the determined 2D trajectory.
  • the trailer should be raised by a height correction Ah are moved so that the trailer 200 is in a position 200 '.
  • the trailer 200 can then be coupled to the vehicle 100.
  • Such a lifting of the trailer 200 shown can be achieved, for example, by manually cranking up the coupling arm, by adjusting the damper heights of the shock absorbers in the vehicle 100 or by a hydraulic device built into the trailer 200.
  • FIG. 9 shows a flowchart for an exemplary embodiment of a method according to the invention, as can be implemented in the control unit according to the invention (118 in FIG. 1).
  • a first step S1 the location of the coupling eye (201 in FIG. 7 and FIG. 8) of the trailer is determined based on the data from a stereo camera.
  • the sensor data of the stereo camera can also be supplemented by further sensor data, for example by image data from other cameras, data from one or more radar or lidar sensors, data from one or more ultrasound sensors, or similar methods, around an object and its location to be determined based on sensor data, such as camera images, radar / lidar data, or the like, are sufficiently known to the person skilled in the art and can, for example, be found in the documents recognized above as prior art, in particular document US 2016/052548 A1 men will be.
  • a second step S2 the ground around vehicle 100 and behind vehicle 100, in particular the ground between vehicle 100 and trailer 200, is recorded.
  • this subsurface detection provides a 3D point cloud which depicts the subsurface and, on the basis of the sensor data, succeeds in a device shown in FIG. 15 shown lidar sensor (127 in FIG. 15).
  • lidar sensor 127 in FIG. 15
  • Additional or alternatively further sensors can be used, both those whose sensor data have already been used to determine the location of the coupling eye and additional sensors, such as an ultrasonic sensor for determining an underground profile.
  • the acquisition of the subsurface in a point cloud is further described below with reference to FIG. 10a and FIG. 10b described in more detail.
  • the point cloud that depicts the subsurface is used to create an subsurface map.
  • This underground map is a grid map in which mean measured altitude values are entered based on the point cloud.
  • the generation of an underground map on the basis of a 3D point cloud is described further below with reference to FIG. 11a, FIG. 11b and FIG. 11c described in more detail.
  • the underground map is used to determine whether there are obstacles on the ground.
  • "positive" obstacles or negative “obstacles are determined.
  • the control unit (118 in FIG. 1) detects an obstacle as a "positive” obstacle (obstacles higher than the underground; stones, etc.) if the height of the unevenness (obstacle) is higher than a predetermined maximum tolerated height. If the map shows a negative height (obstacles deeper than the ground; potholes, etc.), the control unit (118 in FIG. 1) can detect the negative height as a "negative” obstacle if the negative height range is wider than the wheel width the wheels of the vehicle (100 in FIGS. 5-9).
  • the width of the "negative” obstacle can be predefined, e.g. the width can be predefined with 10 cm.
  • a 2D trajectory (x-y plane) is planned for the coupling eye (201 in FIG. 7 and FIG. 8) of the trailer 200 determined in step S1.
  • the Grand Plain Reconstruction algorithm can be used, or a technique as described in the documents recognized above as prior art, in particular document US 2016/052548 A1.
  • the determination of the 2D trajectory (x-y plane) is also based on the information about the presence of obstacles (step S4).
  • a 2D trajectory (x-y plane) is determined when there are no obstacles in the trajectory.
  • a sixth step S6 the expected driving path of the vehicle (100 in FIG. 5-9) and the expected locations of the wheels of the vehicle at the end of the trajectory determined are determined.
  • a model of the vehicle is projected onto the end point of the trajectory, so that the final location of the vehicle's wheels is obtained. Since the camera scans the ground, the final position of the wheels of the vehicle (100 in FIG. 7 and FIG. 8) can be estimated before the wheels actually reach their final position. This estimate of the end position is sufficient for a timely and accurate estimate of the position of the coupling elements before the vehicle has traveled the entire planned 2D trajectory.
  • a seventh step S7 an estimate of the required position correction (Ah in FIG. 8) for, for example, the coupling head 101 of the vehicle and / or for the coupling eye 201 of the trailer (or its relative position) is made based on the underground map from step S3 and the position the wheels from step S6 be true.
  • the future position of the vehicle 100 in FIG.
  • a position correction for example a height correction, can be estimated, which is required to successfully couple the trailer to the vehicle even on the recognized uneven surface.
  • FIG. 10a shows a background detection by an environment sensor 126 on / in a vehicle 100 according to the invention to determine a position correction for an (autonomous) trailer assistant according to the invention, as used in an exemplary embodiment of the present invention.
  • the vehicle 100 according to the invention is shown, on which at least one surroundings detection sensor 126 is mounted.
  • the surroundings detection sensor 126 is a lidar sensor. It can also be a stereo camera or a radar sensor.
  • the sensor (s) can also be installed in the chassis of the vehicle 100.
  • the environment sensor 126 here has a field of view 126-1, the ground in front of the trailer 200 being within the field of view 126-1.
  • FIG. 10b shows the result of the background detection from FIG. 10a.
  • the sensor detects individual points on a surface in its field of view and accumulates these points to form a point cloud 126-2.
  • the point cloud 126-2 includes points both on the surface of the trailer 200 and also on the ground.
  • the detected point cloud is first selected so that only points in the area 126-3 that belong to the subsurface are processed further in the following.
  • structure recognition algorithms or an artificial neural network can also be used to select the points that belong to the subsurface.
  • 11a, 11b and 11c show how an underground map based on the ge measured point cloud from FIG. 10b can be generated.
  • a two-dimensional (xz plane) example is shown here.
  • a two-dimensional grid map can also be used, and thus a three-dimensional underground map can be generated.
  • a grid card with grid cells Zi to Z15 of the same size is placed over the measured point cloud.
  • a mean height is then determined from the z-values of the points within a grid cell and entered in the grid cells so that the grid map now contains location-specific height information and can therefore be used as an underground map.
  • FIG. 11a shows a point cloud as a result of a lidar measurement for underground recognition.
  • the point cloud (126-2 in FIG. 10b) has already been evaluated in such a way that all points of the point cloud shown belong to the recorded background (126-3 in FIG. 10b) and not to the trailer 200 or other objects.
  • the point cloud consists of a number of detections P 1 to P j . Each point corresponds to a measured reflection point on the surface of the recorded subsurface. Therefore, the point cloud shown can be understood as a representation of the subsurface.
  • FIG. 11b shows the laying of a grid map with grid cells Z1 to Z15 over the measured point cloud from FIG. 11a. As shown, a grid map with grid cells Z1 to Z15 of the same size is placed over the point cloud so that points of the point cloud can be assigned to the individual grid cells.
  • the size of the individual grid cells is selected so that the area of the individual grid cells is smaller than the contact area of the wheels of the vehicle (100 in FIG. 7 and FIG. 8) on the ground. Furthermore, the granularity of the soil (stones, earth, asphalt, ...), measurable by a camera, for example, can be taken into account when choosing the grid cell size.
  • FIG. 11c shows the entry of mean height values into grid cells Z1 to Z15.
  • z at all z-coordinates are z ; of points P j whose x-coordinates lie within a grid cell Zi, averaged, so that a mean height is determined, where N denotes the total number of all points within the grid cell.
  • N denotes the total number of all points within the grid cell.
  • Fig. 12a shows an exemplary vehicle model in which the vehicle is treated as a rigid body.
  • the vehicle model represents a representation of the vehicle (100 in previous figures).
  • the vehicle model includes a reference point PO, which can be treated as the origin of a vehicle coordinate system.
  • the reference point PO is located at the rear of the vehicle, but it can also be located in the center of gravity of the vehicle or in the front of the vehicle.
  • the location of the reference point is evaluated as the location of the vehicle. If the vehicle autonomously drives along the planned 2D trajectory, this means that the reference point is moving along the planned trajectory.
  • the vehicle model also includes four vectors p, r2, r3 which indicate the positions P1, P2, P3 and P4 of the four wheels relative to the reference point PO.
  • the vehicle model also includes an orientation vector O, which indicates the orientation of the vehicle in the x-y plane.
  • the vehicle model also includes a vector K which indicates the position PK of the coupling head relative to the reference point PO.
  • the vehicle model also includes a vector S which indicates the position PS of the center of gravity of the vehicle relative to the reference point PO.
  • the position vectors p, r2, r3, r4 of the wheels and the position vector K of the coupling head have an invariable length and can only be rotated together, i.e. they lie in the same plane.
  • more complex vehicle models can be used which, for example, also model the shock absorbers of the vehicle.
  • more complex model further Enter vehicle parameters.
  • O also depend on sensor data, the results of a numerical simulation, or the like.
  • the lengths and directions of the vectors p, r2, r3, G4, K, S, O can also be determined, for example, with the aid of a look-up table, a computer simulation or by means of regression or interpolation from stored values.
  • FIG. 12b shows how the end positions of the wheels can be determined with the aid of a vehicle model and based on the already determined 2D trajectory Ti and how the position of the clutch PK can be determined based on the end positions of the wheels.
  • the planned 2D trajectory Ti is followed in such a way that the reference point PO of the vehicle moves along this trajectory. Due to the end point of the trajectory Ti, the end position POe of the reference point PO of the vehicle at the end of the trajectory Ti in the coordinate system of the underground map is known at the same time. This makes it possible to determine the end positions of the wheels based on the location vectors p, r2, r3 made available by the vehicle model.
  • the grid cells Z7, 10, ZQ, M, ZIO, 9 and Z11, 13, the height of these grid cells can be read from the grid cells of the underground map, on which the end positions of the wheels are in each case, to the probable height of all four To determine wheels. From this height information, with the help of the position vector K, which is calculated by the vehicle model, the probable position of the coupling head and thus a required height correction can be determined.
  • the position vector K which is calculated by the vehicle model
  • one of the four wheels can hang in the air. Which wheel is hanging in the air, or the entire three-dimensional position of the vehicle on the ground, can be determined by calculating in which possible position of the vehicle on the ground the center of gravity PS of the vehicle model is lowest. If the position of the vehicle on the ground is determined, the position of the coupling head of the vehicle can be determined with the help of the vector K.
  • a position correction here a height correction Ah to simplify the representation, can then be determined on a perfectly level surface, which can also be determined with the aid of the vehicle model:
  • FIG. 13a shows a use of the ascertained height correction in a driver assistance system.
  • the control unit (118 in FIG. 1) recommends in a step S7 based on the determined 2D trajectory to the driver of the vehicle (100 7 and 8) a steering angle, for example in which the driver is shown a corresponding number of degrees on a display.
  • a height correction proposal is output to the driver, for example by showing the driver a corresponding information in the form of numbers on a display that shows the required height correction in centimeters correspond.
  • FIG. 13b shows a use of the ascertained height correction in an autonomous coupling assistant.
  • the control unit (118 in FIG. 1) sends corresponding driving instructions to other systems of the vehicle, for example a control unit for autonomous driving (112 , 114, 116, 122 in FIG. 1) and / or to the trailer (200 in FIG. 7 and FIG. 8) in order to implement the departure of the planned 2D trajectory.
  • the control unit (118 in FIG. 1) executes a change in height of the coupling head (101 in FIG. 7) on the basis of the determined height correction (Ah in FIG. 8), for example by changing the height of the shock absorbers, as with the driver of the vehicle does not have to make this height correction manually.
  • the control unit according to the invention (118 in FIG. 1) waits until the vehicle (100 in FIG. 8) has entered the scanning area (162-2 in FIG. 8) in front of the trailer (200 in FIG. 8). drives in or when the vehicle (100 in FIG. 8) reaches the clutch eye (201 in FIG. 8) and then decides whether or not the estimated height correction can be compensated by the vehicle side alone.
  • the control unit according to the invention (118 in FIG. 1) sends a corresponding warning to the driver and / or other vehicle systems.
  • the trailer should counter-steer autonomously, or the driver should correct manually on the trailer by turning the crank Confirmation that the height difference of the vehicle will be compensated for after the correction on the trailer can be sent to the driver and other vehicle systems and instructs the lowering / raising of the shock absorber heights to be carried out.
  • FIG. 14 shows a background detection by an environment sensor 126 on / in a vehicle 100 according to the invention to determine a height correction for an (autonomous) trailer assistant according to the invention, as used in an exemplary embodiment of the present invention, with only a certain predefined area 126-4 is used for subsurface detection.
  • the vehicle 100 occupies an area of length L100 on the ground.
  • an area 126-4 in front of the trailer 200 is of particular interest for the trailer assistant according to the invention, since it also has approximately the extent of the vehicle 100 and in that the expected future position L100 ‘of the vehicle lies completely during the coupling.
  • the detection of the surroundings and the parameterization of the surroundings can therefore be restricted to the area 126-4, in particular the ground within the area 126-4.
  • the area 126-4 is specified in the vicinity of the trailer around the coupling eye 201 of the trailer 200. This area becomes like this chosen that a complete coverage of the set of all possible positions of the vehicle 100 in front of the trailer 200 with different angles of view to the trailer 200 are covered.
  • the area 126-4 can be determined as follows: Either in a “long” variant, the area 126-4 being the length from the coupling head 101 of the vehicle 100 to the front wheels of the vehicle plus a certain tolerance length or in a “short” variant, the region 126-4 being the length from the coupling head 101 of the vehicle 100 to the rear wheels of the vehicle plus a certain tolerance length.
  • the use of the "long variant” as a range definition has the advantage of improved accuracy, while the use of the "short variant” as a range definition has the advantage of less computational effort.
  • the surroundings can be recorded at the beginning of the coupling process as an optional entry in the trajectory planning or continuously, as usual assistants in the operating mode, for live obstacle detection.
  • sensors for parking are mostly oriented horizontally, such as the surroundings detection sensor 126 shown here. However, this orientation is often not sufficient to adequately detect the ground around the vehicle. For this reason, the present invention uses sensor sets, the field of view of which can explicitly also include the subsurface. An example of such a sensor or its assembly is shown in FIG. 10.
  • additional cameras / 3D sensors can also be installed in the vehicle 100 for targeted underground detection, for example a sensor set consisting of one or more cameras and at least one vehicle odometry system, their data using a structure Form motion algorithm are evaluated.
  • the measurement data of several measurements can also be accumulated, taking into account the registered vehicle movement. For example, in the case of a 2D lidar sensor, it should be aligned backwards and towards the ground and its data should be accumulated piece by piece.
  • FIG. 15 shows the use according to the invention of a lidar sensor 127 on / on a vehicle 100 with a field of view 127-1 for underground detection.
  • the lidar sensor 127 is attached to / on the vehicle 100 in such a way that its field of view 127 - 1 captures the underground behind the vehicle 100. Since lidar sensors have good distance detection, the subsurface can be scanned precisely when the application is shown and this sensor data can be made available for further subsurface parameterization.
  • the detection of the surroundings and the detection of the subsurface do not necessarily have to be carried out with the same sensors.
  • a mono camera may not be enough to reliably fulfill both functions.
  • Further possibilities would be, for example, the detection of the subsurface and its surroundings by means of one or more stereo cameras or with the help of 3D point-providing sensors, such as a Velodyne sensor, or the underground detection using a mono camera, while the surroundings are detected using parking lot sensors.
  • the measurement data of several measurements can also be accumulated, taking into account the registered vehicle movement. It should also be noted that the underground is detected continuously as soon as the vehicle begins to move and no trailer has yet been detected. However, as soon as the coupling eye of the trailer is in the field of vision, the detection of the underground is paused or the representation of the underground is no longer expanded. The longer the vehicle moves to the coupling eye of the trailer or the closer the vehicle is to the trailer, the more accurate the representation of the subsurface is often.
  • a mathematical 3D height profile can also be calculated from the individual points of the 3D point cloud using spline interpolation and used for underground parameterization.
  • FIG. 16 shows a flow chart for a further exemplary embodiment of a method according to the invention, as it can be implemented in the control unit according to the invention (118 in FIG. 1). Steps that differ in comparison to FIG. 9 have not changed, are denoted by the same reference numerals and are therefore not explained in more detail.
  • step S6 and step S4 are connected with a feedback loop, so that multiple trajectories are determined and the expected altitude correction is determined for these trajectories each time. This enables trajectory planning with the boundary condition that the height correction should be minimized.
  • step S4 results in a modified step S4 'in which the 2D trajectory is generated or selected from all possible trajectories in such a way that one or more previously defined boundary conditions are met, e.g. that the end angle of the vehicle to the trailer is 15 ° or that all wheels of the vehicle are outside recognized ruts.
  • the boundary condition used is that the required height correction between the coupling head of the vehicle and the coupling eye of the trailer is minimized.
  • predefined Scanning of the subsurface generates various trajectories, with either all possible trajectories being set up (computationally intensive) or iterative trajectories being determined, starting with the shortest trajectory and gradually determining trajectories that require a smaller height correction.
  • the height correction is determined taking into account the representation of the ground with the trajectory and the vehicle geometry, the position of the coupling head of the vehicle above the ground and the position of the coupling eye of the trailer above the ground are determined from these variables from their subtraction required height correction can be calculated.
  • FIG. 17 shows a flowchart for a further exemplary embodiment of a method according to the invention, as it can be implemented in the control unit according to the invention (118 in FIG. 1). Steps that differ in comparison to FIG. 9 and / o of FIG. 16 have not changed, are denoted by the same reference numerals and are therefore not explained in more detail.
  • an additional step S10 is advanced before the first step S1, which includes the creation of an occupancy map of the surroundings.
  • An occupancy card is an often two-dimensional map of the area around the vehicle, which is divided into individual cells (“grids”), with each cell being assigned a value of 1 (occupied) or 0 (free). Alternatively, the probability that the respective cell is occupied can be entered in each cell.
  • Such an occupancy map can be created based on radar or lidar sensor data, for example. Techniques for creating an occupancy map based on sensor data, for example radar or lidar sensor data, are sufficiently known to the person skilled in the art and are therefore not explained further here.
  • step S7 The occupancy map created in step S7 is used in a modified trajectory planning step S4 ”, in which avoidance of occupied grid cells is used as a further boundary condition for 2D trajectory planning in addition to minimizing the estimated height correction.
  • step S4 the condition that the vehicle does not have any is used as an additional boundary condition for trajectory planning Obstacle from the occupancy card should hit. Consequently, at the end of the trajectory, the vehicle should not occupy any cells on the occupancy card that are marked as occupied.
  • the coupling eye of the trailer itself is regarded as an obstacle and is marked as "occupied" on the occupancy card).

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

Steuereinheit (118), die dazu eingerichtet ist, ein Höhenprofil auf Basis von Sensordaten zu erfassen (S2) und eine Positionskorrektur (Δh) für einen Kupplungskopf (101) eines Fahrzeugs (100) und/oder für ein Kupplungsauge (201) eines Anhängers auf Grundlage des Höhenprofils und auf Grundlage eines Fahrzeugmodells des Fahrzeugs (100) zu bestimmen (S6).

Description

Autonomes und/oder assistiertes Kuppeln eines Anhängers unter Berücksichtigung des Höhenprofils des Untergrunds
Die vorliegende Offenbarung betrifft das technische Gebiet der Fahrzeugsensorik und deren Datenauswertung, sowie das technische Gebiet der Fahrassistenzsys teme, insbesondere das Gebiet der Fahrassistenzsysteme zur Kupplung eines Anhä ngers.
Autonome oder teilautonome Fahrzeuge weisen Sensoren wie beispielsweise Kame ras, Radar- und Lidar-Sensoren auf, die das Umfeld des Fahrzeugs sensorisch erfas sen und deren Daten in einer Steuereinheit mittels geeigneter Software ausgewertet werden. Auf Grundlage der durch diese Datenverarbeitung gewonnenen Informatio nen kann eine Steuereinheit verschiedene Fahrassistenzsysteme bereitstellen.
Ein solches Fahrassistenzsystem kann beispielsweise ein Fahrassistenzsystem sein, dass einen Fahrer beim Ankuppeln eines stehenden Anhängers hilft, oder aber auto nom den stehenden Anhänger ankoppelt.
US-Patentanmeldung US 2019/337343 A1 beispielsweise, stellt ein Verfahren zum Erfassen und Lokalisieren einer Kupplung einer Anhängerkupplung bereit, die einem Anhänger zugeordnet ist, der hinter einem Zugfahrzeug positioniert ist. Das Verfah ren umfasst das Bestimmen eines interessierenden Bereichs innerhalb von Bildern von einer Rückfahrkamera.
US-Patentanmeldung US 2011/6052548 A1 stellt ein System zum Ausrichten einer an einem Fahrzeug montierten Anhängerkupplung zu einer an einem Anhänger montierten Anhängerkupplung bereit. Ein Bildgebungssystem wird bereitgestellt, um Bilddaten zur Analyse durch einen Prozessor zu erzeugen, um den ersten und zweiten Merkmalssatz zu identifizieren, der dem Anhänger zugeordnet ist.
Die Deutsche Patentanmeldung DE 10 2014 110498 A1 stellt ein Verfahren zum Un terstützen eines Ankuppelvorgangs eines Kraftfahrzeugs an einen Anhänger bereit. Um einen präzisen Ankuppelvorgang zu gewährleisten ist erfindungsgemäß vorgese hen, dass der Ankuppelvorgang automatisiert erfolgt, wobei eine Erkennung der Deichsel mit Hilfe von Parksensoren und/oder einer Rückfahrkamera durchgeführt wird und eine Führung des Kraftfahrzeugs unter aktiver Ansteuerung einer Vorder- achs- und/oder Hinterachslenkung vorgenommen wird und wobei das Niveau (h) des Kraftfahrzeugs vor einem Kontakt der Anhängerkupplung mit der Deichsel abgesenkt wird.
US-Patentanmeldung US 2011/8061102 A1 stellt eine Fahrassistenzvorrichtung be reit, die ein von einer Rückfahrkamera aufgenommenes Bild erfasst, das ein Bild in einem Bereich hinter dem Zugfahrzeug einschließlich einer Anhängerkupplung auf nimmt, und das aufgenommene Bild mit einem Paar von vorhergesagten linken und rechten Kurslinien überlagert und mehreren Entfernungsanzeigelinien zur Anzeige auf einem Anzeigegerät überlagert.
US-Patentanmeldung US 2011/6375831 A1 stellt ein System und ein Verfahren zum Bereitstellen einer visuellen Unterstützung durch eine grafische Überlagerung bereit, die mit einem Rückfahrkamerabild überlagert ist, das beispielsweise auf einem Touchscreen angezeigt wird, um einen Fahrzeugführer beim Rückwärtsfahren eines Zugfahrzeugs beim Ausrichten einer Anhängerkupplung mit einem Anhänger zu un terstützen.
US-Patentanmeldung US 2011/8141397 A1 stellt ein Verfahren zum Koppeln eines Kraftfahrzeugs mit einer Anhängerkupplung an ein Kupplungselement eines Anhä ngers mit zumindest teilweise automatischer Betätigung des Kraftfahrzeugs auf der Grundlage von Daten, die von einem Umgebungssensorsystem, beispielsweise ei nem Umgebungssensorsystem des Kraftfahrzeugs, erfasst werden, bereit. Eine kon trollierte Füllstandsänderung wird an mindestens einer Achse durch ein Luftfedersys tem des Kraftfahrzeugs basierend auf den erfassten Daten durchgeführt.
US-Patentanmeldung US 2019/084479 A1 stellt ein Kupplungsunterstützungssystem und -verfahren bereit. Ein Bildgerät erfasst ein oder mehrere Bilder eines Anhängers mit einer Kupplungskupplung. Ein Benutzereingabegerät ist vorgesehen, um eine Po sition des Kupplungskopplers in dem einen oder den mehreren aufgenommenen Bil dern anzugeben. Ein Controller generiert ein Bildfeld um den benutzerdefinierten Ort, segmentiert das Bildfeld, um den Kupplungskoppler zu identifizieren, und schätzt eine Anhängerhöhe basierend auf der Höhe und der projektiven Geometrie des Bild gebers.
Mit Blick auf diesen Hintergrund ist es für den Fachmann erstrebenswert vorliegende Systeme zum assistierten bzw. autonomen Ankuppeln eines Anhängers an ein Fahr zeug zu verbessern.
Dieses Ziel wird durch die Steuereinheit nach Anspruch 1 und das Verfahren nach Anspruch 12 gelöst.
Die Ausführungsbeispiele zeigen eine Steuereinheit, die dazu eingerichtet ist, ein Hö henprofil auf Basis von Sensordaten zu erfassen und eine Positionskorrektur, bei spielsweise eine Höhenkorrektur, für einen Kupplungskopf eines Fahrzeugs und/oder für ein Kupplungsauge eines Anhängers auf Grundlage des Höhenprofils und auf Grundlage eines Fahrzeugmodells des Fahrzeugs zu bestimmen.
Die Steuereinheit kann beispielsweise dazu vorgesehen sein, in einem Fahrassis tenzsystem eines Fahrzeugs ein assistiertes oder autonomes Ankuppeln des Anhä ngers auf unregelmäßigem Untergrund zu realisieren, wobei insbesondere der Unter grund um das Fahrzeug und ggf. auch der Anhänger erkannt wird und diese Unter grunderkennung als Input für das Fahrassistenzsystem verwendet wird.
Die erfindungsgemäße Steuereinheit ist in der Lage, einen Anhänger auch im Falle von unebenen Untergründen, z.B. bei Spurrillen in der Straße, autonom an ein Fahr zeug anzukuppeln, bzw. beim Ankuppeln zu assistieren. Ein möglicher Einsatzfall sind hierbei kleine Zugmaschinen mit nur kleinen Rädern, die besonders von Un ebenheiten im Untergrund, zum Beispiel Spurrillen in einer Straße, betroffen sind. Damit kann vermieden werden, die Fahrbahn neu zu betonieren und so die Uneben heiten aufzufüllen, was meist aufwendig und kostenintensiv ist. Die Sensordaten zur Bestimmung des Höhenprofils können beispielsweise Daten ei ner Stereokamera, eines Lidarsensors, eines Ultraschallsensors, oder eines Radar sensors umfassen.
Gemäß einem Ausführungsbeispiel ist die Steuereinheit dazu eingerichtet, auf Grundlage der Positionskorrektur die Position eines Kupplungskopfes des Fahrzeugs und/oder die Position eines Kupplungsauges des Anhängers zu verändern, beispiels weise einen Kupplungskopf des Fahrzeugs und/oder ein Kupplungsauge des Anhä ngers nach oben bzw. nach unten zu verschieben. Dies hat den Vorteil, dass durch Berücksichtigung von Bodenunebenheiten ein autonomes und/oder assistiertes Kup peln eines Anhängers verbessert wird. Insbesondere kommt auch bei Bodenuneben heiten nach der Positionskorrektur das Kupplungsauge über dem Kopplungskopf zu liegen, so dass das autonome und/oder assistierte Kuppeln erfolgreich ablaufen kann.
Gemäß einem Ausführungsbeispiel ist die Steuereinheit dazu eingerichtet, eine Punktwolke, die Daten eines oder mehrerer Sensoren umfasst, zur Erfassung des Höhenprofils zu nutzen.
Gemäß einem Ausführungsbeispiel ist die Steuereinheit dazu eingerichtet, eine Un tergrundkarte zu erzeugen, welche Zellen umfasst und wobei in jede Zelle der Unter grundkarte eine Höheninformation umfasst. Beispielsweise wird der Untergrund im gesamten Sichtfeld der Sensoren erfasst werden, oder, alternativ, wird der Unter grund nur in einem vordefinierten Bereich vor dem Anhänger erfasst, den ungefähr die Ausmaße des Fahrzeugs besitzt. Die Größe der Zellen der Untergrundkarte kann beispielsweise auf Basis der Größe der Räder des Fahrzeugs und/oder der Granula- rität des Untergrunds gewählt werden.
Gemäß einem Ausführungsbeispiel ist die Steuereinheit dazu eingerichtet, das Hö henprofil mittels Spline-Interpolation zu approximieren.
Gemäß einem Ausführungsbeispiel ist die Steuereinheit dazu eingerichtet, den Ort des Kupplungsauge des Anhängers auf Basis von Sensordaten zu bestimmen. Die Sensordaten zur Bestimmung des Ortes des Kupplungsauges des Anhängers kön nen beispielsweise Daten einer Stereokamera, eines Lidarsensors, eines Ultra schallsensors, oder eines Radarsensors sein.
Gemäß einem Ausführungsbeispiel ist die Steuereinheit dazu eingerichtet, eine zwei dimensionale Trajektorie für das Fahrzeug zum Ort des Kupplungsauges des Anhä ngers zu planen.
Gemäß einem Ausführungsbeispiel ist die Steuereinheit dazu eingerichtet, auf Basis der zweidimensionalen Trajektorie und dem Fahrzeugmodell eine Endposition der Räder des Fahrzeugs zu bestimmen und auf Basis der Endposition der Räder des Fahrzeugs und des Höhenprofils die Positionskorrektur zu bestimmen.
Gemäß einem Ausführungsbeispiel ist die Steuereinheit dazu eingerichtet, basierend auf der bestimmten zweidimensionalen T rajektorie, Fahrempfehlungen für einen Fah rer auszugeben, Fahranweisungen für autonomes Fahren zu erstellen, oder die Posi tionskorrektur an eine Hydraulik des Anhängers zu senden.
Gemäß einem Ausführungsbeispiel ist die Steuereinheit dazu eingerichtet, mehrere zweidimensionale Trajektorien für das Fahrzeug zum Ort des Kupplungsauge des Anhängers zu planen und jene zweidimensionale Trajektorie zu bestimmen und eine Optimierung der Trajektorie anhand einer oder mehrerer Randbedingungen auszu führen. Beispielsweise kann für die jeweiligen zweidimensionalen Trajektorien die er wartete Positionskorrektur bestimmt werden und als Randbedingung verwendet wer den, dass die erwartete Positionskorrektur für die auszuwählende Trajektorie minimal wird.
Die Randbedingung kann beispielsweise auch darin bestehen, dass die Endposition des Fahrzeugs auf der optimierten Trajektorie keine auf einer Belegungskarte als „belegt“ markierte Orte belegt.
Die Ausführungsbeispiele zeigen auch ein Verfahren, umfassend das Erfassen eines Untergrunds auf Basis von Sensordaten und das Bestimmen einer Positionskorrektur für einen Kupplungskopf eines Fahrzeugs und/oder für ein Kupplungsauge eines An hängers aufgrund des Untergrunds und eines Fahrzeugmodells des Fahrzeugs. Bei dem Verfahren kann es sich beispielsweise um ein computerimplementiertes Verfah ren handeln. Die Ausführungsbeispiele betreffen auch ein Computerprogramm, das Programminstruktionen umfasst, um das Verfahren auszuführen.
Im Folgenden wird die Erfindung anhand der in den Figuren dargestellten Ausfüh rungsformen beispielhaft erläutert.
FIG. 1 zeigt ein Blockdiagramm, das schematisch die Konfiguration eines Fahrzeugs 100 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt.
FIG. 2a zeigt ein Blockdiagramm, das eine beispielhafte Konfiguration einer Steuer einheit für autonomes Fahren.
FIG. 2b zeigt schematisch eine erfindungsgemäße Sensorverarbeitungseinheit.
FIG. 3 zeigt einen beispielhaften Umfeldsensor, hier insbesondere einen Radar sensor.
Die FIG. 4a, b, c zeigen die Gewinnung einer zweidimensionalen Rasterkarte aus Detektionsereignissen eines Radarsensors.
FIG. 5 zeigt ein Fahrzeug und einen Anhänger aus der Vogelperspektive.
FIG. 6 zeigt das Fahrzeug aus FIG. 5 an drei verschiedenen Stellen mit unterschiedli chem Boden-Höhenprofil.
FIG. 7 zeigt die Szenerie aus FIG. 5 im Seitenprofil.
FIG. 8 zeigt das Anheben des Anhängers um eine von der erfindungsgemäßen Steu ereinheit bestimmten Höhenkorrektur. FIG. 9 zeigt ein Flussdiagramm für ein Ausführungsbeispiel eines erfindungsgemä ßen Verfahrens, wie es in der erfindungsgemäßen Steuereinheit implementierte wer den kann.
FIG. 10a zeigt eine Untergrunderfassung durch einen Umfeldsensor auf/in einem er findungsgemäßen Fahrzeug zur Bestimmung einer Höhenkorrektur für einen erfin dungsgemäßen (autonomen) Anhänger-Assistenten, wie sie in einem Ausführungs beispiel der vorliegenden Erfindung zum Einsatz kommt.
FIG. 10b zeigt das Ergebnis der Untergrunderfassung aus FIG. 10a.
Die FIG. 11a, 11 b und 11c zeigen, wie eine Untergrundkarte basierend auf der ge messenen Punktwolke aus FIG. 10b erzeugt werden kann.
FIG. 12a zeigt ein Fahrzeugmodell, bei dem das Fahrzeug als ein starrer Körper be handelt wird.
FIG. 12b zeigt, wie mit Hilfe eines Fahrzeugmodells und basierend auf einer 2D- Trajektorie die Endpositionen der Räder bestimmt werden können und wie basierend auf der Endpositionen der Räder die Lage der Kupplung bestimmt werden kann.
FIG. 13a zeigt eine Verwendung der ermittelten Höhenkorrektur in einem Fahrassis tenzsystem.
FIG. 13b zeigt eine Verwendung der ermittelten Höhenkorrektur in einem autonomen Ankuppel-Assistenten.
FIG. 14 zeigt eine Untergrunderfassung durch einen Umfeldsensor auf/in einem erfin dungsgemäßen Fahrzeug zur Bestimmung einer Höhenkorrektur für einen erfin dungsgemäßen (autonomen) Anhänger-Assistenten, wie sie in einem Ausführungs beispiel der vorliegenden Erfindung zum Einsatz kommt, wobei nur ein bestimmter vordefinierter Bereich für die Untergrunderfassung verwendet wird FIG. 15 zeigt den erfindungsgemäßen Einsatz eines Lidarsensors an/auf einem Fahr zeug mit Sichtbereich zur Untergrunderfassung.
FIG. 16 zeigt ein Flussdiagramm für ein weiteres Ausführungsbeispiel eines erfin dungsgemäßen Verfahrens, wie es in der erfindungsgemäßen Steuereinheit imple mentierte werden kann.
FIG. 17 zeigt ein Flussdiagramm für ein weiteres Ausführungsbeispiel eines erfin dungsgemäßen Verfahrens, wie es in der erfindungsgemäßen Steuereinheit imple mentierte werden kann.
Im Folgenden werden Ausführungsbeispiele der vorliegenden Erfindung anhand der folgenden Figuren beschrieben.
FIG. 1 zeigt ein Blockdiagramm, das schematisch die Konfiguration eines Fahrzeugs 100 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt. Das Fahrzeug 100 umfasst mehrere elektronische Komponenten, welche via eines Fahr zeugkommunikationsnetzwerks 128 miteinander verbunden sind. Das Fahrzeugkom munikationsnetzwerk 128 kann beispielsweise ein im Fahrzeug eingebautes stan dardgemäßes Fahrzeugkommunikationsnetzwerk wie etwa ein CAN-Bus (Controller Area Network), ein LIN-Bus (Local Interconnect Network), ein LAN-Bus (Local Area Network), ein MOST-Bus und/oder ein FlexRay-Bus oder dergleichen sein.
In dem in FIG. 1 dargestellten Beispiel umfasst das Fahrzeug 100 eine Steuereinheit 112 (ECU 1 ) für ein Bremssystem. Das Bremssystem bezieht sich dabei auf die Komponenten, die ein Bremsen des Fahrzeugs ermöglichen. Das Fahrzeug 100 um fasst ferner eine Steuereinheit 114 (ECU 2), die einen Antriebsstrang steuert. Der Antriebsstrang bezieht sich dabei auf die Antriebskomponenten des Fahrzeugs. Der Antriebsstrang kann einen Motor, ein Getriebe, eine Antriebs-/ Propellerwelle, ein Dif ferential und einen Achsantrieb umfassen. Das Fahrzeug 100 umfasst ferner eine Steuereinheit 116 (ECU 3), die ein Lenksystem steuert. Das Lenksystem bezieht sich dabei auf die Komponenten, die eine Richtungssteuerung des Fahrzeugs ermögli chen. Die Steuereinheiten 112, 114, 116 118, und 122 können ferner von den oben ge nannten Fahrzeugsubsystemen Fahrzeugbetriebsparameter empfangen, die diese mittels einem oder mehreren Fahrzeugsensoren erfassen. Fahrzeugsensoren sind vorzugsweise solche Sensoren, die einen Zustand des Fahrzeugs oder einen Zu stand von Fahrzeugteilen erfassen, insbesondere deren Bewegungszustand. Die Sensoren können einen Fahrgeschwindigkeitssensor, einen Gierraten-Sensor, einen Beschleunigungssensor, einen Lenkradwinkelsensor, einen Fahrzeuglastsensor, Temperatursensoren, Drucksensoren und dergleichen umfassen. Beispielsweise können auch Sensoren entlang der Bremsleitung angeordnet sein, um Signale aus zugeben, die den Bremsflüssigkeitsdruck an verschiedenen Stellen entlang der hyd raulischen Bremsleitung anzeigen. Andere Sensoren in der Nähe des Rades können vorgesehen sein, welche die Radgeschwindigkeit und den Bremsdruck erfassen, der am Rad aufgebracht wird.
Die Fahrzeugsensorik des Fahrzeugs 100 des Ausführungsbeispiels umfasst darüber hinaus eine Satellitennavigationseinheit 124 (GNSS-Einheit). Es sei darauf hingewie sen, dass im Kontext der vorliegenden Erfindung GNSS stellvertretend für sämtliche Globale Navigationssatellitensysteme (GNSS) steht, wie z.B. GPS, AGPS, Galileo, GLONASS (Russland), Compass (China), IRNSS (Indien) und dergleichen.
Das Fahrzeug 100 umfasst ferner ein oder mehrere Sensoren, welche dazu ausge legt sind, das Umfeld des Fahrzeugs zu erfassen, wobei die Sensoren am Fahrzeug montiert sind und Bilder des Umfelds des Fahrzeugs erfassen, oder Objekte oder Zu stände im Umfeld des Fahrzeugs erkennen. Die Umfeldsensoren 126 umfassen ins besondere Kameras, Radar-Sensoren, Lidar-Sensoren, Ultraschall-Sensoren oder dergleichen. Die Umfeldsensoren 126 können innerhalb des Fahrzeugs oder außer halb des Fahrzeugs (z. B. an der Außenseite des Fahrzeugs) angeordnet sein. Bei spielsweise kann eine Kamera in einem vorderen Bereich des Fahrzeugs 100 zur Aufnahme von Bildern eines vor dem Fahrzeug befindlichen Bereichs vorgesehen sein. Das Fahrzeug 100 umfasst ferner eine Sensorverarbeitungseinheit 122 (ECU 4), die in der Lage ist empfangene Sensordaten zu verarbeiten und den anderen Steuerein heiten 112, 114, 116 und 118, sowie anderen Fahrzeugsystemen zur Verfügung zu stellen. Diese Verarbeitung von Sensordaten kann die Fusion von Daten verschiede ner Sensoren bzw. Sensortypen, das Berechnen und Einträgen von Belegungswahr scheinlichkeiten in eine Gridkarte, das Filtern bzw. Komprimieren von Sensordaten, Objekterkennung innerhalb der Sensordaten, und/oder ähnliches umfassen.
Das Fahrzeug 1 umfasst ferner eine Steuereinheit für autonomes Fahren 118 (ECU 5). Diese Steuereinheit ist in der Lage eine Trajektorienplanung durchzuführen und Fahranweisungen zu erstellen und zur Ausführung anzuweisen. Die Steuereinheit für autonomes Fahren 118 (ECU 5) ist hierbei eingerichtet, um verarbeitete Sensordaten von der Sensorverarbeitungseinheit 122 oder unverarbeitete bzw. nur vorverarbeitete Sensordaten von den Umfeldsensoren 126 zu empfangen. Auf Basis dieser Sensor daten kann die Steuereinheit für autonomes Fahren 118 (ECU 5) die Trajektorienpla nung durchführen.
Das Fahrzeug 100 umfasst ferner eine Benutzerschnittstelle 132 (HMI = Human-Ma- chine-lnterface), die einem Fahrzeuginsassen ermöglicht, mit einem oder mehreren Fahrzeugsystemen in Interaktion zu stehen. Diese Benutzerschnittstelle 132 (bei spielsweise eine GUI = Graphical User Interface) kann eine elektronische Anzeige zum Ausgeben einer Graphik, von Symbolen und/oder Inhalt in Textform, und eine Eingabeschnittstelle zum Empfangen einer Eingabe (beispielsweise manuelle Ein gabe, Spracheingabe und Eingabe durch Gesten, Kopf- oder Augenbewegungen) umfassen. Die Eingabeschnittstelle kann beispielsweise Tastaturen, Schalter, berüh rungsempfindliche Bildschirme (Touchscreen), Eye-T racker und dergleichen umfas sen.
FIG. 2a zeigt ein Blockdiagramm, das eine beispielhafte Konfiguration einer Steuer einheit für autonomes Fahren 118 (ECU 5). Bei der Steuereinheit kann es sich bei spielsweise um ein Steuergerät (electronic control unit ECU oder Electronic Control Module ECM) handeln. Die gezeigte Steuereinheit umfasst einen Prozessor 41. Bei dem Prozessor 41 kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Verarbeitungseinheit (CPU = Central Processing Unit) handeln, die Programminstruktionen ausführt. Der Prozessor der Steuereinheit für autonomes Fahren 118 ist beispielsweise dazu aus gelegt, beim Fahren je nach geplantem Fahrmanöver, basierend auf Informationen eines sensorbasierten Umfeldmodells, eine optimale Fahrposition (beispielsweise Folgeabstand oder Lateralversatz zu einem Vorausfahrzeug oder dergleichen) unter Berücksichtigung des zulässigen Fahrspurbereichs zu berechnen. Die errechnete op timale Fahrposition wird zur Steuerung von Aktuatoren der Fahrzeugsubsysteme 112, 114 und 116, beispielsweise von Brems-, Antriebs- und/oder Lenkaktuatoren, verwendet. Ferner ist der Prozessor der Steuereinheit ausgelegt, um eine Trajektori- enplanung zum Ort eines Kupplungsauges an einem Anhänger durchzuführen und zur Ausführung anzuweisen.
Die Steuereinheit für autonomes Fahren 118 umfasst ferner einen Speicher und eine Eingabe/ Ausgabe-Schnittstelle. Der Speicher kann aus einem oder mehreren nicht flüchtigen computerlesbaren Medien bestehen und umfasst mindestens einen Pro grammspeicherbereich und einen Datenspeicherbereich. Der Programmspeicherbe reich und der Datenspeicherbereich können Kombinationen von verschiedenen Arten von Speicher umfassen, beispielsweise von einem Nur-Lese-Speicher 43 (ROM = Read-Only Memory) und einem Direktzugriffsspeicher 42 (RAM = Random Access Memory) (z. B. dynamischer RAM ("DRAM"), synchron DRAM ("SDRAM") usw.). Fer ner kann die Steuereinheit für autonomes Fahren 118 ein externes Speicherlaufwerk 44, wie beispielsweise ein externes Festplattenlaufwerk (hard disk drive: HDD), ein Flashspeicher-Laufwerk oder ein nicht flüchtiges Festkörperlaufwerk (solid state drive: SSD) umfassen. Die Steuereinheit für autonomes Fahren 118 umfasst ferner eine Kommunikationsschnittstelle 45, über welche die Steuereinheit mit dem Fahr zeugkommunikationsnetzwerk (128 in FIG. 2) kommunizieren kann.
FIG. 2b zeigt schematisch eine erfindungsgemäße Sensorverarbeitungseinheit 122. Alle Bestandteile der Sensorverarbeitungseinheit 122 sind über ein internes Kommu nikationsnetzwerk 46 verbunden. Die Sensorverarbeitungseinheit 122 umfasst einen anwendungsspezifischen integrierten Schaltkreis 47 (ASIC oder auch FPGA). Bei dem integrierten Schaltkreis 47 kann es sich beispielsweise um eine GPU oder ein GPU Cluster handeln. Der integrierte Schaltkreis 47 ist derart konfiguriert, dass es Sensordaten in Form einer Punktwolke in eine Belegungsrasterkarte für das Sichtfeld des Sensors überführt. Die Sensorverarbeitungseinheit 122 umfasst einen Prozessor 41 . Bei dem Prozessor 41 kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Verarbeitungseinheit (CPU = Central Processing Unit) handeln, die Pro gramminstruktionen ausführt, um beispielsweise Informationen für die Verarbeitung durch den integrierten Schaltkreis 47 aufzubereiten. Die Sensorverarbeitungseinheit 122 umfasst ferner einen Speicher und eine Eingabe/ Ausgabe-Schnittstelle. Der Speicher kann aus einem oder mehreren nichtflüchtigen computerlesbaren Medien bestehen und umfasst mindestens einen Programmspeicherbereich und einen Da tenspeicherbereich. Der Programmspeicherbereich und der Datenspeicherbereich können Kombinationen von verschiedenen Arten von Speicher umfassen, beispiels weise von einem Nur-Lese-Speicher 43 (ROM = Read-Only Memory) und einem Di rektzugriffsspeicher 42 (RAM = Random Access Memory) (z. B. dynamischer RAM ("DRAM"), synchron DRAM ("SDRAM") usw.). Ferner kann die Sensorverarbeitungs einheit 122 ein externes Speicherlaufwerk 44, wie beispielsweise ein externes Fest plattenlaufwerk (hard disk drive: HDD), ein Flashspeicher-Laufwerk oder ein nicht flüchtiges Festkörperlaufwerk (solid state drive: SSD) umfassen. Die Sensorverarbei tungseinheit 122 umfasst ferner eine Kommunikationsschnittstelle 45, über welche die Steuereinheit mit dem Fahrzeugkommunikationsnetzwerk (128 in FIG. 2) kommu nizieren kann.
FIG. 3 zeigt einen beispielhaften Umfeldsensor 126, hier insbesondere einen Radar sensor. Der Radarsensor 126 ist ein Erkennungs- und Ortungsgerät auf der Basis elektromagnetischer Wellen im Radiofrequenzbereich. Der Radarsensor sendet ein Signal als gebündelte elektromagnetische Welle aus (Primärsignal) und empfängt die von Objekten reflektierten Echos (Sekundärsignal). Über daraus erhaltene Informati onen wie beispielsweise Laufzeitunterschiede werden Informationen über Detektions ereignisse
Figure imgf000014_0001
Rί(tί,fί, qi, Vi i) gewonnen, wie beispielsweise Azimutwinkel f£ und Elevationswin kel 0j, welche die Richtung zum Zielpunkt beschreiben, die Entfernung r£ zum Ziel punkt, die Radialgeschwindigkeit und die Lateralgeschwindigkeit /£, welche die Relativbewegung zwischen Radarsensor 126 und Zielpunkt P£ beschreiben. Die Rela tivbewegung kann beispielsweise durch den Doppler-Effekt aus der Verschiebung der Frequenz des reflektierten Signals berechnet werden. Durch Aneinanderreihen einzelner Messungen kann ggf. die Wegstrecke und die Absolutgeschwindigkeit ei nes Zielpunktes P£ ermittelt werden. Indem eine große Menge an Zielpunkten P£ (ge nannt „Punktwolke“) in ihrer Gesamtheit ausgewertet werden, können Zielpunkte P£ als zu einem eindeutigen Objekt zugehörig identifiziert werden (Clustering-Verfah- ren), Konturen von Objekten erkannt werden und bei ausreichender Auflösung des Radarsensors 126 Bilder der Objekte gewonnen werden.
Die FIG. 4a, b, c zeigen die Gewinnung einer zweidimensionalen Rasterkarte aus Detektionsereignissen eines Radarsensors. In FIG. 4a liegt ein Sichtbereich 31 eines Radarsensors vor dem Fahrzeug 100, auf dem der Radarsensor installiert ist. Im Sichtbereich 31 des Radarsensors befindet sich ein Objekt 32. Die am Objekt 32 re flektierten Radarwellen erzeugen im Radarsensor Detektionsereignisse, welche der Radarsensor in Form von Zielpunkten P£ ausgibt. Die Gesamtheit der auf diese Weise detektierten Detektionsereignisse liegen in Form einer Punktwolke vor, welche in einer Auswerteeinheit beim Sensor (oder auch extern) ausgewertet werden kann.
FIG. 4b zeigt eine zweidimensionale Rasterkarte 33 (auch kurz „Grid“ genannt), welche so ausgelegt ist, dass sie den Sichtbereich 31 des Radarsensors kartesisch in Zellen gliedert. Durch die dem Fachmann bekannte Transformation der Ortskoordina ten aus dem Polarkoordinatensystem des Radarsensors in das kartesische Koordina tensystem der Rasterkarte 33 kann jeder Zielpunkt P£ eindeutig einer Zelle der Ras terkarte zugeordnet werden. In FIG. 4c sind jene Zellen, in denen jeweils mindestens ein Zielpunkt P£ enthalten ist, schraffiert dargestellt, wogegen jene Zellen, denen keine Zielpunkte P£ zugeordnet werden können, nicht schraffiert dargestellt sind.
In eine derartige Rasterkarte werden sämtliche Sensordaten, hauptsächlich Punkwol ken eingetragen. Mittels bekannter Techniken der Sensorfusion können in eine der artige Rasterkarte die Detektionsereignisse und daraus abgeleiteten Informationen mehrerer Umgebungssensoren eingeordnet werden. Dabei kann es sich auch um die Detektionsereignisse von Sensoren unterschiedlicher Sensortypen handeln, beispielsweise Radarsensoren, Lidarsensoren, Ultraschall oder dergleichen. Sind die Sensoren um das Fahrzeug verteilt, kann solch eine Rasterkarte die Umgebung rund um das Fahrzeug abbilden.
Durch Unterscheidung statischer und dynamischer Ziele kann die statische Umge bung des Fahrzeugs 100 erkannt werden. Auf diese Weise, und/oder durch Heran ziehen von Informationen über die Eigenbewegung des Fahrzeugs 100 (auch „Ego- Bewegung“ genannt), wie beispielsweise der Fahrzeuggeschwindigkeit und der Fahrzeugposition (siehe GNSS 124 in FIG. 1 ) können die Informationen der Rasterkarte 33 aus den FIG. 4a, b, c in eine akkumulierte Rasterkarte eingetragen werden. Das Fahrzeug 100 bewegt sich auf dieser akkumulierten Rasterkarte und die neue Posi tion des Fahrzeugs 100 wird kontinuierlich neu berechnet. Die Sensordaten werden in jedem Messzyklus mit einer kompensierten Fahrzeugposition in die akkumulierte Rasterkarte eingetragen. Mit diesem Ansatz können Sensordaten über die Zeit akku muliert und statistisch (im Bezug zu einem „globalen“ Koordinatensystem) erfasst und ausgewertet werden.
Die hier gezeigte Technik wird in den im Folgenden vorgestellten Ausführungsbei spielen auf verschiedene Art und Weise eingesetzt. Zum einen können die in FIG. 3 und Fig. 4a, 4b und 4c zur Erstellung einer Belegungs-Gridkarte des Umfelds eines Fahrzeugs mit erfindungsgemäßer Steuereinheit (118 in FIG. 1 ) herangezogen wer den (siehe Schritt S10 in FIG. 13) oder aber unter Verwendung eines Lidar-Sensors, dessen Blickfeld auf den Boden ausgerichtet wird (siehe auch FIG. 15) zur Erstellung eines Höhenprofils des Untergrunds um und hinter dem Fahrzeug verwendet werden.
FIG. 5 zeigt ein Fahrzeug 100 und einen Anhänger 200 aus der Vogelperspektive.
Die erfindungsgemäße Steuereinheit (118 in FIG. 1 ) ist ausgelegt, um eine Trajekto- rie Ti in der x-y-Ebene für das Fahrzeug 100 zu planen, sodass durch das Abfahren der Trajektorie Ti erreicht wird, dass der Kupplungskopf 101 des Fahrzeugs 100 di rekt unter dem Kupplungsauge 201 des Anhängers lokalisiert ist, sodass ein einfa ches Absenken des Kupplungsarms 202 des Anhängers zum Ankuppeln des Anhä ngers 200 an das Fahrzeug 100 führt. Techniken zum Planen einer 2D-Trajektorie für ein Fahrzeug, um an ein mittels Sensoren erkanntem Kupplungsauge eines Anhängers heranzufahren, wie sie in dieser Erfindung zum Einsatz kommen, können aus den im Stand der Technik genannten Dokumenten insbesondere aber der Veröf fentlichung US 2016/052548 A1 entnommen werden. Insbesondere der Grand-Plain- Reconstruction Algorithmus zur Trajektorienplanung sei an dieser Stelle erwähnt.
In einem Ausführungsbeispiel der vorliegenden Erfindung ist die Höhe des Kupp lungsauges 201 und die Höhe des Kupplungsarms 202 fernsteuerbar, zum Beispiel, weil der Anhänger 200 über eine Hydraulik-Steuerung oder einen Elektromotor zur Steuerung der Kupplungsarm- bzw. Kupplungsaugenhöhe verfügt. Gleichzeitig kann das Fahrzeug 100 dazu ausgelegt sein, die Höhe des Kupplungskopfes 101 zu vari ieren, zum Beispiel durch eine autonome Einstellung der Dämpferhöhen des Stoß dämpfers. In diesem Ausführungsbeispiel ist die Steuereinheit (118 in Fl G. 1) ferner dazu ausgelegt, ein Signal an den Anhänger 200 zu senden, um ein Ankuppeln des Anhängers 200 an das Fahrzeug 100 auszulösen.
FIG. 6 zeigt das Fahrzeug 100 aus FIG. 5 an drei verschiedenen Stellen mit unter schiedlichem Boden-Höhenprofil. In einem ersten Fall 100‘ steht das Fahrzeug 100 auf ebenem Untergrund. In einem zweiten Fall 100“ steht das Fahrzeug 100 auf ei nem unebenen Untergrund, sodass das Fahrzeug 100 von vorne betrachtet nach links geneigt steht. In einem dritten Fall 100“ steht das Fahrzeug 100 auf einem un ebenen Untergrund, sodass das Fahrzeug 100 von vorne betrachtet nach rechts ge neigt steht.
Wie in FIG. 6 gezeigt, ist das Bodenprofil eines Untergrunds, zum Beispiel ein Feld weg oder eine Straße, nicht immer eben. Im gezeigten Fall variiert die Höhe der Ele mente der Kupplung zueinander abhängig von der Lage des Fahrzeugs 100 und des hier nicht gezeigten Anhängers (200 in FIG. 5) auf dem unebenen Untergrund. Dies kann im Falle einer 2D-Trajektoreinplanung, wie bereits in FIG. 5 angedeutet, zu Fehlern führen, da sich aufgrund des unebenen Untergrundes der Kupplungskopf (101 in FIG. 5) des Fahrzeugs oder das Kupplungsauge (201 in FIG. 5) des Anhä ngers nicht an der geplanten Stelle befindet. Dies würde dann zu einem nicht-erfolg reichen Ankupplungsversuch führen. Aus diesem Grund ist die erfindungsgemäße Steuereinheit (118 in FIG. 1 ) ferner eingerichtet um von der Sensorverarbeitungseinheit (122 in FIG. 1 ) Untergrundinformationen zu empfangen und basierend auf diesen Untergrundinformationen die Trajektorienplanung durchzu führen.
FIG. 7 zeigt die Szenerie aus FIG. 5 im Seitenprofil. Wie dargestellt, stehen das Fahrzeug 100 und der Anhänger 200 auf unebenem Untergrund. Diese Unebenhei ten im Untergrund würde bei einer simplen 2D-Trajektorienplanung, die die Trajekto- rie Ti ausschließlich in der x-y-Ebene plant, dazu führen, dass der Kupplungskopf 101 des Fahrzeugs am Ende der Trajektorie Ti zu hoch positioniert ist, als dass das Kupplungsauge 201 des Anhängers darüber gekuppelt werden könnte.
Aus diesem Grund bestimmt die erfindungsgemäße Steuereinheit (118 in FIG. 1 ) zu sätzlich zu der bereits weiter oben unter Bezug auf FIG. 5 beschriebenen 2D-Trajek- torie in der x-y-Ebene eine Positionskorrektur, beispielsweise eine Höhenkorrektur in z-Richtung um die entweder der Kupplungsarm 202 des Anhängers gehoben, oder der Kupplungskopf 101 des Fahrzeugs abgesenkt werden sollte, um ein Ankuppeln des Anhängers 200 an das Fahrzeug 100 zu ermöglichen. Zusätzlich zur Höhenkor rektur könnte die Steuereinheit aus eine seitliche Positionskorrektur ermitteln. Da im normalen Straßenverkehr die Bodenunebenheiten in der Regel gering ausfallen, kön nen solch seitliche Positionskorrekturen auch vernachlässigt werden. In den Ausfüh rungsbeispielen unten wird das Prinzip der Erfindung deswegen anhand einer Hö henkorrektur genauer beschrieben. Der Fachmann kann das Prinzip der Höhenkor rektur aber gleichermaßen auch auf seitliche Positionskorrekturen anwenden, die beispielsweise bei der Trajektorienplanung oder beim Kupplungsvorgang berücksich tigt werden können.
FIG. 8 zeigt das Anheben des Anhängers 200 um eine von der erfindungsgemäßen Steuereinheit (118 in FIG. 1) bestimmten Höhenkorrektur Ah. Im gezeigten Fall ist das Fahrzeug 100 aus FIG. 7, bereits an den Anhänger 200 herangefahren, sodass sich das Fahrzeug am Ende der bestimmten 2D-Trajektorie befindet. Wie dargestellt, befindet sich aufgrund des unebenen Untergrundes der Kupplungskopf 101 des Fahrzeugs 100 zu hoch, um das Kupplungsauge 201 des Anhängers darüber zu kop peln. Aus diesem Grund sollte der Anhänger um eine Höhenkorrektur Ah nach oben bewegt werden, sodass sich der Anhänger 200 in einer Position 200' befindet. Dann kann der Anhänger 200 an das Fahrzeug 100 angekuppelt werden. Ein solches ge zeigtes Anheben des Anhängers 200 kann zum Beispiel durch das manuelle hoch kurbeln des Kupplungsarms, durch ein Einstellen der Dämpferhöhen der Stoßdämp fer im Fahrzeug 100 oder durch eine im Anhänger 200 verbaute Hydraulik-Einrich tung erreicht werden.
FIG. 9 zeigt ein Flussdiagramm für ein Ausführungsbeispiel eines erfindungsgemä ßen Verfahrens, wie es in der erfindungsgemäßen Steuereinheit (118 in FIG. 1 ) im plementierte werden kann.
In einem ersten Schritt S1 wird der Ort des Kupplungsauges (201 in FIG. 7 und FIG. 8) des Anhängers basierend auf den Daten einer Stereokamera bestimmt. Alternativ können die Sensordaten der Stereokamera auch durch weitere Sensordaten ergänzt werden, zum Beispiel durch Bilddaten weiterer Kameras, Daten von einem oder meh reren Radar- bzw. Lidarsensoren, Daten von einem oder mehreren Ultraschallsenso ren, o.ä. Methoden, um ein Objekt und dessen Ort basierend auf Sensordaten, wie Kamerabildern, Radar-/Lidardaten, o.ä. zu bestimmen sind dem Fachmann hinrei chend bekannt und können zum Beispiel aus den weiter oben als Stand der Technik gewürdigten Dokumenten, insbesondere Dokument US 2016/052548 A1 , entnom men werden.
In einem zweiten Schritt S2 wird der Untergrund um das Fahrzeug 100 herum und hinter dem Fahrzeug 100, insbesondere der Untergrund zwischen Fahrzeug 100 und Anhänger 200, erfasst. Diese Untergrunderfassung liefert als Ergebnis eine 3D- Punktwolke, die den Untergrund abbildet, und gelingt auf der Basis der Sensordaten eines in FIG. 15 gezeigten Lidarsensors (127 in FIG. 15). Ergänzende bzw. alternativ können weitere Sensoren verwendet werden, sowohl solche deren Sensordaten be reits zur Bestimmung des Kupplungsauge-Ortes verwendet wurden als auch zusätzli che Sensoren, wie zum Beispiel einem Ultraschallsensor zur Bestimmung eines Un tergrundprofiles. Das Erfassen des Untergrunds in einer Punktwolke wird weiter un ten mit Bezug auf FIG. 10a und FIG. 10b näher beschrieben. In einem dritten Schritt S3 wird die Punktwolke, die den Untergrund abbildet, verwen det, um eine Untergrundkarte zu erstellen. Bei dieser Untergrundkarte handelt es sich um eine Gridkarte, in die basierend auf der Punktwolke mittlere gemessene Hö henwerte eingetragen werden. Das Erzeugen einer Untergrundkarte auf Basis einer 3D-Punktwolke wird weiter unten mit Bezug auf FIG. 11a, FIG. 11b und FIG. 11c nä her beschrieben.
In einem vierten Schritt S4 wird anhand der Untergrundkarte festgestellt, ob sich Hin dernisse auf dem Untergrund befinden. Je nach Fahrzeug werden „positive“ Hindernisse oder negative“ Hindernisse bestimmt. Zum Beispiel erfasst die Steuereinheit (118 in FIG. 1) ein Hindernis als "positives" Hindernis (Hindernisse höher als der Un tergrund; Steine, usw.), wenn die Höhe der Unebenheit (Hindernis) höher als eine vorgegebene maximal tolerierte Höhe ist. Wenn die Karte eine negative Höhe anzeigt (Hindernisse tiefer als der Untergrund; Schlaglöcher, usw.), kann die Steuereinheit (118 in FIG. 1 ) die negative Höhe als "negatives" Hindernis erfassen, wenn der nega tive Höhenbereich breiter ist als die Radbreite der Räder des Fahrzeugs (100 in FIG. 5-9). Alternativ kann die Breite des "negativen" Hindernisses vordefiniert werden, z.B. kann die Breite mit 10 cm vordefiniert werden.
In einem fünften Schritt S5, wird eine 2D-Trajektorie (x-y-Ebene) zu dem in Schritt S1 bestimmten Kupplungsauges (201 in FIG. 7 und FIG. 8) des Anhängers 200 geplant. Zu diesem Zweck kann beispielsweise der Grand-Plain-Reconstruction Algorithmus eingesetzt werden, oder eine Technik, wie sie in den weiter oben als Stand der Tech nik gewürdigten Dokumenten beschrieben wird, insbesondere Dokument US 2016/052548 A1 . Die Bestimmung der 2D-Trajektorie (x-y-Ebene) basiert auch auf der Information über das Vorhandensein von Hindernissen (Schritt S4). Eine 2D- Trajektorie (x-y-Ebene) wird bestimmt, wenn sich keine Hindernisse in der Trajektorie befinden.
In einem sechsten Schritt S6 wird der erwartete Fahrschlauch des Fahrzeugs (100 in FIG. 5-9) und die erwarteten Orte der Räder des Fahrzeugs am Ende der ermittelten Trajektorie bestimmt. Hierfür wird ein Modell des Fahrzeugs auf den Endpunkt der Trajektorie projiziert, sodass sich der finale Ort der Räder des Fahrzeugs, ergibt. Da die Kamera den Untergrund abtastet, kann die Endposition der Räder des Fahr zeugs (100 in FIG. 7 und FIG. 8) geschätzt werden, bevor die Räder ihre Endposition tatsächlich erreichen. Diese Schätzung der Endposition ist zur rechtzeitigen und ak kuraten Schätzung der Lage der Kupplung-Elemente ausreichend, bevor das Fahr zeug die gesamte geplante 2D-Trajektorie abgefahren ist.
In einem siebten Schritt S7 wird eine Schätzung der benötigten Positionskorrektur (Ah in FIG. 8) für beispielsweise den Kupplungskopf 101 des Fahrzeugs und/oder für das Kupplungsauge 201 des Anhängers (bzw. dessen Relativposition) basierend auf der Untergrundkarte aus Schritt S3 und der Position der Räder aus Schritt S6 be stimmt. Hierfür kann beispielsweise die zukünftige Lage des Fahrzeugs (100 in FIG.
7 und FIG. 8) und des zugehörigen Kupplungskopfes (101 in FIG. 7 und FIG. 8) auf dem parametrisierten Untergrund basierend auf einem Modell des Fahrzeugs be rechnet werden, wie dies unten unter Bezug auf die Fig. 12a und 12b näher be schrieben ist.
Im Fall von beispielsweise Spurrillen im Untergrund, je nach geplanter Trajektorie, wird das Fahrzeug z.B. keine, eine oder beider der Spurrillen „treffen“. Die Höhe das Untergrunds sollte also möglichst genau für die Position der Räder zum Anhänge punkt ausgewertet werden. Unter der Berücksichtigung der (vorher bestimmten) 2D- Trajektorie, der erwarteten Endposition der Räder des Fahrzeugs, der erwarteten Endposition des Fahrzeugs in Kombination mit dem Ergebnis der Untergrunderfas sung, sowie der (geschätzten) Lage des Fahrzeugs und der Lage des Kupplungskop fes des Fahrzeugs, sowie des erkannten Ortes des Kupplungsauges des Anhänger kann eine Positionskorrektur, beispielsweise eine Höhen korrektur, geschätzt werden, die benötigt wird, um den Anhänger auch auf dem erkannten, unebenen Untergrund erfolgreich an das Fahrzeug anzukuppeln.
Schritt S6, also die Bestimmung der Endpositionen der Räder, und Schritt S7 die Schätzung einer benötigten Positionskorrektur basierend auf der Untergrundkarte und der Endpositionen der Räder werden weiter unten mit Bezug auf FIG. 12 näher beschrieben. FIG. 10a zeigt eine Untergrunderfassung durch einen Umfeldsensor 126 auf/in einem erfindungsgemäßen Fahrzeug 100 zur Bestimmung einer Positionskorrektur für einen erfindungsgemäßen (autonomen) Anhänger-Assistenten, wie sie in einem Ausfüh rungsbeispiel der vorliegenden Erfindung zum Einsatz kommt. Gezeigt ist das erfin dungsgemäße Fahrzeug 100 auf dem mindestens ein Umfelderfassungssensor 126 montiert ist. Bei dem Umfelderfassungssensor 126 handelt es sich um einen Lidar- sensor. Es kann sich ferner auch um eine Stereokamera oder einen Radarsensor handeln. Alternativ zur Darstellung in FIG. 10a kann der Sensor/können die Senso ren auch im Chassis des Fahrzeugs 100 verbaut sein.
Der Umfeldsensor 126 besitz hierbei ein Sichtfeld 126-1, wobei der Untergrund vor dem Anhänger 200 innerhalb des Sichtfelds 126-1.
FIG. 10b zeigt das Ergebnis der Untergrunderfassung aus FIG. 10a. Wie bereits wei ter oben mit Bezug auf FIG. 3 und FIG. 4a erfasst der Sensor einzelne Punkte einer Oberfläche in seinem Blickfeld und akkumuliert diese Punkte zu einer Punktwolke 126-2. Wie dargestellt umfasst die Punktwolke 126-2 sowohl Punkte der Oberfläche des Anhängers 200, also auch des Untergrunds. Aus diesem Grund wird zunächst eine Auswahl der detektierten Punktwolke getroffen, sodass nur Punkte im Bereich 126-3, die zum Untergrund gehören, im Folgenden weiter verarbeitet werden. Eine Möglichkeit, um die Punkte des Bereichs 126-3 auszuwählen, ist eine maximale Höhe H zu definieren, z. Bsp. H = 50 cm, und nur solche Punkte zu berücksichtigen deren z-Koordinate kleiner als die maximale Höhe H ist. Ferner können auch Struk turerkennungsalgorithmen oder ein künstliches neuronales Netz zur Auswahl der Punkte, die zum Untergrund gehören, verwendet werden.
Die Fig. 11a, 11b und 11c zeigen wie eine Untergrundkarte basierend auf der ge messenen Punktwolke aus FIG. 10b erzeugt werden kann. Zur Vereinfachung wird hier nur ein zweidimensionales (x-z-Ebene) Beispiel gezeigt. Im Allgemeinen kann jedoch auch eine zweidimensionales Gridkarte verwendet, und somit eine dreidimen sionale Untergrundkarte erzeugt werden. Zuerst wird eine Gridkarte mit jeweils gleich großen Gridzellen Zi bis Z15 über die ge messene Punktwolke gelegt. Dann werden aus den z-Werten der Punkte innerhalb einer Gridzelle eine mittlere Höhe bestimmt und in die Gridzellen eingetragen, so- dass die Gridkarte nun ortspezifische Höheninformation enthält und daher als Unter grundkarte verwendet werden kann.
FIG. 11a zeigt eine Punktwolke, als Ergebnis einer Lidar-Messung zur Untergrunder kennung. Im gezeigten Fall wurde die Punktwolke (126-2 in FIG. 10b) bereits derart ausgewertet, dass alle Punkte der gezeigten Punktwolke zum erfassten Untergrund (126-3 in FIG. 10b) gehören und nicht zum Anhänger 200 oder zu anderen Objekten.
Wie bereits in FIG. 3 erklärt, besteht die Punktwolke aus einer Anzahl Detektionen P1 bis Pj. Jeder Punkt entsprich einem gemessenen Reflektionspunkt auf der Oberflä- ches des erfassten Untergrunds. Daher kann die gezeigte Punktwolke als Repräsen tation des Untergrunds verstanden werden.
FIG. 11b zeigt das Legen einer Gridkarte mit Gridzellen Z1 bis Z15 über die gemes sene Punktwolke aus FIG. 11a. Wie gezeigt, wird über die Punktwolke eine Gridkarte mit jeweils gleichgroßen Gridzellen Z1 bis Z15 gelegt, sodass Punkte der Punktwolke den einzelnen Gridzellen zugeordnet werden können.
Die Größe der einzelnen Gridzellen wird hierbei so gewählt, dass die Fläche der ein zelnen Gridzellen kleiner als die Auflagefläche der Räder des Fahrzeugs (100 in FIG. 7 und FIG. 8) auf dem Boden ist. Ferner kann die Granularität des Bodens (Steine, Erde, Asphalt, ...), messbar durch beispielsweise eine Kamera, bei der Wahl der Gridzellengröße berücksichtigt werden.
FIG. 11c zeigt das Einträgen mittlerer Höhenwerte in die Gridzellen Z1 bis Z15. Hier bei werden alle z-Koordinaten z; von Punkten Pj, deren x-Koordinaten innerhalb einer Gridzelle Zi liegen, gemittelt, sodass eine mittlere Höhe
Figure imgf000023_0001
bestimmt wird, wobei N die Gesamtzahl aller Punkte innerhalb der Gridzelle bezeich net. Diese mittleren Höhen hi bis his werden dann in die zugehörigen Gridzellen Zi bis Z15 eingetragen. Dadurch enthält die Gridkarte nun ortsspezifische Höheninfor mationen und kann als Untergrundkarte verwendet werden.
Fig. 12a zeigt ein beispielhaftes Fahrzeugmodell, bei dem das Fahrzeug als ein star rer Körper behandelt wird. Das Fahrzeugmodell stellt eine Repräsentation des Fahr zeugs (100 in vorherigen Figuren) dar. Das Fahrzeugmodell umfasst einen Referenz punkt PO, der als Ursprung eines Fahrzeugkoordinatensystems behandelt werden kann. Im abgebildeten Fall ist der Referenzpunkt PO am Heck des Fahrzeugs lokali siert, er kann jedoch auch im Schwerpunkt des Fahrzeugs oder in der Front des Fahrzeugs lokalisiert sein. Bezüglich der 2D-Trajektorienplanung wird der Ort des Referenzpunktes als Ort des Fahrzeugs gewertet. Wenn das Fahrzeug autonom die geplante 2D-Trajektorie abfährt, so bedeutet dies, dass sich der Referenzpunkt ent lang der geplanten Trajektorie bewegt.
Das Fahrzeugmodell umfasst ferner vier Vektoren p , r2, r3, die die Positionen P1 , P2, P3 und P4 der vier Räder relativ zum Referenzpunkt PO angeben. Das Fahrzeug modell umfasst ferner einen Orientierungsvektor O, der die Orientierung des Fahr zeugs in der x-y-Ebene angibt. Das Fahrzeugmodell umfasst ferner einen Vektor K der die Position PK des Kupplungskopfes relativ zum Referenzpunkt PO angibt. Das Fahrzeugmodell umfasst ferner einen Vektor S der die Position PS des Schwerpunk tes des Fahrzeugs relativ zum Referenzpunkt PO angibt.
Gemäß diesem beispielhaften starren Fahrzeugmodell weisen die Ortsvektoren p , r2, r3, r4 der Räder und der Ortsvektor K des Kupplungskopfes eine unveränderliche Länge auf und können nur gemeinsam gedreht werden, d.h. sie liegen in derselben Ebene.
In weiteren Ausführungsformen des Fahrzeugmodells können komplexere Fahrzeug modelle zum Einsatz kommen, die beispielsweise auch die Stoßdämpfer des Fahr zeugs modellieren. In solch ein komplexeres Modell können weitere Fahrzeugparameter eingehen. Beispielweise könnten die Vektoren n , r2, r3, G4, K, S,
O auch von Sensordaten, den Ergebnissen einer numerischen Simulation, o.ä. ab- hängen. Die Längen und Richtungen der Vektoren p , r2, r3, G4, K, S, O können auch beispielsweise mit Hilfe einer Look-up-Tabelle, einer Computer-Simulation oder mit tels Regression oder Interpolation aus gespeicherten Werten bestimmt werden.
FIG. 12b zeigt, wie mit Hilfe eines Fahrzeugmodells und basierend auf der bereits er mittelten 2D-Trajektorie Ti die Endpositionen der Räder bestimmt werden können und wie basierend auf der Endpositionen der Räder die Lage der Kupplung PK be stimmt werden kann. Wie bereits erwähnt wird die geplante 2D-Trajektorie Ti derart abgefahren, dass sich der Referenzpunkt PO des Fahrzeugs entlang dieser Trajekto- rie bewegt. Durch den Endpunkt der Trajektorie Ti ist gleichzeitig die Endposition POe des Referenzpunktes PO des Fahrzeugs am Ende der Trajektorie Ti im Koordi natensystem der Untergrundkarte bekannt. Hierdurch kann basierend auf den vom Fahrzeugmodell zur Verfügung gestellten Ortsvektoren p , r2, r3 und die Endpositio nen der Räder bestimmt werden.
Anschließend kann aus den Gridzellen der Untergrundkarte, auf denen die Endpositi onen der Räder jeweils liegen, hier die Gridzellen Z7, 10, ZQ,M, ZIO,9 und Z11, 13, die Höhe dieser Gridzellen ausgelesen werden, um die voraussichtliche Höhe aller vier Räder zu bestimmen. Aus diesen Höheninformationen kann mit Hilfe des Ortsvektors K, den das Fahrzeugmodell berechnet, die voraussichtliche Lage des Kupplungskop fes und somit eine benötigte Höhenkorrektur bestimmt werden. Im Falle des starren Fahrzeugmodells kann dabei eines der vier Räder in der Luft hängen. Welches Rad in der Luft hängt, bzw. die gesamte dreidimensionale Lage des Fahrzeugs auf dem Untergrund, kann bestimmt werden, indem berechnet wird, in welcher möglichen Lage des Fahrzeugs auf dem Untergrund der Schwerpunkt PS des Fahrzeugmodells am tiefsten liegt. Ist die Lage des Fahrzeugs auf dem Untergrund bestimmt, kann mit Hilfe des Vektors K die Position des Kupplungskopfes des Fahrzeugs bestimmt wer den.
Basierend auf der z-Koordinate zreai der Position des Kupplungskopfes des Fahr zeugs und der z-Koordinate zEbene hypothetischen Position des Kupplungskopfes auf einem perfekt ebenen Untergrund, der ebenfalls mithilfe des Fahrzeugmodells be stimmt werden kann, kann dann eine Positionskorrektur, hier zur Vereinfachung der Darstellung eine Höhenkorrektur Ah, bestimmt werden:
DL zreai Z hene
FIG. 13a zeigt eine Verwendung der ermittelten Höhenkorrektur in einem Fahrassis tenzsystem. Nachdem in einem Schritt S16, der die in FIG. 9 gezeigten Schritte S1 bis S6 umfasst, in welchem die benötigte Höhenkorrektur basierend auf Untergrun derkennung und Trajektorienplanung ermittelt wurden, empfiehlt die Steuereinheit (118 in FIG. 1 ) in einem Schritt S7 basierend auf der bestimmten 2D-Trajektorie an den Fahrer des Fahrzeugs (100 in FIG. 7 und FIG. 8) einen Lenkwinkel, zum Beispiel in dem Fahrer auf einem Display eine entsprechende Gradzahl angezeigt wird.
In einem nächsten Schritt S8, wird auf Basis der bestimmten Höhenkorrektur (Ah in FIG. 8) ein Höhenkorrekturvorschlag an den Fahrer ausgegeben, zum Beispiel indem dem Fahrer auf einem Display eine entsprechende Angabe in Form von Zahlen an zeigt, die der benötigten Höhenkorrektur in Zentimetern entsprechen.
FIG. 13b zeigt eine Verwendung der ermittelten Höhenkorrektur in einem autonomen Ankuppel-Assistenten. Nachdem in einem Schritt S16, der die in FIG. 9 gezeigten Schritte S1 bis S6 umfasst, in welchem die benötigte Höhenkorrektur basierend auf Untergrunderkennung und Trajektorienplanung ermittelt wurden, sendet die Steuer einheit (118 in FIG.1) eine entsprechende Fahranweisung an andere Systeme des Fahrzeugs, zum Beispiel eine Steuereinheit für autonomes Fahren (112, 114, 116, 122 in FIG. 1) und/oder an den Anhänger (200 in FIG. 7 und FIG. 8) um das Abfah ren der geplanten 2D-Trajektorie zu realisieren.
In einem nächsten Schritt S8, exekutiert die Steuereinheit (118 in FIG.1) auf Basis der bestimmten Höhenkorrektur (Ah in FIG. 8) eine Höhenänderung des Kupplungs kopfes (101 in FIG. 7) zum Beispiel durch eine Höhenänderung der Stoßdämpfer, da mit nicht der Fahrer des Fahrzeugs diese Höhenkorrektur manuell vornehmen muss. Um die Dämpferhöhen des Stoßdämpfers einzustellen, wartet die erfindungsgemäße Steuereinheit (118 in FIG. 1) bis das Fahrzeug (100 in FIG. 8) in den Abtastbereich (162-2 in FIG. 8) vor dem Anhänger (200 in FIG. 8) einfährt bzw. wenn das Fahrzeug (100 in FIG. 8) das Kupplungsauge (201 in FIG. 8) erreicht und entscheidet dann, ob die geschätzte Höhenkorrektur von der Fahrzeugseite alleine kompensiert werden kann oder nicht. Kann die geschätzte Höhenkorrektur von der Fahrzeugseite voraus sichtlich nicht allein kompensiert werden, so schickt die erfindungsgemäße Steuer einheit (118 in FIG. 1) eine entsprechende Warnung an den Fahrer und/oder weitere Fahrzeugsysteme. In diesem Fall sollte entweder der Anhänger autonom gegensteu ern, oder der Fahrer sollte manuell am Anhänger durch Drehung der Kurbel korrigie ren. Kann die geschätzte Höhenkorrektur von der Fahrzeugseite voraussichtlich kom pensiert werden, so schickt die erfindungsgemäße Steuereinheit (118 in FIG. 1 ) eine Bestätigung, dass nach der Korrektur am Anhänger die Höhendifferenz von Fahr zeug kompensiert werden, kann an den Fahrer und andere Fahrzeugsysteme und weist das Absenken/An heben der Dämpferhöhen des Stoßdämpfers zur Ausführung an.
FIG. 14 zeigt eine Untergrunderfassung durch einen Umfeldsensor 126 auf/in einem erfindungsgemäßen Fahrzeug 100 zur Bestimmung einer Höhen korrektur für einen erfindungsgemäßen (autonomen) Anhänger-Assistenten, wie sie in einem Ausfüh rungsbeispiel der vorliegenden Erfindung zum Einsatz kommt, wobei nur ein be stimmter vordefinierter Bereich 126-4 für die Untergrunderfassung verwendet wird. Das Fahrzeug 100 nimmt auf dem Untergrund einen Bereich der Länge L100 ein.
Aus diesem Grund ist vor allem ein Bereich 126-4 vor dem Anhänger 200 interessant für den erfindungsgemäßen Anhänger-Assistenten, da dieser ebenfalls ungefähr die Ausdehnung des Fahrzeugs 100 besitzt und indem komplett die erwartete zukünftige Lage L100‘ des Fahrzeugs während des Ankuppelns liegt. Zur Reduktion der analy sierten und verarbeiteten Sensordatenmenge kann daher die Umfelderfassung und Umfeldparametrisierung auf den Bereich 126-4, insbesondere den Boden innerhalb des Bereichs 126-4, eingeschränkt werden.
Zur Umfelderfassung wird im Umkreis des Anhängers um das Kupplungsauge 201 des Anhängers 200 der Bereich 126-4 vorgegeben. Dieser Bereich wird derart gewählt, dass eine vollständige Abdeckung der Menge allermöglichen Positionen des Fahrzeugs 100 vordem Anhänger 200 mit unterschiedlichen Standwinkeln zum Anhänger 200 abgedeckt sind.
Vor allem die genaue Rekonstruktion des Untergrunds in diesem Bereich ist interes sant, um die genaue Lage des Fahrzeuges 100 zum Anhänger 200 je nach Unter grund-Topographie schätzen zu können. Orte außerhalb dieses Bereichs 126-4 sind weniger relevant für die Schätzung und Betrachtung der Endlage des Fahrzeugs 100 zum Anhänger 200.
Der Bereich 126-4 kann wie folgt bestimmt werden: Entweder in einer „langen“ Variante, wobei sich der Bereich 126-4 als Länge vom Kupplungskopf 101 des Fahr zeugs 100 bis zu den vorderen Rädern des Fahrzeugs plus eine gewisse Toleranz länge ergibt oder in einer „kurzen“ Variante, wobei sich der Bereich 126-4 als Länge vom Kupplungskopf 101 des Fahrzeugs 100 bis zu den hinteren Rädern des Fahr zeugs plus eine gewisse Toleranzlänge ergibt. Die Verwendung der „langen Variante“ als Bereichsdefinition besitzt den Vorteil verbesserter Genauigkeit, während die Verwendung der „kurzen Variante“ als Bereichsdefinition den Vorteil geringeren Rechenaufwandes besitzt.
Die Umfelderfassung kann am Anfang des Ankuppelvorgangs als optionale Eingabe der Trajektorienplanung oder kontinuierlich, als übliche Assistenten im Betriebsmo dus, zur live-Hinderniserkennung stattfinden.
Viele heutige Fahrzeuge verfügen bereits über diverse Sensorsets zur Erfassung des Umfelds, zum Beispiel Sensoren zum Parken. Solche Sensoren zum Parken sind meistens horizontal ausgerichtet, wie der hier gezeigte Umfelderfassungssensor 126. Diese Ausrichtung reicht jedoch häufig nicht aus, um den Untergrund um das Fahr zeug herum ausreichend zu erfassen. Aus diesem Grund verwendet die vorliegende Erfindung Sensor-Sets, deren Sichtfeld explizit auch den Untergrund miterfassen kann. Ein Beispiel für einen solchen Sensor, bzw. dessen Montage zeigt FIG. 10. Alternativ zur Verwendung bereits im Fahrzeug verfügbarerer Sensoren können auch zusätzliche Kameras / 3D Sensoren für eine gezielte Untergrunderfassung in das Fahrzeug 100 eingebaut werden, zum Beispiel ein Sensorset aus einer oder mehre ren Kameras und mindestens einem Fahrzeug-Odometrie-System deren Daten mit Hilfe eines Structure Form Motion Algorithmus ausgewertet werden.
Falls eine Sensor-Messung nicht ausreichend Daten zur zuverlässigen Untergrunder fassung liefert, können auch die Messdaten mehrerer Messungen unter Einbezie hung der registrierten Fahrzeugbewegung akkumuliert werden. Zum Beispiel sollte im Falle eines 2D Lidar-Sensors dieser rückwärts und zum Boden ausgerichtet wer den und dessen Daten Stück für Stuck akkumuliert werden.
FIG. 15 zeigt den erfindungsgemäßen Einsatz eines Lidarsensors 127 an/auf einem Fahrzeug 100 mit Sichtbereich 127-1 zur Untergrunderfassung. Der Lidarsensor 127 wird derart auf/an dem Fahrzeug 100 befestigt, sodass sein Sichtfeld 127-1 den Un tergrund hinter dem Fahrzeug 100 erfasst. Da Lidarsensoren über eine gute Ab standserfassung verfügen, kann beim gezeigten Einsatz der Untergrund genau abge tastet werden und diese Sensordaten für eine weitere Untergrundparametrisierung zur Verfügung gestellt werden.
Es sei an dieser Stelle angemerkt, dass die Erfassung des Umfeldes und die Erfas sung des Untergrundes nicht zwangsläufig mit den gleichen Sensoren erfolgen müs sen. Eventuell reicht eine Monokamera nicht, um beide Funktionen zuverlässig zu er füllen. Weitere Möglichkeiten wäre z.B. die Erfassung von Untergrund und Umfeld mittels einer oder mehrerer Stereo-Kameras oder mit Hilfe von 3D Punkt-gebende Sensoren, wie z.Bsp. einem Velodyne-Sensor, oder aber die Untergrund-Erfassung mittels Mono-Kamera auszuführen, während die Umfelderfassung mittels Parkplatz- Sensoren erfolgt.
Falls eine Messung des Lidarsensors 127 nicht ausreichend Daten zur zuverlässigen Untergrunderfassung liefert, können auch die Messdaten mehrerer Messungen unter Einbeziehung der registrierten Fahrzeugbewegung akkumuliert werden. Es sei ferner angemerkt, dass die Erfassung des Untergrunds kontinuierlich erfolgt, sobald sich das Fahrzeug zu bewegen beginnt und noch kein Anhänger erfasst wurde. Sobald jedoch, das Kupplungsauge des Anhängers im Sichtfeld liegt, wird die Erfassung des Untergrunds pausiert bzw. die Darstellung des Untergrunds wird nicht mehr erweitert. Je länger sich das Fahrzeug zum Kupplungsauge des Anhängers be wegt oder je näher das Fahrzeug zum Anhänger steht, desto akkurater ist oft die Darstellung des Untergrunds.
Alternativ zur Nutzung einer Gridkarte mit mittleren Höhen zur Untergrundparametri sierung kann ein mathematisches 3D-Höhenprofil auch mittels Spline-Interpolation aus den einzelnen Punkte der 3D-Punktwolke berechnet und zur Untergrundpara metrisierung genutzt werden.
FIG. 16 zeigt ein Flussdiagramm für ein weiteres Ausführungsbeispiel eines erfin dungsgemäßes Verfahren, wie es in der erfindungsgemäßen Steuereinheit (118 in FIG. 1 ) implementierte werden kann. Schritte, die sich im Vergleich zu FIG. 9 nicht verändert haben, werden mit dem gleichen Bezugszeichen bezeichnet und daher nicht näher erläutert.
Im Unterschied zu dem in FIG. 9 gezeigten Verfahren wird in dem in FIG. 16 gezeig ten Verfahren werden Schritt S6 und Schritt S4 mit einer Feedbackschleife verbun den, sodass mehrfach Trajektorien bestimmt und für diese Trajektorien jedes Mal die erwartete Höhenkorrektur bestimmt wird. Dies ermöglicht eine Trajektorienplanung mit der Randbedingung, dass die Höhenkorrektur minimiert werden soll.
Dies resultiert in einem modifizierten Schritt S4‘, indem die 2D-Trajektorie derart ge neriert bzw. aus allen möglichen Trajektorien derart ausgewählt wird, dass eine oder mehrere vorher definierte Randbedingungen erfüllt werden, z.Bsp. dass der Endwin kel des Fahrzeugs zum Anhänger 15° beträgt oder dass alle Räder des Fahrzeugs außerhalb erkannter Spurrillen liegen. Insbesondere wird als Randbedingung ver wendet, dass die benötigte Höhenkorrektur zwischen Kupplungskopf des Fahrzeugs und Kupplungsauge des Anhängers minimiert wird. Es werden also innerhalb eines vordefinierten, maximalen Offsets zum Fahrzeug bei minimaler vordefinierter Abtastung des Untergrunds verschiedene Trajektorien generiert, wobei entweder alle möglichen Trajektorien aufgestellt werden (rechenintensiv) oder iterativ Trajektorien bestimmt werden, wobei beginnend mit der kürzesten Trajektorie nach und nach Trajektorien bestimmt werden, die eine kleinere Höhenkorrektur benötigen. Hierbei wird die Höhenkorrektur unter Berücksichtigung der Darstellung des Untergrundes mit der Trajektorie und der Fahrzeug-Geometrie bestimmt, wobei aus diesen Größen die Lage des Kupplungskopfes des Fahrzeugs über dem Boden und die Lage des Kupplungsauges des Anhängers über den Boden bestimmt werden aus deren Sub traktion die benötigte Höhenkorrektur berechnet werden kann.
FIG. 17 zeigt ein Flussdiagramm für ein weiteres Ausführungsbeispiel eines erfin dungsgemäßen Verfahrens, wie es in der erfindungsgemäßen Steuereinheit (118 in FIG. 1 ) implementierte werden kann. Schritte, die sich im Vergleich zu FIG. 9 und/o der FIG. 16 nicht verändert haben, werden mit dem gleichen Bezugszeichen bezeich net und daher nicht näher erläutert.
Im Vergleich zu dem in FIG. 16 gezeigten Verfahren, wird vor den ersten Schritt S1 ein zusätzlicher Schritt S10 vorgeschoben, der das Erstellen einer Belegungskarte des Umfelds beinhaltet. Bei einer Belegungskarte handelt es sich um eine oft zweidi mensionale Karte des Umfelds des Fahrzeugs, die in einzelne Zellen („Grids“) eingeteilt ist, wobei jeder Zelle ein Wert 1 (belegt) oder 0 (frei) zugewiesen wird. Alternativ kann in jede Zelle auch die Wahrscheinlichkeit eingetragen werden, dass die jewei lige Zelle belegt ist. Eine solche Belegungskarte kann zum Beispiel basierend auf Radar- oder Lidar-Sensordaten erstellt werden. Techniken, zur Erstellung einer Bele gungskarte basierend auf Sensordaten, zum Beispiel Radar- oder Lidar-Sensorda ten, sind dem Fachmann hinreichend bekannt und werden daher hier nicht weiter er läutert.
Die in Schritt S7 erstellte Belegungskarte wird in einem modifizierten Trajektorienpla- nungsschritt S4“ verwendet, in dem zusätzlich zur Minimierung der geschätzten Hö henkorrektur als weitere Randbedingung zur 2D-Trajektorienplanung das Vermeiden belegter Gridzellen verwendet wird. In Schritt S4“ wird als zusätzliche Randbedingung zur Trajektorienplanung die Bedingung verwendet, dass das Fahrzeug kein Hindernis aus der Belegungskarte treffen soll. Dass folglich das Fahrzeug am Ende der Trajektorie keine Zellen der Belegungskarte belegen soll, die als belegt markiert sind. Hierbei wird das Kupplungsauge des Anhängers selbst als Hindernis betrachtet und als „belegt“ in der Belegungskarte markiert).
Bezuqszeichen
31 Sichtfeld
32 Objekt
33 Grid karte
34 Gridzelle
35 Gridzelle
41 CPU
42 RAM
43 ROM
44 Speicher
45 CAN-IF
46 Kommunikationssystem
47 ASIC
100 Fahrzeug
101 Kupplungskopf des Fahrzeugs
112 ECU 1 Bremssystem
114 ECU 2 Antriebsstrang
116 ECU 3 Lenksystem
118 ECU 5 Anhänger-Assistent
122 ECU 4 Sensorverarbeitung
124 GNSS
125 HMI
126 Umfeldsensoren (Radar, Lidar, Kamera, etc.)
126-1 Sichtfeld des Umfeldsensors 126
126-2 Punktwolke
126-3 Menge an Punkten, die zum Untergrund gehören
126-4 Relevanter Bereich für Umfelderfassung
127 Umfeldsensor (Lidar)
127-1 Sichtfeld des Umfeldsensors 127
L100 Ort des Fahrzeugs
L100‘ Erwarteter Ort des Fahrzeugs
128 Fahrzeugkommunikationssystem 200 Anhänger
201 Kupplungsauge des Anhängers
202 Kupplungsarm des Anhängers
Ti 2D-Trajektorie in x-y-Ebene
Ah Höhenkorrektur
Zi Gridzelle
Z2 Gridzelle
Zs Gridzelle
Z15 Gridzelle hi mittlere Höhe h2 mittlere Höhe h3 mittlere Höhe hl5 mittlere Höhe
PO Referenzpunkt
P1 Ort des ersten Rads
P2 Ort des zweiten Rads
P3 Ort des dritten Rads
P4 Ort des vierten Rads
PK Ort des Kupplungskopfes
O Orientierungsvektor
K Vektor zum Kupplungskopf

Claims

Patentansprüche
1. Steuereinheit (118), die dazu eingerichtet ist, ein Höhenprofil auf Basis von Sensordaten zu erfassen (S2) und eine Positionskorrektur (Ah) für einen Kupplungs kopf (101) eines Fahrzeugs (100) und/oder für ein Kupplungsauge (201) eines Anhä ngers auf Grundlage des Höhenprofils und auf Grundlage eines Fahrzeugmodells des Fahrzeugs (100) zu bestimmen (S6).
2. Steuereinheit (118) nach Anspruch 1 , die dazu eingerichtet ist, auf Grundlage der Positionskorrektur (Ah) die Position eines Kupplungskopfes (101) des Fahrzeugs (100) und/oder die Position eines Kupplungsauges (201 ) des Anhängers (200) zu verändern.
3. Steuereinheit (118) nach einem der vorherigen Ansprüche, die ferner dazu eingerichtet ist, eine Punktwolke (126-2), die Daten eines oder mehrerer Sensoren umfasst, zur Erfassung des Höhenprofils zu nutzen.
4. Steuereinheit (118) nach einem der vorherigen Ansprüche, die ferner dazu eingerichtet ist, eine Untergrundkarte zu erzeugen, welche Gridzellen (Zi, Z2, Z3) um fasst und wobei in jede Zelle der Untergrundkarte eine Höheninformation umfasst.
5. Steuereinheit (118) nach einem der vorherigen Ansprüche, die dazu eingerich tet ist, das Höhenprofil mittels Spline-Interpolation zu approximieren.
6. Steuereinheit (118) nach einem der vorherigen Ansprüche, die ferner dazu eingerichtet ist, den Ort des Kupplungsauge (201) des Anhängers (200) auf Basis von Sensordaten zu bestimmen (S1).
7. Steuereinheit (118) nach einem der vorherigen Ansprüche, die ferner dazu eingerichtet ist, eine zweidimensionale Trajektorie für das Fahrzeug (100) zum Ort des Kupplungsauges (201) des Anhängers (200) zu planen (S4).
8. Steuereinheit (118) nach Anspruch 7, die ferner dazu eingerichtet ist, auf Ba sis der zweidimensionalen Trajektorie und dem Fahrzeugmodell eine Endposition der Räder des Fahrzeugs (100) zu bestimmen (S5) und auf Basis der Endposition der Räder des Fahrzeugs (100) und des Höhenprofils die Positionskorrektur (Ah) zu be stimmen.
9. Steuereinheit (118) nach einem der vorherigen Ansprüche, die ferner dazu eingerichtet ist, basierend auf der bestimmten zweidimensionalen Trajektorie, Fahr empfehlungen für einen Fahrer auszugeben, Fahranweisungen für autonomes Fah ren zu erstellen, oder die Positionskorrektur (Ah) an eine Hydraulik des Anhängers (200) zu senden.
10. Steuereinheit (118) nach einem der vorherigen Ansprüche, die ferner dazu eingerichtet ist, mehrere zweidimensionale Trajektorien für das Fahrzeug (100) zum Ort des Kupplungsauge (201 ) des Anhängers (200) zu planen und jene zweidimensi onale Trajektorie zu bestimmen und eine Optimierung der Trajektorie anhand einer oder mehrerer Randbedingungen auszuführen.
11. Steuereinheit (118) nach Anspruch 10, wobei die Randbedingung darin be steht, dass die Endposition des Fahrzeugs (100) auf der optimierten Trajektorie keine auf einer Belegungskarte als „belegt“ markierte Orte belegt.
12. Verfahren, umfassend das Erfassen (S2) eines Untergrunds auf Basis von Sensordaten und das Bestimmen (S6) einer Positionskorrektur (Ah) für einen Kupp lungskopf (101) eines Fahrzeugs (100) und/oder für ein Kupplungsauge (201) eines Anhängers (200) aufgrund des Untergrunds und eines Fahrzeugmodells des Fahr zeugs (100).
PCT/EP2021/059397 2020-04-30 2021-04-12 Autonomes und/oder assistiertes kuppeln eines anhängers unter berücksichtigung des höhenprofils des untergrunds WO2021219353A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020205468.1 2020-04-30
DE102020205468.1A DE102020205468A1 (de) 2020-04-30 2020-04-30 Autonomes und/oder assistiertes Kuppeln eines Anhängers unter Berücksichtigung des Höhenprofils des Untergrunds

Publications (1)

Publication Number Publication Date
WO2021219353A1 true WO2021219353A1 (de) 2021-11-04

Family

ID=75539312

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/059397 WO2021219353A1 (de) 2020-04-30 2021-04-12 Autonomes und/oder assistiertes kuppeln eines anhängers unter berücksichtigung des höhenprofils des untergrunds

Country Status (2)

Country Link
DE (1) DE102020205468A1 (de)
WO (1) WO2021219353A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021205593B3 (de) 2021-06-01 2022-10-13 Continental Autonomous Mobility Germany GmbH Verfahren und System zur Korrektur einer Position zumindest eines Merkmals in einem Umfeld eines Ego-Fahrzeugs

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6052548A (en) 1998-02-20 2000-04-18 Nec Corporation Belt and cartridge arrangement for storing and replacing a photosensitive belt
US6375831B1 (en) 2000-02-01 2002-04-23 Betzdearborn Inc. Inhibiting deposits in coke oven gas processing equipment
US8061102B2 (en) 2004-01-14 2011-11-22 Tamko Building Products, Inc. Roofing product
US8141397B2 (en) 2009-02-03 2012-03-27 Kabushiki Kaisha Tokai-Rika-Denki-Seisakusho Key regulating device
DE102014110498A1 (de) 2014-07-25 2016-01-28 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zum Unterstützen eines Ankuppelvorgangs eines Kraftfahrzeugs an einen Anhänger
US20160052548A1 (en) 2013-04-26 2016-02-25 Jaguar Land Rover Limited Vehicle Hitch Assistance System
DE112014004554T5 (de) * 2013-11-18 2016-07-07 Robert Bosch Gmbh Draufsicht auf Anhängerkupplungsverbindung
US9457632B1 (en) * 2015-06-11 2016-10-04 Fca Us Llc Collision avoidance method including determining height of an object fixed to a vehicle
US20190084479A1 (en) 2017-09-19 2019-03-21 Ford Global Technologies, Llc Hitch assist system with hitch coupler identification feature and hitch coupler height estimation
EP3477249A1 (de) * 2017-10-25 2019-05-01 Volkswagen Aktiengesellschaft Verfahren zur formerkennung eines objekts in einem aussenbereich eines kraftfahrzeugs sowie kraftfahrzeug
US20190340787A1 (en) * 2018-05-01 2019-11-07 Continental Automotive Systems, Inc. Real-Time Trailer Coupler Localization and Tracking
US20190337343A1 (en) 2018-05-01 2019-11-07 Continental Automotive Systems, Inc. Coupler And Tow-bar Detection For Automated Trailer Hitching Via Cloud Points

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6358123B2 (ja) 2015-02-16 2018-07-18 株式会社デンソー 運転支援装置
US20160375831A1 (en) 2015-06-23 2016-12-29 GM Global Technology Operations LLC Hitching assist with pan/zoom and virtual top-view
DE102015213404A1 (de) 2015-07-16 2017-01-19 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zum Ankuppeln eines Kraftfahrzeugs an einen Anhänger

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6052548A (en) 1998-02-20 2000-04-18 Nec Corporation Belt and cartridge arrangement for storing and replacing a photosensitive belt
US6375831B1 (en) 2000-02-01 2002-04-23 Betzdearborn Inc. Inhibiting deposits in coke oven gas processing equipment
US8061102B2 (en) 2004-01-14 2011-11-22 Tamko Building Products, Inc. Roofing product
US8141397B2 (en) 2009-02-03 2012-03-27 Kabushiki Kaisha Tokai-Rika-Denki-Seisakusho Key regulating device
US20160052548A1 (en) 2013-04-26 2016-02-25 Jaguar Land Rover Limited Vehicle Hitch Assistance System
DE112014004554T5 (de) * 2013-11-18 2016-07-07 Robert Bosch Gmbh Draufsicht auf Anhängerkupplungsverbindung
DE102014110498A1 (de) 2014-07-25 2016-01-28 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zum Unterstützen eines Ankuppelvorgangs eines Kraftfahrzeugs an einen Anhänger
US9457632B1 (en) * 2015-06-11 2016-10-04 Fca Us Llc Collision avoidance method including determining height of an object fixed to a vehicle
US20190084479A1 (en) 2017-09-19 2019-03-21 Ford Global Technologies, Llc Hitch assist system with hitch coupler identification feature and hitch coupler height estimation
EP3477249A1 (de) * 2017-10-25 2019-05-01 Volkswagen Aktiengesellschaft Verfahren zur formerkennung eines objekts in einem aussenbereich eines kraftfahrzeugs sowie kraftfahrzeug
US20190340787A1 (en) * 2018-05-01 2019-11-07 Continental Automotive Systems, Inc. Real-Time Trailer Coupler Localization and Tracking
US20190337343A1 (en) 2018-05-01 2019-11-07 Continental Automotive Systems, Inc. Coupler And Tow-bar Detection For Automated Trailer Hitching Via Cloud Points

Also Published As

Publication number Publication date
DE102020205468A1 (de) 2021-11-04

Similar Documents

Publication Publication Date Title
DE102009012435B4 (de) Vorrichtung und Verfahren zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen
DE102019121140A1 (de) Sensorfusion
DE102019129196A1 (de) Anhängemanöver
DE102006035929B4 (de) Verfahren zum sensorgestützten Unterfahren eines Objekts oder zum Einfahren in ein Objekt mit einem Nutzfahrzeug
DE102018107754A1 (de) Objektverfolgung
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102017120112A1 (de) Tiefenkartenschätzung mit stereobildern
DE102019133703A1 (de) Verfahren und systeme zur herstellung und lokalisierung für ein fahrzeug
DE102015110812A1 (de) Kraftfahrzeugdrohneneinsatzsystem
DE102020113848A1 (de) Ekzentrizitätsbildfusion
DE102019124152A1 (de) Kupplungsunterstützungssystem
DE102019214628A1 (de) Validierung von Umfelderfassung mittels Satelitenbildern und SAR-Radardaten
DE102019126542A1 (de) Lokalisierung einer stationären kamera
DE102014218429A1 (de) Verfahren zur Ausführung einer zumindest teilweise automatisierten Bewegung eines Fahrzeugs innerhalb eines räumlich begrenzten Bereichs
DE102020109279A1 (de) System und verfahren zur anhängerausrichtung
DE112019001078T5 (de) Verfahren und vorrichtung zur fahrzeugsteuerung
DE112017000749T5 (de) Fahrassistenzvorrichtung
DE102020107484A1 (de) Verfahren und vorrichtung zur bestätigung einer radarerfassung
DE102020107339A1 (de) Objektverfolgung für fahrzeuge
DE102020124331A1 (de) Fahrzeugspurkartierung
DE102018129094A1 (de) Niederschlagserkennung
DE102017008569A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems für ein Kraftfahrzeug unter Verwendung einer vektorbasierten und einer gitterbassierten Umgebungskarte sowie Fahrerassistenzsystem
WO2021219353A1 (de) Autonomes und/oder assistiertes kuppeln eines anhängers unter berücksichtigung des höhenprofils des untergrunds
DE102016111079A1 (de) Verfahren zur Objekthöhenerkennung eines Objektes in der Umgebung eines Kraftfahrzeugs sowie Fahrerassistenzsystem
DE102020127205A1 (de) Verfahren und vorrichtung zur ampelpositionierung und -kartierung unter verwendung von durch menschenmengen (crowd-sensed) erfassten daten

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21719088

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 21719088

Country of ref document: EP

Kind code of ref document: A1