WO2023213482A1 - Method and device for generating a surroundings image for a parking assistant of a vehicle - Google Patents

Method and device for generating a surroundings image for a parking assistant of a vehicle Download PDF

Info

Publication number
WO2023213482A1
WO2023213482A1 PCT/EP2023/058624 EP2023058624W WO2023213482A1 WO 2023213482 A1 WO2023213482 A1 WO 2023213482A1 EP 2023058624 W EP2023058624 W EP 2023058624W WO 2023213482 A1 WO2023213482 A1 WO 2023213482A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
environment
identified
image
open spaces
Prior art date
Application number
PCT/EP2023/058624
Other languages
German (de)
French (fr)
Inventor
Philipp Hüger
Carolin Last
Hellward Broszio
Original Assignee
Volkswagen Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen Aktiengesellschaft filed Critical Volkswagen Aktiengesellschaft
Publication of WO2023213482A1 publication Critical patent/WO2023213482A1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking

Definitions

  • the invention relates to a method and a device for generating an image of the surroundings for a parking assistant of a vehicle.
  • the invention is based on the object of improving a method and a device for generating an image of the surroundings for a parking assistant of a vehicle.
  • a method for generating an image of the environment for a parking assistant of a vehicle wherein an environment of the vehicle is recorded at several positions of the vehicle using several environment cameras and the environment is recorded using at least one distance-resolving sensor; wherein, based on captured sensor data from the at least one distance-resolving sensor, open spaces and raised objects in the environment are identified, with a local environment map based on the captured sensor data and/or the identified open spaces and the identified raised objects is generated, with identified open spaces and identified raised objects being linked to corresponding camera images depending on the position and the detection direction, an image signal for an image of the surroundings in a top view of the vehicle being generated by the camera images being at least partially dependent on the position and the detection direction on the open areas and Objects are projected into the environment map, and the generated image signal is provided.
  • a device for generating an image of the surroundings for a parking assistant of a vehicle comprising a plurality of surrounding cameras that are set up to capture the surroundings of the vehicle, at least one distance-resolving sensor that is set up to capture the surroundings, and a data processing device, wherein the data processing device is set up to identify open spaces and raised objects in the environment based on sensor data recorded at several positions of the vehicle from the at least one distance-resolving sensor, to generate a local map of the surrounding area based on the recorded sensor data and / or the identified open spaces and the identified raised objects To link open spaces and identified raised objects with camera images corresponding to them, depending on the position and the direction of detection, to generate an image signal for an image of the surroundings in a top view of the vehicle, and to project the camera images for this purpose onto the open spaces and objects in the surroundings map at least partially depending on the position and depending on the direction of detection, and that to provide generated image signal.
  • the method and the device make it possible to generate an improved camera-based image of the environment in a top view.
  • several positions of the vehicle are taken into account, so that not only an image of the environment for a current position of the vehicle can be provided, but also an image of the environment that goes beyond this.
  • the multiple positions at which the sensor data and the camera images are captured correspond to positions within a parking scenario.
  • a history of the environment can be taken into account, that is, a camera-based image of the environment, especially in a parking scenario, can be built up step by step.
  • the vehicle drives (position by position) through the parking scenario (e.g. parking lot or parking garage), with the image of the environment being generated step by step while driving through the parking scenario.
  • the positions are determined, for example, using the vehicle's own odometry and/or retrieved from the odometry.
  • the surroundings of the vehicle are recorded by means of several surrounding cameras and by means of at least one distance-resolving sensor. This is done in particular at each of the positions.
  • the number and orientation of the environment cameras are selected and arranged in such a way that they can capture a complete image of the environment, in particular all horizontal directions around the vehicle, that is, in particular a horizontal angle of 0 to 360°. Based on the recorded sensor data from the at least one distance-resolving sensor, open spaces and raised objects in the surrounding area are identified.
  • a local environment map is generated based on the recorded sensor data and/or from the identified open spaces and the identified raised objects. This is done in particular using methods known per se.
  • the identified open spaces and the identified raised objects are linked to corresponding camera images depending on the position and detection direction. For example, image elements of the camera images captured at the multiple positions can each be linked to corresponding solid angles of the detection areas of the surrounding cameras and stored at the positions. For each of the positions, this enables the image elements in the captured camera images to be assigned to areas in the environment, whereby the camera images can be projected onto the respective areas.
  • An image signal for an image of the surroundings in a top view of the vehicle is generated by projecting the camera images onto the open spaces and objects in the surroundings map at least partially in a position-dependent and detection direction-dependent manner.
  • the generated image signal is provided, for example as an analog or digital signal or digital data packet.
  • the generated image signal can then be displayed, for example, on a display device of the vehicle in order to support a driver of the vehicle when parking and/or maneuvering
  • the environment image only takes into account a limited area of the environment, that is, that a history only extends back to a specific point in time or to a specific position in the past.
  • the environment map can, for example, be designed in the manner of a shift register, in which sensor data and camera images recorded up to a specific point in time in the past or up to a specific past position of the vehicle are taken into account.
  • it can also be provided to generate the environment image without limitation until a memory space in the data processing device reserved for this purpose is completely occupied.
  • a distance-resolving sensor is in particular an ultrasonic sensor, a radar sensor or a lidar sensor. In principle, several (different) sensors can also be used be used. A number and/or an arrangement and/or an orientation of the at least one distance-resolving sensor is selected in particular such that a horizon angle (eg azimuth) of 0 to 360° can be detected. A vertical angle range (e.g. elevation) lies, for example, in a range from 0 to approximately 30-45°, but can in principle also cover a different range.
  • Open spaces are, for example, areas in the environment for which the distance-resolved sensor data show that no object and/or no reflection above a predetermined vertical angle is detected within a predetermined minimum distance from the sensor.
  • the specified minimum distance is, for example, a few meters (e.g. 10 m, 15 m, etc.) and the specified vertical angle is, for example, 5°, 10° or 15° etc.
  • the local environment map is in particular a three-dimensional environment map, which is described, for example, using a local Cartesian coordinate system.
  • Projecting is done in particular by placing the camera images as textures over the open spaces and raised objects.
  • the projection is carried out in a perspectively correct form, in particular in a position-dependent and detection direction-dependent manner, so that the image of the environment is generated in a top view in such a way that it ideally corresponds to an image of the environment captured from a bird's eye view using a camera.
  • methods known per se such as stitching and/or brightness and/or contrast adjustments, are used in particular to connect different camera images with one another.
  • Parts of the device in particular the data processing device, can be designed individually or collectively as a combination of hardware and software, for example as program code that is executed on a microcontroller or microprocessor. However, it can also be provided that parts are designed individually or combined as an application-specific integrated circuit (ASIC) and/or field-programmable gate array (FPGA).
  • ASIC application-specific integrated circuit
  • FPGA field-programmable gate array
  • a position-dependent ground projection plane is gradually defined for the multiple positions, onto which the camera images linked to the open spaces are projected.
  • Position-dependent means in particular that the ground projection plane is only defined where open spaces have been identified. This allows you to gradually achieve a floor level for the footprint of the vehicle can be defined. This is based on the idea that open spaces do not appear as open spaces from every position of the vehicle, for example because an object obscures the open space when viewed from some positions of the vehicle but not from others. However, if this open space can be detected and identified as an open space from several positions or from at least one position, this is sufficient to take this open space into account as such in the environmental image. In particular, once identified as open spaces, areas in the surrounding area are always identified as open spaces, even if they are not identified as open spaces from other positions.
  • the ground projection plane is defined in particular in a local (for example Cartesian) coordinate system of the environment map.
  • At least one position-dependent projection plane is gradually defined for the multiple positions, onto which the camera images associated with the raised objects are projected.
  • This allows raised objects to be displayed as such in the image of the environment in a top view.
  • this other vehicle is identified as a raised object and a projection plane arranged at this highest position is defined for the other vehicle, for example starting from the highest position of the associated sensor data.
  • This projection plane then ideally coincides with a height of a hood or a roof or a trunk lid (in the case of a hatchback) of the other vehicle.
  • the captured camera images are then projected onto the projection planes defined for this purpose, depending on the position and direction of capture, so that a more realistic representation results in the generated image signal or in the image of the environment in a top view.
  • the at least one projection plane when the at least one projection plane is generated, at least one area is added if the sensor data of the at least one distance-resolving sensor recorded for this area corresponds to another vehicle.
  • a projection plane for a roof of another vehicle can be added, for example, if the height of a roof edge is known in the surrounding map. The roof is then added at the height that coincides with the edge of the roof.
  • other vehicles are detected. This is done using methods known per se, such as pattern recognition and/or machine learning. In principle, other objects can also be recognized and supplemented accordingly.
  • a degree of a respective radial distortion of the surrounding cameras is taken into account when detecting and/or projecting.
  • environmental cameras generally have a large detection range (e.g. 180°)
  • imaging optics are used to image this large detection range on an image sensor.
  • the imaging optics image particularly edge areas in a highly distorted manner (“fisheye optics”), so that, compared to the center of the image, a larger solid angle area is imaged on an equal number of sensor elements of the image sensor of the surrounding cameras. This results in increasing distortion and decreasing resolution radially from the center of the image.
  • a predetermined threshold value for example specified as the number of image elements per solid angle or as a change in the number of image elements per solid angle, etc.
  • a predetermined threshold value for example specified as the number of image elements per solid angle or as a change in the number of image elements per solid angle, etc.
  • the overall resolution of the image of the surroundings can be increased.
  • distortion and/or falsification during projection can be reduced or even prevented.
  • an open area is captured at several positions from different directions, those camera images or areas of these camera images can be used that have the highest resolution or at least a resolution above a predetermined threshold value. Provision can also be made to dynamically adapt such a threshold value depending on the availability of captured camera images.
  • the threshold value can be adjusted dynamically accordingly. In one embodiment it is provided that only a predetermined inner image area of the captured camera images is used during projection. This also allows radial distortion to be taken into account. In particular, this enables a variant that is particularly easy to implement and requires little effort, since the inner image area can be defined once and then only this inner image area is taken into account when projecting.
  • the inner image area can be defined, for example, by specifying a minimum resolution.
  • the image signal for areas of the environment image for which no camera data and/or no sensor data is available due to occlusion is extrapolated and/or estimated based on neighboring areas that border on these areas.
  • an image signal can also be provided for these areas that are not captured by the surrounding cameras.
  • the idea behind this is that, for example, a texture for a roof of another vehicle (or another object) can be supplemented and/or appreciated when a texture of a hood, a tailgate and/or another part of the other vehicle (or the other object) is known.
  • the roof is then supplemented with the help of the extrapolated and/or estimated texture or an extrapolated and/or estimated camera image is projected onto the associated projection plane.
  • identified raised objects are at least partially rendered in the environment, this being done based on the recorded sensor data of the distance-resolving sensor.
  • a corresponding image signal is generated for the at least partially rendered objects.
  • the rendering is carried out in particular using the data processing device and methods known per se.
  • Point cloud of the environment is generated and taken into account when identifying the open spaces and / or the raised objects in the environment.
  • distance-resolving data or three-dimensional data of the environment can also be generated and taken into account based on the captured camera images.
  • SLAM monocular Simultaneous Localization and Mapping
  • DSO Direct Sparse Odometry
  • a vehicle is also created in particular, comprising at least one device according to one of the described embodiments.
  • a vehicle is in particular a motor vehicle.
  • FIG. 1 shows a schematic representation of an embodiment of the device for generating an image of the surroundings for a parking assistant of a vehicle
  • 2 is a schematic representation to illustrate sensor data from distance-resolving sensors
  • FIG. 3 shows a schematic representation to illustrate a floor projection plane and projection planes for raised objects
  • 5a, 5b schematic representations to illustrate an embodiment of the device and the method.
  • the Device 1 shows a schematic representation of an embodiment of the device 1 for generating an environment image 21 for a parking assistant of a vehicle 50.
  • the Device 1 is arranged, for example, in a vehicle 50, in particular a motor vehicle.
  • the device 1 carries out the method described in this disclosure.
  • the device 1 includes several surrounding cameras 2, at least one distance-resolving sensor 3 and a data processing device 4.
  • the device 1 comprises four environment cameras 2 (for the sake of clarity, only one is shown in FIG. 1), which are each designed as 180° cameras with fisheye optics and are arranged on the vehicle 50 in such a way that a horizontal angular range of an environment from 0 to 360 ° around the vehicle 50 can be recorded without gaps.
  • environment cameras 2 for the sake of clarity, only one is shown in FIG. 1
  • the at least one distance-resolving sensor 3 includes, for example, an ultrasonic sensor, a radar sensor and/or a lidar sensor.
  • a number and an arrangement of the distance-resolving sensors 3 are selected in particular such that a horizontal angular range of an environment from 0 to 360 ° around the vehicle 50 can be detected without gaps.
  • the surrounding cameras 2 and the distance-resolving sensors 3 are calibrated to one another, that is, a relative pose (relative position and relative orientation) to one another is known. This enables an assignment of captured sensor data 11 to captured camera images 10.
  • the data processing device 4 includes a computing device 4-1 and a memory 4-2.
  • the data processing device 4 is set up to identify open spaces and raised objects in the environment based on sensor data 11 of the at least one distance-resolving sensor 3 recorded at several positions of the vehicle 50, a local environment map 30 based on the recorded sensor data 11 and/or the identified open spaces and to generate the identified raised objects and to link identified open spaces and identified raised objects in a position-dependent and detection direction-dependent manner with camera images 10 corresponding thereto.
  • the data processing device 4 is set up to generate an image signal 20 for an image of the surroundings 21 in a top view of the vehicle 50, and the camera images 10 for this at least partially depending on the position and the direction of detection towards the open spaces and objects in the surroundings map 30 project, and provide the generated image signal 20.
  • the provided image signal 20 can, for example, be fed to a display device 51 of the vehicle 50 and displayed This can be displayed to support a driver when parking and/or maneuvering.
  • Fig. 2 shows a schematic representation to illustrate sensor data from distance-resolving sensors. Shown is an environment map 30 in which three-dimensionally located data points 31 -x (only some are marked with a reference number) of an ultrasonic sensor (31-1), a radar sensor (31-2) and a lidar sensor (31-3) are stored.
  • the data points 31-x were recorded by the sensors at several positions 32 and stored in the environment map 30.
  • the data points 31-x mark areas where raised objects 41 are arranged in the environment. There are open spaces 40 in the surrounding area between the raised objects 41.
  • the raised objects 41 are identified, for example, by clustering or combining locally clustered data points 31-x.
  • An accumulation is defined here, for example, as a predetermined density of data points 31-x per solid angle or horizontal angle or area in the environment or as a predetermined signal strength of a reflection of the signal emitted by the sensor, which must be achieved so that a raised object 41 is identified. In the area of open spaces 40, however, such accumulations and/or reflections of a signal emitted by the sensor are missing.
  • Camera images are captured for all directions around the vehicle 50 at each of the multiple positions 32.
  • Image information in the captured camera images is linked to the data points 31-x depending on the position and direction of capture.
  • the camera images are (at least partially) projected onto the open spaces 40 and the raised objects 41 in the environment map 30 depending on the position and the detection direction.
  • the captured camera images are (at least partially) placed as textures over the open spaces 40 and the raised objects 41 in a position-dependent and capture direction-dependent manner, thereby generating an environment image 21 in a top view.
  • a position-dependent floor projection plane 33 is gradually defined for the multiple positions 32, onto which the camera images linked to the open spaces 40 are projected.
  • FIG. 3 which basically corresponds to FIG. 2, so that the same reference numbers designate the same features and terms.
  • at least one position-dependent projection plane 34 is gradually defined for the multiple positions 32, onto which the camera images associated with the raised objects 41 are projected.
  • the main aim here is to display the raised objects 41 in the environment image 21 (FIG. 1) in a top view at a different height (direction perpendicular to the standing surface on which the vehicle 50 stands) than the floor projection plane 34.
  • more than a projection plane 34 may be provided in order to be able to image intermediate stages, for example of other vehicles 51 (eg intermediate stages for the rear, roof, hood, loading area, etc.).
  • the at least one projection plane 34 is generated, at least one area is added if the sensor data recorded for this area of the at least one distance-resolving sensor corresponds to another vehicle 51.
  • pattern recognition and/or object recognition can be carried out on the recorded sensor data, in particular on the data points 31-x. If it is recognized based on pattern recognition and/or object recognition that a raised object 41 is another vehicle 51, this prior knowledge can be used to identify more distant areas of the other vehicles 51 for which a density of data points 31-x decreases supplement, for example by adding data points 31-x to reproduce an outer contour of the other vehicle 51.
  • a degree of a respective radial distortion of the surrounding cameras 2 is taken into account when detecting and/or projecting.
  • empirical tests can be carried out and/or optical property parameters 15 (FIG. 1) of an imaging optics (“fisheye optics”) can be read into the data processing device 4.
  • a suitable inner image area can be determined, for example, based on empirical tests and/or simulations.
  • the image signal 20 is extrapolated and/or estimated for areas of the environment image 21 for which no camera data 10 and/or no sensor data 11 are available due to occlusion, starting from neighboring areas that border on these areas.
  • the image signal 20 can be used for the side 35 (FIG. 3) of the raised objects 41 or others facing away from the vehicle 50 Vehicles 51 are supplemented accordingly by image data from camera images 10 that were recorded for the side 36 facing the vehicle 50.
  • a paint color or a texture of the facing sides 36 in captured camera images 10 can be used to extrapolate and/or estimate a texture for the facing side 35.
  • a three-dimensional point cloud of the surroundings is additionally generated and taken into account when identifying the open spaces 40 and/or the raised objects 41 in the surroundings. This is done, for example, using known SLAM methods, for example using the Direct Sparse Odometry (DSO) method.
  • DSO Direct Sparse Odometry
  • FIG. 4 shows a schematic representation of an environment image 21, which corresponds to the generated image signal 20 (FIG. 4 is merely an example and does not correspond in content to the previously shown FIGS. 2 and 3).
  • An improved image of the environment 21 can be provided by the device 1 (FIG. 1) and the method.
  • the environmental image 21 or the image signal 20 shown in FIG. 4 was generated in particular with an embodiment of the device 1 and the method, in which it is provided that only a predetermined inner image area of the captured camera images 10 is used during projection.
  • a direct comparison between an embodiment in which external areas of the camera images 10 were also used, that is to say also radially distorted areas due to fisheye optics, and the surrounding image 21 shown in FIG. 4 is shown in FIGS. 5a and 5b.
  • FIGS. 5a and 5b A direct comparison between an embodiment in which external areas of the camera images 10 were also used, that is to say also radially distorted areas due to fisheye optics, and the surrounding image 21 shown in FIG. 4 is shown in FIGS. 5a and 5b.
  • Fig. 5a it can be clearly seen that due to the use of the radially distorted outer image areas of the camera images 10, other vehicles 51 appear strongly distorted in the surrounding image 21. However, this is not the case with the other vehicles 51, which are shown in FIG particularly laterally restricted).
  • Device environment camera distance-resolving sensor data processing device -1 computing device -2 memory 0 camera image 1 sensor data 5 optical property parameters 0 image signal 1 environment image 0 local environment map 1-1 data point (ultrasonic sensor) 1-2 data point (radar sensor) 1-3 data point (lidar sensor) 2 position 3 floor projection plane 4 projection plane 5 facing away side 6 facing side 0 open space 1 raised object 0 vehicle 1 display device

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Image Processing (AREA)

Abstract

The invention relates to a method for generating a surroundings image (21) for a parking assistant of a vehicle (50), in which method the surroundings of the vehicle (50) is captured at a plurality of positions (32) of the vehicle (50) by means of a plurality of surroundings cameras (2), the surroundings is captured by means of at least one range-resolution sensor (3); open spaces (40) and raised objects (41) in the surroundings are identified on the basis of captured sensor data (11) from the at least one range-resolution sensor (3), a local surroundings map (30) is generated on the basis of the captured sensor data (11) and/or the identified open spaces (40) and the identified raised objects (41), identified open spaces (40) and identified raised objects (41) being linked, according to the position and to the capture direction, to camera images (10) corresponding to the identified open spaces and the identified raised objects, an image signal (20) for a surroundings image (21) in the top view of the vehicle (50) is generated by projecting the camera images (10) for this purpose onto the open spaces (40) and the objects (41) in the surroundings map (30) at least in part according to the position and to the capture direction, and the generated image signal (20) is provided. The invention also relates to a device (1) for generating a surroundings image (21).

Description

Beschreibung Description
Verfahren und Vorrichtung zum Erzeugen eines Umfeldabbildes für einen Parkassistenten eines Fahrzeugs Method and device for generating an image of the environment for a parking assistant of a vehicle
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Erzeugen eines Umfeldabbildes für einen Parkassistenten eines Fahrzeugs. The invention relates to a method and a device for generating an image of the surroundings for a parking assistant of a vehicle.
In modernen Fahrzeugen sind Systeme einer kamerabasierten Umfeldansicht bekannt, die eine Draufsicht („Top View“) auf die nahe Umgebung des Fahrzeuges bereitstellen. Das Area View soll das Rangieren erleichtern. Hierzu wird das Umfeld von mehreren Umfeldkameras erfasst und zu einem Umfeldabbild zusammengefügt, welches auf eine planare Projektionsebene projiziert wird. Diese Projektionsebene entspricht einer Standfläche des Fahrzeugs. Ferner sind Systeme bekannt, bei denen die erfassten Kamerabilder auf eine Schüsselform („Bowl View“) projiziert werden, um weiter vom Fahrzeug entfernte erhabene Objekte in einer Seitenansicht darzustellen. Hierbei werden auch nahe erhabene Objekte auf den ebenen Boden der Schüsselform projiziert, der ebenfalls die Standfläche des Fahrzeuges repräsentiert. In modern vehicles, systems for a camera-based environment view are known, which provide a top view of the vehicle's immediate surroundings. The Area View is intended to make maneuvering easier. For this purpose, the surroundings are recorded by several surrounding cameras and combined to form an image of the surroundings, which is projected onto a planar projection plane. This projection plane corresponds to a standing area of the vehicle. Systems are also known in which the captured camera images are projected onto a bowl shape (“bowl view”) in order to display raised objects further away from the vehicle in a side view. Here, even raised objects are projected onto the flat base of the bowl shape, which also represents the base of the vehicle.
Das Erzeugen eines Umfeldabbildes in Draufsicht ist derzeit nur ungenügend gelöst. The creation of an image of the environment in a top view is currently not sufficiently solved.
Der Erfindung liegt die Aufgabe zu Grunde, ein Verfahren und eine Vorrichtung zum Erzeugen eines Umfeldabbildes für einen Parkassistenten eines Fahrzeugs zu verbessern. The invention is based on the object of improving a method and a device for generating an image of the surroundings for a parking assistant of a vehicle.
Die Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 und eine Vorrichtung mit den Merkmalen des Patentanspruchs 9 gelöst. Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen. The object is achieved according to the invention by a method with the features of patent claim 1 and a device with the features of patent claim 9. Advantageous embodiments of the invention result from the subclaims.
Insbesondere wird ein Verfahren zum Erzeugen eines Umfeldabbildes für einen Parkassistenten eines Fahrzeugs zur Verfügung gestellt, wobei an mehreren Positionen des Fahrzeugs ein Umfeld des Fahrzeugs mittels mehrerer Umfeldkameras erfasst wird und das Umfeld mittels mindestens eines entfernungsauflösenden Sensors erfasst wird; wobei ausgehend von erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors Freiflächen und erhabene Objekte im Umfeld identifiziert werden, wobei eine lokale Umfeldkarte ausgehend von den erfassten Sensordaten und/oder den identifizierten Freiflächen und den identifizierten erhabenen Objekten erzeugt wird, wobei identifizierte Freiflächen und identifizierte erhabene Objekte positionsabhängig und erfassungsrichtungsabhängig mit hiermit korrespondierenden Kamerabildern verknüpft werden, wobei ein Bildsignal für ein Umfeldabbild in Draufsicht auf das Fahrzeug erzeugt wird, indem die Kamerabilder hierfür zumindest teilweise positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen und Objekte in der Umfeldkarte projiziert werden, und wobei das erzeugte Bildsignal bereitgestellt wird. In particular, a method for generating an image of the environment for a parking assistant of a vehicle is provided, wherein an environment of the vehicle is recorded at several positions of the vehicle using several environment cameras and the environment is recorded using at least one distance-resolving sensor; wherein, based on captured sensor data from the at least one distance-resolving sensor, open spaces and raised objects in the environment are identified, with a local environment map based on the captured sensor data and/or the identified open spaces and the identified raised objects is generated, with identified open spaces and identified raised objects being linked to corresponding camera images depending on the position and the detection direction, an image signal for an image of the surroundings in a top view of the vehicle being generated by the camera images being at least partially dependent on the position and the detection direction on the open areas and Objects are projected into the environment map, and the generated image signal is provided.
Ferner wird insbesondere eine Vorrichtung zum Erzeugen eines Umfeldabbildes für einen Parkassistenten eines Fahrzeugs geschaffen, umfassend mehrere Umfeldkameras, die zum Erfassen eines Umfelds des Fahrzeugs eingerichtet sind, mindestens einen entfernungsauflösenden Sensor, der zum Erfassen des Umfelds eingerichtet ist, und eine Datenverarbeitungseinrichtung, wobei die Datenverarbeitungseinrichtung dazu eingerichtet ist, ausgehend von an mehreren Positionen des Fahrzeugs erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors Freiflächen und erhabene Objekte im Umfeld zu identifizieren, eine lokale Umfeldkarte ausgehend von den erfassten Sensordaten und/oder den identifizierten Freiflächen und den identifizierten erhabenen Objekten zu erzeugen, identifizierte Freiflächen und identifizierte erhabene Objekte positionsabhängig und erfassungsrichtungsabhängig mit hiermit korrespondierenden Kamerabildern zu verknüpfen, ein Bildsignal für ein Umfeldabbild in Draufsicht auf das Fahrzeug zu erzeugen, und die Kamerabilder hierfür zumindest teilweise positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen und Objekte in der Umfeldkarte zu projizieren, und das erzeugte Bildsignal bereitzustellen. Furthermore, in particular, a device for generating an image of the surroundings for a parking assistant of a vehicle is created, comprising a plurality of surrounding cameras that are set up to capture the surroundings of the vehicle, at least one distance-resolving sensor that is set up to capture the surroundings, and a data processing device, wherein the data processing device is set up to identify open spaces and raised objects in the environment based on sensor data recorded at several positions of the vehicle from the at least one distance-resolving sensor, to generate a local map of the surrounding area based on the recorded sensor data and / or the identified open spaces and the identified raised objects To link open spaces and identified raised objects with camera images corresponding to them, depending on the position and the direction of detection, to generate an image signal for an image of the surroundings in a top view of the vehicle, and to project the camera images for this purpose onto the open spaces and objects in the surroundings map at least partially depending on the position and depending on the direction of detection, and that to provide generated image signal.
Das Verfahren und die Vorrichtung ermöglichen es, ein verbessertes kamerabasiertes Umfeldabbild in Draufsicht zu erzeugen. Insbesondere werden mehrere Positionen des Fahrzeugs berücksichtigt, sodass nicht nur ein Umfeldabbild für eine aktuelle Position des Fahrzeugs bereitgestellt werden kann, sondern auch ein darüber hinausgehendes Umfeldabbild. Insbesondere korrespondieren die mehreren Positionen, an denen die Sensordaten und die Kamerabilder erfasst werden, mit Positionen innerhalb eines Parkszenarios. Insbesondere kann eine Historie des Umfeldes berücksichtigt werden, das heißt, ein kamerabasiertes Umfeldabbild, insbesondere in einem Parkszenario, kann schrittweise aufgebaut werden. Das Fahrzeug fährt hierzu beispielsweise (positionsweise) durch das Parkszenario (z.B. Parkplatz oder Parkhaus), wobei das Umfeldabbild während des Durchfahrens des Parkszenarios schrittweise erzeugt wird. Die Positionen werden beispielsweise mittels einer fahrzeugeigenen Odometrie ermittelt und/oder von der Odometrie abgerufen. An den mehreren Positionen, deren Koordinaten von der Odometrie ermittelt und/oder von dieser abgerufen werden, wird das Umfeld des Fahrzeugs mittels mehrerer Umfeldkameras und mittels mindestens eines entfernungsauflösenden Sensors erfasst. Dies erfolgt insbesondere an jeder der Positionen. Die Umfeldkameras sind in Anzahl und Ausrichtung insbesondere derart gewählt und angeordnet, dass diese ein vollständiges Umfeldabbild erfassen können, insbesondere alle horizontalen Richtungen um das Fahrzeug herum, d.h. insbesondere einen Horizontalwinkel von 0 bis 360°. Ausgehend von den erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors werden Freiflächen und erhabene Objekte im Umfeld identifiziert. Eine lokale Umfeldkarte wird ausgehend den erfassten Sensordaten und/oder von den identifizierten Freiflächen und den identifizierten erhabenen Objekten erzeugt. Dies erfolgt insbesondere mit an sich bekannten Verfahren. Die identifizierten Freiflächen und die identifizierten erhabenen Objekte werden positionsabhängig und erfassungsrichtungsabhängig mit hiermit korrespondierenden Kamerabildern verknüpft. Es können beispielsweise Bildelemente der an den mehreren Positionen erfassten Kamerabilder jeweils mit hiermit korrespondierenden Raumwinkeln der Erfassungsbereiche der Umfeldkameras verknüpft und an den Positionen hinterlegt werden. Dies ermöglicht für jede der Positionen eine Zuordnung der Bildelemente in den erfassten Kamerabildern zu Bereichen in dem Umfeld, wodurch eine Projektion der Kamerabilder auf die jeweiligen Bereiche erfolgen kann. Es wird ein Bildsignal für ein Umfeldabbild in Draufsicht auf das Fahrzeug erzeugt, indem die Kamerabilder hierfür zumindest teilweise positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen und Objekte in der Umfeldkarte projiziert werden. Das erzeugte Bildsignal wird bereitgestellt, beispielsweise als analoges oder digitales Signal oder digitales Datenpaket. Das erzeugte Bildsignal kann anschließend beispielsweise auf einer Anzeigeeinrichtung des Fahrzeugs angezeigt werden, um einen Fahrer des Fahrzeugs beim Einparken und/oder Rangieren zu unterstützen. The method and the device make it possible to generate an improved camera-based image of the environment in a top view. In particular, several positions of the vehicle are taken into account, so that not only an image of the environment for a current position of the vehicle can be provided, but also an image of the environment that goes beyond this. In particular, the multiple positions at which the sensor data and the camera images are captured correspond to positions within a parking scenario. In particular, a history of the environment can be taken into account, that is, a camera-based image of the environment, especially in a parking scenario, can be built up step by step. For this purpose, for example, the vehicle drives (position by position) through the parking scenario (e.g. parking lot or parking garage), with the image of the environment being generated step by step while driving through the parking scenario. The positions are determined, for example, using the vehicle's own odometry and/or retrieved from the odometry. At the several positions whose coordinates are determined by odometry and/or retrieved from it, the surroundings of the vehicle are recorded by means of several surrounding cameras and by means of at least one distance-resolving sensor. This is done in particular at each of the positions. The number and orientation of the environment cameras are selected and arranged in such a way that they can capture a complete image of the environment, in particular all horizontal directions around the vehicle, that is, in particular a horizontal angle of 0 to 360°. Based on the recorded sensor data from the at least one distance-resolving sensor, open spaces and raised objects in the surrounding area are identified. A local environment map is generated based on the recorded sensor data and/or from the identified open spaces and the identified raised objects. This is done in particular using methods known per se. The identified open spaces and the identified raised objects are linked to corresponding camera images depending on the position and detection direction. For example, image elements of the camera images captured at the multiple positions can each be linked to corresponding solid angles of the detection areas of the surrounding cameras and stored at the positions. For each of the positions, this enables the image elements in the captured camera images to be assigned to areas in the environment, whereby the camera images can be projected onto the respective areas. An image signal for an image of the surroundings in a top view of the vehicle is generated by projecting the camera images onto the open spaces and objects in the surroundings map at least partially in a position-dependent and detection direction-dependent manner. The generated image signal is provided, for example as an analog or digital signal or digital data packet. The generated image signal can then be displayed, for example, on a display device of the vehicle in order to support a driver of the vehicle when parking and/or maneuvering.
Es kann vorgesehen sein, dass das Umfeldabbild nur einen begrenzten Bereich des Umfeldes berücksichtigt, das heißt, dass eine Historie nur bis zu einem bestimmten Zeitpunkt oder bis zu einer bestimmten Position in der Vergangenheit zurückreicht. Die Umfeldabbildung kann beispielsweise nach Art eines Shiftregisters ausgebildet sein, bei dem nur bis zu einem bestimmten Zeitpunkt in der Vergangenheit bzw. bis zu einer bestimmten vergangenen Position des Fahrzeugs erfasste Sensordaten und Kamerabilder berücksichtigt werden. Es kann jedoch auch vorgesehen sein, die Umfeldabbildung ohne Begrenzung zu erzeugen, bis ein hierfür reservierter Speicherplatz der Datenverarbeitungseinrichtung vollständig belegt ist. It can be provided that the environment image only takes into account a limited area of the environment, that is, that a history only extends back to a specific point in time or to a specific position in the past. The environment map can, for example, be designed in the manner of a shift register, in which sensor data and camera images recorded up to a specific point in time in the past or up to a specific past position of the vehicle are taken into account. However, it can also be provided to generate the environment image without limitation until a memory space in the data processing device reserved for this purpose is completely occupied.
Ein entfernungsauflösender Sensor ist insbesondere ein Ultraschallsensor, ein Radarsensor oder ein Lidarsensor. Grundsätzlich können auch mehrere (unterschiedliche) Sensoren verwendet werden. Eine Anzahl und/oder eine Anordnung und/oder eine Ausrichtung des mindestens einen entfernungsauflösenden Sensors ist insbesondere derart gewählt, dass ein Horizontwinkel (z.B. Azimut) von 0 bis 360° erfasst werden kann. Ein Vertikalwinkelbereich (z.B. Elevation) liegt hierbei beispielsweise in einem Bereich von 0 bis etwa 30-45°, kann jedoch grundsätzlich auch einen anderen Bereich abdecken. A distance-resolving sensor is in particular an ultrasonic sensor, a radar sensor or a lidar sensor. In principle, several (different) sensors can also be used be used. A number and/or an arrangement and/or an orientation of the at least one distance-resolving sensor is selected in particular such that a horizon angle (eg azimuth) of 0 to 360° can be detected. A vertical angle range (e.g. elevation) lies, for example, in a range from 0 to approximately 30-45°, but can in principle also cover a different range.
Freiflächen sind beispielsweise Bereiche im Umfeld, für die die entfernungsaufgelösten Sensordaten ergeben, dass innerhalb eines vorgegebenen Mindestabstands zum Sensor kein Objekt und/oder keine Reflexion oberhalb eines vorgegebenen Vertikalwinkels erfasst wird. Der vorgegebene Mindestabstand beträgt beispielsweise einige Meter (z.B. 10 m, 15 m etc.) und der vorgegebene Vertikalwinkel ist beispielsweise 5°, 10° oder 15° etc. Open spaces are, for example, areas in the environment for which the distance-resolved sensor data show that no object and/or no reflection above a predetermined vertical angle is detected within a predetermined minimum distance from the sensor. The specified minimum distance is, for example, a few meters (e.g. 10 m, 15 m, etc.) and the specified vertical angle is, for example, 5°, 10° or 15° etc.
Die lokale Umfeldkarte ist insbesondere eine dreidimensionale Umfeldkarte, welche beispielsweise mittels eines lokalen kartesischen Koordinatensystems beschrieben wird. The local environment map is in particular a three-dimensional environment map, which is described, for example, using a local Cartesian coordinate system.
Das Projizieren erfolgt insbesondere, indem die Kamerabilder als Texturen über die Freiflächen und die erhabenen Objekte gelegt werden. Das Projizieren erfolgt hierbei insbesondere positionsabhängig und erfassungsrichtungsabhängig in perspektivisch korrekter Form, sodass das Umfeldabbild in Draufsicht derart erzeugt wird, dass dieses idealerweise einem real mittels einer Kamera aus der Vogelperspektive erfassten Umfeldabbild entspricht. Beim Projizieren werden insbesondere an sich bekannte Verfahren, wie beispielsweise Stitching und/oder Helligkeits- und/oder Kontrastangleichungen, verwendet, um verschiedene Kamerabilder miteinander zu verbinden. Projecting is done in particular by placing the camera images as textures over the open spaces and raised objects. The projection is carried out in a perspectively correct form, in particular in a position-dependent and detection direction-dependent manner, so that the image of the environment is generated in a top view in such a way that it ideally corresponds to an image of the environment captured from a bird's eye view using a camera. When projecting, methods known per se, such as stitching and/or brightness and/or contrast adjustments, are used in particular to connect different camera images with one another.
Teile der Vorrichtung, insbesondere die Datenverarbeitungseinrichtung, können einzeln oder zusammengefasst als eine Kombination von Hardware und Software ausgebildet sein, beispielsweise als Programmcode, der auf einem Mikrocontroller oder Mikroprozessor ausgeführt wird. Es kann jedoch auch vorgesehen sein, dass Teile einzeln oder zusammengefasst als anwendungsspezifische integrierte Schaltung (ASIC) und/oder feldprogrammierbares Gatterfeld (FPGA) ausgebildet sind. Parts of the device, in particular the data processing device, can be designed individually or collectively as a combination of hardware and software, for example as program code that is executed on a microcontroller or microprocessor. However, it can also be provided that parts are designed individually or combined as an application-specific integrated circuit (ASIC) and/or field-programmable gate array (FPGA).
In einer Ausführungsform ist vorgesehen, dass beim Erzeugen der Umfeldkarte aus Freiflächen schrittweise für die mehreren Positionen eine positionsabhängige Bodenprojektionsebene definiert wird, auf die die jeweils mit den Freiflächen verknüpften Kamerabilder projiziert werden. Positionsabhängig bedeutet hierbei insbesondere, dass die Bodenprojektionsebene nur dort definiert ist, wo Freiflächen identifiziert wurden. Hierdurch kann schrittweise ein Bodenniveau für die Standfläche des Fahrzeugs definiert werden. Dem liegt der Gedanke zugrunde, dass Freiflächen nicht von jeder Position des Fahrzeugs aus als Freiflächen erscheinen, beispielsweise weil ein Objekt die Freifläche aus einigen Positionen des Fahrzeugs aus gesehen verdeckt, aus anderen hingegen nicht. Wenn diese Freifläche jedoch aus mehreren Positionen bzw. aus zumindest einer Position als Freifläche erfasst und identifiziert werden kann, ist dies ausreichend, um diese Freifläche im Umfeldabbild als solche zu berücksichtigen. Insbesondere werden einmal als Freiflächen identifizierte Bereiche im Umfeld stets als Freiflächen identifiziert, auch wenn diese von anderen Positionen aus nicht als Freifläche identifiziert werden. Die Bodenprojektionsebene wird insbesondere in einem lokalen (beispielsweise kartesischen) Koordinatensystem der Umfeldkarte definiert. In one embodiment it is provided that when the environment map is generated from open spaces, a position-dependent ground projection plane is gradually defined for the multiple positions, onto which the camera images linked to the open spaces are projected. Position-dependent means in particular that the ground projection plane is only defined where open spaces have been identified. This allows you to gradually achieve a floor level for the footprint of the vehicle can be defined. This is based on the idea that open spaces do not appear as open spaces from every position of the vehicle, for example because an object obscures the open space when viewed from some positions of the vehicle but not from others. However, if this open space can be detected and identified as an open space from several positions or from at least one position, this is sufficient to take this open space into account as such in the environmental image. In particular, once identified as open spaces, areas in the surrounding area are always identified as open spaces, even if they are not identified as open spaces from other positions. The ground projection plane is defined in particular in a local (for example Cartesian) coordinate system of the environment map.
In einer Ausführungsform ist vorgesehen, dass beim Erzeugen der Umfeldkarte aus erhabenen Objekten schrittweise für die mehreren Positionen mindestens eine positionsabhängige Projektionsebene definiert wird, auf die die jeweils mit den erhabenen Objekten verknüpften Kamerabilder projiziert werden. Hierdurch können erhabene Objekte im Umfeldabbild in Draufsicht als solche dargestellt werden. Befindet sich beispielsweise ein anderes Fahrzeug im Umfeld des Fahrzeugs, so wird dieses andere Fahrzeug als erhabenes Objekt identifiziert und für das andere Fahrzeug wird, beispielsweise ausgehend von der höchsten Position der zugehörig erfassten Sensordaten, eine auf dieser höchsten Position angeordnete Projektionsebene definiert. Diese Projektionsebene fällt dann idealerweise mit einer Höhe einer Motorhaube oder eines Dachs oder einer Kofferraum klappe (bei einem Fließheck) des anderen Fahrzeugs zusammen. Die erfassten Kamerabilder werden dann entsprechend positionsabhängig und erfassungsrichtungsabhängig auf die hierfür definierten Projektionsebenen projiziert, sodass sich im erzeugten Bildsignal bzw. im Umfeldabbild in Draufsicht eine realistischere Darstellung ergibt. In one embodiment, it is provided that when the environment map is generated from raised objects, at least one position-dependent projection plane is gradually defined for the multiple positions, onto which the camera images associated with the raised objects are projected. This allows raised objects to be displayed as such in the image of the environment in a top view. For example, if there is another vehicle in the vicinity of the vehicle, this other vehicle is identified as a raised object and a projection plane arranged at this highest position is defined for the other vehicle, for example starting from the highest position of the associated sensor data. This projection plane then ideally coincides with a height of a hood or a roof or a trunk lid (in the case of a hatchback) of the other vehicle. The captured camera images are then projected onto the projection planes defined for this purpose, depending on the position and direction of capture, so that a more realistic representation results in the generated image signal or in the image of the environment in a top view.
In einer Ausführungsform ist vorgesehen, dass beim Erzeugen der mindestens einen Projektionsebene mindestens ein Bereich ergänzt wird, wenn die für diesen Bereich erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors mit einem anderen Fahrzeug korrespondieren. Hierdurch können auch verdeckte Bereiche, die von den Umfeldkameras nicht erfasst werden können, in dem erzeugten Umfeldabbild als derart ergänzte Bereiche dargestellt werden. Dahinter steht der Gedanke, dass eine Projektionsebene für ein Dach eines anderen Fahrzeugs beispielsweise ergänzt werden kann, wenn eine Höhe einer Dachkante in der Umfeldkarte bekannt ist. Das Dach wird dann an der mit der Dachkante zusammenfallenden Höhe ergänzt. Ausgehend von den erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors und/oder den erfassten Kamerabildern werden hierzu insbesondere andere Fahrzeug erkannt. Dies erfolgt mittels an sich bekannter Verfahren, wie beispielsweise Mustererkennung und/oder Maschinenlernen. Grundsätzlich können auch andere Objekte erkannt und in entsprechender Weise ergänzt werden. In one embodiment it is provided that when the at least one projection plane is generated, at least one area is added if the sensor data of the at least one distance-resolving sensor recorded for this area corresponds to another vehicle. This means that hidden areas that cannot be captured by the surrounding cameras can also be represented as such supplemented areas in the surrounding image generated. The idea behind this is that a projection plane for a roof of another vehicle can be added, for example, if the height of a roof edge is known in the surrounding map. The roof is then added at the height that coincides with the edge of the roof. For this purpose, based on the captured sensor data of the at least one distance-resolving sensor and/or the captured camera images in particular, other vehicles are detected. This is done using methods known per se, such as pattern recognition and/or machine learning. In principle, other objects can also be recognized and supplemented accordingly.
In einer Ausführungsform ist vorgesehen, dass ein Grad einer jeweiligen Radialverzerrung der Umfeldkameras beim Erfassen und/oder Projizieren berücksichtigt wird. Hierdurch können für das Projizieren insbesondere diejenigen Bereiche in den erfassten Kameraabbildungen verwendet werden, die das Umfeld, also Freiflächen und erhabene Objekte, unverzerrt in einer hohen Auflösung zeigen. Da Umfeldkameras in der Regel einen großen Erfassungsbereich (z.B. 180°) aufweisen, wird eine Abbildungsoptik dazu verwendet, diesen großen Erfassungsbereich auf einen Bildsensor abzubilden. Hierbei bildet die Abbildungsoptik insbesondere Randbereiche stark verzerrt ab („Fischaugenoptik“), sodass im Vergleich zu einer Bildmitte ein größerer Raumwinkelbereich auf eine gleiche Anzahl von Sensorelementen des Bildsensors der Umfeldkameras abgebildet wird. Dies führt zu einer radial von der Bildmitte zunehmenden Verzerrung und abnehmenden Auflösung. Es kann beispielsweise vorgesehen sein, dass nur Bereiche der erfassten Kameraabbildungen verwendet werden, in denen der Grad der Randverzerrung unterhalb eines vorgegebenen Schwellwertes liegt (beispielsweise angegeben als Anzahl von Bildelementen pro Raumwinkel oder als Änderung der Anzahl der Bildelemente pro Raumwinkel etc.). Werden nur diese Bereiche beim Erfassen und/oder Projizieren berücksichtigt, so kann insgesamt eine Auflösung der Umfeldabbildung erhöht werden. Ferner kann eine Verzerrung und/oder Verfälschung beim Projizieren verringert oder sogar verhindert werden. Wird beispielsweise eine Freifläche an mehreren Positionen aus unterschiedlichen Richtungen erfasst, so können diejenigen Kameraabbildungen oder Bereiche dieser Kameraabbildungen verwendet werden, die die höchste Auflösung oder zumindest eine Auflösung oberhalb eines vorgegebenen Schwellwertes aufweisen. Es kann ferner auch vorgesehen sein, einen solchen Schwellwert dynamisch in Abhängigkeit von einer Verfügbarkeit von erfassten Kamerabildern anzupassen. Dies kann insbesondere in Abhängigkeit davon erfolgen, mit welcher Auflösung Kamerabilder für identifizierte Freiflächen und/oder identifizierte erhabene Objekte erfasst wurden und zur Verfügung stehen. Stehen Kamerabilder mit höherer Auflösung zur Verfügung, so werden nur diese oder Bereiche hiervon mit einer Auflösung oberhalb des Schwellwertes und/oder unterhalb eines vorgegebenen Grades der Randverzerrung verwendet; stehen für identifizierte Freiflächen und/oder identifizierte erhabene Objekte hingegen nur Kamerabilder mit geringerer Auflösung zur Verfügung (z.B. weil diese aus randverzerrten Bildbereichen stammen), so werden diese verwendet. Es wird hierbei insbesondere angestrebt, stets die am höchsten verfügbare Auflösung zu verwenden. Entsprechend kann der Schwellwert dynamisch angepasst werden. In einer Ausführungsform ist vorgesehen, dass jeweils nur ein vorgegebener innerer Bildbereich der erfassten Kamerabilder beim Projizieren verwendet wird. Hierdurch kann ebenfalls eine Radialverzerrung berücksichtigt werden. Insbesondere ermöglicht dies eine besonders einfach und aufwandsarm umzusetzende Variante, da der innere Bildbereich einmalig definiert werden kann und dann in der Folge nur dieser innere Bildbereich beim Projizieren berücksichtigt wird. Der innere Bildbereich kann beispielsweise durch Vorgabe einer Mindestauflösung definiert werden. In one embodiment it is provided that a degree of a respective radial distortion of the surrounding cameras is taken into account when detecting and/or projecting. This means that in particular those areas in the captured camera images can be used for projection that show the surroundings, i.e. open spaces and raised objects, undistorted in a high resolution. Since environmental cameras generally have a large detection range (e.g. 180°), imaging optics are used to image this large detection range on an image sensor. The imaging optics image particularly edge areas in a highly distorted manner (“fisheye optics”), so that, compared to the center of the image, a larger solid angle area is imaged on an equal number of sensor elements of the image sensor of the surrounding cameras. This results in increasing distortion and decreasing resolution radially from the center of the image. For example, it can be provided that only areas of the captured camera images are used in which the degree of edge distortion is below a predetermined threshold value (for example specified as the number of image elements per solid angle or as a change in the number of image elements per solid angle, etc.). If only these areas are taken into account when detecting and/or projecting, the overall resolution of the image of the surroundings can be increased. Furthermore, distortion and/or falsification during projection can be reduced or even prevented. For example, if an open area is captured at several positions from different directions, those camera images or areas of these camera images can be used that have the highest resolution or at least a resolution above a predetermined threshold value. Provision can also be made to dynamically adapt such a threshold value depending on the availability of captured camera images. This can be done in particular depending on the resolution with which camera images for identified open spaces and/or identified raised objects were captured and are available. If camera images with higher resolution are available, only these or areas thereof with a resolution above the threshold value and/or below a predetermined degree of edge distortion are used; However, if only camera images with lower resolution are available for identified open spaces and/or identified raised objects (e.g. because they come from image areas with distorted edges), these will be used. The aim here is in particular to always use the highest resolution available. The threshold value can be adjusted dynamically accordingly. In one embodiment it is provided that only a predetermined inner image area of the captured camera images is used during projection. This also allows radial distortion to be taken into account. In particular, this enables a variant that is particularly easy to implement and requires little effort, since the inner image area can be defined once and then only this inner image area is taken into account when projecting. The inner image area can be defined, for example, by specifying a minimum resolution.
In einer Ausführungsform ist vorgesehen, dass das Bildsignal für Bereiche des Umfeldabbildes, für die keine Kameradaten und/oder keine Sensordaten aufgrund von Verdeckung vorhanden sind, ausgehend von Nachbarbereichen, die an diese Bereiche angrenzen, extrapoliert und/oder geschätzt werden. Hierdurch kann auch für diese nicht mittels der Umfeldkameras erfassten Bereiche ein Bildsignal bereitgestellt werden. Dahinter steht der Gedanke, dass beispielsweise eine Textur für ein Dach eines anderen Fahrzeugs (oder eines anderen Objektes) ergänzt und/oder geschätzt werden kann, wenn eine Textur einer Motorhaube, einer Heckklappe und/oder eines sonstigen Teils des anderen Fahrzeugs (oder des anderen Objektes) bekannt ist. Das Dach wird dann mit Hilfe der extrapolierten und/oder geschätzten Textur ergänzt bzw. es wird eine extrapolierte und/oder geschätzte Kameraabbildung auf die zugehörige Projektionsebene projiziert. Ausgehend von den erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors und/oder den erfassten Kamerabildern werden hierzu insbesondere andere Fahrzeug und/oder andere Objekte im Umfeld erkannt.In one embodiment, it is provided that the image signal for areas of the environment image for which no camera data and/or no sensor data is available due to occlusion is extrapolated and/or estimated based on neighboring areas that border on these areas. This means that an image signal can also be provided for these areas that are not captured by the surrounding cameras. The idea behind this is that, for example, a texture for a roof of another vehicle (or another object) can be supplemented and/or appreciated when a texture of a hood, a tailgate and/or another part of the other vehicle (or the other object) is known. The roof is then supplemented with the help of the extrapolated and/or estimated texture or an extrapolated and/or estimated camera image is projected onto the associated projection plane. Based on the captured sensor data of the at least one distance-resolving sensor and/or the captured camera images, in particular other vehicles and/or other objects in the environment are recognized.
Dies erfolgt mittels an sich bekannter Verfahren, wie beispielsweise Mustererkennung und/oder Maschinenlernen. Grundsätzlich können auch andere Objekte erkannt und in entsprechender Weise ergänzt werden. Es kann ferner vorgesehen sein, dass verdeckte Bereiche ausgehend von den erfassten Sensordaten und optischen Eigenschaften der Umfeldkameras bestimmt werden. This is done using methods known per se, such as pattern recognition and/or machine learning. In principle, other objects can also be recognized and supplemented accordingly. It can also be provided that hidden areas are determined based on the recorded sensor data and optical properties of the surrounding cameras.
Es kann ferner vorgesehen sein, dass identifizierte erhabene Objekte, insbesondere andere Fahrzeuge, im Umfeld zumindest teilweise gerendert werden, wobei dies ausgehend von den erfassten Sensordaten des entfernungsauflösenden Sensors erfolgt. Zu den zumindest teilweise gerenderten Objekten wird ein entsprechendes Bildsignal erzeugt. Das Rendern wird insbesondere mittels der Datenverarbeitungseinrichtung und an sich bekannter Verfahren durchgeführt. It can also be provided that identified raised objects, in particular other vehicles, are at least partially rendered in the environment, this being done based on the recorded sensor data of the distance-resolving sensor. A corresponding image signal is generated for the at least partially rendered objects. The rendering is carried out in particular using the data processing device and methods known per se.
In einer Ausführungsform ist vorgesehen, dass ausgehend von den an den mehreren Positionen des Fahrzeugs erfassten Kamerabildern zusätzlich eine dreidimensionale Punktwolke des Umfelds erzeugt und beim Identifizieren der Freiflächen und/oder der erhabenen Objekte im Umfeld berücksichtigt wird. Hierdurch können entfernungsauflösende Daten bzw. dreidimensionale Daten des Umfeldes zusätzlich auch ausgehend von den erfassten Kamerabildern erzeugt und berücksichtigt werden. Hierbei kann beispielsweise ein monokulares Simultaneous Localization and Mapping (SLAM)-Verfahren (z.B. Direct Sparse Odometry, DSO) oder ein sonstiges geeignetes Verfahren verwendet werden. In one embodiment it is provided that, based on the camera images captured at the multiple positions of the vehicle, an additional three-dimensional image is created Point cloud of the environment is generated and taken into account when identifying the open spaces and / or the raised objects in the environment. This means that distance-resolving data or three-dimensional data of the environment can also be generated and taken into account based on the captured camera images. Here, for example, a monocular Simultaneous Localization and Mapping (SLAM) method (e.g. Direct Sparse Odometry, DSO) or another suitable method can be used.
Weitere Merkmale zur Ausgestaltung der Vorrichtung ergeben sich aus der Beschreibung von Ausgestaltungen des Verfahrens. Die Vorteile der Vorrichtung sind hierbei jeweils die gleichen wie bei den Ausgestaltungen des Verfahrens. Further features for the design of the device result from the description of embodiments of the method. The advantages of the device are the same as in the embodiments of the method.
Ferner wird insbesondere auch ein Fahrzeug geschaffen, umfassend mindestens eine Vorrichtung nach einer der beschriebenen Ausführungsformen. Ein Fahrzeug ist insbesondere ein Kraftfahrzeug. Furthermore, a vehicle is also created in particular, comprising at least one device according to one of the described embodiments. A vehicle is in particular a motor vehicle.
Nachfolgend wird die Erfindung anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf die Figuren näher erläutert. Hierbei zeigen: The invention is explained in more detail below using preferred exemplary embodiments with reference to the figures. Show here:
Fig. 1 eine schematische Darstellung einer Ausführungsform der Vorrichtung zum Erzeugen eines Umfeldabbildes für einen Parkassistenten eines Fahrzeugs; 1 shows a schematic representation of an embodiment of the device for generating an image of the surroundings for a parking assistant of a vehicle;
Fig. 2 eine schematische Darstellung zur Verdeutlichung von Sensordaten von entfernungsauflösenden Sensoren; 2 is a schematic representation to illustrate sensor data from distance-resolving sensors;
Fig. 3 eine schematische Darstellung zur Verdeutlichung einer Bodenprojektionsebene und von Projektionsebenen für erhabene Objekte; 3 shows a schematic representation to illustrate a floor projection plane and projection planes for raised objects;
Fig. 4 eine schematische Darstellung eines Umfeldabbildes, das dem erzeugten Bildsignal entspricht; 4 shows a schematic representation of an image of the surroundings that corresponds to the generated image signal;
Fig. 5a, 5b schematische Darstellungen zur Verdeutlichung einer Ausführungsform der Vorrichtung und des Verfahrens. 5a, 5b schematic representations to illustrate an embodiment of the device and the method.
Die Fig. 1 zeigt eine schematische Darstellung einer Ausführungsform der Vorrichtung 1 zum Erzeugen eines Umfeldabbildes 21 für einen Parkassistenten eines Fahrzeugs 50. Die Vorrichtung 1 ist beispielsweise in einem Fahrzeug 50, insbesondere einem Kraftfahrzeug, angeordnet. Die Vorrichtung 1 führt das in dieser Offenbarung beschriebene Verfahren aus. 1 shows a schematic representation of an embodiment of the device 1 for generating an environment image 21 for a parking assistant of a vehicle 50. The Device 1 is arranged, for example, in a vehicle 50, in particular a motor vehicle. The device 1 carries out the method described in this disclosure.
Die Vorrichtung 1 umfasst mehrere Umfeldkameras 2, mindestens einen entfernungsauflösenden Sensor 3 und eine Datenverarbeitungseinrichtung 4. The device 1 includes several surrounding cameras 2, at least one distance-resolving sensor 3 and a data processing device 4.
Insbesondere umfasst die Vorrichtung 1 vier Umfeldkameras 2 (es ist der Übersichtlichkeit halber nur eine in der Fig. 1 gezeigt), welche jeweils als 180° erfassende Kameras mit einer Fischaugenoptik ausgebildet sind und derart am Fahrzeug 50 angeordnet sind, dass ein horizontaler Winkelbereich eines Umfelds von 0 bis 360° um das Fahrzeug 50 herum lückenlos erfasst werden kann. In particular, the device 1 comprises four environment cameras 2 (for the sake of clarity, only one is shown in FIG. 1), which are each designed as 180° cameras with fisheye optics and are arranged on the vehicle 50 in such a way that a horizontal angular range of an environment from 0 to 360 ° around the vehicle 50 can be recorded without gaps.
Der mindestens eine entfernungsauflösende Sensor 3 umfasst beispielsweise einen Ultraschallsensor, einen Radarsensor und/oder einen Lidarsensor. Eine Anzahl und eine Anordnung der entfernungsauflösenden Sensoren 3 ist insbesondere derart gewählt, dass ein horizontaler Winkelbereich eines Umfelds von 0 bis 360° um das Fahrzeug 50 herum lückenlos erfasst werden kann. Insbesondere sind die Umfeldkameras 2 und die entfernungsauflösenden Sensoren 3 zueinander kalibriert, das heißt, eine relative Pose (relative Position und relative Ausrichtung) zueinander ist bekannt. Dies ermöglicht eine Zuordnung von erfassten Sensordaten 11 zu erfassten Kamerabildern 10. The at least one distance-resolving sensor 3 includes, for example, an ultrasonic sensor, a radar sensor and/or a lidar sensor. A number and an arrangement of the distance-resolving sensors 3 are selected in particular such that a horizontal angular range of an environment from 0 to 360 ° around the vehicle 50 can be detected without gaps. In particular, the surrounding cameras 2 and the distance-resolving sensors 3 are calibrated to one another, that is, a relative pose (relative position and relative orientation) to one another is known. This enables an assignment of captured sensor data 11 to captured camera images 10.
Die Datenverarbeitungseinrichtung 4 umfasst eine Recheneinrichtung 4-1 und einen Speicher 4-2. Die Datenverarbeitungseinrichtung 4 ist dazu eingerichtet, ausgehend von an mehreren Positionen des Fahrzeugs 50 erfassten Sensordaten 11 des mindestens einen entfernungsauflösenden Sensors 3 Freiflächen und erhabene Objekte im Umfeld zu identifizieren, eine lokale Umfeldkarte 30 ausgehend von den erfassten Sensordaten 11 und/oder den identifizierten Freiflächen und den identifizierten erhabenen Objekten zu erzeugen und identifizierte Freiflächen und identifizierte erhabene Objekte positionsabhängig und erfassungsrichtungsabhängig mit hiermit korrespondierenden Kamerabildern 10 zu verknüpfen. Ferner ist die Datenverarbeitungseinrichtung 4 dazu eingerichtet, ein Bildsignal 20 für ein Umfeldabbild 21 in Draufsicht („Top View“) auf das Fahrzeug 50 zu erzeugen, und die Kamerabilder 10 hierfür zumindest teilweise positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen und Objekte in der Umfeldkarte 30 zu projizieren, und das erzeugte Bildsignal 20 bereitzustellen. Das bereitgestellte Bildsignal 20 kann beispielsweise einer Anzeigeeinrichtung 51 des Fahrzeugs 50 zugeführt werden und auf dieser angezeigt werden, um einen Fahrer beim Einparken und/oder Rangieren zu unterstützen. The data processing device 4 includes a computing device 4-1 and a memory 4-2. The data processing device 4 is set up to identify open spaces and raised objects in the environment based on sensor data 11 of the at least one distance-resolving sensor 3 recorded at several positions of the vehicle 50, a local environment map 30 based on the recorded sensor data 11 and/or the identified open spaces and to generate the identified raised objects and to link identified open spaces and identified raised objects in a position-dependent and detection direction-dependent manner with camera images 10 corresponding thereto. Furthermore, the data processing device 4 is set up to generate an image signal 20 for an image of the surroundings 21 in a top view of the vehicle 50, and the camera images 10 for this at least partially depending on the position and the direction of detection towards the open spaces and objects in the surroundings map 30 project, and provide the generated image signal 20. The provided image signal 20 can, for example, be fed to a display device 51 of the vehicle 50 and displayed This can be displayed to support a driver when parking and/or maneuvering.
Die Fig. 2 zeigt eine schematische Darstellung zur Verdeutlichung von Sensordaten von entfernungsauflösenden Sensoren. Gezeigt ist eine Umfeldkarte 30, in der dreidimensional verortete Datenpunkte 31 -x (nur einige sind mit einem Bezugszeichen markiert) eines Ultraschallsensors (31-1), eines Radarsensors (31-2) und eines Lidarsensors (31-3) hinterlegt sind. Die Datenpunkte 31-x wurden von den Sensoren an mehreren Positionen 32 erfasst und in der Umfeldkarte 30 hinterlegt. Die Datenpunkte 31-x markieren Bereiche, an denen erhabene Objekte 41 im Umfeld angeordnet sind. Zwischen den erhabenen Objekten 41 befinden sich im Umfeld Freiflächen 40. Die erhabenen Objekte 41 werden beispielsweise durch Clustern bzw. Zusammenfassen von örtlich gehäuft auftretenden Datenpunkten 31-x identifiziert. Eine Häufung ist hierbei beispielsweise als eine vorgegebene Dichte von Datenpunkten 31-x pro Raumwinkel oder Horizontalwinkel oder Bereich im Umfeld oder als vorgegebene Signalstärke einer Reflexion des vom Sensor emittierten Signals definiert, die erreicht sein muss, damit ein erhabenes Objekt 41 identifiziert wird. Im Bereich von Freiflächen 40 fehlen derartige Häufungen und/oder Reflexionen eines vom Sensor emittierten Signals hingegen. Fig. 2 shows a schematic representation to illustrate sensor data from distance-resolving sensors. Shown is an environment map 30 in which three-dimensionally located data points 31 -x (only some are marked with a reference number) of an ultrasonic sensor (31-1), a radar sensor (31-2) and a lidar sensor (31-3) are stored. The data points 31-x were recorded by the sensors at several positions 32 and stored in the environment map 30. The data points 31-x mark areas where raised objects 41 are arranged in the environment. There are open spaces 40 in the surrounding area between the raised objects 41. The raised objects 41 are identified, for example, by clustering or combining locally clustered data points 31-x. An accumulation is defined here, for example, as a predetermined density of data points 31-x per solid angle or horizontal angle or area in the environment or as a predetermined signal strength of a reflection of the signal emitted by the sensor, which must be achieved so that a raised object 41 is identified. In the area of open spaces 40, however, such accumulations and/or reflections of a signal emitted by the sensor are missing.
An jeder der mehreren Positionen 32 werden für alle Richtungen um das Fahrzeug 50 herum Kamerabilder erfasst. Bildinformationen in den erfassten Kamerabildern werden positionsabhängig und erfassungsrichtungsabhängig mit den Datenpunkten 31-x verknüpft. Insbesondere ausgehend von dieser Verknüpfung werden zum Erzeugen des Umfeldabbildes 21 in Draufsicht die Kamerabilder hierfür (zumindest teilweise) positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen 40 und die erhabenen Objekte 41 in der Umfeldkarte 30 projiziert. Anders ausgedrückt werden die erfassten Kamerabilder (zumindest teilweise) positionsabhängig und erfassungsrichtungsabhängig als Texturen über die Freiflächen 40 und die erhabenen Objekte 41 gelegt und hierdurch ein Umfeldabbild 21 in Draufsicht erzeugt. Camera images are captured for all directions around the vehicle 50 at each of the multiple positions 32. Image information in the captured camera images is linked to the data points 31-x depending on the position and direction of capture. In particular, based on this link, in order to generate the environment image 21 in a top view, the camera images are (at least partially) projected onto the open spaces 40 and the raised objects 41 in the environment map 30 depending on the position and the detection direction. In other words, the captured camera images are (at least partially) placed as textures over the open spaces 40 and the raised objects 41 in a position-dependent and capture direction-dependent manner, thereby generating an environment image 21 in a top view.
Es ist insbesondere vorgesehen, dass beim Erzeugen der Umfeldkarte 30 aus Freiflächen 40 schrittweise für die mehreren Positionen 32 eine positionsabhängige Bodenprojektionsebene 33 definiert wird, auf die die jeweils mit den Freiflächen 40 verknüpften Kamerabilder projiziert werden. Dies ist schematisch in der Fig. 3 gezeigt, welche grundsätzlich der Fig. 2 entspricht, sodass gleiche Bezugszeichen gleiche Merkmale und Begriffe bezeichnen. Es ist ferner insbesondere vorgesehen, dass beim Erzeugen der Umfeldkarte 30 aus erhabenen Objekten 41 schrittweise für die mehreren Positionen 32 mindestens eine positionsabhängige Projektionsebene 34 definiert wird, auf die die jeweils mit den erhabenen Objekten 41 verknüpften Kamerabilder projiziert werden. Hierbei geht es vor allem darum, die erhabenen Objekte 41 im Umfeldabbild 21 (Fig. 1) in Draufsicht auf einer anderen Höhe (Richtung senkrecht zur Standfläche, auf dem das Fahrzeug 50 steht) darzustellen als die Bodenprojektionsebene 34. Es können insbesondere auch mehr als eine Projektionsebene 34 vorgesehen sein, um Zwischenstufen, beispielsweise von anderen Fahrzeugen 51 (z.B. Zwischenstufen für Heck, Dach, Motorhaube, Ladefläche etc.), abbilden zu können. In particular, it is provided that when generating the environment map 30 from open spaces 40, a position-dependent floor projection plane 33 is gradually defined for the multiple positions 32, onto which the camera images linked to the open spaces 40 are projected. This is shown schematically in FIG. 3, which basically corresponds to FIG. 2, so that the same reference numbers designate the same features and terms. It is furthermore particularly provided that when generating the environment map 30 from raised objects 41, at least one position-dependent projection plane 34 is gradually defined for the multiple positions 32, onto which the camera images associated with the raised objects 41 are projected. The main aim here is to display the raised objects 41 in the environment image 21 (FIG. 1) in a top view at a different height (direction perpendicular to the standing surface on which the vehicle 50 stands) than the floor projection plane 34. In particular, more than a projection plane 34 may be provided in order to be able to image intermediate stages, for example of other vehicles 51 (eg intermediate stages for the rear, roof, hood, loading area, etc.).
Es kann vorgesehen sein, dass beim Erzeugen der mindestens einen Projektionsebene 34 mindestens ein Bereich ergänzt wird, wenn die für diesen Bereich erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors mit einem anderen Fahrzeug 51 korrespondieren. Hierzu kann an den erfassten Sensordaten, insbesondere an den Datenpunkten 31-x, beispielsweise eine Mustererkennung und/oder eine Objekterkennung durchgeführt werden. Wird anhand der Mustererkennung und/oder der Objekterkennung erkannt, dass ein erhabenes Objekt 41 ein anderes Fahrzeug 51 ist, so kann dieses Vorwissen dazu genutzt werden, weiter entfernte Bereiche der anderen Fahrzeuge 51 , für die eine Dichte an Datenpunkten 31-x abnimmt, zu ergänzen, beispielsweise indem Datenpunkte 31-x zum Nachbilden einer äußeren Kontur des anderen Fahrzeugs 51 ergänzt werden. It can be provided that when the at least one projection plane 34 is generated, at least one area is added if the sensor data recorded for this area of the at least one distance-resolving sensor corresponds to another vehicle 51. For this purpose, for example, pattern recognition and/or object recognition can be carried out on the recorded sensor data, in particular on the data points 31-x. If it is recognized based on pattern recognition and/or object recognition that a raised object 41 is another vehicle 51, this prior knowledge can be used to identify more distant areas of the other vehicles 51 for which a density of data points 31-x decreases supplement, for example by adding data points 31-x to reproduce an outer contour of the other vehicle 51.
Es kann vorgesehen sein, dass ein Grad einer jeweiligen Radialverzerrung der Umfeldkameras 2 beim Erfassen und/oder Projizieren berücksichtigt wird. Um den Grad der Radialverzerrung zu bestimmen, können empirische Versuche durchgeführt werden und/oder optische Eigenschaftsparameter 15 (Fig. 1) einer Abbildungsoptik („Fischaugenoptik“) in die Datenverarbeitungseinrichtung 4 eingelesen werden. It can be provided that a degree of a respective radial distortion of the surrounding cameras 2 is taken into account when detecting and/or projecting. In order to determine the degree of radial distortion, empirical tests can be carried out and/or optical property parameters 15 (FIG. 1) of an imaging optics (“fisheye optics”) can be read into the data processing device 4.
Es kann vorgesehen sein, dass jeweils nur ein vorgegebener innerer Bildbereich der erfassten Kamerabilder 10 beim Projizieren verwendet wird. Ein geeigneter innerer Bildbereich kann beispielsweise anhand von empirischen Versuchen und/oder Simulationen bestimmt werden. It can be provided that only a predetermined inner image area of the captured camera images 10 is used during projection. A suitable inner image area can be determined, for example, based on empirical tests and/or simulations.
Es kann vorgesehen sein, dass das Bildsignal 20 für Bereiche des Umfeldabbildes 21 , für die keine Kameradaten 10 und/oder keine Sensordaten 11 aufgrund von Verdeckung vorhanden sind, ausgehend von Nachbarbereichen, die an diese Bereiche angrenzen, extrapoliert und/oder geschätzt werden. So kann das Bildsignal 20 beispielsweise für die jeweils dem Fahrzeug 50 abgewandte Seite 35 (Fig. 3) der erhabenen Objekte 41 bzw. anderen Fahrzeuge 51 entsprechend ergänzt werden durch Bilddaten aus Kamerabildern 10, die für die dem Fahrzeug 50 zugewandte Seite 36 erfasst wurden. Beispielsweise kann eine Lackfarbe oder eine Textur der zugewandten Seiten 36 in erfassten Kamerabildern 10 dazu verwendet werden, um eine Textur für die abgewandte Seite 35 zu extrapolieren und/oder zu schätzen. It can be provided that the image signal 20 is extrapolated and/or estimated for areas of the environment image 21 for which no camera data 10 and/or no sensor data 11 are available due to occlusion, starting from neighboring areas that border on these areas. For example, the image signal 20 can be used for the side 35 (FIG. 3) of the raised objects 41 or others facing away from the vehicle 50 Vehicles 51 are supplemented accordingly by image data from camera images 10 that were recorded for the side 36 facing the vehicle 50. For example, a paint color or a texture of the facing sides 36 in captured camera images 10 can be used to extrapolate and/or estimate a texture for the facing side 35.
Es kann vorgesehen sein, dass ausgehend von den an den mehreren Positionen 32 des Fahrzeugs 50 erfassten Kamerabildern 10 zusätzlich eine dreidimensionale Punktwolke des Umfelds erzeugt und beim Identifizieren der Freiflächen 40 und/oder der erhabenen Objekte 41 im Umfeld berücksichtigt wird. Dies erfolgt beispielsweise mittels an sich bekannter SLAM- Verfahren, beispielsweise mittels des Direct Sparse Odometry (DSO)-Verfahrens. It can be provided that, based on the camera images 10 captured at the multiple positions 32 of the vehicle 50, a three-dimensional point cloud of the surroundings is additionally generated and taken into account when identifying the open spaces 40 and/or the raised objects 41 in the surroundings. This is done, for example, using known SLAM methods, for example using the Direct Sparse Odometry (DSO) method.
Die Fig. 4 zeigt eine schematische Darstellung eines Umfeldabbildes 21 , das dem erzeugten Bildsignal 20 entspricht (die Fig. 4 ist lediglich beispielhaft und korrespondiert inhaltlich nicht mit den vorher gezeigten Figuren 2 und 3). Durch die Vorrichtung 1 (Fig. 1) und das Verfahren kann ein verbessertes Umfeldabbild 21 zur Verfügung gestellt werden. FIG. 4 shows a schematic representation of an environment image 21, which corresponds to the generated image signal 20 (FIG. 4 is merely an example and does not correspond in content to the previously shown FIGS. 2 and 3). An improved image of the environment 21 can be provided by the device 1 (FIG. 1) and the method.
Das in der Fig. 4 gezeigte Umfeldabbild 21 bzw. das Bildsignal 20 wurde insbesondere mit einer Ausführungsform der Vorrichtung 1 und des Verfahrens erzeugt, bei der vorgesehen ist, dass jeweils nur ein vorgegebener innerer Bildbereich der erfassten Kamerabilder 10 beim Projizieren verwendet wird. Ein direkter Vergleich zwischen einer Ausführungsform, bei denen auch äußere Bereiche der Kamerabilder 10 verwendet wurden, das heißt, aufgrund einer Fischaugenoptik auch radialverzerrte Bereiche und dem in der Fig. 4 gezeigten Umfeldabbild 21 ist in den Figuren 5a und 5b gezeigt. In der Fig. 5a ist deutlich zu erkennen, dass aufgrund der Verwendung auch der radialverzerrten äußeren Bildbereiche der Kamerabilder 10 andere Fahrzeuge 51 in dem Umfeldabbild 21 stark verzerrt erscheinen. Bei den anderen Fahrzeugen 51, die in der Fig. 5b gezeigt sind, ist dies hingegen nicht der Fall, da dort nur innere Bereiche der Kamerabilder 10 berücksichtigt wurden, die nicht oder nur wenig radialverzerrt sind (d.h. ein Sichtbereich bzw. Erfassungsbereich der Umfeldkameras ist insbesondere lateral eingeschränkt). Bezugszeichenliste The environmental image 21 or the image signal 20 shown in FIG. 4 was generated in particular with an embodiment of the device 1 and the method, in which it is provided that only a predetermined inner image area of the captured camera images 10 is used during projection. A direct comparison between an embodiment in which external areas of the camera images 10 were also used, that is to say also radially distorted areas due to fisheye optics, and the surrounding image 21 shown in FIG. 4 is shown in FIGS. 5a and 5b. In Fig. 5a it can be clearly seen that due to the use of the radially distorted outer image areas of the camera images 10, other vehicles 51 appear strongly distorted in the surrounding image 21. However, this is not the case with the other vehicles 51, which are shown in FIG particularly laterally restricted). Reference symbol list
Vorrichtung Umfeldkamera entfernungsauflösender Sensor Datenverarbeitungseinrichtung -1 Recheneinrichtung -2 Speicher 0 Kamerabild 1 Sensordaten 5 optische Eigenschaftsparameter 0 Bildsignal 1 Umfeldabbild 0 lokale Umfeldkarte 1-1 Datenpunkt (Ultraschallsensor) 1-2 Datenpunkt (Radarsensor) 1-3 Datenpunkt (Lidarsensor) 2 Position 3 Bodenprojektionsebene 4 Projektionsebene 5 abgewandte Seite 6 zugewandte Seite 0 Freifläche 1 erhabenes Objekt 0 Fahrzeug 1 Anzeigeeinrichtung Device environment camera distance-resolving sensor data processing device -1 computing device -2 memory 0 camera image 1 sensor data 5 optical property parameters 0 image signal 1 environment image 0 local environment map 1-1 data point (ultrasonic sensor) 1-2 data point (radar sensor) 1-3 data point (lidar sensor) 2 position 3 floor projection plane 4 projection plane 5 facing away side 6 facing side 0 open space 1 raised object 0 vehicle 1 display device

Claims

Patentansprüche Verfahren zum Erzeugen eines Umfeldabbildes (21) für einen Parkassistenten eines Fahrzeugs (50), wobei an mehreren Positionen (32) des Fahrzeugs (50): Claims Method for generating an image of the environment (21) for a parking assistant of a vehicle (50), wherein at several positions (32) of the vehicle (50):
- ein Umfeld des Fahrzeugs (50) mittels mehrerer Umfeldkameras (2) erfasst wird,- an environment of the vehicle (50) is recorded by means of several surrounding cameras (2),
- das Umfeld mittels mindestens eines entfernungsauflösenden Sensors (3) erfasst wird, wobei ausgehend von erfassten Sensordaten (11) des mindestens einen entfernungsauflösenden Sensors (3) Freiflächen (40) und erhabene Objekte (41) im Umfeld identifiziert werden, wobei eine lokale Umfeldkarte (30) ausgehend von den erfassten Sensordaten (11) und/oder den identifizierten Freiflächen (40) und den identifizierten erhabenen Objekten (41) erzeugt wird, wobei identifizierte Freiflächen (40) und identifizierte erhabene Objekte (41) positionsabhängig und erfassungsrichtungsabhängig mit hiermit korrespondierenden Kamerabildern (10) verknüpft werden, wobei ein Bildsignal (20) für ein Umfeldabbild (21) in Draufsicht auf das Fahrzeug (50) erzeugt wird, indem die Kamerabilder (10) hierfür zumindest teilweise positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen (40) und Objekte (41) in der Umfeldkarte (30) projiziert werden, und wobei das erzeugte Bildsignal (20) bereitgestellt wird. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass beim Erzeugen der Umfeldkarte (30) aus Freiflächen schrittweise für die mehreren Positionen (32) eine positionsabhängige Bodenprojektionsebene (33) definiert wird, auf die die jeweils mit den Freiflächen (40) verknüpften Kamerabilder (10) projiziert werden. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass beim Erzeugen der Umfeldkarte (30) aus erhabenen Objekten (41) schrittweise für die mehreren Positionen (32) mindestens eine positionsabhängige Projektionsebene (34) definiert wird, auf die die jeweils mit den erhabenen Objekten (41 ) verknüpften Kamerabilder (10) projiziert werden. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass beim Erzeugen der mindestens einen Projektionsebene (34) mindestens ein Bereich ergänzt wird, wenn die für diesen Bereich erfassten Sensordaten (11) des mindestens einen entfernungsauflösenden Sensors (3) mit einem anderen Fahrzeug (51) korrespondieren. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass ein Grad einer jeweiligen Radialverzerrung der Umfeldkameras (2) beim Erfassen und/oder Projizieren berücksichtigt wird. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass jeweils nur ein vorgegebener innerer Bildbereich der erfassten Kamerabilder (10) beim Projizieren verwendet wird. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass das Bildsignal (20) für Bereiche des Umfeldabbildes (21), für die keine Kameradaten (10) und/oder keine Sensordaten (11) aufgrund von Verdeckung vorhanden sind, ausgehend von Nachbarbereichen, die an diese Bereiche angrenzen, extrapoliert und/oder geschätzt werden. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass ausgehend von den an den mehreren Positionen (32) des Fahrzeugs (50) erfassten Kamerabildern (10) zusätzlich eine dreidimensionale Punktwolke des Umfelds erzeugt und beim Identifizieren der Freiflächen (40) und/oder der erhabenen Objekte (41) im Umfeld berücksichtigt wird. Vorrichtung (1) zum Erzeugen eines Umfeldabbildes (21) für einen Parkassistenten eines Fahrzeugs (50), umfassend: mehrere Umfeldkameras (2), eingerichtet zum Erfassen eines Umfelds des Fahrzeugs (50), mindestens einen entfernungsauflösenden Sensor (3), eingerichtet zum Erfassen des Umfelds, und eine Datenverarbeitungseinrichtung (4), wobei die Datenverarbeitungseinrichtung (4) dazu eingerichtet ist, ausgehend von an mehreren Positionen (32) des Fahrzeugs (50) erfassten Sensordaten (11) des mindestens einen entfernungsauflösenden Sensors (3) Freiflächen (40) und erhabene Objekte (41) im Umfeld zu identifizieren, eine lokale Umfeldkarte (30) ausgehend von den erfassten Sensordaten (11) und/oder den identifizierten Freiflächen (40) und den identifizierten erhabenen Objekten (41) zu erzeugen, identifizierte Freiflächen (40) und identifizierte erhabene Objekte (41) positionsabhängig und erfassungsrichtungsabhängig mit hiermit korrespondierenden Kamerabildern (10) zu verknüpfen, ein Bildsignal (20) für ein Umfeldabbild (21) in Draufsicht auf das Fahrzeug (50) zu erzeugen, und die Kamerabilder (10) hierfür zumindest teilweise positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen (40) und Objekte (41) in der Umfeldkarte (30) zu projizieren, und das erzeugte Bildsignal (20) bereitzustellen. Fahrzeug (50), umfassend mindestens eine Vorrichtung (1) nach Anspruch 9. - the environment is detected by means of at least one distance-resolving sensor (3), with open spaces (40) and raised objects (41) in the environment being identified based on detected sensor data (11) of the at least one distance-resolving sensor (3), with a local environment map ( 30) is generated based on the detected sensor data (11) and/or the identified open spaces (40) and the identified raised objects (41), with identified open spaces (40) and identified raised objects (41) being position-dependent and detection direction-dependent with corresponding camera images (10). 41) are projected in the environment map (30), and the generated image signal (20) is provided. Method according to claim 1, characterized in that when generating the environment map (30) from open spaces, a position-dependent floor projection plane (33) is gradually defined for the plurality of positions (32), onto which the camera images (10) linked to the open spaces (40) be projected. Method according to claim 1 or 2, characterized in that when generating the environment map (30) from raised objects (41), at least one position-dependent projection plane (34) is defined step by step for the plurality of positions (32), onto which the respective raised objects (41) linked camera images (10) are projected. Method according to one of the preceding claims, characterized in that when generating the at least one projection plane (34) at least one area is supplemented if the sensor data (11) recorded for this area of the at least one distance-resolving sensor (3) corresponds to another vehicle (51). Method according to one of the preceding claims, characterized in that a degree of a respective radial distortion of the surrounding cameras (2) is taken into account when detecting and/or projecting. Method according to one of the preceding claims, characterized in that only a predetermined inner image area of the captured camera images (10) is used during projection. Method according to one of the preceding claims, characterized in that the image signal (20) for areas of the environment image (21) for which there is no camera data (10) and/or no sensor data (11) due to occlusion, starting from neighboring areas adjacent to these areas can be extrapolated and/or estimated. Method according to one of the preceding claims, characterized in that, starting from the camera images (10) captured at the several positions (32) of the vehicle (50), a three-dimensional point cloud of the environment is additionally generated and when identifying the open spaces (40) and / or the raised objects (41) in the environment are taken into account. Device (1) for generating an image of the surroundings (21) for a parking assistant of a vehicle (50), comprising: a plurality of surroundings cameras (2), set up to record an environment of the vehicle (50), at least one distance-resolving sensor (3), set up for recording of the environment, and a data processing device (4), the data processing device (4) being set up to detect open spaces (40) based on sensor data (11) of the at least one distance-resolving sensor (3) recorded at several positions (32) of the vehicle (50). and to identify raised objects (41) in the environment, a local environment map (30) based on the recorded sensor data (11) and/or to generate the identified open spaces (40) and the identified raised objects (41), to link identified open spaces (40) and identified raised objects (41) to corresponding camera images (10) in a position-dependent and detection direction-dependent manner, an image signal (20) for an image of the environment (21) in a top view of the vehicle (50), and to project the camera images (10) onto the open spaces (40) and objects (41) in the environment map (30) at least partially depending on the position and detection direction, and the generated image signal (20) to provide. Vehicle (50), comprising at least one device (1) according to claim 9.
PCT/EP2023/058624 2022-05-02 2023-04-03 Method and device for generating a surroundings image for a parking assistant of a vehicle WO2023213482A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022204313.8A DE102022204313A1 (en) 2022-05-02 2022-05-02 Method and device for generating an image of the environment for a parking assistant of a vehicle
DE102022204313.8 2022-05-02

Publications (1)

Publication Number Publication Date
WO2023213482A1 true WO2023213482A1 (en) 2023-11-09

Family

ID=86054130

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/058624 WO2023213482A1 (en) 2022-05-02 2023-04-03 Method and device for generating a surroundings image for a parking assistant of a vehicle

Country Status (2)

Country Link
DE (1) DE102022204313A1 (en)
WO (1) WO2023213482A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010051204A1 (en) * 2010-11-12 2012-05-16 Valeo Schalter Und Sensoren Gmbh Method for displaying obstacle for vehicle, involves detecting area surrounding vehicle with camera system, and detecting obstacles with sensor element independent of camera system
EP2583869A1 (en) * 2010-06-18 2013-04-24 Aisin Seiki Kabushiki Kaisha Parking support device
EP2832590A1 (en) * 2012-03-30 2015-02-04 Panasonic Corporation Parking assistance device and parking assistance method
DE102018210812A1 (en) * 2018-06-30 2020-01-02 Robert Bosch Gmbh Method for a sensor- and memory-based representation of an environment, display device and vehicle with the display device
WO2021043732A1 (en) * 2019-09-05 2021-03-11 Valeo Schalter Und Sensoren Gmbh Display of a vehicle environment for moving the vehicle to a target position
EP3939863A1 (en) * 2020-07-13 2022-01-19 Faurecia Clarion Electronics Co., Ltd. Overhead-view image generation device, overhead-view image generation system, and automatic parking device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007027847A2 (en) 2005-09-01 2007-03-08 Geosim Systems Ltd. System and method for cost-effective, high-fidelity 3d-modeling of large-scale urban environments
JP2007172541A (en) 2005-12-26 2007-07-05 Toyota Motor Corp Driving support device
EP3394833B1 (en) 2015-12-21 2020-01-29 Robert Bosch GmbH Dynamic image blending for multiple-camera vehicle systems
DE102018214874B3 (en) 2018-08-31 2019-12-19 Audi Ag Method and arrangement for generating an environment map of a vehicle textured with image information and vehicle comprising such an arrangement

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2583869A1 (en) * 2010-06-18 2013-04-24 Aisin Seiki Kabushiki Kaisha Parking support device
DE102010051204A1 (en) * 2010-11-12 2012-05-16 Valeo Schalter Und Sensoren Gmbh Method for displaying obstacle for vehicle, involves detecting area surrounding vehicle with camera system, and detecting obstacles with sensor element independent of camera system
EP2832590A1 (en) * 2012-03-30 2015-02-04 Panasonic Corporation Parking assistance device and parking assistance method
DE102018210812A1 (en) * 2018-06-30 2020-01-02 Robert Bosch Gmbh Method for a sensor- and memory-based representation of an environment, display device and vehicle with the display device
WO2021043732A1 (en) * 2019-09-05 2021-03-11 Valeo Schalter Und Sensoren Gmbh Display of a vehicle environment for moving the vehicle to a target position
EP3939863A1 (en) * 2020-07-13 2022-01-19 Faurecia Clarion Electronics Co., Ltd. Overhead-view image generation device, overhead-view image generation system, and automatic parking device

Also Published As

Publication number Publication date
DE102022204313A1 (en) 2023-11-02

Similar Documents

Publication Publication Date Title
EP3183721B1 (en) Method and axle-counting device for contact-free axle counting of a vehicle and axle-counting system for road traffic
DE102018121019A1 (en) EXPANDING REAL SENSOR RECORDS WITH SIMULATED SENSOR DATA
DE102016220075A1 (en) Motor vehicle and method for 360 ° field detection
DE112010000019T5 (en) Method for optically scanning and measuring an environment
DE102010042026B4 (en) Method for generating an image of at least one object in the surroundings of a vehicle
DE102012001554A1 (en) Method for operating a driver assistance device of a motor vehicle, driver assistance device and motor vehicle
DE112016001150T5 (en) ESTIMATION OF EXTRINSIC CAMERA PARAMETERS ON THE BASIS OF IMAGES
DE102018120405A1 (en) FUSION OF RADAR AND IMAGE SENSORS
DE102015115012A1 (en) Method for generating an environment map of an environment of a motor vehicle based on an image of a camera, driver assistance system and motor vehicle
DE102016203710B4 (en) Distance and direction estimation of a target point from a vehicle using a monocular video camera
DE112020004301T5 (en) OBJECT RECOGNITION DEVICE
DE102013103952B4 (en) Lane detection at full speed with an all-round vision system
DE102015209764A1 (en) Extrinsic calibration of an image capture device of a vehicle
DE102011010860A1 (en) Method and driver assistance system for displaying images in a motor vehicle and motor vehicle
DE102013103953B4 (en) Lane detection at full speed using multiple cameras
DE102016011378A1 (en) Method for self-localization of a vehicle
EP3815044A1 (en) Method for sensor and memory-based depiction of an environment, display apparatus and vehicle having the display apparatus
DE102013215408A1 (en) A vehicle display system and method for displaying a vehicle environment
DE102014201409B4 (en) PARKING - TRACKING DEVICE AND PROCEDURES OF THE SAME
DE102015223500A1 (en) Method and device for testing the functionality of an outside lighting device of a vehicle
WO2023213482A1 (en) Method and device for generating a surroundings image for a parking assistant of a vehicle
DE102008050456B4 (en) Method and apparatus for lane detection
DE102010009620B4 (en) Method and device for detecting at least one obstacle in a vehicle environment
DE102020109789A1 (en) Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system
DE102019209849B4 (en) Method and control device for distance-measuring image processing for a stereo camera device for a vehicle and stereo camera system with a stereo camera device and a control device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23718188

Country of ref document: EP

Kind code of ref document: A1