DE102022204313A1 - Method and device for generating an image of the environment for a parking assistant of a vehicle - Google Patents

Method and device for generating an image of the environment for a parking assistant of a vehicle Download PDF

Info

Publication number
DE102022204313A1
DE102022204313A1 DE102022204313.8A DE102022204313A DE102022204313A1 DE 102022204313 A1 DE102022204313 A1 DE 102022204313A1 DE 102022204313 A DE102022204313 A DE 102022204313A DE 102022204313 A1 DE102022204313 A1 DE 102022204313A1
Authority
DE
Germany
Prior art keywords
environment
vehicle
image
identified
open spaces
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022204313.8A
Other languages
German (de)
Inventor
Philipp Hüger
Carolin Last
Hellward Broszio
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102022204313.8A priority Critical patent/DE102022204313A1/en
Priority to PCT/EP2023/058624 priority patent/WO2023213482A1/en
Publication of DE102022204313A1 publication Critical patent/DE102022204313A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Image Processing (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erzeugen eines Umfeldabbildes (21) für einen Parkassistenten eines Fahrzeugs (50), wobei an mehreren Positionen (32) des Fahrzeugs (50) ein Umfeld des Fahrzeugs (50) mittels mehrerer Umfeldkameras (2) erfasst wird, das Umfeld mittels mindestens eines entfernungsauflösenden Sensors (3) erfasst wird; wobei ausgehend von erfassten Sensordaten (11) des mindestens einen entfernungsauflösenden Sensors (3) Freiflächen (40) und erhabene Objekte (41) im Umfeld identifiziert werden, wobei eine lokale Umfeldkarte (30) ausgehend von den erfassten Sensordaten (11) und/oder den identifizierten Freiflächen (40) und den identifizierten erhabenen Objekten (41) erzeugt wird, wobei identifizierte Freiflächen (40) und identifizierte erhabene Objekte (41) positionsabhängig und erfassungsrichtungsabhängig mit hiermit korrespondierenden Kamerabildern (10) verknüpft werden, wobei ein Bildsignal (20) für ein Umfeldabbild (21) in Draufsicht auf das Fahrzeug (50) erzeugt wird, indem die Kamerabilder (10) hierfür zumindest teilweise positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen (40) und Objekte (41) in der Umfeldkarte (30) projiziert werden, und wobei das erzeugte Bildsignal (20) bereitgestellt wird. Ferner betrifft die Erfindung eine Vorrichtung (1) zum Erzeugen eines Umfeldabbildes (21).The invention relates to a method for generating an image of the surroundings (21) for a parking assistant of a vehicle (50), wherein the surroundings of the vehicle (50) are recorded at several positions (32) of the vehicle (50) by means of several surrounding cameras (2). Surroundings are detected by means of at least one distance-resolving sensor (3); wherein, based on captured sensor data (11) of the at least one distance-resolving sensor (3), open spaces (40) and raised objects (41) in the environment are identified, a local environment map (30) based on the captured sensor data (11) and/or the identified open areas (40) and the identified raised objects (41), wherein identified open areas (40) and identified raised objects (41) are linked to corresponding camera images (10) depending on the position and the detection direction, an image signal (20) for a Environment image (21) is generated in a top view of the vehicle (50) by projecting the camera images (10) onto the open spaces (40) and objects (41) in the environment map (30) at least partially depending on the position and the detection direction, and whereby this generated image signal (20) is provided. The invention further relates to a device (1) for generating an image (21) of the surroundings.

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Erzeugen eines Umfeldabbildes für einen Parkassistenten eines Fahrzeugs.The invention relates to a method and a device for generating an image of the surroundings for a parking assistant of a vehicle.

In modernen Fahrzeugen sind Systeme einer kamerabasierten Umfeldansicht bekannt, die eine Draufsicht („Top View“) auf die nahe Umgebung des Fahrzeuges bereitstellen. Das Area View soll das Rangieren erleichtern. Hierzu wird das Umfeld von mehreren Umfeldkameras erfasst und zu einem Umfeldabbild zusammengefügt, welches auf eine planare Projektionsebene projiziert wird. Diese Projektionsebene entspricht einer Standfläche des Fahrzeugs. Ferner sind Systeme bekannt, bei denen die erfassten Kamerabilder auf eine Schüsselform („Bowl View“) projiziert werden, um weiter vom Fahrzeug entfernte erhabene Objekte in einer Seitenansicht darzustellen. Hierbei werden auch nahe erhabene Objekte auf den ebenen Boden der Schüsselform projiziert, der ebenfalls die Standfläche des Fahrzeuges repräsentiert.In modern vehicles, systems for a camera-based environment view are known, which provide a top view of the vehicle's immediate surroundings. The Area View is intended to make maneuvering easier. For this purpose, the surroundings are recorded by several surrounding cameras and combined to form an image of the surroundings, which is projected onto a planar projection plane. This projection plane corresponds to a standing area of the vehicle. Systems are also known in which the captured camera images are projected onto a bowl shape (“bowl view”) in order to display raised objects further away from the vehicle in a side view. Here, even raised objects are projected onto the flat base of the bowl shape, which also represents the base of the vehicle.

Das Erzeugen eines Umfeldabbildes in Draufsicht ist derzeit nur ungenügend gelöst.The creation of an image of the environment in a top view is currently not sufficiently solved.

Der Erfindung liegt die Aufgabe zu Grunde, ein Verfahren und eine Vorrichtung zum Erzeugen eines Umfeldabbildes für einen Parkassistenten eines Fahrzeugs zu verbessern.The invention is based on the object of improving a method and a device for generating an image of the surroundings for a parking assistant of a vehicle.

Die Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 und eine Vorrichtung mit den Merkmalen des Patentanspruchs 9 gelöst. Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.The object is achieved according to the invention by a method with the features of patent claim 1 and a device with the features of patent claim 9. Advantageous embodiments of the invention result from the subclaims.

Insbesondere wird ein Verfahren zum Erzeugen eines Umfeldabbildes für einen Parkassistenten eines Fahrzeugs zur Verfügung gestellt, wobei an mehreren Positionen des Fahrzeugs ein Umfeld des Fahrzeugs mittels mehrerer Umfeldkameras erfasst wird und das Umfeld mittels mindestens eines entfernungsauflösenden Sensors erfasst wird; wobei ausgehend von erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors Freiflächen und erhabene Objekte im Umfeld identifiziert werden, wobei eine lokale Umfeldkarte ausgehend von den erfassten Sensordaten und/oder den identifizierten Freiflächen und den identifizierten erhabenen Objekten erzeugt wird, wobei identifizierte Freiflächen und identifizierte erhabene Objekte positionsabhängig und erfassungsrichtungsabhängig mit hiermit korrespondierenden Kamerabildern verknüpft werden, wobei ein Bildsignal für ein Umfeldabbild in Draufsicht auf das Fahrzeug erzeugt wird, indem die Kamerabilder hierfür zumindest teilweise positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen und Objekte in der Umfeldkarte projiziert werden, und wobei das erzeugte Bildsignal bereitgestellt wird.In particular, a method for generating an image of the environment for a parking assistant of a vehicle is provided, wherein an environment of the vehicle is recorded at several positions of the vehicle using several environment cameras and the environment is recorded using at least one distance-resolving sensor; wherein open spaces and raised objects in the environment are identified based on detected sensor data from the at least one distance-resolving sensor, a local environment map being generated based on the detected sensor data and/or the identified open spaces and the identified raised objects, wherein identified open spaces and identified raised objects are position-dependent and linked to corresponding camera images depending on the detection direction, an image signal for an image of the surroundings in a top view of the vehicle being generated by projecting the camera images onto the open spaces and objects in the surroundings map at least partially depending on the position and depending on the detection direction, and the generated image signal being provided .

Ferner wird insbesondere eine Vorrichtung zum Erzeugen eines Umfeldabbildes für einen Parkassistenten eines Fahrzeugs geschaffen, umfassend mehrere Umfeldkameras, die zum Erfassen eines Umfelds des Fahrzeugs eingerichtet sind, mindestens einen entfernungsauflösenden Sensor, der zum Erfassen des Umfelds eingerichtet ist, und eine Datenverarbeitungseinrichtung, wobei die Datenverarbeitungseinrichtung dazu eingerichtet ist, ausgehend von an mehreren Positionen des Fahrzeugs erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors Freiflächen und erhabene Objekte im Umfeld zu identifizieren, eine lokale Umfeldkarte ausgehend von den erfassten Sensordaten und/oder den identifizierten Freiflächen und den identifizierten erhabenen Objekten zu erzeugen, identifizierte Freiflächen und identifizierte erhabene Objekte positionsabhängig und erfassungsrichtungsabhängig mit hiermit korrespondierenden Kamerabildern zu verknüpfen, ein Bildsignal für ein Umfeldabbild in Draufsicht auf das Fahrzeug zu erzeugen, und die Kamerabilder hierfür zumindest teilweise positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen und Objekte in der Umfeldkarte zu projizieren, und das erzeugte Bildsignal bereitzustellen.Furthermore, in particular, a device for generating an image of the surroundings for a parking assistant of a vehicle is created, comprising a plurality of surrounding cameras that are set up to capture the surroundings of the vehicle, at least one distance-resolving sensor that is set up to capture the surroundings, and a data processing device, wherein the data processing device is set up to identify open spaces and raised objects in the environment based on sensor data recorded at several positions of the vehicle from the at least one distance-resolving sensor, to generate a local map of the surrounding area based on the recorded sensor data and / or the identified open spaces and the identified raised objects To link open spaces and identified raised objects with camera images corresponding to them, depending on the position and the direction of detection, to generate an image signal for an image of the surroundings in a top view of the vehicle, and to project the camera images for this purpose onto the open spaces and objects in the surroundings map at least partially depending on the position and depending on the direction of detection, and that to provide generated image signal.

Das Verfahren und die Vorrichtung ermöglichen es, ein verbessertes kamerabasiertes Umfeldabbild in Draufsicht zu erzeugen. Insbesondere werden mehrere Positionen des Fahrzeugs berücksichtigt, sodass nicht nur ein Umfeldabbild für eine aktuelle Position des Fahrzeugs bereitgestellt werden kann, sondern auch ein darüber hinausgehendes Umfeldabbild. Insbesondere korrespondieren die mehreren Positionen, an denen die Sensordaten und die Kamerabilder erfasst werden, mit Positionen innerhalb eines Parkszenarios. Insbesondere kann eine Historie des Umfeldes berücksichtigt werden, das heißt, ein kamerabasiertes Umfeldabbild, insbesondere in einem Parkszenario, kann schrittweise aufgebaut werden. Das Fahrzeug fährt hierzu beispielsweise (positionsweise) durch das Parkszenario (z.B. Parkplatz oder Parkhaus), wobei das Umfeldabbild während des Durchfahrens des Parkszenarios schrittweise erzeugt wird. Die Positionen werden beispielsweise mittels einer fahrzeugeigenen Odometrie ermittelt und/oder von der Odometrie abgerufen. An den mehreren Positionen, deren Koordinaten von der Odometrie ermittelt und/oder von dieser abgerufen werden, wird das Umfeld des Fahrzeugs mittels mehrerer Umfeldkameras und mittels mindestens eines entfernungsauflösenden Sensors erfasst. Dies erfolgt insbesondere an jeder der Positionen. Die Umfeldkameras sind in Anzahl und Ausrichtung insbesondere derart gewählt und angeordnet, dass diese ein vollständiges Umfeldabbild erfassen können, insbesondere alle horizontalen Richtungen um das Fahrzeug herum, d.h. insbesondere einen Horizontalwinkel von 0 bis 360°. Ausgehend von den erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors werden Freiflächen und erhabene Objekte im Umfeld identifiziert. Eine lokale Umfeldkarte wird ausgehend den erfassten Sensordaten und/oder von den identifizierten Freiflächen und den identifizierten erhabenen Objekten erzeugt. Dies erfolgt insbesondere mit an sich bekannten Verfahren. Die identifizierten Freiflächen und die identifizierten erhabenen Objekte werden positionsabhängig und erfassungsrichtungsabhängig mit hiermit korrespondierenden Kamerabildern verknüpft. Es können beispielsweise Bildelemente der an den mehreren Positionen erfassten Kamerabilder jeweils mit hiermit korrespondierenden Raumwinkeln der Erfassungsbereiche der Umfeldkameras verknüpft und an den Positionen hinterlegt werden. Dies ermöglicht für jede der Positionen eine Zuordnung der Bildelemente in den erfassten Kamerabildern zu Bereichen in dem Umfeld, wodurch eine Projektion der Kamerabilder auf die jeweiligen Bereiche erfolgen kann. Es wird ein Bildsignal für ein Umfeldabbild in Draufsicht auf das Fahrzeug erzeugt, indem die Kamerabilder hierfür zumindest teilweise positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen und Objekte in der Umfeldkarte projiziert werden. Das erzeugte Bildsignal wird bereitgestellt, beispielsweise als analoges oder digitales Signal oder digitales Datenpaket. Das erzeugte Bildsignal kann anschließend beispielsweise auf einer Anzeigeeinrichtung des Fahrzeugs angezeigt werden, um einen Fahrer des Fahrzeugs beim Einparken und/oder Rangieren zu unterstützen.The method and the device make it possible to generate an improved camera-based image of the environment in a top view. In particular, several positions of the vehicle are taken into account, so that not only an image of the environment for a current position of the vehicle can be provided, but also an image of the environment that goes beyond this. In particular, the multiple positions at which the sensor data and the camera images are captured correspond to positions within a parking scenario. In particular, a history of the environment can be taken into account, that is, a camera-based image of the environment, especially in a parking scenario, can be built up step by step. For this purpose, for example, the vehicle drives (position by position) through the parking scenario (e.g. parking lot or parking garage), with the image of the environment being generated step by step while driving through the parking scenario. The positions are determined, for example, using the vehicle's own odometry and/or retrieved from the odometry. At the several positions, the coordinates of which are determined by the odometry and/or retrieved by it, the surroundings of the vehicle are recorded by means of several surrounding cameras and by means of at least one distance-resolving sensor. This is done in particular at each of the positions. The number and orientation of the surrounding cameras are selected and arranged in such a way that these can capture a complete image of the environment, in particular all horizontal directions around the vehicle, that is, in particular a horizontal angle of 0 to 360°. Based on the recorded sensor data from the at least one distance-resolving sensor, open spaces and raised objects in the surrounding area are identified. A local environment map is generated based on the recorded sensor data and/or from the identified open spaces and the identified raised objects. This is done in particular using methods known per se. The identified open spaces and the identified raised objects are linked to corresponding camera images depending on the position and detection direction. For example, image elements of the camera images captured at the multiple positions can each be linked to corresponding solid angles of the detection areas of the surrounding cameras and stored at the positions. For each of the positions, this enables the image elements in the captured camera images to be assigned to areas in the environment, whereby the camera images can be projected onto the respective areas. An image signal for an image of the surroundings in a top view of the vehicle is generated by projecting the camera images onto the open spaces and objects in the surroundings map at least partially in a position-dependent and detection direction-dependent manner. The generated image signal is provided, for example as an analog or digital signal or digital data packet. The generated image signal can then be displayed, for example, on a display device of the vehicle in order to support a driver of the vehicle when parking and/or maneuvering.

Es kann vorgesehen sein, dass das Umfeldabbild nur einen begrenzten Bereich des Umfeldes berücksichtigt, das heißt, dass eine Historie nur bis zu einem bestimmten Zeitpunkt oder bis zu einer bestimmten Position in der Vergangenheit zurückreicht. Die Umfeldabbildung kann beispielsweise nach Art eines Shiftregisters ausgebildet sein, bei dem nur bis zu einem bestimmten Zeitpunkt in der Vergangenheit bzw. bis zu einer bestimmten vergangenen Position des Fahrzeugs erfasste Sensordaten und Kamerabilder berücksichtigt werden. Es kann jedoch auch vorgesehen sein, die Umfeldabbildung ohne Begrenzung zu erzeugen, bis ein hierfür reservierter Speicherplatz der Datenverarbeitungseinrichtung vollständig belegt ist.It can be provided that the environment image only takes into account a limited area of the environment, that is, that a history only extends back to a specific point in time or to a specific position in the past. The environment map can, for example, be designed in the manner of a shift register, in which sensor data and camera images recorded up to a specific point in time in the past or up to a specific past position of the vehicle are taken into account. However, it can also be provided to generate the environment image without limitation until a memory space in the data processing device reserved for this purpose is completely occupied.

Ein entfernungsauflösender Sensor ist insbesondere ein Ultraschallsensor, ein Radarsensor oder ein Lidarsensor. Grundsätzlich können auch mehrere (unterschiedliche) Sensoren verwendet werden. Eine Anzahl und/oder eine Anordnung und/oder eine Ausrichtung des mindestens einen entfernungsauflösenden Sensors ist insbesondere derart gewählt, dass ein Horizontwinkel (z.B. Azimut) von 0 bis 360° erfasst werden kann. Ein Vertikalwinkelbereich (z.B. Elevation) liegt hierbei beispielsweise in einem Bereich von 0 bis etwa 30-45°, kann jedoch grundsätzlich auch einen anderen Bereich abdecken.A distance-resolving sensor is in particular an ultrasonic sensor, a radar sensor or a lidar sensor. In principle, several (different) sensors can also be used. A number and/or an arrangement and/or an orientation of the at least one distance-resolving sensor is selected in particular such that a horizon angle (e.g. azimuth) of 0 to 360° can be detected. A vertical angle range (e.g. elevation) lies, for example, in a range from 0 to approximately 30-45°, but can in principle also cover a different range.

Freiflächen sind beispielsweise Bereiche im Umfeld, für die die entfernungsaufgelösten Sensordaten ergeben, dass innerhalb eines vorgegebenen Mindestabstands zum Sensor kein Objekt und/oder keine Reflexion oberhalb eines vorgegebenen Vertikalwinkels erfasst wird. Der vorgegebene Mindestabstand beträgt beispielsweise einige Meter (z.B. 10 m, 15 m etc.) und der vorgegebene Vertikalwinkel ist beispielsweise 5°, 10° oder 15° etc.Open spaces are, for example, areas in the environment for which the distance-resolved sensor data show that no object and/or no reflection above a predetermined vertical angle is detected within a predetermined minimum distance from the sensor. The specified minimum distance is, for example, a few meters (e.g. 10 m, 15 m, etc.) and the specified vertical angle is, for example, 5°, 10° or 15° etc.

Die lokale Umfeldkarte ist insbesondere eine dreidimensionale Umfeldkarte, welche beispielsweise mittels eines lokalen kartesischen Koordinatensystems beschrieben wird.The local environment map is in particular a three-dimensional environment map, which is described, for example, using a local Cartesian coordinate system.

Das Projizieren erfolgt insbesondere, indem die Kamerabilder als Texturen über die Freiflächen und die erhabenen Objekte gelegt werden. Das Projizieren erfolgt hierbei insbesondere positionsabhängig und erfassungsrichtungsabhängig in perspektivisch korrekter Form, sodass das Umfeldabbild in Draufsicht derart erzeugt wird, dass dieses idealerweise einem real mittels einer Kamera aus der Vogelperspektive erfassten Umfeldabbild entspricht. Beim Projizieren werden insbesondere an sich bekannte Verfahren, wie beispielsweise Stitching und/oder Helligkeits- und/oder Kontrastangleichungen, verwendet, um verschiedene Kamerabilder miteinander zu verbinden.Projecting is done in particular by placing the camera images as textures over the open spaces and raised objects. The projection is carried out in a perspectively correct form, in particular in a position-dependent and detection direction-dependent manner, so that the image of the environment is generated in a top view in such a way that it ideally corresponds to an image of the environment captured from a bird's eye view using a camera. When projecting, methods known per se, such as stitching and/or brightness and/or contrast adjustments, are used in particular to connect different camera images with one another.

Teile der Vorrichtung, insbesondere die Datenverarbeitungseinrichtung, können einzeln oder zusammengefasst als eine Kombination von Hardware und Software ausgebildet sein, beispielsweise als Programmcode, der auf einem Mikrocontroller oder Mikroprozessor ausgeführt wird. Es kann jedoch auch vorgesehen sein, dass Teile einzeln oder zusammengefasst als anwendungsspezifische integrierte Schaltung (ASIC) und/oder feldprogrammierbares Gatterfeld (FPGA) ausgebildet sind.Parts of the device, in particular the data processing device, can be designed individually or collectively as a combination of hardware and software, for example as program code that is executed on a microcontroller or microprocessor. However, it can also be provided that parts are designed individually or combined as an application-specific integrated circuit (ASIC) and/or field-programmable gate array (FPGA).

In einer Ausführungsform ist vorgesehen, dass beim Erzeugen der Umfeldkarte aus Freiflächen schrittweise für die mehreren Positionen eine positionsabhängige Bodenprojektionsebene definiert wird, auf die die jeweils mit den Freiflächen verknüpften Kamerabilder projiziert werden. Positionsabhängig bedeutet hierbei insbesondere, dass die Bodenprojektionsebene nur dort definiert ist, wo Freiflächen identifiziert wurden. Hierdurch kann schrittweise ein Bodenniveau für die Standfläche des Fahrzeugs definiert werden. Dem liegt der Gedanke zugrunde, dass Freiflächen nicht von jeder Position des Fahrzeugs aus als Freiflächen erscheinen, beispielsweise weil ein Objekt die Freifläche aus einigen Positionen des Fahrzeugs aus gesehen verdeckt, aus anderen hingegen nicht. Wenn diese Freifläche jedoch aus mehreren Positionen bzw. aus zumindest einer Position als Freifläche erfasst und identifiziert werden kann, ist dies ausreichend, um diese Freifläche im Umfeldabbild als solche zu berücksichtigen. Insbesondere werden einmal als Freiflächen identifizierte Bereiche im Umfeld stets als Freiflächen identifiziert, auch wenn diese von anderen Positionen aus nicht als Freifläche identifiziert werden. Die Bodenprojektionsebene wird insbesondere in einem lokalen (beispielsweise kartesischen) Koordinatensystem der Umfeldkarte definiert.In one embodiment it is provided that when the environment map is generated from open spaces, a position-dependent ground projection plane is gradually defined for the multiple positions, onto which the camera images linked to the open spaces are projected. Position-dependent means in particular that the ground projection plane is only defined where open spaces have been identified. This allows a floor level for the vehicle's standing area to be gradually defined. This is based on the idea that open spaces cannot be viewed from every position of the vehicle appear as open spaces, for example because an object obscures the open space when viewed from some positions of the vehicle but not from others. However, if this open space can be detected and identified as an open space from several positions or from at least one position, this is sufficient to take this open space into account as such in the environmental image. In particular, once identified as open spaces, areas in the surrounding area are always identified as open spaces, even if they are not identified as open spaces from other positions. The ground projection plane is defined in particular in a local (for example Cartesian) coordinate system of the environment map.

In einer Ausführungsform ist vorgesehen, dass beim Erzeugen der Umfeldkarte aus erhabenen Objekten schrittweise für die mehreren Positionen mindestens eine positionsabhängige Projektionsebene definiert wird, auf die die jeweils mit den erhabenen Objekten verknüpften Kamerabilder projiziert werden. Hierdurch können erhabene Objekte im Umfeldabbild in Draufsicht als solche dargestellt werden. Befindet sich beispielsweise ein anderes Fahrzeug im Umfeld des Fahrzeugs, so wird dieses andere Fahrzeug als erhabenes Objekt identifiziert und für das andere Fahrzeug wird, beispielsweise ausgehend von der höchsten Position der zugehörig erfassten Sensordaten, eine auf dieser höchsten Position angeordnete Projektionsebene definiert. Diese Projektionsebene fällt dann idealerweise mit einer Höhe einer Motorhaube oder eines Dachs oder einer Kofferraumklappe (bei einem Fließheck) des anderen Fahrzeugs zusammen. Die erfassten Kamerabilder werden dann entsprechend positionsabhängig und erfassungsrichtungsabhängig auf die hierfür definierten Projektionsebenen projiziert, sodass sich im erzeugten Bildsignal bzw. im Umfeldabbild in Draufsicht eine realistischere Darstellung ergibt.In one embodiment, it is provided that when the environment map is generated from raised objects, at least one position-dependent projection plane is gradually defined for the multiple positions, onto which the camera images associated with the raised objects are projected. This allows raised objects to be displayed as such in the image of the environment in a top view. For example, if there is another vehicle in the vicinity of the vehicle, this other vehicle is identified as a raised object and a projection plane arranged at this highest position is defined for the other vehicle, for example starting from the highest position of the associated sensor data. This projection plane then ideally coincides with a height of a hood or a roof or a trunk lid (in the case of a hatchback) of the other vehicle. The captured camera images are then projected onto the projection planes defined for this purpose, depending on the position and direction of capture, so that a more realistic representation results in the generated image signal or in the image of the environment in a top view.

In einer Ausführungsform ist vorgesehen, dass beim Erzeugen der mindestens einen Projektionsebene mindestens ein Bereich ergänzt wird, wenn die für diesen Bereich erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors mit einem anderen Fahrzeug korrespondieren. Hierdurch können auch verdeckte Bereiche, die von den Umfeldkameras nicht erfasst werden können, in dem erzeugten Umfeldabbild als derart ergänzte Bereiche dargestellt werden. Dahinter steht der Gedanke, dass eine Projektionsebene für ein Dach eines anderen Fahrzeugs beispielsweise ergänzt werden kann, wenn eine Höhe einer Dachkante in der Umfeldkarte bekannt ist. Das Dach wird dann an der mit der Dachkante zusammenfallenden Höhe ergänzt. Ausgehend von den erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors und/oder den erfassten Kamerabildern werden hierzu insbesondere andere Fahrzeug erkannt. Dies erfolgt mittels an sich bekannter Verfahren, wie beispielsweise Mustererkennung und/oder Maschinenlernen. Grundsätzlich können auch andere Objekte erkannt und in entsprechender Weise ergänzt werden.In one embodiment it is provided that when the at least one projection plane is generated, at least one area is added if the sensor data of the at least one distance-resolving sensor recorded for this area corresponds to another vehicle. This means that hidden areas that cannot be captured by the surrounding cameras can also be represented as such supplemented areas in the surrounding image generated. The idea behind this is that a projection plane for a roof of another vehicle can be added, for example, if the height of a roof edge is known in the surrounding map. The roof is then added at the height that coincides with the edge of the roof. Based on the captured sensor data of the at least one distance-resolving sensor and/or the captured camera images, other vehicles in particular are recognized for this purpose. This is done using methods known per se, such as pattern recognition and/or machine learning. In principle, other objects can also be recognized and supplemented accordingly.

In einer Ausführungsform ist vorgesehen, dass ein Grad einer jeweiligen Radialverzerrung der Umfeldkameras beim Erfassen und/oder Projizieren berücksichtigt wird. Hierdurch können für das Projizieren insbesondere diejenigen Bereiche in den erfassten Kameraabbildungen verwendet werden, die das Umfeld, also Freiflächen und erhabene Objekte, unverzerrt in einer hohen Auflösung zeigen. Da Umfeldkameras in der Regel einen großen Erfassungsbereich (z.B. 180°) aufweisen, wird eine Abbildungsoptik dazu verwendet, diesen großen Erfassungsbereich auf einen Bildsensor abzubilden. Hierbei bildet die Abbildungsoptik insbesondere Randbereiche stark verzerrt ab („Fischaugenoptik“), sodass im Vergleich zu einer Bildmitte ein größerer Raumwinkelbereich auf eine gleiche Anzahl von Sensorelementen des Bildsensors der Umfeldkameras abgebildet wird. Dies führt zu einer radial von der Bildmitte zunehmenden Verzerrung und abnehmenden Auflösung. Es kann beispielsweise vorgesehen sein, dass nur Bereiche der erfassten Kameraabbildungen verwendet werden, in denen der Grad der Randverzerrung unterhalb eines vorgegebenen Schwellwertes liegt (beispielsweise angegeben als Anzahl von Bildelementen pro Raumwinkel oder als Änderung der Anzahl der Bildelemente pro Raumwinkel etc.). Werden nur diese Bereiche beim Erfassen und/oder Projizieren berücksichtigt, so kann insgesamt eine Auflösung der Umfeldabbildung erhöht werden. Ferner kann eine Verzerrung und/oder Verfälschung beim Projizieren verringert oder sogar verhindert werden. Wird beispielsweise eine Freifläche an mehreren Positionen aus unterschiedlichen Richtungen erfasst, so können diejenigen Kameraabbildungen oder Bereiche dieser Kameraabbildungen verwendet werden, die die höchste Auflösung oder zumindest eine Auflösung oberhalb eines vorgegebenen Schwellwertes aufweisen. Es kann ferner auch vorgesehen sein, einen solchen Schwellwert dynamisch in Abhängigkeit von einer Verfügbarkeit von erfassten Kamerabildern anzupassen. Dies kann insbesondere in Abhängigkeit davon erfolgen, mit welcher Auflösung Kamerabilder für identifizierte Freiflächen und/oder identifizierte erhabene Objekte erfasst wurden und zur Verfügung stehen. Stehen Kamerabilder mit höherer Auflösung zur Verfügung, so werden nur diese oder Bereiche hiervon mit einer Auflösung oberhalb des Schwellwertes und/oder unterhalb eines vorgegebenen Grades der Randverzerrung verwendet; stehen für identifizierte Freiflächen und/oder identifizierte erhabene Objekte hingegen nur Kamerabilder mit geringerer Auflösung zur Verfügung (z.B. weil diese aus randverzerrten Bildbereichen stammen), so werden diese verwendet. Es wird hierbei insbesondere angestrebt, stets die am höchsten verfügbare Auflösung zu verwenden. Entsprechend kann der Schwellwert dynamisch angepasst werden.In one embodiment it is provided that a degree of a respective radial distortion of the surrounding cameras is taken into account when detecting and/or projecting. This means that in particular those areas in the captured camera images can be used for projection that show the surroundings, i.e. open spaces and raised objects, undistorted in a high resolution. Since environmental cameras generally have a large detection range (e.g. 180°), imaging optics are used to image this large detection range on an image sensor. The imaging optics image particularly edge areas in a highly distorted manner (“fisheye optics”), so that, compared to the center of the image, a larger solid angle area is imaged on an equal number of sensor elements of the image sensor of the surrounding cameras. This results in increasing distortion and decreasing resolution radially from the center of the image. For example, it can be provided that only areas of the captured camera images are used in which the degree of edge distortion is below a predetermined threshold value (for example specified as the number of image elements per solid angle or as a change in the number of image elements per solid angle, etc.). If only these areas are taken into account when detecting and/or projecting, the overall resolution of the image of the surroundings can be increased. Furthermore, distortion and/or falsification during projection can be reduced or even prevented. For example, if an open area is captured at several positions from different directions, those camera images or areas of these camera images can be used that have the highest resolution or at least a resolution above a predetermined threshold value. Provision can also be made to dynamically adapt such a threshold value depending on the availability of captured camera images. This can be done in particular depending on the resolution with which camera images for identified open spaces and/or identified raised objects were captured and are available. If camera images with higher resolution are available, only these or areas thereof with a resolution above the threshold value and/or below a predetermined degree of edge distortion are used; However, for identified open spaces and/or identified raised objects, only camera images with lower resolution are available (e.g. because they consist of edge-distorted images areas), these are used. The aim here is in particular to always use the highest resolution available. The threshold value can be adjusted dynamically accordingly.

In einer Ausführungsform ist vorgesehen, dass jeweils nur ein vorgegebener innerer Bildbereich der erfassten Kamerabilder beim Projizieren verwendet wird. Hierdurch kann ebenfalls eine Radialverzerrung berücksichtigt werden. Insbesondere ermöglicht dies eine besonders einfach und aufwandsarm umzusetzende Variante, da der innere Bildbereich einmalig definiert werden kann und dann in der Folge nur dieser innere Bildbereich beim Projizieren berücksichtigt wird. Der innere Bildbereich kann beispielsweise durch Vorgabe einer Mindestauflösung definiert werden.In one embodiment it is provided that only a predetermined inner image area of the captured camera images is used during projection. This also allows radial distortion to be taken into account. In particular, this enables a variant that is particularly easy to implement and requires little effort, since the inner image area can be defined once and then only this inner image area is taken into account when projecting. The inner image area can be defined, for example, by specifying a minimum resolution.

In einer Ausführungsform ist vorgesehen, dass das Bildsignal für Bereiche des Umfeldabbildes, für die keine Kameradaten und/oder keine Sensordaten aufgrund von Verdeckung vorhanden sind, ausgehend von Nachbarbereichen, die an diese Bereiche angrenzen, extrapoliert und/oder geschätzt werden. Hierdurch kann auch für diese nicht mittels der Umfeldkameras erfassten Bereiche ein Bildsignal bereitgestellt werden. Dahinter steht der Gedanke, dass beispielsweise eine Textur für ein Dach eines anderen Fahrzeugs (oder eines anderen Objektes) ergänzt und/oder geschätzt werden kann, wenn eine Textur einer Motorhaube, einer Heckklappe und/oder eines sonstigen Teils des anderen Fahrzeugs (oder des anderen Objektes) bekannt ist. Das Dach wird dann mit Hilfe der extrapolierten und/oder geschätzten Textur ergänzt bzw. es wird eine extrapolierte und/oder geschätzte Kameraabbildung auf die zugehörige Projektionsebene projiziert. Ausgehend von den erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors und/oder den erfassten Kamerabildern werden hierzu insbesondere andere Fahrzeug und/oder andere Objekte im Umfeld erkannt. Dies erfolgt mittels an sich bekannter Verfahren, wie beispielsweise Mustererkennung und/oder Maschinenlernen. Grundsätzlich können auch andere Objekte erkannt und in entsprechender Weise ergänzt werden. Es kann ferner vorgesehen sein, dass verdeckte Bereiche ausgehend von den erfassten Sensordaten und optischen Eigenschaften der Umfeldkameras bestimmt werden.In one embodiment, it is provided that the image signal for areas of the environment image for which no camera data and/or no sensor data is available due to occlusion is extrapolated and/or estimated based on neighboring areas that border on these areas. This means that an image signal can also be provided for these areas that are not captured by the surrounding cameras. The idea behind this is that, for example, a texture for a roof of another vehicle (or another object) can be supplemented and/or appreciated when a texture of a hood, a tailgate and/or another part of the other vehicle (or the other object) is known. The roof is then supplemented with the help of the extrapolated and/or estimated texture or an extrapolated and/or estimated camera image is projected onto the associated projection plane. Based on the captured sensor data of the at least one distance-resolving sensor and/or the captured camera images, in particular other vehicles and/or other objects in the environment are recognized. This is done using methods known per se, such as pattern recognition and/or machine learning. In principle, other objects can also be recognized and supplemented accordingly. It can also be provided that hidden areas are determined based on the recorded sensor data and optical properties of the surrounding cameras.

Es kann ferner vorgesehen sein, dass identifizierte erhabene Objekte, insbesondere andere Fahrzeuge, im Umfeld zumindest teilweise gerendert werden, wobei dies ausgehend von den erfassten Sensordaten des entfernungsauflösenden Sensors erfolgt. Zu den zumindest teilweise gerenderten Objekten wird ein entsprechendes Bildsignal erzeugt. Das Rendern wird insbesondere mittels der Datenverarbeitungseinrichtung und an sich bekannter Verfahren durchgeführt.It can also be provided that identified raised objects, in particular other vehicles, are at least partially rendered in the environment, this being done based on the recorded sensor data of the distance-resolving sensor. A corresponding image signal is generated for the at least partially rendered objects. The rendering is carried out in particular using the data processing device and methods known per se.

In einer Ausführungsform ist vorgesehen, dass ausgehend von den an den mehreren Positionen des Fahrzeugs erfassten Kamerabildern zusätzlich eine dreidimensionale Punktwolke des Umfelds erzeugt und beim Identifizieren der Freiflächen und/oder der erhabenen Objekte im Umfeld berücksichtigt wird. Hierdurch können entfernungsauflösende Daten bzw. dreidimensionale Daten des Umfeldes zusätzlich auch ausgehend von den erfassten Kamerabildern erzeugt und berücksichtigt werden. Hierbei kann beispielsweise ein monokulares Simultaneous Localization and Mapping (SLAM)-Verfahren (z.B. Direct Sparse Odometry, DSO) oder ein sonstiges geeignetes Verfahren verwendet werden.In one embodiment, it is provided that, based on the camera images captured at the multiple positions of the vehicle, a three-dimensional point cloud of the surroundings is additionally generated and taken into account when identifying the open spaces and/or the raised objects in the surroundings. This means that distance-resolving data or three-dimensional data of the environment can also be generated and taken into account based on the captured camera images. For example, a monocular Simultaneous Localization and Mapping (SLAM) method (e.g. Direct Sparse Odometry, DSO) or another suitable method can be used.

Weitere Merkmale zur Ausgestaltung der Vorrichtung ergeben sich aus der Beschreibung von Ausgestaltungen des Verfahrens. Die Vorteile der Vorrichtung sind hierbei jeweils die gleichen wie bei den Ausgestaltungen des Verfahrens.Further features for the design of the device result from the description of embodiments of the method. The advantages of the device are the same as in the embodiments of the method.

Ferner wird insbesondere auch ein Fahrzeug geschaffen, umfassend mindestens eine Vorrichtung nach einer der beschriebenen Ausführungsformen. Ein Fahrzeug ist insbesondere ein Kraftfahrzeug.Furthermore, a vehicle is also created in particular, comprising at least one device according to one of the described embodiments. A vehicle is in particular a motor vehicle.

Nachfolgend wird die Erfindung anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf die Figuren näher erläutert. Hierbei zeigen:

  • 1 eine schematische Darstellung einer Ausführungsform der Vorrichtung zum Erzeugen eines Umfeldabbildes für einen Parkassistenten eines Fahrzeugs;
  • 2 eine schematische Darstellung zur Verdeutlichung von Sensordaten von entfernungsauflösenden Sensoren;
  • 3 eine schematische Darstellung zur Verdeutlichung einer Bodenprojektionsebene und von Projektionsebenen für erhabene Objekte;
  • 4 eine schematische Darstellung eines Umfeldabbildes, das dem erzeugten Bildsignal entspricht;
  • 5a, 5b schematische Darstellungen zur Verdeutlichung einer Ausführungsform der Vorrichtung und des Verfahrens.
The invention is explained in more detail below using preferred exemplary embodiments with reference to the figures. Show here:
  • 1 a schematic representation of an embodiment of the device for generating an image of the surroundings for a parking assistant of a vehicle;
  • 2 a schematic representation to illustrate sensor data from distance-resolving sensors;
  • 3 a schematic representation to illustrate a floor projection plane and projection planes for raised objects;
  • 4 a schematic representation of an environment image that corresponds to the generated image signal;
  • 5a , 5b schematic representations to illustrate an embodiment of the device and the method.

Die 1 zeigt eine schematische Darstellung einer Ausführungsform der Vorrichtung 1 zum Erzeugen eines Umfeldabbildes 21 für einen Parkassistenten eines Fahrzeugs 50. Die Vorrichtung 1 ist beispielsweise in einem Fahrzeug 50, insbesondere einem Kraftfahrzeug, angeordnet. Die Vorrichtung 1 führt das in dieser Offenbarung beschriebene Verfahren aus.The 1 shows a schematic representation of an embodiment of the device 1 for generating an environment image 21 for a parking assistant of a vehicle 50. The device 1 is arranged, for example, in a vehicle 50, in particular a motor vehicle. The device 1 carries out the method described in this disclosure.

Die Vorrichtung 1 umfasst mehrere Umfeldkameras 2, mindestens einen entfernungsauflösenden Sensor 3 und eine Datenverarbeitungseinrichtung 4.The device 1 includes several surrounding cameras 2, at least one distance-resolving sensor 3 and a data processing device 4.

Insbesondere umfasst die Vorrichtung 1 vier Umfeldkameras 2 (es ist der Übersichtlichkeit halber nur eine in der 1 gezeigt), welche jeweils als 180° erfassende Kameras mit einer Fischaugenoptik ausgebildet sind und derart am Fahrzeug 50 angeordnet sind, dass ein horizontaler Winkelbereich eines Umfelds von 0 bis 360° um das Fahrzeug 50 herum lückenlos erfasst werden kann.In particular, the device 1 includes four surroundings cameras 2 (for the sake of clarity, there is only one in the 1 shown), which are each designed as 180° capturing cameras with fisheye optics and are arranged on the vehicle 50 in such a way that a horizontal angular range of an environment of 0 to 360° around the vehicle 50 can be captured without gaps.

Der mindestens eine entfernungsauflösende Sensor 3 umfasst beispielsweise einen Ultraschallsensor, einen Radarsensor und/oder einen Lidarsensor. Eine Anzahl und eine Anordnung der entfernungsauflösenden Sensoren 3 ist insbesondere derart gewählt, dass ein horizontaler Winkelbereich eines Umfelds von 0 bis 360° um das Fahrzeug 50 herum lückenlos erfasst werden kann. Insbesondere sind die Umfeldkameras 2 und die entfernungsauflösenden Sensoren 3 zueinander kalibriert, das heißt, eine relative Pose (relative Position und relative Ausrichtung) zueinander ist bekannt. Dies ermöglicht eine Zuordnung von erfassten Sensordaten 11 zu erfassten Kamerabildern 10.The at least one distance-resolving sensor 3 includes, for example, an ultrasonic sensor, a radar sensor and/or a lidar sensor. A number and an arrangement of the distance-resolving sensors 3 are selected in particular such that a horizontal angular range of an environment from 0 to 360 ° around the vehicle 50 can be detected without gaps. In particular, the surrounding cameras 2 and the distance-resolving sensors 3 are calibrated to one another, that is, a relative pose (relative position and relative orientation) to one another is known. This enables an assignment of captured sensor data 11 to captured camera images 10.

Die Datenverarbeitungseinrichtung 4 umfasst eine Recheneinrichtung 4-1 und einen Speicher 4-2. Die Datenverarbeitungseinrichtung 4 ist dazu eingerichtet, ausgehend von an mehreren Positionen des Fahrzeugs 50 erfassten Sensordaten 11 des mindestens einen entfernungsauflösenden Sensors 3 Freiflächen und erhabene Objekte im Umfeld zu identifizieren, eine lokale Umfeldkarte 30 ausgehend von den erfassten Sensordaten 11 und/oder den identifizierten Freiflächen und den identifizierten erhabenen Objekten zu erzeugen und identifizierte Freiflächen und identifizierte erhabene Objekte positionsabhängig und erfassungsrichtungsabhängig mit hiermit korrespondierenden Kamerabildern 10 zu verknüpfen. Ferner ist die Datenverarbeitungseinrichtung 4 dazu eingerichtet, ein Bildsignal 20 für ein Umfeldabbild 21 in Draufsicht („Top View“) auf das Fahrzeug 50 zu erzeugen, und die Kamerabilder 10 hierfür zumindest teilweise positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen und Objekte in der Umfeldkarte 30 zu projizieren, und das erzeugte Bildsignal 20 bereitzustellen. Das bereitgestellte Bildsignal 20 kann beispielsweise einer Anzeigeeinrichtung 51 des Fahrzeugs 50 zugeführt werden und auf dieser angezeigt werden, um einen Fahrer beim Einparken und/oder Rangieren zu unterstützen.The data processing device 4 includes a computing device 4-1 and a memory 4-2. The data processing device 4 is set up to identify open spaces and raised objects in the environment based on sensor data 11 of the at least one distance-resolving sensor 3 recorded at several positions of the vehicle 50, a local environment map 30 based on the recorded sensor data 11 and/or the identified open spaces and to generate the identified raised objects and to link identified open spaces and identified raised objects in a position-dependent and detection direction-dependent manner with camera images 10 corresponding thereto. Furthermore, the data processing device 4 is set up to generate an image signal 20 for an image of the surroundings 21 in a top view of the vehicle 50, and the camera images 10 for this at least partially depending on the position and the direction of detection towards the open spaces and objects in the surroundings map 30 project, and provide the generated image signal 20. The provided image signal 20 can, for example, be supplied to a display device 51 of the vehicle 50 and displayed thereon in order to support a driver when parking and/or maneuvering.

Die 2 zeigt eine schematische Darstellung zur Verdeutlichung von Sensordaten von entfernungsauflösenden Sensoren. Gezeigt ist eine Umfeldkarte 30, in der dreidimensional verortete Datenpunkte 31-x (nur einige sind mit einem Bezugszeichen markiert) eines Ultraschallsensors (31-1), eines Radarsensors (31-2) und eines Lidarsensors (31-3) hinterlegt sind. Die Datenpunkte 31-x wurden von den Sensoren an mehreren Positionen 32 erfasst und in der Umfeldkarte 30 hinterlegt. Die Datenpunkte 31-x markieren Bereiche, an denen erhabene Objekte 41 im Umfeld angeordnet sind. Zwischen den erhabenen Objekten 41 befinden sich im Umfeld Freiflächen 40. Die erhabenen Objekte 41 werden beispielsweise durch Clustern bzw. Zusammenfassen von örtlich gehäuft auftretenden Datenpunkten 31-x identifiziert. Eine Häufung ist hierbei beispielsweise als eine vorgegebene Dichte von Datenpunkten 31-x pro Raumwinkel oder Horizontalwinkel oder Bereich im Umfeld oder als vorgegebene Signalstärke einer Reflexion des vom Sensor emittierten Signals definiert, die erreicht sein muss, damit ein erhabenes Objekt 41 identifiziert wird. Im Bereich von Freiflächen 40 fehlen derartige Häufungen und/oder Reflexionen eines vom Sensor emittierten Signals hingegen.The 2 shows a schematic representation to illustrate sensor data from distance-resolving sensors. Shown is an environment map 30 in which three-dimensionally located data points 31-x (only some are marked with a reference number) of an ultrasonic sensor (31-1), a radar sensor (31-2) and a lidar sensor (31-3) are stored. The data points 31-x were recorded by the sensors at several positions 32 and stored in the environment map 30. The data points 31-x mark areas where raised objects 41 are arranged in the environment. There are open spaces 40 in the surrounding area between the raised objects 41. The raised objects 41 are identified, for example, by clustering or combining locally clustered data points 31-x. An accumulation is defined here, for example, as a predetermined density of data points 31-x per solid angle or horizontal angle or area in the environment or as a predetermined signal strength of a reflection of the signal emitted by the sensor, which must be achieved so that a raised object 41 is identified. In the area of open spaces 40, however, such accumulations and/or reflections of a signal emitted by the sensor are missing.

An jeder der mehreren Positionen 32 werden für alle Richtungen um das Fahrzeug 50 herum Kamerabilder erfasst. Bildinformationen in den erfassten Kamerabildern werden positionsabhängig und erfassungsrichtungsabhängig mit den Datenpunkten 31-x verknüpft. Insbesondere ausgehend von dieser Verknüpfung werden zum Erzeugen des Umfeldabbildes 21 in Draufsicht die Kamerabilder hierfür (zumindest teilweise) positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen 40 und die erhabenen Objekte 41 in der Umfeldkarte 30 projiziert. Anders ausgedrückt werden die erfassten Kamerabilder (zumindest teilweise) positionsabhängig und erfassungsrichtungsabhängig als Texturen über die Freiflächen 40 und die erhabenen Objekte 41 gelegt und hierdurch ein Umfeldabbild 21 in Draufsicht erzeugt.Camera images are captured for all directions around the vehicle 50 at each of the multiple positions 32. Image information in the captured camera images is linked to the data points 31-x depending on the position and direction of capture. In particular, based on this link, in order to generate the environment image 21 in a top view, the camera images are (at least partially) projected onto the open spaces 40 and the raised objects 41 in the environment map 30 depending on the position and the detection direction. In other words, the captured camera images are (at least partially) placed as textures over the open spaces 40 and the raised objects 41 in a position-dependent and capture direction-dependent manner, thereby generating an environment image 21 in a top view.

Es ist insbesondere vorgesehen, dass beim Erzeugen der Umfeldkarte 30 aus Freiflächen 40 schrittweise für die mehreren Positionen 32 eine positionsabhängige Bodenprojektionsebene 33 definiert wird, auf die die jeweils mit den Freiflächen 40 verknüpften Kamerabilder projiziert werden. Dies ist schematisch in der 3 gezeigt, welche grundsätzlich der 2 entspricht, sodass gleiche Bezugszeichen gleiche Merkmale und Begriffe bezeichnen.In particular, it is provided that when generating the environment map 30 from open spaces 40, a position-dependent floor projection plane 33 is gradually defined for the multiple positions 32, onto which the camera images linked to the open spaces 40 are projected. This is schematic in the 3 shown which fundamentally the 2 corresponds, so that the same reference numbers designate the same features and terms.

Es ist ferner insbesondere vorgesehen, dass beim Erzeugen der Umfeldkarte 30 aus erhabenen Objekten 41 schrittweise für die mehreren Positionen 32 mindestens eine positionsabhängige Projektionsebene 34 definiert wird, auf die die jeweils mit den erhabenen Objekten 41 verknüpften Kamerabilder projiziert werden. Hierbei geht es vor allem darum, die erhabenen Objekte 41 im Umfeldabbild 21 (1) in Draufsicht auf einer anderen Höhe (Richtung senkrecht zur Standfläche, auf dem das Fahrzeug 50 steht) darzustellen als die Bodenprojektionsebene 34. Es können insbesondere auch mehr als eine Projektionsebene 34 vorgesehen sein, um Zwischenstufen, beispielsweise von anderen Fahrzeugen 51 (z.B. Zwischenstufen für Heck, Dach, Motorhaube, Ladefläche etc.), abbilden zu können.It is furthermore provided in particular that when generating the environment map 30 from raised objects 41, at least one position-dependent projection plane 34 is defined step by step for the multiple positions 32, onto which the respective projection plane 34 is defined Camera images linked to raised objects 41 are projected. The main thing here is to show the raised objects 41 in the surrounding image 21 ( 1 ) in a top view at a different height (direction perpendicular to the base on which the vehicle 50 stands) than the floor projection plane 34. In particular, more than one projection plane 34 can be provided in order to provide intermediate stages, for example of other vehicles 51 (e.g. intermediate stages for rear, roof, hood, loading area etc.).

Es kann vorgesehen sein, dass beim Erzeugen der mindestens einen Projektionsebene 34 mindestens ein Bereich ergänzt wird, wenn die für diesen Bereich erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors mit einem anderen Fahrzeug 51 korrespondieren. Hierzu kann an den erfassten Sensordaten, insbesondere an den Datenpunkten 31-x, beispielsweise eine Mustererkennung und/oder eine Objekterkennung durchgeführt werden. Wird anhand der Mustererkennung und/oder der Objekterkennung erkannt, dass ein erhabenes Objekt 41 ein anderes Fahrzeug 51 ist, so kann dieses Vorwissen dazu genutzt werden, weiter entfernte Bereiche der anderen Fahrzeuge 51, für die eine Dichte an Datenpunkten 31-x abnimmt, zu ergänzen, beispielsweise indem Datenpunkte 31-x zum Nachbilden einer äußeren Kontur des anderen Fahrzeugs 51 ergänzt werden.It can be provided that when the at least one projection plane 34 is generated, at least one area is added if the sensor data recorded for this area of the at least one distance-resolving sensor corresponds to another vehicle 51. For this purpose, for example, pattern recognition and/or object recognition can be carried out on the recorded sensor data, in particular on the data points 31-x. If it is recognized based on pattern recognition and/or object recognition that a raised object 41 is another vehicle 51, this prior knowledge can be used to identify more distant areas of the other vehicles 51 for which a density of data points 31-x decreases supplement, for example by adding data points 31-x to reproduce an outer contour of the other vehicle 51.

Es kann vorgesehen sein, dass ein Grad einer jeweiligen Radialverzerrung der Umfeldkameras 2 beim Erfassen und/oder Projizieren berücksichtigt wird. Um den Grad der Radialverzerrung zu bestimmen, können empirische Versuche durchgeführt werden und/oder optische Eigenschaftsparameter 15 (1) einer Abbildungsoptik („Fischaugenoptik“) in die Datenverarbeitungseinrichtung 4 eingelesen werden.It can be provided that a degree of a respective radial distortion of the surrounding cameras 2 is taken into account when detecting and/or projecting. To determine the degree of radial distortion, empirical tests can be carried out and/or optical property parameters 15 ( 1 ) an imaging optics (“fisheye optics”) are read into the data processing device 4.

Es kann vorgesehen sein, dass jeweils nur ein vorgegebener innerer Bildbereich der erfassten Kamerabilder 10 beim Projizieren verwendet wird. Ein geeigneter innerer Bildbereich kann beispielsweise anhand von empirischen Versuchen und/oder Simulationen bestimmt werden.It can be provided that only a predetermined inner image area of the captured camera images 10 is used during projection. A suitable inner image area can be determined, for example, based on empirical tests and/or simulations.

Es kann vorgesehen sein, dass das Bildsignal 20 für Bereiche des Umfeldabbildes 21, für die keine Kameradaten 10 und/oder keine Sensordaten 11 aufgrund von Verdeckung vorhanden sind, ausgehend von Nachbarbereichen, die an diese Bereiche angrenzen, extrapoliert und/oder geschätzt werden. So kann das Bildsignal 20 beispielsweise für die jeweils dem Fahrzeug 50 abgewandte Seite 35 (3) der erhabenen Objekte 41 bzw. anderen Fahrzeuge 51 entsprechend ergänzt werden durch Bilddaten aus Kamerabildern 10, die für die dem Fahrzeug 50 zugewandte Seite 36 erfasst wurden. Beispielsweise kann eine Lackfarbe oder eine Textur der zugewandten Seiten 36 in erfassten Kamerabildern 10 dazu verwendet werden, um eine Textur für die abgewandte Seite 35 zu extrapolieren und/oder zu schätzen.It can be provided that the image signal 20 is extrapolated and/or estimated for areas of the environment image 21 for which there is no camera data 10 and/or no sensor data 11 due to occlusion, starting from neighboring areas that border on these areas. For example, the image signal 20 can be used for the side 35 facing away from the vehicle 50 ( 3 ) of the raised objects 41 or other vehicles 51 are supplemented accordingly by image data from camera images 10 that were recorded for the side 36 facing the vehicle 50. For example, a paint color or a texture of the facing sides 36 in captured camera images 10 can be used to extrapolate and/or estimate a texture for the facing side 35.

Es kann vorgesehen sein, dass ausgehend von den an den mehreren Positionen 32 des Fahrzeugs 50 erfassten Kamerabildern 10 zusätzlich eine dreidimensionale Punktwolke des Umfelds erzeugt und beim Identifizieren der Freiflächen 40 und/oder der erhabenen Objekte 41 im Umfeld berücksichtigt wird. Dies erfolgt beispielsweise mittels an sich bekannter SLAM-Verfahren, beispielsweise mittels des Direct Sparse Odometry (DSO)-Verfahrens.It can be provided that, based on the camera images 10 captured at the multiple positions 32 of the vehicle 50, a three-dimensional point cloud of the surroundings is additionally generated and taken into account when identifying the open spaces 40 and/or the raised objects 41 in the surroundings. This is done, for example, by means of SLAM methods known per se, for example by means of the Direct Sparse Odometry (DSO) method.

Die 4 zeigt eine schematische Darstellung eines Umfeldabbildes 21, das dem erzeugten Bildsignal 20 entspricht (die 4 ist lediglich beispielhaft und korrespondiert inhaltlich nicht mit den vorher gezeigten 2 und 3). Durch die Vorrichtung 1 (1) und das Verfahren kann ein verbessertes Umfeldabbild 21 zur Verfügung gestellt werden.The 4 shows a schematic representation of an environment image 21, which corresponds to the generated image signal 20 (the 4 is merely an example and does not correspond in content to those shown previously 2 and 3 ). Through the device 1 ( 1 ) and the method can provide an improved environment image 21.

Das in der 4 gezeigte Umfeldabbild 21 bzw. das Bildsignal 20 wurde insbesondere mit einer Ausführungsform der Vorrichtung 1 und des Verfahrens erzeugt, bei der vorgesehen ist, dass jeweils nur ein vorgegebener innerer Bildbereich der erfassten Kamerabilder 10 beim Projizieren verwendet wird. Ein direkter Vergleich zwischen einer Ausführungsform, bei denen auch äußere Bereiche der Kamerabilder 10 verwendet wurden, das heißt, aufgrund einer Fischaugenoptik auch radialverzerrte Bereiche und dem in der 4 gezeigten Umfeldabbild 21 ist in den 5a und 5b gezeigt. In der 5a ist deutlich zu erkennen, dass aufgrund der Verwendung auch der radialverzerrten äußeren Bildbereiche der Kamerabilder 10 andere Fahrzeuge 51 in dem Umfeldabbild 21 stark verzerrt erscheinen. Bei den anderen Fahrzeugen 51, die in der 5b gezeigt sind, ist dies hingegen nicht der Fall, da dort nur innere Bereiche der Kamerabilder 10 berücksichtigt wurden, die nicht oder nur wenig radialverzerrt sind (d.h. ein Sichtbereich bzw. Erfassungsbereich der Umfeldkameras ist insbesondere lateral eingeschränkt).That in the 4 The environmental image 21 shown or the image signal 20 was generated in particular with an embodiment of the device 1 and the method, in which it is provided that only a predetermined inner image area of the captured camera images 10 is used during projection. A direct comparison between an embodiment in which outer regions of the camera images 10 were also used, that is, also radially distorted regions due to fisheye optics, and that in the 4 The environment image 21 shown is in the 5a and 5b shown. In the 5a It can be clearly seen that due to the use of the radially distorted outer image areas of the camera images 10, other vehicles 51 appear strongly distorted in the image of the surroundings 21. For the other vehicles 51 that are in the 5b However, this is not the case, since only inner areas of the camera images 10 that are not or only slightly distorted radially were taken into account (ie a viewing area or detection area of the surrounding cameras is particularly laterally restricted).

BezugszeichenlisteReference symbol list

11
Vorrichtungcontraption
22
UmfeldkameraSurrounding camera
33
entfernungsauflösender Sensordistance-resolving sensor
44
DatenverarbeitungseinrichtungData processing device
4-14-1
RecheneinrichtungComputing facility
4-24-2
SpeicherStorage
1010
KamerabildCamera image
1111
SensordatenSensor data
1515
optische Eigenschaftsparameteroptical property parameters
2020
BildsignalImage signal
2121
UmfeldabbildEnvironment image
3030
lokale Umfeldkartelocal environment map
31-131-1
Datenpunkt (Ultraschallsensor)Data point (ultrasonic sensor)
31-231-2
Datenpunkt (Radarsensor)Data point (radar sensor)
31-331-3
Datenpunkt (Lidarsensor)Data point (lidar sensor)
3232
Positionposition
3333
BodenprojektionsebeneFloor projection plane
3434
Projektionsebeneprojection plane
3535
abgewandte Seiteopposite side
3636
zugewandte Seitefacing side
4040
FreiflächeOpen space
4141
erhabenes Objektsublime object
5050
Fahrzeugvehicle
5151
AnzeigeeinrichtungDisplay device

Claims (10)

Verfahren zum Erzeugen eines Umfeldabbildes (21) für einen Parkassistenten eines Fahrzeugs (50), wobei an mehreren Positionen (32) des Fahrzeugs (50): - ein Umfeld des Fahrzeugs (50) mittels mehrerer Umfeldkameras (2) erfasst wird, - das Umfeld mittels mindestens eines entfernungsauflösenden Sensors (3) erfasst wird, wobei ausgehend von erfassten Sensordaten (11) des mindestens einen entfernungsauflösenden Sensors (3) Freiflächen (40) und erhabene Objekte (41) im Umfeld identifiziert werden, wobei eine lokale Umfeldkarte (30) ausgehend von den erfassten Sensordaten (11) und/oder den identifizierten Freiflächen (40) und den identifizierten erhabenen Objekten (41) erzeugt wird, wobei identifizierte Freiflächen (40) und identifizierte erhabene Objekte (41) positionsabhängig und erfassungsrichtungsabhängig mit hiermit korrespondierenden Kamerabildern (10) verknüpft werden, wobei ein Bildsignal (20) für ein Umfeldabbild (21) in Draufsicht auf das Fahrzeug (50) erzeugt wird, indem die Kamerabilder (10) hierfür zumindest teilweise positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen (40) und Objekte (41) in der Umfeldkarte (30) projiziert werden, und wobei das erzeugte Bildsignal (20) bereitgestellt wird.Method for generating an image of the environment (21) for a parking assistant of a vehicle (50), wherein at several positions (32) of the vehicle (50): - an environment of the vehicle (50) is recorded by means of several surrounding cameras (2), - the environment is detected by means of at least one distance-resolving sensor (3), with open spaces (40) and raised objects (41) being identified in the environment based on detected sensor data (11) of the at least one distance-resolving sensor (3), wherein a local environment map (30) is generated based on the recorded sensor data (11) and/or the identified open spaces (40) and the identified raised objects (41), wherein identified open spaces (40) and identified raised objects (41) are linked to corresponding camera images (10) depending on the position and detection direction, an image signal (20) for an image of the surroundings (21) in a top view of the vehicle (50) being generated by the camera images (10) are projected onto the open spaces (40) and objects (41) in the environment map (30) at least partially depending on the position and the direction of detection, and wherein the generated image signal (20) is provided. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass beim Erzeugen der Umfeldkarte (30) aus Freiflächen schrittweise für die mehreren Positionen (32) eine positionsabhängige Bodenprojektionsebene (33) definiert wird, auf die die jeweils mit den Freiflächen (40) verknüpften Kamerabilder (10) projiziert werden.Procedure according to Claim 1 , characterized in that when the environment map (30) is generated from open spaces, a position-dependent ground projection plane (33) is gradually defined for the several positions (32), onto which the camera images (10) linked to the open spaces (40) are projected. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass beim Erzeugen der Umfeldkarte (30) aus erhabenen Objekten (41) schrittweise für die mehreren Positionen (32) mindestens eine positionsabhängige Projektionsebene (34) definiert wird, auf die die jeweils mit den erhabenen Objekten (41) verknüpften Kamerabilder (10) projiziert werden.Procedure according to Claim 1 or 2 , characterized in that when the environment map (30) is generated from raised objects (41), at least one position-dependent projection plane (34) is gradually defined for the several positions (32), onto which the camera images linked to the raised objects (41) ( 10) can be projected. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass beim Erzeugen der mindestens einen Projektionsebene (34) mindestens ein Bereich ergänzt wird, wenn die für diesen Bereich erfassten Sensordaten (11) des mindestens einen entfernungsauflösenden Sensors (3) mit einem anderen Fahrzeug (51) korrespondieren.Method according to one of the preceding claims, characterized in that when the at least one projection plane (34) is generated, at least one area is supplemented if the sensor data (11) recorded for this area of the at least one distance-resolving sensor (3) is connected to another vehicle (51 ) correspond. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass ein Grad einer jeweiligen Radialverzerrung der Umfeldkameras (2) beim Erfassen und/oder Projizieren berücksichtigt wird.Method according to one of the preceding claims, characterized in that a degree of a respective radial distortion of the surrounding cameras (2) is taken into account when detecting and/or projecting. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass jeweils nur ein vorgegebener innerer Bildbereich der erfassten Kamerabilder (10) beim Projizieren verwendet wird.Method according to one of the preceding claims, characterized in that only a predetermined inner image area of the captured camera images (10) is used during projection. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass das Bildsignal (20) für Bereiche des Umfeldabbildes (21), für die keine Kameradaten (10) und/oder keine Sensordaten (11) aufgrund von Verdeckung vorhanden sind, ausgehend von Nachbarbereichen, die an diese Bereiche angrenzen, extrapoliert und/oder geschätzt werden.Method according to one of the preceding claims, characterized in that the image signal (20) for areas of the environment image (21) for which there is no camera data (10) and/or no sensor data (11) due to occlusion, starting from neighboring areas adjacent to these areas can be extrapolated and/or estimated. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass ausgehend von den an den mehreren Positionen (32) des Fahrzeugs (50) erfassten Kamerabildern (10) zusätzlich eine dreidimensionale Punktwolke des Umfelds erzeugt und beim Identifizieren der Freiflächen (40) und/oder der erhabenen Objekte (41) im Umfeld berücksichtigt wird.Method according to one of the preceding claims, characterized in that , starting from the camera images (10) captured at the several positions (32) of the vehicle (50), a three-dimensional point cloud of the environment is additionally generated and when identifying the open spaces (40) and / or the raised objects (41) in the environment are taken into account. Vorrichtung (1) zum Erzeugen eines Umfeldabbildes (21) für einen Parkassistenten eines Fahrzeugs (50), umfassend: mehrere Umfeldkameras (2), eingerichtet zum Erfassen eines Umfelds des Fahrzeugs (50), mindestens einen entfernungsauflösenden Sensor (3), eingerichtet zum Erfassen des Umfelds, und eine Datenverarbeitungseinrichtung (4), wobei die Datenverarbeitungseinrichtung (4) dazu eingerichtet ist, ausgehend von an mehreren Positionen (32) des Fahrzeugs (50) erfassten Sensordaten (11) des mindestens einen entfernungsauflösenden Sensors (3) Freiflächen (40) und erhabene Objekte (41) im Umfeld zu identifizieren, eine lokale Umfeldkarte (30) ausgehend von den erfassten Sensordaten (11) und/oder den identifizierten Freiflächen (40) und den identifizierten erhabenen Objekten (41) zu erzeugen, identifizierte Freiflächen (40) und identifizierte erhabene Objekte (41) positionsabhängig und erfassungsrichtungsabhängig mit hiermit korrespondierenden Kamerabildern (10) zu verknüpfen, ein Bildsignal (20) für ein Umfeldabbild (21) in Draufsicht auf das Fahrzeug (50) zu erzeugen, und die Kamerabilder (10) hierfür zumindest teilweise positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen (40) und Objekte (41) in der Umfeldkarte (30) zu projizieren, und das erzeugte Bildsignal (20) bereitzustellen.Device (1) for generating an image of the surroundings (21) for a parking assistant of a vehicle (50), comprising: several surroundings cameras (2), set up for Detecting an environment of the vehicle (50), at least one distance-resolving sensor (3) set up to detect the environment, and a data processing device (4), the data processing device (4) being set up to do so, starting from several positions (32) of the vehicle (50) recorded sensor data (11) of the at least one distance-resolving sensor (3) to identify open spaces (40) and raised objects (41) in the environment, a local environment map (30) based on the recorded sensor data (11) and/or the identified ones To generate open spaces (40) and the identified raised objects (41), to link identified open spaces (40) and identified raised objects (41) with camera images (10) corresponding to them in a position-dependent and detection direction-dependent manner, an image signal (20) for an image of the environment (21 ) in a plan view of the vehicle (50), and to project the camera images (10) onto the open spaces (40) and objects (41) in the environment map (30) at least partially depending on the position and detection direction, and the generated image signal (20 ) to provide. Fahrzeug (50), umfassend mindestens eine Vorrichtung (1) nach Anspruch 9.Vehicle (50), comprising at least one device (1). Claim 9 .
DE102022204313.8A 2022-05-02 2022-05-02 Method and device for generating an image of the environment for a parking assistant of a vehicle Pending DE102022204313A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022204313.8A DE102022204313A1 (en) 2022-05-02 2022-05-02 Method and device for generating an image of the environment for a parking assistant of a vehicle
PCT/EP2023/058624 WO2023213482A1 (en) 2022-05-02 2023-04-03 Method and device for generating a surroundings image for a parking assistant of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022204313.8A DE102022204313A1 (en) 2022-05-02 2022-05-02 Method and device for generating an image of the environment for a parking assistant of a vehicle

Publications (1)

Publication Number Publication Date
DE102022204313A1 true DE102022204313A1 (en) 2023-11-02

Family

ID=86054130

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022204313.8A Pending DE102022204313A1 (en) 2022-05-02 2022-05-02 Method and device for generating an image of the environment for a parking assistant of a vehicle

Country Status (2)

Country Link
DE (1) DE102022204313A1 (en)
WO (1) WO2023213482A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007172541A (en) 2005-12-26 2007-07-05 Toyota Motor Corp Driving support device
US20080221843A1 (en) 2005-09-01 2008-09-11 Victor Shenkar System and Method for Cost-Effective, High-Fidelity 3D-Modeling of Large-Scale Urban Environments
WO2017108221A1 (en) 2015-12-21 2017-06-29 Robert Bosch Gmbh Dynamic image blending for multiple-camera vehicle systems
DE102018214874B3 (en) 2018-08-31 2019-12-19 Audi Ag Method and arrangement for generating an environment map of a vehicle textured with image information and vehicle comprising such an arrangement

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5440867B2 (en) * 2010-06-18 2014-03-12 アイシン精機株式会社 Parking assistance device
DE102010051204A1 (en) * 2010-11-12 2012-05-16 Valeo Schalter Und Sensoren Gmbh Method for displaying obstacle for vehicle, involves detecting area surrounding vehicle with camera system, and detecting obstacles with sensor element independent of camera system
JP5857224B2 (en) * 2012-03-30 2016-02-10 パナソニックIpマネジメント株式会社 Parking assistance device and parking assistance method
DE102018210812A1 (en) * 2018-06-30 2020-01-02 Robert Bosch Gmbh Method for a sensor- and memory-based representation of an environment, display device and vehicle with the display device
DE102019123778A1 (en) * 2019-09-05 2021-03-11 Valeo Schalter Und Sensoren Gmbh Representing a vehicle environment for moving the vehicle to a target position
JP2022016908A (en) * 2020-07-13 2022-01-25 フォルシアクラリオン・エレクトロニクス株式会社 Overhead image generation device, overhead image generation system and automatic parking device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080221843A1 (en) 2005-09-01 2008-09-11 Victor Shenkar System and Method for Cost-Effective, High-Fidelity 3D-Modeling of Large-Scale Urban Environments
JP2007172541A (en) 2005-12-26 2007-07-05 Toyota Motor Corp Driving support device
WO2017108221A1 (en) 2015-12-21 2017-06-29 Robert Bosch Gmbh Dynamic image blending for multiple-camera vehicle systems
DE102018214874B3 (en) 2018-08-31 2019-12-19 Audi Ag Method and arrangement for generating an environment map of a vehicle textured with image information and vehicle comprising such an arrangement

Also Published As

Publication number Publication date
WO2023213482A1 (en) 2023-11-09

Similar Documents

Publication Publication Date Title
DE102018121019A1 (en) EXPANDING REAL SENSOR RECORDS WITH SIMULATED SENSOR DATA
DE102016220075A1 (en) Motor vehicle and method for 360 ° field detection
DE102013209415A1 (en) Dynamic Note Overlay with Image Pruning
DE102009015921A1 (en) Method for optically scanning and measuring an environment
DE102010042026B4 (en) Method for generating an image of at least one object in the surroundings of a vehicle
DE102013002554A1 (en) Method for detecting objects in a warehouse and / or for spatial orientation in a warehouse
DE112016001150T5 (en) ESTIMATION OF EXTRINSIC CAMERA PARAMETERS ON THE BASIS OF IMAGES
DE102016203710B4 (en) Distance and direction estimation of a target point from a vehicle using a monocular video camera
DE102015115012A1 (en) Method for generating an environment map of an environment of a motor vehicle based on an image of a camera, driver assistance system and motor vehicle
DE112020004301T5 (en) OBJECT RECOGNITION DEVICE
DE102015211874A1 (en) Object detection device
WO2018054521A1 (en) Method for the self-location of a vehicle
DE102017212370A1 (en) Method and device for identifying damage in vehicle windows
EP3815044A1 (en) Method for sensor and memory-based depiction of an environment, display apparatus and vehicle having the display apparatus
DE102015223500A1 (en) Method and device for testing the functionality of an outside lighting device of a vehicle
DE102013215408A1 (en) A vehicle display system and method for displaying a vehicle environment
DE102014201409B4 (en) PARKING - TRACKING DEVICE AND PROCEDURES OF THE SAME
DE102022204313A1 (en) Method and device for generating an image of the environment for a parking assistant of a vehicle
DE102014019078A1 (en) Calibration method and method for adjusting a camera mounted on a vehicle
DE102008050456B4 (en) Method and apparatus for lane detection
DE102010009620B4 (en) Method and device for detecting at least one obstacle in a vehicle environment
DE102020109789A1 (en) Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system
DE102015102128A1 (en) Laser scanner and method for measuring an object
DE102019209849B4 (en) Method and control device for distance-measuring image processing for a stereo camera device for a vehicle and stereo camera system with a stereo camera device and a control device
DE102018214875A1 (en) Method and arrangement for generating an environmental representation of a vehicle and vehicle with such an arrangement

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication