DE102022204313A1 - Method and device for generating an image of the environment for a parking assistant of a vehicle - Google Patents
Method and device for generating an image of the environment for a parking assistant of a vehicle Download PDFInfo
- Publication number
- DE102022204313A1 DE102022204313A1 DE102022204313.8A DE102022204313A DE102022204313A1 DE 102022204313 A1 DE102022204313 A1 DE 102022204313A1 DE 102022204313 A DE102022204313 A DE 102022204313A DE 102022204313 A1 DE102022204313 A1 DE 102022204313A1
- Authority
- DE
- Germany
- Prior art keywords
- environment
- vehicle
- image
- identified
- open spaces
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/27—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/301—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/60—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
- B60R2300/607—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/806—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Image Processing (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Erzeugen eines Umfeldabbildes (21) für einen Parkassistenten eines Fahrzeugs (50), wobei an mehreren Positionen (32) des Fahrzeugs (50) ein Umfeld des Fahrzeugs (50) mittels mehrerer Umfeldkameras (2) erfasst wird, das Umfeld mittels mindestens eines entfernungsauflösenden Sensors (3) erfasst wird; wobei ausgehend von erfassten Sensordaten (11) des mindestens einen entfernungsauflösenden Sensors (3) Freiflächen (40) und erhabene Objekte (41) im Umfeld identifiziert werden, wobei eine lokale Umfeldkarte (30) ausgehend von den erfassten Sensordaten (11) und/oder den identifizierten Freiflächen (40) und den identifizierten erhabenen Objekten (41) erzeugt wird, wobei identifizierte Freiflächen (40) und identifizierte erhabene Objekte (41) positionsabhängig und erfassungsrichtungsabhängig mit hiermit korrespondierenden Kamerabildern (10) verknüpft werden, wobei ein Bildsignal (20) für ein Umfeldabbild (21) in Draufsicht auf das Fahrzeug (50) erzeugt wird, indem die Kamerabilder (10) hierfür zumindest teilweise positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen (40) und Objekte (41) in der Umfeldkarte (30) projiziert werden, und wobei das erzeugte Bildsignal (20) bereitgestellt wird. Ferner betrifft die Erfindung eine Vorrichtung (1) zum Erzeugen eines Umfeldabbildes (21).The invention relates to a method for generating an image of the surroundings (21) for a parking assistant of a vehicle (50), wherein the surroundings of the vehicle (50) are recorded at several positions (32) of the vehicle (50) by means of several surrounding cameras (2). Surroundings are detected by means of at least one distance-resolving sensor (3); wherein, based on captured sensor data (11) of the at least one distance-resolving sensor (3), open spaces (40) and raised objects (41) in the environment are identified, a local environment map (30) based on the captured sensor data (11) and/or the identified open areas (40) and the identified raised objects (41), wherein identified open areas (40) and identified raised objects (41) are linked to corresponding camera images (10) depending on the position and the detection direction, an image signal (20) for a Environment image (21) is generated in a top view of the vehicle (50) by projecting the camera images (10) onto the open spaces (40) and objects (41) in the environment map (30) at least partially depending on the position and the detection direction, and whereby this generated image signal (20) is provided. The invention further relates to a device (1) for generating an image (21) of the surroundings.
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Erzeugen eines Umfeldabbildes für einen Parkassistenten eines Fahrzeugs.The invention relates to a method and a device for generating an image of the surroundings for a parking assistant of a vehicle.
In modernen Fahrzeugen sind Systeme einer kamerabasierten Umfeldansicht bekannt, die eine Draufsicht („Top View“) auf die nahe Umgebung des Fahrzeuges bereitstellen. Das Area View soll das Rangieren erleichtern. Hierzu wird das Umfeld von mehreren Umfeldkameras erfasst und zu einem Umfeldabbild zusammengefügt, welches auf eine planare Projektionsebene projiziert wird. Diese Projektionsebene entspricht einer Standfläche des Fahrzeugs. Ferner sind Systeme bekannt, bei denen die erfassten Kamerabilder auf eine Schüsselform („Bowl View“) projiziert werden, um weiter vom Fahrzeug entfernte erhabene Objekte in einer Seitenansicht darzustellen. Hierbei werden auch nahe erhabene Objekte auf den ebenen Boden der Schüsselform projiziert, der ebenfalls die Standfläche des Fahrzeuges repräsentiert.In modern vehicles, systems for a camera-based environment view are known, which provide a top view of the vehicle's immediate surroundings. The Area View is intended to make maneuvering easier. For this purpose, the surroundings are recorded by several surrounding cameras and combined to form an image of the surroundings, which is projected onto a planar projection plane. This projection plane corresponds to a standing area of the vehicle. Systems are also known in which the captured camera images are projected onto a bowl shape (“bowl view”) in order to display raised objects further away from the vehicle in a side view. Here, even raised objects are projected onto the flat base of the bowl shape, which also represents the base of the vehicle.
Das Erzeugen eines Umfeldabbildes in Draufsicht ist derzeit nur ungenügend gelöst.The creation of an image of the environment in a top view is currently not sufficiently solved.
Der Erfindung liegt die Aufgabe zu Grunde, ein Verfahren und eine Vorrichtung zum Erzeugen eines Umfeldabbildes für einen Parkassistenten eines Fahrzeugs zu verbessern.The invention is based on the object of improving a method and a device for generating an image of the surroundings for a parking assistant of a vehicle.
Die Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 und eine Vorrichtung mit den Merkmalen des Patentanspruchs 9 gelöst. Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.The object is achieved according to the invention by a method with the features of patent claim 1 and a device with the features of patent claim 9. Advantageous embodiments of the invention result from the subclaims.
Insbesondere wird ein Verfahren zum Erzeugen eines Umfeldabbildes für einen Parkassistenten eines Fahrzeugs zur Verfügung gestellt, wobei an mehreren Positionen des Fahrzeugs ein Umfeld des Fahrzeugs mittels mehrerer Umfeldkameras erfasst wird und das Umfeld mittels mindestens eines entfernungsauflösenden Sensors erfasst wird; wobei ausgehend von erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors Freiflächen und erhabene Objekte im Umfeld identifiziert werden, wobei eine lokale Umfeldkarte ausgehend von den erfassten Sensordaten und/oder den identifizierten Freiflächen und den identifizierten erhabenen Objekten erzeugt wird, wobei identifizierte Freiflächen und identifizierte erhabene Objekte positionsabhängig und erfassungsrichtungsabhängig mit hiermit korrespondierenden Kamerabildern verknüpft werden, wobei ein Bildsignal für ein Umfeldabbild in Draufsicht auf das Fahrzeug erzeugt wird, indem die Kamerabilder hierfür zumindest teilweise positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen und Objekte in der Umfeldkarte projiziert werden, und wobei das erzeugte Bildsignal bereitgestellt wird.In particular, a method for generating an image of the environment for a parking assistant of a vehicle is provided, wherein an environment of the vehicle is recorded at several positions of the vehicle using several environment cameras and the environment is recorded using at least one distance-resolving sensor; wherein open spaces and raised objects in the environment are identified based on detected sensor data from the at least one distance-resolving sensor, a local environment map being generated based on the detected sensor data and/or the identified open spaces and the identified raised objects, wherein identified open spaces and identified raised objects are position-dependent and linked to corresponding camera images depending on the detection direction, an image signal for an image of the surroundings in a top view of the vehicle being generated by projecting the camera images onto the open spaces and objects in the surroundings map at least partially depending on the position and depending on the detection direction, and the generated image signal being provided .
Ferner wird insbesondere eine Vorrichtung zum Erzeugen eines Umfeldabbildes für einen Parkassistenten eines Fahrzeugs geschaffen, umfassend mehrere Umfeldkameras, die zum Erfassen eines Umfelds des Fahrzeugs eingerichtet sind, mindestens einen entfernungsauflösenden Sensor, der zum Erfassen des Umfelds eingerichtet ist, und eine Datenverarbeitungseinrichtung, wobei die Datenverarbeitungseinrichtung dazu eingerichtet ist, ausgehend von an mehreren Positionen des Fahrzeugs erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors Freiflächen und erhabene Objekte im Umfeld zu identifizieren, eine lokale Umfeldkarte ausgehend von den erfassten Sensordaten und/oder den identifizierten Freiflächen und den identifizierten erhabenen Objekten zu erzeugen, identifizierte Freiflächen und identifizierte erhabene Objekte positionsabhängig und erfassungsrichtungsabhängig mit hiermit korrespondierenden Kamerabildern zu verknüpfen, ein Bildsignal für ein Umfeldabbild in Draufsicht auf das Fahrzeug zu erzeugen, und die Kamerabilder hierfür zumindest teilweise positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen und Objekte in der Umfeldkarte zu projizieren, und das erzeugte Bildsignal bereitzustellen.Furthermore, in particular, a device for generating an image of the surroundings for a parking assistant of a vehicle is created, comprising a plurality of surrounding cameras that are set up to capture the surroundings of the vehicle, at least one distance-resolving sensor that is set up to capture the surroundings, and a data processing device, wherein the data processing device is set up to identify open spaces and raised objects in the environment based on sensor data recorded at several positions of the vehicle from the at least one distance-resolving sensor, to generate a local map of the surrounding area based on the recorded sensor data and / or the identified open spaces and the identified raised objects To link open spaces and identified raised objects with camera images corresponding to them, depending on the position and the direction of detection, to generate an image signal for an image of the surroundings in a top view of the vehicle, and to project the camera images for this purpose onto the open spaces and objects in the surroundings map at least partially depending on the position and depending on the direction of detection, and that to provide generated image signal.
Das Verfahren und die Vorrichtung ermöglichen es, ein verbessertes kamerabasiertes Umfeldabbild in Draufsicht zu erzeugen. Insbesondere werden mehrere Positionen des Fahrzeugs berücksichtigt, sodass nicht nur ein Umfeldabbild für eine aktuelle Position des Fahrzeugs bereitgestellt werden kann, sondern auch ein darüber hinausgehendes Umfeldabbild. Insbesondere korrespondieren die mehreren Positionen, an denen die Sensordaten und die Kamerabilder erfasst werden, mit Positionen innerhalb eines Parkszenarios. Insbesondere kann eine Historie des Umfeldes berücksichtigt werden, das heißt, ein kamerabasiertes Umfeldabbild, insbesondere in einem Parkszenario, kann schrittweise aufgebaut werden. Das Fahrzeug fährt hierzu beispielsweise (positionsweise) durch das Parkszenario (z.B. Parkplatz oder Parkhaus), wobei das Umfeldabbild während des Durchfahrens des Parkszenarios schrittweise erzeugt wird. Die Positionen werden beispielsweise mittels einer fahrzeugeigenen Odometrie ermittelt und/oder von der Odometrie abgerufen. An den mehreren Positionen, deren Koordinaten von der Odometrie ermittelt und/oder von dieser abgerufen werden, wird das Umfeld des Fahrzeugs mittels mehrerer Umfeldkameras und mittels mindestens eines entfernungsauflösenden Sensors erfasst. Dies erfolgt insbesondere an jeder der Positionen. Die Umfeldkameras sind in Anzahl und Ausrichtung insbesondere derart gewählt und angeordnet, dass diese ein vollständiges Umfeldabbild erfassen können, insbesondere alle horizontalen Richtungen um das Fahrzeug herum, d.h. insbesondere einen Horizontalwinkel von 0 bis 360°. Ausgehend von den erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors werden Freiflächen und erhabene Objekte im Umfeld identifiziert. Eine lokale Umfeldkarte wird ausgehend den erfassten Sensordaten und/oder von den identifizierten Freiflächen und den identifizierten erhabenen Objekten erzeugt. Dies erfolgt insbesondere mit an sich bekannten Verfahren. Die identifizierten Freiflächen und die identifizierten erhabenen Objekte werden positionsabhängig und erfassungsrichtungsabhängig mit hiermit korrespondierenden Kamerabildern verknüpft. Es können beispielsweise Bildelemente der an den mehreren Positionen erfassten Kamerabilder jeweils mit hiermit korrespondierenden Raumwinkeln der Erfassungsbereiche der Umfeldkameras verknüpft und an den Positionen hinterlegt werden. Dies ermöglicht für jede der Positionen eine Zuordnung der Bildelemente in den erfassten Kamerabildern zu Bereichen in dem Umfeld, wodurch eine Projektion der Kamerabilder auf die jeweiligen Bereiche erfolgen kann. Es wird ein Bildsignal für ein Umfeldabbild in Draufsicht auf das Fahrzeug erzeugt, indem die Kamerabilder hierfür zumindest teilweise positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen und Objekte in der Umfeldkarte projiziert werden. Das erzeugte Bildsignal wird bereitgestellt, beispielsweise als analoges oder digitales Signal oder digitales Datenpaket. Das erzeugte Bildsignal kann anschließend beispielsweise auf einer Anzeigeeinrichtung des Fahrzeugs angezeigt werden, um einen Fahrer des Fahrzeugs beim Einparken und/oder Rangieren zu unterstützen.The method and the device make it possible to generate an improved camera-based image of the environment in a top view. In particular, several positions of the vehicle are taken into account, so that not only an image of the environment for a current position of the vehicle can be provided, but also an image of the environment that goes beyond this. In particular, the multiple positions at which the sensor data and the camera images are captured correspond to positions within a parking scenario. In particular, a history of the environment can be taken into account, that is, a camera-based image of the environment, especially in a parking scenario, can be built up step by step. For this purpose, for example, the vehicle drives (position by position) through the parking scenario (e.g. parking lot or parking garage), with the image of the environment being generated step by step while driving through the parking scenario. The positions are determined, for example, using the vehicle's own odometry and/or retrieved from the odometry. At the several positions, the coordinates of which are determined by the odometry and/or retrieved by it, the surroundings of the vehicle are recorded by means of several surrounding cameras and by means of at least one distance-resolving sensor. This is done in particular at each of the positions. The number and orientation of the surrounding cameras are selected and arranged in such a way that these can capture a complete image of the environment, in particular all horizontal directions around the vehicle, that is, in particular a horizontal angle of 0 to 360°. Based on the recorded sensor data from the at least one distance-resolving sensor, open spaces and raised objects in the surrounding area are identified. A local environment map is generated based on the recorded sensor data and/or from the identified open spaces and the identified raised objects. This is done in particular using methods known per se. The identified open spaces and the identified raised objects are linked to corresponding camera images depending on the position and detection direction. For example, image elements of the camera images captured at the multiple positions can each be linked to corresponding solid angles of the detection areas of the surrounding cameras and stored at the positions. For each of the positions, this enables the image elements in the captured camera images to be assigned to areas in the environment, whereby the camera images can be projected onto the respective areas. An image signal for an image of the surroundings in a top view of the vehicle is generated by projecting the camera images onto the open spaces and objects in the surroundings map at least partially in a position-dependent and detection direction-dependent manner. The generated image signal is provided, for example as an analog or digital signal or digital data packet. The generated image signal can then be displayed, for example, on a display device of the vehicle in order to support a driver of the vehicle when parking and/or maneuvering.
Es kann vorgesehen sein, dass das Umfeldabbild nur einen begrenzten Bereich des Umfeldes berücksichtigt, das heißt, dass eine Historie nur bis zu einem bestimmten Zeitpunkt oder bis zu einer bestimmten Position in der Vergangenheit zurückreicht. Die Umfeldabbildung kann beispielsweise nach Art eines Shiftregisters ausgebildet sein, bei dem nur bis zu einem bestimmten Zeitpunkt in der Vergangenheit bzw. bis zu einer bestimmten vergangenen Position des Fahrzeugs erfasste Sensordaten und Kamerabilder berücksichtigt werden. Es kann jedoch auch vorgesehen sein, die Umfeldabbildung ohne Begrenzung zu erzeugen, bis ein hierfür reservierter Speicherplatz der Datenverarbeitungseinrichtung vollständig belegt ist.It can be provided that the environment image only takes into account a limited area of the environment, that is, that a history only extends back to a specific point in time or to a specific position in the past. The environment map can, for example, be designed in the manner of a shift register, in which sensor data and camera images recorded up to a specific point in time in the past or up to a specific past position of the vehicle are taken into account. However, it can also be provided to generate the environment image without limitation until a memory space in the data processing device reserved for this purpose is completely occupied.
Ein entfernungsauflösender Sensor ist insbesondere ein Ultraschallsensor, ein Radarsensor oder ein Lidarsensor. Grundsätzlich können auch mehrere (unterschiedliche) Sensoren verwendet werden. Eine Anzahl und/oder eine Anordnung und/oder eine Ausrichtung des mindestens einen entfernungsauflösenden Sensors ist insbesondere derart gewählt, dass ein Horizontwinkel (z.B. Azimut) von 0 bis 360° erfasst werden kann. Ein Vertikalwinkelbereich (z.B. Elevation) liegt hierbei beispielsweise in einem Bereich von 0 bis etwa 30-45°, kann jedoch grundsätzlich auch einen anderen Bereich abdecken.A distance-resolving sensor is in particular an ultrasonic sensor, a radar sensor or a lidar sensor. In principle, several (different) sensors can also be used. A number and/or an arrangement and/or an orientation of the at least one distance-resolving sensor is selected in particular such that a horizon angle (e.g. azimuth) of 0 to 360° can be detected. A vertical angle range (e.g. elevation) lies, for example, in a range from 0 to approximately 30-45°, but can in principle also cover a different range.
Freiflächen sind beispielsweise Bereiche im Umfeld, für die die entfernungsaufgelösten Sensordaten ergeben, dass innerhalb eines vorgegebenen Mindestabstands zum Sensor kein Objekt und/oder keine Reflexion oberhalb eines vorgegebenen Vertikalwinkels erfasst wird. Der vorgegebene Mindestabstand beträgt beispielsweise einige Meter (z.B. 10 m, 15 m etc.) und der vorgegebene Vertikalwinkel ist beispielsweise 5°, 10° oder 15° etc.Open spaces are, for example, areas in the environment for which the distance-resolved sensor data show that no object and/or no reflection above a predetermined vertical angle is detected within a predetermined minimum distance from the sensor. The specified minimum distance is, for example, a few meters (e.g. 10 m, 15 m, etc.) and the specified vertical angle is, for example, 5°, 10° or 15° etc.
Die lokale Umfeldkarte ist insbesondere eine dreidimensionale Umfeldkarte, welche beispielsweise mittels eines lokalen kartesischen Koordinatensystems beschrieben wird.The local environment map is in particular a three-dimensional environment map, which is described, for example, using a local Cartesian coordinate system.
Das Projizieren erfolgt insbesondere, indem die Kamerabilder als Texturen über die Freiflächen und die erhabenen Objekte gelegt werden. Das Projizieren erfolgt hierbei insbesondere positionsabhängig und erfassungsrichtungsabhängig in perspektivisch korrekter Form, sodass das Umfeldabbild in Draufsicht derart erzeugt wird, dass dieses idealerweise einem real mittels einer Kamera aus der Vogelperspektive erfassten Umfeldabbild entspricht. Beim Projizieren werden insbesondere an sich bekannte Verfahren, wie beispielsweise Stitching und/oder Helligkeits- und/oder Kontrastangleichungen, verwendet, um verschiedene Kamerabilder miteinander zu verbinden.Projecting is done in particular by placing the camera images as textures over the open spaces and raised objects. The projection is carried out in a perspectively correct form, in particular in a position-dependent and detection direction-dependent manner, so that the image of the environment is generated in a top view in such a way that it ideally corresponds to an image of the environment captured from a bird's eye view using a camera. When projecting, methods known per se, such as stitching and/or brightness and/or contrast adjustments, are used in particular to connect different camera images with one another.
Teile der Vorrichtung, insbesondere die Datenverarbeitungseinrichtung, können einzeln oder zusammengefasst als eine Kombination von Hardware und Software ausgebildet sein, beispielsweise als Programmcode, der auf einem Mikrocontroller oder Mikroprozessor ausgeführt wird. Es kann jedoch auch vorgesehen sein, dass Teile einzeln oder zusammengefasst als anwendungsspezifische integrierte Schaltung (ASIC) und/oder feldprogrammierbares Gatterfeld (FPGA) ausgebildet sind.Parts of the device, in particular the data processing device, can be designed individually or collectively as a combination of hardware and software, for example as program code that is executed on a microcontroller or microprocessor. However, it can also be provided that parts are designed individually or combined as an application-specific integrated circuit (ASIC) and/or field-programmable gate array (FPGA).
In einer Ausführungsform ist vorgesehen, dass beim Erzeugen der Umfeldkarte aus Freiflächen schrittweise für die mehreren Positionen eine positionsabhängige Bodenprojektionsebene definiert wird, auf die die jeweils mit den Freiflächen verknüpften Kamerabilder projiziert werden. Positionsabhängig bedeutet hierbei insbesondere, dass die Bodenprojektionsebene nur dort definiert ist, wo Freiflächen identifiziert wurden. Hierdurch kann schrittweise ein Bodenniveau für die Standfläche des Fahrzeugs definiert werden. Dem liegt der Gedanke zugrunde, dass Freiflächen nicht von jeder Position des Fahrzeugs aus als Freiflächen erscheinen, beispielsweise weil ein Objekt die Freifläche aus einigen Positionen des Fahrzeugs aus gesehen verdeckt, aus anderen hingegen nicht. Wenn diese Freifläche jedoch aus mehreren Positionen bzw. aus zumindest einer Position als Freifläche erfasst und identifiziert werden kann, ist dies ausreichend, um diese Freifläche im Umfeldabbild als solche zu berücksichtigen. Insbesondere werden einmal als Freiflächen identifizierte Bereiche im Umfeld stets als Freiflächen identifiziert, auch wenn diese von anderen Positionen aus nicht als Freifläche identifiziert werden. Die Bodenprojektionsebene wird insbesondere in einem lokalen (beispielsweise kartesischen) Koordinatensystem der Umfeldkarte definiert.In one embodiment it is provided that when the environment map is generated from open spaces, a position-dependent ground projection plane is gradually defined for the multiple positions, onto which the camera images linked to the open spaces are projected. Position-dependent means in particular that the ground projection plane is only defined where open spaces have been identified. This allows a floor level for the vehicle's standing area to be gradually defined. This is based on the idea that open spaces cannot be viewed from every position of the vehicle appear as open spaces, for example because an object obscures the open space when viewed from some positions of the vehicle but not from others. However, if this open space can be detected and identified as an open space from several positions or from at least one position, this is sufficient to take this open space into account as such in the environmental image. In particular, once identified as open spaces, areas in the surrounding area are always identified as open spaces, even if they are not identified as open spaces from other positions. The ground projection plane is defined in particular in a local (for example Cartesian) coordinate system of the environment map.
In einer Ausführungsform ist vorgesehen, dass beim Erzeugen der Umfeldkarte aus erhabenen Objekten schrittweise für die mehreren Positionen mindestens eine positionsabhängige Projektionsebene definiert wird, auf die die jeweils mit den erhabenen Objekten verknüpften Kamerabilder projiziert werden. Hierdurch können erhabene Objekte im Umfeldabbild in Draufsicht als solche dargestellt werden. Befindet sich beispielsweise ein anderes Fahrzeug im Umfeld des Fahrzeugs, so wird dieses andere Fahrzeug als erhabenes Objekt identifiziert und für das andere Fahrzeug wird, beispielsweise ausgehend von der höchsten Position der zugehörig erfassten Sensordaten, eine auf dieser höchsten Position angeordnete Projektionsebene definiert. Diese Projektionsebene fällt dann idealerweise mit einer Höhe einer Motorhaube oder eines Dachs oder einer Kofferraumklappe (bei einem Fließheck) des anderen Fahrzeugs zusammen. Die erfassten Kamerabilder werden dann entsprechend positionsabhängig und erfassungsrichtungsabhängig auf die hierfür definierten Projektionsebenen projiziert, sodass sich im erzeugten Bildsignal bzw. im Umfeldabbild in Draufsicht eine realistischere Darstellung ergibt.In one embodiment, it is provided that when the environment map is generated from raised objects, at least one position-dependent projection plane is gradually defined for the multiple positions, onto which the camera images associated with the raised objects are projected. This allows raised objects to be displayed as such in the image of the environment in a top view. For example, if there is another vehicle in the vicinity of the vehicle, this other vehicle is identified as a raised object and a projection plane arranged at this highest position is defined for the other vehicle, for example starting from the highest position of the associated sensor data. This projection plane then ideally coincides with a height of a hood or a roof or a trunk lid (in the case of a hatchback) of the other vehicle. The captured camera images are then projected onto the projection planes defined for this purpose, depending on the position and direction of capture, so that a more realistic representation results in the generated image signal or in the image of the environment in a top view.
In einer Ausführungsform ist vorgesehen, dass beim Erzeugen der mindestens einen Projektionsebene mindestens ein Bereich ergänzt wird, wenn die für diesen Bereich erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors mit einem anderen Fahrzeug korrespondieren. Hierdurch können auch verdeckte Bereiche, die von den Umfeldkameras nicht erfasst werden können, in dem erzeugten Umfeldabbild als derart ergänzte Bereiche dargestellt werden. Dahinter steht der Gedanke, dass eine Projektionsebene für ein Dach eines anderen Fahrzeugs beispielsweise ergänzt werden kann, wenn eine Höhe einer Dachkante in der Umfeldkarte bekannt ist. Das Dach wird dann an der mit der Dachkante zusammenfallenden Höhe ergänzt. Ausgehend von den erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors und/oder den erfassten Kamerabildern werden hierzu insbesondere andere Fahrzeug erkannt. Dies erfolgt mittels an sich bekannter Verfahren, wie beispielsweise Mustererkennung und/oder Maschinenlernen. Grundsätzlich können auch andere Objekte erkannt und in entsprechender Weise ergänzt werden.In one embodiment it is provided that when the at least one projection plane is generated, at least one area is added if the sensor data of the at least one distance-resolving sensor recorded for this area corresponds to another vehicle. This means that hidden areas that cannot be captured by the surrounding cameras can also be represented as such supplemented areas in the surrounding image generated. The idea behind this is that a projection plane for a roof of another vehicle can be added, for example, if the height of a roof edge is known in the surrounding map. The roof is then added at the height that coincides with the edge of the roof. Based on the captured sensor data of the at least one distance-resolving sensor and/or the captured camera images, other vehicles in particular are recognized for this purpose. This is done using methods known per se, such as pattern recognition and/or machine learning. In principle, other objects can also be recognized and supplemented accordingly.
In einer Ausführungsform ist vorgesehen, dass ein Grad einer jeweiligen Radialverzerrung der Umfeldkameras beim Erfassen und/oder Projizieren berücksichtigt wird. Hierdurch können für das Projizieren insbesondere diejenigen Bereiche in den erfassten Kameraabbildungen verwendet werden, die das Umfeld, also Freiflächen und erhabene Objekte, unverzerrt in einer hohen Auflösung zeigen. Da Umfeldkameras in der Regel einen großen Erfassungsbereich (z.B. 180°) aufweisen, wird eine Abbildungsoptik dazu verwendet, diesen großen Erfassungsbereich auf einen Bildsensor abzubilden. Hierbei bildet die Abbildungsoptik insbesondere Randbereiche stark verzerrt ab („Fischaugenoptik“), sodass im Vergleich zu einer Bildmitte ein größerer Raumwinkelbereich auf eine gleiche Anzahl von Sensorelementen des Bildsensors der Umfeldkameras abgebildet wird. Dies führt zu einer radial von der Bildmitte zunehmenden Verzerrung und abnehmenden Auflösung. Es kann beispielsweise vorgesehen sein, dass nur Bereiche der erfassten Kameraabbildungen verwendet werden, in denen der Grad der Randverzerrung unterhalb eines vorgegebenen Schwellwertes liegt (beispielsweise angegeben als Anzahl von Bildelementen pro Raumwinkel oder als Änderung der Anzahl der Bildelemente pro Raumwinkel etc.). Werden nur diese Bereiche beim Erfassen und/oder Projizieren berücksichtigt, so kann insgesamt eine Auflösung der Umfeldabbildung erhöht werden. Ferner kann eine Verzerrung und/oder Verfälschung beim Projizieren verringert oder sogar verhindert werden. Wird beispielsweise eine Freifläche an mehreren Positionen aus unterschiedlichen Richtungen erfasst, so können diejenigen Kameraabbildungen oder Bereiche dieser Kameraabbildungen verwendet werden, die die höchste Auflösung oder zumindest eine Auflösung oberhalb eines vorgegebenen Schwellwertes aufweisen. Es kann ferner auch vorgesehen sein, einen solchen Schwellwert dynamisch in Abhängigkeit von einer Verfügbarkeit von erfassten Kamerabildern anzupassen. Dies kann insbesondere in Abhängigkeit davon erfolgen, mit welcher Auflösung Kamerabilder für identifizierte Freiflächen und/oder identifizierte erhabene Objekte erfasst wurden und zur Verfügung stehen. Stehen Kamerabilder mit höherer Auflösung zur Verfügung, so werden nur diese oder Bereiche hiervon mit einer Auflösung oberhalb des Schwellwertes und/oder unterhalb eines vorgegebenen Grades der Randverzerrung verwendet; stehen für identifizierte Freiflächen und/oder identifizierte erhabene Objekte hingegen nur Kamerabilder mit geringerer Auflösung zur Verfügung (z.B. weil diese aus randverzerrten Bildbereichen stammen), so werden diese verwendet. Es wird hierbei insbesondere angestrebt, stets die am höchsten verfügbare Auflösung zu verwenden. Entsprechend kann der Schwellwert dynamisch angepasst werden.In one embodiment it is provided that a degree of a respective radial distortion of the surrounding cameras is taken into account when detecting and/or projecting. This means that in particular those areas in the captured camera images can be used for projection that show the surroundings, i.e. open spaces and raised objects, undistorted in a high resolution. Since environmental cameras generally have a large detection range (e.g. 180°), imaging optics are used to image this large detection range on an image sensor. The imaging optics image particularly edge areas in a highly distorted manner (“fisheye optics”), so that, compared to the center of the image, a larger solid angle area is imaged on an equal number of sensor elements of the image sensor of the surrounding cameras. This results in increasing distortion and decreasing resolution radially from the center of the image. For example, it can be provided that only areas of the captured camera images are used in which the degree of edge distortion is below a predetermined threshold value (for example specified as the number of image elements per solid angle or as a change in the number of image elements per solid angle, etc.). If only these areas are taken into account when detecting and/or projecting, the overall resolution of the image of the surroundings can be increased. Furthermore, distortion and/or falsification during projection can be reduced or even prevented. For example, if an open area is captured at several positions from different directions, those camera images or areas of these camera images can be used that have the highest resolution or at least a resolution above a predetermined threshold value. Provision can also be made to dynamically adapt such a threshold value depending on the availability of captured camera images. This can be done in particular depending on the resolution with which camera images for identified open spaces and/or identified raised objects were captured and are available. If camera images with higher resolution are available, only these or areas thereof with a resolution above the threshold value and/or below a predetermined degree of edge distortion are used; However, for identified open spaces and/or identified raised objects, only camera images with lower resolution are available (e.g. because they consist of edge-distorted images areas), these are used. The aim here is in particular to always use the highest resolution available. The threshold value can be adjusted dynamically accordingly.
In einer Ausführungsform ist vorgesehen, dass jeweils nur ein vorgegebener innerer Bildbereich der erfassten Kamerabilder beim Projizieren verwendet wird. Hierdurch kann ebenfalls eine Radialverzerrung berücksichtigt werden. Insbesondere ermöglicht dies eine besonders einfach und aufwandsarm umzusetzende Variante, da der innere Bildbereich einmalig definiert werden kann und dann in der Folge nur dieser innere Bildbereich beim Projizieren berücksichtigt wird. Der innere Bildbereich kann beispielsweise durch Vorgabe einer Mindestauflösung definiert werden.In one embodiment it is provided that only a predetermined inner image area of the captured camera images is used during projection. This also allows radial distortion to be taken into account. In particular, this enables a variant that is particularly easy to implement and requires little effort, since the inner image area can be defined once and then only this inner image area is taken into account when projecting. The inner image area can be defined, for example, by specifying a minimum resolution.
In einer Ausführungsform ist vorgesehen, dass das Bildsignal für Bereiche des Umfeldabbildes, für die keine Kameradaten und/oder keine Sensordaten aufgrund von Verdeckung vorhanden sind, ausgehend von Nachbarbereichen, die an diese Bereiche angrenzen, extrapoliert und/oder geschätzt werden. Hierdurch kann auch für diese nicht mittels der Umfeldkameras erfassten Bereiche ein Bildsignal bereitgestellt werden. Dahinter steht der Gedanke, dass beispielsweise eine Textur für ein Dach eines anderen Fahrzeugs (oder eines anderen Objektes) ergänzt und/oder geschätzt werden kann, wenn eine Textur einer Motorhaube, einer Heckklappe und/oder eines sonstigen Teils des anderen Fahrzeugs (oder des anderen Objektes) bekannt ist. Das Dach wird dann mit Hilfe der extrapolierten und/oder geschätzten Textur ergänzt bzw. es wird eine extrapolierte und/oder geschätzte Kameraabbildung auf die zugehörige Projektionsebene projiziert. Ausgehend von den erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors und/oder den erfassten Kamerabildern werden hierzu insbesondere andere Fahrzeug und/oder andere Objekte im Umfeld erkannt. Dies erfolgt mittels an sich bekannter Verfahren, wie beispielsweise Mustererkennung und/oder Maschinenlernen. Grundsätzlich können auch andere Objekte erkannt und in entsprechender Weise ergänzt werden. Es kann ferner vorgesehen sein, dass verdeckte Bereiche ausgehend von den erfassten Sensordaten und optischen Eigenschaften der Umfeldkameras bestimmt werden.In one embodiment, it is provided that the image signal for areas of the environment image for which no camera data and/or no sensor data is available due to occlusion is extrapolated and/or estimated based on neighboring areas that border on these areas. This means that an image signal can also be provided for these areas that are not captured by the surrounding cameras. The idea behind this is that, for example, a texture for a roof of another vehicle (or another object) can be supplemented and/or appreciated when a texture of a hood, a tailgate and/or another part of the other vehicle (or the other object) is known. The roof is then supplemented with the help of the extrapolated and/or estimated texture or an extrapolated and/or estimated camera image is projected onto the associated projection plane. Based on the captured sensor data of the at least one distance-resolving sensor and/or the captured camera images, in particular other vehicles and/or other objects in the environment are recognized. This is done using methods known per se, such as pattern recognition and/or machine learning. In principle, other objects can also be recognized and supplemented accordingly. It can also be provided that hidden areas are determined based on the recorded sensor data and optical properties of the surrounding cameras.
Es kann ferner vorgesehen sein, dass identifizierte erhabene Objekte, insbesondere andere Fahrzeuge, im Umfeld zumindest teilweise gerendert werden, wobei dies ausgehend von den erfassten Sensordaten des entfernungsauflösenden Sensors erfolgt. Zu den zumindest teilweise gerenderten Objekten wird ein entsprechendes Bildsignal erzeugt. Das Rendern wird insbesondere mittels der Datenverarbeitungseinrichtung und an sich bekannter Verfahren durchgeführt.It can also be provided that identified raised objects, in particular other vehicles, are at least partially rendered in the environment, this being done based on the recorded sensor data of the distance-resolving sensor. A corresponding image signal is generated for the at least partially rendered objects. The rendering is carried out in particular using the data processing device and methods known per se.
In einer Ausführungsform ist vorgesehen, dass ausgehend von den an den mehreren Positionen des Fahrzeugs erfassten Kamerabildern zusätzlich eine dreidimensionale Punktwolke des Umfelds erzeugt und beim Identifizieren der Freiflächen und/oder der erhabenen Objekte im Umfeld berücksichtigt wird. Hierdurch können entfernungsauflösende Daten bzw. dreidimensionale Daten des Umfeldes zusätzlich auch ausgehend von den erfassten Kamerabildern erzeugt und berücksichtigt werden. Hierbei kann beispielsweise ein monokulares Simultaneous Localization and Mapping (SLAM)-Verfahren (z.B. Direct Sparse Odometry, DSO) oder ein sonstiges geeignetes Verfahren verwendet werden.In one embodiment, it is provided that, based on the camera images captured at the multiple positions of the vehicle, a three-dimensional point cloud of the surroundings is additionally generated and taken into account when identifying the open spaces and/or the raised objects in the surroundings. This means that distance-resolving data or three-dimensional data of the environment can also be generated and taken into account based on the captured camera images. For example, a monocular Simultaneous Localization and Mapping (SLAM) method (e.g. Direct Sparse Odometry, DSO) or another suitable method can be used.
Weitere Merkmale zur Ausgestaltung der Vorrichtung ergeben sich aus der Beschreibung von Ausgestaltungen des Verfahrens. Die Vorteile der Vorrichtung sind hierbei jeweils die gleichen wie bei den Ausgestaltungen des Verfahrens.Further features for the design of the device result from the description of embodiments of the method. The advantages of the device are the same as in the embodiments of the method.
Ferner wird insbesondere auch ein Fahrzeug geschaffen, umfassend mindestens eine Vorrichtung nach einer der beschriebenen Ausführungsformen. Ein Fahrzeug ist insbesondere ein Kraftfahrzeug.Furthermore, a vehicle is also created in particular, comprising at least one device according to one of the described embodiments. A vehicle is in particular a motor vehicle.
Nachfolgend wird die Erfindung anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf die Figuren näher erläutert. Hierbei zeigen:
-
1 eine schematische Darstellung einer Ausführungsform der Vorrichtung zum Erzeugen eines Umfeldabbildes für einen Parkassistenten eines Fahrzeugs; -
2 eine schematische Darstellung zur Verdeutlichung von Sensordaten von entfernungsauflösenden Sensoren; -
3 eine schematische Darstellung zur Verdeutlichung einer Bodenprojektionsebene und von Projektionsebenen für erhabene Objekte; -
4 eine schematische Darstellung eines Umfeldabbildes, das dem erzeugten Bildsignal entspricht; -
5a ,5b schematische Darstellungen zur Verdeutlichung einer Ausführungsform der Vorrichtung und des Verfahrens.
-
1 a schematic representation of an embodiment of the device for generating an image of the surroundings for a parking assistant of a vehicle; -
2 a schematic representation to illustrate sensor data from distance-resolving sensors; -
3 a schematic representation to illustrate a floor projection plane and projection planes for raised objects; -
4 a schematic representation of an environment image that corresponds to the generated image signal; -
5a ,5b schematic representations to illustrate an embodiment of the device and the method.
Die
Die Vorrichtung 1 umfasst mehrere Umfeldkameras 2, mindestens einen entfernungsauflösenden Sensor 3 und eine Datenverarbeitungseinrichtung 4.The device 1 includes several surrounding
Insbesondere umfasst die Vorrichtung 1 vier Umfeldkameras 2 (es ist der Übersichtlichkeit halber nur eine in der
Der mindestens eine entfernungsauflösende Sensor 3 umfasst beispielsweise einen Ultraschallsensor, einen Radarsensor und/oder einen Lidarsensor. Eine Anzahl und eine Anordnung der entfernungsauflösenden Sensoren 3 ist insbesondere derart gewählt, dass ein horizontaler Winkelbereich eines Umfelds von 0 bis 360° um das Fahrzeug 50 herum lückenlos erfasst werden kann. Insbesondere sind die Umfeldkameras 2 und die entfernungsauflösenden Sensoren 3 zueinander kalibriert, das heißt, eine relative Pose (relative Position und relative Ausrichtung) zueinander ist bekannt. Dies ermöglicht eine Zuordnung von erfassten Sensordaten 11 zu erfassten Kamerabildern 10.The at least one distance-resolving
Die Datenverarbeitungseinrichtung 4 umfasst eine Recheneinrichtung 4-1 und einen Speicher 4-2. Die Datenverarbeitungseinrichtung 4 ist dazu eingerichtet, ausgehend von an mehreren Positionen des Fahrzeugs 50 erfassten Sensordaten 11 des mindestens einen entfernungsauflösenden Sensors 3 Freiflächen und erhabene Objekte im Umfeld zu identifizieren, eine lokale Umfeldkarte 30 ausgehend von den erfassten Sensordaten 11 und/oder den identifizierten Freiflächen und den identifizierten erhabenen Objekten zu erzeugen und identifizierte Freiflächen und identifizierte erhabene Objekte positionsabhängig und erfassungsrichtungsabhängig mit hiermit korrespondierenden Kamerabildern 10 zu verknüpfen. Ferner ist die Datenverarbeitungseinrichtung 4 dazu eingerichtet, ein Bildsignal 20 für ein Umfeldabbild 21 in Draufsicht („Top View“) auf das Fahrzeug 50 zu erzeugen, und die Kamerabilder 10 hierfür zumindest teilweise positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen und Objekte in der Umfeldkarte 30 zu projizieren, und das erzeugte Bildsignal 20 bereitzustellen. Das bereitgestellte Bildsignal 20 kann beispielsweise einer Anzeigeeinrichtung 51 des Fahrzeugs 50 zugeführt werden und auf dieser angezeigt werden, um einen Fahrer beim Einparken und/oder Rangieren zu unterstützen.The data processing device 4 includes a computing device 4-1 and a memory 4-2. The data processing device 4 is set up to identify open spaces and raised objects in the environment based on
Die
An jeder der mehreren Positionen 32 werden für alle Richtungen um das Fahrzeug 50 herum Kamerabilder erfasst. Bildinformationen in den erfassten Kamerabildern werden positionsabhängig und erfassungsrichtungsabhängig mit den Datenpunkten 31-x verknüpft. Insbesondere ausgehend von dieser Verknüpfung werden zum Erzeugen des Umfeldabbildes 21 in Draufsicht die Kamerabilder hierfür (zumindest teilweise) positionsabhängig und erfassungsrichtungsabhängig auf die Freiflächen 40 und die erhabenen Objekte 41 in der Umfeldkarte 30 projiziert. Anders ausgedrückt werden die erfassten Kamerabilder (zumindest teilweise) positionsabhängig und erfassungsrichtungsabhängig als Texturen über die Freiflächen 40 und die erhabenen Objekte 41 gelegt und hierdurch ein Umfeldabbild 21 in Draufsicht erzeugt.Camera images are captured for all directions around the
Es ist insbesondere vorgesehen, dass beim Erzeugen der Umfeldkarte 30 aus Freiflächen 40 schrittweise für die mehreren Positionen 32 eine positionsabhängige Bodenprojektionsebene 33 definiert wird, auf die die jeweils mit den Freiflächen 40 verknüpften Kamerabilder projiziert werden. Dies ist schematisch in der
Es ist ferner insbesondere vorgesehen, dass beim Erzeugen der Umfeldkarte 30 aus erhabenen Objekten 41 schrittweise für die mehreren Positionen 32 mindestens eine positionsabhängige Projektionsebene 34 definiert wird, auf die die jeweils mit den erhabenen Objekten 41 verknüpften Kamerabilder projiziert werden. Hierbei geht es vor allem darum, die erhabenen Objekte 41 im Umfeldabbild 21 (
Es kann vorgesehen sein, dass beim Erzeugen der mindestens einen Projektionsebene 34 mindestens ein Bereich ergänzt wird, wenn die für diesen Bereich erfassten Sensordaten des mindestens einen entfernungsauflösenden Sensors mit einem anderen Fahrzeug 51 korrespondieren. Hierzu kann an den erfassten Sensordaten, insbesondere an den Datenpunkten 31-x, beispielsweise eine Mustererkennung und/oder eine Objekterkennung durchgeführt werden. Wird anhand der Mustererkennung und/oder der Objekterkennung erkannt, dass ein erhabenes Objekt 41 ein anderes Fahrzeug 51 ist, so kann dieses Vorwissen dazu genutzt werden, weiter entfernte Bereiche der anderen Fahrzeuge 51, für die eine Dichte an Datenpunkten 31-x abnimmt, zu ergänzen, beispielsweise indem Datenpunkte 31-x zum Nachbilden einer äußeren Kontur des anderen Fahrzeugs 51 ergänzt werden.It can be provided that when the at least one
Es kann vorgesehen sein, dass ein Grad einer jeweiligen Radialverzerrung der Umfeldkameras 2 beim Erfassen und/oder Projizieren berücksichtigt wird. Um den Grad der Radialverzerrung zu bestimmen, können empirische Versuche durchgeführt werden und/oder optische Eigenschaftsparameter 15 (
Es kann vorgesehen sein, dass jeweils nur ein vorgegebener innerer Bildbereich der erfassten Kamerabilder 10 beim Projizieren verwendet wird. Ein geeigneter innerer Bildbereich kann beispielsweise anhand von empirischen Versuchen und/oder Simulationen bestimmt werden.It can be provided that only a predetermined inner image area of the captured
Es kann vorgesehen sein, dass das Bildsignal 20 für Bereiche des Umfeldabbildes 21, für die keine Kameradaten 10 und/oder keine Sensordaten 11 aufgrund von Verdeckung vorhanden sind, ausgehend von Nachbarbereichen, die an diese Bereiche angrenzen, extrapoliert und/oder geschätzt werden. So kann das Bildsignal 20 beispielsweise für die jeweils dem Fahrzeug 50 abgewandte Seite 35 (
Es kann vorgesehen sein, dass ausgehend von den an den mehreren Positionen 32 des Fahrzeugs 50 erfassten Kamerabildern 10 zusätzlich eine dreidimensionale Punktwolke des Umfelds erzeugt und beim Identifizieren der Freiflächen 40 und/oder der erhabenen Objekte 41 im Umfeld berücksichtigt wird. Dies erfolgt beispielsweise mittels an sich bekannter SLAM-Verfahren, beispielsweise mittels des Direct Sparse Odometry (DSO)-Verfahrens.It can be provided that, based on the
Die
Das in der
BezugszeichenlisteReference symbol list
- 11
- Vorrichtungcontraption
- 22
- UmfeldkameraSurrounding camera
- 33
- entfernungsauflösender Sensordistance-resolving sensor
- 44
- DatenverarbeitungseinrichtungData processing device
- 4-14-1
- RecheneinrichtungComputing facility
- 4-24-2
- SpeicherStorage
- 1010
- KamerabildCamera image
- 1111
- SensordatenSensor data
- 1515
- optische Eigenschaftsparameteroptical property parameters
- 2020
- BildsignalImage signal
- 2121
- UmfeldabbildEnvironment image
- 3030
- lokale Umfeldkartelocal environment map
- 31-131-1
- Datenpunkt (Ultraschallsensor)Data point (ultrasonic sensor)
- 31-231-2
- Datenpunkt (Radarsensor)Data point (radar sensor)
- 31-331-3
- Datenpunkt (Lidarsensor)Data point (lidar sensor)
- 3232
- Positionposition
- 3333
- BodenprojektionsebeneFloor projection plane
- 3434
- Projektionsebeneprojection plane
- 3535
- abgewandte Seiteopposite side
- 3636
- zugewandte Seitefacing side
- 4040
- FreiflächeOpen space
- 4141
- erhabenes Objektsublime object
- 5050
- Fahrzeugvehicle
- 5151
- AnzeigeeinrichtungDisplay device
Claims (10)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022204313.8A DE102022204313A1 (en) | 2022-05-02 | 2022-05-02 | Method and device for generating an image of the environment for a parking assistant of a vehicle |
PCT/EP2023/058624 WO2023213482A1 (en) | 2022-05-02 | 2023-04-03 | Method and device for generating a surroundings image for a parking assistant of a vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022204313.8A DE102022204313A1 (en) | 2022-05-02 | 2022-05-02 | Method and device for generating an image of the environment for a parking assistant of a vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022204313A1 true DE102022204313A1 (en) | 2023-11-02 |
Family
ID=86054130
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022204313.8A Pending DE102022204313A1 (en) | 2022-05-02 | 2022-05-02 | Method and device for generating an image of the environment for a parking assistant of a vehicle |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102022204313A1 (en) |
WO (1) | WO2023213482A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007172541A (en) | 2005-12-26 | 2007-07-05 | Toyota Motor Corp | Driving support device |
US20080221843A1 (en) | 2005-09-01 | 2008-09-11 | Victor Shenkar | System and Method for Cost-Effective, High-Fidelity 3D-Modeling of Large-Scale Urban Environments |
WO2017108221A1 (en) | 2015-12-21 | 2017-06-29 | Robert Bosch Gmbh | Dynamic image blending for multiple-camera vehicle systems |
DE102018214874B3 (en) | 2018-08-31 | 2019-12-19 | Audi Ag | Method and arrangement for generating an environment map of a vehicle textured with image information and vehicle comprising such an arrangement |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5440867B2 (en) * | 2010-06-18 | 2014-03-12 | アイシン精機株式会社 | Parking assistance device |
DE102010051204A1 (en) * | 2010-11-12 | 2012-05-16 | Valeo Schalter Und Sensoren Gmbh | Method for displaying obstacle for vehicle, involves detecting area surrounding vehicle with camera system, and detecting obstacles with sensor element independent of camera system |
JP5857224B2 (en) * | 2012-03-30 | 2016-02-10 | パナソニックIpマネジメント株式会社 | Parking assistance device and parking assistance method |
DE102018210812A1 (en) * | 2018-06-30 | 2020-01-02 | Robert Bosch Gmbh | Method for a sensor- and memory-based representation of an environment, display device and vehicle with the display device |
DE102019123778A1 (en) * | 2019-09-05 | 2021-03-11 | Valeo Schalter Und Sensoren Gmbh | Representing a vehicle environment for moving the vehicle to a target position |
JP2022016908A (en) * | 2020-07-13 | 2022-01-25 | フォルシアクラリオン・エレクトロニクス株式会社 | Overhead image generation device, overhead image generation system and automatic parking device |
-
2022
- 2022-05-02 DE DE102022204313.8A patent/DE102022204313A1/en active Pending
-
2023
- 2023-04-03 WO PCT/EP2023/058624 patent/WO2023213482A1/en unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080221843A1 (en) | 2005-09-01 | 2008-09-11 | Victor Shenkar | System and Method for Cost-Effective, High-Fidelity 3D-Modeling of Large-Scale Urban Environments |
JP2007172541A (en) | 2005-12-26 | 2007-07-05 | Toyota Motor Corp | Driving support device |
WO2017108221A1 (en) | 2015-12-21 | 2017-06-29 | Robert Bosch Gmbh | Dynamic image blending for multiple-camera vehicle systems |
DE102018214874B3 (en) | 2018-08-31 | 2019-12-19 | Audi Ag | Method and arrangement for generating an environment map of a vehicle textured with image information and vehicle comprising such an arrangement |
Also Published As
Publication number | Publication date |
---|---|
WO2023213482A1 (en) | 2023-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018121019A1 (en) | EXPANDING REAL SENSOR RECORDS WITH SIMULATED SENSOR DATA | |
DE102016220075A1 (en) | Motor vehicle and method for 360 ° field detection | |
DE102013209415A1 (en) | Dynamic Note Overlay with Image Pruning | |
DE102009015921A1 (en) | Method for optically scanning and measuring an environment | |
DE102010042026B4 (en) | Method for generating an image of at least one object in the surroundings of a vehicle | |
DE102013002554A1 (en) | Method for detecting objects in a warehouse and / or for spatial orientation in a warehouse | |
DE112016001150T5 (en) | ESTIMATION OF EXTRINSIC CAMERA PARAMETERS ON THE BASIS OF IMAGES | |
DE102016203710B4 (en) | Distance and direction estimation of a target point from a vehicle using a monocular video camera | |
DE102015115012A1 (en) | Method for generating an environment map of an environment of a motor vehicle based on an image of a camera, driver assistance system and motor vehicle | |
DE112020004301T5 (en) | OBJECT RECOGNITION DEVICE | |
DE102015211874A1 (en) | Object detection device | |
WO2018054521A1 (en) | Method for the self-location of a vehicle | |
DE102017212370A1 (en) | Method and device for identifying damage in vehicle windows | |
EP3815044A1 (en) | Method for sensor and memory-based depiction of an environment, display apparatus and vehicle having the display apparatus | |
DE102015223500A1 (en) | Method and device for testing the functionality of an outside lighting device of a vehicle | |
DE102013215408A1 (en) | A vehicle display system and method for displaying a vehicle environment | |
DE102014201409B4 (en) | PARKING - TRACKING DEVICE AND PROCEDURES OF THE SAME | |
DE102022204313A1 (en) | Method and device for generating an image of the environment for a parking assistant of a vehicle | |
DE102014019078A1 (en) | Calibration method and method for adjusting a camera mounted on a vehicle | |
DE102008050456B4 (en) | Method and apparatus for lane detection | |
DE102010009620B4 (en) | Method and device for detecting at least one obstacle in a vehicle environment | |
DE102020109789A1 (en) | Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system | |
DE102015102128A1 (en) | Laser scanner and method for measuring an object | |
DE102019209849B4 (en) | Method and control device for distance-measuring image processing for a stereo camera device for a vehicle and stereo camera system with a stereo camera device and a control device | |
DE102018214875A1 (en) | Method and arrangement for generating an environmental representation of a vehicle and vehicle with such an arrangement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |