DE102021127748A1 - PROCEDURE, COMPUTER PROGRAM PRODUCT, PARKING ASSISTANCE SYSTEM AND VEHICLE - Google Patents

PROCEDURE, COMPUTER PROGRAM PRODUCT, PARKING ASSISTANCE SYSTEM AND VEHICLE Download PDF

Info

Publication number
DE102021127748A1
DE102021127748A1 DE102021127748.5A DE102021127748A DE102021127748A1 DE 102021127748 A1 DE102021127748 A1 DE 102021127748A1 DE 102021127748 A DE102021127748 A DE 102021127748A DE 102021127748 A1 DE102021127748 A1 DE 102021127748A1
Authority
DE
Germany
Prior art keywords
image
vehicle
determined
recording position
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021127748.5A
Other languages
German (de)
Inventor
Jean-Francois Bariant
Llarina Lobo-Palacios
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102021127748.5A priority Critical patent/DE102021127748A1/en
Publication of DE102021127748A1 publication Critical patent/DE102021127748A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • G01C3/14Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with binocular observation at a single point, e.g. stereoscopic type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/30Interpretation of pictures by triangulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space

Abstract

Es wird ein Verfahren zum Betreiben eines Parkassistenzsystems (110) für ein Fahrzeug (100) vorgeschlagen. Das Verfahren umfasst:Empfangen (S1) eines ersten Bildes (210) einer Umgebung (200) des Fahrzeugs (100), das von einer ersten Aufnahmeposition (201) aus erfasst ist, und eines zweiten Bildes (220) der Umgebung (200) des Fahrzeugs (100), das von einer zweiten Aufnahmeposition (202) aus erfasst ist,Ermitteln (S2) eines Objekts (230, 240) in dem empfangenen ersten Bild (210) und in dem empfangenen zweiten Bild (220),Bestimmen (S3) eines jeweiligen, das ermittelte Objekt (230, 240) umfassenden Begrenzungsrahmens (231A, 231B, 241A, 241B) in dem ersten Bild und in dem zweiten Bild, wobei der jeweilige Begrenzungsrahmen (231A, 231B, 241A, 241 B) eine jeweilige erste und eine jeweilige zweite vertikale Begrenzungslinie (232A, 232B, 233A, 233B, 242A, 242B, 243A, 243B) umfasst, die jeweils einen Eckpunkt (C1-1, C1-2, C2-1, C2-2) des ermittelten Objekts (230, 240) in dem jeweiligen Bild (210, 220) kennzeichnet, undDurchführen einer Triangulation zumindest eines Eckpunkts (C1-1, C1-2, C2-1, C2-2) des ermittelten Objekts (230, 240) auf Basis eines Abstands (DIST) von der ersten Aufnahmeposition (201) zu der zweiten Aufnahmeposition (202) und der jeweiligen vertikalen Begrenzungslinie (232A, 232B, 233A, 233B, 242A, 242B, 243A, 243B), die den Eckpunkt (C1-1, C1-2, C2-1, C2-2) kennzeichnet.A method for operating a parking assistance system (110) for a vehicle (100) is proposed. The method comprises: Receiving (S1) a first image (210) of an area (200) of the vehicle (100), which is recorded from a first recording position (201), and a second image (220) of the area (200) of the Vehicle (100), which is detected from a second recording position (202), determining (S2) an object (230, 240) in the received first image (210) and in the received second image (220), determining (S3) a respective bounding box (231A, 231B, 241A, 241B) encompassing the identified object (230, 240) in the first image and in the second image, the respective bounding box (231A, 231B, 241A, 241 B) having a respective first and a respective second vertical boundary line (232A, 232B, 233A, 233B, 242A, 242B, 243A, 243B), each of which defines a corner point (C1-1, C1-2, C2-1, C2-2) of the detected object (230 , 240) in the respective image (210, 220), and carrying out a triangulation of at least one corner point (C1-1, C1-2, C2-1, C2-2) of the determined object (230, 240) on the basis of a distance ( DIST) from the first recording position (201) to the second recording position (202) and the respective vertical boundary line (232A, 232B, 233A, 233B, 242A, 242B, 243A, 243B) which defines the corner point (C1-1, C1-2 , C2-1, C2-2).

Description

Die vorliegende Erfindung betrifft ein Verfahren, ein Computerprogrammprodukt, ein Parkassistenzsystem und ein Fahrzeug.The present invention relates to a method, a computer program product, a parking assistance system and a vehicle.

Es sind Parkassistenzsysteme bekannt, die eine automatisierte Einparkfunktion aufweisen. Um einen geeigneten Parkplatz ausfindig zu machen, fährt das einzuparkende Fahrzeug beispielsweise an einer Reihe geparkter Fahrzeuge vorbei und erfasst die Fahrzeuge in seiner Umgebung. Wenn eine große Lücke zwischen zwei anderen geparkten Fahrzeugen ermittelt wird, kann diese Lücke als ein möglicher Parkplatz erkannt werden. Ein solches System kann beispielsweise auf Ultraschallsensorik basieren.Parking assistance systems are known which have an automated parking function. In order to find a suitable parking space, the vehicle to be parked drives past a row of parked vehicles, for example, and detects the vehicles in its vicinity. If a large gap is detected between two other parked vehicles, this gap can be recognized as a possible parking space. Such a system can be based on ultrasonic sensors, for example.

Problematisch hierbei kann es sein, dass Ultraschall-Sensoren in einigen Situationen keine zuverlässigen Detektionen liefern, und dass die Reichweite der Ultraschall-Sensoren begrenzt ist. Daher werden beispielsweise zusätzlich Kamerabilder ausgewertet, um die Umgebung des Fahrzeugs genauer zu erfassen. Es ergibt sich nun jedoch das Problem, die Daten der Kamera mit den Daten der Ultraschallsensorik zu kombinieren (Sensorfusion). Eine Möglichkeit hierzu besteht darin, alle Messdaten in eine zwei- oder dreidimensionale Karte einzutragen, wobei hierzu auf Basis der Kamerabilder Abstände zu den in den Kamerabildern enthaltenen Objekten zu ermitteln sind.The problem here can be that ultrasonic sensors do not provide reliable detections in some situations and that the range of the ultrasonic sensors is limited. For this reason, additional camera images are evaluated, for example, in order to record the surroundings of the vehicle more precisely. However, the problem now arises of combining the data from the camera with the data from the ultrasonic sensors (sensor fusion). One possibility for this is to enter all measurement data in a two-dimensional or three-dimensional map, with distances to the objects contained in the camera images having to be determined on the basis of the camera images.

Es ist bekannt, einen Abstand zu Objekten auf Basis einer Mehrzahl von Bildern, die aus unterschiedlichen Positionen aufgenommen wurden, zu ermitteln. Diesen Verfahren liegt eine Triangulation bestimmter Punkte in den Bildern zugrunde. Eine Schwierigkeit besteht darin, übereinstimmende Objektpunkte in unterschiedlichen Bildern zu ermitteln. Dies kann unter Anwendung unterschiedlicher Verfahren erfolgen.It is known to determine a distance to objects on the basis of a number of images that were recorded from different positions. This method is based on a triangulation of specific points in the images. One difficulty is finding matching object points in different images. This can be done using different methods.

Ein erstes Verfahren basiert auf dem sogenannten optischen Fluss, der auf Basis von zwei zeitlich nacheinander aufgenommenen Bildern für eine bestimmte Szene ermittelbar ist. Die beiden Bilder zeigen dabei im Wesentlichen die gleiche Szene, wobei eine Verschiebung einzelner Elemente des Bildes aufgrund einer Eigenbewegung des Elements und eine Verschiebung und Drehung des gesamten Bildes aufgrund einer Eigenbewegung der Kamera vorhanden sein kann. Auf Basis von optischen Flussmessungen kann grundsätzlich für jeden Bildpunkt ein Abstand von der Kamera ermittelt werden. Die Bilder müssen bei diesem Verfahren von einer Kamera zu unterschiedlichen Zeitpunkten erfasst worden sein, es ist nicht möglich, Bilder, die von unterschiedlichen Kameras erfasst wurden, auf diese Weise auszuwerten. Allerdings darf die Veränderung des Bildinhaltes ein bestimmtes Maß nicht überschreiten, da ansonsten keine Korrelation zwischen den Bildern mehr herstellbar ist. Das heiß insbesondere, dass der zeitliche Abstand zwischen den Bildern nicht zu groß werden darf.A first method is based on the so-called optical flow, which can be determined on the basis of two images recorded one after the other for a specific scene. The two images essentially show the same scene, it being possible for individual elements of the image to be displaced due to the element's own movement and for the entire image to be displaced and rotated due to the camera's own movement. Based on optical flow measurements, a distance from the camera can be determined for each pixel. With this method, the images must have been captured by one camera at different times; it is not possible to evaluate images captured by different cameras in this way. However, the change in the image content must not exceed a certain level, since otherwise it is no longer possible to establish a correlation between the images. In particular, this means that the time between the images must not be too large.

In einem zweiten Verfahren werden bestimmte Merkmale in einem jeweiligen Bild ermittelt. Durch Nachverfolgung eines bestimmten Merkmals in mehreren Bildern ist es möglich, eine Triangulation bezüglich dieses Merkmals durchzuführen, um so den Abstand des Merkmals zu der Kamera zu bestimmen. Auch bei diesem Verfahren können Bilder unterschiedlicher Kameras nicht kombiniert werden, da nicht sichergestellt ist, dass in den Bildern übereinstimmende Merkmale erfasst werden.In a second method, specific features are determined in a respective image. By tracking a particular feature in multiple images, it is possible to triangulate that feature to determine the feature's distance from the camera. Images from different cameras cannot be combined with this method either, since there is no guarantee that matching features will be recorded in the images.

Ein Problem dieser bekannten Verfahren ist nicht nur, dass die Verfahren auf Bilder einer bestimmten Kamera beschränkt sind, sondern auch, dass eine Nachverfolgung eines Merkmals über größere Bewegungsdistanzen der Kamera hinweg nicht zuverlässig ist, da Merkmale aufgrund der Veränderung des Blickwinkels eine unterschiedliche Erscheinung aufweisen können. Zudem ist eine Wiedererkennung eines Merkmals, wenn dieses zwischenzeitlich verloren wurde, zu einem späteren Zeitpunkt nicht zuverlässig möglich. Ferner sind diese bekannten Verfahren rechenintensiv und benötigen für eine effiziente Ausführung eine auf das jeweilige System spezifisch angepasste Hardware, wie beispielsweise spezifische ASICs (application specific integrated circuit). Daher können diese Verfahren nur sehr begrenzt aktualisiert werden und sind nicht einfach auf andere Systeme, wie beispielsweise eine andere Kamera und/oder ein anderes Objektiv und dergleichen, übertragbar, sondern müssen jeweils aufwendig angepasst werden. Dies macht deren Implementierung aufwendig und teuer.A problem with these known methods is not only that the methods are limited to images from a specific camera, but also that tracking a feature over larger moving distances of the camera is not reliable, since features can have a different appearance due to the change in the viewing angle . In addition, it is not possible to reliably recognize a feature at a later point in time if it has been lost in the meantime. Furthermore, these known methods are computationally intensive and, for efficient execution, require hardware that is specifically adapted to the respective system, such as specific ASICs (application-specific integrated circuits). Therefore, these methods can only be updated to a very limited extent and cannot simply be transferred to other systems, such as another camera and/or another lens and the like, but must be adapted in each case in a laborious manner. This makes their implementation complicated and expensive.

Vor diesem Hintergrund besteht eine Aufgabe der vorliegenden Erfindung darin, den Betrieb eines Parkassistenzsystems für ein Fahrzeug zu verbessern.Against this background, an object of the present invention is to improve the operation of a parking assistance system for a vehicle.

Gemäß einem ersten Aspekt wird ein Verfahren zum Betreiben eines Parkassistenzsystems für ein Fahrzeug vorgeschlagen. Das Verfahren umfasst:

  • Empfangen eines ersten Bildes einer Umgebung des Fahrzeugs, das von einer ersten Aufnahmeposition aus erfasst ist, und eines zweiten Bildes der Umgebung des Fahrzeugs, das von einer zweiten Aufnahmeposition aus erfasst ist,
  • Ermitteln eines Objekts in dem empfangenen ersten Bild und in dem empfangenen zweiten Bild,
  • Bestimmen eines jeweiligen, das ermittelte Objekt umfassenden Begrenzungsrahmens in dem ersten Bild und in dem zweiten Bild, wobei der jeweilige Begrenzungsrahmen eine jeweilige erste und eine jeweilige zweite vertikale Begrenzungslinie umfasst, die jeweils einen Eckpunkt des ermittelten Objekts in dem jeweiligen Bild kennzeichnet, und
  • Durchführen einer Triangulation zumindest eines Eckpunkts des ermittelten Objekts auf Basis eines Abstands von der ersten Aufnahmeposition zu der zweiten Aufnahmeposition und der jeweiligen vertikalen Begrenzungslinie, die den Eckpunkt in dem ersten Bild und in dem zweiten Bild kennzeichnet, zum Ermitteln einer relativen Position des Eckpunkts zu der ersten Aufnahmeposition und der zweiten Aufnahmeposition.
According to a first aspect, a method for operating a parking assistance system for a vehicle is proposed. The procedure includes:
  • receiving a first image of an area surrounding the vehicle, which is captured from a first recording position, and a second image of the area surrounding the vehicle, which is recorded from a second recording position,
  • detecting an object in the received first image and in the received second image,
  • determining a respective bounding box comprising the identified object in the first image and in the second image, the respective bounding box comprising a respective first and a respective second vertical boundary line, each of which characterizes a corner point of the identified object in the respective image, and
  • Carrying out a triangulation of at least one corner point of the determined object on the basis of a distance from the first recording position to the second recording position and the respective vertical boundary line, which characterizes the corner point in the first image and in the second image, to determine a relative position of the corner point to the first pick-up position and the second pick-up position.

Dieses Verfahren hat den Vorteil, dass zumindest für die zwei Eckpunkte oder seitlichen Begrenzungen des Objekts, die von einem jeweiligen Standort aus sichtbar sind, eine Triangulation durchführbar ist, so dass deren jeweilige relative Position ermittelt wird, selbst wenn die Aufnahmepositionen und/oder Zeitpunkte der Bilderfassung deutlich unterschiedlich sind. Die bekannten Verfahren, die auf dem optischen Fluss oder auf einer Merkmalstriangulation basieren, sind in dieser Situation nicht oder nicht zuverlässig anwendbar. Das Verfahren basiert auf der Erkenntnis, dass die vertikale Begrenzungslinie eines Begrenzungsrahmens auch für Bilder, die von unterschiedlichen Standorten aus erfasst wurden, im Wesentlichen immer eine Ecke oder seitliche Kante des Objekts kennzeichnen und sich daher als Merkmal eignen, um eine Triangulation der Ecke des Objekts durchzuführen.This method has the advantage that a triangulation can be carried out at least for the two corner points or lateral boundaries of the object that are visible from a respective location, so that their respective relative position is determined, even if the recording positions and/or times of the Image acquisition are significantly different. The known methods, which are based on the optical flow or on feature triangulation, cannot be used, or cannot be used reliably, in this situation. The method is based on the finding that the vertical boundary line of a bounding box essentially always marks a corner or lateral edge of the object, even for images that were captured from different locations, and is therefore a suitable feature for triangulating the corner of the object to perform.

Die Bilder werden insbesondere von einer Kamera oder von mehreren Kameras des Fahrzeugs erfasst.In particular, the images are recorded by a camera or by a plurality of cameras of the vehicle.

Das Ermitteln des Objekts in dem jeweiligen empfangenen Bild kann mittels einer Objekterkennungsroutine, insbesondere einer auf Objekterkennung trainierten künstlichen Intelligenz, erfolgen. Die Objekterkennung kann aber auch unter Verwendung klassischer Algorithmen durchgeführt werden. Der Objekterkennung kann eine Bildverarbeitung, wie eine Bildtransformation des jeweiligen empfangenen Bildes, vorhergehen, um die Objekterkennung zu verbessern. Vorzugsweise sind die empfangenen Bilder entzerrt, so dass in der Realität vorhandene vertikale und horizontale Linien in dem jeweiligen Bild ebenfalls vertikal und horizontal verlaufen. Eine solche Entzerrung kann durch die Kamera, die das jeweilige Bild erfasst, erfolgen und/oder kann nachträglich durch das Parkassistenzsystem durchgeführt werden.The object in the respective received image can be determined by means of an object recognition routine, in particular an artificial intelligence trained for object recognition. However, the object recognition can also be carried out using classic algorithms. The object recognition can be preceded by image processing, such as an image transformation of the respective received image, in order to improve the object recognition. The received images are preferably rectified, so that vertical and horizontal lines that are actually present in the respective image also run vertically and horizontally. Such rectification can be carried out by the camera that captures the respective image and/or can be carried out subsequently by the parking assistance system.

Es handelt sich bei dem in den Bildern ermittelten Objekt um das gleiche in der Umgebung des Fahrzeugs vorhandene Objekt, wie beispielsweise ein geparktes Fahrzeug. Dem ermittelten Objekt wird beispielsweise ein Kennzeichen zugeordnet, wobei dem gleichen Objekt in unterschiedlichen Bildern das gleiche Kennzeichen zugeordnet wird. Man kann auch sagen, dass das Objekt über die Bilder hinweg verfolgt (getrackt) wird. Auf diese Weise ist sichergestellt, dass sich die Triangulation auf Eckpunkte desselben Objekts bezieht.The object determined in the images is the same object present in the area surrounding the vehicle, such as a parked vehicle. An identifier is assigned to the determined object, for example, the same identifier being assigned to the same object in different images. You can also say that the object is tracked across the images. This ensures that the triangulation refers to vertices of the same object.

Der Begrenzungsrahmen (engl. bounding box) ist beispielsweise ein Rechteck, das in dem jeweiligen Bild derart eingezeichnet wird, dass das ermittelte Objekt in dem Rechteck enthalten ist. Vorzugsweise begrenzt der Begrenzungsrahmen das ermittelte Objekt, das heißt, dass beispielsweise ein Rand des Objekts an den Begrenzungsrahmen angrenzt.The bounding box is, for example, a rectangle that is drawn in the respective image in such a way that the determined object is contained in the rectangle. The bounding box preferably delimits the determined object, which means that, for example, an edge of the object borders the bounding box.

Der Eckpunkt des ermittelten Objekts kann auch als seitlicher Rand oder seitliche Begrenzung des Objekts bezeichnet werden. Ein jeweiliger Begrenzungsrahmen umfasst zwei vertikale Begrenzungslinien. Es sei angemerkt, dass „vertikal“ sich insbesondere auf eine tatsächliche vertikale Richtung bezieht, das heißt, parallel zu einer Erdanziehungskraft ist. Die vertikale Linie kann eine gekrümmte Darstellung aufweisen, sofern das zugrundeliegende Bild nicht entzerrt ist. Beispielsweise verläuft die erste vertikale Begrenzungslinie so, dass diese eine vordere rechte Ecke eines Fahrzeugs (Objekts) berührt und die zweite vertikale Begrenzungslinie verläuft so, dass diese eine hintere linke Ecke des Fahrzeugs (Objekts) berührt. Welche Ecke des Fahrzeugs (Objekts) einer jeweiligen Begrenzungslinie entspricht, hängt insbesondere von einer Perspektive ab, aus der das Bild erfasst wurde, also der relativen Anordnung von Fahrzeug (Objekt) und Kamera.The corner point of the determined object can also be referred to as the lateral edge or lateral boundary of the object. Each bounding box includes two vertical bounding lines. It should be noted that "vertical" specifically refers to an actual vertical direction, that is, parallel to a force of gravity. The vertical line may appear curved unless the underlying image is rectified. For example, the first vertical boundary line is such that it touches a front right corner of a vehicle (object), and the second vertical boundary line is such that it touches a rear left corner of the vehicle (object). Which corner of the vehicle (object) corresponds to a respective boundary line depends in particular on a perspective from which the image was captured, ie the relative arrangement of vehicle (object) and camera.

Beispielsweise umfassen die empfangenen Bilder eine Bildpunktmatrix, wobei ein jeweiliger Bildpunkt einer bestimmten Richtung ausgehend von einer Frontlinse der Kamera entspricht. Für jeweils zwei Bildpunkte kann daher ein Winkel ermittelt werden, der von den jeweiligen Richtungen eingeschlossen ist. Eine Richtung kann als eine Gerade im Raum betrachtet werden, wobei die zwei Geraden, die den beiden Richtungen entsprechen, eine Ebene aufspannen, in der der Winkel gemessen wird. Zwei Bilder einer Verkehrssituation, die von unterschiedlichen Positionen aus erfasst werden, zeigen Objekte der Verkehrssituation an unterschiedlichen Positionen im Bild, das heißt an unterschiedlichen Bildpunkten in der Bildpunktmatrix. Auf Basis der zwei Bildpunkte, die ein jeweiliges Objekt zeigen, kann ein Winkel ermittelt werden, wie zuvor erläutert. Auf Basis dieses Winkels kann eine Triangulation durchgeführt werden, sofern der Abstand der Aufnahmepositionen zueinander bekannt ist. Somit lässt sich ein Abstand von dem Objekt zu der Kamera ermitteln.For example, the received images include a pixel matrix, with each pixel corresponding to a specific direction, starting from a front lens of the camera. An angle enclosed by the respective directions can therefore be determined for each two image points. A direction can be viewed as a straight line in space, with the two straight lines corresponding to the two directions spanning a plane in which the angle is measured. Two images of a traffic situation, which are captured from different positions, show objects of the traffic situation at different positions in the image, ie at different pixels in the pixel matrix. An angle can be determined on the basis of the two image points which show a respective object, as explained above. A triangulation can be carried out on the basis of this angle be performed if the distance between the recording positions is known. A distance from the object to the camera can thus be determined.

Die Triangulation kann beispielsweise grafisch durchgeführt werden. Dies kann für einen bestimmten Eckpunkt des Objekts beispielsweise die folgenden Schritte umfassen:

  • Eintragen der ersten Aufnahmeposition und der zweiten Aufnahmeposition in eine zweidimensionale Karte der Umgebung des Fahrzeugs,
  • Eintragen einer jeweiligen Linie, welche sich ausgehend von der jeweiligen Aufnahmeposition in die Richtung der dem bestimmten Eckpunkt entsprechenden vertikalen Linie erstreckt, und
  • Ermitteln eines Winkels zwischen den beiden Linien.
The triangulation can be carried out graphically, for example. For example, for a given vertex of the object, this may involve the following steps:
  • Entering the first recording position and the second recording position in a two-dimensional map of the area around the vehicle,
  • entering a respective line which, starting from the respective recording position, extends in the direction of the vertical line corresponding to the determined vertex, and
  • Finding an angle between the two lines.

Unter Anwendung von trigonometrischen Grundsätzen und Verwendung des Abstands zwischen den beiden Aufnahmepositionen als Maßstab kann der jeweilige Abstand des Eckpunkts von den Aufnahmepositionen ermittelt werden. Damit ist die relative Position des Eckpunkt bestimmt.Applying trigonometric principles and using the distance between the two recording positions as a scale, the respective distance of the corner point from the recording positions can be determined. This determines the relative position of the corner point.

Gemäß einer Ausführungsform des Verfahrens umfasst dieses:

  • Ermitteln einer maßstabsgerechten zweidimensionalen Karte der Umgebung auf Basis der ermittelten relativen Position des Eckpunkts und der ersten Aufnahmeposition und der zweiten Aufnahmeposition.
According to one embodiment of the method, this comprises:
  • Determining a true-to-scale two-dimensional map of the surroundings based on the determined relative position of the corner point and the first recording position and the second recording position.

Die zweidimensionale Karte basiert beispielsweise auf einem von dem Parkassistenzsystem bereitgestellten ortsfesten Koordinatensystem. Das Koordinatensystem wird beispielsweise jeweils bei Fahrtantritt neu initialisiert. Das Koordinatensystem kann sich auch auf ein extern bereitgestelltes Koordinatensystem beziehen, wie beispielsweise ein Welt-Koordinatensystem eines Satelliten-Positionsbestimmungssystems, wie GPS oder dergleichen. In der zweidimensionalen Karte weist jedes Objekt bestimmte Koordinaten auf. Wenn sich das Fahrzeug des Parkassistenzsystems bewegt, verändert es seine Position in dem Koordinatensystem.The two-dimensional map is based, for example, on a stationary coordinate system provided by the parking assistance system. The coordinate system is re-initialized, for example, each time you start driving. The coordinate system may also refer to an externally provided coordinate system such as a world coordinate system of a satellite positioning system such as GPS or the like. In the two-dimensional map, each object has specific coordinates. If the vehicle of the parking assistance system moves, it changes its position in the coordinate system.

Die maßstabsgerechte zweidimensionale Karte umfasst vorzugsweise alle ermittelten Objekte mit korrekter Position und Ausdehnung, so dass auf Basis der Karte Abstände ausgemessen werden können.The true-to-scale, two-dimensional map preferably includes all of the determined objects with the correct position and extent, so that distances can be measured on the basis of the map.

Bei dem Ermitteln der zweidimensionalen Karte werden beispielsweise die ermittelten Eckpunkte gemäß der ermittelten relativen Position in die Karte eingetragen. Der Bereich zwischen zwei Eckpunkten eines Objekts kann als Objektbereich gekennzeichnet werden, wobei angemerkt sei, dass der Verlauf des Objekts in dem Objektbereich auf Basis des vorstehend beschriebenen Verfahrens nicht ermittelt wird. Der Verlauf in dem Objektbereich kann beispielsweise auf Basis von Ultraschallmessungen „ausgefüllt“ werden, wie nachstehend erläutert ist.When determining the two-dimensional map, for example, the determined corner points are entered into the map according to the determined relative position. The area between two corner points of an object can be identified as an object area, it being noted that the course of the object in the object area is not determined on the basis of the method described above. The profile in the object area can be “filled in” based on ultrasound measurements, for example, as explained below.

Gemäß einer weiteren Ausführungsform des Verfahrens umfasst dieses:

  • Empfangen eines Ultraschall-Sensorsignals, welches indikativ für die Umgebung des Fahrzeugs ist,
  • Ermitteln einer Position eines Objektpunkts, der ein Punkt eines Objekts ist, der ein abgestrahltes Ultraschall-Signal reflektiert, auf Basis des empfangenen Ultraschall-Sensorsignals, und
  • Eintragen des ermittelten Objektpunkts in die ermittelte maßstabsgerechte zweidimensionale Karte der Umgebung zum Bereitstellen einer vervollständigten Karte.
According to a further embodiment of the method, this includes:
  • Receiving an ultrasonic sensor signal, which is indicative of the surroundings of the vehicle,
  • determining a position of an object point, which is a point of an object reflecting a radiated ultrasonic signal, based on the received ultrasonic sensor signal, and
  • Entering the determined object point in the determined true-to-scale two-dimensional map of the environment to provide a completed map.

Bei dieser Ausführung werden somit Informationen, die von Bilddaten abgeleitet sind, und Informationen, die von Ultraschallmessungen abgeleitet sind, in einer gemeinsamen Karte kombiniert. Man kann dies auch als Sensorfusion bezeichnen.In this embodiment, information derived from image data and information derived from ultrasound measurements are thus combined in a common map. This can also be referred to as sensor fusion.

Gemäß einer weiteren Ausführungsform des Verfahrens umfasst dieses:

  • Ermitteln eines Objektbereichs in der vervollständigten Karte auf Basis der bestimmten Begrenzungsrahmen, wobei der Objektbereich den Bereich zwischen zwei Eckpunkten des Objekts umfasst, und
  • Ermitteln einer Objekt-Begrenzungslinie in der vervollständigten Karte auf Basis des ermittelten Objektbereichs, der Eckpunkte und von in dem Objektbereich liegenden Objektpunkten.
According to a further embodiment of the method, this includes:
  • determining an object area in the completed map based on the determined bounding box, the object area comprising the area between two vertices of the object, and
  • determining an object boundary line in the completed map based on the determined object area, the corner points and object points lying in the object area.

Diese geometrische Methode ermöglicht es zuverlässig, einen Verlauf des Objekts zu ermitteln. Hierbei kann auf Wissen oder Erfahrungswerte zurückgegriffen werden. Beispielsweise ist bekannt, dass Fahrzeuge einen im Wesentlichen rechteckigen horizontalen Querschnitt aufweisen. Daher ist ein Fahrzeug durch die Angabe der Positionen von vier Eckpunkten (auf Basis von Symmetriebetrachtungen genügen sogar drei Eckpunkte) ausreichend gut charakterisiert, so dass autonome Fahrmanöver in der Nähe des Fahrzeugs unter Vermeidung einer Kollision durchführbar sind. Auf Basis der Triangulation sind die Positionen von zwei Eckpunkten bekannt, und auf Basis der Ultraschallmessungen ist die Position des dazwischenliegenden Eckpunkts bekannt.This geometric method makes it possible to reliably determine a course of the object. Knowledge or empirical values can be used here. For example, vehicles are known to have a substantially rectangular horizontal cross-section. Therefore, a vehicle is characterized sufficiently well by specifying the positions of four corner points (on the basis of symmetry considerations, even three corner points are sufficient) so that autonomous driving maneuvers can be carried out in the vicinity of the vehicle while avoiding a collision. Based on the triangulation, the positions of two vertices are known, and based on the ultrasonic measurements, the position of the intervening vertex is known.

Gemäß einer weiteren Ausführungsform des Verfahrens umfasst dieses:

  • Ermitteln eines Parkplatzes auf Basis der ermittelten Objekt-Begrenzungslinie.
According to a further embodiment of the method, this includes:
  • Determination of a parking space based on the determined object boundary line.

Der Parkplatz wird beispielsweise so ermittelt, dass ein vorbestimmter Sicherheitsabstand zu der Objekt-Begrenzungslinie eingehalten wird.The parking space is determined, for example, in such a way that a predetermined safety distance from the object boundary line is maintained.

Gemäß einer weiteren Ausführungsform des Verfahrens umfasst dieses:

  • Durchführen eines automatisierten Einparkmanövers auf Basis des ermittelten Parkplatzes.
According to a further embodiment of the method, this includes:
  • Carrying out an automated parking maneuver based on the determined parking space.

Gemäß einer weiteren Ausführungsform des Verfahrens werden das erste und das zweite Bild der Umgebung von einer Anzahl von fahrzeugeigenen Kameras erfasst und bereitgestellt.According to a further embodiment of the method, the first and the second image of the surroundings are captured and provided by a number of on-board cameras.

Beispielsweise wird das erste Bild von einer Frontkamera und das zweite Bild von einer Seitenkamera erfasst und bereitgestellt. Eine relative Lage der beiden Kameras an dem Fahrzeug, insbesondere deren Abstand zueinander, ist bekannt, weshalb deren erfasste Bilder in Beziehung zueinander gesetzt werden können, so dass die zuvor erläuterte Triangulation der vertikalen Begrenzungslinie durchführbar ist. Sofern ein jeweiliger Abbildungsmaßstab und/oder eine Auflösung der unterschiedlichen Kameras verschieden sind, so ist dies bei der Triangulation entsprechend zu berücksichtigen.For example, the first image is captured and provided by a front camera and the second image by a side camera. A relative position of the two cameras on the vehicle, in particular their distance from one another, is known, which is why their captured images can be related to one another, so that the previously explained triangulation of the vertical boundary line can be carried out. If a respective imaging scale and/or a resolution of the different cameras are different, this must be taken into account accordingly in the triangulation.

Gemäß einer weiteren Ausführungsform des Verfahrens werden das erste und das zweite Bild der Umgebung von derselben fahrzeugeigenen Kamera zu unterschiedlichen Zeitpunkten erfasst und bereitgestellt, wobei zusätzlich ein Fahrzustands-Sensorsignal empfangen wird, und wobei der Abstand der ersten Aufnahmeposition zu der zweiten Aufnahmeposition auf Basis des empfangenen Fahrzustand-Sensorsignals ermittelt wird.According to a further embodiment of the method, the first and the second image of the surroundings are captured and provided by the same on-board camera at different times, a driving condition sensor signal also being received, and the distance between the first recording position and the second recording position being based on the received Driving condition sensor signal is determined.

Das Fahrzustands-Sensorsignal umfasst insbesondere Odometriedaten, wie ein Raddrehzahl-Sensorsignal, ein Radwinkel-Sensorsignal und/oder ein Lenkwinkel-Sensorsignal.The driving state sensor signal includes, in particular, odometry data such as a wheel speed sensor signal, a wheel angle sensor signal and/or a steering angle sensor signal.

Gemäß einer weiteren Ausführungsform des Verfahrens erfolgt das Ermitteln des Objekts in dem empfangenen ersten und zweiten Bild und das Bestimmen des jeweiligen Begrenzungsrahmens durch eine hierauf trainierte künstliche Intelligenz.According to a further embodiment of the method, the object is determined in the received first and second image and the respective boundary frame is determined by an artificial intelligence trained thereon.

Die künstliche Intelligenz ist beispielsweise als ein neuronales Netzwerk ausgebildet. Ein Aufbau des neuronalen Netzwerks stellt sich beispielsweise wie folgt dar. Das neuronale Netzwerk kann in drei Schichten oder Abschnitte unterteilt werden, eine Eingabeschicht, eine oder mehrere verborgene Schichten und eine Ausgabeschicht. Jede der Schichten umfasst eine Mehrzahl von einzelnen Neuronen, wobei unterschiedliche Schichten auch eine unterschiedliche Zahl an Neuronen aufweisen können. Die Menge an Neuronen in der Eingabeschicht hängt beispielsweise von der Menge und dem Format der durch das neuronale Network zu verarbeitenden Daten, was man auch als die Dimensionalität der Daten bezeichnen kann, ab. Die Menge an Neuronen in der Ausgabeschicht hängt beispielsweise von der Dimensionalität des Ausgangsvektors ab. Ein neuronales Netzwerk, das zum Klassifizieren von Objekten eingerichtet ist, weist beispielsweise eine den Anzahl von Klassen entsprechende Anzahl von Neuronen in der Ausgangsschicht auf.The artificial intelligence is designed, for example, as a neural network. An example of a structure of the neural network is as follows. The neural network can be divided into three layers or sections, an input layer, one or more hidden layers and an output layer. Each of the layers includes a plurality of individual neurons, it also being possible for different layers to have a different number of neurons. The amount of neurons in the input layer depends, for example, on the amount and format of the data to be processed by the neural network, which can also be referred to as the dimensionality of the data. For example, the amount of neurons in the output layer depends on the dimensionality of the output vector. A neural network that is set up for classifying objects has, for example, a number of neurons in the output layer that corresponds to the number of classes.

Die Eingabeschicht bildet den Eingang des neuronalen Netzwerks, dem der Eingangsvektor zugeführt wird. Die Neuronen der Eingabeschicht nehmen die in dem Eingangsvektor enthaltenen Informationen auf und geben diese gewichtet an die Neuronen der ersten verborgenen Schicht weiter. Die Neuronen der ersten verborgenen Schicht nehmen die gewichteten Signale von der Eingangsschicht auf und geben diese ihrerseits gewichtet an die folgende verborgene Schicht weiter. Die Signale werden auf diese Weise von Schicht zu Schicht durch das neuronale Netzwerk geleitet, bis die Ausgabeschicht erreicht ist. Die einzelnen Gewichte, mit der die Neuronen Signale weiterleiten, kodieren insbesondere das „Wissen“ des neuronalen Netzwerks. Durch Trainieren des neuronalen Netzwerks, beispielsweise mit einem Trainingsdatensatz und unter Anwendung eines geeigneten Trainingsverfahrens, werden die Gewichte eingestellt, bevor das neuronale Netzwerk in den operativen Betrieb geht. An den Neuronen der Ausgabeschicht wird der Ausgabevektor abgegriffen. Die Menge an verborgenen Schichten ist grundsätzlich unbegrenzt, jedoch skaliert die Rechenleistung, die zum Betreiben des neuronalen Netzwerks benötigt wird, mit der Menge verborgener Schichten. Je mehr Schichten ein neuronales Netzwerk umfasst, umso komplexere Aufgaben kann das neuronale Netzwerk lösen, allerdings steigt auch der Trainingsaufwand, das heißt die Größe des Trainingsdatensatzes entsprechend an. Daher ist es vorteilhaft, nur so viele verborgene Schichten wie für die jeweilige Aufgabe nötig zu verwenden.The input layer forms the input of the neural network, to which the input vector is fed. The neurons of the input layer accept the information contained in the input vector and pass it on weighted to the neurons of the first hidden layer. The neurons of the first hidden layer receive the weighted signals from the input layer and pass them on to the following hidden layer in a weighted manner. The signals are passed through the neural network from layer to layer in this way until the output layer is reached. The individual weights with which the neurons transmit signals encode in particular the "knowledge" of the neural network. By training the neural network, for example with a training data set and using a suitable training method, the weights are adjusted before the neural network goes into operation. The output vector is tapped off at the neurons of the output layer. The amount of hidden layers is basically unlimited, however the computational power needed to operate the neural network scales with the amount of hidden layers. The more layers a neural network includes, the more complex tasks the neural network can solve, but the training effort, i.e. the size of the training data set, increases accordingly. It is therefore advantageous to use only as many hidden layers as are necessary for the task at hand.

Gemäß einem zweiten Aspekt wird ein Computerprogrammprodukt vorgeschlagen, welches Befehle umfasst, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren gemäß dem ersten Aspekt auszuführen.According to a second aspect, a computer program product is proposed which comprises instructions which, when the program is executed by a computer, cause the latter to execute the method according to the first aspect.

Ein Computerprogrammprodukt, wie z.B. ein Computerprogramm-Mittel, kann beispielsweise als Speichermedium, wie z.B. Speicherkarte, USB-Stick, CD-ROM, DVD, oder auch in Form einer herunterladbaren Datei von einem Server in einem Netzwerk bereitgestellt oder geliefert werden. Dies kann zum Beispiel in einem drahtlosen Kommunikationsnetzwerk durch die Übertragung einer entsprechenden Datei mit dem Computerprogrammprodukt oder dem Computerprogramm-Mittel erfolgen.A computer program product, such as a computer program means, can be used, for example, as a storage medium such as a memory card, USB Stick, CD-ROM, DVD, or in the form of a downloadable file provided or supplied by a server in a network. This can be done, for example, in a wireless communication network by transferring a corresponding file with the computer program product or the computer program means.

Der Computer ist insbesondere als ein Parkassistenzsystem für ein Fahrzeug ausgebildet.The computer is designed in particular as a parking assistance system for a vehicle.

Gemäß einem dritten Aspekt wird ein Parkassistenzsystem für ein Fahrzeug vorgeschlagen. Das Parkassistenzsystem weist auf:

  • eine Empfangseinheit zum Empfangen eines ersten Bildes einer Umgebung des Fahrzeugs, das von einer ersten Aufnahmeposition aus erfasst ist, und eines zweiten Bildes der Umgebung des Fahrzeugs, das von einer zweiten Aufnahmeposition aus erfasst ist,
  • eine Ermittlungseinheit zum Ermitteln eines Objekts in dem empfangenen ersten Bild und in dem empfangenen zweiten Bild,
  • eine Bestimmungseinheit zum Bestimmen eines jeweiligen, das ermittelte Objekt umfassenden Begrenzungsrahmens in dem ersten Bild und in dem zweiten Bild, wobei der jeweilige Begrenzungsrahmen eine jeweilige erste und eine jeweilige zweite vertikale Begrenzungslinie umfasst, die jeweils einen Eckpunkt des ermittelten Objekts in dem jeweiligen Bild kennzeichnet, und
  • eine Triangulationseinheit zum Durchführen einer Triangulation zumindest eines Eckpunkts des ermittelten Objekts auf Basis eines Abstands von der ersten Aufnahmeposition zu der zweiten Aufnahmeposition und der jeweiligen vertikalen Begrenzungslinie, die den Eckpunkt in dem ersten Bild und in dem zweiten Bild kennzeichnet, zum Ermitteln einer relativen Position des Eckpunkts von der ersten Aufnahmeposition und der zweiten Aufnahmeposition.
According to a third aspect, a parking assistance system for a vehicle is proposed. The parking assistance system has:
  • a receiving unit for receiving a first image of an area surrounding the vehicle, which is captured from a first recording position, and a second image of the area surrounding the vehicle, which is recorded from a second recording position,
  • a determination unit for determining an object in the received first image and in the received second image,
  • a determination unit for determining a respective bounding box comprising the determined object in the first image and in the second image, wherein the respective bounding box comprises a respective first and a respective second vertical boundary line, each of which characterizes a corner point of the determined object in the respective image, and
  • a triangulation unit for carrying out a triangulation of at least one corner point of the determined object on the basis of a distance from the first recording position to the second recording position and the respective vertical boundary line, which characterizes the corner point in the first image and in the second image, to determine a relative position of the Vertex of the first recording position and the second recording position.

Dieses Parkassistenzsystem weist die gleichen Vorteile auf, wie zu dem Verfahren gemäß dem ersten Aspekt erläutert. Die für das vorgeschlagene Verfahren beschriebenen Ausführungsformen und Merkmale gelten für das vorgeschlagene Parkassistenzsystem entsprechend.This parking assistance system has the same advantages as explained for the method according to the first aspect. The embodiments and features described for the proposed method apply accordingly to the proposed parking assistance system.

Die jeweilige Einheit des Parkassistenzsystems kann hardwaretechnisch und/oder softwaretechnisch implementiert sein. Bei einer hardwaretechnischen Implementierung kann die jeweilige Einheit zum Beispiel als Computer oder als Mikroprozessor ausgebildet sein. Bei einer softwaretechnischen Implementierung kann die jeweilige Einheit als Computerprogrammprodukt, als eine Funktion, als eine Routine, als ein Algorithmus, als Teil eines Programmcodes oder als ausführbares Objekt ausgebildet sein. Ferner kann jede der vorliegend genannten Einheiten auch als Teil eines übergeordneten Steuerungssystems des Fahrzeugs, wie beispielsweise einer zentralen elektronischen Steuereinrichtung und/oder einem Motorsteuergerät (ECU: Engine Control Unit), ausgebildet sein.]The respective unit of the parking assistance system can be implemented in terms of hardware and/or software. In the case of a hardware implementation, the respective unit can be embodied, for example, as a computer or as a microprocessor. In the case of a software implementation, the respective unit can be designed as a computer program product, as a function, as a routine, as an algorithm, as part of a program code or as an executable object. Furthermore, each of the units mentioned here can also be designed as part of a higher-level control system of the vehicle, such as a central electronic control device and/or an engine control unit (ECU: Engine Control Unit).]

Gemäß einem vierten Aspekt wird ein Fahrzeug mit wenigstens einer Kamera zum Erfassen und Ausgeben eines Bildes der Umgebung des Fahrzeugs, und mit einem Parkassistenzsystem gemäß dem dritten Aspekt vorgeschlagen.According to a fourth aspect, a vehicle is proposed with at least one camera for capturing and outputting an image of the surroundings of the vehicle, and with a parking assistance system according to the third aspect.

Das Fahrzeug ist beispielsweise ein Personenkraftwagen oder auch ein Lastkraftwagen. Das Fahrzeug umfasst vorzugsweise eine Anzahl an Sensoreinheiten, die zum Erfassen des Fahrzustands des Fahrzeugs und zum Erfassen einer Umgebung des Fahrzeugs eingerichtet sind. Beispiele für derartige Sensoreinheiten des Fahrzeugs sind Bildaufnahmeeinrichtungen, wie eine Kamera, ein Radar (engl. radio detection and ranging) oder auch ein Lidar (engl. light detection and ranging), Ultraschallsensoren, Ortungssensoren, Radwinkelsensoren und/oder Raddrehzahlsensoren. Die Sensoreinheiten sind jeweils zum Ausgeben eines Sensorsignals eingerichtet, beispielsweise an das Parkassistenzsystem, welches dazu eingerichtet sein kann, auf Basis der empfangenen Sensorsignale eine teilautonome oder vollautonome Steuerung des Fahrzeugs durchzuführen.The vehicle is, for example, a passenger car or a truck. The vehicle preferably includes a number of sensor units that are set up to detect the driving state of the vehicle and to detect an environment of the vehicle. Examples of such sensor units of the vehicle are image recording devices such as a camera, radar (radio detection and ranging) or also a lidar (engl. light detection and ranging), ultrasonic sensors, location sensors, wheel angle sensors and/or wheel speed sensors. The sensor units are each set up to output a sensor signal, for example to the parking assistance system, which can be set up to carry out partially autonomous or fully autonomous control of the vehicle on the basis of the received sensor signals.

Weitere mögliche Implementierungen der Erfindung umfassen auch nicht explizit genannte Kombinationen von zuvor oder im Folgenden bezüglich der Ausführungsbeispiele beschriebenen Merkmale oder Ausführungsformen. Dabei wird der Fachmann auch Einzelaspekte als Verbesserungen oder Ergänzungen zu der jeweiligen Grundform der Erfindung hinzufügen.Further possible implementations of the invention also include combinations of features or embodiments described above or below with regard to the exemplary embodiments that are not explicitly mentioned. The person skilled in the art will also add individual aspects as improvements or additions to the respective basic form of the invention.

Weitere vorteilhafte Ausgestaltungen und Aspekte der Erfindung sind Gegenstand der Unteransprüche sowie der im Folgenden beschriebenen Ausführungsbeispiele der Erfindung. Im Weiteren wird die Erfindung anhand von bevorzugten Ausführungsformen unter Bezugnahme auf die beigelegten Figuren näher erläutert.

  • 1 zeigt ein schematisches Beispiel für ein Fahrzeug aus einer Vogelperspektive;
  • 2 zeigt eine schematische Ansicht einer Verkehrssituation aus einer Vogelperspektive;
  • 3 zeigt ein schematisches Beispiel dafür, wie auf Basis zweier Bilder einer Verkehrssituation eine Triangulation zum Ermitteln einer zweidimensionalen Karte durchführbar ist;
  • 4 zeigt ein schematisches Beispiel für eine zweidimensionale Karte;
  • 5 zeigt ein schematisches Beispiel für eine Sensorfusion;
  • 6 zeigt ein schematisches Beispiel für das das Ermitteln einer Objekt-Begrenzungslinie und das Ermitteln eines Parkplatzes auf Basis einer zweidimensionalen Karte;
  • 7 zeigt ein schematisches Blockdiagramm eines Beispiels für ein Parkassistenzsystem; und
  • 8 zeigt ein schematisches Blockschaltbild eines Beispiels für ein Verfahren zum Betreiben eines Parkassistenzsystems.
Further advantageous refinements and aspects of the invention are the subject matter of the dependent claims and of the exemplary embodiments of the invention described below. The invention is explained in more detail below on the basis of preferred embodiments with reference to the enclosed figures.
  • 1 shows a schematic example of a vehicle from a bird's eye view;
  • 2 shows a schematic view of a traffic situation from a bird's eye view;
  • 3 shows a schematic example of how a triangulation for determining a two-dimensional map can be carried out on the basis of two images of a traffic situation;
  • 4 shows a schematic example of a two-dimensional map;
  • 5 shows a schematic example of a sensor fusion;
  • 6 shows a schematic example for determining an object boundary line and determining a parking space on the basis of a two-dimensional map;
  • 7 shows a schematic block diagram of an example of a parking assistance system; and
  • 8th shows a schematic block diagram of an example of a method for operating a parking assistance system.

In den Figuren sind gleiche oder funktionsgleiche Elemente mit denselben Bezugszeichen versehen worden, sofern nichts anderes angegeben ist.Elements that are the same or have the same function have been provided with the same reference symbols in the figures, unless otherwise stated.

1 zeigt ein schematisches Beispiel für ein Fahrzeug 100 aus einer Vogelperspektive. Das Fahrzeug 100 ist beispielsweise ein Auto, das in einer Umgebung 200 angeordnet ist. Das Auto 100 weist ein Parkassistenzsystem 110 auf, das beispielsweise als ein Steuergerät ausgebildet ist. Zudem sind an dem Auto 100 eine Mehrzahl an Sensoreinheiten 120, 130 angeordnet, wobei es sich beispielhaft um optische Sensoren 120 und Ultraschallsensoren 130 handelt. Die optischen Sensoren 120 umfassen beispielsweise visuelle Kameras, ein Radar und/oder ein Lidar. Die optischen Sensoren 120 können jeweils ein Bild eines jeweiligen Bereichs aus der Umgebung 200 des Autos 100 erfassen und als optisches Sensorsignal ausgeben. Die vier optischen Sensoren 120 können gemeinsam insbesondere eine Rundumsicht-Kamera (surround-view camera) ausbilden, wobei Einzelbilder aus den verschiedenen Kameras 120 zu einem Gesamtbild zusammengefügt werden, das eine Rundumsicht um das Fahrzeug 100 zeigt. Die Ultraschallsensoren 130 sind zum Erfassen eines Abstands zu in der Umgebung 200 angeordneten Objekten 230, 240 (siehe 2) und zum Ausgeben eines entsprechenden Sensorsignals eingerichtet. Mittels den von den Sensoren 120, 130 erfassten Sensorsignalen ist das Parkassistenzsystem 110 in der Lage, das Auto 100 teilautonom oder auch vollautonom zu steuern, beispielsweise um einen Parkvorgang durchzuführen. Außer den in der 1 dargestellten optischen Sensoren 120 und Ultraschallsensoren 130 kann vorgesehen sein, dass das Fahrzeug 100 verschiedene weitere Sensoreinheiten 120, 130 aufweist. Beispiele hierfür sind ein Raddrehzahlsensor, ein Radwinkelsensor, ein Lenkwinkelsensor, ein Beschleunigungssensor, ein Positionssensor, eine Antenne mit gekoppeltem Empfänger zum Empfangen von elektromagnetisch übertragbarer Datensignale, und dergleichen mehr. 1 10 shows a schematic example of a vehicle 100 from a bird's eye view. The vehicle 100 is, for example, a car that is arranged in an environment 200 . Car 100 has a parking assistance system 110, which is embodied as a control unit, for example. In addition, a plurality of sensor units 120, 130 are arranged on the car 100, these being optical sensors 120 and ultrasonic sensors 130, for example. The optical sensors 120 include, for example, visual cameras, a radar and/or a lidar. The optical sensors 120 can each capture an image of a respective area from the environment 200 of the car 100 and output it as an optical sensor signal. The four optical sensors 120 can jointly form, in particular, an all-round view camera (surround-view camera), individual images from the various cameras 120 being combined to form an overall image which shows an all-round view around vehicle 100 . The ultrasonic sensors 130 are for detecting a distance to objects 230, 240 arranged in the environment 200 (see 2 ) and set up to output a corresponding sensor signal. Using the sensor signals detected by the sensors 120, 130, the parking assistance system 110 is able to control the car 100 semi-autonomously or fully autonomously, for example to carry out a parking process. Except the ones in the 1 illustrated optical sensors 120 and ultrasonic sensors 130 can be provided that the vehicle 100 has various other sensor units 120, 130. Examples of this are a wheel speed sensor, a wheel angle sensor, a steering angle sensor, an acceleration sensor, a position sensor, an antenna with a coupled receiver for receiving electromagnetically transmittable data signals, and the like.

Das Parkassistenzsystem 110 ist beispielsweise wie anhand der 7 erläutert ausgebildet und ist dazu eingerichtet, das anhand der 8 erläuterte Verfahren auszuführen. Ein konkretes Beispiel für ein entsprechendes Verfahren ist anhand der 2-6 erläutert.The parking assistance system 110 is, for example, as shown in FIG 7 explained formed and is set up to the basis of 8th carry out the procedures explained. A concrete example of a corresponding method is based on the 2-6 explained.

2 zeigt eine schematische Ansicht einer Verkehrssituation aus einer Vogelperspektive. Zwei Objekte 230, 240, beispielsweise geparkte Fahrzeuge, befinden sich neben dem Fahrzeug 100, bei dem es sich beispielsweise um das Fahrzeug 100 der 1 handelt. Zwischen den beiden geparkten Fahrzeugen 230, 240 befindet sich ein freier Parkplatz 270. 2 shows a schematic view of a traffic situation from a bird's eye view. Two objects 230, 240, such as parked vehicles, are located next to vehicle 100, which is, for example, vehicle 100 of FIG 1 acts. There is a free parking space 270 between the two parked vehicles 230, 240.

Herkömmliche Einparkhilfen, die beispielsweise nur auf Ultraschall basieren, können nicht zuverlässig erkennen, wie tief der Parkplatz 270 ist und ob die Fahrzeuge 230, 240 wie hier dargestellt ordnungsgemäß eingeparkt sind, oder ob diese möglicherweise schräg stehen und in den Parkplatz 270 hineinragen. Auf Basis des vorgeschlagenen Verfahrens, das anhand dieser beispielhaften Verkehrssituation und anhand der 3 - 6 erläutert wird, können diese Probleme überwunden werden.Conventional parking aids, which are based only on ultrasound, for example, cannot reliably detect how deep the parking space 270 is and whether the vehicles 230, 240 are properly parked, as shown here, or whether they may be at an angle and protrude into the parking space 270. Based on the proposed method, which is based on this exemplary traffic situation and based on the 3 - 6 is explained, these problems can be overcome.

3 zeigt ein schematisches Beispiel dafür, wie auf Basis zweier Bilder 210, 220 der in der 2 dargestellten Verkehrssituation eine Triangulation durchführbar ist. Die beiden Bilder 210, 220 wurden von einer an dem Fahrzeug 100 (siehe 1 oder 2) angeordneten Kamera 130 (siehe 1) erfasst, beispielsweise eine im Bereich des Außenspiegels angeordnete Kamera, die einen Bereich seitlich des Fahrzeugs 100 erfasst. Die Bilder 210, 220 wurden zu unterschiedlichen Zeitpunkten erfasst, wobei sich das Fahrzeug 100 in der Zwischenzeit bewegt hat. Das heißt, dass die Kamera an verschiedenen Positionen war, als sie ein jeweiliges Bild erfasst hat. Daher weisen die Bilder 210, 220 eine unterschiedliche Perspektive auf, was sich einer unterschiedlichen Erscheinung der abgebildeten Objekte 230, 240 niederschlägt. In diesem Beispiel sind die Bilder 210, 220 nicht verzerrt und korrekt orientiert, so dass in der Realität vertikal/horizontal verlaufende Linien in dem Bild vertikal/horizontal verlaufen und die untere Kante des jeweiligen Bildes 210, 220 entsprechend der Schwerkraftrichtung ausgerichtet ist. 3 shows a schematic example of how on the basis of two images 210, 220 in FIG 2 illustrated traffic situation a triangulation can be carried out. The two images 210, 220 were taken from one on the vehicle 100 (see 1 or 2 ) arranged camera 130 (see 1 ) recorded, for example, a camera arranged in the area of the exterior mirror, which records an area to the side of vehicle 100 . The images 210, 220 were captured at different points in time, with the vehicle 100 having moved in the meantime. This means that the camera was in different positions when capturing a particular image. The images 210, 220 therefore have a different perspective, which is reflected in a different appearance of the objects 230, 240 depicted. In this example, the images 210, 220 are undistorted and correctly oriented, so that in reality vertical/horizontal lines run vertically/horizontally in the image and the bottom edge of the respective image 210, 220 is aligned according to the direction of gravity.

Die Objekte 230, 240, die in dem jeweiligen Bild 210, 220 zu sehen sind, werden ermittelt. Dies erfolgt beispielsweise mittels einer bildbasierten Objekterkennung, wobei eine künstliche Intelligenz verwendet werden kann.The objects 230, 240 that can be seen in the respective image 210, 220 are determined. This takes place, for example, by means of image-based object recognition, in which case artificial intelligence can be used.

Jedem ermittelten Objekt 230, 240 wird ein Begrenzungsrahmen 231A, 241A, 231 B, 241 B zugeordnet. Beispielsweise werden alle Bildpunkte, die zu einem jeweiligen Objekt 230, 240 gehören, ermittelt und anschließend ein Rechteck definiert, dessen Seiten vertikal und horizontal verlaufen. Eine linke Seite des Rechtecks verläuft dabei senkrecht durch den Bildpunkt des Objekts, dessen horizontale Position den kleinsten Wert aller Bildpunkte des Objekts aufweist (bezogen auf einen Ursprung in der oberen linken Ecke des Bildes). Dies ist gleichbedeutend mit dem Bildpunkt des Objekts, der von allen Bildpunkten des Objekts den kleinsten Abstand von der linken Seite des Bildes aufweist. Die weiteren Seiten des Rechtecks lassen sich entsprechend ermitteln. Der jeweilige Begrenzungsrahmen 231A, 241A, 231 B, 241 B umfasst somit den Bildbereich des jeweiligen Bildes 210, 220, in dem das jeweilige Objekt 230, 240 liegt.A bounding box 231A, 241A, 231B, 241B is assigned to each determined object 230, 240. For example, all pixels associated with a respective object 230, 240, and then defines a rectangle whose sides are vertical and horizontal. A left side of the rectangle runs perpendicularly through the pixel of the object whose horizontal position has the smallest value of all pixels of the object (relative to an origin in the upper left corner of the image). This is equivalent to the pixel of the object that has the smallest distance from the left side of the image of all pixels of the object. The other sides of the rectangle can be determined accordingly. The respective bounding box 231A, 241A, 231B, 241B thus includes the image area of the respective image 210, 220 in which the respective object 230, 240 lies.

Die beiden jeweiligen vertikal verlaufenden Seiten 232A, 233A, 242A, 243A, 232B, 233B, 242B, 243B kennzeichnen hierbei jeweils einen bestimmten Eckpunkt C1-1, C1-2, C2-1, C2-2 des Objekts 230, 240, wie in den Bildern 210, 220 ersichtlich ist. Damit eignen sich diese Linien 232A, 233A, 242A, 243A, 232B, 233B, 242B, 243B als Merkmale, auf deren Basis eine Triangulation durchführbar ist, um die relative Position der Eckpunkte C1-1, C1-2, C2-1, C2-2 zu ermitteln.The two respective vertically running sides 232A, 233A, 242A, 243A, 232B, 233B, 242B, 243B each identify a specific corner point C1-1, C1-2, C2-1, C2-2 of the object 230, 240, as in Figures 210, 220 can be seen. These lines 232A, 233A, 242A, 243A, 232B, 233B, 242B, 243B are therefore suitable as features on the basis of which a triangulation can be carried out about the relative position of the vertices C1-1, C1-2, C2-1, C2 -2 to determine.

Das Durchführen der Triangulation ist schematisch anhand der zweidimensionalen Karte MAP dargestellt. Die zweidimensionale Karte MAP wird wie folgt ermittelt. Zunächst werden als Basis die beiden Aufnahmepositionen 201, 202, von denen aus die Bilder 210, 220 erfasst wurden, eingetragen. Der Abstand DIST der beiden Positionen 201, 202 ist beispielsweise auf Basis einer Odometrie bekannt. Eine jeweilige Linie 232A, 233A, 242A, 243A, 232B, 233B, 242B, 243B entspricht einem bestimmten horizontalen Blickwinkel von der Kamera aus gesehen. Ein horizontaler Blickwinkel entspricht einer Linie V1, V2 in der zweidimensionale Karte MAP. Nun wird, um die relative Position eines bestimmten Eckpunkts C1-1, C1-2, C2-1, C2-2, in diesem Beispiel der vordere linke Eckpunkt C2-2 des zweiten Objekts 240, die jeweilige Linie V1, V2 gemäß dem aus dem jeweiligen Bild 210, 220 ermittelten Winkel W1, W2 eingetragen. Grafisch betrachtet ergibt der Schnittpunkt der Linien V1, V2 die Position des Eckpunkts C2-2 des Objekts 240 in der zweidimensionalen Karte MAP. Der Maßstab der zweidimensionale Karte MAP ergibt sich hierbei aus dem bekannten Abstand DIST der beiden Aufnahmepositionen 201, 202.Carrying out the triangulation is shown schematically using the two-dimensional map MAP. The two-dimensional map MAP is determined as follows. First, the two recording positions 201, 202 from which the images 210, 220 were recorded are entered as a basis. The distance DIST between the two positions 201, 202 is known, for example, on the basis of an odometry. A respective line 232A, 233A, 242A, 243A, 232B, 233B, 242B, 243B corresponds to a specific horizontal viewing angle as seen from the camera. A horizontal view angle corresponds to a line V1, V2 in the two-dimensional map MAP. Now, to determine the relative position of a particular vertex C1-1, C1-2, C2-1, C2-2, in this example the front left vertex C2-2 of the second object 240, the respective line V1, V2 according to the from angles W1, W2 determined in the respective image 210, 220 are entered. Viewed graphically, the intersection of the lines V1, V2 gives the position of the vertex C2-2 of the object 240 in the two-dimensional map MAP. The scale of the two-dimensional map MAP results from the known distance DIST between the two recording positions 201, 202.

Es lässt sich somit für die jeweils sichtbaren äußeren Eckpunkten C1-1, C1-2, C2-1, C2-2 der Objekte 230, 240 eine Position in der zweidimensionalen Karte MAP ermitteln. Es sei angemerkt, dass dieses Vorgehen bei stark abgerundeten Eckpunkten an Genauigkeit einbüßt.A position in the two-dimensional map MAP can thus be determined for the respective visible outer corner points C1-1, C1-2, C2-1, C2-2 of the objects 230, 240. It should be noted that this procedure loses accuracy with strongly rounded corner points.

Ein beispielhaftes Ergebnis dieses Verfahrens in Form einer maßstabsgerechten zweidimensionalen Karte 250 ist in der 4 dargestellt. In der Karte 250 sind die vier ermittelten Eckpunkte C1-1, C1-2, C2-1, C2-2 der Objekte 230, 240 eingetragen, sowie die aktuelle Position 202 der Kamera und der Umriss des Fahrzeugs 100. Es ist ersichtlich, dass basierend auf dieser Karte 250 ein Einparkmanöver in den Raum zwischen den Objekten 230, 240 noch nicht zuverlässig durchführbar ist, da eine Information zu einer Begrenzung der Objekte 230, 240 zwischen den Eckpunkten C1-1, C1-2, C2-1, C2-2 nicht vorhanden ist.An exemplary result of this method in the form of a true-to-scale two-dimensional map 250 is shown in FIG 4 shown. The four determined corner points C1-1, C1-2, C2-1, C2-2 of the objects 230, 240 are entered in the map 250, as well as the current position 202 of the camera and the outline of the vehicle 100. It can be seen that Based on this map 250, a parking maneuver into the space between the objects 230, 240 cannot yet be carried out reliably, since information about a boundary of the objects 230, 240 between the corner points C1-1, C1-2, C2-1, C2- 2 does not exist.

Um dieses Problem zu überwinden, ist vorgeschlagen, Ultraschall-Sensorsignale zur Ermittlung von Objektpunkten P1 - P7 heranzuziehen. Die 5 zeigt eine vervollständigte Version der zweidimensionalen Karte 260, die auf derjenigen der 4 basiert, aber mit Detektionen von Objektpunkten P1 - P7 angereichert ist. Es sei angemerkt, dass die Objektpunkte P1 - P7 nicht unbedingt zeitgleich erfasst werden müssen, sondern beispielsweise im Verlauf einer Vorbeifahrt des Fahrzeugs 100 an den Objekten 230, 240 erfasst werden.In order to overcome this problem, it is proposed to use ultrasonic sensor signals to determine object points P1-P7. The 5 12 shows a completed version of the two-dimensional map 260 based on that of FIG 4 based, but enriched with detections of object points P1 - P7. It should be noted that the object points P1-P7 do not necessarily have to be detected at the same time, but rather are detected, for example, in the course of the vehicle 100 driving past the objects 230, 240.

Auch die in der 5 dargestellte Karte 260, die bereits Informationen von unterschiedlichen Sensorsystemen, nämlich optischen Sensoren und Ultraschallsensoren, enthält, ist noch nicht hinreichend, um zuverlässig einen Einparkvorgang durchzuführen, da die mittels Ultraschall detektierten Objektpunkte P1 - P7 a-priori unabhängig voneinander und von den ermittelten Objekten 230, 240 sind.Also the one in the 5 The map 260 shown, which already contains information from different sensor systems, namely optical sensors and ultrasonic sensors, is not yet sufficient to reliably carry out a parking maneuver, since the object points P1 - P7 detected by means of ultrasound are a priori independent of one another and of the objects 230 , 240 are.

Anhand der 6 ist beispielhaft erläutert, wie die Objektpunkte P1 - P7 einem jeweiligen Objekt 230, 240 zuordenbar sind, so dass eine Objekt-Begrenzungslinie L1, L2 ermittelt werden kann, auf deren Basis wiederum der Parkplatz 270 ermittelbar ist. Um die Objektpunkte P1 - P7 zuzuordnen, wird ein jeweiliger Objektbereich A1, A2 definiert, der in diesem Beispiel als ein Winkel dargestellt ist. Der jeweilige Objektbereich A1, A2 erstreckt sich zwischen den jeweiligen Eckpunkten C1-1 und C1-2 sowie C2-1 und C2-2 der Objekte 230, 240. Diejenigen Objektpunkte P1 - P3, die in dem Objektbereich A1 des ersten Objekts 230 liegen, werden dem ersten Objekt 230 zugeordnet, und diejenigen Objektpunkte P4 - P7, die in dem Objektbereich A2 des zweiten Objekts 240 liegen, werden dem zweiten Objekt 240 zugeordnet. Die jeweilige Begrenzungslinie L1, L2 ergibt sich, indem die einem Objekt zugeordneten Punkte C1-1, P1, P2, P3, C1-2 sowie C2-1, P4, P5, P6, P7, C2-2 mit einer Linie verbunden werden.Based on 6 is explained by way of example how the object points P1-P7 can be assigned to a respective object 230, 240, so that an object boundary line L1, L2 can be determined, on the basis of which the parking lot 270 can in turn be determined. In order to assign the object points P1 - P7, a respective object area A1, A2 is defined, which is shown as an angle in this example. The respective object area A1, A2 extends between the respective corner points C1-1 and C1-2 as well as C2-1 and C2-2 of the objects 230, 240. Those object points P1 - P3 which lie in the object area A1 of the first object 230 are assigned to the first object 230, and those object points P4-P7 that lie in the object area A2 of the second object 240 are assigned to the second object 240. The respective boundary line L1, L2 is obtained by connecting the points C1-1, P1, P2, P3, C1-2 and C2-1, P4, P5, P6, P7, C2-2 assigned to an object with a line.

Auf Basis der Objekt-Begrenzungslinie L1, L2 kann nunmehr der Parkplatz 270 ermittelt werden und es kann ein automatisiertes Einparkmanöver auf diesen Parkplatz 270 erfolgen.The parking space 270 can now be determined on the basis of the object boundary line L1, L2 and an automated parking maneuver into this parking space 270 can take place.

7 zeigt ein schematisches Blockdiagramm eines Beispiels für ein Parkassistenzsystem 110 für ein Fahrzeug 100, beispielsweise dem Fahrzeug 100 der 1. Das Parkassistenzsystem 110 umfasst eine Empfangseinheit 112 zum Empfangen eines ersten Bildes 210 (siehe 3) einer Umgebung 200 (siehe 1, 2) des Fahrzeugs 100, das von einer ersten Aufnahmeposition 201 (siehe 3) aus erfasst ist, und eines zweiten Bildes 220 (siehe 3) der Umgebung 200 des Fahrzeugs 100, das von einer zweiten Aufnahmeposition 202 (siehe 3, 4) aus erfasst ist, eine Ermittlungseinheit 114 zum Ermitteln eines Objekts 230, 240 (siehe 2, 3) in dem empfangenen ersten Bild 210 und in dem empfangenen zweiten Bild 220, eine Bestimmungseinheit 116 zum Bestimmen eines jeweiligen, das ermittelte Objekt 230, 240 umfassenden Begrenzungsrahmens 231 A, 231 B, 241A, 241B (siehe 3) in dem ersten Bild 210 und in dem zweiten Bild 220, wobei der jeweilige Begrenzungsrahmen 231A, 231 B, 241A, 241B eine jeweilige erste und eine jeweilige zweite vertikale Begrenzungslinie 232A, 233A, 242A, 243A, 232B, 233B, 242B, 243B (siehe 3) umfasst, die jeweils einen Eckpunkt C1-1, C1-2, C2-1, C2-2 (siehe 3, 4) des ermittelten Objekts 230, 240 in dem jeweiligen Bild 210, 220 kennzeichnet, und eine Triangulationseinheit 118 zum Durchführen einer Triangulation zumindest eines Eckpunkts C1-1, C1-2, C2-1, C2-2 des ermittelten Objekts 230, 240 auf Basis eines Abstands DIST (siehe 3) von der ersten Aufnahmeposition 201 zu der zweiten Aufnahmeposition 202 und der jeweiligen vertikalen Begrenzungslinie 232A, 233A, 242A, 243A, 232B, 233B, 242B, 243B, die den Eckpunkt C1-1, C1-2, C2-1, C2-2 in dem ersten Bild 210 und in dem zweiten Bild 220 kennzeichnet, zum Ermitteln einer relativen Position des Eckpunkts C1-1, C1-2, C2-1, C2-2 von der ersten Aufnahmeposition 201 und der zweiten Aufnahmeposition 202. 7 shows a schematic block diagram of an example of a parking assistance system 110 for a vehicle 100, for example the vehicle 100 of FIG 1 . Parking assistance system 110 includes a receiving unit 112 for receiving a first image 210 (see FIG 3 ) of an environment 200 (see 1 , 2 ) of the vehicle 100, which is transported from a first pick-up position 201 (see 3 ) is captured from and a second image 220 (see 3 ) of the surroundings 200 of the vehicle 100, which is viewed from a second recording position 202 (see 3 , 4 ) from is detected, a determination unit 114 for determining an object 230, 240 (see 2 , 3 ) in the received first image 210 and in the received second image 220, a determination unit 116 for determining a respective bounding box 231 A, 231 B, 241A, 241B encompassing the determined object 230, 240 (see 3 ) in the first image 210 and in the second image 220, the respective bounding box 231A, 231B, 241A, 241B having a respective first and a respective second vertical boundary line 232A, 233A, 242A, 243A, 232B, 233B, 242B, 243B ( please refer 3 ), each of which has a vertex C1-1, C1-2, C2-1, C2-2 (see 3 , 4 ) of the determined object 230, 240 in the respective image 210, 220, and a triangulation unit 118 for carrying out a triangulation of at least one corner point C1-1, C1-2, C2-1, C2-2 of the determined object 230, 240 on the basis a distance DIST (see 3 ) from the first recording position 201 to the second recording position 202 and the respective vertical boundary line 232A, 233A, 242A, 243A, 232B, 233B, 242B, 243B, which defines the corner point C1-1, C1-2, C2-1, C2-2 in the first image 210 and in the second image 220, for determining a relative position of the corner point C1-1, C1-2, C2-1, C2-2 from the first recording position 201 and the second recording position 202.

8 zeigt ein schematisches Blockschaltbild eines Beispiels für ein Verfahren zum Betreiben eines Parkassistenzsystems 110 für ein Fahrzeug, beispielsweise des Parkassistenzsystems der 7 und des Fahrzeugs der 1. In einem ersten Schritt S1 wird ein erstes Bild 210 (siehe 1) einer Umgebung 200 (siehe 1) des Fahrzeugs 100, das von einer ersten Aufnahmeposition 201 (siehe 3) aus erfasst ist, und ein zweites Bild 220 (siehe 3) der Umgebung 200 des Fahrzeugs 100, das von einer zweiten Aufnahmeposition 202 (siehe 3) aus erfasst ist, empfangen. In einem zweiten Schritt S2 wird ein Objekt 230, 240 (siehe 2, 3) in dem empfangenen ersten Bild 210 und in dem empfangenen zweiten Bild 220 ermittelt. In einem dritten Schritt S3 wird ein jeweiliger, das ermittelte Objekt 230, 240 umfassender Begrenzungsrahmen 231A, 231B, 241A, 241B (siehe 3) in dem ersten Bild 210 und in dem zweiten Bild 220 bestimmt, wobei der jeweilige Begrenzungsrahmen 231A, 231 B, 241A, 241B eine jeweilige erste und eine jeweilige zweite vertikale Begrenzungslinie 232A, 233A, 242A, 243A, 232B, 233B, 242B, 243B (siehe 3) umfasst, die jeweils einen Eckpunkt C1-1, C1-2, C2-1, C2-2 (siehe 3 - 6) des ermittelten Objekts 230, 240 in dem jeweiligen Bild 210, 220 kennzeichnet, und in einem vierten Schritt S4 wird eine Triangulation zumindest eines Eckpunkts C1-1, C1-2, C2-1, C2-2 des ermittelten Objekts 230, 240 auf Basis eines Abstands DIST (siehe 3) von der ersten Aufnahmeposition 201 zu der zweiten Aufnahmeposition 202 und der jeweiligen vertikalen Begrenzungslinie 232A, 233A, 242A, 243A, 232B, 233B, 242B, 243B, die den Eckpunkt C1-1, C1-2, C2-1, C2-2 in dem ersten Bild 210 und in dem zweiten Bild 220 kennzeichnet, durchgeführt, um eine relativen Position des Eckpunkts C1-1, C1-2, C2-1, C2-2 von der ersten Aufnahmeposition 201 und der zweiten Aufnahmeposition 202 zu ermitteln. 8th FIG. 1 shows a schematic block diagram of an example of a method for operating a parking assistance system 110 for a vehicle, for example the parking assistance system in FIG 7 and the vehicle of 1 . In a first step S1, a first image 210 (see 1 ) of an environment 200 (see 1 ) of the vehicle 100, which is transported from a first pick-up position 201 (see 3 ) is captured from and a second image 220 (see 3 ) of the surroundings 200 of the vehicle 100, which is viewed from a second recording position 202 (see 3 ) is detected from received. In a second step S2, an object 230, 240 (see 2 , 3 ) in the received first image 210 and in the received second image 220 is determined. In a third step S3, a respective bounding box 231A, 231B, 241A, 241B encompassing the determined object 230, 240 (see 3 ) in the first image 210 and in the second image 220, the respective bounding box 231A, 231B, 241A, 241B having a respective first and a respective second vertical boundary line 232A, 233A, 242A, 243A, 232B, 233B, 242B, 243B (please refer 3 ), each of which has a vertex C1-1, C1-2, C2-1, C2-2 (see 3 - 6 ) of the determined object 230, 240 in the respective image 210, 220, and in a fourth step S4 a triangulation of at least one corner point C1-1, C1-2, C2-1, C2-2 of the determined object 230, 240 is carried out Basis of a distance DIST (see 3 ) from the first recording position 201 to the second recording position 202 and the respective vertical boundary line 232A, 233A, 242A, 243A, 232B, 233B, 242B, 243B, which defines the corner point C1-1, C1-2, C2-1, C2-2 in the first image 210 and in the second image 220, in order to determine a relative position of the vertex C1-1, C1-2, C2-1, C2-2 from the first recording position 201 and the second recording position 202.

Obwohl die vorliegende Erfindung anhand von Ausführungsbeispielen beschrieben wurde, ist sie vielfältig modifizierbar.Although the present invention has been described using exemplary embodiments, it can be modified in many ways.

BezugszeichenlisteReference List

100100
Fahrzeugvehicle
110110
Parkassistenzsystemparking assistance system
112112
Empfangseinheitreceiving unit
114114
Ermittlungseinheitinvestigation unit
116116
Bestimmungseinheitunit of determination
118118
Triangulationseinheittriangulation unit
120120
optischer Sensoroptical sensor
130130
Ultraschallsensorultrasonic sensor
201201
Positionposition
202202
Positionposition
210210
BildPicture
220220
BildPicture
230230
Objektobject
231A231A
Begrenzungsrahmenbounding box
231B231B
Begrenzungsrahmenbounding box
232A232A
vertikale Linievertical line
232B232B
vertikale Linievertical line
233A233A
vertikale Linievertical line
233B233B
vertikale Linievertical line
240240
Objektobject
241A241A
Begrenzungsrahmenbounding box
241B241B
Begrenzungsrahmenbounding box
242A242A
vertikale Linievertical line
242B242B
vertikale Linievertical line
243A243A
vertikale Linievertical line
243B243B
vertikale Linievertical line
250250
KarteMap
260260
KarteMap
270270
Parkplatz parking spot
A1A1
Objektbereichobject area
A2A2
Objektbereichobject area
C1-1C1-1
Eckpunktvertex
C1-2C1-2
Eckpunktvertex
C2-1C2-1
Eckpunktvertex
C2-2C2-2
Eckpunktvertex
DISTDIST
AbstandDistance
L1L1
Objekt-Begrenzungslinieobject boundary line
L2L2
Objekt-Begrenzungslinieobject boundary line
MAPMAP
KarteMap
P1P1
Objektpunktobject point
P2p2
Objektpunktobject point
P3P3
Objektpunktobject point
P4P4
Objektpunktobject point
P5P5
Objektpunktobject point
P6P6
Objektpunktobject point
P7P7
Objektpunktobject point
S1S1
Verfahrensschrittprocess step
S2S2
Verfahrensschrittprocess step
S3S3
Verfahrensschrittprocess step
S4S4
Verfahrensschrittprocess step
V1V1
Linieline
V2v2
Linieline
W1w1
Winkelangle
W2W2
Winkelangle

Claims (12)

Verfahren zum Betreiben eines Parkassistenzsystems (110) für ein Fahrzeug (100), das Verfahren umfassend: Empfangen (S1) eines ersten Bildes (210) einer Umgebung (200) des Fahrzeugs (100), das von einer ersten Aufnahmeposition (201) aus erfasst ist, und eines zweiten Bildes (220) der Umgebung (200) des Fahrzeugs (100), das von einer zweiten Aufnahmeposition (202) aus erfasst ist, Ermitteln (S2) eines Objekts (230, 240) in dem empfangenen ersten Bild (210) und in dem empfangenen zweiten Bild (220), Bestimmen (S3) eines jeweiligen, das ermittelte Objekt (230, 240) umfassenden Begrenzungsrahmens (231A, 231B, 241A, 241B) in dem ersten Bild und in dem zweiten Bild, wobei der jeweilige Begrenzungsrahmen (231A, 231B, 241A, 241 B) eine jeweilige erste und eine jeweilige zweite vertikale Begrenzungslinie (232A, 232B, 233A, 233B, 242A, 242B, 243A, 243B) umfasst, die jeweils einen Eckpunkt (C1-1, C1-2, C2-1, C2-2) des ermittelten Objekts (230, 240) in dem jeweiligen Bild (210, 220) kennzeichnet, und Durchführen einer Triangulation zumindest eines Eckpunkts (C1-1, C1-2, C2-1, C2-2) des ermittelten Objekts (230, 240) auf Basis eines Abstands (DIST) von der ersten Aufnahmeposition (201) zu der zweiten Aufnahmeposition (202) und der jeweiligen vertikalen Begrenzungslinie (232A, 232B, 233A, 233B, 242A, 242B, 243A, 243B), die den Eckpunkt (C1-1, C1-2, C2-1, C2-2) in dem ersten Bild (210) und in dem zweiten Bild (220) kennzeichnet, zum Ermitteln einer relativen Position des Eckpunkts (C1-1, C1-2, C2-1, C2-2) zu der ersten Aufnahmeposition (201) und der zweiten Aufnahmeposition (202).Method for operating a parking assistance system (110) for a vehicle (100), the method comprising: Receiving (S1) a first image (210) of an area (200) of the vehicle (100), which is recorded from a first recording position (201), and a second image (220) of the area (200) of the vehicle (100) , which is detected from a second recording position (202), determining (S2) an object (230, 240) in the received first image (210) and in the received second image (220), Determining (S3) a respective bounding box (231A, 231B, 241A, 241B) encompassing the determined object (230, 240) in the first image and in the second image, the respective bounding box (231A, 231B, 241A, 241 B) a respective first and a respective second vertical boundary line (232A, 232B, 233A, 233B, 242A, 242B, 243A, 243B), each of which defines a corner point (C1-1, C1-2, C2-1, C2-2) of the identified object (230, 240) in the respective image (210, 220), and Carrying out a triangulation of at least one corner point (C1-1, C1-2, C2-1, C2-2) of the determined object (230, 240) based on a distance (DIST) from the first recording position (201) to the second recording position ( 202) and the respective vertical boundary line (232A, 232B, 233A, 233B, 242A, 242B, 243A, 243B) that defines the corner point (C1-1, C1-2, C2-1, C2-2) in the first image ( 210) and in the second image (220), for determining a relative position of the corner point (C1-1, C1-2, C2-1, C2-2) to the first recording position (201) and the second recording position (202) . Verfahren nach Anspruch 1, gekennzeichnet durch: Ermitteln einer maßstabsgerechten zweidimensionalen Karte (MAP, 250) der Umgebung (200) auf Basis der ermittelten relativen Position des Eckpunkts (C1-1, C1-2, C2-1, C2-2) und der ersten Aufnahmeposition (201) und der zweiten Aufnahmeposition (202).procedure after claim 1 , characterized by : determining a true-to-scale two-dimensional map (MAP, 250) of the surroundings (200) on the basis of the determined relative position of the corner point (C1-1, C1-2, C2-1, C2-2) and the first recording position (201 ) and the second pickup position (202). Verfahren nach Anspruch 2, gekennzeichnet durch: Empfangen eines Ultraschall-Sensorsignals, welches indikativ für die Umgebung (200) des Fahrzeugs (100) ist, Ermitteln einer Position eines Objektpunkts (P1 - P7), der ein Punkt des Objekts (230, 240) ist, der ein abgestrahltes Ultraschall-Signal reflektiert, auf Basis des empfangenen Ultraschall-Sensorsignals, und Eintragen des ermittelten Objektpunkts (P1 - P7) in die ermittelte maßstabsgerechte zweidimensionale Karte (MAP, 250) der Umgebung (200) zum Bereitstellen einer vervollständigten Karte (260).procedure after claim 2 , characterized by : receiving an ultrasonic sensor signal which is indicative of the surroundings (200) of the vehicle (100), determining a position of an object point (P1 - P7) which is a point of the object (230, 240) which is a emitted ultrasonic signal is reflected on the basis of the received ultrasonic sensor signal, and entering the determined object point (P1 - P7) in the determined true-to-scale two-dimensional map (MAP, 250) of the environment (200) to provide a completed map (260). Verfahren nach Anspruch 3, gekennzeichnet durch: Ermitteln eines Objektbereichs (A1, A2) für das ermittelte Objekt (230, 240) in der vervollständigten Karte (260) auf Basis der ermittelten Eckpunkte (C1-1, C1-2, C2-1, C2-2) des Objekts (230, 240), wobei der Objektbereich (A1, A2) den Bereich zwischen zwei Eckpunkten (C1-1, C1-2, C2-1, C2-2) des Objekts (230, 240) umfasst, und Ermitteln einer Objekt-Begrenzungslinie (L1, L2) in der vervollständigten Karte (260) auf Basis des ermittelten Objektbereichs (A1, A2), der Eckpunkte (C1-1, C1-2, C2-1, C2-2) und von in dem Objektbereich (A1, A2) liegenden Objektpunkten (P1 - P7).procedure after claim 3 , characterized by : determining an object area (A1, A2) for the determined object (230, 240) in the completed map (260) on the basis of the determined corner points (C1-1, C1-2, C2-1, C2-2) of the object (230, 240), the object area (A1, A2) covering the area between schen two vertices (C1-1, C1-2, C2-1, C2-2) of the object (230, 240), and determining an object boundary line (L1, L2) in the completed map (260) based on the determined object area (A1, A2), the corner points (C1-1, C1-2, C2-1, C2-2) and in the object area (A1, A2) lying object points (P1 - P7). Verfahren nach Anspruch 4, gekennzeichnet durch: Ermitteln eines Parkplatzes (270) auf Basis der ermittelten Objekt-Begrenzungslinie (L1, L2).procedure after claim 4 , characterized by : determining a parking space (270) on the basis of the determined object boundary line (L1, L2). Verfahren nach Anspruch 5, gekennzeichnet durch: Durchführen eines automatisierten Einparkmanövers auf Basis des ermittelten Parkplatzes (270).procedure after claim 5 , characterized by : carrying out an automated parking maneuver based on the determined parking space (270). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das erste und das zweite Bild (210, 220) der Umgebung (200) von einer Anzahl von fahrzeugeigenen Kameras (120) erfasst und bereitgestellt werden.Method according to one of the preceding claims, characterized in that the first and the second image (210, 220) of the surroundings (200) are recorded and made available by a number of on-board cameras (120). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das erste und das zweite Bild (210, 220) der Umgebung (200) von derselben fahrzeugeigenen Kamera (120) zu unterschiedlichen Zeitpunkten erfasst und bereitgestellt werden, wobei zusätzlich ein Fahrzustands-Sensorsignal empfangen wird, und wobei der Abstand (DIST) der ersten Aufnahmeposition (201) zu der zweiten Aufnahmeposition (202) auf Basis des empfangenen Fahrzustand-Sensorsignals ermittelt wird.Method according to one of the preceding claims, characterized in that the first and the second image (210, 220) of the surroundings (200) are captured and made available by the same on-board camera (120) at different times, a driving condition sensor signal also being received , and wherein the distance (DIST) of the first recording position (201) to the second recording position (202) is determined on the basis of the received driving condition sensor signal. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Ermitteln des Objekts (230, 240) in dem empfangenen ersten und zweiten Bild und/oder das Bestimmen des jeweiligen Begrenzungsrahmens (231A, 231B, 241A, 241B) durch eine hierauf trainierte künstliche Intelligenz erfolgt.Method according to one of the preceding claims, characterized in that the determination of the object (230, 240) in the received first and second image and / or the determination of the respective bounding box (231A, 231B, 241A, 241B) by an artificial intelligence trained thereon he follows. Computerprogrammprodukt, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren nach einem der Ansprüche 1-9 auszuführen.Computer program product, comprising instructions which, when the program is executed by a computer, cause the latter to carry out the method according to one of Claims 1 - 9 to execute. Parkassistenzsystem (110) für ein Fahrzeug(100), mit einer Empfangseinheit (112) zum Empfangen eines ersten Bildes (210) einer Umgebung (200) des Fahrzeugs (100), das von einer ersten Aufnahmeposition (201) aus erfasst ist, und eines zweiten Bildes (220) der Umgebung (200) des Fahrzeugs (100), das von einer zweiten Aufnahmeposition (202) aus erfasst ist, einer Ermittlungseinheit (114) zum Ermitteln eines Objekts (230, 240) in dem empfangenen ersten Bild (210) und in dem empfangenen zweiten Bild (220), einer Bestimmungseinheit (116) zum Bestimmen eines jeweiligen, das ermittelte Objekt (230, 240) umfassenden Begrenzungsrahmens (231A, 231B, 241A, 241B) in dem ersten Bild (210) und in dem zweiten Bild (220), wobei der jeweilige Begrenzungsrahmen (231A, 231B, 241A, 241 B) eine jeweilige erste und eine jeweilige zweite vertikale Begrenzungslinie (232A, 232B, 233A, 233B, 242A, 242B, 243A, 243B) umfasst, die jeweils einen Eckpunkt (C1-1, C1-2, C2-1, C2-2) des ermittelten Objekts (230, 240) in dem jeweiligen Bild (210, 220) kennzeichnet, und einer Triangulationseinheit (118) zum Durchführen einer Triangulation zumindest eines Eckpunkts (C1-1, C1-2, C2-1, C2-2) des ermittelten Objekts (230, 240) auf Basis eines Abstands (DIST) von der ersten Aufnahmeposition (201) zu der zweiten Aufnahmeposition (202) und der jeweiligen vertikalen Begrenzungslinie (232A, 232B, 233A, 233B, 242A, 242B, 243A, 243B), die den Eckpunkt (C1-1, C1-2, C2-1, C2-2) in dem ersten Bild (210) und in dem zweiten Bild (220) kennzeichnet, zum Ermitteln einer relativen Position des Eckpunkts (C1-1, C1-2, C2-1, C2-2) zu der ersten Aufnahmeposition (201) und der zweiten Aufnahmeposition (202).Parking assistance system (110) for a vehicle (100), with a receiving unit (112) for receiving a first image (210) of surroundings (200) of the vehicle (100), which is recorded from a first recording position (201), and a second image (220) of the surroundings (200) of the vehicle (100) captured from a second pickup position (202), a determination unit (114) for determining an object (230, 240) in the received first image (210) and in the received second image (220), a determination unit (116) for determining a respective bounding frame (231A, 231B, 241A, 241B) encompassing the determined object (230, 240) in the first image (210) and in the second image (220), the respective bounding frame ( 231A, 231B, 241A, 241B) comprises a respective first and a respective second vertical boundary line (232A, 232B, 233A, 233B, 242A, 242B, 243A, 243B) each having a vertex (C1-1, C1-2, C2-1, C2-2) of the determined object (230, 240) in the respective image (210, 220), and a triangulation unit (118) for carrying out a triangulation of at least one corner point (C1-1, C1-2, C2-1, C2-2) of the determined object (230, 240) on the basis of a distance (DIST) from the first recording position (201 ) to the second recording position (202) and the respective vertical boundary line (232A, 232B, 233A, 233B, 242A, 242B, 243A, 243B) which defines the corner point (C1-1, C1-2, C2-1, C2-2 ) in the first image (210) and in the second image (220), for determining a relative position of the corner point (C1-1, C1-2, C2-1, C2-2) to the first recording position (201) and the second receiving position (202). Fahrzeug (100) mit wenigstens einer Kamera (120) zum Erfassen und Ausgeben eines Bildes (210, 220) einer Umgebung (200) des Fahrzeugs (100), und mit einem Parkassistenzsystem (110) nach Anspruch 11.Vehicle (100) with at least one camera (120) for capturing and outputting an image (210, 220) of an environment (200) of the vehicle (100), and with a parking assistance system (110). claim 11 .
DE102021127748.5A 2021-10-26 2021-10-26 PROCEDURE, COMPUTER PROGRAM PRODUCT, PARKING ASSISTANCE SYSTEM AND VEHICLE Pending DE102021127748A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021127748.5A DE102021127748A1 (en) 2021-10-26 2021-10-26 PROCEDURE, COMPUTER PROGRAM PRODUCT, PARKING ASSISTANCE SYSTEM AND VEHICLE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021127748.5A DE102021127748A1 (en) 2021-10-26 2021-10-26 PROCEDURE, COMPUTER PROGRAM PRODUCT, PARKING ASSISTANCE SYSTEM AND VEHICLE

Publications (1)

Publication Number Publication Date
DE102021127748A1 true DE102021127748A1 (en) 2023-04-27

Family

ID=85795745

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021127748.5A Pending DE102021127748A1 (en) 2021-10-26 2021-10-26 PROCEDURE, COMPUTER PROGRAM PRODUCT, PARKING ASSISTANCE SYSTEM AND VEHICLE

Country Status (1)

Country Link
DE (1) DE102021127748A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060136109A1 (en) 2004-12-21 2006-06-22 Aisin Seiki Kabushiki Kaisha Parking assist device
US8134479B2 (en) 2008-03-27 2012-03-13 Mando Corporation Monocular motion stereo-based free parking space detection apparatus and method
US20180178780A1 (en) 2015-05-29 2018-06-28 Kss-Imagenext Co., Ltd. Automatic parking method and system of vehicle
US20190286916A1 (en) 2018-03-18 2019-09-19 TuSimple System and method for lateral vehicle detection
US20210241005A1 (en) 2019-08-08 2021-08-05 Nvidia Corporation Lane mask generation for autonomous machine applications
US11195331B2 (en) 2019-03-16 2021-12-07 Nvidia Corporation Object detection using skewed polygons suitable for parking space detection

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060136109A1 (en) 2004-12-21 2006-06-22 Aisin Seiki Kabushiki Kaisha Parking assist device
US8134479B2 (en) 2008-03-27 2012-03-13 Mando Corporation Monocular motion stereo-based free parking space detection apparatus and method
US20180178780A1 (en) 2015-05-29 2018-06-28 Kss-Imagenext Co., Ltd. Automatic parking method and system of vehicle
US20190286916A1 (en) 2018-03-18 2019-09-19 TuSimple System and method for lateral vehicle detection
US11195331B2 (en) 2019-03-16 2021-12-07 Nvidia Corporation Object detection using skewed polygons suitable for parking space detection
US20210241005A1 (en) 2019-08-08 2021-08-05 Nvidia Corporation Lane mask generation for autonomous machine applications

Similar Documents

Publication Publication Date Title
DE102015105248B4 (en) Method and system for generating an image of the surroundings of an articulated vehicle
DE102004010197B4 (en) Method for checking the function of a position-finding or environment detection device of a vehicle or for controlling a digital map
DE102019129196A1 (en) TRAILER MANEUVER
DE112018000899T5 (en) Joint 3D object detection and orientation estimation via multimodal fusion
DE102015203016B4 (en) Method and device for optical self-localization of a motor vehicle in an environment
DE102016106298A1 (en) Fusion method for a cross traffic application using radar devices and a camera
DE102016106299A1 (en) Wheel detection and its application for object tracking and sensor registration
DE102016210254A9 (en) VEHICLE VENTILATION AT CROSSINGS ON THE BASIS OF VISUAL VENTILATION POINTS, STATIONARY OBJECTS AND BY GPS
DE102015209467A1 (en) Method of estimating lanes
DE102019124152A1 (en) CLUTCH SUPPORT SYSTEM
DE102018114808A1 (en) Method for the automatic lateral guidance of a following vehicle in a vehicle platoon
DE102017108254B4 (en) All-round camera system for object recognition and tracking and method for equipping a vehicle with a panoramic camera system
DE102019115235A1 (en) OBJECT TRACKING IN THE DEAD ANGLE
DE102017218366A1 (en) METHOD AND PEDESTRIAN DETECTION APPROACH IN A VEHICLE
DE102020109279A1 (en) TRAILER ALIGNMENT SYSTEM AND PROCEDURE
DE102015115012A1 (en) Method for generating an environment map of an environment of a motor vehicle based on an image of a camera, driver assistance system and motor vehicle
DE102019115611A1 (en) OBJECT TRACKING IN THE DEAD ANGLE
WO2020193273A1 (en) Method and device for operating a robot with improved object detection
DE102016104730A1 (en) Method for detecting an object along a road of a motor vehicle, computing device, driver assistance system and motor vehicle
DE102020112825A1 (en) Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle
DE102020100230A1 (en) RECONSTRUCTION OF LANDMARK POSITIONS IN AUTONOMOUS MACHINE APPLICATIONS
DE102021206075A1 (en) Vehicle localization as a ride-sharing option and occupant identification for autonomous vehicles
DE102020121504A1 (en) Propulsion control device for an autonomously driving vehicle, stopping target, and propulsion control system
DE102018132676A1 (en) Method for locating a vehicle in an environment
WO2023083620A1 (en) Testing the environment sensor system and/or environment perception of a vehicle

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed