DE102021127748A1 - PROCEDURE, COMPUTER PROGRAM PRODUCT, PARKING ASSISTANCE SYSTEM AND VEHICLE - Google Patents
PROCEDURE, COMPUTER PROGRAM PRODUCT, PARKING ASSISTANCE SYSTEM AND VEHICLE Download PDFInfo
- Publication number
- DE102021127748A1 DE102021127748A1 DE102021127748.5A DE102021127748A DE102021127748A1 DE 102021127748 A1 DE102021127748 A1 DE 102021127748A1 DE 102021127748 A DE102021127748 A DE 102021127748A DE 102021127748 A1 DE102021127748 A1 DE 102021127748A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- vehicle
- determined
- recording position
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/10—Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
- G01C3/14—Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with binocular observation at a single point, e.g. stereoscopic type
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/027—Parking aids, e.g. instruction means
- B62D15/0285—Parking performed automatically
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/30—Interpretation of pictures by triangulation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3848—Data obtained from both position sensors and additional sensors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
- G01C3/08—Use of electric radiation detectors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/86—Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/93—Sonar systems specially adapted for specific applications for anti-collision purposes
- G01S15/931—Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/168—Driving aids for parking, e.g. acoustic or visual feedback on parking space
Abstract
Es wird ein Verfahren zum Betreiben eines Parkassistenzsystems (110) für ein Fahrzeug (100) vorgeschlagen. Das Verfahren umfasst:Empfangen (S1) eines ersten Bildes (210) einer Umgebung (200) des Fahrzeugs (100), das von einer ersten Aufnahmeposition (201) aus erfasst ist, und eines zweiten Bildes (220) der Umgebung (200) des Fahrzeugs (100), das von einer zweiten Aufnahmeposition (202) aus erfasst ist,Ermitteln (S2) eines Objekts (230, 240) in dem empfangenen ersten Bild (210) und in dem empfangenen zweiten Bild (220),Bestimmen (S3) eines jeweiligen, das ermittelte Objekt (230, 240) umfassenden Begrenzungsrahmens (231A, 231B, 241A, 241B) in dem ersten Bild und in dem zweiten Bild, wobei der jeweilige Begrenzungsrahmen (231A, 231B, 241A, 241 B) eine jeweilige erste und eine jeweilige zweite vertikale Begrenzungslinie (232A, 232B, 233A, 233B, 242A, 242B, 243A, 243B) umfasst, die jeweils einen Eckpunkt (C1-1, C1-2, C2-1, C2-2) des ermittelten Objekts (230, 240) in dem jeweiligen Bild (210, 220) kennzeichnet, undDurchführen einer Triangulation zumindest eines Eckpunkts (C1-1, C1-2, C2-1, C2-2) des ermittelten Objekts (230, 240) auf Basis eines Abstands (DIST) von der ersten Aufnahmeposition (201) zu der zweiten Aufnahmeposition (202) und der jeweiligen vertikalen Begrenzungslinie (232A, 232B, 233A, 233B, 242A, 242B, 243A, 243B), die den Eckpunkt (C1-1, C1-2, C2-1, C2-2) kennzeichnet.A method for operating a parking assistance system (110) for a vehicle (100) is proposed. The method comprises: Receiving (S1) a first image (210) of an area (200) of the vehicle (100), which is recorded from a first recording position (201), and a second image (220) of the area (200) of the Vehicle (100), which is detected from a second recording position (202), determining (S2) an object (230, 240) in the received first image (210) and in the received second image (220), determining (S3) a respective bounding box (231A, 231B, 241A, 241B) encompassing the identified object (230, 240) in the first image and in the second image, the respective bounding box (231A, 231B, 241A, 241 B) having a respective first and a respective second vertical boundary line (232A, 232B, 233A, 233B, 242A, 242B, 243A, 243B), each of which defines a corner point (C1-1, C1-2, C2-1, C2-2) of the detected object (230 , 240) in the respective image (210, 220), and carrying out a triangulation of at least one corner point (C1-1, C1-2, C2-1, C2-2) of the determined object (230, 240) on the basis of a distance ( DIST) from the first recording position (201) to the second recording position (202) and the respective vertical boundary line (232A, 232B, 233A, 233B, 242A, 242B, 243A, 243B) which defines the corner point (C1-1, C1-2 , C2-1, C2-2).
Description
Die vorliegende Erfindung betrifft ein Verfahren, ein Computerprogrammprodukt, ein Parkassistenzsystem und ein Fahrzeug.The present invention relates to a method, a computer program product, a parking assistance system and a vehicle.
Es sind Parkassistenzsysteme bekannt, die eine automatisierte Einparkfunktion aufweisen. Um einen geeigneten Parkplatz ausfindig zu machen, fährt das einzuparkende Fahrzeug beispielsweise an einer Reihe geparkter Fahrzeuge vorbei und erfasst die Fahrzeuge in seiner Umgebung. Wenn eine große Lücke zwischen zwei anderen geparkten Fahrzeugen ermittelt wird, kann diese Lücke als ein möglicher Parkplatz erkannt werden. Ein solches System kann beispielsweise auf Ultraschallsensorik basieren.Parking assistance systems are known which have an automated parking function. In order to find a suitable parking space, the vehicle to be parked drives past a row of parked vehicles, for example, and detects the vehicles in its vicinity. If a large gap is detected between two other parked vehicles, this gap can be recognized as a possible parking space. Such a system can be based on ultrasonic sensors, for example.
Problematisch hierbei kann es sein, dass Ultraschall-Sensoren in einigen Situationen keine zuverlässigen Detektionen liefern, und dass die Reichweite der Ultraschall-Sensoren begrenzt ist. Daher werden beispielsweise zusätzlich Kamerabilder ausgewertet, um die Umgebung des Fahrzeugs genauer zu erfassen. Es ergibt sich nun jedoch das Problem, die Daten der Kamera mit den Daten der Ultraschallsensorik zu kombinieren (Sensorfusion). Eine Möglichkeit hierzu besteht darin, alle Messdaten in eine zwei- oder dreidimensionale Karte einzutragen, wobei hierzu auf Basis der Kamerabilder Abstände zu den in den Kamerabildern enthaltenen Objekten zu ermitteln sind.The problem here can be that ultrasonic sensors do not provide reliable detections in some situations and that the range of the ultrasonic sensors is limited. For this reason, additional camera images are evaluated, for example, in order to record the surroundings of the vehicle more precisely. However, the problem now arises of combining the data from the camera with the data from the ultrasonic sensors (sensor fusion). One possibility for this is to enter all measurement data in a two-dimensional or three-dimensional map, with distances to the objects contained in the camera images having to be determined on the basis of the camera images.
Es ist bekannt, einen Abstand zu Objekten auf Basis einer Mehrzahl von Bildern, die aus unterschiedlichen Positionen aufgenommen wurden, zu ermitteln. Diesen Verfahren liegt eine Triangulation bestimmter Punkte in den Bildern zugrunde. Eine Schwierigkeit besteht darin, übereinstimmende Objektpunkte in unterschiedlichen Bildern zu ermitteln. Dies kann unter Anwendung unterschiedlicher Verfahren erfolgen.It is known to determine a distance to objects on the basis of a number of images that were recorded from different positions. This method is based on a triangulation of specific points in the images. One difficulty is finding matching object points in different images. This can be done using different methods.
Ein erstes Verfahren basiert auf dem sogenannten optischen Fluss, der auf Basis von zwei zeitlich nacheinander aufgenommenen Bildern für eine bestimmte Szene ermittelbar ist. Die beiden Bilder zeigen dabei im Wesentlichen die gleiche Szene, wobei eine Verschiebung einzelner Elemente des Bildes aufgrund einer Eigenbewegung des Elements und eine Verschiebung und Drehung des gesamten Bildes aufgrund einer Eigenbewegung der Kamera vorhanden sein kann. Auf Basis von optischen Flussmessungen kann grundsätzlich für jeden Bildpunkt ein Abstand von der Kamera ermittelt werden. Die Bilder müssen bei diesem Verfahren von einer Kamera zu unterschiedlichen Zeitpunkten erfasst worden sein, es ist nicht möglich, Bilder, die von unterschiedlichen Kameras erfasst wurden, auf diese Weise auszuwerten. Allerdings darf die Veränderung des Bildinhaltes ein bestimmtes Maß nicht überschreiten, da ansonsten keine Korrelation zwischen den Bildern mehr herstellbar ist. Das heiß insbesondere, dass der zeitliche Abstand zwischen den Bildern nicht zu groß werden darf.A first method is based on the so-called optical flow, which can be determined on the basis of two images recorded one after the other for a specific scene. The two images essentially show the same scene, it being possible for individual elements of the image to be displaced due to the element's own movement and for the entire image to be displaced and rotated due to the camera's own movement. Based on optical flow measurements, a distance from the camera can be determined for each pixel. With this method, the images must have been captured by one camera at different times; it is not possible to evaluate images captured by different cameras in this way. However, the change in the image content must not exceed a certain level, since otherwise it is no longer possible to establish a correlation between the images. In particular, this means that the time between the images must not be too large.
In einem zweiten Verfahren werden bestimmte Merkmale in einem jeweiligen Bild ermittelt. Durch Nachverfolgung eines bestimmten Merkmals in mehreren Bildern ist es möglich, eine Triangulation bezüglich dieses Merkmals durchzuführen, um so den Abstand des Merkmals zu der Kamera zu bestimmen. Auch bei diesem Verfahren können Bilder unterschiedlicher Kameras nicht kombiniert werden, da nicht sichergestellt ist, dass in den Bildern übereinstimmende Merkmale erfasst werden.In a second method, specific features are determined in a respective image. By tracking a particular feature in multiple images, it is possible to triangulate that feature to determine the feature's distance from the camera. Images from different cameras cannot be combined with this method either, since there is no guarantee that matching features will be recorded in the images.
Ein Problem dieser bekannten Verfahren ist nicht nur, dass die Verfahren auf Bilder einer bestimmten Kamera beschränkt sind, sondern auch, dass eine Nachverfolgung eines Merkmals über größere Bewegungsdistanzen der Kamera hinweg nicht zuverlässig ist, da Merkmale aufgrund der Veränderung des Blickwinkels eine unterschiedliche Erscheinung aufweisen können. Zudem ist eine Wiedererkennung eines Merkmals, wenn dieses zwischenzeitlich verloren wurde, zu einem späteren Zeitpunkt nicht zuverlässig möglich. Ferner sind diese bekannten Verfahren rechenintensiv und benötigen für eine effiziente Ausführung eine auf das jeweilige System spezifisch angepasste Hardware, wie beispielsweise spezifische ASICs (application specific integrated circuit). Daher können diese Verfahren nur sehr begrenzt aktualisiert werden und sind nicht einfach auf andere Systeme, wie beispielsweise eine andere Kamera und/oder ein anderes Objektiv und dergleichen, übertragbar, sondern müssen jeweils aufwendig angepasst werden. Dies macht deren Implementierung aufwendig und teuer.A problem with these known methods is not only that the methods are limited to images from a specific camera, but also that tracking a feature over larger moving distances of the camera is not reliable, since features can have a different appearance due to the change in the viewing angle . In addition, it is not possible to reliably recognize a feature at a later point in time if it has been lost in the meantime. Furthermore, these known methods are computationally intensive and, for efficient execution, require hardware that is specifically adapted to the respective system, such as specific ASICs (application-specific integrated circuits). Therefore, these methods can only be updated to a very limited extent and cannot simply be transferred to other systems, such as another camera and/or another lens and the like, but must be adapted in each case in a laborious manner. This makes their implementation complicated and expensive.
Vor diesem Hintergrund besteht eine Aufgabe der vorliegenden Erfindung darin, den Betrieb eines Parkassistenzsystems für ein Fahrzeug zu verbessern.Against this background, an object of the present invention is to improve the operation of a parking assistance system for a vehicle.
Gemäß einem ersten Aspekt wird ein Verfahren zum Betreiben eines Parkassistenzsystems für ein Fahrzeug vorgeschlagen. Das Verfahren umfasst:
- Empfangen eines ersten Bildes einer Umgebung des Fahrzeugs, das von einer ersten Aufnahmeposition aus erfasst ist, und eines zweiten Bildes der Umgebung des Fahrzeugs, das von einer zweiten Aufnahmeposition aus erfasst ist,
- Ermitteln eines Objekts in dem empfangenen ersten Bild und in dem empfangenen zweiten Bild,
- Bestimmen eines jeweiligen, das ermittelte Objekt umfassenden Begrenzungsrahmens in dem ersten Bild und in dem zweiten Bild, wobei der jeweilige Begrenzungsrahmen eine jeweilige erste und eine jeweilige zweite vertikale Begrenzungslinie umfasst, die jeweils einen Eckpunkt des ermittelten Objekts in dem jeweiligen Bild kennzeichnet, und
- Durchführen einer Triangulation zumindest eines Eckpunkts des ermittelten Objekts auf Basis eines Abstands von der ersten Aufnahmeposition zu der zweiten Aufnahmeposition und der jeweiligen vertikalen Begrenzungslinie, die den Eckpunkt in dem ersten Bild und in dem zweiten Bild kennzeichnet, zum Ermitteln einer relativen Position des Eckpunkts zu der ersten Aufnahmeposition und der zweiten Aufnahmeposition.
- receiving a first image of an area surrounding the vehicle, which is captured from a first recording position, and a second image of the area surrounding the vehicle, which is recorded from a second recording position,
- detecting an object in the received first image and in the received second image,
- determining a respective bounding box comprising the identified object in the first image and in the second image, the respective bounding box comprising a respective first and a respective second vertical boundary line, each of which characterizes a corner point of the identified object in the respective image, and
- Carrying out a triangulation of at least one corner point of the determined object on the basis of a distance from the first recording position to the second recording position and the respective vertical boundary line, which characterizes the corner point in the first image and in the second image, to determine a relative position of the corner point to the first pick-up position and the second pick-up position.
Dieses Verfahren hat den Vorteil, dass zumindest für die zwei Eckpunkte oder seitlichen Begrenzungen des Objekts, die von einem jeweiligen Standort aus sichtbar sind, eine Triangulation durchführbar ist, so dass deren jeweilige relative Position ermittelt wird, selbst wenn die Aufnahmepositionen und/oder Zeitpunkte der Bilderfassung deutlich unterschiedlich sind. Die bekannten Verfahren, die auf dem optischen Fluss oder auf einer Merkmalstriangulation basieren, sind in dieser Situation nicht oder nicht zuverlässig anwendbar. Das Verfahren basiert auf der Erkenntnis, dass die vertikale Begrenzungslinie eines Begrenzungsrahmens auch für Bilder, die von unterschiedlichen Standorten aus erfasst wurden, im Wesentlichen immer eine Ecke oder seitliche Kante des Objekts kennzeichnen und sich daher als Merkmal eignen, um eine Triangulation der Ecke des Objekts durchzuführen.This method has the advantage that a triangulation can be carried out at least for the two corner points or lateral boundaries of the object that are visible from a respective location, so that their respective relative position is determined, even if the recording positions and/or times of the Image acquisition are significantly different. The known methods, which are based on the optical flow or on feature triangulation, cannot be used, or cannot be used reliably, in this situation. The method is based on the finding that the vertical boundary line of a bounding box essentially always marks a corner or lateral edge of the object, even for images that were captured from different locations, and is therefore a suitable feature for triangulating the corner of the object to perform.
Die Bilder werden insbesondere von einer Kamera oder von mehreren Kameras des Fahrzeugs erfasst.In particular, the images are recorded by a camera or by a plurality of cameras of the vehicle.
Das Ermitteln des Objekts in dem jeweiligen empfangenen Bild kann mittels einer Objekterkennungsroutine, insbesondere einer auf Objekterkennung trainierten künstlichen Intelligenz, erfolgen. Die Objekterkennung kann aber auch unter Verwendung klassischer Algorithmen durchgeführt werden. Der Objekterkennung kann eine Bildverarbeitung, wie eine Bildtransformation des jeweiligen empfangenen Bildes, vorhergehen, um die Objekterkennung zu verbessern. Vorzugsweise sind die empfangenen Bilder entzerrt, so dass in der Realität vorhandene vertikale und horizontale Linien in dem jeweiligen Bild ebenfalls vertikal und horizontal verlaufen. Eine solche Entzerrung kann durch die Kamera, die das jeweilige Bild erfasst, erfolgen und/oder kann nachträglich durch das Parkassistenzsystem durchgeführt werden.The object in the respective received image can be determined by means of an object recognition routine, in particular an artificial intelligence trained for object recognition. However, the object recognition can also be carried out using classic algorithms. The object recognition can be preceded by image processing, such as an image transformation of the respective received image, in order to improve the object recognition. The received images are preferably rectified, so that vertical and horizontal lines that are actually present in the respective image also run vertically and horizontally. Such rectification can be carried out by the camera that captures the respective image and/or can be carried out subsequently by the parking assistance system.
Es handelt sich bei dem in den Bildern ermittelten Objekt um das gleiche in der Umgebung des Fahrzeugs vorhandene Objekt, wie beispielsweise ein geparktes Fahrzeug. Dem ermittelten Objekt wird beispielsweise ein Kennzeichen zugeordnet, wobei dem gleichen Objekt in unterschiedlichen Bildern das gleiche Kennzeichen zugeordnet wird. Man kann auch sagen, dass das Objekt über die Bilder hinweg verfolgt (getrackt) wird. Auf diese Weise ist sichergestellt, dass sich die Triangulation auf Eckpunkte desselben Objekts bezieht.The object determined in the images is the same object present in the area surrounding the vehicle, such as a parked vehicle. An identifier is assigned to the determined object, for example, the same identifier being assigned to the same object in different images. You can also say that the object is tracked across the images. This ensures that the triangulation refers to vertices of the same object.
Der Begrenzungsrahmen (engl. bounding box) ist beispielsweise ein Rechteck, das in dem jeweiligen Bild derart eingezeichnet wird, dass das ermittelte Objekt in dem Rechteck enthalten ist. Vorzugsweise begrenzt der Begrenzungsrahmen das ermittelte Objekt, das heißt, dass beispielsweise ein Rand des Objekts an den Begrenzungsrahmen angrenzt.The bounding box is, for example, a rectangle that is drawn in the respective image in such a way that the determined object is contained in the rectangle. The bounding box preferably delimits the determined object, which means that, for example, an edge of the object borders the bounding box.
Der Eckpunkt des ermittelten Objekts kann auch als seitlicher Rand oder seitliche Begrenzung des Objekts bezeichnet werden. Ein jeweiliger Begrenzungsrahmen umfasst zwei vertikale Begrenzungslinien. Es sei angemerkt, dass „vertikal“ sich insbesondere auf eine tatsächliche vertikale Richtung bezieht, das heißt, parallel zu einer Erdanziehungskraft ist. Die vertikale Linie kann eine gekrümmte Darstellung aufweisen, sofern das zugrundeliegende Bild nicht entzerrt ist. Beispielsweise verläuft die erste vertikale Begrenzungslinie so, dass diese eine vordere rechte Ecke eines Fahrzeugs (Objekts) berührt und die zweite vertikale Begrenzungslinie verläuft so, dass diese eine hintere linke Ecke des Fahrzeugs (Objekts) berührt. Welche Ecke des Fahrzeugs (Objekts) einer jeweiligen Begrenzungslinie entspricht, hängt insbesondere von einer Perspektive ab, aus der das Bild erfasst wurde, also der relativen Anordnung von Fahrzeug (Objekt) und Kamera.The corner point of the determined object can also be referred to as the lateral edge or lateral boundary of the object. Each bounding box includes two vertical bounding lines. It should be noted that "vertical" specifically refers to an actual vertical direction, that is, parallel to a force of gravity. The vertical line may appear curved unless the underlying image is rectified. For example, the first vertical boundary line is such that it touches a front right corner of a vehicle (object), and the second vertical boundary line is such that it touches a rear left corner of the vehicle (object). Which corner of the vehicle (object) corresponds to a respective boundary line depends in particular on a perspective from which the image was captured, ie the relative arrangement of vehicle (object) and camera.
Beispielsweise umfassen die empfangenen Bilder eine Bildpunktmatrix, wobei ein jeweiliger Bildpunkt einer bestimmten Richtung ausgehend von einer Frontlinse der Kamera entspricht. Für jeweils zwei Bildpunkte kann daher ein Winkel ermittelt werden, der von den jeweiligen Richtungen eingeschlossen ist. Eine Richtung kann als eine Gerade im Raum betrachtet werden, wobei die zwei Geraden, die den beiden Richtungen entsprechen, eine Ebene aufspannen, in der der Winkel gemessen wird. Zwei Bilder einer Verkehrssituation, die von unterschiedlichen Positionen aus erfasst werden, zeigen Objekte der Verkehrssituation an unterschiedlichen Positionen im Bild, das heißt an unterschiedlichen Bildpunkten in der Bildpunktmatrix. Auf Basis der zwei Bildpunkte, die ein jeweiliges Objekt zeigen, kann ein Winkel ermittelt werden, wie zuvor erläutert. Auf Basis dieses Winkels kann eine Triangulation durchgeführt werden, sofern der Abstand der Aufnahmepositionen zueinander bekannt ist. Somit lässt sich ein Abstand von dem Objekt zu der Kamera ermitteln.For example, the received images include a pixel matrix, with each pixel corresponding to a specific direction, starting from a front lens of the camera. An angle enclosed by the respective directions can therefore be determined for each two image points. A direction can be viewed as a straight line in space, with the two straight lines corresponding to the two directions spanning a plane in which the angle is measured. Two images of a traffic situation, which are captured from different positions, show objects of the traffic situation at different positions in the image, ie at different pixels in the pixel matrix. An angle can be determined on the basis of the two image points which show a respective object, as explained above. A triangulation can be carried out on the basis of this angle be performed if the distance between the recording positions is known. A distance from the object to the camera can thus be determined.
Die Triangulation kann beispielsweise grafisch durchgeführt werden. Dies kann für einen bestimmten Eckpunkt des Objekts beispielsweise die folgenden Schritte umfassen:
- Eintragen der ersten Aufnahmeposition und der zweiten Aufnahmeposition in eine zweidimensionale Karte der Umgebung des Fahrzeugs,
- Eintragen einer jeweiligen Linie, welche sich ausgehend von der jeweiligen Aufnahmeposition in die Richtung der dem bestimmten Eckpunkt entsprechenden vertikalen Linie erstreckt, und
- Ermitteln eines Winkels zwischen den beiden Linien.
- Entering the first recording position and the second recording position in a two-dimensional map of the area around the vehicle,
- entering a respective line which, starting from the respective recording position, extends in the direction of the vertical line corresponding to the determined vertex, and
- Finding an angle between the two lines.
Unter Anwendung von trigonometrischen Grundsätzen und Verwendung des Abstands zwischen den beiden Aufnahmepositionen als Maßstab kann der jeweilige Abstand des Eckpunkts von den Aufnahmepositionen ermittelt werden. Damit ist die relative Position des Eckpunkt bestimmt.Applying trigonometric principles and using the distance between the two recording positions as a scale, the respective distance of the corner point from the recording positions can be determined. This determines the relative position of the corner point.
Gemäß einer Ausführungsform des Verfahrens umfasst dieses:
- Ermitteln einer maßstabsgerechten zweidimensionalen Karte der Umgebung auf Basis der ermittelten relativen Position des Eckpunkts und der ersten Aufnahmeposition und der zweiten Aufnahmeposition.
- Determining a true-to-scale two-dimensional map of the surroundings based on the determined relative position of the corner point and the first recording position and the second recording position.
Die zweidimensionale Karte basiert beispielsweise auf einem von dem Parkassistenzsystem bereitgestellten ortsfesten Koordinatensystem. Das Koordinatensystem wird beispielsweise jeweils bei Fahrtantritt neu initialisiert. Das Koordinatensystem kann sich auch auf ein extern bereitgestelltes Koordinatensystem beziehen, wie beispielsweise ein Welt-Koordinatensystem eines Satelliten-Positionsbestimmungssystems, wie GPS oder dergleichen. In der zweidimensionalen Karte weist jedes Objekt bestimmte Koordinaten auf. Wenn sich das Fahrzeug des Parkassistenzsystems bewegt, verändert es seine Position in dem Koordinatensystem.The two-dimensional map is based, for example, on a stationary coordinate system provided by the parking assistance system. The coordinate system is re-initialized, for example, each time you start driving. The coordinate system may also refer to an externally provided coordinate system such as a world coordinate system of a satellite positioning system such as GPS or the like. In the two-dimensional map, each object has specific coordinates. If the vehicle of the parking assistance system moves, it changes its position in the coordinate system.
Die maßstabsgerechte zweidimensionale Karte umfasst vorzugsweise alle ermittelten Objekte mit korrekter Position und Ausdehnung, so dass auf Basis der Karte Abstände ausgemessen werden können.The true-to-scale, two-dimensional map preferably includes all of the determined objects with the correct position and extent, so that distances can be measured on the basis of the map.
Bei dem Ermitteln der zweidimensionalen Karte werden beispielsweise die ermittelten Eckpunkte gemäß der ermittelten relativen Position in die Karte eingetragen. Der Bereich zwischen zwei Eckpunkten eines Objekts kann als Objektbereich gekennzeichnet werden, wobei angemerkt sei, dass der Verlauf des Objekts in dem Objektbereich auf Basis des vorstehend beschriebenen Verfahrens nicht ermittelt wird. Der Verlauf in dem Objektbereich kann beispielsweise auf Basis von Ultraschallmessungen „ausgefüllt“ werden, wie nachstehend erläutert ist.When determining the two-dimensional map, for example, the determined corner points are entered into the map according to the determined relative position. The area between two corner points of an object can be identified as an object area, it being noted that the course of the object in the object area is not determined on the basis of the method described above. The profile in the object area can be “filled in” based on ultrasound measurements, for example, as explained below.
Gemäß einer weiteren Ausführungsform des Verfahrens umfasst dieses:
- Empfangen eines Ultraschall-Sensorsignals, welches indikativ für die Umgebung des Fahrzeugs ist,
- Ermitteln einer Position eines Objektpunkts, der ein Punkt eines Objekts ist, der ein abgestrahltes Ultraschall-Signal reflektiert, auf Basis des empfangenen Ultraschall-Sensorsignals, und
- Eintragen des ermittelten Objektpunkts in die ermittelte maßstabsgerechte zweidimensionale Karte der Umgebung zum Bereitstellen einer vervollständigten Karte.
- Receiving an ultrasonic sensor signal, which is indicative of the surroundings of the vehicle,
- determining a position of an object point, which is a point of an object reflecting a radiated ultrasonic signal, based on the received ultrasonic sensor signal, and
- Entering the determined object point in the determined true-to-scale two-dimensional map of the environment to provide a completed map.
Bei dieser Ausführung werden somit Informationen, die von Bilddaten abgeleitet sind, und Informationen, die von Ultraschallmessungen abgeleitet sind, in einer gemeinsamen Karte kombiniert. Man kann dies auch als Sensorfusion bezeichnen.In this embodiment, information derived from image data and information derived from ultrasound measurements are thus combined in a common map. This can also be referred to as sensor fusion.
Gemäß einer weiteren Ausführungsform des Verfahrens umfasst dieses:
- Ermitteln eines Objektbereichs in der vervollständigten Karte auf Basis der bestimmten Begrenzungsrahmen, wobei der Objektbereich den Bereich zwischen zwei Eckpunkten des Objekts umfasst, und
- Ermitteln einer Objekt-Begrenzungslinie in der vervollständigten Karte auf Basis des ermittelten Objektbereichs, der Eckpunkte und von in dem Objektbereich liegenden Objektpunkten.
- determining an object area in the completed map based on the determined bounding box, the object area comprising the area between two vertices of the object, and
- determining an object boundary line in the completed map based on the determined object area, the corner points and object points lying in the object area.
Diese geometrische Methode ermöglicht es zuverlässig, einen Verlauf des Objekts zu ermitteln. Hierbei kann auf Wissen oder Erfahrungswerte zurückgegriffen werden. Beispielsweise ist bekannt, dass Fahrzeuge einen im Wesentlichen rechteckigen horizontalen Querschnitt aufweisen. Daher ist ein Fahrzeug durch die Angabe der Positionen von vier Eckpunkten (auf Basis von Symmetriebetrachtungen genügen sogar drei Eckpunkte) ausreichend gut charakterisiert, so dass autonome Fahrmanöver in der Nähe des Fahrzeugs unter Vermeidung einer Kollision durchführbar sind. Auf Basis der Triangulation sind die Positionen von zwei Eckpunkten bekannt, und auf Basis der Ultraschallmessungen ist die Position des dazwischenliegenden Eckpunkts bekannt.This geometric method makes it possible to reliably determine a course of the object. Knowledge or empirical values can be used here. For example, vehicles are known to have a substantially rectangular horizontal cross-section. Therefore, a vehicle is characterized sufficiently well by specifying the positions of four corner points (on the basis of symmetry considerations, even three corner points are sufficient) so that autonomous driving maneuvers can be carried out in the vicinity of the vehicle while avoiding a collision. Based on the triangulation, the positions of two vertices are known, and based on the ultrasonic measurements, the position of the intervening vertex is known.
Gemäß einer weiteren Ausführungsform des Verfahrens umfasst dieses:
- Ermitteln eines Parkplatzes auf Basis der ermittelten Objekt-Begrenzungslinie.
- Determination of a parking space based on the determined object boundary line.
Der Parkplatz wird beispielsweise so ermittelt, dass ein vorbestimmter Sicherheitsabstand zu der Objekt-Begrenzungslinie eingehalten wird.The parking space is determined, for example, in such a way that a predetermined safety distance from the object boundary line is maintained.
Gemäß einer weiteren Ausführungsform des Verfahrens umfasst dieses:
- Durchführen eines automatisierten Einparkmanövers auf Basis des ermittelten Parkplatzes.
- Carrying out an automated parking maneuver based on the determined parking space.
Gemäß einer weiteren Ausführungsform des Verfahrens werden das erste und das zweite Bild der Umgebung von einer Anzahl von fahrzeugeigenen Kameras erfasst und bereitgestellt.According to a further embodiment of the method, the first and the second image of the surroundings are captured and provided by a number of on-board cameras.
Beispielsweise wird das erste Bild von einer Frontkamera und das zweite Bild von einer Seitenkamera erfasst und bereitgestellt. Eine relative Lage der beiden Kameras an dem Fahrzeug, insbesondere deren Abstand zueinander, ist bekannt, weshalb deren erfasste Bilder in Beziehung zueinander gesetzt werden können, so dass die zuvor erläuterte Triangulation der vertikalen Begrenzungslinie durchführbar ist. Sofern ein jeweiliger Abbildungsmaßstab und/oder eine Auflösung der unterschiedlichen Kameras verschieden sind, so ist dies bei der Triangulation entsprechend zu berücksichtigen.For example, the first image is captured and provided by a front camera and the second image by a side camera. A relative position of the two cameras on the vehicle, in particular their distance from one another, is known, which is why their captured images can be related to one another, so that the previously explained triangulation of the vertical boundary line can be carried out. If a respective imaging scale and/or a resolution of the different cameras are different, this must be taken into account accordingly in the triangulation.
Gemäß einer weiteren Ausführungsform des Verfahrens werden das erste und das zweite Bild der Umgebung von derselben fahrzeugeigenen Kamera zu unterschiedlichen Zeitpunkten erfasst und bereitgestellt, wobei zusätzlich ein Fahrzustands-Sensorsignal empfangen wird, und wobei der Abstand der ersten Aufnahmeposition zu der zweiten Aufnahmeposition auf Basis des empfangenen Fahrzustand-Sensorsignals ermittelt wird.According to a further embodiment of the method, the first and the second image of the surroundings are captured and provided by the same on-board camera at different times, a driving condition sensor signal also being received, and the distance between the first recording position and the second recording position being based on the received Driving condition sensor signal is determined.
Das Fahrzustands-Sensorsignal umfasst insbesondere Odometriedaten, wie ein Raddrehzahl-Sensorsignal, ein Radwinkel-Sensorsignal und/oder ein Lenkwinkel-Sensorsignal.The driving state sensor signal includes, in particular, odometry data such as a wheel speed sensor signal, a wheel angle sensor signal and/or a steering angle sensor signal.
Gemäß einer weiteren Ausführungsform des Verfahrens erfolgt das Ermitteln des Objekts in dem empfangenen ersten und zweiten Bild und das Bestimmen des jeweiligen Begrenzungsrahmens durch eine hierauf trainierte künstliche Intelligenz.According to a further embodiment of the method, the object is determined in the received first and second image and the respective boundary frame is determined by an artificial intelligence trained thereon.
Die künstliche Intelligenz ist beispielsweise als ein neuronales Netzwerk ausgebildet. Ein Aufbau des neuronalen Netzwerks stellt sich beispielsweise wie folgt dar. Das neuronale Netzwerk kann in drei Schichten oder Abschnitte unterteilt werden, eine Eingabeschicht, eine oder mehrere verborgene Schichten und eine Ausgabeschicht. Jede der Schichten umfasst eine Mehrzahl von einzelnen Neuronen, wobei unterschiedliche Schichten auch eine unterschiedliche Zahl an Neuronen aufweisen können. Die Menge an Neuronen in der Eingabeschicht hängt beispielsweise von der Menge und dem Format der durch das neuronale Network zu verarbeitenden Daten, was man auch als die Dimensionalität der Daten bezeichnen kann, ab. Die Menge an Neuronen in der Ausgabeschicht hängt beispielsweise von der Dimensionalität des Ausgangsvektors ab. Ein neuronales Netzwerk, das zum Klassifizieren von Objekten eingerichtet ist, weist beispielsweise eine den Anzahl von Klassen entsprechende Anzahl von Neuronen in der Ausgangsschicht auf.The artificial intelligence is designed, for example, as a neural network. An example of a structure of the neural network is as follows. The neural network can be divided into three layers or sections, an input layer, one or more hidden layers and an output layer. Each of the layers includes a plurality of individual neurons, it also being possible for different layers to have a different number of neurons. The amount of neurons in the input layer depends, for example, on the amount and format of the data to be processed by the neural network, which can also be referred to as the dimensionality of the data. For example, the amount of neurons in the output layer depends on the dimensionality of the output vector. A neural network that is set up for classifying objects has, for example, a number of neurons in the output layer that corresponds to the number of classes.
Die Eingabeschicht bildet den Eingang des neuronalen Netzwerks, dem der Eingangsvektor zugeführt wird. Die Neuronen der Eingabeschicht nehmen die in dem Eingangsvektor enthaltenen Informationen auf und geben diese gewichtet an die Neuronen der ersten verborgenen Schicht weiter. Die Neuronen der ersten verborgenen Schicht nehmen die gewichteten Signale von der Eingangsschicht auf und geben diese ihrerseits gewichtet an die folgende verborgene Schicht weiter. Die Signale werden auf diese Weise von Schicht zu Schicht durch das neuronale Netzwerk geleitet, bis die Ausgabeschicht erreicht ist. Die einzelnen Gewichte, mit der die Neuronen Signale weiterleiten, kodieren insbesondere das „Wissen“ des neuronalen Netzwerks. Durch Trainieren des neuronalen Netzwerks, beispielsweise mit einem Trainingsdatensatz und unter Anwendung eines geeigneten Trainingsverfahrens, werden die Gewichte eingestellt, bevor das neuronale Netzwerk in den operativen Betrieb geht. An den Neuronen der Ausgabeschicht wird der Ausgabevektor abgegriffen. Die Menge an verborgenen Schichten ist grundsätzlich unbegrenzt, jedoch skaliert die Rechenleistung, die zum Betreiben des neuronalen Netzwerks benötigt wird, mit der Menge verborgener Schichten. Je mehr Schichten ein neuronales Netzwerk umfasst, umso komplexere Aufgaben kann das neuronale Netzwerk lösen, allerdings steigt auch der Trainingsaufwand, das heißt die Größe des Trainingsdatensatzes entsprechend an. Daher ist es vorteilhaft, nur so viele verborgene Schichten wie für die jeweilige Aufgabe nötig zu verwenden.The input layer forms the input of the neural network, to which the input vector is fed. The neurons of the input layer accept the information contained in the input vector and pass it on weighted to the neurons of the first hidden layer. The neurons of the first hidden layer receive the weighted signals from the input layer and pass them on to the following hidden layer in a weighted manner. The signals are passed through the neural network from layer to layer in this way until the output layer is reached. The individual weights with which the neurons transmit signals encode in particular the "knowledge" of the neural network. By training the neural network, for example with a training data set and using a suitable training method, the weights are adjusted before the neural network goes into operation. The output vector is tapped off at the neurons of the output layer. The amount of hidden layers is basically unlimited, however the computational power needed to operate the neural network scales with the amount of hidden layers. The more layers a neural network includes, the more complex tasks the neural network can solve, but the training effort, i.e. the size of the training data set, increases accordingly. It is therefore advantageous to use only as many hidden layers as are necessary for the task at hand.
Gemäß einem zweiten Aspekt wird ein Computerprogrammprodukt vorgeschlagen, welches Befehle umfasst, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren gemäß dem ersten Aspekt auszuführen.According to a second aspect, a computer program product is proposed which comprises instructions which, when the program is executed by a computer, cause the latter to execute the method according to the first aspect.
Ein Computerprogrammprodukt, wie z.B. ein Computerprogramm-Mittel, kann beispielsweise als Speichermedium, wie z.B. Speicherkarte, USB-Stick, CD-ROM, DVD, oder auch in Form einer herunterladbaren Datei von einem Server in einem Netzwerk bereitgestellt oder geliefert werden. Dies kann zum Beispiel in einem drahtlosen Kommunikationsnetzwerk durch die Übertragung einer entsprechenden Datei mit dem Computerprogrammprodukt oder dem Computerprogramm-Mittel erfolgen.A computer program product, such as a computer program means, can be used, for example, as a storage medium such as a memory card, USB Stick, CD-ROM, DVD, or in the form of a downloadable file provided or supplied by a server in a network. This can be done, for example, in a wireless communication network by transferring a corresponding file with the computer program product or the computer program means.
Der Computer ist insbesondere als ein Parkassistenzsystem für ein Fahrzeug ausgebildet.The computer is designed in particular as a parking assistance system for a vehicle.
Gemäß einem dritten Aspekt wird ein Parkassistenzsystem für ein Fahrzeug vorgeschlagen. Das Parkassistenzsystem weist auf:
- eine Empfangseinheit zum Empfangen eines ersten Bildes einer Umgebung des Fahrzeugs, das von einer ersten Aufnahmeposition aus erfasst ist, und eines zweiten Bildes der Umgebung des Fahrzeugs, das von einer zweiten Aufnahmeposition aus erfasst ist,
- eine Ermittlungseinheit zum Ermitteln eines Objekts in dem empfangenen ersten Bild und in dem empfangenen zweiten Bild,
- eine Bestimmungseinheit zum Bestimmen eines jeweiligen, das ermittelte Objekt umfassenden Begrenzungsrahmens in dem ersten Bild und in dem zweiten Bild, wobei der jeweilige Begrenzungsrahmen eine jeweilige erste und eine jeweilige zweite vertikale Begrenzungslinie umfasst, die jeweils einen Eckpunkt des ermittelten Objekts in dem jeweiligen Bild kennzeichnet, und
- eine Triangulationseinheit zum Durchführen einer Triangulation zumindest eines Eckpunkts des ermittelten Objekts auf Basis eines Abstands von der ersten Aufnahmeposition zu der zweiten Aufnahmeposition und der jeweiligen vertikalen Begrenzungslinie, die den Eckpunkt in dem ersten Bild und in dem zweiten Bild kennzeichnet, zum Ermitteln einer relativen Position des Eckpunkts von der ersten Aufnahmeposition und der zweiten Aufnahmeposition.
- a receiving unit for receiving a first image of an area surrounding the vehicle, which is captured from a first recording position, and a second image of the area surrounding the vehicle, which is recorded from a second recording position,
- a determination unit for determining an object in the received first image and in the received second image,
- a determination unit for determining a respective bounding box comprising the determined object in the first image and in the second image, wherein the respective bounding box comprises a respective first and a respective second vertical boundary line, each of which characterizes a corner point of the determined object in the respective image, and
- a triangulation unit for carrying out a triangulation of at least one corner point of the determined object on the basis of a distance from the first recording position to the second recording position and the respective vertical boundary line, which characterizes the corner point in the first image and in the second image, to determine a relative position of the Vertex of the first recording position and the second recording position.
Dieses Parkassistenzsystem weist die gleichen Vorteile auf, wie zu dem Verfahren gemäß dem ersten Aspekt erläutert. Die für das vorgeschlagene Verfahren beschriebenen Ausführungsformen und Merkmale gelten für das vorgeschlagene Parkassistenzsystem entsprechend.This parking assistance system has the same advantages as explained for the method according to the first aspect. The embodiments and features described for the proposed method apply accordingly to the proposed parking assistance system.
Die jeweilige Einheit des Parkassistenzsystems kann hardwaretechnisch und/oder softwaretechnisch implementiert sein. Bei einer hardwaretechnischen Implementierung kann die jeweilige Einheit zum Beispiel als Computer oder als Mikroprozessor ausgebildet sein. Bei einer softwaretechnischen Implementierung kann die jeweilige Einheit als Computerprogrammprodukt, als eine Funktion, als eine Routine, als ein Algorithmus, als Teil eines Programmcodes oder als ausführbares Objekt ausgebildet sein. Ferner kann jede der vorliegend genannten Einheiten auch als Teil eines übergeordneten Steuerungssystems des Fahrzeugs, wie beispielsweise einer zentralen elektronischen Steuereinrichtung und/oder einem Motorsteuergerät (ECU: Engine Control Unit), ausgebildet sein.]The respective unit of the parking assistance system can be implemented in terms of hardware and/or software. In the case of a hardware implementation, the respective unit can be embodied, for example, as a computer or as a microprocessor. In the case of a software implementation, the respective unit can be designed as a computer program product, as a function, as a routine, as an algorithm, as part of a program code or as an executable object. Furthermore, each of the units mentioned here can also be designed as part of a higher-level control system of the vehicle, such as a central electronic control device and/or an engine control unit (ECU: Engine Control Unit).]
Gemäß einem vierten Aspekt wird ein Fahrzeug mit wenigstens einer Kamera zum Erfassen und Ausgeben eines Bildes der Umgebung des Fahrzeugs, und mit einem Parkassistenzsystem gemäß dem dritten Aspekt vorgeschlagen.According to a fourth aspect, a vehicle is proposed with at least one camera for capturing and outputting an image of the surroundings of the vehicle, and with a parking assistance system according to the third aspect.
Das Fahrzeug ist beispielsweise ein Personenkraftwagen oder auch ein Lastkraftwagen. Das Fahrzeug umfasst vorzugsweise eine Anzahl an Sensoreinheiten, die zum Erfassen des Fahrzustands des Fahrzeugs und zum Erfassen einer Umgebung des Fahrzeugs eingerichtet sind. Beispiele für derartige Sensoreinheiten des Fahrzeugs sind Bildaufnahmeeinrichtungen, wie eine Kamera, ein Radar (engl. radio detection and ranging) oder auch ein Lidar (engl. light detection and ranging), Ultraschallsensoren, Ortungssensoren, Radwinkelsensoren und/oder Raddrehzahlsensoren. Die Sensoreinheiten sind jeweils zum Ausgeben eines Sensorsignals eingerichtet, beispielsweise an das Parkassistenzsystem, welches dazu eingerichtet sein kann, auf Basis der empfangenen Sensorsignale eine teilautonome oder vollautonome Steuerung des Fahrzeugs durchzuführen.The vehicle is, for example, a passenger car or a truck. The vehicle preferably includes a number of sensor units that are set up to detect the driving state of the vehicle and to detect an environment of the vehicle. Examples of such sensor units of the vehicle are image recording devices such as a camera, radar (radio detection and ranging) or also a lidar (engl. light detection and ranging), ultrasonic sensors, location sensors, wheel angle sensors and/or wheel speed sensors. The sensor units are each set up to output a sensor signal, for example to the parking assistance system, which can be set up to carry out partially autonomous or fully autonomous control of the vehicle on the basis of the received sensor signals.
Weitere mögliche Implementierungen der Erfindung umfassen auch nicht explizit genannte Kombinationen von zuvor oder im Folgenden bezüglich der Ausführungsbeispiele beschriebenen Merkmale oder Ausführungsformen. Dabei wird der Fachmann auch Einzelaspekte als Verbesserungen oder Ergänzungen zu der jeweiligen Grundform der Erfindung hinzufügen.Further possible implementations of the invention also include combinations of features or embodiments described above or below with regard to the exemplary embodiments that are not explicitly mentioned. The person skilled in the art will also add individual aspects as improvements or additions to the respective basic form of the invention.
Weitere vorteilhafte Ausgestaltungen und Aspekte der Erfindung sind Gegenstand der Unteransprüche sowie der im Folgenden beschriebenen Ausführungsbeispiele der Erfindung. Im Weiteren wird die Erfindung anhand von bevorzugten Ausführungsformen unter Bezugnahme auf die beigelegten Figuren näher erläutert.
-
1 zeigt ein schematisches Beispiel für ein Fahrzeug aus einer Vogelperspektive; -
2 zeigt eine schematische Ansicht einer Verkehrssituation aus einer Vogelperspektive; -
3 zeigt ein schematisches Beispiel dafür, wie auf Basis zweier Bilder einer Verkehrssituation eine Triangulation zum Ermitteln einer zweidimensionalen Karte durchführbar ist; -
4 zeigt ein schematisches Beispiel für eine zweidimensionale Karte; -
5 zeigt ein schematisches Beispiel für eine Sensorfusion; -
6 zeigt ein schematisches Beispiel für das das Ermitteln einer Objekt-Begrenzungslinie und das Ermitteln eines Parkplatzes auf Basis einer zweidimensionalen Karte; -
7 zeigt ein schematisches Blockdiagramm eines Beispiels für ein Parkassistenzsystem; und -
8 zeigt ein schematisches Blockschaltbild eines Beispiels für ein Verfahren zum Betreiben eines Parkassistenzsystems.
-
1 shows a schematic example of a vehicle from a bird's eye view; -
2 shows a schematic view of a traffic situation from a bird's eye view; -
3 shows a schematic example of how a triangulation for determining a two-dimensional map can be carried out on the basis of two images of a traffic situation; -
4 shows a schematic example of a two-dimensional map; -
5 shows a schematic example of a sensor fusion; -
6 shows a schematic example for determining an object boundary line and determining a parking space on the basis of a two-dimensional map; -
7 shows a schematic block diagram of an example of a parking assistance system; and -
8th shows a schematic block diagram of an example of a method for operating a parking assistance system.
In den Figuren sind gleiche oder funktionsgleiche Elemente mit denselben Bezugszeichen versehen worden, sofern nichts anderes angegeben ist.Elements that are the same or have the same function have been provided with the same reference symbols in the figures, unless otherwise stated.
Das Parkassistenzsystem 110 ist beispielsweise wie anhand der
Herkömmliche Einparkhilfen, die beispielsweise nur auf Ultraschall basieren, können nicht zuverlässig erkennen, wie tief der Parkplatz 270 ist und ob die Fahrzeuge 230, 240 wie hier dargestellt ordnungsgemäß eingeparkt sind, oder ob diese möglicherweise schräg stehen und in den Parkplatz 270 hineinragen. Auf Basis des vorgeschlagenen Verfahrens, das anhand dieser beispielhaften Verkehrssituation und anhand der
Die Objekte 230, 240, die in dem jeweiligen Bild 210, 220 zu sehen sind, werden ermittelt. Dies erfolgt beispielsweise mittels einer bildbasierten Objekterkennung, wobei eine künstliche Intelligenz verwendet werden kann.The
Jedem ermittelten Objekt 230, 240 wird ein Begrenzungsrahmen 231A, 241A, 231 B, 241 B zugeordnet. Beispielsweise werden alle Bildpunkte, die zu einem jeweiligen Objekt 230, 240 gehören, ermittelt und anschließend ein Rechteck definiert, dessen Seiten vertikal und horizontal verlaufen. Eine linke Seite des Rechtecks verläuft dabei senkrecht durch den Bildpunkt des Objekts, dessen horizontale Position den kleinsten Wert aller Bildpunkte des Objekts aufweist (bezogen auf einen Ursprung in der oberen linken Ecke des Bildes). Dies ist gleichbedeutend mit dem Bildpunkt des Objekts, der von allen Bildpunkten des Objekts den kleinsten Abstand von der linken Seite des Bildes aufweist. Die weiteren Seiten des Rechtecks lassen sich entsprechend ermitteln. Der jeweilige Begrenzungsrahmen 231A, 241A, 231 B, 241 B umfasst somit den Bildbereich des jeweiligen Bildes 210, 220, in dem das jeweilige Objekt 230, 240 liegt.A
Die beiden jeweiligen vertikal verlaufenden Seiten 232A, 233A, 242A, 243A, 232B, 233B, 242B, 243B kennzeichnen hierbei jeweils einen bestimmten Eckpunkt C1-1, C1-2, C2-1, C2-2 des Objekts 230, 240, wie in den Bildern 210, 220 ersichtlich ist. Damit eignen sich diese Linien 232A, 233A, 242A, 243A, 232B, 233B, 242B, 243B als Merkmale, auf deren Basis eine Triangulation durchführbar ist, um die relative Position der Eckpunkte C1-1, C1-2, C2-1, C2-2 zu ermitteln.The two respective vertically running
Das Durchführen der Triangulation ist schematisch anhand der zweidimensionalen Karte MAP dargestellt. Die zweidimensionale Karte MAP wird wie folgt ermittelt. Zunächst werden als Basis die beiden Aufnahmepositionen 201, 202, von denen aus die Bilder 210, 220 erfasst wurden, eingetragen. Der Abstand DIST der beiden Positionen 201, 202 ist beispielsweise auf Basis einer Odometrie bekannt. Eine jeweilige Linie 232A, 233A, 242A, 243A, 232B, 233B, 242B, 243B entspricht einem bestimmten horizontalen Blickwinkel von der Kamera aus gesehen. Ein horizontaler Blickwinkel entspricht einer Linie V1, V2 in der zweidimensionale Karte MAP. Nun wird, um die relative Position eines bestimmten Eckpunkts C1-1, C1-2, C2-1, C2-2, in diesem Beispiel der vordere linke Eckpunkt C2-2 des zweiten Objekts 240, die jeweilige Linie V1, V2 gemäß dem aus dem jeweiligen Bild 210, 220 ermittelten Winkel W1, W2 eingetragen. Grafisch betrachtet ergibt der Schnittpunkt der Linien V1, V2 die Position des Eckpunkts C2-2 des Objekts 240 in der zweidimensionalen Karte MAP. Der Maßstab der zweidimensionale Karte MAP ergibt sich hierbei aus dem bekannten Abstand DIST der beiden Aufnahmepositionen 201, 202.Carrying out the triangulation is shown schematically using the two-dimensional map MAP. The two-dimensional map MAP is determined as follows. First, the two
Es lässt sich somit für die jeweils sichtbaren äußeren Eckpunkten C1-1, C1-2, C2-1, C2-2 der Objekte 230, 240 eine Position in der zweidimensionalen Karte MAP ermitteln. Es sei angemerkt, dass dieses Vorgehen bei stark abgerundeten Eckpunkten an Genauigkeit einbüßt.A position in the two-dimensional map MAP can thus be determined for the respective visible outer corner points C1-1, C1-2, C2-1, C2-2 of the
Ein beispielhaftes Ergebnis dieses Verfahrens in Form einer maßstabsgerechten zweidimensionalen Karte 250 ist in der
Um dieses Problem zu überwinden, ist vorgeschlagen, Ultraschall-Sensorsignale zur Ermittlung von Objektpunkten P1 - P7 heranzuziehen. Die
Auch die in der
Anhand der
Auf Basis der Objekt-Begrenzungslinie L1, L2 kann nunmehr der Parkplatz 270 ermittelt werden und es kann ein automatisiertes Einparkmanöver auf diesen Parkplatz 270 erfolgen.The
Obwohl die vorliegende Erfindung anhand von Ausführungsbeispielen beschrieben wurde, ist sie vielfältig modifizierbar.Although the present invention has been described using exemplary embodiments, it can be modified in many ways.
BezugszeichenlisteReference List
- 100100
- Fahrzeugvehicle
- 110110
- Parkassistenzsystemparking assistance system
- 112112
- Empfangseinheitreceiving unit
- 114114
- Ermittlungseinheitinvestigation unit
- 116116
- Bestimmungseinheitunit of determination
- 118118
- Triangulationseinheittriangulation unit
- 120120
- optischer Sensoroptical sensor
- 130130
- Ultraschallsensorultrasonic sensor
- 201201
- Positionposition
- 202202
- Positionposition
- 210210
- BildPicture
- 220220
- BildPicture
- 230230
- Objektobject
- 231A231A
- Begrenzungsrahmenbounding box
- 231B231B
- Begrenzungsrahmenbounding box
- 232A232A
- vertikale Linievertical line
- 232B232B
- vertikale Linievertical line
- 233A233A
- vertikale Linievertical line
- 233B233B
- vertikale Linievertical line
- 240240
- Objektobject
- 241A241A
- Begrenzungsrahmenbounding box
- 241B241B
- Begrenzungsrahmenbounding box
- 242A242A
- vertikale Linievertical line
- 242B242B
- vertikale Linievertical line
- 243A243A
- vertikale Linievertical line
- 243B243B
- vertikale Linievertical line
- 250250
- KarteMap
- 260260
- KarteMap
- 270270
- Parkplatz parking spot
- A1A1
- Objektbereichobject area
- A2A2
- Objektbereichobject area
- C1-1C1-1
- Eckpunktvertex
- C1-2C1-2
- Eckpunktvertex
- C2-1C2-1
- Eckpunktvertex
- C2-2C2-2
- Eckpunktvertex
- DISTDIST
- AbstandDistance
- L1L1
- Objekt-Begrenzungslinieobject boundary line
- L2L2
- Objekt-Begrenzungslinieobject boundary line
- MAPMAP
- KarteMap
- P1P1
- Objektpunktobject point
- P2p2
- Objektpunktobject point
- P3P3
- Objektpunktobject point
- P4P4
- Objektpunktobject point
- P5P5
- Objektpunktobject point
- P6P6
- Objektpunktobject point
- P7P7
- Objektpunktobject point
- S1S1
- Verfahrensschrittprocess step
- S2S2
- Verfahrensschrittprocess step
- S3S3
- Verfahrensschrittprocess step
- S4S4
- Verfahrensschrittprocess step
- V1V1
- Linieline
- V2v2
- Linieline
- W1w1
- Winkelangle
- W2W2
- Winkelangle
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021127748.5A DE102021127748A1 (en) | 2021-10-26 | 2021-10-26 | PROCEDURE, COMPUTER PROGRAM PRODUCT, PARKING ASSISTANCE SYSTEM AND VEHICLE |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021127748.5A DE102021127748A1 (en) | 2021-10-26 | 2021-10-26 | PROCEDURE, COMPUTER PROGRAM PRODUCT, PARKING ASSISTANCE SYSTEM AND VEHICLE |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021127748A1 true DE102021127748A1 (en) | 2023-04-27 |
Family
ID=85795745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021127748.5A Pending DE102021127748A1 (en) | 2021-10-26 | 2021-10-26 | PROCEDURE, COMPUTER PROGRAM PRODUCT, PARKING ASSISTANCE SYSTEM AND VEHICLE |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021127748A1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060136109A1 (en) | 2004-12-21 | 2006-06-22 | Aisin Seiki Kabushiki Kaisha | Parking assist device |
US8134479B2 (en) | 2008-03-27 | 2012-03-13 | Mando Corporation | Monocular motion stereo-based free parking space detection apparatus and method |
US20180178780A1 (en) | 2015-05-29 | 2018-06-28 | Kss-Imagenext Co., Ltd. | Automatic parking method and system of vehicle |
US20190286916A1 (en) | 2018-03-18 | 2019-09-19 | TuSimple | System and method for lateral vehicle detection |
US20210241005A1 (en) | 2019-08-08 | 2021-08-05 | Nvidia Corporation | Lane mask generation for autonomous machine applications |
US11195331B2 (en) | 2019-03-16 | 2021-12-07 | Nvidia Corporation | Object detection using skewed polygons suitable for parking space detection |
-
2021
- 2021-10-26 DE DE102021127748.5A patent/DE102021127748A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060136109A1 (en) | 2004-12-21 | 2006-06-22 | Aisin Seiki Kabushiki Kaisha | Parking assist device |
US8134479B2 (en) | 2008-03-27 | 2012-03-13 | Mando Corporation | Monocular motion stereo-based free parking space detection apparatus and method |
US20180178780A1 (en) | 2015-05-29 | 2018-06-28 | Kss-Imagenext Co., Ltd. | Automatic parking method and system of vehicle |
US20190286916A1 (en) | 2018-03-18 | 2019-09-19 | TuSimple | System and method for lateral vehicle detection |
US11195331B2 (en) | 2019-03-16 | 2021-12-07 | Nvidia Corporation | Object detection using skewed polygons suitable for parking space detection |
US20210241005A1 (en) | 2019-08-08 | 2021-08-05 | Nvidia Corporation | Lane mask generation for autonomous machine applications |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102015105248B4 (en) | Method and system for generating an image of the surroundings of an articulated vehicle | |
DE102004010197B4 (en) | Method for checking the function of a position-finding or environment detection device of a vehicle or for controlling a digital map | |
DE102019129196A1 (en) | TRAILER MANEUVER | |
DE112018000899T5 (en) | Joint 3D object detection and orientation estimation via multimodal fusion | |
DE102015203016B4 (en) | Method and device for optical self-localization of a motor vehicle in an environment | |
DE102016106298A1 (en) | Fusion method for a cross traffic application using radar devices and a camera | |
DE102016106299A1 (en) | Wheel detection and its application for object tracking and sensor registration | |
DE102016210254A9 (en) | VEHICLE VENTILATION AT CROSSINGS ON THE BASIS OF VISUAL VENTILATION POINTS, STATIONARY OBJECTS AND BY GPS | |
DE102015209467A1 (en) | Method of estimating lanes | |
DE102019124152A1 (en) | CLUTCH SUPPORT SYSTEM | |
DE102018114808A1 (en) | Method for the automatic lateral guidance of a following vehicle in a vehicle platoon | |
DE102017108254B4 (en) | All-round camera system for object recognition and tracking and method for equipping a vehicle with a panoramic camera system | |
DE102019115235A1 (en) | OBJECT TRACKING IN THE DEAD ANGLE | |
DE102017218366A1 (en) | METHOD AND PEDESTRIAN DETECTION APPROACH IN A VEHICLE | |
DE102020109279A1 (en) | TRAILER ALIGNMENT SYSTEM AND PROCEDURE | |
DE102015115012A1 (en) | Method for generating an environment map of an environment of a motor vehicle based on an image of a camera, driver assistance system and motor vehicle | |
DE102019115611A1 (en) | OBJECT TRACKING IN THE DEAD ANGLE | |
WO2020193273A1 (en) | Method and device for operating a robot with improved object detection | |
DE102016104730A1 (en) | Method for detecting an object along a road of a motor vehicle, computing device, driver assistance system and motor vehicle | |
DE102020112825A1 (en) | Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle | |
DE102020100230A1 (en) | RECONSTRUCTION OF LANDMARK POSITIONS IN AUTONOMOUS MACHINE APPLICATIONS | |
DE102021206075A1 (en) | Vehicle localization as a ride-sharing option and occupant identification for autonomous vehicles | |
DE102020121504A1 (en) | Propulsion control device for an autonomously driving vehicle, stopping target, and propulsion control system | |
DE102018132676A1 (en) | Method for locating a vehicle in an environment | |
WO2023083620A1 (en) | Testing the environment sensor system and/or environment perception of a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed |