DE102013021840A1 - Method for generating an environment model of a motor vehicle, driver assistance system and motor vehicle - Google Patents
Method for generating an environment model of a motor vehicle, driver assistance system and motor vehicle Download PDFInfo
- Publication number
- DE102013021840A1 DE102013021840A1 DE102013021840.3A DE102013021840A DE102013021840A1 DE 102013021840 A1 DE102013021840 A1 DE 102013021840A1 DE 102013021840 A DE102013021840 A DE 102013021840A DE 102013021840 A1 DE102013021840 A1 DE 102013021840A1
- Authority
- DE
- Germany
- Prior art keywords
- objects
- motor vehicle
- image
- environment model
- properties
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs (1), mit den Schritten:
– Bereitstellen eines Bilds eines Umgebungsbereichs des Kraftfahrzeugs (1) mittels einer Kamera des Fahrerassistenzsystems,
– Detektieren einer Mehrzahl von Objekten (6) in dem Bild durch eine Bildverarbeitungseinrichtung,
– zu jedem Objekt (6) Ermitteln zumindest einer Eigenschaft des jeweiligen Objekts (6) anhand des Bilds durch die Bildverarbeitungseinrichtung,
– Erzeugen eines Umgebungsmodells (11) zu dem Umgebungsbereich des Kraftfahrzeugs (1) aus den Eigenschaften der Objekte (6) unter Verwendung eines vorbestimmten Optimierungsalgorithmus durch die Bildverarbeitungseinrichtung,
– Vergleichen der Eigenschaften der Objekte (6) mit dem Umgebungsmodell (11) durch die Bildverarbeitungseinrichtung und
– Detektieren von fehlerhaft ermittelten Eigenschaften anhand des Vergleichs.The invention relates to a method for operating a driver assistance system of a motor vehicle (1), comprising the steps:
Providing an image of a surrounding area of the motor vehicle (1) by means of a camera of the driver assistance system,
Detecting a plurality of objects (6) in the image by an image processing device,
For each object (6), determining at least one property of the respective object (6) on the basis of the image by the image processing device,
Generating an environment model (11) to the surrounding area of the motor vehicle (1) from the properties of the objects (6) using a predetermined optimization algorithm by the image processing device,
Comparing the properties of the objects (6) with the environment model (11) by the image processing device and
- Detecting incorrectly determined properties based on the comparison.
Description
Die Erfindung betrifft ein Verfahren zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs, bei welchem ein Bild eines Umgebungsbereichs des Kraftfahrzeugs mittels einer Kamera des Fahrerassistenzsystems bereitgestellt wird und eine Mehrzahl von Objekten in dem Bild durch eine Bildverarbeitungseinrichtung detektiert wird. Die Erfindung betrifft außerdem ein Fahrerassistenzsystem, welches zum Durchführen eines solchen Verfahrens ausgebildet ist, sowie ein Kraftfahrzeug mit einem solchen Fahrerassistenzsystem.The invention relates to a method for operating a driver assistance system of a motor vehicle, in which an image of an environmental region of the motor vehicle is provided by means of a camera of the driver assistance system and a plurality of objects in the image is detected by an image processing device. The invention also relates to a driver assistance system, which is designed to carry out such a method, and to a motor vehicle having such a driver assistance system.
Vorliegend richtet sich das Interesse insbesondere auf die Verfolgung von Zielfahrzeugen mit Hilfe einer Frontkamera eines Kraftfahrzeugs. Frontkameras für Kraftfahrzeuge sind dabei bereits aus dem Stand der Technik bekannt und erfassen üblicherweise Bilder eines Umgebungsbereichs vor dem Kraftfahrzeug. Diese Sequenz von Bildern wird mittels einer elektronischen Bildverarbeitungseinrichtung verarbeitet, welche in den Bildern Zielobjekte detektiert. Dazu werden die Bilder einem Objektdetektionsalgorithmus unterzogen. Solche Detektionsalgorithmen sind bereits Stand der Technik und basieren beispielsweise auf einer Mustererkennung. Um ein Zielobjekt zu detektieren, können zunächst so genannte charakteristische Punkte aus dem Bild extrahiert und anhand dieser charakteristischen Punkte dann ein Zielobjekt identifiziert werden. Als Beispiel können dabei folgende Algorithmen genannt werden: AdaBoost und HOG-SVM.In the present case, the interest is directed in particular to the tracking of target vehicles with the aid of a front camera of a motor vehicle. Front cameras for motor vehicles are already known from the prior art and usually capture images of a surrounding area in front of the motor vehicle. This sequence of images is processed by means of an electronic image processing device which detects target objects in the images. For this, the images are subjected to an object detection algorithm. Such detection algorithms are already state of the art and are based, for example, on pattern recognition. In order to detect a target object, so-called characteristic points can first be extracted from the image, and then a target object can be identified on the basis of these characteristic points. As an example, the following algorithms can be mentioned: AdaBoost and HOG-SVM.
Wird ein Zielobjekt in einem Bild der Kamera identifiziert, so kann dieses Zielobjekt auch über die nachfolgenden Bilder der Sequenz hinweg verfolgt werden. Das Zielobjekt wird dabei in jedem Bild detektiert, wobei die Detektion in dem aktuellen Bild der Detektion aus dem vorherigen Bild zugeordnet werden muss. Durch das Verfolgen des Zielobjekts sind die aktuelle Position des Zielobjekts in dem Bildrahmen und somit auch die aktuelle relative Position des Zielobjekts bezüglich des Kraftfahrzeugs stets bekannt. Als Verfolgungsalgorithmus kann dabei beispielsweise die Lucas-Kanade-Methode genutzt werden.If a target object is identified in an image of the camera, then this target object can also be tracked over the subsequent images of the sequence. The target object is detected in each image, whereby the detection in the current image must be assigned to the detection from the previous image. By tracking the target object, the current position of the target object in the image frame and thus also the current relative position of the target object with respect to the motor vehicle are always known. For example, the Lucas-Kanade method can be used as the tracking algorithm.
Ein genanntes Kamerasystem mit einer Frontkamera kann als Kollisionswarnungssystem genutzt werden, mittels welchem der Fahrer vor einer Kollisionsgefahr mit dem Zielobjekt gewarnt werden kann. Ein solches Kollisionswarnungssystem kann beispielsweise Warnsignale ausgeben, um den Fahrer über die detektierte Kollisionsgefahr akustisch und/oder optisch und/oder haptisch zu informieren. Ergänzend oder alternativ kann das Kamerasystem auch als automatisches Bremsassistenzsystem genutzt werden, welches dazu ausgelegt ist, aufgrund der detektierten Kollisionsgefahr automatische Bremseingriffe des Kraftfahrzeugs vorzunehmen. Als Maß für die aktuelle Kollisionsgefahr kann dabei beispielsweise die so genannte Zeit bis zur Kollision (time to; collision) genutzt werden, das heißt eine Zeitdauer, welche durch das Kraftfahrzeug voraussichtlich benötigt wird, um das Zielobjekt zu erreichen. Diese Zeit bis zur Kollision kann aus der eingeschätzten Entfernung des Zielobjekts sowie aus der relativen Geschwindigkeit berechnet werden.A named camera system with a front camera can be used as a collision warning system, by means of which the driver can be warned of a risk of collision with the target object. Such a collision warning system can output warning signals, for example, in order to inform the driver acoustically and / or visually and / or haptically about the detected risk of collision. Additionally or alternatively, the camera system can also be used as an automatic brake assist system, which is designed to make automatic braking interventions of the motor vehicle on the basis of the detected risk of collision. As a measure of the current risk of collision, for example, the so-called time to collision (time to collision) can be used, that is, a period of time, which is expected to be required by the motor vehicle to reach the target object. This time to collision can be calculated from the estimated distance of the target object as well as from the relative velocity.
Die bekannten Detektionsalgorithmen, welche zur Detektion von Zielfahrzeugen im Bild dienen, geben als Ergebnis der Detektion üblicherweise einen rechteckigen Begrenzungskasten (Bounding Box) aus, welcher das detektierte Zielfahrzeug umgibt. In diesem Begrenzungskasten ist das detektierte Zielfahrzeug also abgebildet, wobei der Begrenzungskasten die aktuelle Position sowie die Breite und die Höhe des Zielfahrzeugs in dem Bild angibt. Als nachteilig an den bekannten Detektionsalgorithmen (beispielsweise AdaBoost und HOG-SVM) kann der Umstand angesehen werden, dass der Begrenzungskasten die aktuelle Position des Zielfahrzeugs in dem Bild sowie die Breite und die Höhe des Zielfahrzeugs nur ungenau angibt. Die Größe des Begrenzungskastens kann auch über die Sequenz der Bilder hinweg variieren, was wiederum die Genauigkeit bei der Verfolgung des Zielfahrzeugs über die Bilder hinweg reduziert. Entsprechend kann somit auch die relative Position der Zielobjekte relativ zum Kraftfahrzeug nur ungenau bestimmt werden.The known detection algorithms, which serve for the detection of target vehicles in the image, as a result of the detection usually output a rectangular bounding box which surrounds the detected target vehicle. In this bounding box, the detected target vehicle is thus depicted, wherein the bounding box indicates the current position as well as the width and the height of the target vehicle in the image. A disadvantage of the known detection algorithms (for example AdaBoost and HOG-SVM) can be regarded as the circumstance that the bounding box indicates the current position of the target vehicle in the image as well as the width and the height of the target vehicle only inaccurately. The size of the bounding box may also vary across the sequence of images, which in turn reduces the accuracy of tracking the target vehicle across the images. Accordingly, therefore, the relative position of the target objects relative to the motor vehicle can be determined only inaccurate.
Aus dem Dokument
Ein Kollisionswarnungssystem für ein Kraftfahrzeug ist des Weiteren aus dem Dokument
Ein Objekterkennungsverfahren, bei welchem ein Histogramm verwendet wird, ist aus dem Dokument
Wie bereits ausgeführt, sind die bekannten Algorithmen zur Detektion von Objekten anhand eines Bilds relativ ungenau, und die Objekterkennung ist mit einem relativ großen Fehler behaftet. Diese Fehler betreffen insbesondere die Bestimmung der Position der Objekte relativ zum Kraftfahrzeug. So kann es nämlich beispielsweise vorkommen, dass nur ein Teilbereich eines Zielobjekts – beispielsweise eines Zielfahrzeugs – detektiert wird, was dann dazu führt, dass durch das System eine falsche Position dieses Zielobjekts relativ zum Kraftfahrzeug angenommen wird. Eine besondere Herausforderung besteht nun darin, solche Detektionsfehler zu erkennen und nach Möglichkeit auch zu korrigieren.As already stated, the known algorithms for the detection of objects based on an image are relatively inaccurate, and the object recognition is associated with a relatively large error. These errors relate in particular to the determination of Position of the objects relative to the motor vehicle. Thus, it may happen, for example, that only a partial area of a target object-for example of a target vehicle-is detected, which then leads to the system assuming a wrong position of this target object relative to the motor vehicle. A particular challenge now is to detect such detection errors and, if possible, to correct them.
Es ist Aufgabe der Erfindung, eine Lösung aufzuzeigen, wie bei einem Verfahren der eingangs genannten Gattung Detektionsfehler bei der Detektion der Objekte besonders zuverlässig erkannt und das Fahrerassistenzsystem somit zuverlässig betrieben werden kann.It is an object of the invention to provide a solution as detected in a method of the type mentioned detection error in the detection of objects particularly reliable and thus the driver assistance system can be operated reliably.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch ein Fahrerassistenzsystem sowie durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Patentansprüchen gelöst. Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen Patentansprüche, der Beschreibung und der Figuren.This object is achieved by a method by a driver assistance system and by a motor vehicle with the features according to the respective independent claims. Advantageous embodiments of the invention are the subject of the dependent claims, the description and the figures.
Ein erfindungsgemäßes Verfahren dient zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs. Mittels einer Kamera des Fahrerassistenzsystems wird ein Bild eines Umgebungsbereiches des Kraftfahrzeugs bereitgestellt. Durch eine Bildverarbeitungseinrichtung wird dann eine Mehrzahl von Objekten in dem Bild detektiert, nämlich insbesondere unter Verwendung eines Detektionsalgorithmus. Es kann dabei grundsätzlich ein beliebiger Detektionsalgorithmus verwendet werden, so dass vorliegend auf den Detektionsalgorithmus nicht näher eingegangen wird. Beispielsweise kann ein Detektionsalgorithmus eingesetzt werden, welcher zu jedem detektierten Objekt einen sogenannten Begrenzungskasten (bounding box) ausgibt, in welchem das detektierte Objekt abgebildet ist. Zu jedem Objekt ermittelt die Bildverarbeitungseinrichtung zumindest eine Eigenschaft des jeweiligen Objekts anhand des Bilds. Als Eigenschaft kann beispielsweise die Position des jeweiligen Objekts relativ zum Kraftfahrzeug ermittelt werden. Die Bildverarbeitungseinrichtung erzeugt dann ein Umgebungsmodell zu dem Umgebungsbereich des Kraftfahrzeugs aus den Eigenschaften der detektierten Objekte. Das Umgebungsmodell wird dabei unter Verwendung eines vorbestimmten Optimierungsalgorithmus erzeugt, beispielsweise eines Fehlerminimierungsalgorithmus, welcher die Fehler zwischen dem erzeugten Umgebungsmodell und den Eigenschaften der Objekte minimiert. Mit diesem optimierten Umgebungsmodell werden dann die ursprünglich ermittelten Eigenschaften der Objekte verglichen, und anhand des Vergleichs detektiert die Bildverarbeitungseinrichtung fehlerhaft ermittelte Eigenschaften.An inventive method is used to operate a driver assistance system of a motor vehicle. By means of a camera of the driver assistance system, an image of a surrounding area of the motor vehicle is provided. An image processing device then detects a plurality of objects in the image, namely in particular using a detection algorithm. In principle, an arbitrary detection algorithm can be used, so that in the present case the detection algorithm will not be discussed in greater detail. For example, a detection algorithm can be used which outputs for each detected object a so-called bounding box, in which the detected object is imaged. For each object, the image processing device determines at least one property of the respective object based on the image. As a property, for example, the position of the respective object relative to the motor vehicle can be determined. The image processing device then generates an environment model to the surrounding area of the motor vehicle from the properties of the detected objects. The environment model is thereby generated using a predetermined optimization algorithm, for example an error minimization algorithm, which minimizes the errors between the generated environment model and the properties of the objects. The originally determined properties of the objects are then compared with this optimized environment model, and based on the comparison, the image processing device detects incorrectly determined properties.
Um Fehler bei der Detektion der Objekte bzw. beim Ermitteln der zumindest einen Eigenschaft der Objekte (zum Beispiel der relativen Position) zu erkennen, wird demnach erfindungsgemäß vorgeschlagen, ein globales Umgebungsmodell des Kraftfahrzeugs unter Verwendung eines vorbestimmten Optimierungsalgorithmus (zum Beispiel des RANSAC-Algorithmus) bereitzustellen und die ursprünglich ermittelten Eigenschaften der Objekte mit diesem Umgebungsmodell zu vergleichen. Diejenigen Eigenschaften, welche sich von dem Umgebungsmodell in einem bestimmten Ausmaß unterscheiden, werden als Ausreißer und somit als fehlerhaft ermittelte Eigenschaften interpretiert und können optional korrigiert werden. Das erfindungsgemäße Verfahren hat somit insgesamt den Vorteil, dass die fehlerhaft ermittelten Eigenschaften und somit die fehlerhaften Detektionen besonders zuverlässig erkannt und gegebenenfalls auch korrigiert werden können. Das Fahrerassistenzsystem kann somit besonders zuverlässig betrieben werden, da Applikationsfehler aufgrund von fehlerhaft ermittelten Eigenschaften der Objekte verhindert werden können. So kann beispielsweise verhindert werden, dass der Fahrer des Kraftfahrzeugs unnötig durch das Fahrerassistenzsystems gewarnt oder das Kraftfahrzeug unnötig automatisch abgebremst wird, obwohl tatsächlich keine Kollisionsgefahr besteht. Andererseits können auch Situationen verhindert werden, in denen keine Warnung durch das System oder kein automatisches Abbremsen des Fahrzeugs trotz einer tatsächlich gegebenen Kollisionsgefahr erfolgt.In order to detect errors in the detection of the objects or in determining the at least one property of the objects (for example the relative position), it is therefore proposed according to the invention to generate a global environment model of the motor vehicle using a predetermined optimization algorithm (for example the RANSAC algorithm). and compare the originally determined properties of the objects with this environment model. Those properties which differ from the environment model to a certain extent are interpreted as outliers and thus as incorrectly determined properties and can optionally be corrected. The method according to the invention thus has the overall advantage that the incorrectly determined properties and thus the erroneous detections can be detected particularly reliably and optionally also corrected. The driver assistance system can thus be operated particularly reliably, since application errors due to incorrectly determined properties of the objects can be prevented. Thus, it can be prevented, for example, that the driver of the motor vehicle is unnecessarily warned by the driver assistance system or the motor vehicle is unnecessarily automatically braked, although in fact there is no danger of collision. On the other hand, it is also possible to prevent situations in which no warning by the system or no automatic braking of the vehicle takes place despite a collision danger that is actually present.
Die Kamera ist vorzugsweise eine Frontkamera, welche insbesondere hinter einer Windschutzscheibe des Kraftfahrzeugs angeordnet ist, beispielsweise direkt an der Windschutzscheibe im Innenraum des Kraftfahrzeugs. Die Frontkamera erfasst dann die Umgebung in Fahrtrichtung bzw. in Fahrzeuglängsrichtung vor dem Kraftfahrzeug. Dies kann insbesondere bedeuten, dass eine senkrecht zur Ebene des Bildsensors verlaufende Kameraachse parallel zur Fahrzeuglängsachse orientiert ist.The camera is preferably a front camera, which is arranged in particular behind a windshield of the motor vehicle, for example, directly on the windshield in the interior of the motor vehicle. The front camera then detects the environment in the direction of travel or in the vehicle longitudinal direction in front of the motor vehicle. This may in particular mean that a camera axis extending perpendicular to the plane of the image sensor is oriented parallel to the vehicle longitudinal axis.
Die Kamera ist vorzugsweise eine Video-Kamera, welche eine Vielzahl von Bildern (frames) pro Sekunde bereitstellen kann. Die Kamera kann eine CCD-Kamera oder eine CMOS-Kamera sein.The camera is preferably a video camera which can provide a plurality of frames per second. The camera can be a CCD camera or a CMOS camera.
Das Kamerasystem kann ein Kollisionswarnungssystem sein, mittels welchem ein Gefahrengrad bezüglich einer Kollision des Kraftfahrzeugs mit dem Zielfahrzeug bestimmt und abhängig von dem aktuellen Gefahrengrad ein Warnsignal ausgegeben wird, mit welchem die Kollisionsgefahr dem Fahrer signalisiert wird. Ergänzend oder alternativ kann das Kamerasystem auch als automatisches Bremsassistenzsystem ausgebildet sein, mittels welchem Bremseingriffe automatisch in Abhängigkeit von dem Gefahrengrad durchgeführt werden. Als Gefahrengrad kann dabei beispielsweise die Zeit bis zur Kollision und/oder eine Entfernung des Zielfahrzeugs von dem Kraftfahrzeug verwendet werden.The camera system may be a collision warning system, by means of which a degree of danger with respect to a collision of the motor vehicle with the target vehicle is determined and depending on the current degree of danger a warning signal is output, with which the risk of collision is signaled to the driver. Additionally or alternatively, the camera system can also be designed as an automatic brake assist system, by means of which braking interventions are automatically performed as a function of the degree of danger. When Threshold can be used, for example, the time to collision and / or removal of the target vehicle of the motor vehicle.
Wie bereits ausgeführt, kann als Eigenschaft der Objekte eine Position der jeweiligen Objekte relativ zum Kraftfahrzeug ermittelt werden. Dies bedeutet, dass zu jedem detektierten Objekt die jeweilige Position relativ zum Kraftfahrzeug ermittelt wird und das Umgebungsmodell aus den relativen Positionen der Objekte erzeugt wird. Somit können Fehler in der Ermittlung der relativen Positionen der Objekte detektiert und optional dann korrigiert werden.As already stated, a position of the respective objects relative to the motor vehicle can be determined as a property of the objects. This means that for each detected object the respective position relative to the motor vehicle is determined and the environment model is generated from the relative positions of the objects. Thus, errors in determining the relative positions of the objects can be detected and optionally then corrected.
Die relative Position der Objekte bezüglich des Kraftfahrzeugs kann beispielsweise in Abhängigkeit von einer abgeschätzten Breite und/oder des ermittelten Typs des jeweiligen Objekts bestimmt werden. Die Schätzung der relativen Position der Objekte kann jedoch grundsätzlich auf eine beliebige Art und Weise anhand des Bilds durchgeführt werden.The relative position of the objects with respect to the motor vehicle can be determined, for example, as a function of an estimated width and / or the determined type of the respective object. However, the estimation of the relative position of the objects can basically be performed in any manner from the image.
Ergänzend oder alternativ kann als Eigenschaft der Objekte auch eine geschätzte reale Breite des jeweiligen Objekts ermittelt werden. Diese Breite kann beispielsweise abhängig von der Breite des oben genannten Begrenzungskastens ermittelt werden, welcher durch den Detektionsalgorithmus ausgegeben wird. Ist die reale Breite des jeweiligen Objekts bekannt, so kann auch eine Entfernung des Objekts von dem Kraftfahrzeug abgeschätzt werden. Diese Ausführungsform hat daher den Vorteil, dass zum einen Fehler in der Bestimmung der realen Breite der Objekte und zum anderen auch Fehler in der Ermittlung der Entfernung der Objekte vom Kraftfahrzeug detektiert und gegebenenfalls korrigiert werden können.Additionally or alternatively, an estimated real width of the respective object can also be determined as a property of the objects. This width can be determined, for example, depending on the width of the above-mentioned bounding box, which is output by the detection algorithm. If the real width of the respective object is known, a distance of the object from the motor vehicle can also be estimated. This embodiment therefore has the advantage that, on the one hand, errors in the determination of the real width of the objects and, on the other hand, errors in the determination of the distance of the objects from the motor vehicle can be detected and optionally corrected.
Unter einer Breite des jeweiligen Objekts wird dabei bevorzugt eine Abmessung des Objekts in Fahrzeugquerrichtung verstanden.A width of the respective object is preferably understood to mean a dimension of the object in the vehicle transverse direction.
Weiterhin ergänzend oder alternativ kann als Eigenschaft der Objekte auch ein Typ des jeweiligen Objekts, insbesondere ein Fahrzeugtyp, ermittelt werden. Es kann zunächst grundsätzlich beispielsweise zwischen folgenden Typen der Objekte unterschieden werden: einem Zielfahrzeug, einem Fußgänger, einem Baum und dergleichen. Wird ein Zielfahrzeug detektiert, so kann beispielsweise zwischen einem Personenkraftwagen, einem Lastkraftwagen und einem Motorrad unterschieden werden.Additionally or alternatively, a type of the respective object, in particular a vehicle type, can be determined as a property of the objects. In principle, for example, it is possible to distinguish between the following types of objects: a target vehicle, a pedestrian, a tree and the like. If a target vehicle is detected, it is possible, for example, to distinguish between a passenger car, a truck and a motorcycle.
Wie bereits ausgeführt, kann als Optimierungsalgorithmus ein Fehlerminimierungsalgorithmus verwendet werden, bei welchem der Fehler zwischen den ermittelten Eigenschaften der Objekte einerseits und dem Umgebungsmodell andererseits minimiert wird. Insbesondere wird dabei der RANSAC-Algorithmus implementiert, welcher den Vorteil hat, dass große Ausreißer nicht zu einer Verfälschung des Umgebungsmodells führen und der Algorithmus somit auf verrauschte Werte angewendet werden kann. Der RANSAC-Algrorithmus ist insgesamt sehr robust gegenüber Ausreißern.As already stated, the optimization algorithm used can be an error minimization algorithm in which the error between the determined properties of the objects on the one hand and the environment model on the other hand is minimized. In particular, the RANSAC algorithm is implemented, which has the advantage that large outliers do not lead to a falsification of the environment model and the algorithm can thus be applied to noisy values. Overall, the RANSAC algorithm is very robust against outliers.
Allgemein gesagt, kann als Optimierungsalgorithmus ein Algorithmus eingesetzt werden, welcher auf der Regressionsanalyse und/oder Fitting-Analyse basiert.Generally speaking, an algorithm based on regression analysis and / or fitting analysis can be used as the optimization algorithm.
Anhand des Bilds können insbesondere Zielfahrzeuge als Objekte detektiert werden. Es sind nämlich typischerweise die Zielfahrzeuge, welche die größte Kollisionsgefahr für das Ego-Fahrzeug darstellen. Es ist somit besonders vorteilhaft, wenn die Eigenschaften von Zielfahrzeugen, und insbesondere die relative Position der Zielfahrzeuge, besonders präzise bestimmt und gegebenenfalls auftretende Fehler detektiert werden.On the basis of the image target vehicles can be detected as objects in particular. In fact, it is typically the target vehicles that pose the greatest collision risk to the ego vehicle. It is thus particularly advantageous if the characteristics of target vehicles, and in particular the relative position of the target vehicles, are determined particularly precisely and any errors occurring are detected.
Anhand des Bilds können ergänzend oder alternativ auch Längsmarkierungen einer Fahrbahn als Objekte detektiert werden, auf welcher sich das Kraftfahrzeug befindet. Die Detektion der Längsmarkierungen ermöglicht wiederum Rückschlüsse darauf, auf welcher Fahrspur sich aktuell das Kraftfahrzeug befindet und ob sich auf dieser Fahrspur auch weitere Objekte befinden, wie insbesondere andere Fahrzeuge.On the basis of the image, in addition or alternatively, longitudinal markings of a roadway can be detected as objects on which the motor vehicle is located. The detection of the longitudinal markings in turn makes it possible to draw conclusions as to which lane is currently the motor vehicle and whether there are other objects on this lane, in particular other vehicles.
Beim Erzeugen des Umgebungsmodells können zusätzlich zu der zumindest einen Eigenschaft der Objekte auch Relationen zwischen den Objekten untereinander berücksichtigt werden. Auch diese Relationen können vorzugsweise anhand des Bilds bestimmt werden, wobei es ergänzend oder alternativ auch möglich ist, zur Ermittlung der gegenseitigen Relationen zwischen den Objekten Sensordaten anderer Sensoren zu verwenden, insbesondere Sensordaten von Abstandssensoren. Somit können insgesamt auch relative Beschränkungen bzw. Bedingungen zwischen den Objekten untereinander beim Erzeugen des Umgebungsmodells berücksichtigt werden. Diese Relationen zwischen den Objekten könne ohne viel Aufwand anhand des Bilds ermittelt werden, insbesondere anhand der ermittelten Position der Objekte relativ zum Kraftfahrzeug. Als Relation zwischen zwei Objekten kann beispielsweise ermittelt werden, welches der beiden Objekte sich näher dem Kraftfahrzeug befindet und welches der Objekte weiter von dem Kraftfahrzeug entfernt ist. Als Relation kann aber auch ermittelt werden, welches der Objekte sich weiter links oder weiter rechts bezüglich des Kraftfahrzeugs befindet und/oder welches der Objekte sich auf der Fahrbahn des Kraftfahrzeugs und welches der Objekte sich außerhalb dieser Fahrbahn befindet. Auch diese Relationen können als Eingangsparameter zur Erzeugung des Umgebungsmodells gemäß dem Optimierungsalgorithmus verwendet werden, um ein bestmögliches Umgebungsmodell finden zu können.When creating the environment model, relationships between the objects can be taken into account in addition to the at least one property of the objects. These relations can also preferably be determined on the basis of the image, it being additionally or alternatively also possible to use sensor data from other sensors to determine the mutual relations between the objects, in particular sensor data from distance sensors. Thus, overall, relative restrictions or conditions between the objects can also be taken into account when generating the environment model. These relations between the objects can be determined without much effort on the basis of the image, in particular on the basis of the determined position of the objects relative to the motor vehicle. As a relation between two objects can be determined, for example, which of the two objects is closer to the motor vehicle and which of the objects is further away from the motor vehicle. However, as a relation it can also be determined which of the objects is located further to the left or further to the right with respect to the motor vehicle and / or which of the objects is located on the carriageway of the motor vehicle and which of the objects is outside this carriageway. These relations can also be used as input parameters for generating the environment model according to the Optimization algorithm can be used to find the best possible environment model.
Bei der Erzeugung des Umgebungsmodells können auch Eigenschaften der Objekte berücksichtigt werden, welche anhand von zeitlich vorhergehenden Bildern ermittelt wurden. Mittels der Kamera kann eine zeitliche Sequenz von Bildern des Umgebungsbereiches dargestellt werden, und die Bildverarbeitungseinrichtung kann zu jedem Bild oder zu jedem n-ten Bild, mit n > 1, jeweils die zumindest eine Eigenschaft der Objekte ermitteln. Beim Erzeugen des Umgebungsmodells anhand des aktuellen Bilds können dann auch die Eigenschaften der Objekte aus vorherigen Bildern berücksichtigt werden. Auf diese Art und Weise kann eine zeitliche Filterung des Umgebungsmodells vorgenommen werden, was weiterhin die Genauigkeit bei der Erzeugung des aktuellen Umgebungsmodells und die Zuverlässigkeit der Fehlerdetektion verbessert.When generating the environment model, it is also possible to take into account properties of the objects which were determined on the basis of temporally preceding images. By means of the camera, a temporal sequence of images of the surrounding area can be displayed, and the image processing device can determine the at least one property of the objects for each image or every n-th image, with n> 1. When creating the environment model based on the current image, the properties of the objects from previous images can then also be taken into account. In this way, a temporal filtering of the environment model can be made, which further improves the accuracy in the generation of the current environment model and the reliability of the error detection.
Vorzugsweise wird durch die Bildverarbeitungseinrichtung beim Erzeugen des Umgebungsmodells angenommen, dass sich das Kraftfahrzeug und die Objekte auf einer gemeinsamen Ebene befinden. Diese Annahme wird auch als „flat world assumption” bezeichnet. Als Basis für das Umgebungsmodell wird somit eine ebene Fläche verwendet, und es wird angenommen, dass sich alle Objekte sowie das Kraftfahrzeug selbst auf dieser gemeinsamen ebenen Fläche befinden. Dies reduziert den Aufwand bei der Erzeugung des Umgebungsmodells. Das Kraftfahrzeug selbst kann dabei einen Nickwinkel (pitch angle) ungleich Null und/oder einen Rollwinkel (roll angle) gleich Null aufweisen.Preferably, it is assumed by the image processing device when generating the environment model that the motor vehicle and the objects are located on a common plane. This assumption is also called "flat world assumption". A flat surface is thus used as the basis for the environment model, and it is assumed that all objects and the motor vehicle itself are located on this common flat surface. This reduces the effort in creating the environment model. The motor vehicle itself may have a pitch angle not equal to zero and / or a roll angle equal to zero.
In einer Ausführungsform ist vorgesehen, dass die Eigenschaften der Objekte jeweils mit einem zugeordneten Gewichtungsfaktor gewichtet werden und das Umgebungsmodell aus den gewichteten Eigenschaften erzeugt wird. Jedem Objekt kann dabei ein anderer Gewichtungsfaktor zugeordnet werden. Somit können wichtige Objekte und/oder Objekte mit größeren Konfidenzwerten stärker als andere Objekte beim Erzeugen des Umgebungsmodells berücksichtigt werden. Bei der Detektion von Objekten im Bild berechnet der Detektionsalgorithmus üblicherweise auch sogenannte Konfidenzwerte, welche die Genauigkeit bzw. Wahrscheinlichkeit der Detektion angeben und somit ein Konfidenzmaß darstellen. Diese Konfidenzwerte können nun zur Bestimmung der Gewichtungsfaktoren herangezogen werden, wobei je größer der Konfidenzwert ist, desto größer kann der zugeordnete Gewichtungsfaktor sein. Ergänzend oder alternativ können zur Bestimmung der Gewichtungsfaktoren auch Informationen auf der Applikationsebene verwendet werden, insbesondere eine Entfernung des jeweiligen Objekts vom Kraftfahrzeug und/oder eine Zeitdauer, für welche das jeweilige Objekt seit seiner ersten Detektion durch das Fahrerassistenzsystem verfolgt wurde. Ein nahes Objekt, welches bereits für mehrere Minuten verfolgt wurde, kann einen größeren Gewichtungsfaktor aufweisen als ein entferntes Objekt oder aber ein gerade eben detektiertes Objekt. Das Umgebungsmodell kann somit noch präziser und bedarfsgerechter erzeugt werden.In one embodiment, it is provided that the properties of the objects are each weighted with an assigned weighting factor and the environment model is generated from the weighted properties. Each object can be assigned a different weighting factor. Thus, important objects and / or objects with larger confidence values can be considered more strongly than other objects when creating the environment model. When detecting objects in the image, the detection algorithm usually also calculates so-called confidence values, which indicate the accuracy or probability of the detection and thus represent a confidence measure. These confidence values can now be used to determine the weighting factors, the larger the confidence value, the larger the associated weighting factor can be. Additionally or alternatively, information on the application level can be used to determine the weighting factors, in particular a distance of the respective object from the motor vehicle and / or a time duration for which the respective object has been tracked since its first detection by the driver assistance system. A close object, which has already been tracked for several minutes, may have a larger weighting factor than a distant object or a newly detected object. The environment model can thus be generated even more precise and needs-based.
Die Erfindung betrifft außerdem ein Fahrerassistenzsystem für ein Kraftfahrzeug, mit zumindest einer Kamera zum Bereitstellen eines Bilds eines Umgebungsbereichs des Kraftfahrzeugs, und mit einer Bildverarbeitungseinrichtung, welche zum Durchführen eines erfindungsgemäßen Verfahrens ausgebildet ist.The invention also relates to a driver assistance system for a motor vehicle, having at least one camera for providing an image of an environmental region of the motor vehicle, and having an image processing device which is designed to carry out a method according to the invention.
Ein erfindungsgemäßes Kraftfahrzeug, insbesondere ein Personenkraftwagen, umfasst ein erfindungsgemäßes Fahrerassistenzsystem.An inventive motor vehicle, in particular a passenger car, comprises a driver assistance system according to the invention.
Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für das erfindungsgemäße Fahrerassistenzsystem sowie für das erfindungsgemäße Kraftfahrzeug.The preferred embodiments presented with reference to the method according to the invention and their advantages apply correspondingly to the driver assistance system according to the invention and to the motor vehicle according to the invention.
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüche, den Figuren und der Figurenbeschreibung. Alle vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder aber in Alleinstellung verwendbar.Further features of the invention will become apparent from the claims, the figures and the description of the figures. All the features and feature combinations mentioned above in the description as well as the features and feature combinations mentioned below in the description of the figures and / or shown alone in the figures can be used not only in the respectively indicated combination but also in other combinations or alone.
Die Erfindung wird nachfolgend anhand eines bevorzugten Ausführungsbeispiels sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.The invention will be explained in more detail below with reference to a preferred embodiment and with reference to the accompanying drawings.
Es zeigen:Show it:
Ein in
Das Fahrerassistenzsystem
Wie aus
Das Verfolgen des Zielfahrzeugs
Ein beispielhaftes Bild
Die Bildverarbeitungseinrichtung ermittelt zu jedem Objekt
- – eine reale Breite des jeweiligen Objekts
6 – diese reale Breite kann anhand der Breite des jeweiligen Begrenzungskastens9a bis 9e ermittelt werden; - – eine Position des jeweiligen Objekts
6 relativ zum Kraftfahrzeug1 – bei der Bestimmung der relativen Position kann zunächst die Entfernung des jeweiligen Objekts6 vom Kraftfahrzeug 1 in Abhängigkeit von der Breite des Objekts6 ermittelt werden; - – einen Typ des jeweiligen Objekts
6 , insbesondere auch einen Fahrzeugtyp der Zielfahrzeuge7a bis 7e – auch der Typ wird zur Ermittlung der genauen relativen Position des jeweiligen Objekts6 relativ zum Kraftfahrzeug1 herangezogen.
- - a real width of the respective object
6 - This real width can be determined by the width of therespective bounding box 9a to9e be determined; - - a position of the
respective object 6 relative to the motor vehicle1 - When determining the relative position, first the distance of therespective object 6 from themotor vehicle 1 depending on the width of theobject 6 be determined; - - a type of the
respective object 6 , In particular, a vehicle type of thetarget vehicles 7a to7e - Also the type is used to determine the exact relative position of eachobject 6 relative to themotor vehicle 1 used.
Alle Eigenschaften aller detektierten Objekte
Ein beispielhaftes Umgebungsmodell
Beim Erzeugen des Umgebungsmodells
Es ist auch möglich, beim Erzeugen des Umgebungsmodells
Ein Verfahren gemäß einer Ausführungsform der Erfindung wird nun Bezug nehmend auf
Diese Eigenschaften werden dann einer globalen Optimierung gemäß Schritt S2 zugeführt. Gemäß Schritt S21 werden die benötigten Eingangsparameter ausgewählt. Die Schätzung des Umgebungsmodells
Die ursprünglich ermittelten Eigenschaften der Objekte
Dieses Verfahren ist zusätzlich auch in
Wie aus
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- WO 2005/037619 A1 [0006] WO 2005/037619 A1 [0006]
- US 8412448 B2 [0007] US 8412448 B2 [0007]
- US 8121348 B2 [0008] US 8121348 B2 [0008]
Claims (12)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013021840.3A DE102013021840A1 (en) | 2013-12-21 | 2013-12-21 | Method for generating an environment model of a motor vehicle, driver assistance system and motor vehicle |
PCT/EP2014/072969 WO2015090691A1 (en) | 2013-12-21 | 2014-10-27 | Method for generating a model of the surroundings of a motor vehicle, driver assistance system and motor vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013021840.3A DE102013021840A1 (en) | 2013-12-21 | 2013-12-21 | Method for generating an environment model of a motor vehicle, driver assistance system and motor vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102013021840A1 true DE102013021840A1 (en) | 2015-06-25 |
Family
ID=51845395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102013021840.3A Withdrawn DE102013021840A1 (en) | 2013-12-21 | 2013-12-21 | Method for generating an environment model of a motor vehicle, driver assistance system and motor vehicle |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102013021840A1 (en) |
WO (1) | WO2015090691A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016007389A1 (en) | 2016-06-17 | 2016-12-15 | Daimler Ag | Method for detecting an environment of a vehicle |
DE102017207658A1 (en) * | 2017-05-08 | 2018-11-08 | Continental Automotive Gmbh | A method of identifying a vehicle with an accessory tag, and an apparatus for performing the method |
WO2018206481A1 (en) | 2017-05-11 | 2018-11-15 | Audi Ag | Method for generating training data for a machine-learning-based pattern recognition method for a motor vehicle, motor vehicle, method for operating a computing unit, and system |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019212602A1 (en) * | 2018-09-26 | 2020-03-26 | Robert Bosch Gmbh | Method for the quantitative characterization of at least one temporal sequence of an object attribute error of an object |
CN112001344A (en) * | 2020-08-31 | 2020-11-27 | 深圳市豪恩汽车电子装备股份有限公司 | Motor vehicle target detection device and method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19534230A1 (en) * | 1995-09-15 | 1997-03-20 | Daimler Benz Ag | Method for recognizing objects in time-varying images |
DE19926559A1 (en) * | 1999-06-11 | 2000-12-21 | Daimler Chrysler Ag | Method and device for detecting objects in the vicinity of a road vehicle up to a great distance |
DE10324895A1 (en) * | 2003-05-30 | 2004-12-16 | Robert Bosch Gmbh | Vehicle object location procedure for adaptive cruise control system car tracking, uses video mask matching in search field from radar sensor |
WO2005037619A1 (en) | 2003-09-24 | 2005-04-28 | Daimlerchrysler Ag | Emergency braking system |
DE102009033852A1 (en) * | 2009-07-16 | 2010-05-06 | Daimler Ag | Vehicle's i.e. passenger car, environment detecting method, involves setting two-dimensional surface as frame in image around objects, and automatically storing image section that is covered by frame in image as object sample |
US8121348B2 (en) | 2006-07-10 | 2012-02-21 | Toyota Jidosha Kabushiki Kaisha | Object detection apparatus, method and program |
US8412448B2 (en) | 2010-02-08 | 2013-04-02 | Hon Hai Precision Industry Co., Ltd. | Collision avoidance system and method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8564657B2 (en) * | 2009-05-29 | 2013-10-22 | Honda Research Institute Europe Gmbh | Object motion detection system based on combining 3D warping techniques and a proper object motion detection |
EP2562681B1 (en) * | 2011-08-25 | 2014-08-13 | Delphi Technologies, Inc. | Object tracking method for a camera-based driver assistance system |
-
2013
- 2013-12-21 DE DE102013021840.3A patent/DE102013021840A1/en not_active Withdrawn
-
2014
- 2014-10-27 WO PCT/EP2014/072969 patent/WO2015090691A1/en active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19534230A1 (en) * | 1995-09-15 | 1997-03-20 | Daimler Benz Ag | Method for recognizing objects in time-varying images |
DE19926559A1 (en) * | 1999-06-11 | 2000-12-21 | Daimler Chrysler Ag | Method and device for detecting objects in the vicinity of a road vehicle up to a great distance |
DE10324895A1 (en) * | 2003-05-30 | 2004-12-16 | Robert Bosch Gmbh | Vehicle object location procedure for adaptive cruise control system car tracking, uses video mask matching in search field from radar sensor |
WO2005037619A1 (en) | 2003-09-24 | 2005-04-28 | Daimlerchrysler Ag | Emergency braking system |
US8121348B2 (en) | 2006-07-10 | 2012-02-21 | Toyota Jidosha Kabushiki Kaisha | Object detection apparatus, method and program |
DE102009033852A1 (en) * | 2009-07-16 | 2010-05-06 | Daimler Ag | Vehicle's i.e. passenger car, environment detecting method, involves setting two-dimensional surface as frame in image around objects, and automatically storing image section that is covered by frame in image as object sample |
US8412448B2 (en) | 2010-02-08 | 2013-04-02 | Hon Hai Precision Industry Co., Ltd. | Collision avoidance system and method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016007389A1 (en) | 2016-06-17 | 2016-12-15 | Daimler Ag | Method for detecting an environment of a vehicle |
DE102017207658A1 (en) * | 2017-05-08 | 2018-11-08 | Continental Automotive Gmbh | A method of identifying a vehicle with an accessory tag, and an apparatus for performing the method |
WO2018206481A1 (en) | 2017-05-11 | 2018-11-15 | Audi Ag | Method for generating training data for a machine-learning-based pattern recognition method for a motor vehicle, motor vehicle, method for operating a computing unit, and system |
DE102017207958B4 (en) | 2017-05-11 | 2019-03-14 | Audi Ag | A method of generating training data for a machine learning based pattern recognition method for a motor vehicle, motor vehicle, method of operating a computing device, and system |
Also Published As
Publication number | Publication date |
---|---|
WO2015090691A1 (en) | 2015-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3038011B1 (en) | Method for determining the distance between an object and a motor vehicle by means of a monocular imaging device | |
EP3292510B1 (en) | Method and apparatus for detecting and assessing road reflections | |
DE102012216386A1 (en) | Method for operating a driver assistance system of a vehicle | |
WO2019174682A1 (en) | Method and device for detecting and evaluating roadway conditions and weather-related environmental influences | |
DE102011078615B4 (en) | OBJECT DETECTION DEVICE AND OBJECT DETECTION PROGRAM | |
WO2014127777A2 (en) | Method and device for determining a traffic lane state | |
DE102017218366A1 (en) | METHOD AND PEDESTRIAN DETECTION APPROACH IN A VEHICLE | |
EP3044727B1 (en) | Method and device for detecting objects from depth-resolved image data | |
DE102012001554A1 (en) | Method for operating a driver assistance device of a motor vehicle, driver assistance device and motor vehicle | |
DE102017208718A1 (en) | Method of detecting objects in an image of a camera | |
DE102015121353A1 (en) | Method for detecting a possible collision between a motor vehicle and an object taking into account a spatial uncertainty, control device, driver assistance system and motor vehicle | |
DE102014106506A1 (en) | Method for carrying out a diagnosis of a camera system of a motor vehicle, camera system and motor vehicle | |
DE102017117593A1 (en) | Vehicle driving assistance device | |
DE102013021840A1 (en) | Method for generating an environment model of a motor vehicle, driver assistance system and motor vehicle | |
DE102013022076A1 (en) | Method for determining a width of a target vehicle by means of a camera system of a motor vehicle, camera system and motor vehicle | |
DE102016218853A1 (en) | Detection and validation of objects from images of a camera | |
DE102010049216A1 (en) | Method for operating camera i.e. stereo camera, arranged at car, involves detecting distance of object via image evaluation, and calibrating camera when distance determined by sensing unit deviates from distance determined by evaluation | |
DE102008025773A1 (en) | Local and movement conditions estimating method for observed object i.e. vehicle, involves determining distance, detecting shifting of portion of object, and estimating parameter of local and movement condition | |
DE102016208774A1 (en) | Driver assistance device and driver assistance method | |
DE102013020947A1 (en) | Method for tracking a target object with brightness change, camera system and motor vehicle | |
EP3655299B1 (en) | Method and device for determining an optical flow on the basis of an image sequence captured by a camera of a vehicle | |
WO2020020654A1 (en) | Method for operating a driver assistance system having two detection devices | |
DE102016012345A1 (en) | Method for recognizing objects | |
DE102016220450A1 (en) | Apparatus, means of transport and method for estimating a collision probability between a means of locomotion and an environment object | |
EP3293971B1 (en) | Method for reproducing a section of an image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R120 | Application withdrawn or ip right abandoned |