DE102011122458A1 - Method for tracking an object, camera system and motor vehicle located in an environment of a motor vehicle - Google Patents
Method for tracking an object, camera system and motor vehicle located in an environment of a motor vehicle Download PDFInfo
- Publication number
- DE102011122458A1 DE102011122458A1 DE102011122458A DE102011122458A DE102011122458A1 DE 102011122458 A1 DE102011122458 A1 DE 102011122458A1 DE 102011122458 A DE102011122458 A DE 102011122458A DE 102011122458 A DE102011122458 A DE 102011122458A DE 102011122458 A1 DE102011122458 A1 DE 102011122458A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- points
- characteristic points
- motor vehicle
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Verfolgen eines in einer Umgebung (6) eines Kraftfahrzeugs (1) befindlichen Objektes (5) in einer Sequenz von nacheinander aufgenommenen Bildern (B0, BF) einer Kamera (4) des Kraftfahrzeugs (1), mit den Schritten: a) Identifizieren des Objektes (5) in einem ersten Bild (B0) der Sequenz von Bildern (B0, BF) und Bestimmen einer Vielzahl von charakteristischen Punkten (Pi 0) des Objektes (5) in dem ersten Bild (B0), b) Bestimmen einer Vielzahl von charakteristischen Punkten (Pi F) des Objektes (5) in einem zweiten Bild (BF) der Sequenz von Bildern (B0, BF) und c) Verfolgen des Objektes (5) durch Zuordnen der charakteristischen Punkte (Pi F) des Objektes (5) aus dem zweiten Bild (BF) zu jeweils korrespondierenden charakteristischen Punkten (Pi 0) des Objektes (5) aus dem ersten Bild (B0), gekennzeichnet durch d) Bestimmen eines ersten Wertes eines geometrischen Parameters (α, β) aus zumindest zwei charakteristischen Punkten (Pi F) des Objektes (5) aus dem zweiten Bild (BF), e) Bestimmen eines zweiten Wertes desselben geometrischen Parameters (α, β) aus korrespondierenden Punkten (Pi 0) des Objektes (5) aus dem ersten Bild (B0), und f) Überprüfen der Plausibilität der Zuordnung gemäß Schritt c) anhand eines Vergleiches des ersten Wertes mit dem zweiten Wert des geometrischen Parameters.The invention relates to a method for tracking an object (5) located in an environment (6) of a motor vehicle (1) in a sequence of successively recorded images (B0, BF) of a camera (4) of the motor vehicle (1), with the steps a) identifying the object (5) in a first image (B0) of the sequence of images (B0, BF) and determining a plurality of characteristic points (Pi 0) of the object (5) in the first image (B0), b ) Determining a plurality of characteristic points (Pi F) of the object (5) in a second image (BF) of the sequence of images (B0, BF) and c) tracking the object (5) by assigning the characteristic points (Pi F) of the object (5) from the second image (BF) to respective corresponding characteristic points (Pi 0) of the object (5) from the first image (B0), characterized by d) determining a first value of a geometric parameter (α, β) from at least two characteristic points (Pi F) of the object (5) from the second image (BF), e) determining a second value of the same geometric parameter (α, β) from corresponding points (Pi 0) of the object (5) from the first image (B0), and f) checking the plausibility of the assignment according to step c) based on a comparison of the first value with the second value of the geometric parameter.
Description
Die Erfindung betrifft ein Verfahren zum Verfolgen eines in einer Umgebung eines Kraftfahrzeugs befindlichen Objekts in einer Sequenz von nacheinander aufgenommenen Bildern einer Kamera des Kraftfahrzeugs. In einem ersten Bild der Sequenz von Bildern wird das Objekt identifiziert, und es wird eine Vielzahl von charakteristischen Punkten des Objekts in dem ersten Bild bestimmt. Es wird auch eine Vielzahl von charakteristischen Punkten des Objekts in einem zweiten Bild der Sequenz von Bildern bestimmt, welches zeitlich nach dem ersten Bild aufgenommen wird. Das Objekt wird durch Zuordnen der charakteristischen Punkte des Objekts aus dem zweiten Bild zu jeweils korrespondierenden charakteristischen Punkten des Objekts aus dem ersten Bild verfolgt. Die Erfindung betrifft außerdem ein Kamerasystem, welches zum Durchführen eines derartigen Verfahrens ausgebildet ist, wie auch ein Kraftfahrzeug mit einem solchen Kamerasystem.The invention relates to a method for tracking an object located in an environment of a motor vehicle in a sequence of successively recorded images of a camera of the motor vehicle. In a first image of the sequence of images, the object is identified and a plurality of characteristic points of the object in the first image are determined. Also, a plurality of characteristic points of the object are determined in a second image of the sequence of images taken temporally after the first image. The object is tracked by assigning the characteristic points of the object from the second image to respective corresponding characteristic points of the object from the first image. The invention also relates to a camera system, which is designed to carry out such a method, as well as a motor vehicle with such a camera system.
Das Interesse richtet sich vorliegend also auf die Verfolgung eines in der Umgebung eines Kraftfahrzeugs befindlichen Objekts mittels eines Kamerasystems des Kraftfahrzeugs. Das Objekt wird in der zeitlichen Sequenz von Bildern verfolgt, die mittels einer Kamera des Kamerasystems nacheinander aufgenommen werden. Es ist bereits Stand der Technik, im Rahmen der Verfolgung von Objekten die so genannte Zeit bis zur Kollision (time to collision; nachfolgend als TTC bezeichnet) einerseits sowie die relative Position des Objekts bezüglich des Kraftfahrzeugs andererseits anhand der erfassten Bilder zu ermitteln. Eine besondere Herausforderung besteht darin, die TTC anhand der zeitlichen Sequenz von Bildern besonders präzise zu ermitteln.In the present case, therefore, the interest is directed to the tracking of an object located in the vicinity of a motor vehicle by means of a camera system of the motor vehicle. The object is tracked in the temporal sequence of images, which are recorded successively by means of a camera of the camera system. It is already state of the art to determine the so-called time to collision (hereinafter referred to as TTC) on the one hand as well as the relative position of the object with respect to the motor vehicle on the other hand on the basis of the captured images as part of the tracking of objects. A particular challenge is to determine the TTC particularly precisely based on the temporal sequence of images.
Die Verfolgung des Objekts anhand von charakteristischen Punkten des Objekts in den Bildern ist ebenfalls bereits aus dem Stand der Technik bekannt. Dabei werden die charakteristischen Punkte des Objekts zunächst in einem ersten Bild aufgefunden. Dann werden die charakteristischen Punkte auch in den nachfolgenden Bildern bestimmt und können dann den korrespondierenden Punkten aus dem ersten Bild zugeordnet werden. Diese Zuordnung erfolgt in der Regel anhand eines Verfolgungsalgorithmus, mittels welchem eine Vielzahl von Punktepaaren aus den charakteristischen Punkten des ersten Bildes einerseits und den korrespondierenden Punkten des weiteren Bildes andererseits bereitgestellt werden.The tracking of the object on the basis of characteristic points of the object in the images is also already known from the prior art. The characteristic points of the object are first found in a first image. Then the characteristic points are also determined in the subsequent pictures and can then be assigned to the corresponding points from the first picture. As a rule, this assignment takes place on the basis of a tracking algorithm, by means of which a multiplicity of pairs of points from the characteristic points of the first image on the one hand and the corresponding points of the further image on the other hand are provided.
Ein derartiges Verfahren zum Verfolgen eines Objekts ist beispielsweise aus dem Dokument
Des Weiteren beschreibt die
Wie bereits ausgeführt, erfolgt die Verfolgung des Objekts in den aufgenommenen Bildern durch Zuordnen der charakteristischen Punkte des ersten Bildes zu korrespondierenden charakteristischen Punkten des zweiten, nachfolgenden Bildes. Hier wird ein Verfolgungsalgorithmus – also ein Zuordnungsalgorithmus – angewendet, wie etwa die Lucas-Kanade-Methode (Pyramidal Lucas Kanade). Es kann vorkommen, dass der Verfolgungsalgorithmus falsche Punktepaare liefert, also dass ein charakteristischer Punkt des zweiten Bildes zu einem falschen Punkt des ersten Bildes zugeordnet wird.As already stated, the tracking of the object in the recorded images is performed by assigning the characteristic points of the first image to corresponding characteristic points of the second, subsequent image. Here, a tracking algorithm - that is, an allocation algorithm - is used, such as the Lucas-Kanade method (Pyramidal Lucas Kanade). It may happen that the tracking algorithm provides false pairs of points, that is, that a characteristic point of the second image is assigned to a wrong point of the first image.
Es ist Aufgabe der Erfindung, eine Lösung aufzuzeigen, wie bei einem Verfahren der eingangs genannten Gattung die Präzision der Zuordnung der charakteristischen Punkte des Objekts aus dem zweiten Bild zu den korrespondierenden Punkten des Objekts aus dem ersten Bild im Vergleich zum Stand der Technik verbessert werden kann.It is an object of the invention to provide a solution, as in a method of the type mentioned, the precision of the assignment of the characteristic points of the object from the second image to the corresponding points of the object from the first image can be improved compared to the prior art ,
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch ein Kamerasystem, wie auch durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Patentansprüchen gelöst. Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen Patentansprüche, der Beschreibung und der Figuren.This object is achieved by a method by a camera system, as well as by a motor vehicle with the features according to the respective independent claims. Advantageous embodiments of the invention are the subject of the dependent claims, the description and the figures.
Ein erfindungsgemäßes Verfahren dient zum Verfolgen eines in einer Umgebung eines Kraftfahrzeugs befindlichen Objekts in einer Sequenz von nacheinander aufgenommenen Bildern. Die Bilder werden mittels einer Kamera des Kraftfahrzeugs erfasst. Bei dem Verfahren werden folgende Schritte durchgeführt:
- a) Es wird ein Objekt in einem ersten Bild der Sequenz von Bildern identifiziert, und eine Vielzahl von charakteristischen Punkten des Objekts in dem ersten Bild wird bestimmt.
- b) Auch in einem zweiten Bild der Sequenz von Bildern wird eine Vielzahl von charakteristischen Punkten des Objekts aufgefunden.
- c) Das Objekt wird durch Zuordnen der charakteristischen Punkte des Objekts aus dem zweiten Bild zu jeweils korrespondierenden charakteristischen Punkten des Objekts aus dem ersten Bild verfolgt.
- d) Es wird ein erster Wertes eines geometrischen Parameters aus zumindest zwei charakteristischen Punkten des Objekts aus dem zweiten Bild bestimmt.
- e) Es wird auch ein zweiter Wert desselben geometrischen Parameters aus korrespondierenden (zumindest zwei) Punkten des Objekts aus dem ersten Bild bestimmt.
- f) Dann wird die Plausibilität der Zuordnung gemäß Schritt c) anhand eines Vergleiches des ersten Wertes mit dem zweiten Wert des geometrischen Parameters überprüft.
- a) An object is identified in a first image of the sequence of images, and a plurality of characteristic points of the object in the first image are determined.
- b) Also in a second image of the sequence of images, a plurality of characteristic points of the object are found.
- c) The object is tracked by assigning the characteristic points of the object from the second image to respectively corresponding characteristic points of the object from the first image.
- d) A first value of a geometric parameter is determined from at least two characteristic points of the object from the second image.
- e) A second value of the same geometric parameter is also determined from corresponding (at least two) points of the object from the first image.
- f) Then the plausibility of the assignment according to step c) is checked on the basis of a comparison of the first value with the second value of the geometric parameter.
Erfindungsgemäß ist somit vorgesehen, dass die Zuordnung der charakteristischen Punkte des Objekts in dem zweiten Bild zu den korrespondierenden charakteristischen Punkten des Objekts in dem ersten Bild auf ihre Plausibilität hin überprüft wird. Dabei wird ein geometrischer Parameter anhand von zumindest zwei charakteristischen Punkten desselben Bildes bestimmt: ein erster Wert dieses Parameters wird aus zumindest zwei charakteristischen Punkten des Objekts im zweiten Bild ermittelt; und ein zweiter Wert desselben Parameters wird aus den korrespondierenden (zugeordneten) Punkten des Objekts im ersten Bild ermittelt. Der erste Wert des Parameters wird dann mit dem zweiten Wert des Parameters verglichen, wobei ein Ergebnis dieses Vergleichs der Plausibilitätsprüfung zugrunde gelegt wird. Somit wird überprüft, ob die charakteristischen Punkte des ersten Bildes zu den Punkten des zweiten Bildes mittels des Verfolgungsalgorithmus präzise zugeordnet worden sind. Ergibt diese Überprüfung, dass ein charakteristischer Punkt des zweiten Bildes zu einem falschen Punkt des ersten Bildes zugeordnet wurde, so kann dieser Punkt verworfen und die weitere Verarbeitung der Bilddaten – etwa die Berechnung der TTC – ohne diesen Punkt vorgenommen werden. Insgesamt wird somit die Präzision der Zuordnung der charakteristischen Punkte und der Verfolgung des Objekts im Vergleich zum Stand der Technik verbessert.According to the invention, it is thus provided that the assignment of the characteristic points of the object in the second image to the corresponding characteristic points of the object in the first image is checked for plausibility. In this case, a geometric parameter is determined on the basis of at least two characteristic points of the same image: a first value of this parameter is determined from at least two characteristic points of the object in the second image; and a second value of the same parameter is determined from the corresponding (assigned) points of the object in the first image. The first value of the parameter is then compared with the second value of the parameter, a result of this comparison being used as the basis for the plausibility check. Thus, it is checked whether the characteristic points of the first image have been precisely assigned to the points of the second image by means of the tracking algorithm. If this check reveals that a characteristic point of the second image has been assigned to a wrong point of the first image, then this point can be discarded and the further processing of the image data - such as the calculation of the TTC - be carried out without this point. Overall, therefore, the precision of the assignment of the characteristic points and the tracking of the object is improved compared to the prior art.
Die Kamera, mittels welcher die zeitliche Sequenz von Bildern erfasst wird, ist bevorzugt ein Bestandteil eines Kamerasystems des Kraftfahrzeugs. Das Kamerasystem ist insbesondere ein Kollisionswarnungssystem, mittels welchem der Fahrer vor einer Kollision mit dem Objekt gewarnt wird. Die Kamera kann beispielsweise in einem vorderen Bereich des Kraftfahrzeugs angeordnet sein, sodass sie den Umgebungsbereich vor dem Kraftfahrzeug erfasst. Ergänzend oder alternativ kann eine Kamera auch im Heckbereich des Kraftfahrzeugs angebracht sein und den Umgebungsbereich hinter dem Kraftfahrzeug erfassen. Die Erfindung ist dabei nicht auf eine bestimmte Anordnung oder Anzahl von Kameras oder aber auf ein bestimmtes Fahrerassistenzsystem beschränkt.The camera, by means of which the temporal sequence of images is detected, is preferably a component of a camera system of the motor vehicle. The camera system is in particular a collision warning system, by means of which the driver is warned of a collision with the object. The camera can be arranged, for example, in a front region of the motor vehicle so that it detects the surrounding area in front of the motor vehicle. Additionally or alternatively, a camera can also be mounted in the rear region of the motor vehicle and detect the surrounding area behind the motor vehicle. The invention is not limited to a specific arrangement or number of cameras or to a specific driver assistance system.
Die Verarbeitung der Daten – also auch die Verfolgung des Objekts in den Bildern – erfolgt insbesondere mittels einer elektronischen Recheneinrichtung des Kamerasystems. Eine solche Recheneinrichtung kann zum Beispiel als ein digitaler Signalprozessor ausgebildet sein.The processing of the data - including the tracking of the object in the images - takes place in particular by means of an electronic computing device of the camera system. Such a computing device can be designed, for example, as a digital signal processor.
Es erweist sich als besonders vorteilhaft, wenn im Rahmen des Vergleichs der beiden Werte des geometrischen Parameters gemäß Schritt f) überprüft wird, ob eine Differenz zwischen dem ersten und dem zweiten Wert des Parameters einen vorgegebenen Grenzwert überschreitet oder nicht. Ergibt diese Überprüfung, dass ein Betrag dieser Differenz zwischen dem ersten und dem zweiten Wert des geometrischen Parameters den vorgegebenen Grenzwert überschreitet, so kann zumindest einer der zumindest zwei, in Schritt d) definierten charakteristischen Punkte beim Verfolgen des Objekts gemäß Schritt c) unberücksichtigt bleiben. Dies bedeutet insbesondere, dass dieser zumindest eine Punkt zur Berechnung der TTC nicht mehr herangezogen wird. Es werden somit auch Folgefehler vermieden, nämlich bei der Zuordnung der charakteristischen Punkte aus weiteren Bildern. Die Genauigkeit der Verfolgung des Objekts in den Bildern ist somit besonders hoch.It proves to be particularly advantageous if it is checked in the context of the comparison of the two values of the geometric parameter according to step f), whether a difference between the first and the second value of the parameter exceeds a predetermined limit value or not. If this check reveals that an amount of this difference between the first and the second value of the geometric parameter exceeds the predetermined limit, then at least one of the at least two characteristic points defined in step d) can be disregarded when tracking the object according to step c). This means in particular that this at least one point is no longer used to calculate the TTC. Consequently, subsequent errors are also avoided, namely when assigning the characteristic points from further images. The accuracy of tracking the object in the images is thus particularly high.
Hinsichtlich des geometrischen Parameters können unterschiedlichste Ausführungsformen vorgesehen sein:
Als geometrischer Parameter kann beispielsweise eine Ausrichtung – also eine Orientierung – einer durch die zumindest zwei Punkte (definiert in Schritt d)) des jeweiligen Bildes verlaufenden Geraden bestimmt werden. Dies bedeutet, dass anhand der zumindest zwei charakteristischen Punkte im zweiten Bild eine Gerade bzw. Linie definiert wird, welche durch die beiden charakteristischen Punkte verläuft. Dann wird die Ausrichtung dieser Geraden bestimmt, also ein Winkel zwischen dieser Geraden und einer Referenzlinie, wie beispielsweise der Horizontalen. Entsprechend wird auch in dem ersten Bild eine Gerade durch die zwei korrespondierenden Punkte definiert, und es wird die Ausrichtung dieser Geraden bestimmt. Die beiden Ausrichtungswerte können dann miteinander verglichen werden, und es kann überprüft werden, ob die Differenz zwischen den Ausrichtungswerten einen Grenzwert überschreitet oder nicht. Diese Ausführungsform macht sich die Tatsache zunutze, dass bei einem starren Objekt – wie etwa einem anderen Fahrzeug – die durch zwei charakteristische Punkte verlaufende Gerade in allen Bildern der Sequenz im Wesentlichen die gleiche Ausrichtung besitzt. Diese Tatsache wird nun genutzt, um die Zuordnung der charakteristischen Punkte auf ihre Plausibilität hin zu überprüfen.With regard to the geometric parameter, a wide variety of embodiments can be provided:
By way of example, an orientation-that is, an orientation-of a straight line passing through the at least two points (defined in step d)) of the respective image can be determined as the geometric parameter. This means that based on the at least two characteristic points in the second image, a straight line is defined which runs through the two characteristic points. Then the alignment becomes determines this line, ie an angle between this line and a reference line, such as the horizontal. Accordingly, in the first image, a straight line is defined by the two corresponding points, and the orientation of this line is determined. The two alignment values can then be compared with each other, and it can be checked whether the difference between the alignment values exceeds a threshold or not. This embodiment takes advantage of the fact that in a rigid object - such as another vehicle - the straight line passing through two characteristic points has substantially the same orientation in all images of the sequence. This fact is now used to check the assignment of the characteristic points for plausibility.
Ergänzend oder alternativ kann als geometrischer Parameter ein Verhältnis eines Abstands zwischen einem ersten Punktepaar des jeweiligen Bildes zu einem Abstand zwischen einem zweiten Punktepaar desselben Bildes bestimmt werden. Bei dieser Ausführungsform werden also mindestens jeweils drei charakteristische Punkte benötigt, nämlich mindestens drei Punkte im zweiten Bild sowie mindestens drei Punkte im ersten Bild. Dann wird ein Verhältnis des Abstands zwischen einem ersten und einem zweiten Punkt des zweiten Bildes zu einem Abstand zwischen dem zweiten Punkt und einem dritten Punkt des zweiten Bildes ermittelt; und dieses Verhältnis wird dann mit einem zweiten Verhältnis verglichen. Das zweite Verhältnis ist ein Verhältnis des Abstands zwischen einem ersten und einem zweiten Punkt des ersten Bildes zu dem Abstand zwischen dem zweiten Punkt und einem dritten Punkt des ersten Bildes. Diese Ausführungsform wiederum beruht auf der Tatsache, dass das Verhältnis der Abstände zwischen unterschiedlichen Punkten desselben Bildes in allen Bildern der Sequenz grundsätzlich konstant bleibt und sich lediglich die Skalierung des Objektes verändert. Eine Abweichung in dem Verhältnis deutet also darauf hin, dass die Zuordnung der Punkte des zweiten Bildes zu den Punkten des ersten Bildes falsch war.Additionally or alternatively, as a geometric parameter, a ratio of a distance between a first pair of points of the respective image to a distance between a second pair of points of the same image can be determined. In this embodiment, at least three characteristic points each are needed, namely at least three points in the second image and at least three points in the first image. Then, a ratio of the distance between a first and a second point of the second image to a distance between the second point and a third point of the second image is determined; and this ratio is then compared to a second ratio. The second ratio is a ratio of the distance between a first and a second point of the first image to the distance between the second point and a third point of the first image. This embodiment in turn is based on the fact that the ratio of the distances between different points of the same image remains basically constant in all images of the sequence and only the scaling of the object changes. A deviation in the ratio thus indicates that the assignment of the points of the second image to the points of the first image was wrong.
Weiterhin ergänzend oder alternativ kann vorgesehen sein, dass als geometrischer Parameter ein Winkel bestimmt wird, welcher durch drei charakteristische Punkte des jeweiligen Bildes definiert wird. Ein erster Winkelwert ist also zwischen drei Punkten des zweiten Bildes definiert, während ein zweiter Winkelwert zwischen drei korrespondierenden Punkten des ersten Bildes definiert ist. Auch diese beiden Winkelwerte sollen gleich sein; dieser Winkel sollte in allen Bildern der Sequenz gleich sein. Diese Tatsache kann dazu genutzt werden, die Plausibilität der Zuordnung der charakteristischen Punkte zu überprüfen und die gegebenenfalls falsch zugewiesenen Punkte zu verwerfen.Additionally or alternatively, it may be provided that an angle is defined as the geometric parameter, which angle is defined by three characteristic points of the respective image. A first angle value is thus defined between three points of the second image, while a second angle value is defined between three corresponding points of the first image. These two angles should also be the same; this angle should be the same in all pictures of the sequence. This fact can be used to check the plausibility of the assignment of the characteristic points and to reject any incorrectly assigned points.
Wie bereits ausgeführt, erfolgt die Zuordnung der charakteristischen Punkte des Objekts aus dem zweiten Bild zu den korrespondierenden Punkten des Objekts aus dem ersten Bild mithilfe eines Verfolgungsalgorithmus. Dieser Verfolgungsalgorithmus, wie er in Schritt c) durchgeführt wird, stellt Punktepaare jeweils aus einem charakteristischen Punkt des Objekts im ersten Bild und dem korrespondierenden Punkt des Objekts im zweiten Bild bereit. In einer Ausführungsform wird zu zumindest einem solchen Punktepaar ein Korrelationswert bestimmt, und dieses zumindest eine Punktepaar wird anhand seines Korrelationswerts auf seine Plausibilität hin überprüft. Es handelt sich dabei um eine zusätzliche Plausibilitätsprüfung zu der in Schritt f) bereits definierten Plausibilitätsprüfung. Der Korrelationswert beschreibt dabei die Ähnlichkeit der beiden charakteristischen Punkte eines Punktepaares und stellt somit ein Maß dafür dar, wie zutreffend die Zuordnung dieser beiden charakteristischen Punkte war. Wird nun festgestellt, dass der Korrelationswert einen vorgegebenen Grenzwert unterschreitet, so kann dieses Punktepaar verworfen werden. Dies bedeutet, dass dieses Punktepaar für die weitere Verfolgung des Objekts nicht mehr verwendet wird. Somit werden ausschließlich plausible Punktepaare verwendet.As already stated, the assignment of the characteristic points of the object from the second image to the corresponding points of the object takes place from the first image by means of a tracking algorithm. This tracking algorithm, as performed in step c), provides pairs of points each from a characteristic point of the object in the first image and the corresponding point of the object in the second image. In one embodiment, a correlation value is determined for at least one such pair of points, and this at least one pair of points is checked for plausibility on the basis of its correlation value. This is an additional plausibility check for the plausibility check already defined in step f). The correlation value describes the similarity of the two characteristic points of a pair of points and thus represents a measure of how correct the assignment of these two characteristic points was. If it is now determined that the correlation value falls below a predetermined limit, then this pair of points can be discarded. This means that this pair of points is no longer used for further tracking of the object. Thus only plausible pairs of points are used.
Beim Identifizieren des Objekts gemäß Schritt a) wird bevorzugt eine Position des Objekts in dem ersten Bild ermittelt. Das Verfolgen des Objekts gemäß Schritt c) umfasst dann, dass eine Position des Objekts in dem zweiten Bild zumindest abhängig von der Position des Objekts in dem ersten Bild sowie anhand der charakteristischen Punkte bestimmt wird. Somit ist die Position des Objekts in jedem Bild bekannt, sodass auch die Information über die aktuelle relative Position des Objekts bezüglich des Kraftfahrzeugs vorliegt.When identifying the object according to step a), a position of the object in the first image is preferably determined. Tracking the object according to step c) then comprises determining a position of the object in the second image at least as a function of the position of the object in the first image and on the basis of the characteristic points. Thus, the position of the object in each image is known, so that the information about the current relative position of the object with respect to the motor vehicle is present.
Beim Detektieren der charakteristischen Punkte im Bild können unterschiedlichste Algorithmen angewendet werden. Beispielsweise können so genannte Harris-Punkte und/oder FAST-Merkmale und/oder SIFT-Merkmale und/oder SURF-Merkmale detektiert werden. Es handelt sich somit bei den charakteristischen Punkten um beliebige Merkmale des Objekts, die mittels einer Bildverarbeitung aufgefunden werden können, so dass die Erfindung nicht auf bestimmte Merkmale des Objektes beschränkt ist.When detecting the characteristic points in the image, a wide variety of algorithms can be used. For example, so-called Harris points and / or FAST features and / or SIFT features and / or SURF features can be detected. Thus, the characteristic points are arbitrary features of the object which can be found by means of image processing, so that the invention is not limited to specific features of the object.
Das Verfolgen des Objekts gemäß Schritt c) kann auch umfassen, dass eine Zeit bis zur Kollision (TTC) anhand der charakteristischen Punkte des zweiten und des ersten Bildes berechnet wird. Die TTC gibt dabei die Zeit an, welche verstreichen müsste, damit es zu einer Kollision zwischen dem Kraftfahrzeug und dem Objekt kommt. Somit wird auch die Gefahr einer Kollision mit dem Objekt quantitativ eingeschätzt, und es können entsprechende Sicherheitsmaßnahmen getroffen werden. Unterschreitet die TTC beispielsweise einen vorgegebenen Schwellwert, so kann ein Warnsignal ausgegeben werden, mit welchem der Fahrer über die mögliche Kollision mit dem Objekt informiert wird. Optional kann auch ein Bremssystem des Kraftfahrzeugs automatisch betätigt werden, sodass das Kraftfahrzeug automatisch abgebremst wird.Tracking the object according to step c) may also include calculating a time to collision (TTC) based on the characteristic points of the second and first images. The TTC gives the time, which would have to elapse, so that it comes to a collision between the motor vehicle and the object. Thus, the risk of collision with the object is estimated quantitatively, and appropriate security measures can be taken. If the TTC falls below a predetermined threshold value, for example, a warning signal can be output with which the driver is informed about the possible collision with the object. Optionally, a brake system of the motor vehicle can also be actuated automatically, so that the motor vehicle is automatically braked.
Die Position des Objekts in dem zweiten Bild und/oder die TTC kann/können in Abhängigkeit von einem Verhältnis eines Abstands zwischen zwei charakteristischen Punkten aus dem zweiten Bild zu einem Abstand zwischen zwei korrespondierenden (zugeordneten) Punkten aus dem ersten Bild bestimmt werden. Das Verhältnis der beiden Abstände liefert nämlich eine Information darüber, wie groß die relative Geschwindigkeit zwischen dem Kraftfahrzeug und dem Objekt ist. Ist der Abstand zwischen dem Kraftfahrzeug und dem Objekt bekannt, so kann auch die verbleibende Zeit bis zur Kollision bestimmt werden. Diese Ausführungsform sorgt also für eine höchst genaue Bestimmung der TTC und/oder der Position des Objekts im zweiten Bild.The position of the object in the second image and / or the TTC may be determined depending on a ratio of a distance between two characteristic points from the second image to a distance between two corresponding (assigned) points from the first image. Namely, the ratio of the two distances provides information about the relative velocity between the motor vehicle and the object. If the distance between the motor vehicle and the object is known, the time remaining until the collision can also be determined. This embodiment thus ensures a highly accurate determination of the TTC and / or the position of the object in the second image.
Ergänzend oder alternativ kann die Position des Objekts im zweiten Bild und/oder die TTC auch in Abhängigkeit von einem Verhältnis einer durch zumindest drei charakteristische Punkte des zweiten Bildes definierten Fläche zu einer Fläche bestimmt werden, die durch drei korrespondierende Punkte des ersten Bildes definiert ist. Auch das Verhältnis der beiden Flächen ergibt eine eindeutige Aussage über die relative Geschwindigkeit zwischen dem Kraftfahrzeug und dem Objekt, wenn zusätzlich der zeitliche Abstand zwischen den Zeitpunkten der Aufnahme der beiden Bilder bekannt ist. Auch diese Ausführungsform ermöglicht somit eine präzise Bestimmung der TTC, wie auch der Position des Objekts im zweiten Bild.Additionally or alternatively, the position of the object in the second image and / or the TTC can also be determined as a function of a ratio of an area defined by at least three characteristic points of the second image to an area defined by three corresponding points of the first image. Also, the ratio of the two surfaces gives a clear statement about the relative speed between the motor vehicle and the object, if in addition the time interval between the times of recording the two images is known. This embodiment also allows a precise determination of the TTC, as well as the position of the object in the second image.
Die Erfindung betrifft außerdem ein Kamerasystem für ein Kraftfahrzeug, wobei das Kamerasystem zum Durchführen eines erfindungsgemäßen Verfahrens ausgebildet ist.The invention also relates to a camera system for a motor vehicle, wherein the camera system is designed to carry out a method according to the invention.
Ein erfindungsgemäßes Kraftfahrzeug umfasst ein erfindungsgemäßes Kamerasystem.A motor vehicle according to the invention comprises a camera system according to the invention.
Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für das erfindungsgemäße Kamerasystem, wie auch für das erfindungsgemäße Kraftfahrzeug.The preferred embodiments presented with reference to the method according to the invention and their advantages apply correspondingly to the camera system according to the invention, as well as to the motor vehicle according to the invention.
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Alle vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder aber in Alleinstellung verwendbar.Further features of the invention will become apparent from the claims, the figures and the description of the figures. All the features and feature combinations mentioned above in the description as well as the features and feature combinations mentioned below in the description of the figures and / or shown alone in the figures can be used not only in the respectively indicated combination but also in other combinations or alone.
Die Erfindung wird nun anhand eines bevorzugten Ausführungsbeispiels, wie auch unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.The invention will now be explained with reference to a preferred embodiment, as well as with reference to the accompanying drawings.
Es zeigen:Show it:
Ein in
Das Kamerasystem
Im Ausführungsbeispiel ist die Kamera
Die Kamera
Das Kamerasystem
Ein Verfahren gemäß einer Ausführungsform der Erfindung wird nachfolgend unter Bezugnahme auf die
In
In
Mittels eines Detektionsalgorithmus wird zunächst in dem ersten Bild B0 das Objekt
Für die weitere Verarbeitung wird angenommen, dass das identifizierte Objekt
An dem Abbild des Objekts
Dann wird ein Verfolgungsalgorithmus gestartet, mit welchem das Objekt
Der Verfolgungsalgorithmus gibt außerdem zu jedem Punktepaar (Pi 0, Pi F) jeweils einen Korrelationswert aus, welcher die Ähnlichkeit der zugeordneten Punkte Pi 0 sowie Pi F beschreibt. Es kann hier eine erste Prüfung der Zuordnung auf ihre Plausibilität vorgenommen werden. Es kann nämlich überprüft werden, ob die Korrelationswerte einen vorgegebenen Grenzwert unterschreiten. Unterschreitet ein Korrelationswert den Grenzwert, so kann dieses Punktepaar verworfen werden, sodass dieses Punktepaar nicht mehr bei der Verfolgung des Objekts
Sind einerseits die Position des Objekts
Bezugnehmend auf
Ergänzend oder alternativ zu den Abständen di,k 0 und di,k F können auch Flächen a0 i,j,k sowie aF i,j,k bestimmt werden, die zwischen jeweils drei oder mehreren charakteristischen Punkten bestimmt werden. In
Dann können die Verhältnisse zwischen den Abständen di,k F im zweiten Bild BF und den korrespondierenden Abständen di,k 0 im ersten Bild B0 berechnet werden: Si,k = di,k F/di,k 0.Then the ratios between the distances d i, k F in the second image BF and the corresponding distances d i, k 0 in the first image B 0 can be calculated: S i, k = d i, k F / d i, k 0 .
Ergänzend oder alternativ zu den Verhältnissen der Abstände können auch die Verhältnisse zwischen den Flächen berechnet werden: Ri,k = ai,k F/ai,k 0.In addition or as an alternative to the ratios of the distances, the ratios between the areas can also be calculated: R i, k = a i, k F / a i, k 0 .
Anhand der Verhältnisse der Abstände Si,k und/oder anhand der Verhältnisse der Flächen Ri,k können dann die Position des Objekts
Die Plausibilitätsprüfung kann beispielsweise jeweils paarweise vorgenommen werden. Beispielsweise wird zunächst die Zuordnung der folgenden Punktepaare überprüft: (P1 0, P1 F) und (P2 0, P2 F). Zwischen den beiden Punkten P1 0 und P2 0 kann zunächst eine Gerade
Entsprechend wird dann die Orientierung einer Geraden
Es wird also überprüft, ob der Betrag der Differenz zwischen den beiden Winkeln β0 und βF einen vorgegebenen Grenzwert T überschreitet. Wird dies bejaht, so bedeutet dies, dass eine Fehlzuordnung zumindest eines der Punktepaare (P1 0, P1 F) und (P2 0, P2 F) vorliegt. Diese Punktepaare werden dann verworfen und nicht mehr bei der Verfolgung des Objekts
Eine solche fehlerhafte Zuordnung der Punkte P1 0 und P1 F ist beispielsweise in
Als ein geometrischer Parameter zur Überprüfung der Plausibilität der Zuordnung kann auch ein Winkel αi,j,k verwendet werden, welcher zwischen drei unterschiedlichen Punkten definiert wird. In
Wird also eine fehlerhafte Zuordnung der charakteristischen Punkte festgestellt, so wird das zugeordnete Verhältnis Si,k bzw. Ri,k verworfen. Der Rest der Verhältnisse Si,k bzw. Ri,k wird dann zur Berechnung der TTC sowie zur Berechnung der Position des Objekts
Dann können die Koordinatenwerte xF und yF des Objekts
Entsprechendes ergibt sich auch für die y-Koordinate des Objekts
(xF, yF, wF, hF).The same applies to the y-coordinate of the
(x F , y F , w F , h F ).
Oben wurde beschrieben, wie die Koordinatenwerte xF, yF aus zwei unterschiedlichen Punkten des Bildes BF berechnet werden können. Die Koordinatenwerte xF, yF können auch alternativ aus drei unterschiedlichen Punkten errechnet werden. Aus drei verfolgten Punkten P0 0, P0 1, P0 2 des Bildes B0 sowie aus einem definierten Punkt P0 C des detektierten Objektes – etwa der oberen linken Ecke des Objektes – können drei Koeffizienten a, b, c ermittelt werden. Hierzu kann folgendes Gleichungssystem definiert werden: It has been described above how the coordinate values x F , y F can be calculated from two different points of the image BF. The coordinate values x F , y F can also be calculated alternatively from three different points. From three tracked points P 0 0 , P 0 1 , P 0 2 of the image B0 and from a defined point P 0 C of the detected object - such as the upper left corner of the object - three coefficients a, b, c can be determined. For this purpose, the following equation system can be defined:
Man erhält somit drei Gleichungen mit drei unterschiedlichen Unbekannten a, b, c, so dass dieses Gleichungssystem kann ohne viel Aufwand gelöst und die Unbekannten a, b, c kalkuliert werden. In einigen Fällen kann es vorkommen, dass dieses Gleichungssystem nicht gelöst werden kann, nämlich abhängig von den Werten xi und yi. In solchen Fällen ist vorgesehen, dass die Dreierkombination der Punkte P0 0, P0 1, P0 2 verworfen und nicht mehr zur Berechnung der TTC und der Position herangezogen wird.Thus one obtains three equations with three different unknowns a, b, c, so that this equation system can be solved without much effort and the unknowns a, b, c are calculated. In some cases, this system of equations can not be solved, depending on the values x i and y i . In such cases it is provided that the combination of three points P 0 0 , P 0 1 , P 0 2 discarded and is no longer used to calculate the TTC and the position.
Sind die Koeffizienten a, b, c bekannt, so kann die Position PF C im neuen Bild BF ermittelt werden: If the coefficients a, b, c are known, the position P F C in the new image BF can be determined:
Diese Methode kann dann für alle möglichen Dreierkombinationen der Punkte angewendet werden, und es können unplausible Werte ausgefiltert werden. Dann wird ein Mittelwert der Position PC aus den verbleibenden Werten berechnet.This method can then be applied to all possible triple combinations of points, and implausible values can be filtered out. Then, an average value of the position P C is calculated from the remaining values.
Nun wird die TTC aus der nachfolgenden Formel berechnet: dt den zeitlichen Abstand zwischen den Zeitpunkten der Erfassung der beiden Bilder B0 und BF bezeichnet.Now the TTC is calculated from the formula below: dt denotes the time interval between the times of detection of the two images B0 and BF.
Üblicherweise wird jedoch eine Kamera verwendet, welche etwa 10 bis 30 Einzelbilder pro Sekunde liefert. Dies bedeutet, dass der mittlere zeitliche Abstand zwischen zwei benachbarten Einzelbildern zwischen 100 ms und 33 ms liegt. Auf der einen Seite kann der berechnete Wert der TTC unplausibel sein, wenn die TTC direkt zwischen zwei benachbarten Einzelbildern berechnet wird (bei F = 1). Tatsächlich wäre der zeitliche Abstand t(F)–t(0) zwischen zwei Einzelbildern relative klein (< 100 ms), so dass die Skalierungsänderung S01 und ein kleiner Fehler des Werts S01 und/oder des zeitlichen Abstands t(F)–t(0) zu einem grollen Fehler des berechneten Werts der TTC führen kann.Usually, however, a camera is used which provides about 10 to 30 frames per second. This means that the average time interval between two adjacent frames is between 100 ms and 33 ms. On the one hand, the calculated value of the TTC may be implausible if the TTC is calculated directly between two adjacent frames (at F = 1). In fact, the time interval t (F) -t (0) between two individual images would be relatively small (<100 ms), so that the scaling change S 01 and a small error of the value S 01 and / or the time interval t (F) - t (0) can lead to a large error in the calculated value of the TTC.
Wenn auf der anderen Seite die Skalierungsänderung S zwischen zwei Einzelbildern 0 und beispielsweise F = 5 berechnet wird (um einen größeren zeitlichen Abstand zu erhalten), dann kann ein Problem beim korrekten Verfolgen der charakteristischen Punkte auftreten, insbesondere wenn sich das Objekt schnell in den Bildern bewegt (die Position im Bild 0 wäre tatsächlich anders als im Bild
Um dieses Problem umzugehen, wird vorgeschlagen, die Skalierungsänderung S zwischen jedem Paar von benachbarten Bildern (0, 1), (1, 2), ..., (F – 1, F) zu kalkulieren, um sicherzustellen, dass die Position des Objektes zwischen zwei Bildern nicht zu stark verändert wird. Somit gelingt die Verfolgung in jedem Fall. Um also einen präzisen und rauscharmen Wert der TTC zu erhalten, werden die Werte S (bzw. R) über einer Vielzahl von Einzelbildern der Kamera
Schließlich kann dann die TTC berechnet werden: Finally, the TTC can be calculated:
Dabei bezeichnen t(F) den Zeitpunkt der Aufnahme des letzten Bildes F und t(0) den Zeitpunkt der Aufnahme des ersten Bildes B0. Dieser Ansatz verhindert auch kleines Rauschen der Werte der Skalierungsänderung S. Beispielsweise kann die Anzahl der verwendeten Einzelbilder gleich F ~ 5 sein, um sicherzustellen dass der zeitliche Abstand t(F)–t(0) groß genug ist (größer als 100 ms). Zum Beispiel kann der zeitliche Abstand t(F)–t(0) in einem Wertebereich von 100 ms bis 500 ms liegen und kann beispielsweise 300 ms betragen. Durch diesen Ansatz wird auch das Rauschen der Daten vermieden. Der endgültige Wert der TTC berechnet aus der oberen letzten Gleichung ist deutlich weniger verrauscht im Vergleich zu anderen Gleichungen.In this case, t (F) designates the time of the recording of the last image F and t (0) the time of the recording of the first image B0. This approach also prevents small noise in the values of scaling change S. For example, the number of frames used may be equal to F ~ 5 to ensure that the time interval t (F) -t (0) is large enough (greater than 100 ms). For example, the time interval t (F) -t (0) may be in a range of 100 ms to 500 ms, and may be, for example, 300 ms. This approach also avoids the noise of the data. The final value of the TTC calculated from the upper last equation is significantly less noisy compared to other equations.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 20060276964 A [0004] US 20060276964 A [0004]
- EP 2068269 A1 [0005] EP 2068269 A1 [0005]
Claims (13)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102011122458A DE102011122458A1 (en) | 2011-12-24 | 2011-12-24 | Method for tracking an object, camera system and motor vehicle located in an environment of a motor vehicle |
PCT/EP2012/076279 WO2013092795A1 (en) | 2011-12-24 | 2012-12-20 | Method for tracking an object present in a surrounding of a motor vehicle, camera system and motor vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102011122458A DE102011122458A1 (en) | 2011-12-24 | 2011-12-24 | Method for tracking an object, camera system and motor vehicle located in an environment of a motor vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102011122458A1 true DE102011122458A1 (en) | 2013-06-27 |
Family
ID=47553007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102011122458A Ceased DE102011122458A1 (en) | 2011-12-24 | 2011-12-24 | Method for tracking an object, camera system and motor vehicle located in an environment of a motor vehicle |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102011122458A1 (en) |
WO (1) | WO2013092795A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060276964A1 (en) | 2005-06-01 | 2006-12-07 | Nissan Motor Co., Ltd. | Behavior detector and behavior detection method for a vehicle |
DE102005041633B4 (en) * | 2005-08-26 | 2007-06-06 | Adam Stanski | Method and device for determining the position and similarity of object points in images |
EP2068269A2 (en) | 2004-04-08 | 2009-06-10 | Mobileye Technologies Limited | Collision warning system |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5644097B2 (en) * | 2009-12-08 | 2014-12-24 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
-
2011
- 2011-12-24 DE DE102011122458A patent/DE102011122458A1/en not_active Ceased
-
2012
- 2012-12-20 WO PCT/EP2012/076279 patent/WO2013092795A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2068269A2 (en) | 2004-04-08 | 2009-06-10 | Mobileye Technologies Limited | Collision warning system |
US20060276964A1 (en) | 2005-06-01 | 2006-12-07 | Nissan Motor Co., Ltd. | Behavior detector and behavior detection method for a vehicle |
DE102005041633B4 (en) * | 2005-08-26 | 2007-06-06 | Adam Stanski | Method and device for determining the position and similarity of object points in images |
Non-Patent Citations (1)
Title |
---|
Tucker, L.W.; Feynman, C.R.; Fritzsche, D.M.: "Object recognition using the Connection Machine," Computer Society Conference on Computer Vision and Pattern Recognition, 1988. Proceedings CVPR '88., pp.871-878, 5-9 Jun 1988; doi: 10.1109/CVPR.1988.196335 * |
Also Published As
Publication number | Publication date |
---|---|
WO2013092795A1 (en) | 2013-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102012216386A1 (en) | Method for operating a driver assistance system of a vehicle | |
DE102012001554A1 (en) | Method for operating a driver assistance device of a motor vehicle, driver assistance device and motor vehicle | |
DE102008001363A1 (en) | A method of detecting a parking area using a distance sensor | |
DE102014209137A1 (en) | Method and device for calibrating a camera system of a motor vehicle | |
WO2013178407A1 (en) | Method and device for processing stereoscopic data | |
DE102006060893A1 (en) | Device and method for determining a free space in front of a vehicle | |
DE102012223481A1 (en) | Apparatus and method for tracking the position of a peripheral vehicle | |
DE102013012930A1 (en) | Method for determining a current distance and / or a current speed of a target object from a reference point in a camera image, camera system and motor vehicle | |
DE102012023060A1 (en) | Method for detecting moving object in surrounding region of motor vehicle e.g.passenger car, involves determining vector values within the respective interval values, such movable object is detected based on histogram | |
DE102012024878A1 (en) | Method for detecting a target object on the basis of a camera image by clustering a plurality of adjacent image cells, camera device and motor vehicle | |
DE102017123228A1 (en) | Method for classifying an object point as static or dynamic, driver assistance system and motor vehicle | |
DE102013021840A1 (en) | Method for generating an environment model of a motor vehicle, driver assistance system and motor vehicle | |
EP3292023A1 (en) | Method for displaying an area surrounding a vehicle | |
DE102013012778A1 (en) | Method for detecting a moving pedestrian on the basis of characteristic features and optical flow vectors of an image, camera system and motor vehicle | |
WO2014009406A1 (en) | Method and device for calculating a change in an image scale of an object | |
DE102014201409B4 (en) | PARKING - TRACKING DEVICE AND PROCEDURES OF THE SAME | |
EP1944212B1 (en) | Method and device for recognising potentially dangerous objects for a vehicle | |
DE102008041761A1 (en) | Method for determining relative yaw angle between two vehicles i.e. cars, involves calculating orientation angle of wall surface relative to picture recording direction based on relative inclination between determined edges | |
EP3409541A1 (en) | Device for securing drive path | |
DE102014219428A1 (en) | Self-calibration of a stereo camera system in the car | |
DE102011122458A1 (en) | Method for tracking an object, camera system and motor vehicle located in an environment of a motor vehicle | |
EP2565580B1 (en) | Method for determining the dimensions of an object in the vicinity of a vehicle, corresponding device and vehicle with such a device | |
DE102010044112B4 (en) | Vanishing point determination device and vanishing point determination program | |
DE102009038906A1 (en) | Method for early recognition of collision of vehicle with collision object, involves capturing image sequences of environment of vehicle by camera | |
DE102012025463A1 (en) | Method for determining e.g. pitch angle change of passenger car to determine proper motion of car in six different degrees of freedom, involves determining parameter based on pair of image features and associated image features of images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed |
Effective date: 20140612 |
|
R002 | Refusal decision in examination/registration proceedings | ||
R003 | Refusal decision now final |