DE102016003060A1 - Method for high-precision marking of vehicles ahead in augmented reality - Google Patents

Method for high-precision marking of vehicles ahead in augmented reality Download PDF

Info

Publication number
DE102016003060A1
DE102016003060A1 DE102016003060.7A DE102016003060A DE102016003060A1 DE 102016003060 A1 DE102016003060 A1 DE 102016003060A1 DE 102016003060 A DE102016003060 A DE 102016003060A DE 102016003060 A1 DE102016003060 A1 DE 102016003060A1
Authority
DE
Germany
Prior art keywords
coordinate
vehicle
height profile
image processing
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016003060.7A
Other languages
German (de)
Inventor
Christian Gruenler
Marc Necker
Philipp Pitzer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102016003060.7A priority Critical patent/DE102016003060A1/en
Publication of DE102016003060A1 publication Critical patent/DE102016003060A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur hochpräzisen Markierung von vorausfahrenden Fahrzeugen bei Augmented Reality, bei welchem eine Koordinate (zBV, zAH) des vorausfahrenden Fahrzeuges durch eine Bildverarbeitung ermittelt wird und durch eine Abstandsmessung zum vorausfahrenden Fahrzeug in Verbindung mit einem Höhenprofil der befahrenen Straße berechnet wird. Bei einem Verfahren, mittels welchem eine hochgenaue z-Koordinate des vorausfahrenden Fahrzeuges bestimmt werden kann, werden die über die Abstandsmessung in Verbindung mit dem Höhenprofil ermittelte z-Koordinate (ZAH) des vorausfahrenden Fahrzeuges und die unabhängig davon mit der aus der Bildverarbeitung gewonnenen z-Koordinate (zBV) des vorausfahrenden Fahrzeuges zu einer genauen z-Koordinate (zFUS) mathematisch fusioniert.The invention relates to a method for high-precision marking of vehicles ahead in augmented reality, in which a coordinate (z BV , z AH ) of the preceding vehicle is determined by image processing and calculated by a distance measurement to the vehicle in front in conjunction with a height profile of the busy road becomes. In a method by means of which a highly accurate z-coordinate of the vehicle in front can be determined, the z-coordinate (Z AH ) of the preceding vehicle, which is determined by the distance measurement in conjunction with the height profile, and which, independently of this, are obtained with the image obtained from the image processing Coordinate (z BV ) of the preceding vehicle is mathematically fused to an exact z-coordinate (z FUS ).

Figure DE102016003060A1_0001
Figure DE102016003060A1_0001

Description

Die Erfindung betrifft ein Verfahren zur hochpräzisen Markierung von vorausfahrenden Fahrzeugen bei Augmented Reality, bei welchen eine Koordinate des vorausfahrenden Fahrzeuges durch eine Bildverarbeitung ermittelt wird und durch eine Abstandsmessung zum vorausfahrenden Fahrzeug in Verbindung mit einem Höhenprofil der befahrenen Straße berechnet wird.The invention relates to a method for high-precision marking of vehicles ahead in augmented reality, in which a coordinate of the preceding vehicle is determined by image processing and is calculated by a distance measurement to the vehicle in front in conjunction with a height profile of the traveled road.

In Fahrzeugen werden häufig Head-up-Displays verwendet, bei welchen eine erweiterte Realität (Augmented Reality) zur Anzeige verwendet wird. Unter dieser erweiterten Realität soll im Weiteren eine computergestützte Erweiterung der Realitätswahrnehmung verstanden werden, indem eine visuelle Darstellung in dem Anzeigebereich durch computergenerierte Zusatzinformationen mittels Einblendung und Verlagerung generiert wird. Zur zielgenauen Einblendung dieser Zusatzinformationen ist es notwendig, dass ein vorausfahrendes Fahrzeug hochpräzise in x- und in z-Richtung markiert werden muss, da genau bekannt sein muss, wo sich das vorausfahrende Fahrzeug relativ zum eigenen Fahrzeug befindet. Zusätzlich müssen Breite und Höhe des Fahrzeuges ermittelt werden.In vehicles, head-up displays are often used in which augmented reality is used for display. This expanded reality is to be understood below to mean a computer-aided expansion of the perception of reality, in that a visual representation in the display area is generated by additional information generated by means of overlaying and shifting. For the targeted insertion of this additional information, it is necessary that a preceding vehicle must be marked with high precision in the x and in the z direction, since it must be known exactly where the preceding vehicle is relative to the own vehicle. In addition, the width and height of the vehicle must be determined.

Aus der DE 10 2011 121 847 A1 ist ein Verfahren zur Straßenzustandswarnung auf einer Head-up-Anzeige für die volle Windschutzscheibe bekannt. Bei diesem Verfahren wird der Abstand zu einem vorausfahrenden Fahrzeug mit einem Kamerasystem über die Bilderkennung erfasst. Alternativ kann dieser Abstand auch durch Entfernungssensoren, einschließlich Radar- und Lidar-Sensoren, bestimmt werden. Die von der Bilderfassungseinheit und von den Entfernungssensoren erfassten Schätzwerte werden in einem Datenvereinigungsmodul überwacht. Mittels der Bilderfassung kann die x-Koordinate sehr präzise ermittelt werden, da es hier einen deutlichen Kontrast zwischen dem Fahrzeug und dem Hintergrund gibt. Die z-Koordinate lässt sich weniger präzise ermitteln, da es durch Schattenwirkung häufig nicht einfach ist, eine Unterkante des Fahrzeuges präzise zu erkennen. Zusätzlich wird die Ermittlung der z-Koordinate dadurch erschwert, dass die lackierten Fahrzeugteile nicht bis zum Boden durchgehen. Außerdem können nicht lackierte Stoßstangen die Erkennung erschweren. Deshalb wird zur präzisen Berechnung der z-Koordinate über die Abstandsmessung zusätzlich ein genauer Höhenverlauf der Straße vor dem Fahrzeug notwendig. Dieses Höhenprofil wird üblicherweise aus einer digitalen Karte entnommen, wobei die Genauigkeit der digitalen Karte je nach Kartenmaterial stark schwankt.From the DE 10 2011 121 847 A1 For example, there is known a road condition warning method on a full windshield head-up display. In this method, the distance to a vehicle in front is detected with a camera system via the image recognition. Alternatively, this distance can also be determined by distance sensors, including radar and lidar sensors. The estimated values acquired by the image acquisition unit and by the distance sensors are monitored in a data merging module. By means of image acquisition, the x-coordinate can be determined very precisely, since there is a clear contrast between the vehicle and the background. The z-coordinate can be determined less precisely, because it is often not easy to recognize a lower edge of the vehicle by shadow effect. In addition, the determination of the z-coordinate is made difficult by the fact that the painted vehicle parts do not go down to the ground. In addition, unpainted bumpers can make detection difficult. Therefore, for precise calculation of the z-coordinate on the distance measurement additionally an accurate height profile of the road in front of the vehicle is necessary. This height profile is usually taken from a digital map, the accuracy of the digital map varies widely depending on the map material.

Aufgabe der Erfindung ist es, ein Verfahren zur hochpräzisen Markierung von vorausfahrenden Fahrzeugen durch Augmented Reality anzugeben, bei welchem die z-Koordinate hochgenau bestimmt wird.The object of the invention is to provide a method for high-precision marking of vehicles ahead by augmented reality, in which the z-coordinate is determined with high accuracy.

Die Erfindung ergibt sich aus den Merkmalen der unabhängigen Ansprüche. Vorteilhafte Weiterbildungen und Ausgestaltungen sind Gegenstand der abhängigen Ansprüche. Weitere Merkmale, Anwendungsmöglichkeiten und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung, sowie der Erläuterung von Ausführungsbeispielen der Erfindung, die in den Figuren dargestellt sind.The invention results from the features of the independent claims. Advantageous developments and refinements are the subject of the dependent claims. Other features, applications and advantages of the invention will become apparent from the following description, as well as the explanation of embodiments of the invention, which are illustrated in the figures.

Die Aufgabe ist mit einem Verfahren dadurch gelost, dass die über die Abstandsmessung in Verbindung mit dem Höhenprofil ermittelte z-Koordinate des vorausfahrenden Fahrzeuges und die unabhängig davon mit der aus der Bildverarbeitung gewonnenen z-Koordinate des vorausfahrenden Fahrzeuges zu einer genauen z-Koordinate mathematisch fusioniert werden. Dies hat den Vorteil, dass die z-Koordinate durch die Kombination dieser bekannten Verfahren sehr viel präziser ermittelt wird. Hierdurch wird eine sehr viel hochwertigere Augmentierung vorausfahrender Fahrzeuge erreicht, wodurch sich ein sehr hochwertiger Gesamteindruck für den Fahrzeugnutzer ergibt.The object is achieved with a method in that the z coordinate of the preceding vehicle, which is determined via the distance measurement in conjunction with the height profile, and which independently of this are mathematically fused to the z coordinate of the preceding vehicle obtained from the image processing to form an exact z coordinate become. This has the advantage that the z-coordinate is determined much more precisely by the combination of these known methods. As a result, a much higher quality augmentation of vehicles ahead is achieved, resulting in a very high quality overall impression for the vehicle user.

Vorteilhafterweise wird zur Fusionierung der z-Koordinate des vorausfahrenden Fahrzeuges die aus der Bildverarbeitung gewonnene z-Koordinate verwendet, welche durch die aus der Abstandsmessung und dem Höhenprofil der befahrenen Straße gewonnenen z-Koordinate plausibilisiert wird. Dabei wird die z-Koordinate des vorausfahrenden Fahrzeuges, die aus der Bildverarbeitung gewonnen wurde, nur dann der Augmented Reality zugrunde gelegt, wenn keine unplausiblen Werte ermittelt wurden.Advantageously, the z-coordinate obtained from image processing is used for the fusing of the z-coordinate of the preceding vehicle, which is made plausible by the z-coordinate obtained from the distance measurement and the height profile of the road being traveled. In this case, the z-coordinate of the preceding vehicle, which was obtained from the image processing, is only based on augmented reality if no implausible values were determined.

In einer Ausgestaltung wird bei einer Abweichung der aus der Bildverarbeitung gewonnenen z-Koordinate von der aus der Abstandsmessung und dem Höhenprofil der befahrenen Straße berechneten z-Koordinate um einen vorgegebenen Betrag die aus der Abmessungsmessung und dem Höhenprofil der befahrenen Straße berechnete z-Koordinate der Augmented Reality zugrunde gelegt. Ist der Abstand zwischen den beiden z-Koordinaten zu groß, so ist davon auszugehen, dass mit der Bildverarbeitung ein unplausibler Wert ermittelt wurde, so dass auf die z-Koordinate, die durch die Abstandsmessung und das Höhenprofil berechnet wurde, zurückgegriffen wird.In one embodiment, if the z-coordinate obtained from the image processing deviates from the z-coordinate calculated from the distance measurement and the height profile of the traveled road by a predetermined amount, the z-coordinate of the augmented from the dimensional measurement and the height profile of the traveled road Reality. If the distance between the two z-coordinates is too large, then it can be assumed that an implausible value was determined with the image processing, so that the z-coordinate calculated by the distance measurement and the height profile is used.

In einer Ausführungsform weist der vorgegebene Betrag in positive Richtung der z-Koordinate einen ersten Wert auf, welcher sich von einem zweiten Wert in negative Richtung der z-Koordinate unterscheidet. Daher muss der Betrag, der sich um die z-Koordinate, die durch die Bilderfassung ermittelt wurde, aufspannt, nicht symmetrisch, sondern kann je nach Anwendungsfall differenziert ausgebildet sein.In one embodiment, the predetermined amount in the positive direction of the z-coordinate has a first value that differs from a second value in the negative direction of the z-coordinate. Therefore, the amount spanned by the z-coordinate determined by the image acquisition does not have to be symmetrical, but may be differentiated depending on the application.

In einer Variante wird die aus der Abstandsmessung und dem Höhenprofil der befahrenen Straße gewonnene z-Koordinate zur Augmented Reality verwendet und mit der aus der Bildverarbeitung gewonnenen z-Koordinate plausibilisiert. Die Auswahl, welche der z-Koordinaten für die Augmentierung und welche für die Plausibilisierung verwendet wird, wird je nach Anwendungsfall getroffen. In a variant, the z-coordinate obtained from the distance measurement and the height profile of the traveled road is used for augmented reality and plausibilized with the z-coordinate obtained from the image processing. The selection of which of the z-coordinates is used for the augmentation and which for the plausibility check is made according to the application.

In einer Weiterbildung wird bei der Bestimmung der z-Koordinate durch die Bildverarbeitung und bei der Berechnung der z-Koordinate aus der Abstandsmessung und dem Höhenprofil jeweils ein Zuverlässigkeitswert ermittelt, mittels welchem die unabhängig voneinander bestimmten z-Koordinaten bei der mathematischen Fusionierung gewichtet werden. Der Zuverlässigkeitswert wird dann bei der Fusionierung der beiden z-Koordinaten berücksichtigt, wodurch sich die Genauigkeit der fusionierten z-Koordinate erhöht.In a refinement, in the determination of the z coordinate by the image processing and in the calculation of the z coordinate from the distance measurement and the height profile, in each case a reliability value is determined by which the independently determined z coordinates are weighted in the mathematical fusion. The reliability value is then taken into account in the fusing of the two z-coordinates, which increases the accuracy of the fused z-coordinate.

Vorteilhafterweise variiert die mathematische Fusionierung der unabhängig voneinander ermittelten z-Koordinaten dynamisch in Abhängigkeit von fahrzeugeigenen und/oder fahrzeugexternen Parametern. Die sich daraus ergebende Kennlinie der z-Koordinate kann in Abhängigkeit von Straßenklassen (Autobahn oder Wohngebiet), von der Straßenbeschaffenheit, von den Lichtverhältnissen, von welchen insbesondere die Bildbearbeitung beeinflusst wird, der aktuellen Geschwindigkeit, dem Wetter und anderen Faktoren beeinflusst werden. In Abhängigkeit von diesen Parametern kann die fusionierte z-Koordinate als allgemeine Funktion in Abhängigkeit von der z-Koordinate, die durch die Bilderfassung bestimmt wurde und der z-Koordinate, die durch die Abstandsmessung und das Höhenprofil errechnet wurde, dynamisch angepasst werden.Advantageously, the mathematical fusion of the independently determined z-coordinates dynamically varies depending on the vehicle's own and / or vehicle-external parameters. The resulting characteristic of the z-coordinate can be influenced depending on road classes (highway or residential area), the road condition, the lighting conditions, in particular the image processing is influenced, the current speed, the weather and other factors. Depending on these parameters, the fused z-coordinate can be dynamically adjusted as a general function depending on the z-coordinate determined by the image acquisition and the z-coordinate calculated by the distance measurement and the elevation profile.

Um unplausible Werte auszusortieren, wird die fusionierte z-Koordinate für die Augmented Reality verwendet, wenn diese sich über einen zeitlichen Verlauf kontinuierlich ändert. Treten bei dieser fusionierten z-Koordinate Sprünge auf, so kann diese nicht für die Augmented Reality zugelassen werden.To sort out implausible values, the fused z-coordinate is used for the augmented reality if it changes continuously over a time course. If jumps occur at this fused z-coordinate, this can not be allowed for augmented reality.

Eine Weiterbildung der Erfindung betrifft ein Verfahren zur hochpräzisen Markierung von vorausfahrenden Fahrzeugen bei Augmented Reality, bei welchen eine Koordinate des vorausfahrenden Fahrzeuges durch eine Bildverarbeitung ermittelt wird und durch eine Abstandsmessung zum vorausfahrenden Fahrzeug in Verbindung mit einem Höhenprofil einer befahrenen Straße berechnet wird. Bei einem Verfahren, bei welchem eine besonders genaue z-Koordinate bei Augmented Reality ermittelt wird, wird die sich aus der Abstandsmessung und dem Höhenprofil ergebende z-Koordinate als bekannter Bestandteil der zu ermittelnden z-Koordinate der Bildverarbeitung verwendet. Die z-Koordinate, die normalerweise durch die Abstandsmessung und den Höhenunterschied errechnet würde, gilt in diesem Fall als a-priori-Wissen bei der Bildverarbeitung und ist somit impliziter Bestandteil der z-Koordinate, die durch die Bildverarbeitung bestimmt wird. Eine nachträgliche Fusionierung der beiden z-Koordinaten kann dabei unterbleiben, was den Rechenaufwand verringert.A further development of the invention relates to a method for high-precision marking of vehicles driving ahead in augmented reality, in which a coordinate of the vehicle ahead is determined by image processing and is calculated by a distance measurement to the vehicle in front in conjunction with a height profile of a busy road. In a method in which a particularly accurate z-coordinate in the case of augmented reality is determined, the z-coordinate resulting from the distance measurement and the height profile is used as a known component of the z-coordinate of the image processing to be determined. The z-coordinate, which would normally be calculated by the distance measurement and the height difference, in this case applies as a-priori knowledge in image processing and is therefore an implicit component of the z-coordinate, which is determined by the image processing. Subsequent merging of the two z-coordinates can be omitted, which reduces the computational effort.

Eine weitere Weiterbildung der Erfindung betrifft ein Fahrzeug, umfassend

  • – eine Kamera zur Aufnahme eines vorausfahrenden Fahrzeuges und eine Bildauswerteeinheit zur Ermittlung einer z-Koordinate des vorausfahrenden Fahrzeuges,
  • – einen Abstandssensor zur Messung eines Abstandes des vorausfahrenden Fahrzeuges und eine, ein Höhenprofil der zu befahrenden Straße enthaltenden Abstandsberechnungseinheit zur Berechnung der z-Koordinate des Fahrzeuges aus dem Abstand und dem Höhenprofil,
  • – eine mit der Bildauswerteeinheit und der Abstandsberechnungseinheit verbundene Fusionsrecheneinheit zur Bestimmung einer fusionierten z-Koordinate aus den unabhängig voneinander berechneten z-Koordinaten der Bildauswerteeinheit und der Abstandsberechnungseinheit, wobei
  • – die Fusionsrecheneinheit mit einer Recheneinheit eines Head-up-Displays zur Verarbeitung der fusionierten z-Koordinate bei der Augmented Reality gekoppelt ist.
A further development of the invention relates to a vehicle comprising
  • A camera for recording a vehicle ahead and an image evaluation unit for determining a z coordinate of the vehicle in front,
  • A distance sensor for measuring a distance of the vehicle in front and a distance calculation unit containing a height profile of the road to be traveled for calculating the z-coordinate of the vehicle from the distance and the height profile,
  • A fusion calculation unit connected to the image evaluation unit and the distance calculation unit for determining a fused z coordinate from the independently calculated z coordinates of the image evaluation unit and the distance calculation unit, wherein
  • - The fusion computing unit is coupled to a computing unit of a head-up display for processing the fused z-coordinate in augmented reality.

Weitere Vorteile, Merkmale und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung, in der – gegebenenfalls unter Bezug auf die Zeichnung – zumindest ein Ausführungsbeispiel im Einzelnen beschrieben ist. Beschriebene und/oder bildlich dargestellte Merkmale können für sich oder in beliebiger, sinnvoller Kombination den Gegenstand der Erfindung bilden, gegebenenfalls auch unabhängig von den Ansprüchen, und können insbesondere zusätzlich auch Gegenstand einer oder mehrerer separater Anmeldung/en sein. Gleiche, ähnliche und/oder funktionsgleiche Teile sind mit gleichen Bezugszeichen versehen.Further advantages, features and details will become apparent from the following description in which - where appropriate, with reference to the drawings - at least one embodiment is described in detail. Described and / or illustrated features may form the subject of the invention itself or in any meaningful combination, optionally also independent of the claims, and in particular may also be the subject of one or more separate application / s. The same, similar and / or functionally identical parts are provided with the same reference numerals.

Es zeigen:Show it:

1 ein Ausführungsbeispiel des erfindungsgemäßen Fahrzeuges, 1 an embodiment of the vehicle according to the invention,

2 ein Ausführungsbeispiel zur Markierung eines vorausfahrenden Fahrzeuges bei Augmented Reality, 2 an embodiment for marking a vehicle ahead in augmented reality,

3 ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens, 3 an embodiment of the method according to the invention,

4 Beispielkennlinien für die fusionierte z-Koordinate des vorausfahrenden Fahrzeuges, 4 Example characteristics for the fused z-coordinate of the preceding vehicle,

5 ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens. 5 a further embodiment of the method according to the invention.

In 1 ist ein Fahrzeug 1 dargestellt, welches ein Head-up-Display 3 umfasst, das in der Windschutzscheibe 5 in einem Anzeigebereich 7 ein virtuelles Objekt so in das Blickfeld des Fahrers einspiegelt, dass sich für den Fahrer der Eindruck ergibt, als wäre das virtuelle Objekt tatsächlich Teil der Realität. Ein solches Head-up-Display 3 wird als Augmented Reality-Head-up-Display bezeichnet. Dabei sind kontaktanaloge Inhalte virtueller Objekte dem Fahrer in seine aktuelle Sicht so eingeblendet, dass dieser das Gefühl hat als seien sie fester Bestandteil der Umwelt.In 1 is a vehicle 1 shown, which is a head-up display 3 that includes in the windshield 5 in a display area 7 visualizing a virtual object in the driver's field of vision, giving the driver the impression that the virtual object is actually part of reality. Such a head-up display 3 is called augmented reality head-up display. Contact-analogous contents of virtual objects are shown to the driver in his current view in such a way that he has the feeling that they are an integral part of the environment.

Das Head-up-Display 3 umfasst einen Mikrocontroller 9, welcher mit einer Bilderfassungseinheit 11 verbunden ist, die eine Kamera 13 zur Bilderfassung und eine Bildauswerteeinheit 15 zur Bestimmung von x- und z-Koordinaten eines vorausfahrenden Fahrzeuges aus dem erfassten Bild aufweist. Des Weiteren ist der Mikrocontroller 9 mit einer Abstandserfassungseinheit 17 verbunden, welche einen Abstandssensor 19 aufweist, der wiederum mit einer Abstandsberechnungseinheit 21 verbunden ist. Zwischen der Bilderfassungseinheit 11 und der Abstandserfassungseinheit 17 sowie dem Mikrocontroller 9 ist eine Fusionsrecheneinheit 23 angeordnet, wobei die Bildauswerteeinheit 15 und die Abstandsberechnungseinheit 21 direkt mit dieser Fusionsrecheneinheit 23 verbunden sind.The head-up display 3 includes a microcontroller 9 , which with an image acquisition unit 11 connected to a camera 13 for image acquisition and an image evaluation unit 15 for determining x and z coordinates of a preceding vehicle from the captured image. Furthermore, the microcontroller 9 with a distance detection unit 17 connected, which is a distance sensor 19 which, in turn, includes a distance calculation unit 21 connected is. Between the image capture unit 11 and the distance detection unit 17 as well as the microcontroller 9 is a fusion calculator 23 arranged, the image evaluation unit 15 and the distance calculation unit 21 directly with this merger unit 23 are connected.

Zur hochpräzisen Markierung ist die Erfassung des vorausfahrenden Fahrzeuges in x-Richtung sowie in z-Richtung notwendig. Dies erfolgt mithilfe der Kamera 13 über die Bildauswerteeinheit 15 und mithilfe eines Abstandssensors 19, beispielsweise eines Radar- oder Lidar-Sensors. Gleichzeitig werden die Koordinaten des vorausfahrenden Fahrzeuges durch die Abstandsberechnungseinheit 21 aus den von dem Abstandssensor gelieferten Daten bestimmt, in welcher ein genaues Höhenprofil der Straße abgelegt ist, auf welchem das vorausfahrende Fahrzeug sich bewegt. Die Bilderfassungseinheit 11 und die Abstandserfassungseinheit 17 ermitteln die z-Koordinate des vorausfahrenden Fahrzeuges unabhängig voneinander.For high-precision marking, the detection of the vehicle ahead in the x-direction and in the z-direction is necessary. This is done using the camera 13 via the image evaluation unit 15 and using a distance sensor 19 For example, a radar or lidar sensor. At the same time, the coordinates of the preceding vehicle are determined by the distance calculation unit 21 determined from the data supplied by the distance sensor, in which an accurate height profile of the road is stored, on which the preceding vehicle is moving. The image capture unit 11 and the distance detection unit 17 determine the z-coordinate of the vehicle in front independently of each other.

Wie in 2 dargestellt, wird die z-Koordinate anhand der Fahrzeugunterkante ermittelt. Aus dem Abstand und dem Höhenprofil der Straße kann also die z-Koordinate in einem Videobild zurückgerechnet werden, sofern die Parameter des Videobildes wie Brennweite, optische Achse und ähnliches bekannt sind.As in 2 shown, the z-coordinate is determined based on the vehicle lower edge. From the distance and the height profile of the road so the z-coordinate can be calculated back in a video image, if the parameters of the video image such as focal length, optical axis and the like are known.

Um die Ungenauigkeiten der beiden Verfahren zur Ermittlung der z-Koordinate zu eliminieren, wird ein erfindungsgemäßes Verfahren angewendet, wie es in 3 beschrieben ist. Dabei wird der Abstand, der von dem Abstandssensor 19 erfasst wurde (Block 100) und das aus einer digitalen Karte entnommene Höhenprofil (Block 110) zur Ermittlung der z-Koordinate aus Abstand und Höhenprofil in der Abstandsberechnungseinheit 21 an den Block 120 weitergegeben. Parallel dazu wird das von der Kamera 13 erzeugte Videobild (Block 130) an dem Block 140 zur Ermittlung der z-Koordinate aus der Bildverarbeitung in der Bildauswerteeinheit 15 weitergegeben. Sowohl die z-Koordinate zBV der Bildverarbeitung als auch die z-Koordinate zAH aus Abstand und Höhenprofil wird an die Fusionsrecheneinheit 23 im Block 150 weitergegeben und in dieser mathematisch mittels geometrischer Funktionen miteinander verknüpft. Als Ausgangsfunktion der Fusionsrecheneinheit 23 wird die fusionierte z-Koordinate zFUS der Augmented Reality zugrunde gelegt.In order to eliminate the inaccuracies of the two methods for determining the z-coordinate, a method according to the invention is used, as described in US Pat 3 is described. In this case, the distance from the distance sensor 19 was detected (block 100 ) and the height profile taken from a digital map (block 110 ) for determining the z-coordinate of distance and height profile in the distance calculation unit 21 to the block 120 passed. At the same time, this is done by the camera 13 generated video image (block 130 ) on the block 140 for determining the z-coordinate from the image processing in the image evaluation unit 15 passed. Both the z-coordinate z BV of the image processing and the z-coordinate z AH from distance and height profile are sent to the fusion computing unit 23 in the block 150 passed on and mathematically linked together by means of geometric functions. As the starting function of the fusion computing unit 23 is based on the fused z-coordinate z FUS of augmented reality.

In 4 sind zwei Kennlinien dargestellt, bei welchen die fusionierte z-Koordinate zFUS über der aus der Bildverarbeitung ermittelten z-Koordinate zBV gezeigt ist. Die aus dem Abstand und dem Höhenprofil bestimmte z-Koordinate zAH dient zur Plausibilisierung der aus der Bildverarbeitung gewonnenen z-Koordinate zBV . Dabei wird ein vorgegebener Bereich zAH+Δmax; zAH-Δmax aufgespannt. Die durch die Bildverarbeitung ermittelte z-Koordinate zBV wird mit dem Bereich zAH-Δmax; zAH+Δmax verglichen. Weicht die z-Koordinate zBV um mehr als einen vorgegebenen Wert Δmax von zAH ab, wird anstelle des Wertes der z-Koordinate zBV der Wert von der z-Koordinate zAH bei der Augmente Reality verwendet. Fällt die ermittelte z-Koordinate zBV aber in diesen Bereich, so wird ausschließlich die aus der Bildverarbeitung ermittelte z-Koordinate zBV zur Augmented Reality verwendet. Bei diesem Vorgehen ergibt sich die in 4 dargestellt Kennlinie A. In einer weiteren Ausprägung, welche in der Kennlinie B dargestellt ist, erfolgt die Fusion der z-Koordinaten zBV und zAH in dem Maße, dass der Einfluss von zAH größer wird, umso größer die Abweichung zu der z-Koordinate zBV ist.In 4 two characteristic curves are shown in which the fused z-coordinate z FUS is shown above the z-coordinate z BV determined from the image processing. The z-coordinate z AH determined from the distance and the height profile serves to check the plausibility of the z-coordinate z BV obtained from image processing . In this case, a predetermined range z AH + Δmax ; z AH-Δmax spanned . The determined by the image processing z-coordinate z BV is with the range for AH-.delta..sub.max; z AH + Δmax compared. If the z coordinate z BV deviates by more than a predetermined value Δ max from z AH , the value of the z coordinate z AH is used instead of the value of the z coordinate z BV in the augmented reality. If, however, the determined z coordinate z BV falls within this range, only the z coordinate z BV for augmented reality determined from the image processing is used. This procedure results in the 4 illustrated characteristic curve A. In a further expression, which is shown in the characteristic B, the fusion of the z-coordinates z BV and z AH takes place to the extent that the influence of z AH is greater, the greater the deviation from the z Coordinate z BV is.

Um die Genauigkeit der fusionierten z-Koordinate zFUS noch weiter zu erhöhen, wird bei der getrennten Bestimmung der z-Koordinaten zBV und zAH zusätzlich jeweils noch ein Zuverlässigkeitswert für die jeweilige aktuelle Messung ermittelt. Dieser Zuverlässigkeitswert wird dann bei der Bildung der fusionierten z-Koordinate zFUS verwendet, um die beiden Einzelmessungen der z-Koordinate zBV und zAH entsprechend zu wichten.In order to further increase the accuracy of the fused z-coordinate z FUS , in the case of the separate determination of the z coordinates z BV and z AH , in each case additionally a reliability value is determined for the respective current measurement. This reliability value is then used in the formation of the fused z-coordinate z FUS to weight the two individual measurements of the z coordinate z BV and z AH, respectively.

Die Kennlinie kann in einem weiteren zusätzlichen Schritt dynamisch variiert werden. Beispielsweise kann die Kennlinie abhängig sein von der Straßenklasse (Autobahn oder Wohngebiet), von der Straßenbeschaffenheit, den Lichtverhältnissen, der aktuellen Geschwindigkeit des vorausfahrenden Fahrzeuges oder dem Wetter. Dabei kann der Berechnung der fusionierten z-Koordinate zFUS eine ganz allgemeine Funktion in Abhängigkeit der z-Koordinaten zBV und zAH zugrunde gelegt werden, welche gegebenenfalls dynamisch an verschiedene Fahrzeugparameter, Fahrzeugzustände, Geländeeigenschaften aus der digitalen Karte, Straßenklassen oder Ländern angepasst wird. Bei all diesen Möglichkeiten muss aber davon ausgegangen werden, dass die fusionierte z-Koordinate zFUS keine Sprünge machen darf, sondern sich kontinuierlich ändern muss. Dabei wird der zeitliche Verlauf der fusionierte z-Koordinate zFUS über zurückliegende Messungen betrachtet, um unplausible Werte zu erkennen, die entsprechend in der Berechnung geringer gewichtet werden.The characteristic curve can be dynamically varied in a further additional step. For example, the characteristic may be dependent on the road class (highway or residential area), the road condition, the lighting conditions, the current speed of the vehicle ahead or the weather. It can the Calculation of the fused z-coordinate z FUS is based on a very general function as a function of the z-coordinates z BV and z AH , which may be adapted dynamically to different vehicle parameters, vehicle states, terrain characteristics from the digital map, road classes or countries. With all these possibilities, however, it must be assumed that the fused z-coordinate z FUS must not make leaps, but must change continuously. In this case, the time course of the fused z-coordinate z FUS over past measurements is considered in order to detect implausible values, which are accordingly weighted less in the calculation.

In 5 ist ein zweites Ausführungsbeispiel des erfindungsgemäßen Verfahrens dargestellt, bei welchem das Videobild (Block 130), das aktuell vermessen wird, an die Bildauswerteeinheit 11 zur Ermittlung der z-Koordinate zBV aus der Bildverarbeitung weitergegeben wird (Block 140). Dabei wird der Wert der z-Koordinate zAH aus Höhenprofil und Abstand als a-priori-Wissen bei der Bildverarbeitung zur Ermittlung der z-Koordinate zBV verwendet. Somit bildet die durch die Bildverarbeitung ermittelte z-Koordinate zBV immer die fusionierte z-Koordinate zFUS.In 5 shows a second embodiment of the method according to the invention, in which the video image (block 130 ), which is currently measured, to the image evaluation unit 11 to determine the z-coordinate z BV from the image processing is passed (block 140 ). In this case, the value of the z coordinate z AH from height profile and distance is used as a priori knowledge in the image processing for determining the z coordinate z BV . Thus, the z-coordinate z BV determined by the image processing always forms the fused z-coordinate z FUS .

Obwohl die Erfindung im Detail durch bevorzugte Ausführungsbeispiele näher illustriert und erläutert wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen. Es ist daher klar, dass eine Vielzahl von Variationsmöglichkeiten existiert. Es ist ebenfalls klar, dass beispielhaft genannte Ausführungsformen wirklich nur Beispiele darstellen, die nicht in irgendeiner Weise als Begrenzung etwa des Schutzbereichs, der Anwendungsmöglichkeiten oder der Konfiguration der Erfindung aufzufassen sind. Vielmehr versetzen die vorhergehende Beschreibung und die Figurenbeschreibung den Fachmann in die Lage, die beispielhaften Ausführungsformen konkret umzusetzen, wobei der Fachmann in Kenntnis des offenbarten Erfindungsgedankens vielfältige Änderungen beispielsweise hinsichtlich der Funktion oder der Anordnung einzelner, in einer beispielhaften Ausführungsform genannter Elemente vornehmen kann, ohne den Schutzbereich zu verlassen, der durch die Ansprüche und deren rechtliche Entsprechungen, wie etwa weitergehenden Erläuterungen in der Beschreibung, definiert wird.Although the invention has been further illustrated and explained in detail by way of preferred embodiments, the invention is not limited by the disclosed examples, and other variations can be derived therefrom by those skilled in the art without departing from the scope of the invention. It is therefore clear that a multitude of possible variations exists. It is also to be understood that exemplified embodiments are really only examples that are not to be construed in any way as limiting the scope, applicability, or configuration of the invention. Rather, the foregoing description and description of the figures enable one skilled in the art to practice the exemplary embodiments, and those of skill in the knowledge of the disclosed inventive concept may make various changes, for example as to the function or arrangement of individual elements recited in an exemplary embodiment, without Protection area defined by the claims and their legal equivalents, such as further explanations in the description.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Fahrzeugvehicle
33
Head-up-DisplayHead-Up Display
55
WindschutzscheibeWindshield
77
Anzeigebereichdisplay area
99
Mikrocontrollermicrocontroller
1111
BilderfassungseinheitImage capture unit
1313
Kameracamera
1515
Bildauswerteeinheitimage evaluation
1717
AbstandserfassungseinheitDistance detection unit
1919
Abstandssensordistance sensor
2121
AbstandsberechnungseinheitDistance calculating unit
2323
FusionsrecheneinheitMerger processing unit

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102011121847 A1 [0003] DE 102011121847 A1 [0003]

Claims (10)

Verfahren zur hochpräzisen Markierung von vorausfahrenden Fahrzeugen bei Augmented Reality, bei welchem eine Koordinate (zBV, zAH) des vorausfahrenden Fahrzeuges durch eine Bildverarbeitung ermittelt wird und durch eine Abstandsmessung zum vorausfahrenden Fahrzeug in Verbindung mit einem Höhenprofil der befahrenen Straße berechnet wird, dadurch gekennzeichnet, dass die über die Abstandsmessung in Verbindung mit dem Höhenprofil ermittelte z-Koordinate (zAH) des vorausfahrenden Fahrzeuges und die unabhängig davon mit der aus der Bildverarbeitung gewonnenen z-Koordinate (zBV) des vorausfahrenden Fahrzeuges zu einer genauen z-Koordinate (zFUS) mathematisch fusioniert werden.Method for high-precision marking of vehicles ahead in augmented reality, in which a coordinate (z BV , z AH ) of the preceding vehicle is determined by image processing and is calculated by a distance measurement to the vehicle in front in conjunction with a height profile of the traveled road, characterized in that the z-coordinate (z AH ) of the preceding vehicle determined by means of the distance measurement in conjunction with the height profile and the z coordinate (z BV ) of the preceding vehicle, independently obtained from the image processing, lead to an exact z coordinate (z FUS ) are mathematically fused. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Fusionierung der z-Koordinate (zFUS) des vorausfahrenden Fahrzeuges, die aus der Bildverarbeitung gewonnene z-Koordinate (zBV) verwendet wird, welche durch die aus der Abstandsmessung und dem Höhenprofil der befahrenen Straße gewonnene z-Koordinate (zAH) plausibilisiert wird.A method according to claim 1, characterized in that for the fusing of the z-coordinate (z FUS ) of the preceding vehicle, the z-coordinate (z BV ) obtained from the image processing is used, which by the distance measurement and the height profile of the traveled road obtained z-coordinate (z AH) is checked for plausibility. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass bei einer Abweichung der aus der Bildverarbeitung gewonnenen z-Koordinate (zBV) von der aus der Abstandsmessung und dem Höhenprofil der befahrenen Straße berechneten z-Koordinate (zAH) um einen vorgegebenen Betrag (Δmax) die aus der Abstandsmessung und dem Höhenprofil der befahrenen Straße berechnete z-Koordinate (zAH) der Augmented Reality zugrunde gelegt wird.Method according to claim 1 or 2, characterized in that in the case of a deviation of the z-coordinate (z BV ) obtained from the image processing, the z-coordinate (z AH ) calculated from the distance measurement and the height profile of the traveled road is reduced by a predetermined amount ( Δmax) is based on the z-coordinate (z AH ) of the augmented reality calculated from the distance measurement and the height profile of the traveled road. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass der vorgegebene Betrag (Δmax) in positive Richtung der z-Koordinate einen ersten Wert aufweist, welcher sich von einem zweiten Wert in negative Richtung der z-Koordinate unterscheidet.A method according to claim 3, characterized in that the predetermined amount (Δmax) in the positive direction of the z-coordinate has a first value which differs from a second value in the negative direction of the z-coordinate. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die aus der Abstandsmessung und dem Höhenprofil der befahrenen Straße berechnete z-Koordinate (zAH) zur Augmented Reality verwendet wird und mit der aus der Bildverarbeitung gewonnenen z-Koordinate (zBV) plausibilisiert wird.A method according to claim 1, characterized in that the z-coordinate (z AH ) calculated from the distance measurement and the height profile of the traveled road is used for augmented reality and is made plausible with the z-coordinate (z BV ) obtained from the image processing. Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei der Bestimmung der z-Koordinate (zBV) durch die Bildverarbeitung und bei der Berechnung der z-Koordinate (zAH) aus der Abstandsmessung und dem Höhenprofil jeweils ein Zuverlässigkeitswert ermittelt wird, mittels welchem die unabhängig voneinander bestimmten z-Koordinaten (zBV, zAH) bei der mathematischen Fusionierung gewichtet werden.Method according to at least one of the preceding claims, characterized in that in the determination of the z-coordinate (z BV ) by the image processing and in the calculation of the z-coordinate (z AH ) from the distance measurement and the height profile in each case a reliability value is determined, by means of which the independently determined z-coordinates (z BV , z AH ) are weighted in the mathematical fusion. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die mathematische Fusionierung der unabhängig voneinander ermittelten z-Koordinaten (zBV , zAH) dynamisch in Abhängigkeit von fahrzeugeigenen und/oder fahrzeugexternen Parametern variiert.A method according to claim 1, characterized in that the mathematical fusion of independently determined z-coordinates (z BV , z AH ) varies dynamically in dependence on the vehicle's own and / or vehicle external parameters. Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die fusionierte Z-Koordinate (zFUS) für die Augmented Reality verwendet wird, wenn diese sich über einen zeitlichen Verlauf kontinuierlich ändert.Method according to at least one of the preceding claims, characterized in that the fused Z-coordinate (z FUS ) is used for augmented reality, if it changes continuously over a time course. Verfahren zur hochpräzisen Markierung von vorausfahrenden Fahrzeugen bei Augmented Reality, bei welchen eine Koordinate (zBV, zAH) des vorausfahrenden Fahrzeuges durch eine Bildverarbeitung ermittelt wird und durch eine Abstandsmessung zum vorausfahrenden Fahrzeug in Verbindung mit einem Höhenprofil der befahrenen Straße berechnet wird und, dadurch gekennzeichnet, dass die sich aus der Abstandsmessung und dem Höhenprofil ergebende z-Koordinate (zAH) als bekannter Bestandteil der zu ermittelnden z-Koordinate (zBV) der Bildverarbeitung verwendet.A method for high-precision marking of vehicles traveling ahead in Augmented Reality in which a coordinate (z BV, z AH) is the preceding vehicle detected by image processing and is calculated by a distance measurement to the vehicle in front in connection with a height profile of the major road and, characterized in that the z-coordinate (z AH ) resulting from the distance measurement and the height profile is used as a known component of the z-coordinate (z BV ) to be determined for the image processing. Fahrzeug, umfassend – eine Kamera (13) zur Aufnahme eines vorausfahrenden Fahrzeuges, die eine Bildauswerteeinheit (15) zur Ermittlung einer z-Koordinate (zBV) des vorausfahrenden Fahrzeuges aufweist, – einen Abstandssensor (19) zur Messung eines Abstandes des vorausfahrenden Fahrzeuges und eine, ein Höhenprofil der befahrenen Straße enthaltende Abstandsberechnungseinheit (21) zur Berechnung der z-Koordinate (zAH) des Fahrzeuges aus dem Abstand und dem Höhenprofil, – eine mit der Bildauswerteeinheit (15) und der Abstandsberechnungseinheit (21) verbundene Fusionsrecheneinheit (23) zur Bestimmung einer fusionierten z-Koordinate (zFUS) aus den unabhängig voneinander berechneten z-Koordinaten (zBV, zAH) der Bildauswerteeinheit (15) und der Abstandsberechnungseinheit (21), wobei – die Fusionsrecheneinheit (23) mit einer Recheneinheit (9) eines Head-up-Displays (3) zur Verarbeitung der fusionierten z-Koordinate (zFUS) bei Augmented Reality gekoppelt ist.Vehicle comprising - a camera ( 13 ) for receiving a preceding vehicle which has an image evaluation unit ( 15 ) for determining a z-coordinate (z BV ) of the preceding vehicle, - a distance sensor ( 19 ) for measuring a distance of the vehicle ahead and a, a height profile of the busy road containing distance calculation unit ( 21 ) for calculating the z-coordinate (z AH ) of the vehicle from the distance and the height profile, - one with the image evaluation unit ( 15 ) and the distance calculation unit ( 21 ) connected fusion computing unit ( 23 ) for determining a fused z-coordinate (z FUS ) from the independently calculated z-coordinates (z BV , z AH ) of the image evaluation unit ( 15 ) and the distance calculation unit ( 21 ), wherein - the fusion computing unit ( 23 ) with a computing unit ( 9 ) of a head-up display ( 3 ) for processing the fused z-coordinate (z FUS ) in Augmented Reality.
DE102016003060.7A 2016-03-11 2016-03-11 Method for high-precision marking of vehicles ahead in augmented reality Withdrawn DE102016003060A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016003060.7A DE102016003060A1 (en) 2016-03-11 2016-03-11 Method for high-precision marking of vehicles ahead in augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016003060.7A DE102016003060A1 (en) 2016-03-11 2016-03-11 Method for high-precision marking of vehicles ahead in augmented reality

Publications (1)

Publication Number Publication Date
DE102016003060A1 true DE102016003060A1 (en) 2016-09-29

Family

ID=56890388

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016003060.7A Withdrawn DE102016003060A1 (en) 2016-03-11 2016-03-11 Method for high-precision marking of vehicles ahead in augmented reality

Country Status (1)

Country Link
DE (1) DE102016003060A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112634269A (en) * 2021-01-14 2021-04-09 华东交通大学 Rail vehicle body detection method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011121847A1 (en) 2010-12-29 2012-07-05 GM Global Technology Operations LLC ( n.d. Ges. d. Staates Delaware) ROAD STATE ALERT ON A HEADUP DISPLAY FOR THE FULL WINDSHIELD

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011121847A1 (en) 2010-12-29 2012-07-05 GM Global Technology Operations LLC ( n.d. Ges. d. Staates Delaware) ROAD STATE ALERT ON A HEADUP DISPLAY FOR THE FULL WINDSHIELD

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112634269A (en) * 2021-01-14 2021-04-09 华东交通大学 Rail vehicle body detection method
CN112634269B (en) * 2021-01-14 2023-12-26 华东交通大学 Railway vehicle body detection method

Similar Documents

Publication Publication Date Title
EP3254138B1 (en) Method for acquiring transverse-position information of a motor vehicle on a carriageway and motor vehicle
DE19749086C1 (en) Device for determining data indicating the course of the lane
DE602004012962T2 (en) REAL-TIME OBSTACLE DETECTION WITH A CALIBRATED CAMERA AND KNOWN EGO MOTION
EP3055179B1 (en) Method for determining a relative gradient of a roadway
DE102006000077A1 (en) Vehicle information notification device
DE102008042825A1 (en) Driver assistance system for motor vehicles
DE102013010818A1 (en) Method for inserting textures in road surface diagram and/or in view field of driver of vehicle, involves determining a situation in front of vehicle road surface and inserting textures in determined road surface on display device
DE102013019804A1 (en) Method for determining a movement of an object
DE102018204451A1 (en) Method and device for auto-calibration of a vehicle camera system
DE102007034196A1 (en) Method and device for track detection with a driver assistance system
DE102016204018A1 (en) Method and device for determining the bank of a road
DE102008026876A1 (en) Stereo camera system and method for determining at least one calibration error of a stereo camera system
DE102013021401A1 (en) Method for determining an installation orientation of at least one radar sensor arranged on a vehicle
DE102013220487A1 (en) Lane detection system umd lane keeping system
DE29902457U1 (en) Environment recognition device, in particular for traffic sign recognition
DE102008042631B4 (en) Method and apparatus for distance detection in a monocular video assistance system
EP2964503A1 (en) Estimation of the future speed of a vehicle
DE102004059002A1 (en) Method for adapting intervention parameters of an assistance system of a vehicle
DE102013001867A1 (en) Method for determining orientation and corrected position of motor vehicle, involves registering features of loaded and recorded environmental data by calculating transformation and calculating vehicle orientation from transformation
DE102016003060A1 (en) Method for high-precision marking of vehicles ahead in augmented reality
DE102005035810A1 (en) Method of determining visibility with a camera
DE10333670A1 (en) Lane parameter determination method for determination of parameters of lane in which vehicle is driving for driver assistance system, wherein expectation gates for lane markings are defined in image plane
DE102013013253A1 (en) A method for warning the driver of a motor vehicle depending on a determined time to collision, camera system and motor vehicle
DE102009027919B4 (en) Method and device for navigating a vehicle
DE102021205593B3 (en) Method and system for correcting a position of at least one feature in an environment of an ego vehicle

Legal Events

Date Code Title Description
R230 Request for early publication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee