DE102017117614B4 - A method for trajectory-based determination of an evaluation area in an image of a vehicle camera - Google Patents
A method for trajectory-based determination of an evaluation area in an image of a vehicle camera Download PDFInfo
- Publication number
- DE102017117614B4 DE102017117614B4 DE102017117614.4A DE102017117614A DE102017117614B4 DE 102017117614 B4 DE102017117614 B4 DE 102017117614B4 DE 102017117614 A DE102017117614 A DE 102017117614A DE 102017117614 B4 DE102017117614 B4 DE 102017117614B4
- Authority
- DE
- Germany
- Prior art keywords
- image
- vehicle
- characteristic pattern
- trajectories
- structures
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000011156 evaluation Methods 0.000 title claims abstract description 47
- 238000012545 processing Methods 0.000 claims description 25
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000005259 measurement Methods 0.000 claims description 12
- 238000012544 monitoring process Methods 0.000 claims description 4
- 238000013519 translation Methods 0.000 abstract description 4
- 230000001419 dependent effect Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 238000013459 approach Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000014616 translation Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- ZINJLDJMHCUBIP-UHFFFAOYSA-N ethametsulfuron-methyl Chemical compound CCOC1=NC(NC)=NC(NC(=O)NS(=O)(=O)C=2C(=CC=CC=2)C(=O)OC)=N1 ZINJLDJMHCUBIP-UHFFFAOYSA-N 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000007261 regionalization Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2513—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Lighting Device Outwards From Vehicle And Optical Signal (AREA)
Abstract
Vorliegend wird ein Verfahren bereitgestellt zum Bestimmen eines Auswertebereiches in einem von einer Bilderfassungseinheit eines Fahrzeugs erfassten Bild einer Projektion eines charakteristischen Musters, welches Strukturen aufweist, die von Segmenten eines Scheinwerfers erzeugt werden, wobei das Verfahren Berechnen von Trajektorien von mindestens zwei Strukturen, wobei jede der Trajektorien die Translation der dazugehörigen Struktur in der Bildebene der Bilderfassungseinheit beschreibt in Abhängigkeit von einem Abstandzwischen dem Fahrzeug und einer Projektionsfläche des charakteristischen Musters, Berechnen von jeweils zwei Positionen zu jeder Struktur auf ihren Trajektorien bei vorgegebenen unterschiedlichen Abständen zwischen dem Fahrzeug und der Projektionsfläche, und Festlegen des Auswertebereiches in dem von der Bilderfassungseinheit erfassten Bild aufweist, wobei der Auswertebereich auf Basis der berechneten Positionen definiert wird. In the present case, a method is provided for determining an evaluation area in an image acquired by an image acquisition unit of a vehicle of a projection of a characteristic pattern having structures generated by segments of a headlight, the method calculating trajectories of at least two structures, each of the Trajectories, the translation of the associated structure in the image plane of the image acquisition unit describes depending on a distance between the vehicle and a projection surface of the characteristic pattern, calculating two positions to each structure on their trajectories at predetermined different distances between the vehicle and the screen, and set of the evaluation area in the image captured by the image acquisition unit, wherein the evaluation area is defined on the basis of the calculated positions.
Description
Die vorliegende Erfindung betrifft ein Verfahren zum trajektoriebasierten Bestimmen eines Auswertebereiches in einem von einer Fahrzeugkamera erfassten Bild einer Projektion eines charakteristischen Musters, welches Strukturen aufweist, die von einem Scheinwerfer eines Fahrzeugs erzeugt werden. Das charakteristische Muster kann besonders bevorzugt zur Implementierung einer Distanzmessung erzeugt werden.The present invention relates to a method for the trajectory-based determination of an evaluation range in an image of a projection of a characteristic pattern captured by a vehicle camera, which has structures that are generated by a headlight of a vehicle. The characteristic pattern can be generated particularly preferably for implementing a distance measurement.
Viele Kraftfahrzeuge verfügen heutzutage über eine fest eingebaute Fahrzeugkamera (Fahrerassistenzkamera), welche meistens im oberen Bereich der Frontscheibe eingebaut ist. Die Fahrzeugkamera wird bei der Implementierung diverser Fahrerassistenzsysteme verwendet, welche den Fahrer in bestimmten Fahrsituationen unterstützen sollen (z.B. Nachtlichtassistent oder Fahrspurhalteassistent). Unter anderem kann die Fahrzeugkamera verwendet werden, um eine Distanzmessung zu implementieren. Hierbei bedient man sich der aktiven Triangulation, bei welcher ein vom Scheinwerfer des Fahrzeugs projiziertes Muster von der Fahrzeugkamera erfasst und ausgewertet wird. Das projizierte Muster wird aus der durch die Fahrzeugkamera erfassten Abbildung der Umgebung, nachfolgend als Kamerabild bezeichnet, mit Mitteln der Bildverarbeitung extrahiert. Da diese Bildverarbeitung auf aufwendigen Algorithmen basiert, ist eine Beschränkung ihrer Anwendung auf einen Teilbereich des Kamerabildes beinah unerlässlich, um eine kontinuierlich verzögerungsfreie Arbeitsweise des Gesamtsystems zu gewährleisten. Der relevante Teilbereich der erfassten Abbildung, welcher die projizierten Muster aufweist, wird als ROI (region of interest - „Bereich von Interesse“) bezeichnet. Die Sinnhaftigkeit der Beschränkung der Bildverarbeitung auf einen Teilbereich der erfassten Abbildung der Umgebung wird insbesondere deutlich, wenn man bedenkt, dass das System im Takt der Bildwiederholrate der Fahrzeugkamera die Bildverarbeitung komplett abgeschlossen haben sollte. Bei einer heutzutage nicht unüblichen Bildwiederholrate von 50 Hz ergibt sich eine Verarbeitungsdauer von nur 20 ms.Many motor vehicles today have a permanently installed vehicle camera (driver assistance camera), which is usually installed in the upper region of the windshield. The vehicle camera is used in the implementation of various driver assistance systems which are intended to assist the driver in certain driving situations (for example, night-light assistant or lane-keeping assistant). Among other things, the vehicle camera can be used to implement a distance measurement. In this case, the active triangulation is used, in which a pattern projected by the headlight of the vehicle is detected and evaluated by the vehicle camera. The projected pattern is extracted from the image of the environment detected by the vehicle camera, hereinafter referred to as a camera image, by means of image processing. Since this image processing based on complex algorithms, a limitation of their application to a portion of the camera image is almost essential to ensure a continuous delay-free operation of the entire system. The relevant portion of the captured image having the projected patterns is referred to as ROI ("region of interest"). The meaningfulness of the restriction of the image processing to a subarea of the captured image of the environment becomes particularly clear when one considers that the system should have completely completed the image processing to the beat of the image refresh rate of the vehicle camera. At a picture refresh rate of 50 Hz, which is not uncommon today, a processing time of only 20 ms results.
Typischerweise läuft eine Prozesskette zur Implementierung der aktiven Triangulation wie folgt ab. Zunächst wird mittels des Scheinwerfers eine ein charakteristisches Muster auf eine Projektionsfläche (Szene) projiziert, wobei es sich bei der Projektionsfläche um eine Gebäudewand oder die Fahrbahn handeln kann. Das Ausleuchten der Szene mit strukturiertem Licht bekannter optischer und geometrischer Eigenschaften stellt ein Kernmerkmal der aktiven Triangulation dar. Die Szene, welche die Projektion des charakteristischen Musters aufweist, wird von der Fahrzeugkamera abgebildet, wobei das projizierte Muster gemäß der Szenenbeschaffenheit verformt werden kann. Daraufhin wird eine Kaskade von Bildverarbeitungsschritten durchgehört, um das charakteristische Muster aus dem Kamerabild zu extrahieren. Die Hauptaufgabe besteht darin, das Korrespondenzproblem zu lösen: Strukturen des charakteristischen Musters zu den diese Strukturen erzeugenden Segmenten des Scheinwerfers zuzuordnen. Basierend auf dieser aus der fahrzeugspezifischen Lichtverteilung ermittelten Zuordnung wird anschließend eine Tiefen-Map (Tiefenkarte) berechnet, die Informationen über die jeweilige Distanz zwischen dem Fahrzeug und den Projektionen der Strukturen auf der Projektionsfläche, auf welche das charakteristische Muster insgesamt projiziert wird. Die Tiefen-Map stellt letztendlich die Distanzinformation zu Objekten im Kamerabild bereit, die mit strukturiertem Licht des Scheinwerfers ausgeleuchtet werden.Typically, a process chain for implementing active triangulation runs as follows. First, a characteristic pattern is projected onto a projection surface (scene) by means of the spotlight, wherein the projection surface can be a building wall or the roadway. Illuminating the scene with structured light of known optical and geometric properties is a core feature of active triangulation. The scene having the projection of the characteristic pattern is imaged by the vehicle camera, and the projected pattern can be deformed according to the scene condition. Thereafter, a cascade of image processing steps is listened through to extract the characteristic pattern from the camera image. The main task is to solve the correspondence problem: to assign structures of the characteristic pattern to the segments of the headlight that produce these structures. Based on this determined from the vehicle-specific light distribution mapping then a depth map (depth map) is calculated, the information about the distance between the vehicle and the projections of the structures on the projection surface on which the characteristic pattern is projected in total. The depth map ultimately provides the distance information to objects in the camera image, which are illuminated with structured light of the headlight.
Im Optimalfall sollte diese gesamte Prozesskette, angefangen bei der Erfassung des Kamerabildes, zu jedem von der Fahrzeugkamera aufgenommen Einzelbild (Frame) eine fertig berechnete Tiefen-Map bereitstellen. Die gesamte Prozesskette sollte also auf einer Zeitskala der Bildwiderholrate der Fahrzeugkamera ausgeführt werden. An dieser Stelle wird erneut deutlich, dass eine Anwendung der Bildbearbeitung auf das gesamte Kamerabild viel Rechenkapazität bindet bzw. bei ungenügender Rechenkapazität keine Berechnung der Tiefen-Map im Takt der Bildwiderholrate zulässt.In the optimal case, this entire process chain, starting with the capture of the camera image, should provide a fully calculated depth map for each frame (frame) captured by the vehicle camera. The entire process chain should therefore be executed on a time scale of the image refresh rate of the vehicle camera. At this point, it becomes again clear that an application of the image processing on the entire camera image binds a lot of computing capacity or in case of insufficient computing capacity does not allow a calculation of the depth map in time with the image refresh rate.
Aus der
Aus der
Des Weiteren beschreibt die
Ausgehend von der oben dargestellten Situation erfolgt bei heute eingesetzten Systemen eine Reduktion des zu verarbeitenden Kamerabildes auf den ROI, welcher in der Regel ausgehend von Simulationen/Berechnungen im Wesentlichen dem Bereich der charakteristischen Merkmale im Kamerabild entspricht. Diese Berechnungen erfolgen im Vorfeld und können dahingehend als statisch betrachtet werden, als dass sie auf Basis einer voreingestellten bekannten Lichtverteilung der Scheinwerfer erfolgen und eine später eintretende Fehlstellung eines Scheinwerfers und den daraus resultierenden Versatz der Lichtverteilung nicht berücksichtigen. Ein weiterer Nachteil hierbei ist auch, dass die Bildverarbeitung global auf jedes Einzelbild angewendet wird, was Rechenkapazitäten bindet.Based on the situation described above, the systems used today reduce the camera image to be processed to the ROI, which, based on simulations / calculations, generally corresponds essentially to the range of characteristic features in the camera image. These calculations are made in advance and may be considered static in that they are based on a pre-set known light distribution of the headlights and take into account a later occurring malposition of a headlamp and the resulting offset the light distribution. Another disadvantage here is that the image processing is applied globally to each frame, which binds computing capacity.
Eine Weiterentwicklung hinsichtlich der statischen Bestimmung des ROI stellt ein Ansatz dar, bei welchem die Dimension des ROI zwar statisch berechnet wird, der ROI jedoch auf Basis eines charakteristischen Merkmals der Lichtverteilung im Kamerabild angepasst wird durch Translation des statisch berechneten ROI im Kamerabild entsprechend der detektierten Verschiebung des charakteristischen Merkmals. Als charakteristisches Merkmal bietet sich beispielsweise der H0V0-Punkt an, welcher bei modernen Fahrzeugen mit asymmetrischem Abblendlicht dem Knickpunkt zwischen dem links waagerecht verlaufenden Teil und dem rechts ansteigenden Teil der Hell-Dunkel-Grenze entspricht. Ändert sich später bei der Ausführung der Distanzmessung die Ausrichtung eines Scheinwerfers und damit die Lichtverteilung, so wird dies berücksichtigt. Dieser Ansatz setzt jedoch die Ausführung von Bildverarbeitungskaskaden voraus, um die das charakteristische Merkmal im Kamerabild zu detektieren, wodurch Rechenkapazitäten gebunden werden.A further development regarding the static determination of the ROI represents an approach in which the dimension of the ROI is calculated statically, but the ROI is adapted on the basis of a characteristic feature of the light distribution in the camera image by translating the statically calculated ROI in the camera image according to the detected displacement of the characteristic feature. A characteristic feature is, for example, the H0V0 point, which in modern vehicles with asymmetrical dipped beam corresponds to the inflection point between the left-hand horizontally extending part and the right-rising part of the cut-off line. If the orientation of a headlamp and thus the light distribution changes later during the distance measurement, this is taken into account. However, this approach requires the execution of image processing cascades to detect the feature in the camera image, thereby binding computational capabilities.
Gemäß einer weiteren Methode wird eine Bildverarbeitung global angewendet, d.h. bezüglich des ganzen erfassten Kamerabildes, und es werden charakteristische Merkmale detektiert. Werden diese gefunden, so wird die Bildverarbeitung für die weiteren erfassten Kamerabilder nur auf den Bereich angewendet, in dem sich die initial detektierten Merkmale befunden haben. Bei dieser Methode wird ebenso die aktuelle Scheinwerferfehlstellung berücksichtigt. Zu Beginn wird jedoch die Bildverarbeitungskaskade auf das ganze erfasste Kamerabild angewendet, um die charakteristischen Merkmale zu detektieren.According to another method, image processing is applied globally, i. with respect to the entire captured camera image, and characteristic features are detected. If these are found, the image processing for the further captured camera images is applied only to the area in which the initially detected features were located. This method also takes into account the current headlight misalignment. Initially, however, the image processing cascade is applied to the entire captured camera image to detect the characteristic features.
Im Lichte der oben skizzierten bekannten Ansätze und der damit verbundenen Probleme ist es eine Aufgabe der vorliegenden Erfindung, ein Verfahren zur Verfügung zu stellen, welches eine verlässliche, effiziente - vor allem rechenressourcensparende Auswertung der Kamerabilder zur Detektion charakteristischer Merkmale ermöglicht und so als Basis für die Implementierung sicherheitskritischer Fahrerassistenzsysteme dienen kann, wie z.B. der auf aktiver Triangulation basierenden Distanzmessung.In the light of the above-outlined known approaches and the associated problems, it is an object of the present invention to provide a method which enables a reliable, efficient - especially computing resource-saving evaluation of the camera images for the detection of characteristic features and as a basis for the Implementation of safety-critical driver assistance systems can serve, such as the active triangulation-based distance measurement.
Die Aufgabe der vorliegenden Erfindung wird gelöst durch ein Verfahren zum Bestimmen eines Auswertebereiches in einem von einer Bilderfassungseinheit eines Fahrzeugs erfassten Bild eines charakteristischen Musters, welches Strukturen aufweist, die von Segmenten eines Scheinwerfers eines Fahrzeugs erzeugt werden, wie es im unabhängigen Anspruch 1 definiert ist.The object of the present invention is achieved by a method for determining an evaluation range in an image of a characteristic pattern captured by an image acquisition unit of a vehicle, which has structures that are generated by segments of a headlight of a vehicle, as defined in independent claim 1.
Durch Anwenden des erfindungsgemäßen Verfahrens lässt sich eine schnelle und optimale Festlegung des Auswertebereiches in einem von der Fahrzeugkamera erfassten Bildes vornehmen. Der Auswertebereich stellt den relevanten Teil des Kamerabildes dar, in welchem das charakteristische Muster enthalten ist, und entspricht damit dem ROI. By applying the method according to the invention, a fast and optimal definition of the evaluation area can be made in an image captured by the vehicle camera. The evaluation area represents the relevant part of the camera image in which the characteristic pattern is contained, and thus corresponds to the ROI.
Dadurch wird dem Bildverarbeitungsalgorithmus ein relativ zum erfassten gesamten Kamerabild kleiner Ausschnitt bereitgestellt, welcher das charakteristische Muster aufweist. Das hat zum einen den Vorteil, dass keine Rechenkapazität verschwendet wird, um Bereiche des Kamerabildes zu verarbeiten, welche für die Implementierung der Distanzmessfunktion irrelevant sind. Dadurch kann die Verarbeitungsdauer der Bildverarbeitung deutlich verringert werden kann. Ein weiterer Vorteil kann darin gesehen werden, dass der Auswertebereich im Prinzip nur das charakteristische Muster aufweist und dadurch andere Bereiche des Kamerabildes, welche unter Umständen Strukturen aufweisen können, die dem charakteristischen Muster ähnlich aussehen (z.B. Deckenbeleuchtung oder etwa eine vom Scheinwerfer angestrahlte Gitterstruktur, z.B. ein Zaun), von vornherein aus der Betrachtung rausfallen. Dadurch kann die Wahrscheinlichkeit einer Fehldetektion drastisch reduziert werden.As a result, the image processing algorithm is provided with a small detail, which has the characteristic pattern, relative to the captured entire camera image. This has the advantage on the one hand that no computing capacity is wasted in order to process regions of the camera image which are irrelevant for the implementation of the distance measurement function. As a result, the processing time of the image processing can be significantly reduced. Another advantage can be seen in that the evaluation area in principle has only the characteristic pattern and thereby other areas of the camera image, which may have structures that look similar to the characteristic pattern (eg ceiling lighting or about a lattice structure illuminated by the headlamp, eg a fence), from the outset out of consideration. This can drastically reduce the likelihood of misdetection.
Im Mittelpunkt des erfindungsgemäßen Verfahrens steht das trajektoriebasierte Bestimmen von unterschiedlichen Positionen von Strukturen innerhalb des charakteristischen Musters, um auf Grundlage dieser Positionen den Auswertebereich festzulegen. Nach erfolgter Aufnahme eines Kamerabildes, welches unter anderem die Projektion des charakteristischen Musters aufweist, werden zunächst Trajektorien von mindestens zwei vom Scheinwerfer erzeugten Strukturen berechnet. Gemäß epipolargeometrischer Überlegungen handelt es sich bei den Trajektorien um Geraden. Bei den Strukturen kann es sich um im Vergleich zur restlichen Lichtprojektion des Scheinwerfers hellere oder dunklere Bereiche handeln. Insbesondere kann es sich bei einer Struktur u einen Bereich des charakteristischen Musters handeln, welcher durch Licht eines bestimmten Segments/Teils des Scheinwerfers erzeugt wird. Bei der Berechnung der Trajektorie einer Struktur wird unter Zuhilfenahme epipolargeometrischer Überlegungen ihre Epipolarlinie in der Bildebene der Fahrzeugkamera berechnet. Die Trajektorie einer Struktur beschreibt die Veränderung ihrer Lage in der Bildebene der Fahrzeugkamera in Abhängigkeit von dem Abstand zwischen Fahrzeug (und damit auch Fahrzeugkamera und Scheinwerfer) und der Projektionsfläche des charakteristischen Musters. Hierbei ist zu beachten, dass im Rahmen der Berechnung der Trajektorie dieser Abstand nicht tatsächlich verändert werden, muss, also das Fahrzeug zum Zeitpunkt der Ausführung des erfindungsgemäßen Verfahrens nicht in verschiedene Abstände zu einer Projektionsfläche verfahren werden muss.At the heart of the method according to the invention is the trajectory-based determination of different positions of structures within the characteristic pattern in order to determine the evaluation range on the basis of these positions. After taking a camera image, which among other things has the projection of the characteristic pattern, first trajectories of at least two structures generated by the headlight are calculated. According to epipolargeometric considerations, the trajectories are straight lines. The structures may be lighter or darker compared to the remaining light projection of the headlamp. In particular, a structure u may be an area of the characteristic pattern produced by light of a particular segment / part of the headlamp. In the calculation of the trajectory of a structure, its epipolar line in the image plane of the vehicle camera is calculated with the aid of epipolargeometric considerations. The trajectory of a structure describes the change in its position in the image plane of the vehicle camera as a function of the distance between the vehicle (and thus also the vehicle camera and headlight) and the projection surface of the characteristic pattern. It should be noted that in the calculation of the trajectory This distance must not be changed, must, so the vehicle at the time of execution of the method according to the invention does not have to be moved to different distances to a projection surface.
Die berechneten Trajektorien werden benutzt, um jeweils zwei unterschiedliche Positionen der mindestens zwei Strukturen in der Bildebene der Fahrzeugkamera zu berechnen. Die eine Position kann beispielsweise einem kleinen Abstand entsprechen und die andere Position kann einem großen Abstand zur Projektionsfläche entsprechen. Die beiden Positionen können überdies so gewählt werden, dass sie einem minimalen und einem maximalen Abstand entsprechen, bei dem die Distanzmessung im realen Betrieb des Fahrzeugs funktionieren soll. Mit anderen Worten können die beiden Positionen bei unterschiedlichen Abständen bestimmt werden, die von dem spezifizierten Funktionsbereich der Distanzmessung abhängen. Zusätzlich können bei der Berechnung der Positionen auf den Trajektorien Toleranzbereiche berücksichtigt werden.The calculated trajectories are used to calculate two different positions of the at least two structures in the image plane of the vehicle camera. For example, one position may correspond to a small distance and the other position may correspond to a large distance to the projection surface. Moreover, the two positions can be chosen to correspond to a minimum and a maximum distance at which the distance measurement is to function in the real operation of the vehicle. In other words, the two positions can be determined at different distances that depend on the specified functional range of the distance measurement. In addition, tolerance ranges can be taken into account when calculating the positions on the trajectories.
Sind die erste Position und die zweite Position auf der Trajektorie einer Struktur ermittelt, so beschreibt das zwischen diesen Positionen liegende Teilstück der Trajektorie alle möglichen Lagen der dazugehörigen Struktur in der Bildebene der Fahrzeugkamera (d.h. in einem von der Fahrzeugkamera erfassten Bild) bei Abständen zwischen Fahrzeug und Projektionsfläche, die im Funktionsbereich der Distanzmessung liegen. Anders ausgedrückt beschreiben die ersten und zweiten Positionen Randpunkte eines Bewegungsspielraums der dazugehörigen Struktur, innerhalb dessen die Struktur abgebildet wird bei ihrer Erfassung durch die Fahrzeugkamera innerhalb des Funktionsbereiches der Distanzmessung. Der Auswertebereich in dem von der Bilderfassungseinheit erfassten Bild wird dann auf Grundlage der errechneten ersten und zweiten Positionen der ersten und zweiten Struktur festgelegt. Zweckmäßigerweise kann es sich bei den Strukturen um solche handeln, die das charakteristische Muster räumlich begrenzen, also beispielsweise äußersten Strukturen innerhalb des charakteristischen Musters entsprechen. Bei geeigneter Wahl der Strukturen können die ersten und zweiten Positionen bildlich als Eckpunkte des Auswertebereiches aufgefasst werden, welcher beispielsweise die Form eines Vierecks (näherungsweise eines Trapezes) aufweisen kann und welcher das Abbild des projizierten charakteristischen Musters im Kamerabild umschließt. Es ist jedoch nicht notwendig, dass der Auswertebereich das gesamte charakteristische Muster umschließt, sondern zumindest einen überwiegenden bzw. relevanten Teil davon. Randbereiche des charakteristischen Musters können gegebenenfalls außer Acht gelassen werden. Bei der Bestimmung des Auswertebereiches kann ein standardmäßiger oder situationsabhängiger (Tageszeit, Lichtverhältnisse) Toleranzbereich berücksichtigt werden, um dessen Bestimmung nicht durch optische Randeffekte zu beeinträchtigen.If the first position and the second position are determined on the trajectory of a structure, the portion of the trajectory lying between these positions describes all possible positions of the associated structure in the image plane of the vehicle camera (ie in an image captured by the vehicle camera) with distances between the vehicle and projection surface, which are in the functional range of the distance measurement. In other words, the first and second positions describe edge points of a range of motion of the associated structure within which the structure is imaged as it is detected by the vehicle camera within the functional range of distance measurement. The evaluation area in the image acquired by the image acquisition unit is then determined based on the calculated first and second positions of the first and second structures. Expediently, the structures may be those which spatially delimit the characteristic pattern, ie, for example, correspond to outermost structures within the characteristic pattern. With a suitable choice of the structures, the first and second positions can be pictorially interpreted as vertices of the evaluation region, which may for example have the shape of a quadrilateral (approximately a trapezoid) and which encloses the image of the projected characteristic pattern in the camera image. However, it is not necessary that the evaluation area encloses the entire characteristic pattern, but at least a predominant or relevant part thereof. Edge regions of the characteristic pattern may be disregarded if necessary. When determining the evaluation range, a standard or situation-dependent (time of day, light conditions) tolerance range can be taken into account, so as not to impair its determination by optical edge effects.
Unabhängig von der eigentlichen Form des Auswertebereiches und dem darin enthaltenen Anteil des Abbildes des projizierten charakteristischen Musters besteht der große Vorteil des erfindungsgemäßen Verfahrens darin, dass zu keinem Zeitpunkt das gesamte von der Fahrzeugkamera erfasste Bild einer Bildverarbeitung unterzogen werden, um in dem Kamerabil die Lage des charakteristischen Musters zu bestimmen. Vorzugsweise werden die Trajektorien zu Strukturen berechnet, die von räumlich außen liegenden Segmenten des Scheinwerfers erzeugt werden, wobei diese Rechnungen keinerlei Rückgriff auf Daten oder Elemente der Fahrzeugkamera erfordern, sondern auf Basis der Epipolargeometrie bezüglich eines kalibrierten Stereo-Systems aus Scheinwerfer und Fahrzeugkamera durchgeführt werden. Im Bedarfsfall kann zu jedem erfassten Kamerabild der Auswertebereich neu berechnet werden, so dass der Rechenaufwand der weiteren Bildverarbeitung auf so viel wie nötig und so wenig wie möglich beschränkt wird. Das im Rahmen des erfindungsgemäßen Verfahrens verwendete charakteristische Muster kann von einem der üblicherweise zwei in einem Fahrzeug vorhandenen Scheinwerfer erzeugt werden oder aber auch durch eine Überlagerung der Lichtabstrahlung beider Scheinwerfer.Regardless of the actual form of the evaluation area and the proportion of the image of the projected characteristic pattern contained therein, the great advantage of the method according to the invention is that at no time are the entire image captured by the vehicle camera subjected to image processing in order to determine the position of the camera in the camera characteristic pattern. Preferably, the trajectories are calculated into structures that are generated by spatially outer segments of the headlight, these calculations do not require any recourse to data or elements of the vehicle camera, but are performed on the basis of Epipolargeometrie relative to a calibrated stereo system of headlight and vehicle camera. If necessary, the evaluation range can be recalculated for each captured camera image, so that the computational effort of the further image processing is limited to as much as necessary and as little as possible. The characteristic pattern used in the context of the method according to the invention can be generated by one of the usually two existing in a vehicle headlights or even by a superposition of the light emission of both headlights.
Gemäß weiteren Ausführungsbeispielen des Verfahrens können die erste und die zweite Struktur jeweils einer Projektion des Lichts eines Segments des Scheinwerfers entsprechen. Das heißt, jede Struktur kann durch die Abstrahlung von Licht eines Segments eines Scheinwerfers erzeugt werden. Bei den Segmenten kann es sich beispielsweise und LED-Einheiten, auch als Pixel bezeichnet, eines auf LED-Matrix-Licht basierenden Scheinwerfers handeln. Heutzutage verfügen moderne Versionen solcher Scheinwerfer über insgesamt 84 LED-Einheiten, die in drei übereinander angeordneten Riehen vorliegen. Bei einem LED-Matrix-Scheinwerfer kann das charakteristische Muster Strukturen aufweisen, wovon jede der Lichtabstrahlung eines Pixels entspricht. Beispielsweise kann zur Erzeugung des charakteristischen Musters in jeder der drei Reihen des LED-Matrix-Scheinwerfers jeder zweite Pixel aktiviert werden, so dass in Projektion insgesamt ein Schachbrettmuster entsteht. Eine Trajektorie kann dann als Pixelpfad aufgefasst werden, auf dem sich ein Abbild des dazugehörigen Pixels auf einer Projektionsfläche in Abhängigkeit vom Abstand zwischen Fahrzeug und Projektionsfläche im Kamerabild bewegt. Alternativ kann eine Struktur durch einen Bereich in einer strukturierten Blende erzeugt werden, welche mit einem üblichen Scheinwerfer beleuchtet wird. According to further embodiments of the method, the first and the second structure may each correspond to a projection of the light of a segment of the headlight. That is, each structure can be created by the emission of light from a segment of a headlamp. The segments may be, for example, and LED units, also referred to as pixels, a LED Matrix Light based headlight. Today, modern versions of such headlights have a total of 84 LED units, which are present in three superimposed Riehen. In an LED matrix headlamp, the characteristic pattern may have structures, each corresponding to the light emission of a pixel. For example, to generate the characteristic pattern in each of the three rows of the LED matrix headlight, every other pixel can be activated so that a total of a checkerboard pattern is produced in projection. A trajectory can then be understood as a pixel path on which an image of the associated pixel moves on a projection surface as a function of the distance between the vehicle and the projection surface in the camera image. Alternatively, a structure may be created by an area in a patterned aperture that is illuminated with a conventional spotlight.
Gemäß weiteren Ausführungsbeispielen des Verfahrens können die erste und die zweite Struktur jeweils einem räumlich außenliegenden Segment des Scheinwerfers entsprechen, d.h. der Abstrahlung von Licht aus diesem Segment entsprechen. Unter außenliegenden Segmenten des Scheinwerfers sind Segmente gemeint, welcher gegenüber seiner Mittelachse oder seiner optischen Achse, also etwa bezüglich des Zentrums der Lichtabstrahlfläche, räumlich außen angeordnet sind. Zugleich ist aber eines der außenliegenden Segmente ein bezüglich des Fahrzeugs oder der Fahrzeugkamera innenliegendes Segment, da es logischerweise näher an der Fahrzeugmitte angeordnet ist. Durch Berechnen der Trajektorien zu Strukturen, die von räumlich (am weitesten) außen liegenden Segmenten des Scheinwerfers erzeugt werden und dadurch auch (am weitesten) außen liegenden Strukturen des charakteristischen Musters entsprechen, kann sichergestellt werden, dass im Prinzip das ganze charakteristische Muster von dem Auswertebereich umfasst wird. Das charakteristische Muster als solchen kann zweckmäßigerweise aus den Lichtprojektionen der einzelnen Segmente des Scheinwerfers zusammengestückelt werden, wobei einzelne Segmente gezielt ausgeschaltet oder gedimmt werden können. So kann das Muster beispielsweise hellere Bereiche (eingeschaltete und ggfs. gedimmte Segmente des Scheinwerfers) und dunklere Bereiche (ausgeschaltete oder gedimmte Segmente des Scheinwerfers) in Reihen alternierend angeordnet sind.According to further embodiments of the method, the first and second structures may each correspond to a spatially outer segment of the headlamp, i. correspond to the emission of light from this segment. Under outer segments of the headlamp segments are meant, which are arranged with respect to its central axis or its optical axis, ie, with respect to the center of the light emitting surface, spatially outside. At the same time, however, one of the outer segments is a segment lying inwardly relative to the vehicle or the vehicle camera, since it is logically arranged closer to the center of the vehicle. By calculating the trajectories to structures generated by spatially (outermost) outboard segments of the headlamp and thereby also corresponding to (outermost) outermost structures of the characteristic pattern, it can be ensured that, in principle, the entire characteristic pattern of the evaluation region is included. The characteristic pattern as such can expediently be pieced together from the light projections of the individual segments of the headlamp, wherein individual segments can be selectively switched off or dimmed. For example, the pattern may be alternately arranged in rows in rows of brighter areas (switched on and optionally dimmed segments of the headlamp) and darker areas (off or dimmed segments of the headlamp).
Gemäß einer weiteren Ausführungsform kann das Verfahren vor dem Berechnen der Trajektorien ferner Bestimmen von aktiven Segmenten des Scheinwerfers aufweisen, die an der Erzeugung des charakteristischen Musters beteiligt sind, wobei die Trajektorien nur bezüglich derjenigen mindestens zwei Segmente berechnet werden, die aktiven Segmenten entsprechen. In diesem Zusammenhang kann der Begriff „Bestimmen“ zum einen passives Abfragen beinhalten, welche der Segmente des Scheinwerfers an der Musterbildung beteiligt sind. Zum anderen kann der Begriff auch aktives Bestimmen im Sinne eines Festlegens beinhalten, welche der Segmente an der Projektion des charakteristischen Musters beteiligt sein sollen. Im letzteren Fall können etwa standort- bzw. situationsabhängige charakteristische Muster definiert werden und je nach Bedarf verwendet werden.According to a further embodiment, before calculating the trajectories, the method may further comprise determining active segments of the headlight which are involved in the generation of the characteristic pattern, the trajectories being calculated only with respect to those at least two segments corresponding to active segments. In this context, the term "determining" may, on the one hand, include passive querying which of the segments of the headlight is involved in the pattern formation. On the other hand, the term may also include active determining in the sense of determining which of the segments should be involved in the projection of the characteristic pattern. In the latter case, location-dependent or situation-dependent characteristic patterns can be defined and used as needed.
Gemäß einer weiteren Ausführungsform des Verfahrens kann das Berechnen der Trajektorien unter Berücksichtigung von Kalibrierdaten des Scheinwerfers und der Bilderfassungseinheit des Fahrzeugs erfolgen. Die Kalibrierdaten können im Rahmen eines speziellen Kalibrierverfahrens der Kamera und/oder des Scheinwerfers ermittelt werden und beschreiben den inneren Aufbau (z.B. mittels jeweils einer intrinsischen Matrix) sowie die äußere Lage der der Kamera bzw. des Scheinwerfers zum Bezugssystem (z.B. mittels jeweils einer extrinsischen Matrix). Durch Kenntnis der Kalibrierdaten können die Orientierungen der optischen Achsen der Kamera und des Scheinwerfers miteinander in Bezug gebracht werden.According to a further embodiment of the method, the trajectories can be calculated taking into account calibration data of the headlight and the image acquisition unit of the vehicle. The calibration data can be determined within the framework of a special calibration method of the camera and / or the headlight and describe the internal structure (eg by means of an intrinsic matrix) as well as the outer position of the camera or the headlight to the reference system (eg by means of an extrinsic matrix ). By knowing the calibration data, the orientations of the optical axes of the camera and the headlight can be related to each other.
Gemäß weiteren Ausführungsbeispielen kann das Verfahren ferner aufweisen: Überwachen der Ausrichtung des Scheinwerfers und Neuberechnen der Trajektorien und der jeweils zwei Positionen der ersten und der zweiten Struktur auf ihren jeweiligen neu berechneten Trajektorien zum Anpassen des festgelegten Auswertebereiches, falls beim Überwachen der Ausrichtung des Scheinwerfers festgestellt wird, dass sich seine Ausrichtung verändert hat. Eine veränderte Lage und/oder Orientierung des Scheinwerfers führt zu veränderten Kalibrierdaten und spiegelt sich in einer veränderten extrinsischen Matrix wieder, was wiederum zu einer Veränderung der Lichtprojektion führt. Eine Berechnung der Trajektorien auf Basis nicht mehr aktueller Kalibrierdaten hätte einen Versatz zwischen dem theoretisch berechneten und dem tatsächlichen distanzabhängigen Translationsbereich der Strukturen bzw. des charakteristischen Musters im Kamerabild. Diesem Problem kann bei detektierter Scheinwerferverstellung durch Neuberechnen der Trajektorien vorgebeugt werden.According to further embodiments, the method may further comprise: monitoring the orientation of the headlamp and recalculating the trajectories and the respective two positions of the first and second structures on their respective newly calculated trajectories to adjust the determined evaluation range, if determined upon monitoring the orientation of the headlamp that his orientation has changed. A changed position and / or orientation of the headlight leads to changed calibration data and is reflected in a modified extrinsic matrix, which in turn leads to a change in the light projection. A calculation of the trajectories on the basis of no longer current calibration data would have an offset between the theoretically calculated and the actual distance-dependent translation region of the structures or the characteristic pattern in the camera image. This problem can be prevented by detecting the headlight adjustment by recalculating the trajectories.
Gemäß einer weiteren Ausführungsform weist das Verfahren ferner Durchführen einer Bildverarbeitung in dem festgelegten Auswertebereich des von der Bilderfassungseinheit erfassten Bildes auf, um das charakteristische Muster zu detektieren. Die Detektion des charakteristischen Musters kann die Detektion einzelner charakteristischer Merkmale des Musters aufweisen, anhand derer die Strukturen erkannt werden können. Beispielsweise kann bei einem Schachbrettmuster die Bildverarbeitungskaskade zur Detektion von Ecken und/oder von mindestens zwei Hell-Dunkel-Übergängen verwendet werden, so dass anhand dieser charakteristischen Merkmale die Lage und Dimension der Strukturen bestimmt werden kann. An diesem Punkt erkennt man deutlich den Vorteil des Verfahrens in puncto Ressourceneffizienz: da der Auswertebereich im Prinzip nur das charakteristische Muster aufweist, kann der Bildverarbeitungsalgorithmus an die grundlegende Morphologie möglicher charakteristischer Muster und der darin enthaltenen charakteristischen Merkmale angepasst werden und somit schneller arbeiten. Insbesondere kann die Wahrscheinlichkeit reduziert werden, dass Kapazitäten für die Verarbeitung von Bildinhalten verschwendet werden, die nicht Teil des charakteristischen Musters sind.According to another embodiment, the method further comprises performing image processing on the designated evaluation area of the image captured by the image capture unit to detect the characteristic pattern. The detection of the characteristic pattern may include the detection of individual characteristic features of the pattern, by means of which the structures can be recognized. For example, in a checkerboard pattern, the image processing cascade can be used to detect corners and / or at least two light-dark transitions, so that the position and dimension of the structures can be determined on the basis of these characteristic features. At this point, one can clearly see the advantage of the method in terms of resource efficiency: since the evaluation area in principle has only the characteristic pattern, the image processing algorithm can be adapted to the basic morphology of possible characteristic patterns and the characteristic features contained therein and thus work faster. In particular, the likelihood of wasting image content processing capacity that is not part of the characteristic pattern can be reduced.
Die vorliegende Erfindung betrifft des Weiteren ein Kraftfahrzeug mit einer Fahrzeugkamera und einer Auswerteeinheit, wobei die Auswerteeinheit eingerichtet ist, das hier beschriebene Verfahren auszuführen.The present invention further relates to a motor vehicle with a vehicle camera and an evaluation unit, wherein the Evaluation unit is set up to carry out the method described here.
Weitere Einzelheiten, Merkmale und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung von bevorzugten Ausführungsformen anhand der Zeichnungen. Die Zeichnungen illustrieren dabei lediglich beispielhafte Ausführungsformen der Erfindung, welche den wesentlichen Erfindungsgedanken nicht einschränken. Insbesondere sind die Dimensionen und geometrische Relationen der in den Figuren dargestellten Elemente nicht als limitierend zu werten.
-
1 zeigt ein Schaubild, welches das Funktionsprinzip des erfindungsgemäßen Verfahrens veranschaulicht. -
2 zeigt ein beispielhaftes charakteristisches Muster und einen dazu ermittelten Auswertebereich. -
3 zeigt ein schematisches Flussdiagramm, welches den Ablauf einer Ausführungsform des erfindungsgemäßen Verfahrens veranschaulicht.
-
1 shows a diagram which illustrates the principle of operation of the method according to the invention. -
2 shows an exemplary characteristic pattern and an evaluation range determined therefor. -
3 shows a schematic flow diagram illustrating the sequence of an embodiment of the method according to the invention.
In
Die Fahrzeugkamera
Anhand des in
Das erfindungsgemäße Verfahren startet mit der Berechnung von Trajektorien, welche die scheinbare Bewegung von üblicherweise mindestens zwei Strukturen
Die Orientierung der Kamera
Auf Grundlage der berechneten Trajektorien
Wie aus
Nach erfolgter Bestimmung des (erweiterten) Auswertebereiches
In
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017117614.4A DE102017117614B4 (en) | 2017-08-03 | 2017-08-03 | A method for trajectory-based determination of an evaluation area in an image of a vehicle camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017117614.4A DE102017117614B4 (en) | 2017-08-03 | 2017-08-03 | A method for trajectory-based determination of an evaluation area in an image of a vehicle camera |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102017117614A1 DE102017117614A1 (en) | 2019-02-07 |
DE102017117614B4 true DE102017117614B4 (en) | 2019-07-04 |
Family
ID=65019991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017117614.4A Active DE102017117614B4 (en) | 2017-08-03 | 2017-08-03 | A method for trajectory-based determination of an evaluation area in an image of a vehicle camera |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102017117614B4 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111971522B (en) * | 2018-03-29 | 2023-01-13 | 特威纳有限公司 | Vehicle detection system |
US20210223038A1 (en) * | 2020-01-18 | 2021-07-22 | Magik Eye Inc. | Distance measurements including supplemental accuracy data |
DE102020117060B4 (en) * | 2020-06-29 | 2022-05-05 | Audi Aktiengesellschaft | Device and method for detecting the surroundings of a vehicle |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070115484A1 (en) * | 2005-10-24 | 2007-05-24 | Peisen Huang | 3d shape measurement system and method including fast three-step phase shifting, error compensation and calibration |
US20130321627A1 (en) | 2012-05-31 | 2013-12-05 | John C. Turn, JR. | Road departure sensing and intelligent driving systems and methods |
US20150294161A1 (en) | 2012-10-31 | 2015-10-15 | Tk Holdings, Inc. | Vehicular path sensing system and method |
DE102015122172A1 (en) | 2015-12-18 | 2017-06-22 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Headlamp based projection of patterns to measure spatial characteristics of a vehicle environment |
-
2017
- 2017-08-03 DE DE102017117614.4A patent/DE102017117614B4/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070115484A1 (en) * | 2005-10-24 | 2007-05-24 | Peisen Huang | 3d shape measurement system and method including fast three-step phase shifting, error compensation and calibration |
US20130321627A1 (en) | 2012-05-31 | 2013-12-05 | John C. Turn, JR. | Road departure sensing and intelligent driving systems and methods |
US20150294161A1 (en) | 2012-10-31 | 2015-10-15 | Tk Holdings, Inc. | Vehicular path sensing system and method |
DE102015122172A1 (en) | 2015-12-18 | 2017-06-22 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Headlamp based projection of patterns to measure spatial characteristics of a vehicle environment |
Also Published As
Publication number | Publication date |
---|---|
DE102017117614A1 (en) | 2019-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102012110883B4 (en) | Outside environment recognition device and outside environment recognition process | |
DE19636028C1 (en) | Stereo image object detection, esp. for road vehicles | |
DE102017117614B4 (en) | A method for trajectory-based determination of an evaluation area in an image of a vehicle camera | |
DE102015012416A1 (en) | Projecting a predefinable light pattern | |
DE102012101014A1 (en) | Vehicle detection device | |
WO2007107315A1 (en) | Multi-sensorial hypothesis based object detector and object pursuer | |
DE102014112820A1 (en) | Vehicle exterior environment recognition device | |
DE102016111307B4 (en) | Vehicle exterior environment recognition device | |
DE102009025545A1 (en) | Method and device for detecting brake light systems | |
DE102011111440A1 (en) | Method for representation of environment of vehicle, involves forming segments of same width from image points of equal distance in one of image planes, and modeling objects present outside free space in environment | |
DE102015117379A1 (en) | Method for detecting a dynamic object in an environmental region of a motor vehicle on the basis of information from a vehicle-side ultrasound detection device, driver assistance system and motor vehicle | |
DE102018116511B3 (en) | Depth perception method based on double-sided headlamps of a vehicle | |
DE102018123393A1 (en) | Detection of parking areas | |
DE102016111304A1 (en) | Vehicle exterior environment recognition device | |
DE102017117211B3 (en) | A method of trajectory-based feature mapping in an image captured by an image capture unit of a vehicle | |
DE102018101023B3 (en) | Method for distance measurement by means of trajectory-based triangulation | |
DE102014113359B4 (en) | Filtering device and environment detection system | |
EP3788594B1 (en) | Identifying the contour of a vehicle on the basis of measurement data from an environment sensor system | |
DE102020112284A1 (en) | Simulation method for a pixel headlight system | |
DE102018102113B4 (en) | Method for detecting overlapping areas of light cones of two matrix headlights in a matrix headlight system and for selectively switching off headlight segments of the matrix headlights | |
WO2022002719A1 (en) | Device and method for detecting the surroundings of a vehicle | |
DE102018118648B4 (en) | Method for compensating double images in a light distribution of a matrix headlight | |
DE102017214950A1 (en) | Method for automatic headlight calibration of a motor vehicle | |
DE102022103294B4 (en) | Calibration method for a headlight device of a motor vehicle | |
DE102019102561A1 (en) | Process for recognizing a plaster marking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |