DE102018113325A1 - A method and computerized location system for determining the location of at least one structure by means of an imaging sensor - Google Patents
A method and computerized location system for determining the location of at least one structure by means of an imaging sensor Download PDFInfo
- Publication number
- DE102018113325A1 DE102018113325A1 DE102018113325.1A DE102018113325A DE102018113325A1 DE 102018113325 A1 DE102018113325 A1 DE 102018113325A1 DE 102018113325 A DE102018113325 A DE 102018113325A DE 102018113325 A1 DE102018113325 A1 DE 102018113325A1
- Authority
- DE
- Germany
- Prior art keywords
- location
- sensor
- imaging sensor
- determining
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Abstract
Die Erfindung betrifft ein Verfahren zum Bestimmen des Orts mindestens einer Struktur (24) mittels eines bildgebenden Sensors (18), insbesondere eines an einem Fahrzeug (10) montierten bildgebenden Sensors (18), wobei der Ort der individuellen Struktur (26) aus Bildern (24) bestimmt wird, die durch den bildgebende Sensor (18) aus mindestens zwei verschiedenen Sensorpositionen (P1, P2) erzeugt werden, wobei die Sensorpositionen (P1, P2) einen Abstand (D) haben der größer oder gleich einem minimalen Abstand (D) zum Bestimmen des Orts der Struktur (24) ist. Der bildgebende Sensor (18) erzeugt während einer Bewegung eine Serie aufeinanderfolgender Bilder (26), wobei der Abstand (D) der Sensorpositionen (P1, P2) durch Erkennen der Struktur (26) in den Bildern (24) und Bestimmen des Ortes der Struktur (26) relativ zur Sensorposition (P1, P2) und zu einer Orientierung des bildgebenden Sensors (18) für jedes der Bilder (24) verifiziert wird.Die Erfindung betrifft ferner ein entsprechendes Computerprogrammprodukt und ein entsprechendes computergestütztes Ortbestimmungssystem (14).The invention relates to a method for determining the location of at least one structure (24) by means of an imaging sensor (18), in particular an imaging sensor (18) mounted on a vehicle (10), wherein the location of the individual structure (26) consists of images ( 24) generated by the imaging sensor (18) from at least two different sensor positions (P1, P2), the sensor positions (P1, P2) having a distance (D) greater than or equal to a minimum distance (D) for determining the location of the structure (24). The imaging sensor (18) generates a series of successive images (26) during movement, wherein the distance (D) of the sensor positions (P1, P2) is detected by recognizing the structure (26) in the images (24) and determining the location of the structure (26) relative to the sensor position (P1, P2) and to an orientation of the imaging sensor (18) for each of the images (24). The invention further relates to a corresponding computer program product and a corresponding computerized location determining system (14).
Description
Die Erfindung betrifft ein Verfahren zum Bestimmen des Ortes mindestens einer Struktur mittels eines bildgebenden Sensors, insbesondere eines an einem Fahrzeug montierten bildgebenden Sensors, wobei der Ort der individuellen Struktur aus Bildern bestimmt wird, die durch den bildgebenden Sensor von mindestens zwei verschiedenen Sensorpositionen erzeugt werden, wobei die Sensorpositionen einen Abstand haben, der größer oder gleich einem minimalen Abstand zum Bestimmen des Orts der Struktur ist.The invention relates to a method for determining the location of at least one structure by means of an imaging sensor, in particular a vehicle-mounted imaging sensor, wherein the location of the individual structure is determined from images generated by the imaging sensor from at least two different sensor positions, wherein the sensor positions are at a distance greater than or equal to a minimum distance to determine the location of the structure.
Die Erfindung betrifft ferner ein entsprechendes Computerprogrammprodukt und ein entsprechendes computergestütztes Ortsbestimmungssystem.The invention further relates to a corresponding computer program product and a corresponding computer-aided location system.
Die Bestimmung des Ortes von „Structure from Motion“ und/oder eine 3D-Rekonstruktion unter Verwendung eines bildgebenden Sensors, wie beispielsweise einer Kamera, erfordert die Bewegung des bildgebenden Sensors, bevor eine Abschätzung einer Struktur in der Umgebung möglich ist. Daher muss bei einer Anwendung, bei der Structure from Motion oder eine 3D-Rekonstruktion erforderlich ist, die Anwendung eine ausreichende Bewegung des bildgebenden Sensors ermöglichen, bevor mit der 3D-Rekonstruktion begonnen wird. Üblicherweise erfolgt dies, indem vor dem Triggern der 3D-Rekonstruktion eine minimale Basislinie (minimaler Abstand Dth) zwischen den zwei Sensorpositionen erzwungen wird, d.h. indem gesagt wird, dass der bildgebende Sensor vor der Ausführung der Rekonstruktion eine minimale Translationsbewegung ausführen muss. Dieser mit dem Begriff „Degeneration (Degeneracy)“ verbundene Ansatz wird im Fachbuch: Hartley, R. und Zisserman, A.: „Multiple View Geometry in Computer Vision, Zweite Auflage“; Cambridge University Press, 25. März 2004, ausführlicher diskutiert.The determination of the location of "Structure from Motion" and / or a 3D reconstruction using an imaging sensor, such as a camera, requires the movement of the imaging sensor before an estimate of a structure in the environment is possible. Therefore, in an application that requires structure from motion or 3D reconstruction, the application must allow sufficient movement of the imaging sensor before starting 3D reconstruction. Typically, this is done by forcing a minimum baseline (minimum distance Dth) between the two sensor positions, i.e., before triggering the 3D reconstruction. by saying that the imaging sensor must perform a minimum translational motion prior to performing the reconstruction. This approach, associated with the term "degeneracy", appears in the textbook: Hartley, R. and Zisserman, A .: "Multiple View Geometry in Computer Vision, Second Edition"; Cambridge University Press, March 25, 2004, discussed in more detail.
Der Erfindung liegt die Aufgabe zugrunde, ein entsprechend verbessertes Verfahren zum Bestimmen des Ortes mindestens einer Struktur mittels eines bewegten bildgebenden Sensors, ein entsprechend verbessertes Computerprogrammprodukt und ein entsprechend verbessertes computergestütztes Ortsbestimmungssystem anzugeben.The invention has for its object to provide a correspondingly improved method for determining the location of at least one structure by means of a moving imaging sensor, a correspondingly improved computer program product and a correspondingly improved computer-aided positioning system.
Die Lösung dieser Aufgabe erfolgt durch ein Verfahren, ein Computerprogrammprodukt sowie ein entsprechendes computergestütztes Ortsbestimmungssystem mit den Merkmalen der jeweiligen unabhängigen Ansprüche. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche, der Beschreibung und der Figuren.The solution of this object is achieved by a method, a computer program product and a corresponding computer-aided location system with the features of the respective independent claims. Advantageous embodiments of the invention are subject of the dependent claims, the description and the figures.
Gemäß dem erfindungsgemäßen Verfahren zum Bestimmen des Ortes mindestens einer Struktur mittels eines bildgebenden Sensors, wobei der Ort aus Bildern ermittelt wird, die durch den bildgebenden Sensor von mindestens zwei unterschiedlichen Sensorpositionen in einem Abstand erzeugt werden, der größer oder gleich einem minimalen Abstand zum Bestimmen des Ortes der Struktur ist, erzeugt der sich bewegende bildgebende Sensor eine Serie aufeinanderfolgender Bilder, wobei der Abstand der Sensorpositionen durch Erkennen der Struktur in den Bildern und Bestimmen des Ortes der Struktur relativ zu der Position und zu einer Orientierung des bildgebenden Sensors für jedes der Bilder verifiziert wird. Die Orientierung des bildgebenden Sensors ist z.B. durch eine Blickrichtung des Sensors gegeben. In einer bevorzugten Anwendung ist der bildgebende Sensor in/an einem Fahrzeug montiert und sind die Strukturen in einer Umgebung des Fahrzeugs. Das erfindungsgemäße Verfahren hat den Vorteil, dass ein einzelner sich bewegender bildgebender Sensor ausreicht, um den Ort der Struktur(en) zu bestimmen, wobei die Bereitstellung eines ausreichenden Abstands der Sensorpositionen, an denen die Bilder erzeugt wurden, aus den Bildern selbst bestimmt/verifiziert werden kann.According to the method according to the invention for determining the location of at least one structure by means of an imaging sensor, wherein the location is determined from images generated by the imaging sensor from at least two different sensor positions at a distance greater than or equal to a minimum distance for determining the Once the structure is in place, the moving imaging sensor generates a series of successive images, verifying the distance of the sensor positions by detecting the structure in the images and determining the location of the structure relative to the position and orientation of the imaging sensor for each of the images becomes. The orientation of the imaging sensor is e.g. given by a viewing direction of the sensor. In a preferred application, the imaging sensor is mounted in / on a vehicle and are the structures in an environment of the vehicle. The method according to the invention has the advantage that a single moving imaging sensor is sufficient to determine the location of the structure (s), wherein the provision of a sufficient distance of the sensor positions where the images were generated from the images themselves determined / verified can be.
Der bildgebende Sensor ist vorzugsweise eine Kamera, ein bildgebender Ultraschallsensor, ein bildgebender Radarsensor oder ein bildgebender Lidarsensor. All diese Arten bildgebender Sensoren sind aus verschiedenen Automobilanwendungen bekannt.The imaging sensor is preferably a camera, an imaging ultrasound sensor, an imaging radar sensor or an imaging lidar sensor. All of these types of imaging sensors are known from various automotive applications.
Gemäß einer bevorzugten Ausführungsform der Erfindung zeigt ein Referenzvektor die jeweilige Orientierung des bildgebenden Sensors an, zeigt ein Richtungsvektor den Ort der Struktur relativ zur Position des bildgebenden Sensors an und ergibt sich das Vorhandensein eines ausreichenden Abstands zwischen den Sensorpositionen aus der Tatsache, dass eine Winkeldifferenz der jeweiligen Richtungsvektoren s, s', die mit dem Referenzvektor
In vielen Fällen ändert sich die Orientierung des bildgebenden Sensors zwischen den beiden Sensorpositionen nicht wesentlich. In diesen Fällen kann der Abstand der Sensorpositionen nur unter Verwendung der Richtungsvektoren bestimmt werden. In many cases, the orientation of the imaging sensor between the two sensor positions does not change significantly. In these cases, the distance of the sensor positions can only be determined using the direction vectors.
Gemäß einer weiteren bevorzugten Ausführungsform der Erfindung sind die Bilder Einzelbilder (Frames) einer Videosequenz, die durch den sich bewegenden bildgebenden Sensor, insbesondere eine (Video-) Kamera, aufgenommen werden. Vorzugsweise werden ein Paar Einzelbilder, d.h. zwei unmittelbar aufeinanderfolgende Einzelbilder, zum Bestimmen des Abstands der Sensorpositionen verwendet.According to a further preferred embodiment of the invention, the images are frames (frames) of a video sequence which are recorded by the moving imaging sensor, in particular a (video) camera. Preferably, a pair of frames, i. two consecutive frames used to determine the spacing of the sensor positions.
Gemäß einer anderen bevorzugten Ausführungsform der Erfindung wird die Winkeldifferenz θ durch Berechnen des Skalarprodukts der Richtungsvektoren s, s' bestimmt. Jeder der Richtungsvektoren s, s' ist vorzugsweise ein Einheitsvektor mit der Länge 1. Dies ergibt die folgende Gleichung:
Vorzugsweise wird der Ort mittels Triangulation bestimmt. Triangulation ist ein Prozess zum Bestimmen der Position eines Punktes derart, dass nur Winkel zu ihm von bekannten Punkten an jedem Ende einer festen Basislinie gemessen werden, anstatt die Abstände zum Punkt direkt wie bei einer Trilateration zu messen. Der Punkt kann dann als der dritte Punkt eines Dreiecks mit einer bekannten Seite und zwei bekannten Winkeln festgelegt werden.Preferably, the location is determined by triangulation. Triangulation is a process of determining the position of a point such that only angles to it are measured from known points at each end of a fixed baseline, rather than measuring the distances to the point directly, as in a trilateration. The point can then be defined as the third point of a triangle with a known side and two known angles.
Gemäß einer noch anderen bevorzugten Ausführungsform der Erfindung ist die Ortsbestimmung Teil einer 3D-Rekonstruktion mehrerer Strukturen. Mit anderen Worten: das Verfahren ist ein Verfahren für eine 3D-Rekonstruktion. 3D-Rekonstruktion ist ein Prozess zum Erfassen der Form und des Erscheinungsbildes realer Objekte. Dieser Prozess kann entweder durch aktive oder durch passive Methoden implementiert werden. Wenn die Form des Modells sich mit der Zeit ändern darf, wird dies als nicht-starre oder räumlich-zeitliche Rekonstruktion bezeichnet.According to yet another preferred embodiment of the invention, the location determination is part of a 3D reconstruction of multiple structures. In other words, the method is a method for 3D reconstruction. 3D reconstruction is a process for capturing the shape and appearance of real objects. This process can be implemented by either active or passive methods. If the shape of the model is allowed to change over time, this is called non-rigid or spatial-temporal reconstruction.
Das erfindungsgemäße Computerprogrammprodukt weist computerausführbare Programmcodeabschnitte mit Programmcodeanweisungen auf, die dafür konfiguriert sind, das vorstehende Verfahren auszuführen, wenn es z.B. in einen Prozessor eines computergestützten Ortsbestimmungssystems geladen wird.The computer program product according to the invention comprises computer executable program code portions having program code instructions configured to execute the above method when e.g. is loaded into a processor of a computerized location system.
Gemäß dem computergestützten Ortsbestimmungssystem zum Bestimmen des Orts mindestens einer Struktur mittels eines bildgebenden Sensors zum Erzeugen einer Serie aufeinanderfolgender Bilder, ist das System dafür eingerichtet, den Ort der individuellen Struktur aus Bildern zu bestimmen, die durch den bildgebenden Sensor von mindestens zwei verschiedenen Sensorpositionen erzeugt wurden, die einen Abstand haben, der größer oder gleich einem minimalen Abstand zum Bestimmen des Orts der Struktur ist, wobei das System dafür eingerichtet ist, den Abstand der Sensorpositionen durch Erkennen der Struktur in den Bildern und Bestimmen des Ortes der Struktur relativ zu der Position und zu einer Orientierung des bildgebenden Sensors für jedes der Bilder zu verifizieren.In accordance with the computerized location system for determining the location of at least one structure by means of an imaging sensor to produce a series of successive images, the system is configured to determine the location of the individual structure from images generated by the imaging sensor from at least two different sensor locations having a distance greater than or equal to a minimum distance to determine the location of the structure, the system being arranged to adjust the distance of the sensor positions by detecting the structure in the images and determining the location of the structure relative to the position and to verify an orientation of the imaging sensor for each of the images.
Gemäß einer bevorzugten Ausführungsform des erfindungsgemäßen computergestützten Ortsbestimmungssystems ist das Ortsbestimmungssystem dafür eingerichtet, das vorstehende Verfahren mittels mindestens eines bildgebenden Sensors auszuführen.According to a preferred embodiment of the computer-assisted positioning system according to the invention, the location determining system is adapted to carry out the above method by means of at least one imaging sensor.
Im Allgemeinen weist das computergestützte Ortsbestimmungssystem eine Computereinheit mit einem Prozessor und einem Speicher auf. Vorzugsweise weist das Ortsbestimmungssystem ferner den bildgebenden Sensor auf.In general, the computerized location system includes a computer unit having a processor and memory. Preferably, the location system further comprises the imaging sensor.
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, der Figur und der Figurenbeschreibung. Alle vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachstehend in der Figurenbeschreibung erwähnten und/oder nur in der Figur dargestellten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder eigenständig verwendbar.Further features of the invention will become apparent from the claims, the figure and the description of the figures. All of the features and feature combinations mentioned above in the description as well as the features and feature combinations mentioned below in the description of the figures and / or shown only in the figure are usable not only in the respectively indicated combination but also in other combinations or independently.
Die Erfindung wird nachstehend anhand einer bevorzugten Ausführungsform sowie unter Bezug auf die beigefügten Zeichnungen näher erläutert.The invention is explained below with reference to a preferred embodiment and with reference to the accompanying drawings.
Es zeigt
-
1 eine Draufsicht eines Fahrzeugs auf einer Straße, das Strukturen eines Objekts unter Verwendung eines bildgebenden Sensors erfasst.
-
1 a plan view of a vehicle on a road that detects structures of an object using an imaging sensor.
Das Fahrzeug
Somit ist diese Struktur
Durch Untersuchen jedes Paars von Vektoren s, s', die einem übereinstimmenden Punkt in benachbarten Videobildern
Zusätzlich kann man sagen, dass ein bestimmter Merkmalssatz „unscharf“ (engl.: „unsharp“) ist, was anzeigt, dass ein Objekt mit der Struktur
Zwischen zwei verarbeiteten Videobildern werden Merkmale zugeordnet, beispielsweise unter Verwendung eines optischen Flusses oder eines Merkmalsabgleichs. Jedes Merkmal kann unter Verwendung einer Kalibrierung in einen Strahl vom bildgebenden Sensor
Um diese Konvergenz zu gewährleisten, erfordern existierende Lösungen die Einschränkung, dass sich die Kamera
Manchmal ist es nützlich, ein Merkmal über mehr als ein Einzelbild hinweg zu verfolgen, beispielsweise wenn drei oder mehr Abtastwerte verwenden werden sollen, um den 3D-Punkt in der Rekonstruktion zu erstellen. In diesem Fall wird der interne Puffer für die Merkmale nur dann hinzugefügt, wenn alle neuen Merkmale die vorstehend erwähnten Kriterien erfüllen.Sometimes it is useful to track a feature across more than one frame, for example, when using three or more samples to create the 3D point in the reconstruction. In this case, the internal buffer for the features is added only if all new features meet the criteria mentioned above.
Es wird darauf hingewiesen, dass der Grund für die Verwendung eines minimalen Konvergenzwinkelschwellenwerts darin besteht, dass Strahlen, die mit 0 oder mit einem sehr kleinen Winkel konvergieren, einen hohen numerischen Fehler haben und sehr anfällig sind für Rauschen im Signal, so dass der geschätzte 3D-Punkt für dieses Strahlentupel mit einem hohen Fehler behaftet sein wird.It should be noted that the reason for using a minimum convergence angle threshold is that rays converging at 0 or at a very small angle have a high numerical error and are very susceptible to noise in the signal, so the estimated 3D Point for this Strahlentupel will be afflicted with a high error.
Für einige Anwendungen ist jedoch ein höherer Fehler akzeptabel, weshalb wir das Konzept des „unscharfen“ Merkmals einführen. Ein „unscharfes“ Merkmal ist ein Merkmal, das nicht unbedingt die vorstehend erwähnten Kriterien erfüllt. Beispielsweise können für einen Strahl, der als unscharf eingestuft werden soll, die folgenden Kriterien angewendet werden:
Das heißt, der Winkel zwischen den Strahlen muss größer sein als ein Schwellenwert, um als unscharf zu gelten (es wird erneut darauf hingewiesen, dass die Kosinuswerte zu einem invertierten Ungleichheitszeichen führen). Unterhalb dieses Schwellenwertes werden die Merkmale vollständig ignoriert, sie werden überhaupt nicht berücksichtigt. Oberhalb dieses Schwellenwertes, aber unterhalb des minimalen Winkels für ein „normales“ Merkmal, werden die Merkmale als unscharf betrachtet und können an Stellen verwendet werden, an denen die Anwendung dies zulässt (d.h. bei denen eine genaue 3D-Position nicht unbedingt erforderlich ist). Wie üblich, werden Merkmale mit einem Winkel, der größer ist als der vorstehend diskutierte Schwellenwert, als „normale“ Merkmale für die Rekonstruktion eingestuft.That is, the angle between the beams must be greater than a threshold to be out of focus (again, it should be noted that the cosine values result in an inverted inequality sign). Below this threshold the features are completely ignored, they are not considered at all. Above this threshold, but below the minimum angle for a "normal" feature, the features are considered out of focus and can be used at locations where the application permits (i.e., where an accurate 3D position is not strictly required). As usual, features having an angle greater than the threshold discussed above are considered "normal" features for reconstruction.
Ein ähnlicher Ansatz kann bei einem Bündelausgleich verwendet werden. Bündelausgleich (BA: Bundle Adjustment) ist ein numerisches Verfahren zum Verfeinern der Position der Kamera
Wie bereits erwähnt wurde, verwendet der Bündelausgleich typischerweise den Reprojektionsfehler als eine Fehlerfunktion. Der Reprojektionsfehler ist ein üblicher Mechanismus, durch den der geschätzte Punkt in R3 erneut in den Bildraum projiziert wird und der Abstand zum Bildabtastpunkt als ein Fehler gemessen wird. Zusätzlich kann die Bündelausgleichsfehlerfunktion derart konstruiert werden, dass solche parallele Strahlen immer einen hohen Fehler reflektieren, und auf diese Weise kann Merkmalen, die derart konstruiert werden, dass sie einen hohen Fehler haben, eine niedrigere Zuverlässigkeit zugeordnet werden.As already mentioned, beam balancing typically uses the reprojection error as an error function. The reprojection error is a common mechanism by which the estimated point in R 3 is re-projected into the image space and the distance to the image sampling point is measured as an error. In addition, the beam-compensation error function can be designed such that such parallel beams always reflect a high error, and in this way features designed to have a high error can be assigned a lower reliability.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
Claims (10)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018113325.1A DE102018113325A1 (en) | 2018-06-05 | 2018-06-05 | A method and computerized location system for determining the location of at least one structure by means of an imaging sensor |
PCT/EP2019/062642 WO2019233728A1 (en) | 2018-06-05 | 2019-05-16 | Method and computer based location determination system for determining the location of at least one structure by means of an imaging sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018113325.1A DE102018113325A1 (en) | 2018-06-05 | 2018-06-05 | A method and computerized location system for determining the location of at least one structure by means of an imaging sensor |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018113325A1 true DE102018113325A1 (en) | 2019-12-05 |
Family
ID=66597593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018113325.1A Pending DE102018113325A1 (en) | 2018-06-05 | 2018-06-05 | A method and computerized location system for determining the location of at least one structure by means of an imaging sensor |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102018113325A1 (en) |
WO (1) | WO2019233728A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10336638A1 (en) * | 2003-07-25 | 2005-02-10 | Robert Bosch Gmbh | Apparatus for classifying at least one object in a vehicle environment |
DE102007008543A1 (en) * | 2007-02-21 | 2008-08-28 | Hella Kgaa Hueck & Co. | Method and device for determining the state of motion of objects |
DE102007021576A1 (en) * | 2007-05-08 | 2008-11-13 | Hella Kgaa Hueck & Co. | Method and device for determining the position of a traffic sign |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8831290B2 (en) * | 2012-08-01 | 2014-09-09 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for determining poses of vehicle-mounted cameras for in-road obstacle detection |
DE102015101190A1 (en) * | 2015-01-28 | 2016-07-28 | Connaught Electronics Ltd. | Method for determining an image depth value depending on an image area, camera system and motor vehicle |
US10248872B2 (en) * | 2016-10-19 | 2019-04-02 | Texas Instruments Incorporated | Estimation of time to collision in a computer vision system |
-
2018
- 2018-06-05 DE DE102018113325.1A patent/DE102018113325A1/en active Pending
-
2019
- 2019-05-16 WO PCT/EP2019/062642 patent/WO2019233728A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10336638A1 (en) * | 2003-07-25 | 2005-02-10 | Robert Bosch Gmbh | Apparatus for classifying at least one object in a vehicle environment |
DE102007008543A1 (en) * | 2007-02-21 | 2008-08-28 | Hella Kgaa Hueck & Co. | Method and device for determining the state of motion of objects |
DE102007021576A1 (en) * | 2007-05-08 | 2008-11-13 | Hella Kgaa Hueck & Co. | Method and device for determining the position of a traffic sign |
Also Published As
Publication number | Publication date |
---|---|
WO2019233728A1 (en) | 2019-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112009003144B4 (en) | Method and device for detecting an obstacle in an image | |
DE102011113197B4 (en) | Method and device for determining an angle between a towing vehicle and a trailer coupled to it, and the vehicle | |
WO2018069405A1 (en) | Motor vehicle and method for a 360° detection of the surroundings | |
WO2017206999A1 (en) | Method for evaluating image data of a vehicle camera | |
DE102013108070A1 (en) | Image calibration and equalization of a wide-angle camera | |
DE112016001150T5 (en) | ESTIMATION OF EXTRINSIC CAMERA PARAMETERS ON THE BASIS OF IMAGES | |
DE102012200731A1 (en) | Method and device for visualizing the environment of a vehicle | |
DE112017001545T5 (en) | VIRTUAL OVERLAY SYSTEM AND PROCESS FOR COVERED OBJECTS | |
DE102014201271A1 (en) | A method and controller for detecting a change in a relative yaw angle within a stereo video system for a vehicle | |
DE102012009577A1 (en) | Method for calibrating squint angle of frame camera of stereo camera arrangement in vehicle, involves calculating travel distance covered by vehicle, and determining deviation between distance and reference distance to calibrate angle | |
DE112017007347T5 (en) | OBJECT DETECTION DEVICE AND VEHICLE | |
EP2246664A1 (en) | Method for automatic determination of at least one target factor describing changes in the position of a motor vehicle | |
DE102020129096A1 (en) | GENERATION OF THREE-DIMENSIONAL POINT CLOUDS USING A POLARIMETRIC CAMERA IN A VEHICLE EQUIPPED WITH A DRIVING ASSISTANT SYSTEM | |
DE102013012930A1 (en) | Method for determining a current distance and / or a current speed of a target object from a reference point in a camera image, camera system and motor vehicle | |
DE102014114221A1 (en) | Method for detecting an object in a surrounding area of a motor vehicle, driver assistance system and motor vehicle | |
DE102020127000A1 (en) | GENERATION OF COMPOSITE PICTURES USING INTERMEDIATE SURFACES | |
DE112017007237T5 (en) | DRIVER CONDITION ASSESSMENT DEVICE AND DRIVER CONDITION ASSESSMENT METHOD | |
DE102015104065A1 (en) | A method for determining a position of an object in a three-dimensional world coordinate system, computer program product, camera system and motor vehicle | |
DE102020127278A1 (en) | Around-View Synthesis System and Process | |
DE102014219423A1 (en) | Dynamic model for compensation of distortions of a windshield | |
EP3420533B1 (en) | Method for calibrating an optical measurement set-up | |
DE102018113325A1 (en) | A method and computerized location system for determining the location of at least one structure by means of an imaging sensor | |
DE102014219418B4 (en) | Process for the stereo rectification of stereo camera images and driver assistance system | |
DE102017104957A1 (en) | Method for determining a movement of mutually corresponding pixels in an image sequence from a surrounding area of a motor vehicle, evaluation device, driver assistance system and motor vehicle | |
DE102020214622A1 (en) | Evaluation of image data from a stereo camera for object evaluation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |