DE102018113325A1 - A method and computerized location system for determining the location of at least one structure by means of an imaging sensor - Google Patents

A method and computerized location system for determining the location of at least one structure by means of an imaging sensor Download PDF

Info

Publication number
DE102018113325A1
DE102018113325A1 DE102018113325.1A DE102018113325A DE102018113325A1 DE 102018113325 A1 DE102018113325 A1 DE 102018113325A1 DE 102018113325 A DE102018113325 A DE 102018113325A DE 102018113325 A1 DE102018113325 A1 DE 102018113325A1
Authority
DE
Germany
Prior art keywords
location
sensor
imaging sensor
determining
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018113325.1A
Other languages
German (de)
Inventor
Ciaran Hughes
Anto Michael
Jean-Francois Bariant
Ahmed Ali
Jonathan Horgan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Priority to DE102018113325.1A priority Critical patent/DE102018113325A1/en
Priority to PCT/EP2019/062642 priority patent/WO2019233728A1/en
Publication of DE102018113325A1 publication Critical patent/DE102018113325A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

Die Erfindung betrifft ein Verfahren zum Bestimmen des Orts mindestens einer Struktur (24) mittels eines bildgebenden Sensors (18), insbesondere eines an einem Fahrzeug (10) montierten bildgebenden Sensors (18), wobei der Ort der individuellen Struktur (26) aus Bildern (24) bestimmt wird, die durch den bildgebende Sensor (18) aus mindestens zwei verschiedenen Sensorpositionen (P1, P2) erzeugt werden, wobei die Sensorpositionen (P1, P2) einen Abstand (D) haben der größer oder gleich einem minimalen Abstand (D) zum Bestimmen des Orts der Struktur (24) ist. Der bildgebende Sensor (18) erzeugt während einer Bewegung eine Serie aufeinanderfolgender Bilder (26), wobei der Abstand (D) der Sensorpositionen (P1, P2) durch Erkennen der Struktur (26) in den Bildern (24) und Bestimmen des Ortes der Struktur (26) relativ zur Sensorposition (P1, P2) und zu einer Orientierung des bildgebenden Sensors (18) für jedes der Bilder (24) verifiziert wird.Die Erfindung betrifft ferner ein entsprechendes Computerprogrammprodukt und ein entsprechendes computergestütztes Ortbestimmungssystem (14).The invention relates to a method for determining the location of at least one structure (24) by means of an imaging sensor (18), in particular an imaging sensor (18) mounted on a vehicle (10), wherein the location of the individual structure (26) consists of images ( 24) generated by the imaging sensor (18) from at least two different sensor positions (P1, P2), the sensor positions (P1, P2) having a distance (D) greater than or equal to a minimum distance (D) for determining the location of the structure (24). The imaging sensor (18) generates a series of successive images (26) during movement, wherein the distance (D) of the sensor positions (P1, P2) is detected by recognizing the structure (26) in the images (24) and determining the location of the structure (26) relative to the sensor position (P1, P2) and to an orientation of the imaging sensor (18) for each of the images (24). The invention further relates to a corresponding computer program product and a corresponding computerized location determining system (14).

Description

Die Erfindung betrifft ein Verfahren zum Bestimmen des Ortes mindestens einer Struktur mittels eines bildgebenden Sensors, insbesondere eines an einem Fahrzeug montierten bildgebenden Sensors, wobei der Ort der individuellen Struktur aus Bildern bestimmt wird, die durch den bildgebenden Sensor von mindestens zwei verschiedenen Sensorpositionen erzeugt werden, wobei die Sensorpositionen einen Abstand haben, der größer oder gleich einem minimalen Abstand zum Bestimmen des Orts der Struktur ist.The invention relates to a method for determining the location of at least one structure by means of an imaging sensor, in particular a vehicle-mounted imaging sensor, wherein the location of the individual structure is determined from images generated by the imaging sensor from at least two different sensor positions, wherein the sensor positions are at a distance greater than or equal to a minimum distance to determine the location of the structure.

Die Erfindung betrifft ferner ein entsprechendes Computerprogrammprodukt und ein entsprechendes computergestütztes Ortsbestimmungssystem.The invention further relates to a corresponding computer program product and a corresponding computer-aided location system.

Die Bestimmung des Ortes von „Structure from Motion“ und/oder eine 3D-Rekonstruktion unter Verwendung eines bildgebenden Sensors, wie beispielsweise einer Kamera, erfordert die Bewegung des bildgebenden Sensors, bevor eine Abschätzung einer Struktur in der Umgebung möglich ist. Daher muss bei einer Anwendung, bei der Structure from Motion oder eine 3D-Rekonstruktion erforderlich ist, die Anwendung eine ausreichende Bewegung des bildgebenden Sensors ermöglichen, bevor mit der 3D-Rekonstruktion begonnen wird. Üblicherweise erfolgt dies, indem vor dem Triggern der 3D-Rekonstruktion eine minimale Basislinie (minimaler Abstand Dth) zwischen den zwei Sensorpositionen erzwungen wird, d.h. indem gesagt wird, dass der bildgebende Sensor vor der Ausführung der Rekonstruktion eine minimale Translationsbewegung ausführen muss. Dieser mit dem Begriff „Degeneration (Degeneracy)“ verbundene Ansatz wird im Fachbuch: Hartley, R. und Zisserman, A.: „Multiple View Geometry in Computer Vision, Zweite Auflage“; Cambridge University Press, 25. März 2004, ausführlicher diskutiert.The determination of the location of "Structure from Motion" and / or a 3D reconstruction using an imaging sensor, such as a camera, requires the movement of the imaging sensor before an estimate of a structure in the environment is possible. Therefore, in an application that requires structure from motion or 3D reconstruction, the application must allow sufficient movement of the imaging sensor before starting 3D reconstruction. Typically, this is done by forcing a minimum baseline (minimum distance Dth) between the two sensor positions, i.e., before triggering the 3D reconstruction. by saying that the imaging sensor must perform a minimum translational motion prior to performing the reconstruction. This approach, associated with the term "degeneracy", appears in the textbook: Hartley, R. and Zisserman, A .: "Multiple View Geometry in Computer Vision, Second Edition"; Cambridge University Press, March 25, 2004, discussed in more detail.

Der Erfindung liegt die Aufgabe zugrunde, ein entsprechend verbessertes Verfahren zum Bestimmen des Ortes mindestens einer Struktur mittels eines bewegten bildgebenden Sensors, ein entsprechend verbessertes Computerprogrammprodukt und ein entsprechend verbessertes computergestütztes Ortsbestimmungssystem anzugeben.The invention has for its object to provide a correspondingly improved method for determining the location of at least one structure by means of a moving imaging sensor, a correspondingly improved computer program product and a correspondingly improved computer-aided positioning system.

Die Lösung dieser Aufgabe erfolgt durch ein Verfahren, ein Computerprogrammprodukt sowie ein entsprechendes computergestütztes Ortsbestimmungssystem mit den Merkmalen der jeweiligen unabhängigen Ansprüche. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche, der Beschreibung und der Figuren.The solution of this object is achieved by a method, a computer program product and a corresponding computer-aided location system with the features of the respective independent claims. Advantageous embodiments of the invention are subject of the dependent claims, the description and the figures.

Gemäß dem erfindungsgemäßen Verfahren zum Bestimmen des Ortes mindestens einer Struktur mittels eines bildgebenden Sensors, wobei der Ort aus Bildern ermittelt wird, die durch den bildgebenden Sensor von mindestens zwei unterschiedlichen Sensorpositionen in einem Abstand erzeugt werden, der größer oder gleich einem minimalen Abstand zum Bestimmen des Ortes der Struktur ist, erzeugt der sich bewegende bildgebende Sensor eine Serie aufeinanderfolgender Bilder, wobei der Abstand der Sensorpositionen durch Erkennen der Struktur in den Bildern und Bestimmen des Ortes der Struktur relativ zu der Position und zu einer Orientierung des bildgebenden Sensors für jedes der Bilder verifiziert wird. Die Orientierung des bildgebenden Sensors ist z.B. durch eine Blickrichtung des Sensors gegeben. In einer bevorzugten Anwendung ist der bildgebende Sensor in/an einem Fahrzeug montiert und sind die Strukturen in einer Umgebung des Fahrzeugs. Das erfindungsgemäße Verfahren hat den Vorteil, dass ein einzelner sich bewegender bildgebender Sensor ausreicht, um den Ort der Struktur(en) zu bestimmen, wobei die Bereitstellung eines ausreichenden Abstands der Sensorpositionen, an denen die Bilder erzeugt wurden, aus den Bildern selbst bestimmt/verifiziert werden kann.According to the method according to the invention for determining the location of at least one structure by means of an imaging sensor, wherein the location is determined from images generated by the imaging sensor from at least two different sensor positions at a distance greater than or equal to a minimum distance for determining the Once the structure is in place, the moving imaging sensor generates a series of successive images, verifying the distance of the sensor positions by detecting the structure in the images and determining the location of the structure relative to the position and orientation of the imaging sensor for each of the images becomes. The orientation of the imaging sensor is e.g. given by a viewing direction of the sensor. In a preferred application, the imaging sensor is mounted in / on a vehicle and are the structures in an environment of the vehicle. The method according to the invention has the advantage that a single moving imaging sensor is sufficient to determine the location of the structure (s), wherein the provision of a sufficient distance of the sensor positions where the images were generated from the images themselves determined / verified can be.

Der bildgebende Sensor ist vorzugsweise eine Kamera, ein bildgebender Ultraschallsensor, ein bildgebender Radarsensor oder ein bildgebender Lidarsensor. All diese Arten bildgebender Sensoren sind aus verschiedenen Automobilanwendungen bekannt.The imaging sensor is preferably a camera, an imaging ultrasound sensor, an imaging radar sensor or an imaging lidar sensor. All of these types of imaging sensors are known from various automotive applications.

Gemäß einer bevorzugten Ausführungsform der Erfindung zeigt ein Referenzvektor die jeweilige Orientierung des bildgebenden Sensors an, zeigt ein Richtungsvektor den Ort der Struktur relativ zur Position des bildgebenden Sensors an und ergibt sich das Vorhandensein eines ausreichenden Abstands zwischen den Sensorpositionen aus der Tatsache, dass eine Winkeldifferenz der jeweiligen Richtungsvektoren s, s', die mit dem Referenzvektor n

Figure DE102018113325A1_0001
in Beziehung stehen, größer ist als ein Schwellenwert θth. Der Referenzvektor n ,
Figure DE102018113325A1_0002
der die jeweilige Orientierung des bildgebenden Sensors anzeigt, ist beispielsweise durch eine Blickrichtung des Sensors gegeben.According to a preferred embodiment of the invention, a reference vector indicates the respective orientation of the imaging sensor, a direction vector indicates the location of the structure relative to the position of the imaging sensor and the presence of a sufficient distance between the sensor positions results from the fact that an angular difference of respective direction vectors s, s' associated with the reference vector n
Figure DE102018113325A1_0001
is greater than a threshold θ th . The reference vector n .
Figure DE102018113325A1_0002
which indicates the respective orientation of the imaging sensor, is given for example by a viewing direction of the sensor.

In vielen Fällen ändert sich die Orientierung des bildgebenden Sensors zwischen den beiden Sensorpositionen nicht wesentlich. In diesen Fällen kann der Abstand der Sensorpositionen nur unter Verwendung der Richtungsvektoren bestimmt werden. In many cases, the orientation of the imaging sensor between the two sensor positions does not change significantly. In these cases, the distance of the sensor positions can only be determined using the direction vectors.

Gemäß einer weiteren bevorzugten Ausführungsform der Erfindung sind die Bilder Einzelbilder (Frames) einer Videosequenz, die durch den sich bewegenden bildgebenden Sensor, insbesondere eine (Video-) Kamera, aufgenommen werden. Vorzugsweise werden ein Paar Einzelbilder, d.h. zwei unmittelbar aufeinanderfolgende Einzelbilder, zum Bestimmen des Abstands der Sensorpositionen verwendet.According to a further preferred embodiment of the invention, the images are frames (frames) of a video sequence which are recorded by the moving imaging sensor, in particular a (video) camera. Preferably, a pair of frames, i. two consecutive frames used to determine the spacing of the sensor positions.

Gemäß einer anderen bevorzugten Ausführungsform der Erfindung wird die Winkeldifferenz θ durch Berechnen des Skalarprodukts der Richtungsvektoren s, s' bestimmt. Jeder der Richtungsvektoren s, s' ist vorzugsweise ein Einheitsvektor mit der Länge 1. Dies ergibt die folgende Gleichung: s s' < cos ( θ th )

Figure DE102018113325A1_0003
According to another preferred embodiment of the invention, the angular difference θ is determined by calculating the scalar product of the direction vectors s, s'. Each of the directional vectors s, s' is preferably a unit vector of length 1. This yields the following equation: s s' < cos ( θ th )
Figure DE102018113325A1_0003

Vorzugsweise wird der Ort mittels Triangulation bestimmt. Triangulation ist ein Prozess zum Bestimmen der Position eines Punktes derart, dass nur Winkel zu ihm von bekannten Punkten an jedem Ende einer festen Basislinie gemessen werden, anstatt die Abstände zum Punkt direkt wie bei einer Trilateration zu messen. Der Punkt kann dann als der dritte Punkt eines Dreiecks mit einer bekannten Seite und zwei bekannten Winkeln festgelegt werden.Preferably, the location is determined by triangulation. Triangulation is a process of determining the position of a point such that only angles to it are measured from known points at each end of a fixed baseline, rather than measuring the distances to the point directly, as in a trilateration. The point can then be defined as the third point of a triangle with a known side and two known angles.

Gemäß einer noch anderen bevorzugten Ausführungsform der Erfindung ist die Ortsbestimmung Teil einer 3D-Rekonstruktion mehrerer Strukturen. Mit anderen Worten: das Verfahren ist ein Verfahren für eine 3D-Rekonstruktion. 3D-Rekonstruktion ist ein Prozess zum Erfassen der Form und des Erscheinungsbildes realer Objekte. Dieser Prozess kann entweder durch aktive oder durch passive Methoden implementiert werden. Wenn die Form des Modells sich mit der Zeit ändern darf, wird dies als nicht-starre oder räumlich-zeitliche Rekonstruktion bezeichnet.According to yet another preferred embodiment of the invention, the location determination is part of a 3D reconstruction of multiple structures. In other words, the method is a method for 3D reconstruction. 3D reconstruction is a process for capturing the shape and appearance of real objects. This process can be implemented by either active or passive methods. If the shape of the model is allowed to change over time, this is called non-rigid or spatial-temporal reconstruction.

Das erfindungsgemäße Computerprogrammprodukt weist computerausführbare Programmcodeabschnitte mit Programmcodeanweisungen auf, die dafür konfiguriert sind, das vorstehende Verfahren auszuführen, wenn es z.B. in einen Prozessor eines computergestützten Ortsbestimmungssystems geladen wird.The computer program product according to the invention comprises computer executable program code portions having program code instructions configured to execute the above method when e.g. is loaded into a processor of a computerized location system.

Gemäß dem computergestützten Ortsbestimmungssystem zum Bestimmen des Orts mindestens einer Struktur mittels eines bildgebenden Sensors zum Erzeugen einer Serie aufeinanderfolgender Bilder, ist das System dafür eingerichtet, den Ort der individuellen Struktur aus Bildern zu bestimmen, die durch den bildgebenden Sensor von mindestens zwei verschiedenen Sensorpositionen erzeugt wurden, die einen Abstand haben, der größer oder gleich einem minimalen Abstand zum Bestimmen des Orts der Struktur ist, wobei das System dafür eingerichtet ist, den Abstand der Sensorpositionen durch Erkennen der Struktur in den Bildern und Bestimmen des Ortes der Struktur relativ zu der Position und zu einer Orientierung des bildgebenden Sensors für jedes der Bilder zu verifizieren.In accordance with the computerized location system for determining the location of at least one structure by means of an imaging sensor to produce a series of successive images, the system is configured to determine the location of the individual structure from images generated by the imaging sensor from at least two different sensor locations having a distance greater than or equal to a minimum distance to determine the location of the structure, the system being arranged to adjust the distance of the sensor positions by detecting the structure in the images and determining the location of the structure relative to the position and to verify an orientation of the imaging sensor for each of the images.

Gemäß einer bevorzugten Ausführungsform des erfindungsgemäßen computergestützten Ortsbestimmungssystems ist das Ortsbestimmungssystem dafür eingerichtet, das vorstehende Verfahren mittels mindestens eines bildgebenden Sensors auszuführen.According to a preferred embodiment of the computer-assisted positioning system according to the invention, the location determining system is adapted to carry out the above method by means of at least one imaging sensor.

Im Allgemeinen weist das computergestützte Ortsbestimmungssystem eine Computereinheit mit einem Prozessor und einem Speicher auf. Vorzugsweise weist das Ortsbestimmungssystem ferner den bildgebenden Sensor auf.In general, the computerized location system includes a computer unit having a processor and memory. Preferably, the location system further comprises the imaging sensor.

Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, der Figur und der Figurenbeschreibung. Alle vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachstehend in der Figurenbeschreibung erwähnten und/oder nur in der Figur dargestellten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder eigenständig verwendbar.Further features of the invention will become apparent from the claims, the figure and the description of the figures. All of the features and feature combinations mentioned above in the description as well as the features and feature combinations mentioned below in the description of the figures and / or shown only in the figure are usable not only in the respectively indicated combination but also in other combinations or independently.

Die Erfindung wird nachstehend anhand einer bevorzugten Ausführungsform sowie unter Bezug auf die beigefügten Zeichnungen näher erläutert.The invention is explained below with reference to a preferred embodiment and with reference to the accompanying drawings.

Es zeigt

  • 1 eine Draufsicht eines Fahrzeugs auf einer Straße, das Strukturen eines Objekts unter Verwendung eines bildgebenden Sensors erfasst.
It shows
  • 1 a plan view of a vehicle on a road that detects structures of an object using an imaging sensor.

1 zeigt eine Draufsicht auf eine Szene mit einem Fahrzeug 10, das auf einer Straße 12 fährt. Dieses Fahrzeug 10 ist ein Kraftfahrzeug, um genauer zu sein: ein Personenkraftwagen. Das Fahrzeug 10 weist ein computergestütztes Ortsbestimmungssystem 14 mit einer Computereinheit 16 und einem (oder mehreren) bildgebenden Sensor(en) 18 auf. Der in dem Beispiel verwendete bildgebende Sensor 18 ist eine Kamera 20, die sich im vorderen Bereich des Fahrzeugs 10 befindet. Andere mögliche bildgebende Sensoren 18 für diesen Zweck basieren auf Ultraschall, Radar, Lidar usw. Der Erfassungsbereich des bildgebenden Sensors 18 ist ein entsprechender Umgebungsbereich 22 vor dem Fahrzeug 10. 1 shows a plan view of a scene with a vehicle 10 that on a street 12 moves. This vehicle 10 is a motor vehicle, to be more specific: a passenger car. The vehicle 10 has a computerized location system 14 with a computer unit 16 and one (or more) imaging sensor (s) 18 on. The imaging sensor used in the example 18 is a camera 20 located in the front of the vehicle 10 located. Other possible imaging sensors 18 For this purpose ultrasound, radar, lidar etc. are based on the detection range of the imaging sensor 18 is an appropriate environment area 22 in front of the vehicle 10 ,

Das Fahrzeug 12 fährt auf der Straße 12 mit der Geschwindigkeit v, und der montierte bildgebende Sensor 18 erzeugt während der Bewegung eine Serie aufeinanderfolgender Bilder 24. Zwei Bilder 24 sind auf der linken Seite von 1 dargestellt. Das untere erste Bild 24 ist ein Bild des bildgebenden Sensors 18, das an der Position P1 erzeugt wird, und das obere zweite Bild 24 ist ein Bild des bildgebenden Sensors 18, das an der Position P2 erzeugt wird. Die zwei Positionen P1, P2 haben einen Abstand D. Am Straßenrand der Straße 12 im Erfassungsbereich des bildgebenden Sensors 18 (im Umgebungsbereich 22) befindet sich eine sichtbare Struktur 26, z.B. eines Objekts, wie beispielsweise ein Verkehrsschild, ein parkendes Auto usw.The vehicle 12 drives on the street 12 at the speed v, and the mounted imaging sensor 18 creates a series of consecutive images during the movement 24 , Two pictures 24 are on the left side of 1 shown. The lower first picture 24 is an image of the imaging sensor 18 that at the position P1 is generated, and the upper second image 24 is an image of the imaging sensor 18 that at the position P2 is produced. The two positions P1 . P2 have a distance D. At the roadside of the road 12 in the detection range of the imaging sensor 18 (in the surrounding area 22 ) there is a visible structure 26 , eg of an object, such as a road sign, a parked car, etc.

Somit ist diese Struktur 26 (neben der Straße 12) in beiden Bildern 24 sichtbar. Der Abstand D der Sensorpositionen P1, P2 wird durch Erkennen der Struktur 26 in den Bildern 24 verifiziert, und der Ort der Struktur 26 relativ zur Position P1, P2 in Bezug auf eine Orientierung des bildgebenden Sensors 18 für jedes der Bilder 24 wird bestimmt. Ein Referenzvektor n

Figure DE102018113325A1_0004
gibt die jeweilige Orientierung des bildgebenden Sensors 18 an. Ein Richtungsvektor s, s' gibt den Ort der Struktur 26 relativ zur Sensorposition P1, P2 an, und das Vorhandensein eines ausreichend großen Abstands D zwischen den Sensorpositionen P1 an P2 ergibt sich aus der Tatsache, dass eine Winkeldifferenz θ der jeweiligen Richtungsvektoren s, s' bezogen auf den Referenzvektor n
Figure DE102018113325A1_0005
größer ist als ein Schwellenwert θth (in 1 nicht dargestellt). Die Orientierung des bildgebenden Sensors 18 ändert sich zwischen den beiden Sensorpositionen P1, P2 nicht wesentlich, so dass nur ein Referenzvektor verwendet wird. In diesen Fällen kann der Abstand D der Sensorpositionen P1, P2 unter Verwendung nur der Richtungsvektoren s, s' bestimmt werden.Thus, this structure is 26 (next to the street 12 ) in both pictures 24 visible. The distance D of the sensor positions P1 . P2 is by recognizing the structure 26 in the pictures 24 verified, and the place of the structure 26 relative to the position P1 . P2 with respect to an orientation of the imaging sensor 18 for each of the pictures 24 is determined. A reference vector n
Figure DE102018113325A1_0004
gives the respective orientation of the imaging sensor 18 on. A direction vector s, s' gives the location of the structure 26 relative to the sensor position P1 . P2 and the presence of a sufficiently large distance D between the sensor positions P1 at P2 results from the fact that an angular difference θ of the respective direction vectors s, s' with respect to the reference vector n
Figure DE102018113325A1_0005
is greater than a threshold value θ th (in 1 not shown). The orientation of the imaging sensor 18 changes between the two sensor positions P1 . P2 not essential, so only one reference vector is used. In these cases, the distance D of the sensor positions P1 . P2 be determined using only the direction vectors s, s'.

Durch Untersuchen jedes Paars von Vektoren s, s', die einem übereinstimmenden Punkt in benachbarten Videobildern 24 entsprechen, und Beobachten, ob der Winkel θ dazwischen „groß genug“ ist, besteht keine Notwendigkeit für eine allgemeine Kamera-Basislinie. Dies hat den Vorteil, dass Strukturen 26 näher liegender Objekte früher erfasst werden und die Genauigkeit von Erfassungen der Strukturen 26 weiter entfernter Objekte (Objekte, die weiter entfernt sind) größer ist.By examining each pair of vectors s, s' corresponding to a coincident point in adjacent video images 24 and observing whether the angle θ therebetween is "large enough", there is no need for a general camera baseline. This has the advantage of having structures 26 closer objects are detected earlier and the accuracy of capturing the structures 26 of distant objects (objects that are farther away) is larger.

Zusätzlich kann man sagen, dass ein bestimmter Merkmalssatz „unscharf“ (engl.: „unsharp“) ist, was anzeigt, dass ein Objekt mit der Struktur 26 existiert, jedoch mit geringer Genauigkeit. Dies ist sehr nützlich für ein Fusionssystem (z.B. mit Ultraschall), wo man wünscht, dass das Fahrzeug 10 auf mehr als eine Quelle reagiert (um falsche Reaktionen zu vermeiden), aber auch wünscht, in der Lage zu sein, schnell zu reagieren, bevor genaue Erfassungen ausgeführt werden.In addition, one can say that a particular set of features is "unsharp", indicating that an object has the structure 26 exists, but with low accuracy. This is very useful for a fusion system (eg ultrasound) where you want the vehicle 10 responds to more than one source (to avoid false responses), but also desires to be able to react quickly before accurate observations are made.

Zwischen zwei verarbeiteten Videobildern werden Merkmale zugeordnet, beispielsweise unter Verwendung eines optischen Flusses oder eines Merkmalsabgleichs. Jedes Merkmal kann unter Verwendung einer Kalibrierung in einen Strahl vom bildgebenden Sensor 18 (z.B. einer Kamera 20) umgewandelt werden. Für jedes Merkmal müssen, um die Position dieses Merkmals im 3D-Raum zu rekonstruieren, die Strahlen trianguliert werden können. Das heißt, die Strahlen müssen eine gewisse Konvergenz haben. Dies ist jedoch nicht die einzige Möglichkeit, ein Merkmal zu rekonstruieren, da das Ausführen einer direkten Strahlkonvergenz in R3 fehleranfällig sein kann. Andere Methoden beinhalten die Verwendung eines Reprojektionsfehlers zum Schätzen der Tiefe.Features are mapped between two processed video images, for example, using optical flow or feature matching. Each feature may be calibrated using a beam from the imaging sensor 18 (eg a camera 20 ) being transformed. For each feature, to reconstruct the position of this feature in 3D space, the rays must be triangulated. That is, the rays must have some convergence. However, this is not the only way to reconstruct a feature, since performing a direct ray convergence in R 3 can be prone to error. Other methods involve the use of a re-projection error to estimate the depth.

Um diese Konvergenz zu gewährleisten, erfordern existierende Lösungen die Einschränkung, dass sich die Kamera 20 über einen gewissen minimalen Basislinienabstand bewegen muss, bevor eine Verarbeitung zum Schätzen des 3D-Punkts ausgeführt wird. Wir schlagen jedoch vor, die Konvergenz durch Untersuchen der projizierten Strahlen zu gewährleisten und zu gewährleisten, dass der durch die beiden Strahlen gebildete Winkel größer ist als ein Schwellenwert. Das heißt, für ein Merkmal, das dem internen Puffer für eine Verarbeitung hinzugefügt werden soll, muss Folgendes erfüllt sein: s s' < cos ( θ th ) ,

Figure DE102018113325A1_0006
wobei s der Vektor ist, der einem Strahl entspricht, der von dem aktuellen Einzelbild projiziert wird, s' das Äquivalent eines vorhergehenden Einzelbildes ist und θth der Winkelschwellenwert ist (und · sich auf das Skalarprodukt von zwei Vektoren in R3 bezieht). Es wird darauf hingewiesen, dass s und s' im gleichen Koordinatensystem liegen müssen, daher muss die Odometrie (die als Rotationsmatrix R und Translationsvektor t dargestellt werden kann) der Kamera 20 bei der Formulierung von s und s' berücksichtigt werden. Es wird auch darauf hingewiesen, dass der Kosinus eines kleinen Winkels nahe bei Eins liegt und der Kosinus eines großen Winkels nahe bei null liegt. Daher die Umkehrung des Ungleichheitszeichens.To ensure this convergence, existing solutions require the restriction that the camera 20 must move over a certain minimum baseline distance before processing to estimate the 3D point is performed. However, we propose to ensure convergence by examining the projected beams and to ensure that the angle formed by the two beams is greater than a threshold. That is, for a feature to be added to the internal buffer for processing, the following must be true: s s' < cos ( θ th ) .
Figure DE102018113325A1_0006
where s is the vector corresponding to a ray projected from the current frame, s' is the equivalent of a previous frame, and θ th is the angle threshold (and · refers to the dot product of two vectors in R 3 ). It should be noted that s and s' must be in the same coordinate system, so the odometry (which can be represented as rotation matrix R and translation vector t) of the camera must be 20 be taken into account in the formulation of s and s'. It should also be noted that the cosine of a small angle is close to unity and the cosine of a large angle is close to zero. Hence the reversal of the inequality sign.

Manchmal ist es nützlich, ein Merkmal über mehr als ein Einzelbild hinweg zu verfolgen, beispielsweise wenn drei oder mehr Abtastwerte verwenden werden sollen, um den 3D-Punkt in der Rekonstruktion zu erstellen. In diesem Fall wird der interne Puffer für die Merkmale nur dann hinzugefügt, wenn alle neuen Merkmale die vorstehend erwähnten Kriterien erfüllen.Sometimes it is useful to track a feature across more than one frame, for example, when using three or more samples to create the 3D point in the reconstruction. In this case, the internal buffer for the features is added only if all new features meet the criteria mentioned above.

Es wird darauf hingewiesen, dass der Grund für die Verwendung eines minimalen Konvergenzwinkelschwellenwerts darin besteht, dass Strahlen, die mit 0 oder mit einem sehr kleinen Winkel konvergieren, einen hohen numerischen Fehler haben und sehr anfällig sind für Rauschen im Signal, so dass der geschätzte 3D-Punkt für dieses Strahlentupel mit einem hohen Fehler behaftet sein wird.It should be noted that the reason for using a minimum convergence angle threshold is that rays converging at 0 or at a very small angle have a high numerical error and are very susceptible to noise in the signal, so the estimated 3D Point for this Strahlentupel will be afflicted with a high error.

Für einige Anwendungen ist jedoch ein höherer Fehler akzeptabel, weshalb wir das Konzept des „unscharfen“ Merkmals einführen. Ein „unscharfes“ Merkmal ist ein Merkmal, das nicht unbedingt die vorstehend erwähnten Kriterien erfüllt. Beispielsweise können für einen Strahl, der als unscharf eingestuft werden soll, die folgenden Kriterien angewendet werden: cos ( θ unsharp ) > s s' > cos ( θ th ) ,

Figure DE102018113325A1_0007
For some applications, however, a higher error is acceptable, which is why we introduce the concept of the "fuzzy" feature. A "blurred" feature is a feature that does not necessarily meet the criteria mentioned above. For example, the following criteria can be applied to a beam that is to be considered blurred: cos ( θ unsharp ) > s s' > cos ( θ th ) .
Figure DE102018113325A1_0007

Das heißt, der Winkel zwischen den Strahlen muss größer sein als ein Schwellenwert, um als unscharf zu gelten (es wird erneut darauf hingewiesen, dass die Kosinuswerte zu einem invertierten Ungleichheitszeichen führen). Unterhalb dieses Schwellenwertes werden die Merkmale vollständig ignoriert, sie werden überhaupt nicht berücksichtigt. Oberhalb dieses Schwellenwertes, aber unterhalb des minimalen Winkels für ein „normales“ Merkmal, werden die Merkmale als unscharf betrachtet und können an Stellen verwendet werden, an denen die Anwendung dies zulässt (d.h. bei denen eine genaue 3D-Position nicht unbedingt erforderlich ist). Wie üblich, werden Merkmale mit einem Winkel, der größer ist als der vorstehend diskutierte Schwellenwert, als „normale“ Merkmale für die Rekonstruktion eingestuft.That is, the angle between the beams must be greater than a threshold to be out of focus (again, it should be noted that the cosine values result in an inverted inequality sign). Below this threshold the features are completely ignored, they are not considered at all. Above this threshold, but below the minimum angle for a "normal" feature, the features are considered out of focus and can be used at locations where the application permits (i.e., where an accurate 3D position is not strictly required). As usual, features having an angle greater than the threshold discussed above are considered "normal" features for reconstruction.

Ein ähnlicher Ansatz kann bei einem Bündelausgleich verwendet werden. Bündelausgleich (BA: Bundle Adjustment) ist ein numerisches Verfahren zum Verfeinern der Position der Kamera 20 und des Ortes der Punkte in R3, die rekonstruiert werden, typischerweise unter Verwendung eines Reprojektionsfehlers als eine Fehlerfunktion. Wie bei vielen numerischen Methoden können einzelne Abtastwerte gemäß bestimmten Kriterien gewichtet werden. Wenn ein Punkt in R3 gegeben ist, der mit Strahlen rekonstruiert wird, die parallel oder nahezu parallel sind, können wir dem Bündelausgleich eine Gewichtung hinzufügen, so dass der Einfluss dieses Merkmals auf das gesamte Bündelausgleichsergebnis minimal ist. Der Grund dafür ist, dass, wenn die Strahlen für das Merkmal nahezu parallel (oder genau parallel) sind, der Reprojektionsfehler immer klein sein wird, selbst wenn manchmal ein sehr großer Fehler in R3 vorhanden ist.A similar approach can be used in bundle balancing. Bundle Adjustment (BA) is a numerical method for refining the position of the camera 20 and the location of the points in R 3 being reconstructed, typically using a re-projection error as an error function. As with many numerical methods, individual samples may be weighted according to certain criteria. Given a point in R 3 that is reconstructed with rays that are parallel or nearly parallel, we can add a weighting to the beam equalization so that the influence of this feature on the overall beam balance result is minimal. The reason for this is that if the rays for the feature are nearly parallel (or exactly parallel), the reprojection error will always be small, even if sometimes there is a very large error in R 3 .

Wie bereits erwähnt wurde, verwendet der Bündelausgleich typischerweise den Reprojektionsfehler als eine Fehlerfunktion. Der Reprojektionsfehler ist ein üblicher Mechanismus, durch den der geschätzte Punkt in R3 erneut in den Bildraum projiziert wird und der Abstand zum Bildabtastpunkt als ein Fehler gemessen wird. Zusätzlich kann die Bündelausgleichsfehlerfunktion derart konstruiert werden, dass solche parallele Strahlen immer einen hohen Fehler reflektieren, und auf diese Weise kann Merkmalen, die derart konstruiert werden, dass sie einen hohen Fehler haben, eine niedrigere Zuverlässigkeit zugeordnet werden.As already mentioned, beam balancing typically uses the reprojection error as an error function. The reprojection error is a common mechanism by which the estimated point in R 3 is re-projected into the image space and the distance to the image sampling point is measured as an error. In addition, the beam-compensation error function can be designed such that such parallel beams always reflect a high error, and in this way features designed to have a high error can be assigned a lower reliability.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

Fahrzeugvehicle 1010 StraßeStreet 1212 OrtbestimmungssystemOrtbestimmungssystem 1414 Computereinheitcomputer unit 1616 bildgebender SensorImaging sensor 1818 Kameracamera 2020 Erfassungsbereichdetection range 2222 Bildpicture 2424 Strukturstructure 2626 Referenzvektorreference vector n

Figure DE102018113325A1_0008
n
Figure DE102018113325A1_0008
Richtungsvektordirection vector ss Richtungsvektordirection vector s's' Geschwindigkeitspeed vv Abstanddistance DD erste Positionfirst position P1P1 zweite Positionsecond position P2P2

Claims (10)

Verfahren zum Bestimmen des Ortes mindestens einer Struktur (26) mittels eines bildgebenden Sensors (18), insbesondere eines an einem Fahrzeug (10) montierten bildgebenden Sensors (18), wobei der Ort der individuellen Struktur (26) aus durch den bildgebenden Sensor (18) erzeugten Bildern (24) aus mindestens zwei unterschiedlichen Sensorpositionen (P1, P2) bestimmt wird, wobei die Sensorpositionen (P1, P2) einen Abstand (D) haben, der größer oder gleich einem minimalen Abstand (Dth) zum Bestimmen des Orts der Struktur (26) ist, dadurch gekennzeichnet, dass der bildgebende Sensor (18) während der Bewegung eine Serie aufeinanderfolgender Bilder (24) erzeugt, wobei der Abstand (D) der Sensorpositionen (P1, P2) durch Erkennen der Struktur (26) in den Bildern (24) und Bestimmen des Ortes der Struktur (26) relativ zur Sensorposition (P1, P2) und zu einer Orientierung des bildgebenden Sensors (18) für jedes der Bilder (24) verifiziert wird.Method for determining the location of at least one structure (26) by means of an imaging sensor (18), in particular an imaging sensor (18) mounted on a vehicle (10), the location of the individual structure (26) being determined by the imaging sensor (18 ) are determined from at least two different sensor positions (P1, P2), wherein the sensor positions (P1, P2) have a distance (D) which is greater than or equal to a minimum distance ( Dth ) for determining the location of Structure (26), characterized in that the imaging sensor (18) generates a series of successive images (24) during the movement, wherein the distance (D) of the sensor positions (P1, P2) by detecting the structure (26) in the Images (24) and determining the location of the structure (26) relative to the sensor position (P1, P2) and to an orientation of the imaging sensor (18) for each of the images (24). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass ein Referenzvektor ( n )
Figure DE102018113325A1_0009
die jeweilige Orientierung des bildgebenden Sensors (18) anzeigt, ein Richtungsvektor (s, s') den Ort der Struktur (26) relativ zur Sensorposition (P1, P2) anzeigt, und das Vorhandensein eines ausreichend großen Abstands (D) zwischen den Sensorpositionen (P1, P2) sich aus der Tatsache ergibt, dass eine Winkeldifferenz (θ) der jeweiligen Richtungsvektoren (s, s') bezogen auf den Referenzvektor ( n )
Figure DE102018113325A1_0010
größer ist als ein Schwellenwert (θth).
Method according to Claim 1 , characterized in that a reference vector ( n )
Figure DE102018113325A1_0009
indicates the respective orientation of the imaging sensor (18), a direction vector (s, s') indicates the location of the structure (26) relative to the sensor position (P1, P2), and the presence of a sufficiently large distance (D) between the sensor positions ( P1, P2) results from the fact that an angular difference (θ) of the respective direction vectors (s, s') with respect to the reference vector ( n )
Figure DE102018113325A1_0010
is greater than a threshold (θ th ).
Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Bilder (24) Einzelbilder einer Videosequenz sind, die durch den sich bewegenden Bildsensor (18) aufgenommen werden.Method according to Claim 1 or 2 , characterized in that the images (24) are frames of a video sequence taken by the moving image sensor (18). Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Winkeldifferenz (θ) durch Berechnen des Skalarprodukts der Richtungsvektoren (s, s') bestimmt wird.Method according to one of Claims 1 to 3 , characterized in that the angular difference (θ) is determined by calculating the scalar product of the direction vectors (s, s'). Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass der Ort der Struktur (26) mittels Triangulation bestimmt wird.Method according to one of Claims 1 to 4 , characterized in that the location of the structure (26) is determined by triangulation. Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass die Ortsbestimmung Teil einer 3D-Rekonstruktion mehrerer Strukturen (26) ist.Method according to Claim 4 or 5 , characterized in that the location determination is part of a 3D reconstruction of a plurality of structures (26). Computerprogrammprodukt mit computerausführbaren Programmcodeabschnitten mit Programmcodeanweisungen, die dafür konfiguriert sind, das Verfahren nach einem der Ansprüche 1 bis 6 auszuführen.A computer program product having computer executable program code portions having program code instructions configured to perform the method of any one of Claims 1 to 6 perform. Computergestütztes Ortsbestimmungssystem (14) zum Bestimmen des Orts mindestens einer Struktur (24) mittels eines bildgebenden Sensors (18) zum Erzeugen einer Serie aufeinanderfolgender Bilder (24), insbesondere eines an einem Fahrzeug (10) montierten bildgebenden Sensors (18), wobei das System (14) dafür eingerichtet ist, den Ort der individuellen Struktur (26) aus Bildern (24) zu bestimmen, die durch den bildgebenden Sensor (18) aus mindestens zwei unterschiedlichen Sensorpositionen (P1, P2) erzeugt werden, wobei die Sensorpositionen (P1, P2) einen Abstand (D) haben, der größer oder gleich einem minimalen Abstand (Dth) zum Bestimmen des Orts der Struktur (26) ist, wobei das System (14) dafür eingerichtet ist, den Abstand der Sensorpositionen (P1, P2) durch Erkennen der Struktur (24) in den Bildern (24) und Bestimmen des Ortes der Struktur (26) relativ zur Sensorposition (P1, P2) und zu einer Orientierung des bildgebenden Sensors (18) für jedes der Bilder (24) zu verifizieren. A computerized location determining system (14) for determining the location of at least one structure (24) by means of an imaging sensor (18) for generating a series of successive images (24), in particular an imaging sensor (18) mounted on a vehicle (10) (14) is adapted to determine the location of the individual structure (26) from images (24) generated by the imaging sensor (18) from at least two different sensor positions (P1, P2), the sensor positions (P1, P2) have a distance (D) greater than or equal to a minimum distance (D th ) for determining the location of the structure (26), the system (14) being arranged to adjust the distance of the sensor positions (P1, P2) by verifying the structure (24) in the images (24) and determining the location of the structure (26) relative to the sensor position (P1, P2) and to an orientation of the imaging sensor (18) for each of the images (24). System nach Anspruch 8, dadurch gekennzeichnet, dass das System (14) dafür eingerichtet ist, das Verfahren nach einem der Ansprüche 1 bis 6 auszuführen.System after Claim 8 , characterized in that the system (14) is adapted to perform the method according to any one of Claims 1 to 6 perform. System nach Anspruch 8 oder 9, gekennzeichnet durch eine Computereinheit (16) mit einem Prozessor und einem Speicher.System after Claim 8 or 9 characterized by a computer unit (16) having a processor and a memory.
DE102018113325.1A 2018-06-05 2018-06-05 A method and computerized location system for determining the location of at least one structure by means of an imaging sensor Pending DE102018113325A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102018113325.1A DE102018113325A1 (en) 2018-06-05 2018-06-05 A method and computerized location system for determining the location of at least one structure by means of an imaging sensor
PCT/EP2019/062642 WO2019233728A1 (en) 2018-06-05 2019-05-16 Method and computer based location determination system for determining the location of at least one structure by means of an imaging sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018113325.1A DE102018113325A1 (en) 2018-06-05 2018-06-05 A method and computerized location system for determining the location of at least one structure by means of an imaging sensor

Publications (1)

Publication Number Publication Date
DE102018113325A1 true DE102018113325A1 (en) 2019-12-05

Family

ID=66597593

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018113325.1A Pending DE102018113325A1 (en) 2018-06-05 2018-06-05 A method and computerized location system for determining the location of at least one structure by means of an imaging sensor

Country Status (2)

Country Link
DE (1) DE102018113325A1 (en)
WO (1) WO2019233728A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10336638A1 (en) * 2003-07-25 2005-02-10 Robert Bosch Gmbh Apparatus for classifying at least one object in a vehicle environment
DE102007008543A1 (en) * 2007-02-21 2008-08-28 Hella Kgaa Hueck & Co. Method and device for determining the state of motion of objects
DE102007021576A1 (en) * 2007-05-08 2008-11-13 Hella Kgaa Hueck & Co. Method and device for determining the position of a traffic sign

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8831290B2 (en) * 2012-08-01 2014-09-09 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of vehicle-mounted cameras for in-road obstacle detection
DE102015101190A1 (en) * 2015-01-28 2016-07-28 Connaught Electronics Ltd. Method for determining an image depth value depending on an image area, camera system and motor vehicle
US10248872B2 (en) * 2016-10-19 2019-04-02 Texas Instruments Incorporated Estimation of time to collision in a computer vision system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10336638A1 (en) * 2003-07-25 2005-02-10 Robert Bosch Gmbh Apparatus for classifying at least one object in a vehicle environment
DE102007008543A1 (en) * 2007-02-21 2008-08-28 Hella Kgaa Hueck & Co. Method and device for determining the state of motion of objects
DE102007021576A1 (en) * 2007-05-08 2008-11-13 Hella Kgaa Hueck & Co. Method and device for determining the position of a traffic sign

Also Published As

Publication number Publication date
WO2019233728A1 (en) 2019-12-12

Similar Documents

Publication Publication Date Title
DE112009003144B4 (en) Method and device for detecting an obstacle in an image
DE102011113197B4 (en) Method and device for determining an angle between a towing vehicle and a trailer coupled to it, and the vehicle
WO2018069405A1 (en) Motor vehicle and method for a 360° detection of the surroundings
WO2017206999A1 (en) Method for evaluating image data of a vehicle camera
DE102013108070A1 (en) Image calibration and equalization of a wide-angle camera
DE112016001150T5 (en) ESTIMATION OF EXTRINSIC CAMERA PARAMETERS ON THE BASIS OF IMAGES
DE102012200731A1 (en) Method and device for visualizing the environment of a vehicle
DE112017001545T5 (en) VIRTUAL OVERLAY SYSTEM AND PROCESS FOR COVERED OBJECTS
DE102014201271A1 (en) A method and controller for detecting a change in a relative yaw angle within a stereo video system for a vehicle
DE102012009577A1 (en) Method for calibrating squint angle of frame camera of stereo camera arrangement in vehicle, involves calculating travel distance covered by vehicle, and determining deviation between distance and reference distance to calibrate angle
DE112017007347T5 (en) OBJECT DETECTION DEVICE AND VEHICLE
EP2246664A1 (en) Method for automatic determination of at least one target factor describing changes in the position of a motor vehicle
DE102020129096A1 (en) GENERATION OF THREE-DIMENSIONAL POINT CLOUDS USING A POLARIMETRIC CAMERA IN A VEHICLE EQUIPPED WITH A DRIVING ASSISTANT SYSTEM
DE102013012930A1 (en) Method for determining a current distance and / or a current speed of a target object from a reference point in a camera image, camera system and motor vehicle
DE102014114221A1 (en) Method for detecting an object in a surrounding area of a motor vehicle, driver assistance system and motor vehicle
DE102020127000A1 (en) GENERATION OF COMPOSITE PICTURES USING INTERMEDIATE SURFACES
DE112017007237T5 (en) DRIVER CONDITION ASSESSMENT DEVICE AND DRIVER CONDITION ASSESSMENT METHOD
DE102015104065A1 (en) A method for determining a position of an object in a three-dimensional world coordinate system, computer program product, camera system and motor vehicle
DE102020127278A1 (en) Around-View Synthesis System and Process
DE102014219423A1 (en) Dynamic model for compensation of distortions of a windshield
EP3420533B1 (en) Method for calibrating an optical measurement set-up
DE102018113325A1 (en) A method and computerized location system for determining the location of at least one structure by means of an imaging sensor
DE102014219418B4 (en) Process for the stereo rectification of stereo camera images and driver assistance system
DE102017104957A1 (en) Method for determining a movement of mutually corresponding pixels in an image sequence from a surrounding area of a motor vehicle, evaluation device, driver assistance system and motor vehicle
DE102020214622A1 (en) Evaluation of image data from a stereo camera for object evaluation

Legal Events

Date Code Title Description
R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000