DE102021005335B4 - Method for compensating measurement errors - Google Patents

Method for compensating measurement errors Download PDF

Info

Publication number
DE102021005335B4
DE102021005335B4 DE102021005335.4A DE102021005335A DE102021005335B4 DE 102021005335 B4 DE102021005335 B4 DE 102021005335B4 DE 102021005335 A DE102021005335 A DE 102021005335A DE 102021005335 B4 DE102021005335 B4 DE 102021005335B4
Authority
DE
Germany
Prior art keywords
image
time
determined
recording
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102021005335.4A
Other languages
German (de)
Other versions
DE102021005335A1 (en
Inventor
Marcel Pawletta
Patrick Scheppe
Erich Goller
Martin Jonas
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercedes Benz Group AG filed Critical Mercedes Benz Group AG
Priority to DE102021005335.4A priority Critical patent/DE102021005335B4/en
Priority to PCT/EP2022/075948 priority patent/WO2023072479A1/en
Publication of DE102021005335A1 publication Critical patent/DE102021005335A1/en
Application granted granted Critical
Publication of DE102021005335B4 publication Critical patent/DE102021005335B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

Verfahren zur Kompensation von Messfehlern (sx, sy) bei einer mittels eines mindestens zwei Kameras (1, 2) aufweisenden Sensorsystems eines Fahrzeugs durchgeführten Abstandsmessung, wobei- mittels der zumindest zwei Kameras (1, 2) jeweils ein Bild (B1, B2) erfasst wird,- eine Zeitabweichung zwischen Aufnahmezeitpunkten (tn, tn+1) der beiden erfassten Bilder (B1, B2) ermittelt wird,- eine Objektgeschwindigkeit (v) eines Objekts in einer Fahrzeugumgebung ermittelt wird,- eine Position eines Objektpunkts (P) des Objekts in dem als Referenzbild verwendeten Bild (B1, B2) einer der Kameras (1, 2) als Referenzposition ermittelt wird,- eine Position des Objektpunkts (P') in dem Bild (B1, B2) der anderen Kamera (1, 2) ermittelt wird,- die Position des Objektpunkts (P') in dem Bild (B1, B2) der anderen Kamera (1, 2) basierend auf der Objektgeschwindigkeit (v) des Objekts und der Zeitabweichung auf eine korrigierte Position, an der sich der Objektpunkt (P') zu dem Aufnahmezeitpunkt (tn, tn+1) des Referenzbilds befunden hätte, rückgerechnet wird und- ein Abstand zu dem Objekt durch Triangulation, basierend auf der Referenzposition des Objektpunkts (P) und der korrigierten Position des Objektpunkts (P') ermittelt wird.Method for compensating for measurement errors (sx, sy) in a distance measurement carried out by means of a sensor system of a vehicle having at least two cameras (1, 2), wherein an image (B1, B2) is captured by means of each of the at least two cameras (1, 2). - a time deviation between recording times (tn, tn+1) of the two captured images (B1, B2) is determined, - an object speed (v) of an object in a vehicle environment is determined, - a position of an object point (P) of the object in the image (B1, B2) of one of the cameras (1, 2) used as a reference image is determined as a reference position, - a position of the object point (P ') in the image (B1, B2) of the other camera (1, 2) is determined - the position of the object point (P') in the image (B1, B2) of the other camera (1, 2) based on the object speed (v) of the object and the time deviation to a corrected position at which the object point ( P') would have been at the time of recording (tn, tn+1) of the reference image, is recalculated and a distance to the object is determined by triangulation based on the reference position of the object point (P) and the corrected position of the object point (P'). becomes.

Description

Die Erfindung betrifft ein Verfahren zur Kompensation von Messfehlern bei einer mittels eines mindestens zwei Kameras aufweisenden Sensorsystems eines Fahrzeugs durchgeführten Abstandsmessung.The invention relates to a method for compensating for measurement errors in a distance measurement carried out by means of a vehicle sensor system having at least two cameras.

Aus der DE 102 15 009 A1 ist ein Verfahren zum Bestimmen einer Geschwindigkeit eines Fahrzeugs bekannt, bei dem geschwindigkeitsabhängige Fahrzustandsgrößen erfasst werden und aus diesen mittels einer Übertragungsfunktion eine angenäherte Geschwindigkeit des Fahrzeugs errechnet wird. Zur Korrektur einer Übertragungsfunktion wird aus dem zu verschiedenen Zeitpunkten gemessenen Abstand von einem Punkt des Fahrzeugs zu einer Landmarke eine Relativgeschwindigkeit des Fahrzeugs zu der Landmarke berechnet. Anschließend wird aus einem Vergleich der Geschwindigkeit des Fahrzeugs mit der Relativgeschwindigkeit der Fehler bei der Ermittlung der Geschwindigkeit erfasst und die Übertragungsfunktion so angepasst, dass der Fehler minimiert wird.From the DE 102 15 009 A1 a method for determining a speed of a vehicle is known, in which speed-dependent driving state variables are recorded and an approximate speed of the vehicle is calculated from these using a transfer function. To correct a transfer function, a relative speed of the vehicle to the landmark is calculated from the distance measured at different points in time from a point on the vehicle to a landmark. The error in determining the speed is then recorded by comparing the speed of the vehicle with the relative speed and the transfer function is adjusted so that the error is minimized.

Aus der DE 10 2006 005 231 A1 ist ein Verfahren zur Bestimmung der Entfernung eines Objekts durch Auswertung stereoskopischer Kamerabilder bekannt. Dabei werden Paralaxen von Bildern eines Bildpaares, die aus unterschiedlichen Messpositionen aufgenommen wurden, durch wird Auszählen von Pixeln eines seitlichen Versatzes der Bilder ermittelt und basierend hierauf wird die Entfernung des Objekts berechnet. Einer Forderung nach einem kleinen Messfehler kann dabei durch einen hinreichend großen Abstand zwischen den Messpositionen Rechnung getragen werden.From the DE 10 2006 005 231 A1 a method for determining the distance of an object by evaluating stereoscopic camera images is known. Parallaxes of images of an image pair that were recorded from different measurement positions are determined by counting pixels of a lateral offset of the images and the distance of the object is calculated based on this. A requirement for a small measurement error can be taken into account by a sufficiently large distance between the measuring positions.

Aus der US 2013 / 0 194 419 A1 ist ein Verfahren zum Verfolgen eines sich bewegenden Objekts und zum Bestimmen seines momentanen Abstands zu einem Fahrzeug bekannt, wobei das Verfahren auf einer Stereobildverarbeitung beruht. Die Bestimmung des Abstands basiert dabei auf einem Filtern und Verfeinern eines Bildes des Objekts, wobei ein Kalman-Filter zum Entfernen von Rauschfehlern verwendet wird.From US 2013/0 194 419 A1 a method for tracking a moving object and for determining its current distance from a vehicle is known, the method being based on stereo image processing. The determination of the distance is based on filtering and refining an image of the object, using a Kalman filter to remove noise errors.

Aus der US 2015 / 0 062 304 A1 ist ein Bildgebungssystem für ein Fahrzeug bekannt, das zwei Bilderfassungsgeräte umfasst, die nach dem Rolling-Shutter-Prinzip arbeiten. Die beiden Bilderfassungsgeräte weisen unterschiedliche und sich zumindest teilweise überlappende Sichtfelder auf. Die Abtastraten der beiden Bilderfassungsgeräte unterscheiden sich voneinander, sind aber derart aufeinander abgestimmt, dass die Bilderfassungsgeräte den überlappenden Bereich der Sichtfelder innerhalb des gleichen Zeitraums aufnehmen.From US 2015/0 062 304 A1 an imaging system for a vehicle is known which includes two image capture devices that work according to the rolling shutter principle. The two image capture devices have different and at least partially overlapping fields of view. The sampling rates of the two image capture devices differ from each other, but are coordinated with one another in such a way that the image capture devices record the overlapping area of the fields of view within the same period of time.

Aus der WO 2015 / 186 002 A2 ist ein Verfahren zum Erkennen eines Objekts vor einem Fahrzeug bekannt, bei dem mittels einer Bilderfassungsvorrichtung eine Vielzahl von Bildern eines Bereichs erfasst wird, wobei durch Vergleichen zweier Bilder Verschiebungsvektoren zwischen Pixeln bestimmt werden, um basierend hierauf aufrechte Objekte zu identifizieren.From WO 2015/186 002 A2 a method for detecting an object in front of a vehicle is known, in which a large number of images of an area are captured by means of an image capture device, with displacement vectors between pixels being determined by comparing two images in order to create upright objects based on this to identify.

Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Kompensation von Messfehlern bei einer mittels eines mindestens zwei Kameras aufweisenden Sensorsystems durchgeführten Abstandsmessung anzugeben.The invention is based on the object of specifying a novel method for compensating for measurement errors in a distance measurement carried out using a sensor system having at least two cameras.

Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegebenen Merkmale aufweist.The object is achieved according to the invention by a method which has the features specified in claim 1.

Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the subclaims.

In dem erfindungsgemäßen Verfahren zur Kompensation von Messfehlern bei einer mittels eines mindestens zwei Kameras aufweisenden Sensorsystems eines Fahrzeugs durchgeführten Abstandsmessung wird mittels der zumindest zwei Kameras jeweils ein Bild erfasst. Es werden eine Zeitabweichung zwischen Aufnahmezeitpunkten der beiden erfassten Bilder, eine Objektgeschwindigkeit eines Objekts in einer Fahrzeugumgebung und eine Position eines Objektpunkts des Objekts in dem als Referenzbild verwendeten Bild einer der Kameras als Referenzposition ermittelt. Weiterhin wird eine Position des Objektpunkts in dem Bild der anderen Kamera ermittelt, wobei die Position des Objektpunkts in dem Bild der anderen Kamera basierend auf der Objektgeschwindigkeit des Objekts und der Zeitabweichung auf eine korrigierte Position, an der sich der Objektpunkt zu dem Aufnahmezeitpunkt des Referenzbilds befunden hätte, rückgerechnet wird. Ein Abstand zu dem Objekt wird durch Triangulation, basierend auf der Referenzposition des Objektpunkts und der korrigierten Position des Objektpunkts, ermittelt.In the method according to the invention for compensating for measurement errors in a distance measurement carried out by means of a vehicle sensor system having at least two cameras, an image is captured by each of the at least two cameras. A time deviation between recording times of the two captured images, an object speed of an object in a vehicle environment and a position of an object point of the object in the image of one of the cameras used as a reference image are determined as a reference position. Furthermore, a position of the object point in the image of the other camera is determined, the position of the object point in the image of the other camera based on the object speed of the object and the time deviation to a corrected position at which the object point was located at the time the reference image was recorded would have been recalculated. A distance to the object is determined by triangulation based on the reference position of the object point and the corrected position of the object point.

Mehrkamerasysteme sind in der Lage, durch das Messprinzip der Triangulation die Position mindestens eines Objekts zu bestimmen. Bei bewegten Objekten können jedoch Messfehler in der Positionsbestimmung durch zeitlich asynchrone Aufnahmen des Mehrkamerasystems entstehen. Dies resultiert daraus, dass das Objekt von den Kameras des entsprechenden Mehrkamerasystems aufgrund einer Bewegung des Objekts und/oder des Mehrkamerasystems und einen daraus folgenden zeitlichen Versatz der Bildaufnahmen an unterschiedlichen Positionen aufgenommen wird. Mittels des vorliegenden Verfahrens kann die Position des Objekts korrigiert und somit mit einer höheren Genauigkeit bestimmt werden.Multi-camera systems are able to determine the position of at least one object using the measuring principle of triangulation. However, with moving objects, measurement errors in position determination can occur due to temporally asynchronous recordings by the multi-camera system. This results from the fact that the object is recorded at different positions by the cameras of the corresponding multi-camera system due to a movement of the object and/or the multi-camera system and a resulting time offset in the image recordings. Using the present method, the position of the object can be corrected and can therefore be determined with greater accuracy.

Dabei ist es mittels des Verfahrens möglich, bereits vorhandene Messsysteme, welche so genannte Software- oder Hardwaretrigger für dynamische Messungen verwenden, in ihrer Messgenauigkeit zu verbessern. Die Softwaretrigger sind in der Regel ungenauer als Hardwaretrigger und verwenden oftmals eine so genannte Bussynchronisation, bei der ein Aufnahmeimpuls an die Mehrkamerasysteme ausgegeben wird. Bei der Anwendung von Hardwaretriggern wird eine direkte konduktive Verbindung zwischen den einzelnen Kameras der Mehrkamerasysteme verwendet, wobei in der Regel ein Ausgang einer Kamera, beispielsweise ein so genannter Blitzausgang, mit einem Eingang einer weiteren Kamera, beispielsweise einem Auslöser, verbunden ist. Wird die erste Kamera ausgelöst, werden anschließend alle anderen Kameras oder Kamerasysteme durch den Impuls auf den Eingang ausgelöst. Die Synchronität der Aufnahmen ist in der Regel bei Hardwaretriggern besser als bei Softwaretriggern, jedoch immer noch nicht vollständig synchron. Dadurch kommt es dennoch zu Fehlern in der Positionsbestimmung von Objekten. Speziell bei Kamerasystemen unterschiedlicher Hersteller oder unterschiedlichen Typs in einem Verbund funktioniert der Softwaretrigger nicht oder nur bedingt. Auch bei Hardwaretriggern besteht in diesem Fall die Problematik der notwendigen Konfektion passender Hardware. Mittels des vorliegenden Verfahrens ist es dagegen möglich, Mehrkamerasysteme unterschiedlichen Typs oder Herstellers, die aufgrund ihres Aufbaus oder ihrer Konfiguration nicht oder nur schwer zu synchronisieren sind, in ihrer dynamischen Messgenauigkeit zu verbessern. Das heißt, das Verfahren kann in besonders vorteilhafter Weise ohne das Erfordernis von zusätzlicher Hardware und ohne eine Abhängigkeit von einem Typ und Hersteller einer Kamera verwendet werden.Using the method, it is possible to improve the measurement accuracy of existing measurement systems that use so-called software or hardware triggers for dynamic measurements. The software triggers are usually less precise than hardware triggers and often use a so-called bus synchronization, in which a recording pulse is output to the multi-camera systems. When using hardware triggers, a direct conductive connection is used between the individual cameras of the multi-camera systems, with an output of one camera, for example a so-called flash output, usually being connected to an input of another camera, for example a trigger. If the first camera is triggered, all other cameras or camera systems are then triggered by the impulse on the input. The synchronization of the recordings is usually better with hardware triggers than with software triggers, but still not completely synchronous. This still leads to errors in determining the position of objects. Especially with camera systems from different manufacturers or different types in a network, the software trigger does not work or only works to a limited extent. In this case, even with hardware triggers, there is the problem of the necessary assembly of suitable hardware. By means of the present method, however, it is possible to improve the dynamic measurement accuracy of multi-camera systems of different types or manufacturers, which are difficult or impossible to synchronize due to their structure or configuration. This means that the method can be used in a particularly advantageous manner without the need for additional hardware and without being dependent on a type and manufacturer of a camera.

In einer möglichen Ausgestaltung des Verfahrens wird ein gemeinsames Zeitsystem der Kameras von einer Komponente eines Daten der Kameras verarbeitenden Bildverarbeitungssystems, beispielsweise einer Bildauswerteeinheit, vorgegeben. Hierdurch können eine besonders genaue Ermittlung der Zeitabweichung und daraus folgend eine zuverlässige Kompensation von Messfehlern realisiert werden.In a possible embodiment of the method, a common time system for the cameras is specified by a component of an image processing system that processes data from the cameras, for example an image evaluation unit. This makes it possible to achieve a particularly precise determination of the time deviation and, as a result, a reliable compensation for measurement errors.

In einer weiteren möglichen Ausgestaltung des Verfahrens wird eine Übertragungszeit zwischen der Komponente und anderen Komponenten des Bildverarbeitungssystems in einem zumindest die Komponenten und die Kameras umfassenden System aus einer Latenzzeit zwischen der Komponente und den anderen Komponenten ermittelt, wobei die Übertragungszeit bei der Ermittlung der Zeitabweichung zwischen den Aufnahmezeitpunkten berücksichtigt wird. Die Berücksichtigung der Übertragungszeit ermöglicht eine weitere Erhöhung der Genauigkeit bei der Ermittlung der Zeitabweichung.In a further possible embodiment of the method, a transmission time between the component and other components of the image processing system in a system comprising at least the components and the cameras is determined from a latency between the component and the other components, the transmission time being used in determining the time deviation between the recording times is taken into account. Taking the transmission time into account enables a further increase in the accuracy when determining the time deviation.

In einer weiteren möglichen Ausgestaltung des Verfahrens wird die Zeitabweichung aus dem Aufnahmezeitpunkt des Referenzbilds abzüglich des Aufnahmezeitpunkts des Bilds der anderen Kamera abzüglich der Übertragungszeit ermittelt. Eine solche Ermittlung ist besonders zuverlässig und genau.In a further possible embodiment of the method, the time deviation is determined from the recording time of the reference image minus the recording time of the image of the other camera minus the transmission time. Such a determination is particularly reliable and accurate.

In einer weiteren möglichen Ausgestaltung des Verfahrens wird als Aufnahmezeitpunkt eine Mitte einer Belichtungszeit bei der Aufnahme des jeweiligen Bilds verwendet. Dies ermöglicht eine einfach realisierbare Erfassung der Aufnahmezeitpunkte auf Basis einer gemeinsamen Grundlage und unterschiedliche Belichtungszeiten können ausgeglichen werden.In a further possible embodiment of the method, a middle of an exposure time when recording the respective image is used as the recording time. This enables easy recording of the recording times based on a common basis and different exposure times can be compensated for.

In einer weiteren möglichen Ausgestaltung des Verfahrens wird für mehrere Aufnahmezeitpunkte ein Mittelwert von Geschwindigkeiten des entsprechenden Objekts ermittelt, wobei der Mittelwert der Geschwindigkeiten des Objekts als Objektgeschwindigkeit verwendet wird.In a further possible embodiment of the method, an average value of the speeds of the corresponding object is determined for several recording times, the average value of the speeds of the object being used as the object speed.

In einer weiteren möglichen Ausgestaltung des Verfahrens wird die Objektgeschwindigkeit mit der Zeitabweichung zwischen den Aufnahmezeitpunkten multipliziert, wobei aus dem Ergebnis der Multiplikation ein Korrekturwert ermittelt wird und anhand des Korrekturwerts die korrigierte Position ermittelt wird. Dies ermöglicht eine einfache und zuverlässige Ermittlung der korrigierten Position.In a further possible embodiment of the method, the object speed is multiplied by the time deviation between the recording times, a correction value being determined from the result of the multiplication and the corrected position being determined based on the correction value. This enables a simple and reliable determination of the corrected position.

Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Exemplary embodiments of the invention are explained in more detail below with reference to drawings.

Dabei zeigen:

  • 1 schematisch eine Darstellung einer Anordnung zur Bestimmung einer Position eines Objektpunkts bei einer zeitlich synchronen Aufnahme desselben mittels zwei Kameras,
  • 2 schematisch eine Darstellung einer Anordnung zur Bestimmung einer Position eines Objektpunkts bei einer zeitlich asynchronen Aufnahme desselben mittels zwei Kameras,
  • 3 schematisch eine Darstellung eines mittels einer Kamera zu unterschiedlichen Aufnahmezeitpunkten erfassten Objektpunkts,
  • 4 schematisch eine Messung einer Bewegung und Asynchronität eines Objektpunkts in einem Bild sowie eine Zuordnung zu einem Referenzbild und
  • 5 schematisch eine Korrektur einer Position eines Objektpunkts anhand der ermittelten Bewegung und Asynchronität.
Show:
  • 1 schematically a representation of an arrangement for determining a position of an object point when recording it synchronously using two cameras,
  • 2 schematically a representation of an arrangement for determining a position of an object point when recording it asynchronously in time using two cameras,
  • 3 schematically a representation of an object point captured by a camera at different recording times,
  • 4 schematically a measurement of a movement and asynchrony of an object point in an image as well as an assignment to a reference image and
  • 5 schematically a correction of a position of an object point based on the determined movement and asynchrony.

Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference numbers in all figures.

In 1 ist eine Darstellung einer Anordnung zur Bestimmung einer Position eines Objektpunkts P bei einer zeitlich synchronen Aufnahme desselben mittels zwei Kameras 1, 2 gezeigt.In 1 is a representation of an arrangement for determining a position of an object point P during a synchronous recording of the same using two cameras 1, 2.

Die Kameras 1, 2 sind beispielsweise Bestandteil eines Sensorsystems, beispielsweise eines Mehrkamerasystems, welches zum Beispiel in oder an einem Fahrzeug zur Erfassung einer Fahrzeugumgebung vorgesehen ist.The cameras 1, 2 are, for example, part of a sensor system, for example a multi-camera system, which is provided, for example, in or on a vehicle for detecting a vehicle environment.

Mittels der Kameras 1, 2 erfasste Umgebungsdaten sind insbesondere zur Verwendung in Fahrerassistenzsystemen, beispielsweise zum automatisierten, insbesondere hochautomatisierten oder autonomen Betrieb des Fahrzeugs vorgesehen. Bei einer solchen Verwendung werden in mittels der Kameras 1, 2 erfassten Bildern B1, B2 Objekte detektiert, wobei vorliegend ein solches Objekt durch den Objektpunkt P repräsentiert wird.Environmental data recorded by the cameras 1, 2 is intended in particular for use in driver assistance systems, for example for automated, in particular highly automated or autonomous operation of the vehicle. When used in this way, objects B1, B2 are detected in images B1, B2 captured by the cameras 1, 2, such an object being represented by the object point P in the present case.

Hierzu werden jeweils mehrere Bilder B1, B2 eines Objektpunkts P aus verschiedenen Perspektiven mittels der Kameras 1, 2 sowie zugehörige Aufnahmezeitpunkte tn, tn+1 aufgenommen. Die Kameras 1, 2 sind zueinander kalibriert, wobei ein Abstand d der Kameras 1, 2 zueinander und eine jeweilige Brennweite f1, f2 der Kameras 1, 2 bekannt sind. Wird bei einer Auswertung der Bilder B1, B2 die Position mindestens eines Objekts berechnet, wird in jedem Bild B1, B2 der gleiche Objektpunkt P bestimmt. Durch Triangulation wird eine Position des Objektpunkts P aus jedem Bild B1, B2 berechnet. Das heißt, in den erfassten Bildern B1, B2 wird ein Abstand des Objektpunkts P zu den Kameras 1, 2 anhand eines Schnittpunkts von Sichtlinien S1, S2 der Kameras 1, 2, des Abstands d der Kameras 1, 2 zueinander und den Brennweiten f1, f2 der Kameras 1, 2 ermittelt.For this purpose, several images B1, B2 of an object point P are recorded from different perspectives using the cameras 1, 2 and associated recording times t n , t n+1 . The cameras 1, 2 are calibrated to one another, with a distance d between the cameras 1, 2 and a respective focal length f1, f2 of the cameras 1, 2 being known. If the position of at least one object is calculated when the images B1, B2 are evaluated, the same object point P is determined in each image B1, B2. A position of the object point P is calculated from each image B1, B2 by triangulation. That is, in the captured images B1, B2, a distance of the object point P to the cameras 1, 2 is determined based on an intersection of lines of sight S1, S2 of the cameras 1, 2, the distance d of the cameras 1, 2 to one another and the focal lengths f1, f2 of cameras 1, 2 determined.

Bewegt sich jedoch das Objekt während der Aufnahme der Bilder B1, B2 und werden diese nicht zeitgleich, sondern asynchron aufgenommen, dann verschiebt sich der Objektpunkt P in einem Bild B1, B2 um einen Weg s, der von einer Zeitabweichung zwischen den Aufnahmezeitpunkten tn, tn+1 der Bilder B1, B2 sowie der Bewegung des Objekts abhängig ist. Dies ist in 2 näher dargestellt, welche eine Darstellung einer Anordnung zur Bestimmung einer Position eines Objektpunkts P bei einer zeitlich asynchronen Aufnahme desselben mittels zwei Kameras 1, 2 zeigt.However, if the object moves while the images B1, B2 are being recorded and these are not recorded at the same time but asynchronously, then the object point P in an image B1, B2 shifts by a distance s, which depends on a time deviation between the recording times t n , t n+1 of the images B1, B2 and the movement of the object depends. This is in 2 shown in more detail, which shows a representation of an arrangement for determining a position of an object point P during a temporally asynchronous recording of the same using two cameras 1, 2.

Dabei wurde das mittels der Kamera 2 erfasste Bild B2 mit einem zeitlichen Versatz zu dem mittels der Kamera 1 erfassten Bild B1 aufgenommen. Der zeitliche Versatz und die Bewegung des Objektpunkts P verursachen eine Verschiebung V des Objektpunkts P im Bild B2. Eine daraus resultierende Sichtlinie S2' schneidet die Sichtlinie S1 der Kamera 1 im Punkt P'.The image B2 captured by the camera 2 was recorded with a time offset from the image B1 captured by the camera 1. The temporal offset and the movement of the object point P cause a displacement V of the object point P in image B2. A resulting line of sight S2' intersects the line of sight S1 of the camera 1 at point P'.

Ohne Berücksichtigung der Asynchronität der Aufnahmezeitpunkte tn, tn+1 ist die Positionsberechnung des Objektpunkts P fehlerbehaftet. Eine wahre Position des Objektpunkts P im Raum kann zu der gemessenen Position mehr oder weniger abweichen, je nachdem wie sich das Objekt relativ zu den Kameras 1, 2 bewegt und wie groß die Zeitabweichung zwischen den Aufnahmezeitpunkten tn, tn+1 der beiden erfassten Bilder B1, B2 ist. Der Weg s, um welchen der Objektpunkt P' gegenüber dem Objektpunkt P verschoben ist, ergibt sich dabei aus einem Messfehler sy in Längsrichtung Y und einem Messfehler sx in Querrichtung X.Without taking into account the asynchrony of the recording times t n , t n+1, the position calculation of the object point P is subject to errors. A true position of the object point P in space can deviate more or less from the measured position, depending on how the object moves relative to the cameras 1, 2 and how large the time deviation between the recording times t n , t n +1 of the two recorded Pictures B1, B2 is. The path s by which the object point P' is shifted relative to the object point P results from a measurement error s y in the longitudinal direction Y and a measurement error s x in the transverse direction X.

Wird ein in 5 näher dargestellter Korrekturwert K einbezogen, kann der entstandene Messfehler sx, sy in Form des Wegs s zumindest verringert oder vollständig ausgeglichen werden. Für diese Korrektur ist eine Kenntnis der Zeitabweichung, einer in 4 näher dargestellten Bewegungsrichtung R des Objektpunkts P' und einer Objektgeschwindigkeit v des Objektpunkts P' erforderlich.Will be an in 5 If the correction value K shown in more detail is included, the resulting measurement error s x , s y can at least be reduced or completely compensated for in the form of the path s. For this correction, knowledge of the time deviation, one in 4 Direction of movement R of the object point P 'shown in more detail and an object speed v of the object point P' are required.

Das im Folgenden beschriebene mögliche Ausführungsbeispiel eines Verfahrens zur Kompensation von Messfehlern sx, sy bei einer mittels eines mindestens zwei Kameras 1, 2 aufweisenden Sensorsystems eines Fahrzeugs durchgeführten Abstandsmessung ist allgemein auch auf Multikamerasysteme mit einer beliebigen Anzahl von Kameras 1, 2 anwendbar und wird in diesem Fall entsprechend mehrfach durchlaufen.The possible exemplary embodiment of a method for compensating for measurement errors s in this case run through it several times.

Bei jeder Aufnahme eines Bilds B1, B2 wird der Aufnahmezeitpunkt tn, tn+1 in einem gemeinsamen Zeitsystem bestimmt. Das gemeinsame Zeitsystem wird dabei von einer Komponente von Daten der Kameras 1, 2 verarbeitenden Bildverarbeitungssystems, beispielsweise einer Bildauswerteeinheit, definiert.Each time an image B1, B2 is recorded, the recording time t n , t n+1 is determined in a common time system. The common time system is defined by a component of the image processing system that processes data from the cameras 1, 2, for example an image evaluation unit.

Zusätzlich wird für eine möglichst genaue Bestimmung der Zeitabweichung eine Übertragungszeit zwischen der zeitdefinierenden Komponente und anderen Komponenten des Bildverarbeitungssystems benötigt. Dafür wird eine Latenzzeit, welche eine Übertragungszeit zwischen der Komponente und anderen Komponenten in einem zumindest die Komponenten und die Kameras umfassenden System beschreibt, ermittelt und dieser Zeitunterschied in die Berechnung der Asynchronität mit einbezogen.In addition, in order to determine the time deviation as precisely as possible, a transmission time is required between the time-defining component and other components of the image processing system. For this purpose, a latency time, which describes a transmission time between the component and other components in a system comprising at least the components and the cameras, is determined and this time difference is included in the calculation of the asynchrony.

Ebenso wird zum Ausgleich unterschiedlicher Belichtungszeiten die Mitte der jeweiligen Belichtungszeit als Aufnahmezeitpunkt definiert.Likewise, to compensate for different exposure times, the middle of the respective exposure time is defined as the recording time.

Zur Korrektur der Messfehler sx, sy wird eines der Bilder B1, B2 als Referenzbild gesetzt und die übrigen Bilder B1, B2 der anderen Kameras 1, 2 oder Kamerasysteme relativ zum Referenzbild korrigiert. Ein Sonderfall, bei dem eine Bewegung des Objektpunkts P' genau in Richtung der Sichtlinie S1, S2 einer Kamera 1, 2 erfolgt, wird durch eine Zuordnung der Kamera 1, 2 zum Referenzbild gelöst.To correct the measurement errors s A special case in which a movement of the object point P 'takes place exactly in the direction of the line of sight S1, S2 of a camera 1, 2 is solved by assigning the camera 1, 2 to the reference image.

Zunächst wird für eine Bestimmung der Objektgeschwindigkeit v des Objektpunkts P' eine Bewegung desselben um den jeweiligen Aufnahmezeitpunkt tn, tn+1 jeder Kamera 1, 2 analysiert und das Bild B1, B2 mit der geringsten Bewegung des Objektpunkts P wird als Referenzbild gesetzt.First, to determine the object speed v of the object point P ', a movement of the object point P 'around the respective recording time t n , t n + 1 of each camera 1, 2 is analyzed and the image B1, B2 with the smallest movement of the object point P is set as a reference image.

Die die Asynchronität beschreibende Zeitabweichung tAsync wird gemäß t A s y n c = t R e f e r e n z t n t L a t e n z , n

Figure DE102021005335B4_0001
aus einer zeitlichen Differenz des Aufnahmezeitpunkts tReferenz des Referenzbilds zu weiteren Aufnahmezeitpunkten tn, korrigiert um die durch die jeweilige Latenz tLatenz,n beschriebene Übertragungszeit zwischen der zeitdefinierenden Komponente und anderen Komponenten. Dabei kann die berechnete Zeitabweichung positiv oder negativ sein, was sich später auf die Korrekturrichtung auswirkt.The time deviation t Async describing the asynchrony is determined according to t A s y n c = t R e f e r e n e.g t n t L a t e n e.g , n
Figure DE102021005335B4_0001
from a time difference between the recording time t reference of the reference image and further recording times t n , corrected by the transmission time between the time-defining component and other components described by the respective latency t latency ,n . The calculated time deviation can be positive or negative, which later affects the correction direction.

Die beispielhaft in 4 dargestellte Objektgeschwindigkeit v und Bewegungsrichtung R des Objektpunkts P' werden durch Messungen, beispielweise durch die zu korrigierenden Kameras 1, 2 um den zu korrigierenden Aufnahmezeitpunkt tn, tn+1, berechnet. Die Messung der Objektgeschwindigkeit v und der Bewegungsrichtung R wird um das zu korrigierende Bild B1, B2 sowie durch mindestens eine weitere Bildaufnahme vorgenommen. Dies ist in 3 anhand einer Darstellung eines mittels einer Kamera 1, 2 zu unterschiedlichen Aufnahmezeitpunkten tn-1, tn, tn+1 erfassten Objektpunkts P'-1, P', P'+1 gezeigt.The example in 4 The object speed v shown and the direction of movement R of the object point P' are calculated by measurements, for example by the cameras 1, 2 to be corrected, around the recording time t n , t n + 1 to be corrected. The measurement of the object speed v and the direction of movement R is carried out around the image B1, B2 to be corrected and by at least one further image recording. This is in 3 based on a representation of an object point P' -1, P ' , P' +1 captured by a camera 1, 2 at different recording times t n-1 , t n , t n+1 .

Hierbei ist eine die Bestimmung der Objektgeschwindigkeit v und der Bewegungsrichtung R des Objektpunkts P' zu einem Aufnahmezeitpunkt tn-1 vor und einem Aufnahmezeitpunkt tn+1 nach einem Aufnahmezeitpunkt tn dargestellt.Here, the determination of the object speed v and the direction of movement R of the object point P' is shown at a recording time t n-1 before and a recording time t n+1 after a recording time t n .

Eine Objektgeschwindigkeit in Querrichtung X berechnet sich dabei gemäß v x n = Δ x Δ t A s y n c = x ( P ' ± n ) x ( P ' ) t n ( P ' ± n ) t R e f e r e n z ( P ' )

Figure DE102021005335B4_0002
aus einer Differenz Δx der Koordinaten des Objektpunkts P in Querrichtung X geteilt durch die zugehörige Zeitabweichung ΔtAsync zwischen den Bildern B1, B2.An object speed in the transverse direction X is calculated according to v x n = Δ x Δ t A s y n c = x ( P ' ± n ) x ( P ' ) t n ( P ' ± n ) t R e f e r e n e.g ( P ' )
Figure DE102021005335B4_0002
from a difference Δx of the coordinates of the object point P in the transverse direction X divided by the associated time deviation Δt Async between the images B1, B2.

Eine Objektgeschwindigkeit in Längsrichtung Y berechnet sich dabei gemäß v y n = Δ y Δ t A s y n c = y ( P ' ± n ) y ( P ' ) t n ( P ' ± n ) t R e f e r e n z ( P ' )

Figure DE102021005335B4_0003
aus einer Differenz Δy der Koordinaten des Objektpunkts P in Längsrichtung Y geteilt durch die zugehörige Zeitabweichung AtAsync zwischen den Bildern B1, B2.An object speed in the longitudinal direction Y is calculated according to v y n = Δ y Δ t A s y n c = y ( P ' ± n ) y ( P ' ) t n ( P ' ± n ) t R e f e r e n e.g ( P ' )
Figure DE102021005335B4_0003
from a difference Δy of the coordinates of the object point P in the longitudinal direction Y divided by the associated time deviation At Async between the images B1, B2.

Für mehrere Messungen wird anschließend für die Querrichtung X gemäß v x = v x 1 + v x 2 + + v x n n

Figure DE102021005335B4_0004
und die Längsrichtung Y gemäß v y = v y 1 + v y 2 + + v y n n
Figure DE102021005335B4_0005
jeweils ein Mittelwert der bestimmten Objektgeschwindigkeiten berechnet. Dies wird anhand einer Bildaufnahme oder mit beiden Bildaufnahmen durchgeführt, welche zeitlich am nächsten mit dem kleinsten Zeitintervall vor und nach der Messung aufgenommen wurden.For several measurements, X is then used for the transverse direction v x = v x 1 + v x 2 + + v x n n
Figure DE102021005335B4_0004
and the longitudinal direction Y according to v y = v y 1 + v y 2 + + v y n n
Figure DE102021005335B4_0005
an average of the specific object speeds is calculated. This is carried out using one image recording or both image recordings, which were taken closest in time with the smallest time interval before and after the measurement.

Aus einem Produkt der Asynchronität, das heißt der Zeitabweichung ΔtAsync zwischen den Aufnahmezeitpunkten tn, tn+1, und den zuvor berechneten Objektgeschwindigkeiten des zu korrigierenden Bilds B1, B2 wird anschließend wie folgt ein jeweiliger Korrekturwert in Querrichtung X gemäß x K o r r e k t u r = t A s y n c v x

Figure DE102021005335B4_0006
und in Längsrichtung Y gemäß y K o r r e k t u r = t A s y n c v y
Figure DE102021005335B4_0007
berechnet. A respective correction value in the transverse direction x K O r r e k t u r = t A s y n c v x
Figure DE102021005335B4_0006
and in the longitudinal direction Y according to y K O r r e k t u r = t A s y n c v y
Figure DE102021005335B4_0007
calculated.

Die so ermittelten Korrekturwerte werden anschließend mit der jeweiligen unkorrigierten Koordinate des Objektpunkts P' addiert gemäß x k o r r i g i e r t = x u n k o r r i g i e r t + x K o r r e k t u r

Figure DE102021005335B4_0008
und y k o r r i g i e r t = y u n k o r r i g i e r t + y K o r r e k t u r .
Figure DE102021005335B4_0009
The correction values determined in this way are then added to the respective uncorrected coordinate of the object point P' x k O r r i G i e r t = x u n k O r r i G i e r t + x K O r r e k t u r
Figure DE102021005335B4_0008
and y k O r r i G i e r t = y u n k O r r i G i e r t + y K O r r e k t u r .
Figure DE102021005335B4_0009

Das heißt, der Versatz des Objektpunkts P' wird durch die positive Zeitabweichung ΔtAsync des entsprechenden Bilds B1, B2 zum Referenzbild zurückgerechnet und der Messfehler sx, sy wird durch den neu berechneten Objektpunkt P korrigiert.This means that the offset of the object point P' is calculated back to the reference image by the positive time deviation Δt Async of the corresponding image B1, B2 and the measurement error s x , s y is corrected by the newly calculated object point P.

Eine solche Korrektur mittels eines aus den Korrekturwerten xKorrektur, yKorrektur gebildeten Korrekturwerts K ist beispielhaft in 5 dargestellt.Such a correction using a correction value K formed from the correction values x correction , y correction is exemplified in 5 shown.

Abschließend werden mittels des Triangulationsverfahrens die Koordinaten des Objektpunkts P, P' bestimmt.Finally, the coordinates of the object point P, P' are determined using the triangulation method.

Claims (7)

Verfahren zur Kompensation von Messfehlern (sx, sy) bei einer mittels eines mindestens zwei Kameras (1, 2) aufweisenden Sensorsystems eines Fahrzeugs durchgeführten Abstandsmessung, wobei - mittels der zumindest zwei Kameras (1, 2) jeweils ein Bild (B1, B2) erfasst wird, - eine Zeitabweichung zwischen Aufnahmezeitpunkten (tn, tn+1) der beiden erfassten Bilder (B1, B2) ermittelt wird, - eine Objektgeschwindigkeit (v) eines Objekts in einer Fahrzeugumgebung ermittelt wird, - eine Position eines Objektpunkts (P) des Objekts in dem als Referenzbild verwendeten Bild (B1, B2) einer der Kameras (1, 2) als Referenzposition ermittelt wird, - eine Position des Objektpunkts (P') in dem Bild (B1, B2) der anderen Kamera (1, 2) ermittelt wird, - die Position des Objektpunkts (P') in dem Bild (B1, B2) der anderen Kamera (1, 2) basierend auf der Objektgeschwindigkeit (v) des Objekts und der Zeitabweichung auf eine korrigierte Position, an der sich der Objektpunkt (P') zu dem Aufnahmezeitpunkt (tn, tn+1) des Referenzbilds befunden hätte, rückgerechnet wird und - ein Abstand zu dem Objekt durch Triangulation, basierend auf der Referenzposition des Objektpunkts (P) und der korrigierten Position des Objektpunkts (P') ermittelt wird.Method for compensating for measurement errors ( s ) is recorded, - a time deviation between recording times (t n , t n+1 ) of the two captured images (B1, B2) is determined, - an object speed (v) of an object in a vehicle environment is determined, - a position of an object point ( P) of the object in the image (B1, B2) of one of the cameras (1, 2) used as a reference image is determined as a reference position, - a position of the object point (P ') in the image (B1, B2) of the other camera (1 , 2) is determined, - the position of the object point (P ') in the image (B1, B2) of the other camera (1, 2) based on the object speed (v) of the object and the time deviation to a corrected position at which the object point (P') would have been at the time of recording (t n , t n+1 ) of the reference image, is recalculated and - a distance to the object by triangulation, based on the reference position of the object point (P) and the corrected position of the Object point (P') is determined. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass ein gemeinsames Zeitsystem der Kameras (1, 2) von einer Komponente eines Daten der Kameras (1, 2) verarbeitenden Bildverarbeitungssystems vorgegeben wird.Procedure according to Claim 1 , characterized in that a common time system for the cameras (1, 2) is specified by a component of an image processing system that processes data from the cameras (1, 2). Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass - eine Übertragungszeit zwischen der Komponente und anderen Komponenten in einem zumindest die Komponenten und die Kameras (1, 2) umfassenden Bildverarbeitungssystem aus einer Latenzzeit zwischen der Komponente und den anderen Komponenten des Bildverarbeitungssystems ermittelt wird und - die Übertragungszeit bei der Ermittlung der Zeitabweichung zwischen den Aufnahmezeitpunkten (tn, tn+1) berücksichtigt wird.Procedure according to Claim 2 , characterized in that - a transmission time between the component and other components in an image processing system comprising at least the components and the cameras (1, 2) is determined from a latency between the component and the other components of the image processing system and - the transmission time during the determination the time deviation between the recording times (t n , t n+1 ) is taken into account. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Zeitabweichung aus dem Aufnahmezeitpunkt (tn, tn+1) des Referenzbilds abzüglich des Aufnahmezeitpunkts (tn, tn+1) des Bilds (B1, B2) der anderen Kamera (1, 2) abzüglich der Übertragungszeit ermittelt wird.Procedure according to Claim 3 , characterized in that the time deviation from the recording time (t n , t n+1 ) of the reference image minus the recording time (t n , t n+1 ) of the image (B1, B2) of the other camera (1, 2) minus the Transmission time is determined. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Aufnahmezeitpunkt (tn, tn+1) eine Mitte einer Belichtungszeit bei der Aufnahme des jeweiligen Bilds (B1, B2) verwendet wird.Method according to one of the preceding claims, characterized in that a middle of an exposure time when recording the respective image (B1, B2) is used as the recording time (t n , t n+1 ). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass - für mehrere Aufnahmezeitpunkte (tn, tn+1) ein Mittelwert von Geschwindigkeiten des entsprechenden Objekts ermittelt wird und - der Mittelwert der Geschwindigkeiten des Objekts als Objektgeschwindigkeit (v) verwendet wird.Method according to one of the preceding claims, characterized in that - an average value of velocities of the corresponding object is determined for several recording times (t n , t n+1 ) and - the average value of the velocities of the object is used as the object speed (v). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass - die Objektgeschwindigkeit (v) mit der Zeitabweichung zwischen den Aufnahmezeitpunkten (tn, tn+1) multipliziert wird, - aus dem Ergebnis der Multiplikation ein Korrekturwert (K) ermittelt wird und - anhand des Korrekturwerts (K) die korrigierte Position ermittelt wird.Method according to one of the preceding claims, characterized in that - the object speed (v) is multiplied by the time deviation between the recording times (t n , t n+1 ), - a correction value (K) is determined from the result of the multiplication and - The corrected position is determined based on the correction value (K).
DE102021005335.4A 2021-10-26 2021-10-26 Method for compensating measurement errors Active DE102021005335B4 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102021005335.4A DE102021005335B4 (en) 2021-10-26 2021-10-26 Method for compensating measurement errors
PCT/EP2022/075948 WO2023072479A1 (en) 2021-10-26 2022-09-19 Method for compensating for measurement errors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021005335.4A DE102021005335B4 (en) 2021-10-26 2021-10-26 Method for compensating measurement errors

Publications (2)

Publication Number Publication Date
DE102021005335A1 DE102021005335A1 (en) 2023-04-27
DE102021005335B4 true DE102021005335B4 (en) 2023-11-09

Family

ID=83693169

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021005335.4A Active DE102021005335B4 (en) 2021-10-26 2021-10-26 Method for compensating measurement errors

Country Status (2)

Country Link
DE (1) DE102021005335B4 (en)
WO (1) WO2023072479A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10215009A1 (en) 2002-04-05 2003-10-23 Daimler Chrysler Ag Motor vehicle velocity determination method in which a velocity measured using the wheel diameter and a transfer function is corrected using a value determined from measuring the approach velocity to a fixed reference point
DE102006005231A1 (en) 2006-02-02 2007-08-16 Optotransmitter-Umweltschutz-Technologie E.V. Method for determination of distance of an object, involves stereoscopic analysis of two picture fields comprising digital camera pictures, which are recorded by stationary camera system
US20130194419A1 (en) 2010-06-30 2013-08-01 Tata Consultancy Services Limited Automatic Detection of Moving Object by Using Stereo Vision Technique
US20150062304A1 (en) 2013-01-15 2015-03-05 Mobileye Vision Technologies Ltd. Stereo assist with rolling shutters
WO2015186002A2 (en) 2014-06-03 2015-12-10 Mobileye Vision Technologies Ltd. Systems and methods for detecting an object

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004037239A (en) * 2002-07-03 2004-02-05 Fuji Heavy Ind Ltd Identical object judging method and system, and misregistration correcting method and system
JP6602982B2 (en) * 2016-08-29 2019-11-06 日立オートモティブシステムズ株式会社 In-vehicle camera, in-vehicle camera adjustment method, in-vehicle camera system
JP6887356B2 (en) * 2017-09-25 2021-06-16 日立Astemo株式会社 Stereo image processing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10215009A1 (en) 2002-04-05 2003-10-23 Daimler Chrysler Ag Motor vehicle velocity determination method in which a velocity measured using the wheel diameter and a transfer function is corrected using a value determined from measuring the approach velocity to a fixed reference point
DE102006005231A1 (en) 2006-02-02 2007-08-16 Optotransmitter-Umweltschutz-Technologie E.V. Method for determination of distance of an object, involves stereoscopic analysis of two picture fields comprising digital camera pictures, which are recorded by stationary camera system
US20130194419A1 (en) 2010-06-30 2013-08-01 Tata Consultancy Services Limited Automatic Detection of Moving Object by Using Stereo Vision Technique
US20150062304A1 (en) 2013-01-15 2015-03-05 Mobileye Vision Technologies Ltd. Stereo assist with rolling shutters
WO2015186002A2 (en) 2014-06-03 2015-12-10 Mobileye Vision Technologies Ltd. Systems and methods for detecting an object

Also Published As

Publication number Publication date
DE102021005335A1 (en) 2023-04-27
WO2023072479A1 (en) 2023-05-04

Similar Documents

Publication Publication Date Title
DE102008053472B4 (en) Object detection system
DE19505244C2 (en) Device for determining the distance between vehicles
DE19633704B4 (en) Vehicle environment monitoring device
DE10312696B3 (en) Procedure for determining the mapping equation for self-calibration in relation to the implementation of stereo PIV procedures
WO2015075093A1 (en) Method, fusion filter, and system for fusing sensor signals with different temporal signal output delays into a fusion data set
EP2189349A2 (en) Method and device for compensating a roll angle
DE102012009577A1 (en) Method for calibrating squint angle of frame camera of stereo camera arrangement in vehicle, involves calculating travel distance covered by vehicle, and determining deviation between distance and reference distance to calibrate angle
EP1710749A1 (en) Correction of yaw angle measuring errors for driving lane detection sensors
DE102009019399B4 (en) Method for automatically determining at least one target variable describing the change in the position of a motor vehicle
DE102015202230A1 (en) Fused eigenmotion calculation for a vehicle
DE3144050C2 (en) Method for the transmission and reproduction of video scenes, in particular aerial photo scenes, with a reduced frame rate
DE102021005335B4 (en) Method for compensating measurement errors
DE102012211961A1 (en) Method and apparatus for calculating a change in a magnification of an object
DE4125688C2 (en) Distance detection device
DE102008042631A1 (en) Method for determining distance between object and vehicle surrounding in monocular video assistance system of motor vehicle, involves determining distance of object based on image breadth and focal distance of assistance system
DE102010042821B4 (en) Method and apparatus for determining a basic width of a stereo detection system
DE102014206227A1 (en) Stereo Camera System
DE102019212022B4 (en) Method and device for determining a parallax problem in sensor data from two sensors
DE102015101190A1 (en) Method for determining an image depth value depending on an image area, camera system and motor vehicle
DE102014219428A1 (en) Self-calibration of a stereo camera system in the car
EP3518180A1 (en) Method for producing an image stack data structure
DE102019212021B4 (en) Method and device for detecting a parallax problem in sensor data from two sensors
DE102017201099A1 (en) Method for calibrating radar sensors in a vehicle
DE102009027496A1 (en) Method for recognizing upcoming side collision between car and another vehicle, involves comparing actual speed with possible speed of moving object to recognize upcoming side collision between vehicle and object
DE102016221171B4 (en) Method and device for determining lane progression data

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division