DE102021005335B4 - Method for compensating measurement errors - Google Patents
Method for compensating measurement errors Download PDFInfo
- Publication number
- DE102021005335B4 DE102021005335B4 DE102021005335.4A DE102021005335A DE102021005335B4 DE 102021005335 B4 DE102021005335 B4 DE 102021005335B4 DE 102021005335 A DE102021005335 A DE 102021005335A DE 102021005335 B4 DE102021005335 B4 DE 102021005335B4
- Authority
- DE
- Germany
- Prior art keywords
- image
- time
- determined
- recording
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000005259 measurement Methods 0.000 title claims abstract description 29
- 238000012937 correction Methods 0.000 claims description 15
- 230000005540 biological transmission Effects 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 8
- 238000012546 transfer Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Abstract
Verfahren zur Kompensation von Messfehlern (sx, sy) bei einer mittels eines mindestens zwei Kameras (1, 2) aufweisenden Sensorsystems eines Fahrzeugs durchgeführten Abstandsmessung, wobei- mittels der zumindest zwei Kameras (1, 2) jeweils ein Bild (B1, B2) erfasst wird,- eine Zeitabweichung zwischen Aufnahmezeitpunkten (tn, tn+1) der beiden erfassten Bilder (B1, B2) ermittelt wird,- eine Objektgeschwindigkeit (v) eines Objekts in einer Fahrzeugumgebung ermittelt wird,- eine Position eines Objektpunkts (P) des Objekts in dem als Referenzbild verwendeten Bild (B1, B2) einer der Kameras (1, 2) als Referenzposition ermittelt wird,- eine Position des Objektpunkts (P') in dem Bild (B1, B2) der anderen Kamera (1, 2) ermittelt wird,- die Position des Objektpunkts (P') in dem Bild (B1, B2) der anderen Kamera (1, 2) basierend auf der Objektgeschwindigkeit (v) des Objekts und der Zeitabweichung auf eine korrigierte Position, an der sich der Objektpunkt (P') zu dem Aufnahmezeitpunkt (tn, tn+1) des Referenzbilds befunden hätte, rückgerechnet wird und- ein Abstand zu dem Objekt durch Triangulation, basierend auf der Referenzposition des Objektpunkts (P) und der korrigierten Position des Objektpunkts (P') ermittelt wird.Method for compensating for measurement errors (sx, sy) in a distance measurement carried out by means of a sensor system of a vehicle having at least two cameras (1, 2), wherein an image (B1, B2) is captured by means of each of the at least two cameras (1, 2). - a time deviation between recording times (tn, tn+1) of the two captured images (B1, B2) is determined, - an object speed (v) of an object in a vehicle environment is determined, - a position of an object point (P) of the object in the image (B1, B2) of one of the cameras (1, 2) used as a reference image is determined as a reference position, - a position of the object point (P ') in the image (B1, B2) of the other camera (1, 2) is determined - the position of the object point (P') in the image (B1, B2) of the other camera (1, 2) based on the object speed (v) of the object and the time deviation to a corrected position at which the object point ( P') would have been at the time of recording (tn, tn+1) of the reference image, is recalculated and a distance to the object is determined by triangulation based on the reference position of the object point (P) and the corrected position of the object point (P'). becomes.
Description
Die Erfindung betrifft ein Verfahren zur Kompensation von Messfehlern bei einer mittels eines mindestens zwei Kameras aufweisenden Sensorsystems eines Fahrzeugs durchgeführten Abstandsmessung.The invention relates to a method for compensating for measurement errors in a distance measurement carried out by means of a vehicle sensor system having at least two cameras.
Aus der
Aus der
Aus der US 2013 / 0 194 419 A1 ist ein Verfahren zum Verfolgen eines sich bewegenden Objekts und zum Bestimmen seines momentanen Abstands zu einem Fahrzeug bekannt, wobei das Verfahren auf einer Stereobildverarbeitung beruht. Die Bestimmung des Abstands basiert dabei auf einem Filtern und Verfeinern eines Bildes des Objekts, wobei ein Kalman-Filter zum Entfernen von Rauschfehlern verwendet wird.From US 2013/0 194 419 A1 a method for tracking a moving object and for determining its current distance from a vehicle is known, the method being based on stereo image processing. The determination of the distance is based on filtering and refining an image of the object, using a Kalman filter to remove noise errors.
Aus der US 2015 / 0 062 304 A1 ist ein Bildgebungssystem für ein Fahrzeug bekannt, das zwei Bilderfassungsgeräte umfasst, die nach dem Rolling-Shutter-Prinzip arbeiten. Die beiden Bilderfassungsgeräte weisen unterschiedliche und sich zumindest teilweise überlappende Sichtfelder auf. Die Abtastraten der beiden Bilderfassungsgeräte unterscheiden sich voneinander, sind aber derart aufeinander abgestimmt, dass die Bilderfassungsgeräte den überlappenden Bereich der Sichtfelder innerhalb des gleichen Zeitraums aufnehmen.From US 2015/0 062 304 A1 an imaging system for a vehicle is known which includes two image capture devices that work according to the rolling shutter principle. The two image capture devices have different and at least partially overlapping fields of view. The sampling rates of the two image capture devices differ from each other, but are coordinated with one another in such a way that the image capture devices record the overlapping area of the fields of view within the same period of time.
Aus der WO 2015 / 186 002 A2 ist ein Verfahren zum Erkennen eines Objekts vor einem Fahrzeug bekannt, bei dem mittels einer Bilderfassungsvorrichtung eine Vielzahl von Bildern eines Bereichs erfasst wird, wobei durch Vergleichen zweier Bilder Verschiebungsvektoren zwischen Pixeln bestimmt werden, um basierend hierauf aufrechte Objekte zu identifizieren.From WO 2015/186 002 A2 a method for detecting an object in front of a vehicle is known, in which a large number of images of an area are captured by means of an image capture device, with displacement vectors between pixels being determined by comparing two images in order to create upright objects based on this to identify.
Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Kompensation von Messfehlern bei einer mittels eines mindestens zwei Kameras aufweisenden Sensorsystems durchgeführten Abstandsmessung anzugeben.The invention is based on the object of specifying a novel method for compensating for measurement errors in a distance measurement carried out using a sensor system having at least two cameras.
Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegebenen Merkmale aufweist.The object is achieved according to the invention by a method which has the features specified in
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the subclaims.
In dem erfindungsgemäßen Verfahren zur Kompensation von Messfehlern bei einer mittels eines mindestens zwei Kameras aufweisenden Sensorsystems eines Fahrzeugs durchgeführten Abstandsmessung wird mittels der zumindest zwei Kameras jeweils ein Bild erfasst. Es werden eine Zeitabweichung zwischen Aufnahmezeitpunkten der beiden erfassten Bilder, eine Objektgeschwindigkeit eines Objekts in einer Fahrzeugumgebung und eine Position eines Objektpunkts des Objekts in dem als Referenzbild verwendeten Bild einer der Kameras als Referenzposition ermittelt. Weiterhin wird eine Position des Objektpunkts in dem Bild der anderen Kamera ermittelt, wobei die Position des Objektpunkts in dem Bild der anderen Kamera basierend auf der Objektgeschwindigkeit des Objekts und der Zeitabweichung auf eine korrigierte Position, an der sich der Objektpunkt zu dem Aufnahmezeitpunkt des Referenzbilds befunden hätte, rückgerechnet wird. Ein Abstand zu dem Objekt wird durch Triangulation, basierend auf der Referenzposition des Objektpunkts und der korrigierten Position des Objektpunkts, ermittelt.In the method according to the invention for compensating for measurement errors in a distance measurement carried out by means of a vehicle sensor system having at least two cameras, an image is captured by each of the at least two cameras. A time deviation between recording times of the two captured images, an object speed of an object in a vehicle environment and a position of an object point of the object in the image of one of the cameras used as a reference image are determined as a reference position. Furthermore, a position of the object point in the image of the other camera is determined, the position of the object point in the image of the other camera based on the object speed of the object and the time deviation to a corrected position at which the object point was located at the time the reference image was recorded would have been recalculated. A distance to the object is determined by triangulation based on the reference position of the object point and the corrected position of the object point.
Mehrkamerasysteme sind in der Lage, durch das Messprinzip der Triangulation die Position mindestens eines Objekts zu bestimmen. Bei bewegten Objekten können jedoch Messfehler in der Positionsbestimmung durch zeitlich asynchrone Aufnahmen des Mehrkamerasystems entstehen. Dies resultiert daraus, dass das Objekt von den Kameras des entsprechenden Mehrkamerasystems aufgrund einer Bewegung des Objekts und/oder des Mehrkamerasystems und einen daraus folgenden zeitlichen Versatz der Bildaufnahmen an unterschiedlichen Positionen aufgenommen wird. Mittels des vorliegenden Verfahrens kann die Position des Objekts korrigiert und somit mit einer höheren Genauigkeit bestimmt werden.Multi-camera systems are able to determine the position of at least one object using the measuring principle of triangulation. However, with moving objects, measurement errors in position determination can occur due to temporally asynchronous recordings by the multi-camera system. This results from the fact that the object is recorded at different positions by the cameras of the corresponding multi-camera system due to a movement of the object and/or the multi-camera system and a resulting time offset in the image recordings. Using the present method, the position of the object can be corrected and can therefore be determined with greater accuracy.
Dabei ist es mittels des Verfahrens möglich, bereits vorhandene Messsysteme, welche so genannte Software- oder Hardwaretrigger für dynamische Messungen verwenden, in ihrer Messgenauigkeit zu verbessern. Die Softwaretrigger sind in der Regel ungenauer als Hardwaretrigger und verwenden oftmals eine so genannte Bussynchronisation, bei der ein Aufnahmeimpuls an die Mehrkamerasysteme ausgegeben wird. Bei der Anwendung von Hardwaretriggern wird eine direkte konduktive Verbindung zwischen den einzelnen Kameras der Mehrkamerasysteme verwendet, wobei in der Regel ein Ausgang einer Kamera, beispielsweise ein so genannter Blitzausgang, mit einem Eingang einer weiteren Kamera, beispielsweise einem Auslöser, verbunden ist. Wird die erste Kamera ausgelöst, werden anschließend alle anderen Kameras oder Kamerasysteme durch den Impuls auf den Eingang ausgelöst. Die Synchronität der Aufnahmen ist in der Regel bei Hardwaretriggern besser als bei Softwaretriggern, jedoch immer noch nicht vollständig synchron. Dadurch kommt es dennoch zu Fehlern in der Positionsbestimmung von Objekten. Speziell bei Kamerasystemen unterschiedlicher Hersteller oder unterschiedlichen Typs in einem Verbund funktioniert der Softwaretrigger nicht oder nur bedingt. Auch bei Hardwaretriggern besteht in diesem Fall die Problematik der notwendigen Konfektion passender Hardware. Mittels des vorliegenden Verfahrens ist es dagegen möglich, Mehrkamerasysteme unterschiedlichen Typs oder Herstellers, die aufgrund ihres Aufbaus oder ihrer Konfiguration nicht oder nur schwer zu synchronisieren sind, in ihrer dynamischen Messgenauigkeit zu verbessern. Das heißt, das Verfahren kann in besonders vorteilhafter Weise ohne das Erfordernis von zusätzlicher Hardware und ohne eine Abhängigkeit von einem Typ und Hersteller einer Kamera verwendet werden.Using the method, it is possible to improve the measurement accuracy of existing measurement systems that use so-called software or hardware triggers for dynamic measurements. The software triggers are usually less precise than hardware triggers and often use a so-called bus synchronization, in which a recording pulse is output to the multi-camera systems. When using hardware triggers, a direct conductive connection is used between the individual cameras of the multi-camera systems, with an output of one camera, for example a so-called flash output, usually being connected to an input of another camera, for example a trigger. If the first camera is triggered, all other cameras or camera systems are then triggered by the impulse on the input. The synchronization of the recordings is usually better with hardware triggers than with software triggers, but still not completely synchronous. This still leads to errors in determining the position of objects. Especially with camera systems from different manufacturers or different types in a network, the software trigger does not work or only works to a limited extent. In this case, even with hardware triggers, there is the problem of the necessary assembly of suitable hardware. By means of the present method, however, it is possible to improve the dynamic measurement accuracy of multi-camera systems of different types or manufacturers, which are difficult or impossible to synchronize due to their structure or configuration. This means that the method can be used in a particularly advantageous manner without the need for additional hardware and without being dependent on a type and manufacturer of a camera.
In einer möglichen Ausgestaltung des Verfahrens wird ein gemeinsames Zeitsystem der Kameras von einer Komponente eines Daten der Kameras verarbeitenden Bildverarbeitungssystems, beispielsweise einer Bildauswerteeinheit, vorgegeben. Hierdurch können eine besonders genaue Ermittlung der Zeitabweichung und daraus folgend eine zuverlässige Kompensation von Messfehlern realisiert werden.In a possible embodiment of the method, a common time system for the cameras is specified by a component of an image processing system that processes data from the cameras, for example an image evaluation unit. This makes it possible to achieve a particularly precise determination of the time deviation and, as a result, a reliable compensation for measurement errors.
In einer weiteren möglichen Ausgestaltung des Verfahrens wird eine Übertragungszeit zwischen der Komponente und anderen Komponenten des Bildverarbeitungssystems in einem zumindest die Komponenten und die Kameras umfassenden System aus einer Latenzzeit zwischen der Komponente und den anderen Komponenten ermittelt, wobei die Übertragungszeit bei der Ermittlung der Zeitabweichung zwischen den Aufnahmezeitpunkten berücksichtigt wird. Die Berücksichtigung der Übertragungszeit ermöglicht eine weitere Erhöhung der Genauigkeit bei der Ermittlung der Zeitabweichung.In a further possible embodiment of the method, a transmission time between the component and other components of the image processing system in a system comprising at least the components and the cameras is determined from a latency between the component and the other components, the transmission time being used in determining the time deviation between the recording times is taken into account. Taking the transmission time into account enables a further increase in the accuracy when determining the time deviation.
In einer weiteren möglichen Ausgestaltung des Verfahrens wird die Zeitabweichung aus dem Aufnahmezeitpunkt des Referenzbilds abzüglich des Aufnahmezeitpunkts des Bilds der anderen Kamera abzüglich der Übertragungszeit ermittelt. Eine solche Ermittlung ist besonders zuverlässig und genau.In a further possible embodiment of the method, the time deviation is determined from the recording time of the reference image minus the recording time of the image of the other camera minus the transmission time. Such a determination is particularly reliable and accurate.
In einer weiteren möglichen Ausgestaltung des Verfahrens wird als Aufnahmezeitpunkt eine Mitte einer Belichtungszeit bei der Aufnahme des jeweiligen Bilds verwendet. Dies ermöglicht eine einfach realisierbare Erfassung der Aufnahmezeitpunkte auf Basis einer gemeinsamen Grundlage und unterschiedliche Belichtungszeiten können ausgeglichen werden.In a further possible embodiment of the method, a middle of an exposure time when recording the respective image is used as the recording time. This enables easy recording of the recording times based on a common basis and different exposure times can be compensated for.
In einer weiteren möglichen Ausgestaltung des Verfahrens wird für mehrere Aufnahmezeitpunkte ein Mittelwert von Geschwindigkeiten des entsprechenden Objekts ermittelt, wobei der Mittelwert der Geschwindigkeiten des Objekts als Objektgeschwindigkeit verwendet wird.In a further possible embodiment of the method, an average value of the speeds of the corresponding object is determined for several recording times, the average value of the speeds of the object being used as the object speed.
In einer weiteren möglichen Ausgestaltung des Verfahrens wird die Objektgeschwindigkeit mit der Zeitabweichung zwischen den Aufnahmezeitpunkten multipliziert, wobei aus dem Ergebnis der Multiplikation ein Korrekturwert ermittelt wird und anhand des Korrekturwerts die korrigierte Position ermittelt wird. Dies ermöglicht eine einfache und zuverlässige Ermittlung der korrigierten Position.In a further possible embodiment of the method, the object speed is multiplied by the time deviation between the recording times, a correction value being determined from the result of the multiplication and the corrected position being determined based on the correction value. This enables a simple and reliable determination of the corrected position.
Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Exemplary embodiments of the invention are explained in more detail below with reference to drawings.
Dabei zeigen:
-
1 schematisch eine Darstellung einer Anordnung zur Bestimmung einer Position eines Objektpunkts bei einer zeitlich synchronen Aufnahme desselben mittels zwei Kameras, -
2 schematisch eine Darstellung einer Anordnung zur Bestimmung einer Position eines Objektpunkts bei einer zeitlich asynchronen Aufnahme desselben mittels zwei Kameras, -
3 schematisch eine Darstellung eines mittels einer Kamera zu unterschiedlichen Aufnahmezeitpunkten erfassten Objektpunkts, -
4 schematisch eine Messung einer Bewegung und Asynchronität eines Objektpunkts in einem Bild sowie eine Zuordnung zu einem Referenzbild und -
5 schematisch eine Korrektur einer Position eines Objektpunkts anhand der ermittelten Bewegung und Asynchronität.
-
1 schematically a representation of an arrangement for determining a position of an object point when recording it synchronously using two cameras, -
2 schematically a representation of an arrangement for determining a position of an object point when recording it asynchronously in time using two cameras, -
3 schematically a representation of an object point captured by a camera at different recording times, -
4 schematically a measurement of a movement and asynchrony of an object point in an image as well as an assignment to a reference image and -
5 schematically a correction of a position of an object point based on the determined movement and asynchrony.
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference numbers in all figures.
In
Die Kameras 1, 2 sind beispielsweise Bestandteil eines Sensorsystems, beispielsweise eines Mehrkamerasystems, welches zum Beispiel in oder an einem Fahrzeug zur Erfassung einer Fahrzeugumgebung vorgesehen ist.The
Mittels der Kameras 1, 2 erfasste Umgebungsdaten sind insbesondere zur Verwendung in Fahrerassistenzsystemen, beispielsweise zum automatisierten, insbesondere hochautomatisierten oder autonomen Betrieb des Fahrzeugs vorgesehen. Bei einer solchen Verwendung werden in mittels der Kameras 1, 2 erfassten Bildern B1, B2 Objekte detektiert, wobei vorliegend ein solches Objekt durch den Objektpunkt P repräsentiert wird.Environmental data recorded by the
Hierzu werden jeweils mehrere Bilder B1, B2 eines Objektpunkts P aus verschiedenen Perspektiven mittels der Kameras 1, 2 sowie zugehörige Aufnahmezeitpunkte tn, tn+1 aufgenommen. Die Kameras 1, 2 sind zueinander kalibriert, wobei ein Abstand d der Kameras 1, 2 zueinander und eine jeweilige Brennweite f1, f2 der Kameras 1, 2 bekannt sind. Wird bei einer Auswertung der Bilder B1, B2 die Position mindestens eines Objekts berechnet, wird in jedem Bild B1, B2 der gleiche Objektpunkt P bestimmt. Durch Triangulation wird eine Position des Objektpunkts P aus jedem Bild B1, B2 berechnet. Das heißt, in den erfassten Bildern B1, B2 wird ein Abstand des Objektpunkts P zu den Kameras 1, 2 anhand eines Schnittpunkts von Sichtlinien S1, S2 der Kameras 1, 2, des Abstands d der Kameras 1, 2 zueinander und den Brennweiten f1, f2 der Kameras 1, 2 ermittelt.For this purpose, several images B1, B2 of an object point P are recorded from different perspectives using the
Bewegt sich jedoch das Objekt während der Aufnahme der Bilder B1, B2 und werden diese nicht zeitgleich, sondern asynchron aufgenommen, dann verschiebt sich der Objektpunkt P in einem Bild B1, B2 um einen Weg s, der von einer Zeitabweichung zwischen den Aufnahmezeitpunkten tn, tn+1 der Bilder B1, B2 sowie der Bewegung des Objekts abhängig ist. Dies ist in
Dabei wurde das mittels der Kamera 2 erfasste Bild B2 mit einem zeitlichen Versatz zu dem mittels der Kamera 1 erfassten Bild B1 aufgenommen. Der zeitliche Versatz und die Bewegung des Objektpunkts P verursachen eine Verschiebung V des Objektpunkts P im Bild B2. Eine daraus resultierende Sichtlinie S2' schneidet die Sichtlinie S1 der Kamera 1 im Punkt P'.The image B2 captured by the
Ohne Berücksichtigung der Asynchronität der Aufnahmezeitpunkte tn, tn+1 ist die Positionsberechnung des Objektpunkts P fehlerbehaftet. Eine wahre Position des Objektpunkts P im Raum kann zu der gemessenen Position mehr oder weniger abweichen, je nachdem wie sich das Objekt relativ zu den Kameras 1, 2 bewegt und wie groß die Zeitabweichung zwischen den Aufnahmezeitpunkten tn, tn+1 der beiden erfassten Bilder B1, B2 ist. Der Weg s, um welchen der Objektpunkt P' gegenüber dem Objektpunkt P verschoben ist, ergibt sich dabei aus einem Messfehler sy in Längsrichtung Y und einem Messfehler sx in Querrichtung X.Without taking into account the asynchrony of the recording times t n , t n+1, the position calculation of the object point P is subject to errors. A true position of the object point P in space can deviate more or less from the measured position, depending on how the object moves relative to the
Wird ein in
Das im Folgenden beschriebene mögliche Ausführungsbeispiel eines Verfahrens zur Kompensation von Messfehlern sx, sy bei einer mittels eines mindestens zwei Kameras 1, 2 aufweisenden Sensorsystems eines Fahrzeugs durchgeführten Abstandsmessung ist allgemein auch auf Multikamerasysteme mit einer beliebigen Anzahl von Kameras 1, 2 anwendbar und wird in diesem Fall entsprechend mehrfach durchlaufen.The possible exemplary embodiment of a method for compensating for measurement errors s in this case run through it several times.
Bei jeder Aufnahme eines Bilds B1, B2 wird der Aufnahmezeitpunkt tn, tn+1 in einem gemeinsamen Zeitsystem bestimmt. Das gemeinsame Zeitsystem wird dabei von einer Komponente von Daten der Kameras 1, 2 verarbeitenden Bildverarbeitungssystems, beispielsweise einer Bildauswerteeinheit, definiert.Each time an image B1, B2 is recorded, the recording time t n , t n+1 is determined in a common time system. The common time system is defined by a component of the image processing system that processes data from the
Zusätzlich wird für eine möglichst genaue Bestimmung der Zeitabweichung eine Übertragungszeit zwischen der zeitdefinierenden Komponente und anderen Komponenten des Bildverarbeitungssystems benötigt. Dafür wird eine Latenzzeit, welche eine Übertragungszeit zwischen der Komponente und anderen Komponenten in einem zumindest die Komponenten und die Kameras umfassenden System beschreibt, ermittelt und dieser Zeitunterschied in die Berechnung der Asynchronität mit einbezogen.In addition, in order to determine the time deviation as precisely as possible, a transmission time is required between the time-defining component and other components of the image processing system. For this purpose, a latency time, which describes a transmission time between the component and other components in a system comprising at least the components and the cameras, is determined and this time difference is included in the calculation of the asynchrony.
Ebenso wird zum Ausgleich unterschiedlicher Belichtungszeiten die Mitte der jeweiligen Belichtungszeit als Aufnahmezeitpunkt definiert.Likewise, to compensate for different exposure times, the middle of the respective exposure time is defined as the recording time.
Zur Korrektur der Messfehler sx, sy wird eines der Bilder B1, B2 als Referenzbild gesetzt und die übrigen Bilder B1, B2 der anderen Kameras 1, 2 oder Kamerasysteme relativ zum Referenzbild korrigiert. Ein Sonderfall, bei dem eine Bewegung des Objektpunkts P' genau in Richtung der Sichtlinie S1, S2 einer Kamera 1, 2 erfolgt, wird durch eine Zuordnung der Kamera 1, 2 zum Referenzbild gelöst.To correct the measurement errors s A special case in which a movement of the object point P 'takes place exactly in the direction of the line of sight S1, S2 of a
Zunächst wird für eine Bestimmung der Objektgeschwindigkeit v des Objektpunkts P' eine Bewegung desselben um den jeweiligen Aufnahmezeitpunkt tn, tn+1 jeder Kamera 1, 2 analysiert und das Bild B1, B2 mit der geringsten Bewegung des Objektpunkts P wird als Referenzbild gesetzt.First, to determine the object speed v of the object point P ', a movement of the object point P 'around the respective recording time t n , t n + 1 of each
Die die Asynchronität beschreibende Zeitabweichung tAsync wird gemäß
Die beispielhaft in
Hierbei ist eine die Bestimmung der Objektgeschwindigkeit v und der Bewegungsrichtung R des Objektpunkts P' zu einem Aufnahmezeitpunkt tn-1 vor und einem Aufnahmezeitpunkt tn+1 nach einem Aufnahmezeitpunkt tn dargestellt.Here, the determination of the object speed v and the direction of movement R of the object point P' is shown at a recording time t n-1 before and a recording time t n+1 after a recording time t n .
Eine Objektgeschwindigkeit in Querrichtung X berechnet sich dabei gemäß
Eine Objektgeschwindigkeit in Längsrichtung Y berechnet sich dabei gemäß
Für mehrere Messungen wird anschließend für die Querrichtung X gemäß
Aus einem Produkt der Asynchronität, das heißt der Zeitabweichung ΔtAsync zwischen den Aufnahmezeitpunkten tn, tn+1, und den zuvor berechneten Objektgeschwindigkeiten des zu korrigierenden Bilds B1, B2 wird anschließend wie folgt ein jeweiliger Korrekturwert in Querrichtung X gemäß
Die so ermittelten Korrekturwerte werden anschließend mit der jeweiligen unkorrigierten Koordinate des Objektpunkts P' addiert gemäß
Das heißt, der Versatz des Objektpunkts P' wird durch die positive Zeitabweichung ΔtAsync des entsprechenden Bilds B1, B2 zum Referenzbild zurückgerechnet und der Messfehler sx, sy wird durch den neu berechneten Objektpunkt P korrigiert.This means that the offset of the object point P' is calculated back to the reference image by the positive time deviation Δt Async of the corresponding image B1, B2 and the measurement error s x , s y is corrected by the newly calculated object point P.
Eine solche Korrektur mittels eines aus den Korrekturwerten xKorrektur, yKorrektur gebildeten Korrekturwerts K ist beispielhaft in
Abschließend werden mittels des Triangulationsverfahrens die Koordinaten des Objektpunkts P, P' bestimmt.Finally, the coordinates of the object point P, P' are determined using the triangulation method.
Claims (7)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021005335.4A DE102021005335B4 (en) | 2021-10-26 | 2021-10-26 | Method for compensating measurement errors |
PCT/EP2022/075948 WO2023072479A1 (en) | 2021-10-26 | 2022-09-19 | Method for compensating for measurement errors |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021005335.4A DE102021005335B4 (en) | 2021-10-26 | 2021-10-26 | Method for compensating measurement errors |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102021005335A1 DE102021005335A1 (en) | 2023-04-27 |
DE102021005335B4 true DE102021005335B4 (en) | 2023-11-09 |
Family
ID=83693169
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021005335.4A Active DE102021005335B4 (en) | 2021-10-26 | 2021-10-26 | Method for compensating measurement errors |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102021005335B4 (en) |
WO (1) | WO2023072479A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10215009A1 (en) | 2002-04-05 | 2003-10-23 | Daimler Chrysler Ag | Motor vehicle velocity determination method in which a velocity measured using the wheel diameter and a transfer function is corrected using a value determined from measuring the approach velocity to a fixed reference point |
DE102006005231A1 (en) | 2006-02-02 | 2007-08-16 | Optotransmitter-Umweltschutz-Technologie E.V. | Method for determination of distance of an object, involves stereoscopic analysis of two picture fields comprising digital camera pictures, which are recorded by stationary camera system |
US20130194419A1 (en) | 2010-06-30 | 2013-08-01 | Tata Consultancy Services Limited | Automatic Detection of Moving Object by Using Stereo Vision Technique |
US20150062304A1 (en) | 2013-01-15 | 2015-03-05 | Mobileye Vision Technologies Ltd. | Stereo assist with rolling shutters |
WO2015186002A2 (en) | 2014-06-03 | 2015-12-10 | Mobileye Vision Technologies Ltd. | Systems and methods for detecting an object |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004037239A (en) * | 2002-07-03 | 2004-02-05 | Fuji Heavy Ind Ltd | Identical object judging method and system, and misregistration correcting method and system |
JP6602982B2 (en) * | 2016-08-29 | 2019-11-06 | 日立オートモティブシステムズ株式会社 | In-vehicle camera, in-vehicle camera adjustment method, in-vehicle camera system |
JP6887356B2 (en) * | 2017-09-25 | 2021-06-16 | 日立Astemo株式会社 | Stereo image processing device |
-
2021
- 2021-10-26 DE DE102021005335.4A patent/DE102021005335B4/en active Active
-
2022
- 2022-09-19 WO PCT/EP2022/075948 patent/WO2023072479A1/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10215009A1 (en) | 2002-04-05 | 2003-10-23 | Daimler Chrysler Ag | Motor vehicle velocity determination method in which a velocity measured using the wheel diameter and a transfer function is corrected using a value determined from measuring the approach velocity to a fixed reference point |
DE102006005231A1 (en) | 2006-02-02 | 2007-08-16 | Optotransmitter-Umweltschutz-Technologie E.V. | Method for determination of distance of an object, involves stereoscopic analysis of two picture fields comprising digital camera pictures, which are recorded by stationary camera system |
US20130194419A1 (en) | 2010-06-30 | 2013-08-01 | Tata Consultancy Services Limited | Automatic Detection of Moving Object by Using Stereo Vision Technique |
US20150062304A1 (en) | 2013-01-15 | 2015-03-05 | Mobileye Vision Technologies Ltd. | Stereo assist with rolling shutters |
WO2015186002A2 (en) | 2014-06-03 | 2015-12-10 | Mobileye Vision Technologies Ltd. | Systems and methods for detecting an object |
Also Published As
Publication number | Publication date |
---|---|
DE102021005335A1 (en) | 2023-04-27 |
WO2023072479A1 (en) | 2023-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102008053472B4 (en) | Object detection system | |
DE19505244C2 (en) | Device for determining the distance between vehicles | |
DE19633704B4 (en) | Vehicle environment monitoring device | |
DE10312696B3 (en) | Procedure for determining the mapping equation for self-calibration in relation to the implementation of stereo PIV procedures | |
WO2015075093A1 (en) | Method, fusion filter, and system for fusing sensor signals with different temporal signal output delays into a fusion data set | |
EP2189349A2 (en) | Method and device for compensating a roll angle | |
DE102012009577A1 (en) | Method for calibrating squint angle of frame camera of stereo camera arrangement in vehicle, involves calculating travel distance covered by vehicle, and determining deviation between distance and reference distance to calibrate angle | |
EP1710749A1 (en) | Correction of yaw angle measuring errors for driving lane detection sensors | |
DE102009019399B4 (en) | Method for automatically determining at least one target variable describing the change in the position of a motor vehicle | |
DE102015202230A1 (en) | Fused eigenmotion calculation for a vehicle | |
DE3144050C2 (en) | Method for the transmission and reproduction of video scenes, in particular aerial photo scenes, with a reduced frame rate | |
DE102021005335B4 (en) | Method for compensating measurement errors | |
DE102012211961A1 (en) | Method and apparatus for calculating a change in a magnification of an object | |
DE4125688C2 (en) | Distance detection device | |
DE102008042631A1 (en) | Method for determining distance between object and vehicle surrounding in monocular video assistance system of motor vehicle, involves determining distance of object based on image breadth and focal distance of assistance system | |
DE102010042821B4 (en) | Method and apparatus for determining a basic width of a stereo detection system | |
DE102014206227A1 (en) | Stereo Camera System | |
DE102019212022B4 (en) | Method and device for determining a parallax problem in sensor data from two sensors | |
DE102015101190A1 (en) | Method for determining an image depth value depending on an image area, camera system and motor vehicle | |
DE102014219428A1 (en) | Self-calibration of a stereo camera system in the car | |
EP3518180A1 (en) | Method for producing an image stack data structure | |
DE102019212021B4 (en) | Method and device for detecting a parallax problem in sensor data from two sensors | |
DE102017201099A1 (en) | Method for calibrating radar sensors in a vehicle | |
DE102009027496A1 (en) | Method for recognizing upcoming side collision between car and another vehicle, involves comparing actual speed with possible speed of moving object to recognize upcoming side collision between vehicle and object | |
DE102016221171B4 (en) | Method and device for determining lane progression data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division |