DE102020207248A1 - Method and device for determining a time offset between a reference time of a first signal and a reference time of a second signal - Google Patents

Method and device for determining a time offset between a reference time of a first signal and a reference time of a second signal Download PDF

Info

Publication number
DE102020207248A1
DE102020207248A1 DE102020207248.5A DE102020207248A DE102020207248A1 DE 102020207248 A1 DE102020207248 A1 DE 102020207248A1 DE 102020207248 A DE102020207248 A DE 102020207248A DE 102020207248 A1 DE102020207248 A1 DE 102020207248A1
Authority
DE
Germany
Prior art keywords
time
signal
scaling
sensor
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020207248.5A
Other languages
German (de)
Inventor
Florian Ohr
Tillmann Baumgratz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102020207248.5A priority Critical patent/DE102020207248A1/en
Publication of DE102020207248A1 publication Critical patent/DE102020207248A1/en
Pending legal-status Critical Current

Links

Images

Abstract

Die Erfindung betrifft ein Verfahren (500) zum Bestimmen eines Zeitversatzes (δ) zwischen einem Bezugszeitpunkt (t) eines ersten Signals (125, 135) und einem Bezugszeitpunkt (t) eines zweiten Signals (155). Das Verfahren (500) umfasst einen Schritt des Einlesens (510) des ersten Signals (125, 135) und des zweiten Signals (155), wobei als das erste Signal (125, 135) eine Sequenz von Bildern (125, 135) eingelesen wird, die zu unterschiedlichen Erfassungszeitpunkten (t) von einem optischen Sensor (105) erfasst wurden und als das zweite Signal (155) eine Sequenz einer eindimensionale Messgröße (155) eingelesen wird, die zu unterschiedlichen Erfassungszeitpunkten (t) von einem Messsensor (150) erfasst wurden, wobei der optische Sensor (105) und der Messsensor (155) auf einer gemeinsamen mobilen Trägerplattform (100) angeordnet sind. Ferner umfasst das Verfahren (500) einen Schritt des Berechnens (520) von ersten Skalierungsparametern (σ1), die Skalierungsinformationen zwischen mehreren von dem optischen Sensor (105) zu je unterschiedlichen Erfassungszeitpunkten (t1, t2, t3, t4) erfassten Bildern (125, 135) repräsentieren und je einem Bezugszeitpunkt (t) des ersten Signals (125, 135) zugeordnet sind, und Berechnen von zweiten Skalierungsparametern (σ2) aus der Sequenz der eindimensionalen Messgröße (155), deren Bezugspunkte (t) gegenüber den Bezugszeitpunkten (t) des ersten Signals (125, 135) entsprechend eines Zeitparameters (Δ) verschoben sind. Auch umfasst das Verfahren einen Schritt des Vergleichens (530) der berechneten ersten Skalierungsparameter (σ1) mit zweiten Skalierungsparametern (σ2) aus dem zweiten Signal (155). Schließlich umfasst das Verfahren (500) einen Schritt des Ermittelns (540) desjenigen Zeitparameters (Δ) als dem Zeitversatz (δ) zwischen dem ersten (125, 135) und zweiten Signal (155), für den im Schritt (530) des Vergleichens die höchste Übereinstimmung der verglichenen Skalierungsparameter (σ1, σ2) erkannt wurde.The invention relates to a method (500) for determining a time offset (δ) between a reference time (t) of a first signal (125, 135) and a reference time (t) of a second signal (155). The method (500) comprises a step of reading in (510) the first signal (125, 135) and the second signal (155), a sequence of images (125, 135) being read in as the first signal (125, 135) , which were recorded at different recording times (t) by an optical sensor (105) and a sequence of a one-dimensional measured variable (155) is read in as the second signal (155), which is recorded by a measuring sensor (150) at different recording times (t) were, wherein the optical sensor (105) and the measuring sensor (155) are arranged on a common mobile carrier platform (100). The method (500) further comprises a step of calculating (520) first scaling parameters (σ1), the scaling information between several images (125, t2, t3, t4) acquired by the optical sensor (105) at different acquisition times. 135) and are each assigned to a reference point in time (t) of the first signal (125, 135), and calculation of second scaling parameters (σ2) from the sequence of the one-dimensional measured variable (155) whose reference points (t) compared to the reference points in time (t) of the first signal (125, 135) are shifted according to a time parameter (Δ). The method also includes a step of comparing (530) the calculated first scaling parameters (σ1) with second scaling parameters (σ2) from the second signal (155). Finally, the method (500) comprises a step of determining (540) that time parameter (Δ) as the time offset (δ) between the first (125, 135) and second signal (155) for which in the step (530) of comparing the highest agreement of the compared scaling parameters (σ1, σ2) was recognized.

Description

Stand der TechnikState of the art

Die Erfindung geht von einem Verfahren oder einer Vorrichtung nach Gattung der unabhängigen Ansprüche aus. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.The invention is based on a method or a device according to the preamble of the independent claims. The present invention also relates to a computer program.

In der Automobilindustrie sind modulare Lösungen bereits Standard. Hier kommen Sensoren und Steuergeräte unterschiedlicher Zulieferer zum Einsatz. Ein vorverarbeitendes Steuergerät verarbeitet somit einen Teil der Sensormessungen direkt, und liefert die vorverarbeitete Information über den öffentlichen Datenbus an ein weiterverarbeitendes Steuergerät. Dieses fusioniert die Daten mit anderen Sensorinformationen, wodurch beispielsweise eine präzise Eigenbewegungsbestimmung ermöglicht wird. Da in der Regel keine Steuergerät-übergreifende Zeitbasis existiert, ist auf dem weiterverarbeitenden Steuergerät zunächst für das Sensorsignal nur die Zeit des Einlesens bekannt. Diese entspricht oftmals jedoch nicht der Zeit des physikalischen, durch den Messsensor erfassten Ereignisses, sondern einem späteren Zeitpunkt. Eine zeitliche Synchronisierung verschiedener Sensorsignale beschränkt sich in der Regel darauf, eingehende Signale im fusionierenden Steuergerät mit einem Zeitstempel zu versehen. Mögliche Verzögerungen zwischen Eingehen des Signals und tatsächlichen physikalischen Ereignis werden vernachlässigt. Durch die unbekannte Verzögerung des Signals, ist eine korrekte Fusion mit Sensordaten einer anderen Zeitbasis nicht oder nur schlecht möglich.Modular solutions are already standard in the automotive industry. Sensors and control devices from various suppliers are used here. A preprocessing control device thus processes part of the sensor measurements directly and delivers the preprocessed information to a further processing control device via the public data bus. This merges the data with other sensor information, which, for example, enables precise determination of the vehicle's own movement. Since there is generally no cross-control unit time base, the processing control unit initially only knows the time it was read in for the sensor signal. However, this often does not correspond to the time of the physical event recorded by the measuring sensor, but to a later point in time. A temporal synchronization of different sensor signals is usually limited to providing incoming signals in the merging control unit with a time stamp. Possible delays between the arrival of the signal and the actual physical event are neglected. Due to the unknown delay of the signal, a correct fusion with sensor data of a different time base is not possible or only with difficulty.

Aus diesem Grund, sollte für eine effiziente Signalverarbeitung eine Korrektur der verfälschten Zeitbasis durchgeführt werden, wobei dies in der Regel durch eine Bestimmung des zeitlichen Versatzes zwischen den beiden Signalen ermöglicht wird.For this reason, the incorrect time base should be corrected for efficient signal processing, this being made possible as a rule by determining the time offset between the two signals.

Offenbarung der ErfindungDisclosure of the invention

Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren, weiterhin eine Vorrichtung, die dieses Verfahren verwendet, sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.Against this background, with the approach presented here, a method, furthermore a device that uses this method, and finally a corresponding computer program according to the main claims are presented. The measures listed in the dependent claims make advantageous developments and improvements of the device specified in the independent claim possible.

Es wird ein Verfahren zum Bestimmen eines Zeitversatzes zwischen einem Bezugszeitpunkt eines ersten Signals und einem Bezugszeitpunkt eines zweiten Signals vorgeschlagen, wobei das Verfahren die folgenden Schritte aufweist:

  • - Einlesen des ersten Signals und des zweiten Signals, wobei als das erste Signal eine Sequenz von Bildern eingelesen wird, die zu unterschiedlichen Erfassungszeitpunkten von einem optischen Sensor erfasst wurden und als das zweite Signal eine Sequenz einer eindimensionalen Messgröße eingelesen wird, die zu unterschiedlichen Erfassungszeitpunkten von einem Messsensor erfasst wurden, wobei der optische Sensor und der Messsensor auf einer gemeinsamen mobilen Trägerplattform angeordnet sind;
  • - Berechnen von ersten Skalierungsparametern, die Skalierungsinformationen zwischen mehreren von dem optischen Sensor zu je unterschiedlichen Erfassungszeitpunkten erfassten Bildern repräsentieren und je einem zeitlichen Bezugszeitpunkt des ersten Signals zugeordnet sind, und Berechnen von zweiten Skalierungsparametern aus der Sequenz der eindimensionalen Messgröße deren Bezugspunkte gegenüber den Bezugszeitpunkten des ersten Signals entsprechend eines Zeitparameters verschoben sind;
  • - Vergleichen der berechneten ersten Skalierungsparameter aus dem ersten Signal mit den zweiten Skalierungsparametern aus dem zweiten Signal; und
  • - Ermitteln desjenigen Zeitparameters als den Zeitversatz zwischen dem ersten und zweiten Signal, für den im Schritt des Vergleichens die höchste Übereinstimmung der verglichenen Skalierungsparameter erkannt wurde.
A method is proposed for determining a time offset between a reference time of a first signal and a reference time of a second signal, the method having the following steps:
  • - Reading in the first signal and the second signal, with a sequence of images being read in as the first signal, which were acquired at different acquisition times by an optical sensor, and a sequence of a one-dimensional measured variable is read in as the second signal, which is read in at different acquisition times of a measuring sensor were detected, wherein the optical sensor and the measuring sensor are arranged on a common mobile carrier platform;
  • Calculation of first scaling parameters, which represent scaling information between a plurality of images recorded by the optical sensor at different acquisition times and are each assigned to a time reference time of the first signal, and calculation of second scaling parameters from the sequence of the one-dimensional measured variable whose reference points compared to the reference times of the first Signals are shifted according to a time parameter;
  • - comparing the calculated first scaling parameters from the first signal with the second scaling parameters from the second signal; and
  • Determination of that time parameter as the time offset between the first and second signal for which the highest correspondence of the compared scaling parameters was recognized in the step of comparing.

Unter einem Zeitversatz kann beispielsweise eine Zeitspanne oder Zeitdifferenz verstanden werden, um welche ein Bezugszeitpunkt des ersten Signals bezüglich einem Bezugszeitpunkt des zweiten Signals verschoben ist. Dieser Zeitversatz kann beispielsweise durch unterschiedliche Laufzeiten in unterschiedlich langen Leitungen oder durch eine unterschiedlich intensive Vorverarbeitung der entsprechenden Signale und damit einhergehenden unterschiedlichen Vorverarbeitungszeitdauern bedingt sein. Unter einem optischen Sensor kann beispielsweise eine Kamera, auch eine Mono-Kamera verstanden werden. Unter einer eindimensionalen Messgröße kann beispielsweise eine Größe verstanden werden, die als Absolutwert erfasst werden kann. Beispielsweise kann eine solche eindimensionale Messgröße eine Geschwindigkeit oder ein Abstand in der Form einer räumlichen Tiefe sein. Unter einer mobilen Trägerplattform kann beispielsweise ein Fahrzeug verstanden werden, auf oder in welchem der optische Sensor und der Messsensor verbaut sind. Insbesondere sollten die Skalierungsparameter des optischen Sensors und des Messsensors zumindest zeitweise in eine gemeinsame Referenz überführt werden können. Unter einem Skalierungsparameter kann ein Parameter verstanden werden, der eine Information darstellt, wie sich die Maßstäbe bzw. Relationen zwischen Elementen aus den Bildern einerseits bzw. zwischen den Messgrößen andererseits gegeneinander verändern.A time offset can be understood to mean, for example, a time span or time difference by which a reference point in time of the first signal is shifted with respect to a reference point in time of the second signal. This time offset can be caused, for example, by different transit times in lines of different lengths or by different intensities of preprocessing of the corresponding signals and the associated different preprocessing times. An optical sensor can be understood to mean, for example, a camera, including a mono camera. A one-dimensional measured variable can be understood to mean, for example, a variable that can be recorded as an absolute value. For example, such a one-dimensional measured variable can be a speed or a distance in the form of a spatial depth. A mobile carrier platform can be understood to mean, for example, a vehicle on or in which the optical sensor and the measuring sensor are installed. In particular, the scaling parameters of the optical sensor and the measuring sensor should be able to be converted into a common reference at least temporarily. A scaling parameter can be understood as a parameter that represents information about how the Change scales or relationships between elements from the images on the one hand or between the measured variables on the other hand.

Der hier vorgestellte Ansatz basiert auf der Erkenntnis, dass ein Zeitversatz zwischen dem ersten Signal und zweiten Signal auch dadurch erkannt werden kann, dass charakteristische Merkmale aus den beiden Signalen hinsichtlich deren zeitlichen Verlaufs oder zeitlichen Auftretens in den beiden Signalen verglichen werden können, sodass auch ohne die Kenntnis der tatsächlichen Erfassungszeit der betreffenden Werte für die jeweiligen Signale nun eine Synchronisation dieser Signale durchgeführt werden kann. Hierzu sind jedoch zunächst mit den Skalierungsparametern Werte bereitzustellen oder zu liefern, die miteinander verglichen werden können, wenn die das erste und zweite Signal liefernden Sensoren unterschiedliche, eigentlich nicht miteinander vergleichbare physikalischen Parameter erfassen oder bereitstellen. Aus diesem Grund können mit dem hier vorgeschlagenen Ansatzes aus der Sequenz von Bildern des ersten Signals, beispielsweise unter Verwendung von Ansätzen zur Auswertung eines optischen Flusses, die ersten Skalierungsparameter berechnet werden, wogegen aus der Sequenz von Messgrößen des zweiten Signals die zweiten Skalierungsparameter bestimmt werden. Hierbei bilden die Skalierungsparameter jeweils eine Information ab, wie sich die Maßstäbe bzw. Relationen zwischen Elementen aus den Bildern einerseits bzw. zwischen den Messgrößen andererseits gegeneinander verändern, sodass nun für jedes der beiden Signale je eine dimensionslose, miteinander vergleichbare Information vorliegt. Durch einen Vergleich dieser Skalierungsparameter kann dann beispielsweise festgestellt werden, an welchen Zeitpunkten bzw. an welchem Bezugszeitpunkt eines ersten Signals bzw. zweiten Signals die Skalierungsparameter einen gleichen Wert oder einen ähnlichen Verlauf haben, sodass erkannt werden kann, an welchen Zeitabschnitten in den unterschiedlichen Signalen die gleichen Merkmale inhaltlich abgebildet sind. Hierdurch lässt sich somit der Zeitversatz zwischen den einzelnen Signalen einfach erkennen, sodass beispielsweise in einem nachfolgenden Schritt eine zeitliche Verschiebung bzw. eine Verzögerung eines der Signale um den Zeitversatz ausgeführt werden kann, um das erste Signal mit dem zweiten Signal zu synchronisieren oder zu kalibrieren oder umgekehrt.The approach presented here is based on the knowledge that a time offset between the first signal and the second signal can also be recognized by the fact that characteristic features from the two signals can be compared with regard to their temporal course or temporal occurrence in the two signals, so that even without the knowledge of the actual acquisition time of the relevant values for the respective signals, a synchronization of these signals can now be carried out. For this purpose, however, values must first be provided or delivered with the scaling parameters which can be compared with one another if the sensors delivering the first and second signals detect or provide different physical parameters that are actually not comparable with one another. For this reason, with the approach proposed here, the first scaling parameters can be calculated from the sequence of images of the first signal, for example using approaches for evaluating an optical flow, whereas the second scaling parameters can be determined from the sequence of measured variables of the second signal. The scaling parameters each depict information on how the scales or relationships between elements from the images on the one hand or between the measured variables on the other hand change, so that dimensionless, comparable information is now available for each of the two signals. By comparing these scaling parameters it can then be determined, for example, at which points in time or at which reference point in time of a first signal or second signal the scaling parameters have the same value or a similar curve, so that it can be recognized at which time segments in the different signals the the same features are shown in terms of content. This allows the time offset between the individual signals to be easily identified so that, for example, in a subsequent step, a time shift or delay of one of the signals by the time offset can be carried out in order to synchronize or calibrate the first signal with the second signal vice versa.

Der hier vorgeschlagene Ansatz bietet den Vorteil, allein aus der inhaltlichen Auswertung von bereits zur Verfügung stehenden Signalen einen Rückschluss auf den Zeitversatz zu ermöglichen, der dann beispielsweise für eine sehr effiziente Kalibrierung oder Synchronisierung der beiden Signale eingesetzt werden kann. Es ist daher kein großer zusätzlicher technischer Aufwand erforderlich, um eine Synchronisierung oder Kalibrierung von unterschiedlichen Signalen vorzunehmen. Ein wichtiger Aspekt des hier vorgestellten Ansatzes kann darin gesehen werden, dass über den Umweg der dimensionslosen Größe des Skalierungsparameters, das nicht metrische Signal der (Mono-) Kamera mit dem metrischen Signal im zeitlichen Verlauf korreliert bzw. zueinander registriert werden kann.The approach proposed here offers the advantage of making it possible to draw conclusions about the time offset solely from the evaluation of the content of signals that are already available, which can then be used, for example, for a very efficient calibration or synchronization of the two signals. No great additional technical effort is therefore required in order to synchronize or calibrate different signals. An important aspect of the approach presented here can be seen in the fact that the non-metric signal of the (mono) camera can be correlated with the metric signal over time or registered with one another via the detour of the dimensionless size of the scaling parameter.

Besonders günstig ist eine Ausführungsform des hier vorgeschlagenen Ansatzes, bei dem im Schritt des Vergleichens ein zeitlicher Verlauf von ersten Skalierungsparametern innerhalb eines Zeitfensters mit einem zeitlichen Verlauf der zweiten Skalierungsparameter innerhalb eines um den Zeitparameter verschobenen Zeitfensters verglichen wird. Ferner wird im Schritt des Ermittelns des Zeitparameters als dem Zeitversatz zwischen dem ersten und zweiten Signal derjenige Parameter ermittelt, bei dem der um den Zeitparameter verschobene zeitliche Verlauf des zweiten Skalierungsparameters eine größte Ähnlichkeit zum zeitlichen Verlauf des ersten Skalierungsparameter aufweist. Eine solche Ausführungsform des hier vorgeschlagenen Ansatzes bietet den Vorteil, nicht nur einen einzigen Zeitparameter zu verwenden, an dem der erste Skalierungsparameter innerhalb eines Toleranzbereichs um den zweiten Skalierungsparameter liegt, sondern den Verlauf der jeweiligen Skalierungsparameter innerhalb eines Zeitfensters zu betrachten. Auf diese Weise kann vermieden werden, dass bei einem zufälligerweise gleichen Wert des ersten Skalierungsparameters mit dem um den Zeitparameter verschobenen zweiten Skalierungsparameter, jedoch völlig anderem weiteren zeitlichen Verlauf der jeweiligen Skalierungsparameter der Zeitparameter als der tatsächlichen Zeitvorsatz interpretiert wird. Vorteilhaft lässt sich hierdurch der Zeitversatz sehr robust und zuverlässig bestimmen.An embodiment of the approach proposed here is particularly favorable, in which, in the step of comparing, a time profile of first scaling parameters within a time window is compared with a time profile of the second scaling parameters within a time window shifted by the time parameter. Furthermore, in the step of determining the time parameter as the time offset between the first and second signal, that parameter is determined in which the temporal course of the second scaling parameter shifted by the time parameter has the greatest similarity to the temporal course of the first scaling parameter. Such an embodiment of the approach proposed here offers the advantage of not only using a single time parameter at which the first scaling parameter is within a tolerance range around the second scaling parameter, but of considering the course of the respective scaling parameters within a time window. In this way, it can be avoided that if the value of the first scaling parameter happens to be the same with the second scaling parameter shifted by the time parameter, but completely different further temporal progression of the respective scaling parameters, the time parameter is interpreted as the actual time prefix. In this way, the time offset can advantageously be determined very robustly and reliably.

Denkbar ist ferner auch eine Ausführungsform des hier vorgeschlagenen Ansatzes, bei dem im Schritt des Einlesens das erste und zweite Signal eingelesen werden, bei denen die durch den optischen Sensor erfasste Sequenz von Bildern und/oder durch den Messsensor erfasste Sequenz der Messgröße je in einem gleichen zeitlichen Abstand von Erfassungszeitpunkten erfasst wurde. Hierdurch werden das erste und zweite Signal durch eine zyklische Abtastung der Umgebung um die mobile Trägerplattform bereitgestellt. Eine solche Ausführungsform bietet den Vorteil, dass die jeweiligen Sensoren, die die dem ersten und zweiten Signal zu Grunde liegenden Informationen bereitstellen, im gleichen zeitlichen Abstand die jeweilige betreffende physikalische Größe abtasten. Auf diese Weise hat ein einmal bestimmter Zeitversatz eine deutlich längere Gültigkeit, als wenn die Abtastraten der einzelnen Sensoren zeitlich auseinanderdriften.An embodiment of the approach proposed here is also conceivable in which the first and second signals are read in in the reading-in step, in which the sequence of images captured by the optical sensor and / or the sequence of the measured variable captured by the measuring sensor are each identical the time interval between acquisition times was recorded. As a result, the first and second signals are provided by cyclical scanning of the environment around the mobile carrier platform. Such an embodiment offers the advantage that the respective sensors, which provide the information on which the first and second signals are based, scan the respective relevant physical variable at the same time interval. In this way, a time offset that has been determined once has a significantly longer validity than if the sampling rates of the individual sensors drift apart in time.

Technisch sehr einfach zu implementieren ist eine Ausführungsform des hier vorgeschlagenen Ansatzes, bei dem im Schritt des Einlesens des zweiten Signals als Messgröße eine metrische und/oder durch den Messsensor absolut erfassbare physikalische Größe eingelesen wird. Eine solche Ausführungsform bietet den Vorteil, dass ein entsprechender Messsensor oftmals bereits schon in einer entsprechenden Sensorumgebung zur Verfügung steht und meist auch schon ein sehr präzises Messergebnis für die Messgröße liefert, beispielsweise verglichen mit einem aus unterschiedlichen Bildern abzuleitenden Skalierungsparameters. Auf diese Weise lässt sich eine sehr sichere Erkennung des Zeitversatzes realisieren, bei der der präzisere Messwert als Basis für die Verschiebung des Skalierungsparameters verwendet wird.One embodiment of the approach proposed here is technically very easy to implement, in which, in the step of reading in the second signal, a metric and / or physical variable that can be absolutely detected by the measuring sensor is read in as the measured variable. Such an embodiment offers the advantage that a corresponding measuring sensor is often already available in a corresponding sensor environment and usually already delivers a very precise measurement result for the measured variable, for example compared to a scaling parameter to be derived from different images. In this way, a very reliable detection of the time offset can be implemented, in which the more precise measured value is used as the basis for shifting the scaling parameter.

Von Vorteil ist ferner eine Ausführungsform des hier vorgeschlagenen Ansatzes, bei dem im Schritt des Einlesens als Sequenz der Messgröße ein zeitlicher Verlauf einer Geschwindigkeit der mobilen Trägerplattform eingelesen wird. Eine solche Ausführungsform bietet den Vorteil, dass speziell ein Geschwindigkeitswert durch unterschiedliche Sensoren bereits sehr genau erfasst werden kann, sodass auch die Bestimmung des Zeitversatzes sehr präzise ausgestaltet werden kann.An embodiment of the approach proposed here is also advantageous, in which, in the reading-in step, a sequence of the measured variable over time is read in for a speed of the mobile carrier platform. Such an embodiment offers the advantage that, in particular, a speed value can already be recorded very precisely by different sensors, so that the determination of the time offset can also be designed very precisely.

Besonders günstig ist eine Ausführungsform des hier vorgestellten Ansatzes, bei dem im Schritt des Berechnens die zweiten Skalierungsparameter je unter Verwendung einer Integralwert-Bildung über zumindest einen Zeitabschnitt der als Messgröße verwendeten Geschwindigkeit berechnet werden. Hierdurch lässt sich sehr einfach aber dennoch präzise der zweite Skalierungsparameter ermitteln.An embodiment of the approach presented here is particularly favorable in which, in the calculation step, the second scaling parameters are each calculated using an integral value formation over at least a time segment of the speed used as the measured variable. In this way, the second scaling parameter can be determined very easily, but nevertheless precisely.

Alternativ oder zusätzlich kann gemäß einer weiteren Ausführungsform im Schritt des Einlesens als Messgröße eine von dem Messsensor der mobilen Trägerplattform erfasste räumliche Tiefe zu einem erkannten Objekt eingelesen werden. Eine solche Ausführungsform bietet den Vorteil, einer vereinfachten Berechnung der Skalierungsparameter gegenüber z. B. einem Geschwindigkeit messenden Sensor.Alternatively or additionally, according to a further embodiment, in the step of reading in, a spatial depth to a recognized object that is detected by the measuring sensor of the mobile carrier platform can be read in as a measured variable. Such an embodiment offers the advantage of a simplified calculation of the scaling parameters compared to z. B. a speed measuring sensor.

Gemäß einer weiteren Ausführungsform des hier vorgestellten Ansatzes können im Schritt des Berechnens die ersten Skalierungsparameter unter Verwendung einer Bestimmung von relativen Positionen (von in den Bildern erkannten, einander zugeordneten Szenenpunkten) in den Bildern berechnet werden. Eine solche Ausführungsform bietet den Vorteil von oftmals bereits aus der Bildverarbeitung bekannten Ansätzen zur Ermittlung des optischen Flusses auch ein recht präzises Ergebnis für den ersten Skalierungsparameter zu erhalten.According to a further embodiment of the approach presented here, the first scaling parameters can be calculated in the calculation step using a determination of relative positions (of scene points recognized in the images and assigned to one another) in the images. Such an embodiment offers the advantage of approaches for determining the optical flow, which are often already known from image processing, of also obtaining a very precise result for the first scaling parameter.

Gemäß einer weiteren Ausführungsform des hier vorgestellten Ansatzes kann in einem Schritt des Verschiebens eine Zeitbasis des ersten und/oder zweiten Signals unter Verwendung des ermittelten Zeitversatzes verschoben werden, insbesondere wobei das erste und/oder zweite Signal um den ermittelten Zeitversatz verzögert wird. Eine solche Ausführungsform bietet den Vorteil, nun Signale für eine weitere nachfolgende Verarbeitung, beispielsweise für Fahrerassistenzsysteme oder Notfahrfunktionen zur Verfügung zu haben, die eine gemeinsame Zeitbasis in Bezug auf ein erkanntes Ereignis haben. Auf diese Weise kann eine deutliche Verbesserung der Präzision der aus den korrigierten Signalen bzw. den Signalen, deren Zeitbasis verschoben wurde, erhaltenen Informationen eröffnet werden.According to a further embodiment of the approach presented here, in a shifting step, a time base of the first and / or second signal can be shifted using the determined time offset, in particular wherein the first and / or second signal is delayed by the determined time offset. Such an embodiment offers the advantage of having signals available for further subsequent processing, for example for driver assistance systems or emergency driving functions, which have a common time base with regard to a recognized event. In this way, a significant improvement in the precision of the information obtained from the corrected signals or the signals whose time base has been shifted can be opened up.

Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control device.

Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrundeliegende Aufgabe schnell und effizient gelöst werden.The approach presented here also creates a device which is designed to carry out, control or implement the steps of a variant of a method presented here in corresponding devices. The object on which the invention is based can also be achieved quickly and efficiently by means of this embodiment variant of the invention in the form of a device.

Hierzu kann die Vorrichtung zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EEPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann.For this purpose, the device can have at least one processing unit for processing signals or data, at least one storage unit for storing signals or data, at least one interface to a sensor or an actuator for reading in sensor signals from the sensor or for outputting data or control signals to the Have an actuator and / or at least one communication interface for reading in or outputting data, which are embedded in a communication protocol. The computing unit can be, for example, a signal processor, a microcontroller or the like, wherein the storage unit can be a flash memory, an EEPROM or a magnetic storage unit. The communication interface can be designed to read in or output data wirelessly and / or wired, a communication interface that can read in or output wired data, for example, can read this data electrically or optically from a corresponding data transmission line or output it into a corresponding data transmission line.

Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.In the present case, a device can be understood to mean an electrical device that processes sensor signals and outputs control and / or data signals as a function thereof. The device can have an interface that is hard and / or can be designed in software. In the case of a hardware design, the interfaces can, for example, be part of a so-called system ASIC which contains a wide variety of functions of the device. However, it is also possible that the interfaces are separate, integrated circuits or at least partially consist of discrete components. In the case of a software-based design, the interfaces can be software modules that are present, for example, on a microcontroller alongside other software modules.

Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.A computer program product or computer program with program code, which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk or an optical memory, and for performing, implementing and / or controlling the steps of the method according to one of the embodiments described above is also advantageous is used, especially when the program product or program is executed on a computer or device.

Ausführungsbeispiele des hier vorgestellten Ansatzes sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:

  • 1 ein Szenario, in dem der hier vorgestellte Ansatz gemäß einem Ausführungsbeispiel im Zusammenhang mit einer mobilen Trägerplattform und einem Blockschaltbild einer Vorrichtung gemäß einem Ausführungsbeispiel näher erläutert wird;
  • 2 eine Darstellung zur Erläuterung der prinzipiellen Funktionsweise des hier vorgestellten Ansatzes gemäß einem Ausführungsbeispiel;
  • 3 eine Blockschaltbilddarstellung eines Sensorsystems zur Verarbeitung von Sensorsignalen zur Verdeutlichung der dem hier vorgestellten Ansatz zugrundeliegenden Problematik;
  • 4 eine Diagramm-Darstellung einer exemplarischen Vorgehensweise gemäß dem vorgestellten Ansatz zum Bestimmen eines Zeitversatzes zwischen einem Bezugszeitpunkt eines ersten Signals und einem Bezugszeitpunkt eines zweiten Signals; und
  • 5 ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens.
Embodiments of the approach presented here are shown in the drawings and explained in more detail in the description below. It shows:
  • 1 a scenario in which the approach presented here is explained in more detail according to an exemplary embodiment in connection with a mobile carrier platform and a block diagram of a device according to an exemplary embodiment;
  • 2 a representation to explain the basic functionality of the approach presented here according to an embodiment;
  • 3 a block diagram representation of a sensor system for processing sensor signals to illustrate the problem on which the approach presented here is based;
  • 4th a diagram representation of an exemplary procedure according to the presented approach for determining a time offset between a reference time of a first signal and a reference time of a second signal; and
  • 5 a flowchart of an embodiment of a method.

In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.In the following description of advantageous exemplary embodiments of the present invention, identical or similar reference symbols are used for the elements shown in the various figures and having a similar effect, a repeated description of these elements being dispensed with.

1 zeigt ein Szenario, in dem der hier vorgestellte Ansatz gemäß einem Ausführungsbeispiel im Zusammenhang mit einer mobilen Trägerplattform 100 näher erläutert wird, die hier als ein Fahrzeug realisiert ist. Die mobile Trägerplattform 100 umfasst ein Ausführungsbeispiel einer Vorrichtung 102 zum Bestimmen eines Zeitversatzes zwischen einem Bezugszeitpunkt eines ersten Signals und einem Bezugszeitpunkt eines zweiten Signals. Die mobile Trägerplattform 100 weist dabei einen optischen Bildaufnahmesensor 105 auf, der vorliegend beispielsweise als Kamera, genauer als Mono-Kamera ausgebildet ist und der Abbilder bzw. Bilder von unbeweglichen oder statischen Objekten 110 in der Umgebung 111 der Trägerplattform 100 (beispielsweise Bäumen 112 oder Gebäuden 114) oder von beweglichen oder nicht-statischen Objekten 115 (wie beispielsweise anderen Fahrzeugen) aufzeichnet und diese Abbilder einer Einrichtung 120 zum Berechnen eines ersten Skalierungsparameters σ1 weiterleitet. Genauer gesagt wird von dem Bildaufnahmesensor 105 als erstes Signal ein erstes Bildpaar 125 an eine Einleseschnittstelle 130 der Einrichtung 120 übermittelt, wobei Bilder des ersten Bildpaares 125 je an einem Anfang und einem Ende eines ersten Zeitintervalls durch den Bildaufnahmesensor 105 aufgezeichnet wurden. Zugleich wird von dem Bildaufnahmesensor 105 im ersten Signal auch ein zweites Bildpaar 135 an die Einleseschnittstelle 130 der Einrichtung 120 übermittelt, wobei Bilder des zweiten Bildpaares 135 je an einem Anfang und einem Ende eines zweiten Zeitintervalls durch den Bildaufnahmesensor 105 aufgezeichnet wurden. In der Vorrichtung 120 werden dann in einer Erkennungseinheit 140 zumindest einem Szenenpunkt, dessen Bildpunkte in den Bildern oder Bildpaaren 125, 135 der zwei Zeitintervalle identifiziert sind. Hierbei können je zwei einander entsprechenden Bildpunkte aus den am Anfang und am Ende eines ersten Zeitintervalls aufgenommenen Bildern des ersten Bildpaares 125 und von zumindest je zwei einander entsprechenden Bildpunkten aus dem am Anfang und am Ende eines zweiten Zeitintervalls aufgenommenen Bildern des zweiten Bildpaares 135 erkannt werden. Schließlich wird in einer Bestimmungseinheit 145 ein erster Relationsparameter unter Verwendung eines Verhältnisses zwischen Positionen der Bildpunkte aus dem ersten Bildpaar 125 und ein zweiter Relationsparameter unter Verwendung eines Verhältnisses zwischen Positionen der Bildpunkte aus dem zweiten Bildpaar 135 bestimmt und der erste und zweite Relationsparameter verknüpft, um den/die ersten Skalierungsparameter σ1 zu ermitteln. Dieser Vorgang der Ermittlung von ersten Skalierungsparametern σ1 wird zyklisch für eine Sequenz von mehreren zeitlich aufeinanderfolgenden Bildern ausgeführt, sodass auch eine Sequenz von ersten Skalierungsparametern σ1 erhalten wird. 1 shows a scenario in which the approach presented here according to an exemplary embodiment in connection with a mobile carrier platform 100 is explained in more detail, which is implemented here as a vehicle. The mobile carrier platform 100 comprises one embodiment of an apparatus 102 for determining a time offset between a reference time of a first signal and a reference time of a second signal. The mobile carrier platform 100 has an optical image sensor 105 on, which in the present case is designed as a camera, more precisely as a mono camera, and the images or images of immobile or static objects 110 in the neighborhood 111 the carrier platform 100 (e.g. trees 112 or buildings 114 ) or moving or non-static objects 115 (such as other vehicles) and these images of a facility 120 for calculating a first scaling parameter σ 1 . More specifically, it is from the image pickup sensor 105 a first pair of images as the first signal 125 to a read-in interface 130 the facility 120 transmitted, whereby images of the first image pair 125 each at a beginning and an end of a first time interval by the image recording sensor 105 were recorded. At the same time is from the image recording sensor 105 also a second pair of images in the first signal 135 to the read-in interface 130 the facility 120 transmitted, with images of the second pair of images 135 each at a beginning and an end of a second time interval by the image recording sensor 105 were recorded. In the device 120 are then in a recognition unit 140 at least one scene point, its image points in the images or image pairs 125 , 135 the two time intervals are identified. Here, two corresponding image points can be taken from the images of the first image pair recorded at the beginning and at the end of a first time interval 125 and of at least two corresponding image points each from the images of the second image pair recorded at the beginning and at the end of a second time interval 135 be recognized. Finally, in a determination unit 145 a first relation parameter using a relation between positions of the image points from the first image pair 125 and a second relationship parameter using a relationship between positions of the image points from the second image pair 135 and the first and second relation parameters are linked in order to determine the first scaling parameter (s) σ 1. This process of ascertaining first scaling parameters σ 1 is carried out cyclically for a sequence of several temporally successive images, so that a sequence of first scaling parameters σ 1 is also obtained.

Ein abbildender optischer Sensor wie der optische Bildaufnahmesensor 105 liefert hierbei ein zweidimensionales Abbild, bzw. eine Projektion, der Szene. D. h. er liefert meist keinerlei metrische Information, wie beispielsweise die Tiefe der einzelnen Szenenpunkte. Somit erzeugt eine skalierte Bewegung in einer entsprechend skalierten Welt immer das gleiche Abbild. Die Skala ist meist nicht messbar.An imaging optical sensor like the optical image pickup sensor 105 provides a two-dimensional image or a projection of the scene. I. E. it usually does not provide any metric information, such as the depth of the individual scene points. Thus, a scaled movement always creates the same image in a correspondingly scaled world. The scale is usually not measurable.

Ferner ist auf der mobilen Trägerplattform 100 noch ein Messsensor 150 angeordnet, der als zweites Signal eine Sequenz einer eindimensionale Messgröße 155 bereitstellt, die ebenfalls mittels der Schnittstelle 130 eingelesen wird. Beispielsweise kann der Messsensor 150 eine Geschwindigkeit der mobilen Trägerplattform 100 oder einer Entfernung/Tiefe der Objekte wie dem Fahrzeug 115, dem Baum 1124 oder dem Gebäude 114 erfassen und als die Messgröße 155 bereitstellen. Die Messgröße 155 bzw. die Sequenz der Messgrößen 155 wird dann einer Einheit 160 zur Berechnung von zumindest einem zweiten Skalierungsparameter σ2 zugeführt, in der eine Skala oder relative Skala der Messgröße 155 als zweitem Skalierungsparametern σ2 berechnet wird, wie dies nachfolgend noch näher beschrieben wird. Die ersten Skalierungsparametern σ1 und die zweiten Skalierungsparametern σ2 werden dann einer Einheit 165 zum Vergleichen zu geführt, in der ein erster Skalierungsparameters σ1 eines vorbestimmten Bezugszeitpunkts t mit (mehreren) zweiten Skalierungsparametern σ2 vergleichen wird, deren Bezugszeitpunkte der erfassten Messgröße je um einen unterschiedlichen vorbestimmten Zeitparameter Δ gegenüber dem dem ersten Skalierungsparameter σ1 zugrunde gelegten Bezugszeitpunkts t verschoben wurde. Unter Verwendung des aus dem Vergleich erhaltenen Vergleichsergebnisses 170 wird dann in einer Einheit 175 zum Ermitteln derjenigen Zeitparameter als dem Zeitversatz δ zwischen dem ersten 125, 135 und zweiten Signal 155 ermittelt, für den in der Einheit 165 zum Vergleichen erkannt wurde, dass der erste Skalierungsparameter σ1 innerhalb eines Toleranzbereichs um den um den Zeitparameter Δ verschoben zweiten Skalierungsparameter σ2 liegt. Optional wird noch in einer weiteren Einheit 180 zum Korrigieren der ermittelte Zeitversatz δ dazu verwendet, die das zweite Signal bzw. die Messgröße 155, und/oder das erste Signal in der Form des ersten Bildpaars 125 und/oder des zweiten Bildpaars 135 oder allgemein die von der Kamera 105 gelieferten Daten zeitlich zu verzögern, um eine verzögerte Messgröße 155', ein verzögertes erstes Bildpaar 120' und/oder ein verzögertes zweites Bildpaar 135' zu erhalten, welche dann jedoch zeitlich synchronisiert zueinander bereitgestellt werden, sodass diese Daten nun als Zeit synchron für die nachfolgende Verarbeitung beispielsweise in einem in der 1 nicht dargestellten Fahrerassistenzsystem oder einem Notfahrsystem eines Fahrzeugs als mobiler Trägerplattform 100 verwendet werden können. Im Wesentlichen läuft dieses Vorgehen darauf hinaus, dass die Zeitstempel des einen Signals korrigiert werden und dann beide Signale die gleiche Zeitbasis besitzen.It is also on the mobile carrier platform 100 another measuring sensor 150 arranged, the second signal is a sequence of a one-dimensional measured variable 155 provides, which also by means of the interface 130 is read. For example, the measuring sensor 150 a speed of the mobile carrier platform 100 or a distance / depth of the objects such as the vehicle 115 , the tree 1124 or the building 114 capture and as the measurand 155 provide. The measurand 155 or the sequence of the measured variables 155 then becomes a unit 160 to calculate at least one second scaling parameter σ 2 supplied, in which a scale or relative scale of the measured variable 155 is calculated as the second scaling parameter σ 2 , as will be described in more detail below. The first scaling parameters σ 1 and the second scaling parameters σ 2 then become one unit 165 for comparison, in which a first scaling parameter σ 1 of a predetermined reference time t is compared with (several) second scaling parameters σ 2 , the reference times of which of the recorded measured variable each by a different predetermined time parameter Δ compared to the reference time t on which the first scaling parameter σ 1 is based was moved. Using the comparison result obtained from the comparison 170 will then be in one unit 175 to determine those time parameters as the time offset δ between the first 125 , 135 and second signal 155 determined for the one in the unit 165 for comparison, it was recognized that the first scaling parameter σ 1 lies within a tolerance range by the second scaling parameter σ 2 shifted by the time parameter Δ. Another unit is optional 180 the determined time offset δ is used to correct the second signal or the measured variable 155 , and / or the first signal in the form of the first pair of images 125 and / or the second pair of images 135 or generally from the camera 105 to delay the data supplied to a delayed measured variable 155 ' , a delayed first pair of images 120 ' and / or a delayed second pair of images 135 ' which are then provided in a time-synchronized manner with one another, so that this data is now synchronized as time for the subsequent processing, for example in a 1 Not shown driver assistance system or an emergency driving system of a vehicle as a mobile carrier platform 100 can be used. Essentially, this procedure means that the time stamps of one signal are corrected and then both signals have the same time base.

Als Messgröße 155 kann vorliegend allgemein eine metrische Information verstanden werden, die im Folgenden beispielsweise auch als Sensorinformation bezeichnet werden kann und die Rückschlüsse auf die Skalierung einer beobachteten Szene oder einer Bewegung in dieser Szene, bezüglich einer Maßeinheit ermöglicht. Als Beispiele für derartige Messsensoren 150 als metrische Sensoren lassen sich eine Tiefe-messende Laserscanner (z. B. Velodyne), eine Tiefe-messende Stereokamera, eine Geschwindigkeit-messende Inertialsensorik, eine Sensorik zur Erfassung von Radumdrehungszahlen eines Fahrzeugs (ESP-Sensorik), welche über bekannten Reifenumfang in eine Geschwindigkeitsinformation überführt werden.As a measured variable 155 In the present case, metric information can generally be understood, which in the following can also be referred to as sensor information, for example, and which enables conclusions to be drawn about the scaling of an observed scene or a movement in this scene with respect to a unit of measurement. As examples of such measuring sensors 150 As metric sensors, a depth-measuring laser scanner (e.g. Velodyne), a depth-measuring stereo camera, a speed-measuring inertial sensor, a sensor for detecting the number of wheel revolutions of a vehicle (ESP sensor), which are converted into a Speed information are transferred.

Die metrische Information kann durch einen unbekannten, über die Zeit hinweg langsam veränderlichen, Skalenfehler gestört sein, wobei dieser Skalenfehler durch den bestimmten zweiten Skalenparameter erkannt und kompensiert werden kann. Im Beispiel der ESP-Sensorik könnte dies eine Abweichung der tatsächlichen Reifengröße von der angenommenen Reifengröße sein.The metric information can be disturbed by an unknown scale error that changes slowly over time, this scale error being able to be recognized and compensated for by the determined second scale parameter. In the example of the ESP sensor system, this could be a deviation of the actual tire size from the assumed tire size.

2 zeigt eine Darstellung zur Erläuterung der prinzipiellen Funktionsweise des hier vorgestellten Ansatzes gemäß einem Ausführungsbeispiel. Die Darstellung aus der 2 ist hierbei nur schematisch wiedergegeben, um die Funktionsweise des hier vorgestellten Ansatzes näher erläutern zu können. Wie vorstehend mit Bezug zur 1 dargestellt oder beschrieben, wird durch den Bildaufnahmesensor 105 das erste Bildpaar 130 ausgegeben, welches ein erstes Bild 200 und ein zweites Bild 210, umfasst. Das erste Bild 200 wurde zu einem ersten Zeitpunkt t1 aufgezeichnet, so dass in diesem Bild 200 die Objekte wie beispielsweise die beweglichen Objekte 115 oder die statischen Objekte 112 bzw. hier 114 abgebildet sind. Die Darstellung der Objekte 114, hier als Gebäude und 115, hier als Fahrzeug, sind dabei in der 2 in durchgezogenen Linien dargestellt, um kenntlich zu machen, dass es sich hierbei um Objekte des ersten Bilds 200 handelt. Analog sind im zweiten Bild 210, welches zum zweiten Zeitpunkt t2 aufgezeichnet wurde, die Objekte 114 bzw. 115 in gestrichelten Linien dargestellt, um wiederum eine Unterscheidung zwischen den Objekten aus dem ersten Bild 200 zu ermöglichen. Nachdem sich der auf der mobilen Trägerplattform 100 befindliche Bildaufnahmesensor 105 bewegt sind somit die betreffenden Objekte 114 bzw. 115 in den unterschiedlichen Bildern 200 bzw. 210 zu den unterschiedlichen Zeitpunkten t1 bzw. t2 an unterschiedlichen Orten oder Positionen angeordnet. Hierbei ist noch anzumerken, dass der erste Zeitpunkt t1 um ein vordefiniertes erstes Zeitintervall vor dem zweiten Zeitpunkt t2 liegt. Zugleich kann auch eine Eigenbewegung des beweglichen Objekts 115, hier des Fahrzeugs, erfolgen, so dass nun nicht mehr eine Veränderung der Position von Objekten in den Bildern des ersten Bildpaares 130 durch die Bewegung des Bildaufnahmesensors 105 verursacht ist. 2 shows a representation to explain the basic functionality of the approach presented here according to an embodiment. The representation from the 2 is only shown schematically in order to be able to explain in more detail the mode of operation of the approach presented here. As above with reference to 1 represented or described is by the image pickup sensor 105 the first pair of images 130 output which is a first picture 200 and a second picture 210 , includes. The first picture 200 was recorded at a first point in time t1, so that in this picture 200 the objects such as the moving objects 115 or the static objects 112 or here 114 are shown. The representation of the objects 114 , here as a building and 115 , here as a vehicle, are included in the 2 shown in solid lines to make it clear that these are objects from the first image 200 acts. Analog are in the second picture 210 , which was recorded at the second point in time t2, the objects 114 or. 115 Shown in dashed lines to again distinguish between the objects from the first picture 200 to enable. After the on the mobile carrier platform 100 located image acquisition sensor 105 The objects in question are thus moved 114 or. 115 in different pictures 200 or. 210 arranged at different times t1 and t2 at different locations or positions. It should also be noted here that the first point in time t1 by a predefined first time interval is before the second point in time t2. At the same time there can also be a proper movement of the moving object 115 , here of the vehicle, so that there is no longer any change in the position of objects in the images of the first image pair 130 by the movement of the image pickup sensor 105 is caused.

Zusätzlich wird, wie vorstehend mit Bezug zur 1 ebenfalls dargestellt oder beschrieben, durch den Bildaufnahmesensor 105 das zweite Bildpaar 135 ausgegeben, welches ein drittes Bild 220 und ein viertes Bild 230, umfasst. Das dritte Bild 220 wurde zu einem dritten Zeitpunkt t3 aufgezeichnet, sodass auch in diesem dritten Bild 220 die Objekte wie beispielsweise die beweglichen Objekte 115 oder die statischen Objekte 112 bzw. hier 114 abgebildet sind. Die Darstellung der Objekte 114, hier als Gebäude und 115, hier als Fahrzeug, sind dabei in der 2 in durchgezogenen Linien dargestellt, um kenntlich zu machen, dass es sich hierbei um Objekte des dritten Bilds 220 handelt. Analog sind im vierten Bild 230, welches zum vierten Zeitpunkt t4 aufgezeichnet wurde, die Objekte 114 bzw. 115 in gestrichelten Linien dargestellt, um wiederum eine Unterscheidung zwischen den Objekten aus dem dritten Bild 220 zu ermöglichen. Nachdem sich der auf der mobilen Trägerplattform 100 befindliche Bildaufnahmesensor 105 bewegt sind somit auch wiederum die betreffenden Objekte 114 bzw. 115 in den unterschiedlichen Bildern 220 bzw. 230 zu den unterschiedlichen Zeitpunkten t3 bzw. t4 an unterschiedlichen Orten oder Positionen angeordnet. Hierbei ist noch anzumerken, dass der dritten Zeitpunkt t3 um ein vordefiniertes zweites Zeitintervall vor dem vierten Zeitpunkt t4 liegt. Denkbar ist auch, dass der dritte Zeitpunkt und der zweite Zeitpunkt zusammenfallen, sodass dann der vierte Zeitpunkt auch als dritter Zeitpunkt bezeichnet werden kann. Zugleich kann auch eine Eigenbewegung des beweglichen Objekts 115, hier des Fahrzeugs, erfolgen, sodass nun nicht mehr eine Veränderung der Position von Objekten in den Bildern des zweiten Bildpaares 135 durch die Bewegung des Bildaufnahmesensors 105 verursacht ist.In addition, as above with reference to 1 also shown or described by the image pickup sensor 105 the second pair of images 135 output which a third image 220 and a fourth picture 230 , includes. The third picture 220 was recorded at a third point in time t3, so that also in this third image 220 the objects such as the moving objects 115 or the static objects 112 or here 114 are shown. The representation of the objects 114 , here as a building and 115 , here as a vehicle, are included in the 2 shown in solid lines to make it clear that these are objects of the third image 220 acts. Analog are in the fourth picture 230 , which was recorded at the fourth point in time t4, the objects 114 or. 115 shown in dashed lines to again distinguish between the objects from the third picture 220 to enable. After the on the mobile carrier platform 100 located image acquisition sensor 105 The objects in question are thus also moved 114 or. 115 in different pictures 220 or. 230 arranged at different locations or positions at the different times t3 and t4. It should also be noted here that the third point in time t3 is a predefined second time interval before the fourth point in time t4. It is also conceivable that the third point in time and the second point in time coincide, so that the fourth point in time can then also be referred to as the third point in time. At the same time there can also be a proper movement of the moving object 115 , here the vehicle, take place, so that there is no longer any change in the position of objects in the images of the second image pair 135 by the movement of the image pickup sensor 105 is caused.

Das erste Bild 200 und das zweite Bild 210 als erstes Bildpaar 130 werden nachfolgend an die Erkennungseinheit 140 übertragen, in welcher zumindest je zwei einander entsprechenden Bildpunkte A und A' aus dem am Anfang (t1) und am Ende (t2) des ersten Zeitintervalls aufgenommenen Bildern 200 bzw. 210 erkannt werden. Im vorliegenden Fall betrifft dies die Dachspitze des Objekts 114 als Gebäude im ersten Bild 200 als Bildpunkt A, wobei der entsprechende Bildpunkt A' im zweiten Bild 210 ebenfalls als die Dachspitze des Gebäudes 114 erkannt wird. Zusätzlich kann auch ein weiterer Bildpunkt B am Hinterrad des Fahrzeugs 115 im ersten Bild 200 erkannt werden, wogegen der entsprechende weiterer Bildpunkt B' im zweiten Bild 210 ebenfalls am Hinterrad des Fahrzeugs 115 erkannt wird.The first picture 200 and the second picture 210 as the first pair of images 130 are subsequently sent to the recognition unit 140 transmitted, in which at least two corresponding image points A and A 'from the images recorded at the beginning (t1) and at the end (t2) of the first time interval 200 or. 210 be recognized. In the present case, this concerns the roof top of the property 114 as a building in the first picture 200 as pixel A, with the corresponding pixel A 'in the second image 210 also as the rooftop of the building 114 is recognized. In addition, another pixel B can also be located on the rear wheel of the vehicle 115 in the first picture 200 can be recognized, whereas the corresponding further image point B 'in the second image 210 also on the rear wheel of the vehicle 115 is recognized.

Analog kann auch das dritte Bild 220 und das vierte Bild 230 als zweites Bildpaar 135 nachfolgend an die Erkennungseinheit 140 übertragen werden, in welcher zumindest je zwei einander entsprechenden Bildpunkte A und A' aus dem am Anfang (t3) und am Ende (t4) des zweiten Zeitintervalls aufgenommenen Bildern 220 bzw. 230 erkannt werden. Im vorliegenden Fall betrifft dies ebenfalls wieder die Dachspitze des Objekts 114 als Gebäude im dritten Bild 220 als Bildpunkt A, wobei der entsprechende Bildpunkt A' im vierten Bild 230 ebenfalls als die Dachspitze des Gebäudes 114 erkannt wird. Zusätzlich kann auch ein weiterer Bildpunkt B am Hinterrad des Fahrzeugs 115 im ersten Bild 200 erkannt werden, wogegen der entsprechende weiterer Bildpunkt B' im vierten Bild 210 ebenfalls am Hinterrad des Fahrzeugs 115 erkannt wird.The third picture can also be analogous 220 and the fourth picture 230 as a second pair of images 135 subsequently to the recognition unit 140 are transmitted, in which at least two corresponding image points A and A 'from the images recorded at the beginning (t3) and at the end (t4) of the second time interval 220 or. 230 be recognized. In the present case, this also applies to the roof top of the property 114 as a building in the third picture 220 as pixel A, with the corresponding pixel A 'in the fourth image 230 also as the rooftop of the building 114 is recognized. In addition, another pixel B can also be located on the rear wheel of the vehicle 115 in the first picture 200 can be recognized, whereas the corresponding further image point B 'in the fourth image 210 also on the rear wheel of the vehicle 115 is recognized.

Die hierbei erhalten Informationen werden dann an die Bestimmungseinheit 145 übertragen, in welcher ein erster Relationsparameter s(t1, t2) unter Verwendung eines Verhältnisses zwischen Positionen der Bildpunkte A, A', B und B' aus den Bildern aus dem ersten Bildpaar 130 und ein zweiter Relationsparameter s(t3, t4) unter Verwendung eines Verhältnisses zwischen Positionen der Bildpunkte A, A', B und B' aus den Bildern aus dem zweiten Bildpaar 135 bestimmt wird. Dieser erste Relationsparameter kann beispielsweise eine Relation, Länge oder ein Abstand sein, der zwischen den entsprechenden Bildpunkten A und A' und/oder den Bildpunkten B und B' liegt. Um die unterschiedlichen Ausprägungen des ersten Relationsparameter und des zweiten Relationsparameter an den unterschiedlichen Positionen bzw. Stellen in den Bildern des ersten Bildpaares 130 und des zweiten Bildpaares 135 berücksichtigen zu können, können die entsprechenden Relationsparameter auch mehrere Dimensionen haben oder weitere Informationen enthalten. Dies kann beispielsweise auch zur Auswertung einer Eigenbewegung des Objektes im ersten Zeitintervall zwischen dem ersten Zeitpunkt t1 und dem zweiten Zeitpunkt t2 und/oder in dem zweiten Zeitintervall zwischen dem dritten Zeitpunkt t3 und dem vierten Zeitpunkt t4 Verwendung finden. Wie nachfolgend noch näher dargestellt wird, wird dann in einer Verknüpfungseinheit 150 der erste Relationsparameter der zweite Relationsparameter verknüpft, um den Skalierungsparameter σ zu ermitteln.The information obtained in this way is then sent to the determination unit 145 transmitted, in which a first relation parameter s (t1, t2) using a ratio between positions of the image points A, A ', B and B' from the images from the first image pair 130 and a second relation parameter s (t3, t4) using a ratio between positions of the image points A, A ', B and B' from the images from the second image pair 135 is determined. This first relation parameter can for example be a relation, length or a distance which lies between the corresponding image points A and A 'and / or the image points B and B'. About the different characteristics of the first relation parameter and the second relation parameter at the different positions or locations in the images of the first image pair 130 and the second pair of images 135 To be able to take into account, the corresponding relation parameters can also have several dimensions or contain further information. This can also be used, for example, to evaluate an intrinsic movement of the object in the first time interval between the first time t1 and the second time t2 and / or in the second time interval between the third time t3 and the fourth time t4. As will be shown in more detail below, then in a linking unit 150 the first relation parameter is linked to the second relation parameter in order to determine the scaling parameter σ.

Der Begriff „Skala“ bzw. Skalierungsparameter bezieht sich in dem hier verwendeten Zusammenhang auf die einer Szene oder einer Bewegung inhärente Skalierungsinformation. Dies kann eine Entfernung, Ausdehnung oder zurückgelegte Strecke sein. Die relative Skala bezeichnet dabei eine Änderung der Skala bezüglich zweier Zeitintervalle.In the context used here, the term “scale” or scaling parameter relates to the scaling information inherent in a scene or a movement. This can be a distance, extension or distance traveled. The relative scale denotes a change in the scale with respect to two time intervals.

Der hier vorgestellte Ansatz verwendet einen abbildenden optischen Sensor, der ein zweidimensionales Abbild, bzw. eine Projektion, der Szene liefert. Dies bedeutet, er liefert keinerlei metrische Information, wie beispielsweise die Tiefe der einzelnen Szenenpunkte. Somit erzeugt eine skalierte Bewegung in einer entsprechend skalierten Welt immer das gleiche Abbild. Die Skala selbst ist meist nicht messbar.The approach presented here uses an imaging optical sensor that delivers a two-dimensional image or projection of the scene. This means that it does not provide any metric information, such as the depth of the individual scene points. Thus, a scaled movement always creates the same image in a correspondingly scaled world. The scale itself is usually not measurable.

Der hier vorgestellte Ansatz bezieht sich auf bewegte Sensorplattformen, die mit einem optischen Sensor ausgestattet sind. Ein wichtiger Aspekt des hier vorgestellten Ansatzes kann darin gesehen werden, dass hier ein Verfahren zur Schätzung der relativen Skala bezüglich zweier Zeitintervalle vorgestellt wird, basierend auf den Bildern eines optischen Sensors. Das Verfahren stützt sich dabei rein auf die Bewegung projizierter statischer Szenenpunkte und benötigt keine weitere Information.The approach presented here relates to moving sensor platforms that are equipped with an optical sensor. An important aspect of the approach presented here can be seen in the fact that a method for estimating the relative scale with respect to two time intervals is presented here, based on the images of an optical sensor. The method is based purely on the movement of projected static scene points and does not require any further information.

Das hier vorgeschlagene Verfahren bzw. der hier vorgestellte Ansatz zeichnet sich durch seine geringe Komplexität bei gleichzeitiger Universalität aus. Entgegen den bisher bekannten Ansätzen wird die relative Skala pro Szenepunkt bestimmt, wodurch zusätzlich eine relative Bewegungsinformation für nicht statische Szenenpunkte gegeben ist.The method proposed here or the approach presented here is distinguished by its low complexity and, at the same time, universality. Contrary to the approaches known up to now, the relative scale is determined for each scene point, which additionally provides relative movement information for non-static scene points.

3 zeigt eine Blockschaltbilddarstellung eines Sensorsystems zur Verarbeitung von Sensorsignalen zur Verdeutlichung der dem hier vorgestellten Ansatz zugrundeliegenden Problematik. Erkennbar sind wie Sensorkomponenten, die hier beispielsweise der optischen Bildaufnahmesensor 105 und der Messsensor 150 darstellen. Ein Ereignis 300 in der Umgebung der mobilen Trägerplattform 100, welches beispielsweise in dem Auftauchen eines Fremdfahrzeugs bestehen kann, wird sowohl durch den optischen Bildaufnahmesensor 105 als auch den Messsensor 150, der hier beispielsweise als ein Tiefe-messender Radarsensor ausgebildet ist, erfasst. Dies bedeutet, dass zu einem gleichen Zeitpunkt t dieses Auftreten des Ereignisses 300 sowohl durch den optischen Bildaufnahmesensor 105 als auch den Tiefe-messende Radarsensor 150 erkannt und als Merkmal in den entsprechenden Ausgabesignalen 125, 135 bzw. 155 abgebildet wird, die über einen Datenbus 310 an eine Verarbeitungseinheit wie die Vorrichtung 105 übertragen wird. Hierbei kann jedoch durch unterschiedlich intensive Vorverarbeitung der Signale 155 bzw. 125 oder 135 ein Zeitversatz δ entsteht, den die Messgröße 155 gegenüber den Signalen bzw. Bildern 125 bzw. 135 erleidet. Um nun eine möglichst präzise Erkennung von Informationen aus diesen Signalen 155 bzw. 125 oder 135 zu ermöglichen wird nun in der Vorrichtung 105 der hier vorgestellte Ansatz durchgeführt, um beispielsweise diesen Zeitversatz δ zu kompensieren und hierdurch eine Verbesserung der Signalauswertung zu ermöglichen. 3 shows a block diagram representation of a sensor system for processing sensor signals to clarify the problem on which the approach presented here is based. How sensor components can be recognized, here for example the optical image recording sensor 105 and the measuring sensor 150 represent. An event 300 in the vicinity of the mobile carrier platform 100 , which can consist, for example, in the appearance of a third party vehicle, is detected both by the optical image recording sensor 105 as well as the measuring sensor 150 , which is designed here as a depth-measuring radar sensor, for example. This means that at the same point in time t this occurrence of the event 300 both by the optical image pickup sensor 105 as well as the depth-measuring radar sensor 150 recognized and as a feature in the corresponding output signals 125 , 135 or. 155 is mapped via a data bus 310 to a processing unit such as the device 105 is transmitted. However, this can be done by preprocessing the signals of varying intensity 155 or. 125 or 135 a time offset δ arises, which the measured variable 155 compared to the signals or images 125 or. 135 suffers. In order to achieve the most precise possible recognition of information from these signals 155 or. 125 or 135 to enable is now in the device 105 the approach presented here is carried out in order, for example, to compensate for this time offset δ and thereby enable an improvement in the signal evaluation.

Nachfolgend wird nun näher auf die Ermittlung des Zeitversatzes eingegangen, wobei zunächst eine mathematische Nomenklatur für die Beschreiung erläutert wird. Matrizen und Vektoren werden hier in Fettschrift (Groß- und Kleinbuchstaben) angegeben. Ein Bezugsrahmen wird als hochgestelltes Zeichen hinzugefügt auf der rechten Seite und der relativen Position oder Ausrichtung als hochgestelltes Links und tiefgestelltes Rechts. Eine Rotationsmatrix ARB ∈ SO(3) beschreibt eine Rotationsfolge Rz(AψB)·Ry(AθB)·Rx(AϕB) der Übertragung von Rahmen A in Rahmen B. Der Vektor AtB ∈ ℝ3, codiert den Vektor von A nach B mit in Bezug auf den Koordinatenrahmen A. Siehe auch Gleichung (2) zu klären, wie die Notation Transformationsentitäten und zu transformierende Punkte in ℝ3 in Beziehung setzt. Gemessene Punktkoordinaten lp = [lu, lv]T ∈ ℝ2 werden dargestellt in normalisierten Bildkoordinaten als c p ˜ = K 1 [ I p 1 ] = [ ( I u I u 0 ) 1 ƒ u ( I v I v 0 ) 1 ƒ v 1 ] = [ c x ˜ c y ˜ 1 ] ,

Figure DE102020207248A1_0001
wobei K die intrinsische Kalibrierungsmatrix des optischen Sensors darstellt. Ein entsprechendes Punktpaar im normalisierten Bild die Koordinaten zu zwei aufeinanderfolgenden Zeitpunkten t1 und t2 angegeben werden als C(t1)p̃ und C(t2)p̃.The determination of the time offset will now be discussed in greater detail below, with a mathematical nomenclature for the description being explained first. Matrices and vectors are given here in bold (capital and small letters). A frame of reference is added as a superscript to the right and the relative position or orientation as a superscript left and subscript right. A rotation matrix A R B ∈ SO (3) describes a rotation sequence R z ( A ψ B ) · R y ( A θ B ) · R x ( A ϕ B ) of the transmission from frame A to frame B. The vector A t B ∈ ℝ 3 , encodes the vector from A to B with reference to the coordinate frame A. See also equation (2) to clarify how the notation relates transformation entities and points to be transformed in ℝ 3 . Measured point coordinates l p = [ l u, l v] T ∈ ℝ 2 are displayed in normalized image coordinates as c p ˜ = K - 1 [ I. p 1 ] = [ ( I. u - I. u 0 ) 1 ƒ u ( I. v - I. v 0 ) 1 ƒ v 1 ] = [ c x ˜ c y ˜ 1 ] ,
Figure DE102020207248A1_0001
where K represents the intrinsic calibration matrix of the optical sensor. A corresponding pair of points in the normalized image the coordinates at two successive times t1 and t2 are given as C (t1) p̃ and C (t2) p̃.

Der hier vorgestellte Ansatz bezieht sich auf bewegte Sensorplattformen 100, die mit mehrerlei, nicht synchronisierter Sensorik ausgestattet sind. D. h. die Sensorinformation ist nicht bezüglich einer gemeinsamen Zeitbasis geben, weshalb für eine korrekte Fusionierung der Daten eine Kalibrierung bezüglich einer gemeinsamen Zeitbasis notwendig ist. Kern der Erfindung ist ein Verfahren zur relativen Kalibrierung eines optischen Sensors zu einem metrischen Sensor im zeitlichen Verlauf. Die metrische Information kann durch einen unbekannten, über die Zeit hinweg langsam veränderlichen, Skalenfehler gestört sein. Für das Verfahren ist somit keine korrekt skalierte Messung der Szene notwendig.The approach presented here relates to moving sensor platforms 100 that are equipped with multiple, non-synchronized sensors. I. E. the sensor information is not given with respect to a common time base, which is why calibration with respect to a common time base is necessary for correct merging of the data. The core of the invention is a method for the relative calibration of an optical sensor to a metric sensor over time. The metric information can be disturbed by an unknown scale error that changes slowly over time. A correctly scaled measurement of the scene is therefore not necessary for the method.

Das hier beschriebene Verfahren ermöglicht die Bestimmung des Zeitlichen Versatzes zwischen metrischen und optischen und Sensormessungen, und somit eine Synchronisation jeglicher abgeleiteten Information.The method described here enables the determination of the time offset between metric and optical and sensor measurements, and thus a synchronization of any derived information.

Im Folgenden wird eine mathematische Herleitung des zu schützenden Verfahrens gegeben.A mathematical derivation of the process to be protected is given below.

Zunächst wird die Schätzung der relativen Skala über die Zeit näher thematisiert.First, the estimation of the relative scale over time is discussed in more detail.

Hierbei liefert ein monokularer optischer Sensor wie der optische Bildaufnahmesensor 105 ein zweidimensionales Abbild, bzw. eine Projektion, der Szene. D. h. er liefert keinerlei metrische Information, wie beispielsweise die Tiefe der einzelnen Szenenpunkte. Auch über die Zeit hinweg kann Tiefeninformation nur bis auf einen gemeinsamen unbekannten Skalenfaktor bestimmt werden. Die relative Skala, d.h. die Änderung des Skalenfaktors zwischen aufeinander folgenden Bildpaaren, kann dennoch bestimmt werden (beispielsweise durch Analyse des optischen Flusses).A monocular optical sensor such as the optical image pickup sensor delivers here 105 a two-dimensional image, or a projection, of the scene. I. E. it does not provide any metric information, such as the depth of the individual scene points. Even over time, depth information can only be determined up to a common, unknown scale factor. The relative scale, ie the change in the scale factor between successive image pairs, can nevertheless be determined (for example by analyzing the optical flow).

Nachfolgend wird eine Schätzung der relativen Skala basierend auf optischem Fluss durchgeführt. Aus den Bildpaaren eines monokularen Sensors kann die Bewegung der projizierten Szenenpunkte über die Zeit hinweg bestimmt werden. Dies ist ein Standardproblem der Bildverarbeitung und wird als Optischer Fluss bezeichnet. Basierend auf den Korrespondenzen des Optischen Fluss kann daraufhin die Rotation des Sensors sowie die Translationsrichtung bestimmt werden. Dies ist ebenfalls ein Standardproblem und wird oft als visuelle Odometrie bezeichnet. Durch das Fehlen von Tiefeninformation kann die Länge bzw. Skalierung des Translationsvektors nicht bestimmt werden, sondern nur seine Richtung. Aus den Punktkorrespondenzen dreier aufeinander folgender Sensorbilder und der Eigenbewegung der Bildpaare kann nun die relative Skala, d.h. die Änderung der unbekannten Skalierung des Translationsvektors, bestimmt werden. Für paarweise Korrespondenzen (C(t1)p, C(t2)p) und (C(t2)p, C(t3)p) ∈ ℝ3 eines statischen dreidimensionalen Szenenpunktes gilt für die Transformation bezüglich des Sensorkoordinatensystems C zu den jeweiligen Abbildungszeitpunkten (t1; t2) bzw. (t3; t2) c ( t 1 ) p = c ( t 1 ) R c ( t 2 ) c ( t 2 ) p + c ( t 1 ) t ¯ c ( t 2 ) s ( t 1, t 2 )

Figure DE102020207248A1_0002
c ( t 3 ) p = c ( t 3 ) R c ( t 2 ) c ( t 2 ) p + c ( t 3 ) t ¯ c ( t 2 ) s ( t 2, t 3 ) ,
Figure DE102020207248A1_0003
wobei die Translation zwischen zwei Aufnahmezeitpunkten C(t1)tC(t2) ∈ ℝ3 zerlegt ist als normierter Richtungsvektor C(t1)C(t2) und seine Länge bzw. Skalierung s(t1,t2). Werden die Korrespondenzen in normalisierten Bildkoordinaten C(t)p̃ und Tiefe entlang der Z-Achse C(t)z dargestellt, ergibt sich c ( t 1 ) z c ( t 1 ) p ˜ = c ( t 1 ) R c ( t 2 ) c ( t 2 ) p ˜ c ( t 2 ) z + c ( t 1 ) t ¯ c ( t 2 )   s ( t 1, t 2 )
Figure DE102020207248A1_0004
c ( t 3 ) z c ( t 1 ) p ˜ = c ( t 3 ) R c ( t 2 ) c ( t 2 ) p ˜ c ( t 2 ) z + c ( t 3 ) t ¯ c ( t 2 )   s ( t 2, t 3 ) .
Figure DE102020207248A1_0005
Below is an estimate of the relative scale based on optical flow. The movement of the projected scene points over time can be determined from the image pairs of a monocular sensor. This is a standard problem in image processing and is known as optical flow. Based on the correspondence of the optical flow, the rotation of the sensor and the direction of translation can then be determined. This is also a standard problem and is often referred to as visual odometry. Due to the lack of depth information, the length or scaling of the translation vector cannot be determined, only its direction. The relative scale, ie the change in the unknown scaling of the translation vector, can now be determined from the point correspondences of three successive sensor images and the proper movement of the image pairs. For pairwise correspondences ( C (t1) p, C (t2) p) and ( C (t2) p, C (t3) p) ∈ ℝ 3 of a static three-dimensional scene point, the following applies for the transformation with respect to the sensor coordinate system C at the respective imaging times ( t1; t2) or (t3; t2) c ( t 1 ) p = c ( t 1 ) R. c ( t 2 ) c ( t 2 ) p + c ( t 1 ) t ¯ c ( t 2 ) . s ( t 1, t 2 )
Figure DE102020207248A1_0002
c ( t 3 ) p = c ( t 3 ) R. c ( t 2 ) c ( t 2 ) p + c ( t 3 ) t ¯ c ( t 2 ) . s ( t 2, t 3 ) ,
Figure DE102020207248A1_0003
where the translation between two recording times C (t1) t C (t2) ∈ ℝ 3 is broken down as a normalized direction vector C (t1)C (t2) and its length or scaling s (t1, t2) . If the correspondences are shown in normalized image coordinates C (t) p̃ and depth along the Z-axis C (t) z, this results c ( t 1 ) z c ( t 1 ) p ˜ = c ( t 1 ) R. c ( t 2 ) c ( t 2 ) p ˜ c ( t 2 ) z + c ( t 1 ) t ¯ c ( t 2 ) s ( t 1, t 2 )
Figure DE102020207248A1_0004
c ( t 3 ) z c ( t 1 ) p ˜ = c ( t 3 ) R. c ( t 2 ) c ( t 2 ) p ˜ c ( t 2 ) z + c ( t 3 ) t ¯ c ( t 2 ) s ( t 2, t 3 ) .
Figure DE102020207248A1_0005

Durch beidseitige Multiplikation mit [C(t1)p̃]× bzw. [C(t1)p̃]× erhält man die mehrdimensionalen Bedingungsgleichung [ 0 0 0 ] T = c ( t 1 ) p ˜ × c ( t 1 ) R c ( t 2 ) c ( t 2 ) p ˜ c ( t 2 ) z +                       c ( t 1 ) p ˜ × c ( t 1 ) t ¯ c ( t 2 ) s ( t 1, t 2 )

Figure DE102020207248A1_0006
[ 0 0 0 ] T = c ( t 3 ) p ˜ × c ( t 3 ) R c ( t 2 ) c ( t 2 ) p ˜ c ( t 2 ) z +                       c ( t 3 ) p ˜ × c ( t 3 ) t ¯ c ( t 2 ) s ( t 2, t 3 )
Figure DE102020207248A1_0007
By multiplying both sides by [ C (t1) p̃] × or [ C (t1) p̃] × one obtains the multi-dimensional conditional equation [ 0 0 0 ] T = c ( t 1 ) p ˜ × c ( t 1 ) R. c ( t 2 ) c ( t 2 ) p ˜ c ( t 2 ) z + c ( t 1 ) p ˜ × c ( t 1 ) t ¯ c ( t 2 ) s ( t 1, t 2 )
Figure DE102020207248A1_0006
[ 0 0 0 ] T = c ( t 3 ) p ˜ × c ( t 3 ) R. c ( t 2 ) c ( t 2 ) p ˜ c ( t 2 ) z + c ( t 3 ) p ˜ × c ( t 3 ) t ¯ c ( t 2 ) s ( t 2, t 3 )
Figure DE102020207248A1_0007

Durch Lösen von 6 und 7 nach C(t2)z und anschließendem gleichsetzen, erhält man drei Bedingungsgleichungen mit den Unbekannten s12 und s23. Alle anderen Größen sind bekannt. Durch Substitution ( t 2, t 3 ) σ ( t 1, t 2 ) = s ( t 2, t 3 ) s ( t 1, t 2 )

Figure DE102020207248A1_0008
verbleiben drei Bedingungsgleichungen mit einer Unbekannten, der relativen Skala (t2,t3)σ(t1,t2).By solving 6 and 7 for C (t2) z and then equating them, one obtains three conditional equations with the unknowns s 12 and s 23 . All other sizes are known. By substitution ( t 2, t 3 ) σ ( t 1, t 2 ) = s ( t 2, t 3 ) s ( t 1, t 2 )
Figure DE102020207248A1_0008
This leaves three conditional equations with one unknown, the relative scale (t2, t3) σ (t1, t2) .

Diese kann nun auf verschiedene Weise geschätzt werden. Eine oder mehrere Gleichungen aller Punktkorrespondenzen können nach (t2,t3)σ(t1,t2) gelöst werden, um dann beispielsweise den Median oder Mittelwert anzuwenden. Eine Histogrammlösung ist ebenfalls möglich. Die Bedingungsgleichungen aller Punktkorrespondenzen können auch in ein gemeinsames, überbestimmtes lineares Gleichungssystem überführt werden, um dann als gemeinsames Optimierungsproblem gelöst zu werden. Ohne Beschränkung der Allgemeinheit wurden diesem Beispiel angrenzende Zeitintervalle (t1; t2) und (t2; t3) gewählt. Die relative Skala kann aber tatsächlich für beliebige, auch überlappende Zeitintervalle bestimmt werden. Statt einer direkten Berechnung der relativen Skala aus den Punktkorrespondenzen, kann alternativ, unter Annahme einer Skala, für beide Zeitintervalle eine dreidimensionale Szeneninformation bestimmt werden. Diese beinhaltet dann eine inhärente Skala, welche sich proportional zur unbekannten Skala verhält. Beziehen sich beide Tiefeninformationen auf das gleiche Referenzkoordinatensystem, kann die Berechnung der relativen Skala (t2,t3)σ(t1,t2) durch Vergleich der inhärenten Skalen der beiden Tiefeninformationen erfolgen. Unter der Annahme s(t1,t2) = 1 und s(t2,t3) =1 können zunächst bezüglich Frame c(t2) normierte Tiefen entlang der z-Achse C(t2)12 und C(t2)23 berechnet werden. Für diese gilt c ( t 2 ) z ˜ 12 = c ( t 2 ) z s ( t 1, t 2 )

Figure DE102020207248A1_0009
c ( t 2 ) z ˜ 23 = c ( t 2 ) z s ( t 2, t 3 ) .
Figure DE102020207248A1_0010
This can now be estimated in different ways. One or more equations of all point correspondences can be solved according to (t2, t3) σ (t1, t2) in order to then apply the median or mean value, for example. A histogram solution is also possible. The conditional equations of all point correspondences can also be converted into a common, overdetermined linear system of equations in order to then be solved as a common optimization problem. Without loss of generality, adjacent time intervals (t1; t2) and (t2; t3) were selected in this example. The relative scale can, however, actually be determined for any, even overlapping time intervals. Instead of a direct calculation of the relative scale from the point correspondences, three-dimensional scene information can alternatively be determined for both time intervals, assuming a scale. This then contains an inherent scale which is proportional to the unknown scale. If both depth information relates to the same reference coordinate system, the calculation of the relative scale (t2, t3) σ (t1, t2) is done by comparing the inherent scales of the two depth information. Assuming s (t1, t2) = 1 and s (t2, t3) = 1, normalized depths along the z-axis C (t2)12 and C (t2)23 can be calculated with respect to frame c (t2) . For this applies c ( t 2 ) z ˜ 12th = c ( t 2 ) z s ( t 1, t 2 )
Figure DE102020207248A1_0009
c ( t 2 ) z ˜ 23 = c ( t 2 ) z s ( t 2, t 3 ) .
Figure DE102020207248A1_0010

Die relative Skala berechnet sich dann als ( t 2, t 3 ) σ ( t 1, t 2 ) = s ( t 2, t 3 ) s ( t 1, t 2 ) = c ( t 2 ) z ˜ 12 c ( t 2 ) z ˜ 23 .

Figure DE102020207248A1_0011
The relative scale is then calculated as ( t 2, t 3 ) σ ( t 1, t 2 ) = s ( t 2, t 3 ) s ( t 1, t 2 ) = c ( t 2 ) z ˜ 12th c ( t 2 ) z ˜ 23 .
Figure DE102020207248A1_0011

Auf die gleiche Weise können auch andere Szenenelemente wie beispielsweise dreidimensionale Punkte oder Ebenen berechnet werden (z. B. Bodenebene). Im Falle dreidimensionaler Punkte kann als Tiefeninformation der radiale Abstand dienen, im Falle der Ebene, der Abstand dieser zum Ursprung.In the same way, other scene elements such as three-dimensional points or planes can also be calculated (e.g. ground plane). In the case of three-dimensional points, the radial distance can serve as depth information, in the case of the plane, the distance between this and the origin.

Entsprechend kann auch direkt die relative Skala zwischen der Information zweier metrischer Sensoren bestimmt werden.Correspondingly, the relative scale between the information from two metric sensors can also be determined directly.

Schließlich wird eine Bestimmung des zeitlichen Versatzes im Falle eines Geschwindigkeit-messenden Sensors als Messsensors 150 durchgeführt.Finally, the time offset is determined in the case of a speed-measuring sensor as a measuring sensor 150 accomplished.

Zur Bestimmung des Zeitlichen Versatzes zwischen einem optischen und eine Geschwindigkeit messenden Sensor, kann die relative Skala, wie vorstehend beschrieben bestimmt, als Quotient zweier Integrale über die Geschwindigkeit interpretiert werden. Ohne Beschränkung der Allgemeinheit seien hier für den optischen Sensor äquidistante Aufnahmezeitpunkte, im Abstand Δ, angenommen. Somit gilt für die relative Skala bezüglich des optischen Sensors ( t Δ ,t ) σ ( t 2 Δ ,t Δ ) ( t ) = s ( t Δ ,t ) s ( t 2 Δ ,t Δ ) .

Figure DE102020207248A1_0012
To determine the time offset between an optical sensor and a sensor measuring a speed, the relative scale, as determined above, can be interpreted as the quotient of two integrals over the speed. Without limiting the generality, equidistant recording times, at a distance Δ, are assumed here for the optical sensor. Thus applies to the relative scale with respect to the optical sensor ( t - Δ , t ) σ ( t - 2 Δ , t - Δ ) ( t ) = s ( t - Δ , t ) s ( t - 2 Δ , t - Δ ) .
Figure DE102020207248A1_0012

Zur Vereinfachung wird hier angenommen, dass die Translationsrichtung des optischen Sensors parallel ist zur Achse der Geschwindigkeitsmessung. Dies ist beispielsweise bei einer geradlinigen Bewegung der Sensorplattform der Fall. Für das Geschwindigkeitssignal berechnet sich die relative Skala ( t Δ ,t ) σ ^ ( t 2 Δ ,t Δ ) ( t )                                 als         ( t Δ ,t ) σ ^ ( t 2 Δ ,t Δ ) ( t ) = t Δ t v ( t ) d t t 2 Δ t Δ v ( t ) d t

Figure DE102020207248A1_0013
For the sake of simplicity, it is assumed here that the direction of translation of the optical sensor is parallel to the axis of the speed measurement. This is the case, for example, when the sensor platform moves in a straight line. The relative scale is calculated for the speed signal ( t - Δ , t ) σ ^ ( t - 2 Δ , t - Δ ) ( t ) as ( t - Δ , t ) σ ^ ( t - 2 Δ , t - Δ ) ( t ) = t - Δ t v ( t ) d t t - 2 Δ t - Δ v ( t ) d t
Figure DE102020207248A1_0013

Dadurch erhält man zwei äquivalente Signale (t-Δ,t)σ(t-2Δ,t-Δ) und (t-Δ,t)σ̂(t-2Δ,t-Δ). Wird das Geschwindigkeitssignal mit einem zeitlichen Versatz δ registriert, gilt somit ( t Δ ,t ) σ ( t 2 Δ ,t Δ ) = ( t Δ δ ,t δ ) σ ^ ( t 2 Δ δ ,t Δ δ ) ( t δ )

Figure DE102020207248A1_0014
This gives two equivalent signals (t-Δ, t) σ (t-2Δ, t-Δ) and (t-Δ, t) σ̂ (t-2Δ, t-Δ) . If the speed signal is registered with a time offset δ, then the following applies ( t - Δ , t ) σ ( t - 2 Δ , t - Δ ) = ( t - Δ - δ , t - δ ) σ ^ ( t - 2 Δ - δ , t - Δ - δ ) ( t - δ )
Figure DE102020207248A1_0014

In 4 wird dieser Zusammenhang in einer Diagrammdarstellung grafisch verdeutlicht. Es kann nun mit herkömmlichen Methoden (z. B. unter Betrachtung der Korrelation) der zeitliche Versatz δ bestimmt werden kann. Dies kann dadurch erfolgen, dass zunächst der erste Skalenparameter σ1, der hier auch einfach mit der Variablen σ bezeichnet ist, mit einem um den Zeitparameter Δ verschobenen zweiten Skalenparameter σ2, der hier auch mit der Variablen σ̂ bezeichnet wird. Zu erkennen ist, dass die Form des Verlaufs des ersten und zweiten Skalenparameters σ1 und σ2 bei dem Zeitversatz δ innerhalb eines Toleranzbereichs 400 gleich ist, wobei dieser Toleranzbereich 400 beispielsweise ein Band repräsentiert, in dem die Werte des zweiten Skalierungsparameters σ2 um maximal 20 Prozent vom ersten Skalierungsparameter σ1 abweichen. Auf diese Weise kann eine sehr robuste und zuverlässige Erkennung des Zeitversatzes δ ermöglicht werden, bei dem die Skalenparameter in etwa gleich sind. Auch kann in einer anderen Ausführung der Verlauf des ersten Skalierungsparameters σ1 mit dem Verlauf des zweiten Skalierungsparameters σ2 innerhalb eines Zeitfensters 410 verglichen werden. Hierdurch kann dann auch sehr gut erkannt werden, ob die Verläufe der beiden Skalierungsparameter gleichartig ist, sodass der Zeitversatz δ beispielsweise nicht bei gleichen Werten aber gegensinnigen Verläufen (also beispielsweise bei einem fallenden Verlauf des ersten Skalierungsparameters σ1 und steigendem Verlauf des zweiten Skalierungsparameters σ2) erkannt wird. In der 4 wird somit ein Zusammenhang zwischen einem relativen zeitlichen Versatz der relativen Skalensignale des metrischen und des optischen Sensors dargestellt.In 4th this relationship is illustrated graphically in a diagram. The time offset δ can now be determined using conventional methods (for example, considering the correlation). This can be done in that first the first scale parameter σ1, which is also referred to here simply with the variable σ, with a second scale parameter σ2 shifted by the time parameter Δ, which is also referred to here with the variable σ̂. It can be seen that the shape of the course of the first and second scale parameters σ1 and σ2 in the case of the time offset δ is within a tolerance range 400 is the same, with this tolerance range 400 for example represents a band in which the values of the second scaling parameter σ2 differ by a maximum of 20 percent from the first scaling parameter σ1. In this way, a very robust and reliable detection of the time offset δ can be made possible, in which the scale parameters are approximately the same. In another embodiment, the course of the first scaling parameter σ1 can also be matched with the course of the second scaling parameter σ2 within a time window 410 be compared. In this way, it can also be recognized very well whether the curves of the two scaling parameters are of the same type, so that the time offset δ, for example, not with the same values but with opposite curves (for example, with a falling curve of the first scaling parameter σ1 and an increasing curve of the second scaling parameter σ2) will. In the 4th a relationship between a relative time offset of the relative scale signals of the metric and the optical sensor is thus shown.

Alternativ oder zusätzlich wird auch eine Bestimmung des zeitlichen Versatzes im Falle eines Tiefe-messenden Sensors als Messsensors 150 vorgestellt. Zur Bestimmung des Zeitlichen Versatzes δ zwischen einem optischen und einem Tiefe-messenden Sensor 150 kann äquivalent vorgegangen werden. Wiederum gilt für die relative Skala bezüglich des optischen Sensors ( t Δ ,t ) σ ( t 2 Δ ,t Δ ) ( t ) = s ( t Δ ,t ) s ( t 2 Δ ,t Δ ) .

Figure DE102020207248A1_0015
As an alternative or in addition, the time offset is also determined in the case of a depth-measuring sensor as the measuring sensor 150 presented. To determine the time offset δ between an optical and a depth-measuring sensor 150 can proceed in an equivalent manner will. Again applies to the relative scale with respect to the optical sensor ( t - Δ , t ) σ ( t - 2 Δ , t - Δ ) ( t ) = s ( t - Δ , t ) s ( t - 2 Δ , t - Δ ) .
Figure DE102020207248A1_0015

Als Vergleichsgröße wird die Änderung einer Tiefen- bzw. Skaleninformation eines Szenenelements (z. B. Punkt oder Ebene) betrachtet. Sei d(t) eine Tiefen- bzw. Skaleninformation eines Szenenelements zum Zeitpunkt t, welche mit einem zeitlichen Versatz gemessen wird, dann gilt ( t Δ ,t ) σ ^ ( t 2 Δ ,t Δ ) = d ( t ) d ( t Δ ) d ( t Δ ) d ( t 2 Δ ) .

Figure DE102020207248A1_0016
The change in depth or scale information of a scene element (e.g. point or plane) is considered as a comparison variable. Let d (t) be depth or scale information of a scene element at time t, which is measured with a time offset, then applies ( t - Δ , t ) σ ^ ( t - 2 Δ , t - Δ ) = d ( t ) - d ( t - Δ ) d ( t - Δ ) - d ( t - 2 Δ ) .
Figure DE102020207248A1_0016

Wiederum erhält man zwei äquivalente Signale (t-Δ,t)σ(t-2Δ,t-Δ) und (t-Δ,t)σ(t-2Δ,t-Δ), für die nun mit herkömmlichen Methoden (z. B. unter Betrachtung der Korrelation) der Zeitliche Versatz bestimmt werden kann.Again, two equivalent signals (t-Δ, t) σ (t-2Δ, t-Δ) and (t-Δ, t) σ (t-2Δ, t-Δ) are obtained , for which conventional methods (e.g. B. considering the correlation) the time offset can be determined.

5 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens 500 zum Bestimmen eines Zeitversatzes zwischen einem Bezugszeitpunkt eines ersten Signals und einem Bezugszeitpunkt eines zweiten Signals. Das Verfahren 500 umfasst einen Schritt 510 des Einlesens des ersten Signals und des zweiten Signals, wobei als das erste Signal eine Sequenz von Bildern eingelesen wird, die zu unterschiedlichen Erfassungszeitpunkten von einem optischen Sensor erfasst wurden und als das zweite Signal eine Sequenz einer eindimensionale Messgröße eingelesen wird, die zu unterschiedlichen Erfassungszeitpunkten von einem Messsensor erfasst wurden, wobei der optische Sensor und der Messsensor auf einer gemeinsamen mobilen Trägerplattform angeordnet sind. Ferner umfasst das Verfahren 500 einen Schritt 520 des Berechnens von ersten Skalierungsparametern, die Skalierungsinformationen zwischen mehreren von dem optischen Sensor zu je unterschiedlichen Erfassungszeitpunkten erfassten Bildern repräsentieren und je einem Bezugszeitpunkt des ersten Signals zugeordnet sind, und des Berechnens von zweiten Skalierungsparametern aus der Sequenz der eindimensionalen Messgröße, deren Bezugspunkte gegenüber den Bezugszeitpunkten des ersten Signals entsprechend eines Zeitparameters verschoben sind. Auch umfasst das Verfahren 500 einen Schritt 530 des Vergleichens der berechneten ersten Skalierungsparameter mit zweiten Skalierungsparametern aus dem zweiten Signal. Schließlich umfasst das Verfahren 500 einen Schritt 540 des Ermittelns desjenigen Zeitparameters als dem Zeitversatz zwischen dem ersten und zweiten Signal, für den im Schritt des Vergleichens die höchste Übereinstimmung der verglichenen Skalierungsparameter erkannt wurde. 5 shows a flowchart of an exemplary embodiment of a method 500 for determining a time offset between a reference time of a first signal and a reference time of a second signal. The procedure 500 includes one step 510 of reading in the first signal and the second signal, with a sequence of images being read in as the first signal that were acquired by an optical sensor at different acquisition times, and a sequence of a one-dimensional measured variable that was acquired at different acquisition times of a measuring sensor were detected, wherein the optical sensor and the measuring sensor are arranged on a common mobile carrier platform. The method also includes 500 one step 520 calculating first scaling parameters that represent scaling information between several images captured by the optical sensor at different capture times and each assigned to a reference time of the first signal, and calculating second scaling parameters from the sequence of the one-dimensional measured variable, whose reference points are compared to the reference times of the first signal are shifted according to a time parameter. Also includes the procedure 500 one step 530 comparing the calculated first scaling parameters with second scaling parameters from the second signal. Finally, the procedure includes 500 one step 540 determining that time parameter as the time offset between the first and second signal for which the highest correspondence of the compared scaling parameters was recognized in the step of comparing.

Auch kann angemerkt werden, dass In monokularen Sensorsystemen (z. B. Kamera) durch die projektive Erfassung der Szene keinerlei Tiefeninformation messbar ist. D. h. die Skala der Szene ist unbekannt (eine beliebig skalierte Bewegung der Kamera durch eine entsprechend skalierte Szene würde das gleiche Abbild erzeugen). Somit fehlt folgende Information:

  • - Tiefe/Entfernung der Szenenpunkte
  • - Skalierung bzw. Geschwindigkeit der eigenen Bewegung
  • - relative Geschwindigkeit fremdbewegter Objekte
It can also be noted that no depth information can be measured in monocular sensor systems (e.g. cameras) due to the projective detection of the scene. I. E. the scale of the scene is unknown (an arbitrarily scaled movement of the camera through a correspondingly scaled scene would produce the same image). The following information is therefore missing:
  • - Depth / distance of the scene points
  • - Scaling or speed of your own movement
  • - Relative speed of objects moving outside

Die Kamerabewegung kann aus einer Bildfolge über die Zeit bestimmt werden, unter Verwendung der Bewegung der Szenenpunkte im Abbild. Diese Bewegung beinhaltet alle drei rotatorischen Freiheitsgrade, die translatorische Bewegung kann allerdings nur bis auf die unbekannte Skala bestimmt werden. Man kennt somit nur die Bewegungsrichtung nicht die zurückgelegte Strecke bzw. Skala. Soll die oben genannten skalenabhängigen Informationen erhalten, sollte die unbekannte Skala zusätzlich in das System eingespeist werden. Diese kann z. B. von einem Geschwindigkeit-messenden oder Tiefe messenden Sensor kommen.The camera movement can be determined from an image sequence over time, using the movement of the scene points in the image. This movement includes all three rotational degrees of freedom, but the translational movement can only be determined up to the unknown scale. You only know the direction of movement, not the distance or scale covered. If the above-mentioned scale-dependent information is to be received, the unknown scale should also be fed into the system. This can e.g. B. come from a speed-measuring or depth-measuring sensor.

Ein Aspekt des hier vorgestellten Ansatzes ist es, eine Änderung der Skala (relative Skala), über die Zeit hinweg, aus den monokularen Sensordaten zu bestimmen. Dies erfolgt punktweise unabhängig, wird somit für jeden Szenenpunkt separat berechnet. Die absolute Skala bleibt weiterhin unbekannt, dennoch sind dadurch wichtige Fragestellungen beantwortbar wie z. B.:

  • - wie verändert sich die Bewegung/Geschwindigkeit der Sensorplattform über die Zeit (relative Skala statischer Szenenpunkte verhält sich umgekehrt proportional)
  • - sind Szenenpunkte statisch oder fremdbewegt
  • - wie ist die relative Bewegung fremdbewegter Szenenpunkte (nähern oder entfernen sich)
One aspect of the approach presented here is to determine a change in the scale (relative scale) over time from the monocular sensor data. This is done point by point independently, so it is calculated separately for each scene point. The absolute scale remains unknown, but important questions can be answered, such as: B .:
  • - How does the movement / speed of the sensor platform change over time (relative scale of static scene points is inversely proportional)
  • - Scene points are static or externally moved
  • - what is the relative movement of externally moved scene points (approaching or moving away from each other)

Fällt die Messung zeitweise aus, kann aus der relativen Skala der Eigenbewegung weiterhin auf die Momentangeschwindigkeit zurück geschlossen werden.

  • - Erkennung fremdbewegter Szenenpunkte/Objekte wodurch eine semantische Segmentierung der Szene realisiert wird und zusätzlich die Bestimmung des Kollisionszeitpunkts.
  • - Ist die relative Skala bekannt, kann sie mit der gemessenen relativen oder absoluten Skala (die absolute Skala lässt sich in eine relative umwandeln) eines anderen Sensors verglichen werden, wodurch ein zeitlicher Versatz der beiden Sensorströme erkannt und ausgeglichen werden kann.
If the measurement fails temporarily, the current speed can still be deduced from the relative scale of the proper movement.
  • - Detection of scene points / objects that have been moved outside of the vehicle, whereby a semantic segmentation of the scene is implemented and, in addition, the determination of the time of the collision.
  • - If the relative scale is known, it can be compared with the measured relative or absolute scale (the absolute scale can be converted into a relative) of another sensor, whereby a time offset between the two sensor currents can be recognized and compensated for.

Das Besondere ist, dass die relative Skala hier als universelles Maß fungiert, welches robust und effizient für den optischen Sensor hergeleitet werden kann und sich direkt für jeden metrischen Sensor (z. B. Geschwindigkeit / Tiefe messend) erschließt. Tatsächlich ist es möglich komplexe Fragestellungen, die in der Lösung klassischer Weise auf Tiefen-/Skaleninformation zurückgreifen, auch in dieser relativen Darstellung zu lösen. Ein Beispiel dafür wäre ein Fahrassistenzsystem für PKW (Notbremsfunktion, Adaptive Cruise Control, ...).The special thing is that the relative scale functions here as a universal measure, which can be derived robustly and efficiently for the optical sensor and is directly accessible for every metric sensor (e.g. measuring speed / depth). In fact, it is possible to solve complex problems that traditionally rely on depth / scale information in the solution, also in this relative representation. An example of this would be a driver assistance system for cars (emergency braking function, adaptive cruise control, ...).

Die relative Skala wird auf sehr effiziente Weise für jeden Szenenpunkt separat bestimmt, wodurch sich weitere Einsatzmöglichkeiten erschließen (siehe oben). Andere Verfahren nutzen nicht die Separierbarkeit des Problems auf einzelne Punkte, sondern berechnen diese mittels eingeschränkter Modelle oder als Änderung einer globalen Größe.The relative scale is determined in a very efficient way for each scene point separately, which opens up further possibilities for use (see above). Other methods do not use the fact that the problem can be separated into individual points, but rather calculate them using restricted models or as a change in a global variable.

Der hier vorgestellte Ansatz ermöglicht die punktweise unabhängige Bestimmung einer räumlich relativen Bewegungsinformation aus dem zeitlichen Datenstrom eines monokular abbildenden Sensors. Ferner ermöglicht auf eine weitere Ausführungsform in effizienter Weise die Bestimmung eines zeitlichen Versatzes zwischen einem monokularen optischen Sensor und einem oder mehreren weiteren Sensoren (optisch oder metrisch).The approach presented here enables the point-by-point, independent determination of spatially relative movement information from the temporal data stream of a monocular imaging sensor. Furthermore, a further embodiment enables a time offset to be determined in an efficient manner between a monocular optical sensor and one or more further sensors (optical or metric).

Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.If an exemplary embodiment comprises an “and / or” link between a first feature and a second feature, this is to be read in such a way that the exemplary embodiment according to one embodiment has both the first feature and the second feature and, according to a further embodiment, either only the has the first feature or only the second feature.

Claims (12)

Verfahren (500) zum Bestimmen eines Zeitversatzes (δ) zwischen einem Bezugszeitpunkt (t) eines ersten Signals (125, 135) und einem Bezugszeitpunkt (t) eines zweiten Signals (155), wobei das Verfahren (500) die folgenden Schritte aufweist: - Einlesen (510) des ersten Signals (125, 135) und des zweiten Signals (155), wobei als das erste Signal (125, 135) eine Sequenz von Bildern (125, 135) eingelesen wird, die zu unterschiedlichen Erfassungszeitpunkten (t) von einem optischen Sensor (105) erfasst wurden und als das zweite Signal (155) eine Sequenz einer eindimensionale Messgröße (155) eingelesen wird, die zu unterschiedlichen Erfassungszeitpunkten (t) von einem Messsensor (150) erfasst wurden, wobei der optische Sensor (105) und der Messsensor (155) auf einer gemeinsamen mobilen Trägerplattform (100) angeordnet sind; - Berechnen (520) von ersten Skalierungsparametern (σ1), die Skalierungsinformationen zwischen mehreren von dem optischen Sensor (105) zu je unterschiedlichen Erfassungszeitpunkten (t1, t2, t3, t4) erfassten Bildern (125, 135) repräsentieren und je einem Bezugszeitpunkt (t) des ersten Signals (125, 135) zugeordnet sind, und Berechnen von zweiten Skalierungsparametern (σ2) aus der Sequenz der eindimensionalen Messgröße (155), deren Bezugspunkte (t) gegenüber den Bezugszeitpunkten (t) des ersten Signals (125, 135) entsprechend eines Zeitparameters (Δ) verschoben sind; - Vergleichen (530) der berechneten ersten Skalierungsparameter (σ1) aus dem ersten Signal (125, 135) mit zweiten Skalierungsparametern (σ2) aus dem zweiten Signal (155); und - Ermitteln (540) desjenigen Zeitparameters (Δ) als dem Zeitversatz (δ) zwischen dem ersten (125, 135) und zweiten Signal (155), für den im Schritt (530) des Vergleichens die höchste Übereinstimmung der verglichenen Skalierungsparameter (σ1, σ2) erkannt wurde. A method (500) for determining a time offset (δ) between a reference time (t) of a first signal (125, 135) and a reference time (t) of a second signal (155), the method (500) having the following steps: Reading (510) the first signal (125, 135) and the second signal (155), with a sequence of images (125, 135) being read in as the first signal (125, 135), which at different acquisition times (t) from an optical sensor (105) and, as the second signal (155), a sequence of a one-dimensional measured variable (155) is read in, which was recorded at different acquisition times (t) by a measuring sensor (150), the optical sensor (105) and the measuring sensor (155) are arranged on a common mobile carrier platform (100); - Calculation (520) of first scaling parameters (σ 1 ), which represent scaling information between a plurality of images (125, 135) recorded by the optical sensor (105) at different recording times (t1, t2, t3, t4) and each a reference time ( t) of the first signal (125, 135) are assigned, and calculation of second scaling parameters (σ 2 ) from the sequence of the one-dimensional measured variable (155) whose reference points (t) are compared to the reference times (t) of the first signal (125, 135) ) are shifted according to a time parameter (Δ); - Comparing (530) the calculated first scaling parameters (σ 1 ) from the first signal (125, 135) with second scaling parameters (σ 2 ) from the second signal (155); and - determining (540) that time parameter (Δ) as the time offset (δ) between the first (125, 135) and second signal (155) for which, in the step (530) of comparing, the highest agreement of the compared scaling parameters (σ 1 , σ 2 ) was recognized. Verfahren (500) gemäß Anspruch 1, bei dem im Schritt (530) des Vergleichens ein zeitlicher Verlauf von ersten Skalierungsparametern (σ1) innerhalb eines Zeitfensters (410) mit einem zeitlichen Verlauf der zweiten Skalierungsparametern (σ2) innerhalb eines um den Zeitparameter (Δ) verschobenen Zeitfensters (410) verglichen wird und wobei im Schritt (540) des Ermittelns derjenigen Zeitparameters (Δ) als dem Zeitversatz (δ) zwischen dem ersten (125, 135) und zweiten Signal (155) ermittelt wird, bei dem der um den Zeitparameter (Δ) verschobene zeitliche Verlauf des zweiten Skalierungsparameters (σ2) eine größte Ähnlichkeit zum zeitlichen Verlauf des ersten Skalierungsparameters (σ1) aufweist.Method (500) according to Claim 1 in which, in the step (530) of comparing, a time profile of first scaling parameters (σ 1 ) within a time window (410) with a time profile of the second scaling parameters (σ 2 ) within a time window (410) shifted by the time parameter (Δ) is compared and wherein in step (540) of determining that time parameter (Δ) as the time offset (δ) between the first (125, 135) and second signal (155) is determined, in which the time parameter (Δ) shifted by the time parameter (Δ) The course of the second scaling parameter (σ 2 ) has the greatest similarity to the temporal course of the first scaling parameter (σ 1 ). Verfahren (500) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (510) des Einlesens das erste (125, 135) und zweite (155) Signal eingelesen werden, bei denen die durch den optischen Sensor (105) erfasste Sequenz von Bildern (125, 135) und/oder durch den Messsensor (150) erfasste Sequenz der Messgröße (155) je in einem gleichen zeitlichen Abstand von Erfassungszeitpunkten (t) erfasst wurde.Method (500) according to one of the preceding claims, in which in the reading-in step (510) the first (125, 135) and second (155) signals are read in, in which the sequence of images (105) captured by the optical sensor (105) is read in. 125, 135) and / or the sequence of the measured variable (155) recorded by the measuring sensor (150) was recorded at the same time interval from recording times (t). Verfahren (500) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (510) des Einlesens des zweiten Signals (155) als Messgröße eine metrische und/oder durch den Messsensor (150) absolut erfassbare physikalische Größe eingelesen wird.Method (500) according to one of the preceding claims, in which, in the step (510) of reading in the second signal (155), a metric and / or physical quantity that can be absolutely recorded by the measuring sensor (150) is read in as the measured quantity. Verfahren (500) gemäß Anspruch 4, bei dem im Schritt (510) des Einlesens als Sequenz der Messgröße (155) ein zeitlicher Verlauf einer Geschwindigkeit (v) der mobilen Trägerplattform (100) eingelesen wird.Method (500) according to Claim 4 , in which, in the step (510) of reading in, a sequence of the measured variable (155) is read in a time profile of a speed (v) of the mobile carrier platform (100). Verfahren (500) gemäß Anspruch 5, bei dem im Schritt (520) des Berechnens die zweiten Skalierungsparameter (σ2) je unter Verwendung einer Integralwert-Bildung über zumindest einen Zeitabschnitt der als Messgröße (155) verwendeten Geschwindigkeit (v) berechnet werden.Method (500) according to Claim 5 , in which, in the step (520) of calculating, the second scaling parameters (σ 2 ) are each calculated using an integral value formation over at least a time segment of the speed (v) used as the measured variable (155). Verfahren (500) gemäß Anspruch 4, bei dem im Schritt (510) des Einlesens als Messgröße (155) einer von dem Messsensor (150) der mobilen Trägerplattform (100) erfasste räumliche Tiefe zu einem erkannten Objekt (112, 114, 115) eingelesen wird.Method (500) according to Claim 4 , in which, in the reading-in step (510), a spatial depth of a recognized object (112, 114, 115) recorded by the measuring sensor (150) of the mobile carrier platform (100) is read in as a measured variable (155). Verfahren (500) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (520) des Berechnens die ersten Skalierungsparameter (σ1) unter Verwendung einer Bestimmung von relativen Positionen von in den Bildern (125, 135) erkannten, einander zugeordneten Szenenpunkten in den Bildern (125, 135) berechnet werden.Method (500) according to one of the preceding claims, in which in the step (520) of calculating the first scaling parameters (σ 1 ) using a determination of relative positions of associated scene points recognized in the images (125, 135) in the images (125, 135) can be calculated. Verfahren (500) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt (550) des Verschiebens einer Zeitbasis des ersten (125, 135) und/oder zweiten Signals (155) unter Verwendung des ermittelten Zeitversatzes (δ), insbesondere wobei das erste (125, 135) und/oder zweite Signal (155) um den ermittelten Zeitversatz (δ) verzögert wird.Method (500) according to one of the preceding claims, with a step (550) of shifting a time base of the first (125, 135) and / or second signal (155) using the determined time offset (δ), in particular wherein the first (125 , 135) and / or the second signal (155) is delayed by the determined time offset (δ). Vorrichtung (102), die eingerichtet ist, um die Schritte des Verfahrens (500) gemäß einem der vorangegangenen Ansprüche in entsprechenden Einheiten auszuführen und/oder anzusteuern.Device (102) which is set up to execute and / or control the steps of the method (500) according to one of the preceding claims in corresponding units. Computerprogramm, das dazu eingerichtet ist, die Schritte des Verfahrens (500) gemäß einem der vorangegangenen Ansprüche 1 bis 9 auszuführen und/oder anzusteuern.Computer program which is set up to carry out the steps of the method (500) according to one of the preceding Claims 1 until 9 execute and / or control. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 11 gespeichert ist.Machine-readable storage medium on which the computer program is based Claim 11 is stored.
DE102020207248.5A 2020-06-10 2020-06-10 Method and device for determining a time offset between a reference time of a first signal and a reference time of a second signal Pending DE102020207248A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020207248.5A DE102020207248A1 (en) 2020-06-10 2020-06-10 Method and device for determining a time offset between a reference time of a first signal and a reference time of a second signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020207248.5A DE102020207248A1 (en) 2020-06-10 2020-06-10 Method and device for determining a time offset between a reference time of a first signal and a reference time of a second signal

Publications (1)

Publication Number Publication Date
DE102020207248A1 true DE102020207248A1 (en) 2021-12-16

Family

ID=78718780

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020207248.5A Pending DE102020207248A1 (en) 2020-06-10 2020-06-10 Method and device for determining a time offset between a reference time of a first signal and a reference time of a second signal

Country Status (1)

Country Link
DE (1) DE102020207248A1 (en)

Similar Documents

Publication Publication Date Title
DE102014209137B4 (en) Method and device for calibrating a camera system of a motor vehicle
DE112014002019B4 (en) Waveform modeling device, vehicle information processing system, waveform modeling method and waveform modeling program
DE112017006840B4 (en) Information processing program, information processing method and information processing device
DE112015003605B4 (en) Object detection device using multiple object detection devices
DE10326943A1 (en) Autonomous vehicle and associated method and device for motion determination, motion control and object detection
DE112014003818T5 (en) Object estimator and object estimation method
DE102013224502A1 (en) Method for calibrating stereo camera of vehicle, involves finding calibration error for calibrating stereo camera, by comparing three-dimensional (3D) environment data of two cameras calculated at preset time periods
DE102017117593A1 (en) Vehicle driving assistance device
DE102016208056A1 (en) Method and device for processing image data and driver assistance system for a vehicle
DE112018007485T5 (en) Road surface detection device, image display device using a road surface detection device, obstacle detection device using a road surface detection device, road surface detection method, image display method using a road surface detection method, and obstacle detection method using a road surface detection method
WO2020127053A1 (en) On-board visual determination of kinematic measurement variables of a rail vehicle
EP2736017A2 (en) Method for determining the movement of a motor vehicle
DE102018204451A1 (en) Method and device for auto-calibration of a vehicle camera system
EP3539085B1 (en) 3d localization
DE112015003988T5 (en) Free space recognition device and free space recognition method
WO2014009406A1 (en) Method and device for calculating a change in an image scale of an object
DE102020133092A1 (en) POSITION ESTIMATE DEVICE AND POSITION ESTIMATE PROCEDURES
EP3811336B1 (en) Method for determining mutually corresponding image points, soc for performing the method, camera system having the soc, controller and vehicle
WO2011020713A1 (en) Method and control device for determining movement information of an object
DE102020207248A1 (en) Method and device for determining a time offset between a reference time of a first signal and a reference time of a second signal
DE102013001867A1 (en) Method for determining orientation and corrected position of motor vehicle, involves registering features of loaded and recorded environmental data by calculating transformation and calculating vehicle orientation from transformation
DE102010042821B4 (en) Method and apparatus for determining a basic width of a stereo detection system
DE102011056948A1 (en) Method for calibrating a camera to a position sensor
DE102017217063A1 (en) A recognition system, method of operation and training method for generating a 3D model with reference data
DE112021002598T5 (en) IMAGE PROCESSING DEVICE