DE102020207248A1 - Method and device for determining a time offset between a reference time of a first signal and a reference time of a second signal - Google Patents
Method and device for determining a time offset between a reference time of a first signal and a reference time of a second signal Download PDFInfo
- Publication number
- DE102020207248A1 DE102020207248A1 DE102020207248.5A DE102020207248A DE102020207248A1 DE 102020207248 A1 DE102020207248 A1 DE 102020207248A1 DE 102020207248 A DE102020207248 A DE 102020207248A DE 102020207248 A1 DE102020207248 A1 DE 102020207248A1
- Authority
- DE
- Germany
- Prior art keywords
- time
- signal
- scaling
- sensor
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Die Erfindung betrifft ein Verfahren (500) zum Bestimmen eines Zeitversatzes (δ) zwischen einem Bezugszeitpunkt (t) eines ersten Signals (125, 135) und einem Bezugszeitpunkt (t) eines zweiten Signals (155). Das Verfahren (500) umfasst einen Schritt des Einlesens (510) des ersten Signals (125, 135) und des zweiten Signals (155), wobei als das erste Signal (125, 135) eine Sequenz von Bildern (125, 135) eingelesen wird, die zu unterschiedlichen Erfassungszeitpunkten (t) von einem optischen Sensor (105) erfasst wurden und als das zweite Signal (155) eine Sequenz einer eindimensionale Messgröße (155) eingelesen wird, die zu unterschiedlichen Erfassungszeitpunkten (t) von einem Messsensor (150) erfasst wurden, wobei der optische Sensor (105) und der Messsensor (155) auf einer gemeinsamen mobilen Trägerplattform (100) angeordnet sind. Ferner umfasst das Verfahren (500) einen Schritt des Berechnens (520) von ersten Skalierungsparametern (σ1), die Skalierungsinformationen zwischen mehreren von dem optischen Sensor (105) zu je unterschiedlichen Erfassungszeitpunkten (t1, t2, t3, t4) erfassten Bildern (125, 135) repräsentieren und je einem Bezugszeitpunkt (t) des ersten Signals (125, 135) zugeordnet sind, und Berechnen von zweiten Skalierungsparametern (σ2) aus der Sequenz der eindimensionalen Messgröße (155), deren Bezugspunkte (t) gegenüber den Bezugszeitpunkten (t) des ersten Signals (125, 135) entsprechend eines Zeitparameters (Δ) verschoben sind. Auch umfasst das Verfahren einen Schritt des Vergleichens (530) der berechneten ersten Skalierungsparameter (σ1) mit zweiten Skalierungsparametern (σ2) aus dem zweiten Signal (155). Schließlich umfasst das Verfahren (500) einen Schritt des Ermittelns (540) desjenigen Zeitparameters (Δ) als dem Zeitversatz (δ) zwischen dem ersten (125, 135) und zweiten Signal (155), für den im Schritt (530) des Vergleichens die höchste Übereinstimmung der verglichenen Skalierungsparameter (σ1, σ2) erkannt wurde.The invention relates to a method (500) for determining a time offset (δ) between a reference time (t) of a first signal (125, 135) and a reference time (t) of a second signal (155). The method (500) comprises a step of reading in (510) the first signal (125, 135) and the second signal (155), a sequence of images (125, 135) being read in as the first signal (125, 135) , which were recorded at different recording times (t) by an optical sensor (105) and a sequence of a one-dimensional measured variable (155) is read in as the second signal (155), which is recorded by a measuring sensor (150) at different recording times (t) were, wherein the optical sensor (105) and the measuring sensor (155) are arranged on a common mobile carrier platform (100). The method (500) further comprises a step of calculating (520) first scaling parameters (σ1), the scaling information between several images (125, t2, t3, t4) acquired by the optical sensor (105) at different acquisition times. 135) and are each assigned to a reference point in time (t) of the first signal (125, 135), and calculation of second scaling parameters (σ2) from the sequence of the one-dimensional measured variable (155) whose reference points (t) compared to the reference points in time (t) of the first signal (125, 135) are shifted according to a time parameter (Δ). The method also includes a step of comparing (530) the calculated first scaling parameters (σ1) with second scaling parameters (σ2) from the second signal (155). Finally, the method (500) comprises a step of determining (540) that time parameter (Δ) as the time offset (δ) between the first (125, 135) and second signal (155) for which in the step (530) of comparing the highest agreement of the compared scaling parameters (σ1, σ2) was recognized.
Description
Stand der TechnikState of the art
Die Erfindung geht von einem Verfahren oder einer Vorrichtung nach Gattung der unabhängigen Ansprüche aus. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.The invention is based on a method or a device according to the preamble of the independent claims. The present invention also relates to a computer program.
In der Automobilindustrie sind modulare Lösungen bereits Standard. Hier kommen Sensoren und Steuergeräte unterschiedlicher Zulieferer zum Einsatz. Ein vorverarbeitendes Steuergerät verarbeitet somit einen Teil der Sensormessungen direkt, und liefert die vorverarbeitete Information über den öffentlichen Datenbus an ein weiterverarbeitendes Steuergerät. Dieses fusioniert die Daten mit anderen Sensorinformationen, wodurch beispielsweise eine präzise Eigenbewegungsbestimmung ermöglicht wird. Da in der Regel keine Steuergerät-übergreifende Zeitbasis existiert, ist auf dem weiterverarbeitenden Steuergerät zunächst für das Sensorsignal nur die Zeit des Einlesens bekannt. Diese entspricht oftmals jedoch nicht der Zeit des physikalischen, durch den Messsensor erfassten Ereignisses, sondern einem späteren Zeitpunkt. Eine zeitliche Synchronisierung verschiedener Sensorsignale beschränkt sich in der Regel darauf, eingehende Signale im fusionierenden Steuergerät mit einem Zeitstempel zu versehen. Mögliche Verzögerungen zwischen Eingehen des Signals und tatsächlichen physikalischen Ereignis werden vernachlässigt. Durch die unbekannte Verzögerung des Signals, ist eine korrekte Fusion mit Sensordaten einer anderen Zeitbasis nicht oder nur schlecht möglich.Modular solutions are already standard in the automotive industry. Sensors and control devices from various suppliers are used here. A preprocessing control device thus processes part of the sensor measurements directly and delivers the preprocessed information to a further processing control device via the public data bus. This merges the data with other sensor information, which, for example, enables precise determination of the vehicle's own movement. Since there is generally no cross-control unit time base, the processing control unit initially only knows the time it was read in for the sensor signal. However, this often does not correspond to the time of the physical event recorded by the measuring sensor, but to a later point in time. A temporal synchronization of different sensor signals is usually limited to providing incoming signals in the merging control unit with a time stamp. Possible delays between the arrival of the signal and the actual physical event are neglected. Due to the unknown delay of the signal, a correct fusion with sensor data of a different time base is not possible or only with difficulty.
Aus diesem Grund, sollte für eine effiziente Signalverarbeitung eine Korrektur der verfälschten Zeitbasis durchgeführt werden, wobei dies in der Regel durch eine Bestimmung des zeitlichen Versatzes zwischen den beiden Signalen ermöglicht wird.For this reason, the incorrect time base should be corrected for efficient signal processing, this being made possible as a rule by determining the time offset between the two signals.
Offenbarung der ErfindungDisclosure of the invention
Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren, weiterhin eine Vorrichtung, die dieses Verfahren verwendet, sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.Against this background, with the approach presented here, a method, furthermore a device that uses this method, and finally a corresponding computer program according to the main claims are presented. The measures listed in the dependent claims make advantageous developments and improvements of the device specified in the independent claim possible.
Es wird ein Verfahren zum Bestimmen eines Zeitversatzes zwischen einem Bezugszeitpunkt eines ersten Signals und einem Bezugszeitpunkt eines zweiten Signals vorgeschlagen, wobei das Verfahren die folgenden Schritte aufweist:
- - Einlesen des ersten Signals und des zweiten Signals, wobei als das erste Signal eine Sequenz von Bildern eingelesen wird, die zu unterschiedlichen Erfassungszeitpunkten von einem optischen Sensor erfasst wurden und als das zweite Signal eine Sequenz einer eindimensionalen Messgröße eingelesen wird, die zu unterschiedlichen Erfassungszeitpunkten von einem Messsensor erfasst wurden, wobei der optische Sensor und der Messsensor auf einer gemeinsamen mobilen Trägerplattform angeordnet sind;
- - Berechnen von ersten Skalierungsparametern, die Skalierungsinformationen zwischen mehreren von dem optischen Sensor zu je unterschiedlichen Erfassungszeitpunkten erfassten Bildern repräsentieren und je einem zeitlichen Bezugszeitpunkt des ersten Signals zugeordnet sind, und Berechnen von zweiten Skalierungsparametern aus der Sequenz der eindimensionalen Messgröße deren Bezugspunkte gegenüber den Bezugszeitpunkten des ersten Signals entsprechend eines Zeitparameters verschoben sind;
- - Vergleichen der berechneten ersten Skalierungsparameter aus dem ersten Signal mit den zweiten Skalierungsparametern aus dem zweiten Signal; und
- - Ermitteln desjenigen Zeitparameters als den Zeitversatz zwischen dem ersten und zweiten Signal, für den im Schritt des Vergleichens die höchste Übereinstimmung der verglichenen Skalierungsparameter erkannt wurde.
- - Reading in the first signal and the second signal, with a sequence of images being read in as the first signal, which were acquired at different acquisition times by an optical sensor, and a sequence of a one-dimensional measured variable is read in as the second signal, which is read in at different acquisition times of a measuring sensor were detected, wherein the optical sensor and the measuring sensor are arranged on a common mobile carrier platform;
- Calculation of first scaling parameters, which represent scaling information between a plurality of images recorded by the optical sensor at different acquisition times and are each assigned to a time reference time of the first signal, and calculation of second scaling parameters from the sequence of the one-dimensional measured variable whose reference points compared to the reference times of the first Signals are shifted according to a time parameter;
- - comparing the calculated first scaling parameters from the first signal with the second scaling parameters from the second signal; and
- Determination of that time parameter as the time offset between the first and second signal for which the highest correspondence of the compared scaling parameters was recognized in the step of comparing.
Unter einem Zeitversatz kann beispielsweise eine Zeitspanne oder Zeitdifferenz verstanden werden, um welche ein Bezugszeitpunkt des ersten Signals bezüglich einem Bezugszeitpunkt des zweiten Signals verschoben ist. Dieser Zeitversatz kann beispielsweise durch unterschiedliche Laufzeiten in unterschiedlich langen Leitungen oder durch eine unterschiedlich intensive Vorverarbeitung der entsprechenden Signale und damit einhergehenden unterschiedlichen Vorverarbeitungszeitdauern bedingt sein. Unter einem optischen Sensor kann beispielsweise eine Kamera, auch eine Mono-Kamera verstanden werden. Unter einer eindimensionalen Messgröße kann beispielsweise eine Größe verstanden werden, die als Absolutwert erfasst werden kann. Beispielsweise kann eine solche eindimensionale Messgröße eine Geschwindigkeit oder ein Abstand in der Form einer räumlichen Tiefe sein. Unter einer mobilen Trägerplattform kann beispielsweise ein Fahrzeug verstanden werden, auf oder in welchem der optische Sensor und der Messsensor verbaut sind. Insbesondere sollten die Skalierungsparameter des optischen Sensors und des Messsensors zumindest zeitweise in eine gemeinsame Referenz überführt werden können. Unter einem Skalierungsparameter kann ein Parameter verstanden werden, der eine Information darstellt, wie sich die Maßstäbe bzw. Relationen zwischen Elementen aus den Bildern einerseits bzw. zwischen den Messgrößen andererseits gegeneinander verändern.A time offset can be understood to mean, for example, a time span or time difference by which a reference point in time of the first signal is shifted with respect to a reference point in time of the second signal. This time offset can be caused, for example, by different transit times in lines of different lengths or by different intensities of preprocessing of the corresponding signals and the associated different preprocessing times. An optical sensor can be understood to mean, for example, a camera, including a mono camera. A one-dimensional measured variable can be understood to mean, for example, a variable that can be recorded as an absolute value. For example, such a one-dimensional measured variable can be a speed or a distance in the form of a spatial depth. A mobile carrier platform can be understood to mean, for example, a vehicle on or in which the optical sensor and the measuring sensor are installed. In particular, the scaling parameters of the optical sensor and the measuring sensor should be able to be converted into a common reference at least temporarily. A scaling parameter can be understood as a parameter that represents information about how the Change scales or relationships between elements from the images on the one hand or between the measured variables on the other hand.
Der hier vorgestellte Ansatz basiert auf der Erkenntnis, dass ein Zeitversatz zwischen dem ersten Signal und zweiten Signal auch dadurch erkannt werden kann, dass charakteristische Merkmale aus den beiden Signalen hinsichtlich deren zeitlichen Verlaufs oder zeitlichen Auftretens in den beiden Signalen verglichen werden können, sodass auch ohne die Kenntnis der tatsächlichen Erfassungszeit der betreffenden Werte für die jeweiligen Signale nun eine Synchronisation dieser Signale durchgeführt werden kann. Hierzu sind jedoch zunächst mit den Skalierungsparametern Werte bereitzustellen oder zu liefern, die miteinander verglichen werden können, wenn die das erste und zweite Signal liefernden Sensoren unterschiedliche, eigentlich nicht miteinander vergleichbare physikalischen Parameter erfassen oder bereitstellen. Aus diesem Grund können mit dem hier vorgeschlagenen Ansatzes aus der Sequenz von Bildern des ersten Signals, beispielsweise unter Verwendung von Ansätzen zur Auswertung eines optischen Flusses, die ersten Skalierungsparameter berechnet werden, wogegen aus der Sequenz von Messgrößen des zweiten Signals die zweiten Skalierungsparameter bestimmt werden. Hierbei bilden die Skalierungsparameter jeweils eine Information ab, wie sich die Maßstäbe bzw. Relationen zwischen Elementen aus den Bildern einerseits bzw. zwischen den Messgrößen andererseits gegeneinander verändern, sodass nun für jedes der beiden Signale je eine dimensionslose, miteinander vergleichbare Information vorliegt. Durch einen Vergleich dieser Skalierungsparameter kann dann beispielsweise festgestellt werden, an welchen Zeitpunkten bzw. an welchem Bezugszeitpunkt eines ersten Signals bzw. zweiten Signals die Skalierungsparameter einen gleichen Wert oder einen ähnlichen Verlauf haben, sodass erkannt werden kann, an welchen Zeitabschnitten in den unterschiedlichen Signalen die gleichen Merkmale inhaltlich abgebildet sind. Hierdurch lässt sich somit der Zeitversatz zwischen den einzelnen Signalen einfach erkennen, sodass beispielsweise in einem nachfolgenden Schritt eine zeitliche Verschiebung bzw. eine Verzögerung eines der Signale um den Zeitversatz ausgeführt werden kann, um das erste Signal mit dem zweiten Signal zu synchronisieren oder zu kalibrieren oder umgekehrt.The approach presented here is based on the knowledge that a time offset between the first signal and the second signal can also be recognized by the fact that characteristic features from the two signals can be compared with regard to their temporal course or temporal occurrence in the two signals, so that even without the knowledge of the actual acquisition time of the relevant values for the respective signals, a synchronization of these signals can now be carried out. For this purpose, however, values must first be provided or delivered with the scaling parameters which can be compared with one another if the sensors delivering the first and second signals detect or provide different physical parameters that are actually not comparable with one another. For this reason, with the approach proposed here, the first scaling parameters can be calculated from the sequence of images of the first signal, for example using approaches for evaluating an optical flow, whereas the second scaling parameters can be determined from the sequence of measured variables of the second signal. The scaling parameters each depict information on how the scales or relationships between elements from the images on the one hand or between the measured variables on the other hand change, so that dimensionless, comparable information is now available for each of the two signals. By comparing these scaling parameters it can then be determined, for example, at which points in time or at which reference point in time of a first signal or second signal the scaling parameters have the same value or a similar curve, so that it can be recognized at which time segments in the different signals the the same features are shown in terms of content. This allows the time offset between the individual signals to be easily identified so that, for example, in a subsequent step, a time shift or delay of one of the signals by the time offset can be carried out in order to synchronize or calibrate the first signal with the second signal vice versa.
Der hier vorgeschlagene Ansatz bietet den Vorteil, allein aus der inhaltlichen Auswertung von bereits zur Verfügung stehenden Signalen einen Rückschluss auf den Zeitversatz zu ermöglichen, der dann beispielsweise für eine sehr effiziente Kalibrierung oder Synchronisierung der beiden Signale eingesetzt werden kann. Es ist daher kein großer zusätzlicher technischer Aufwand erforderlich, um eine Synchronisierung oder Kalibrierung von unterschiedlichen Signalen vorzunehmen. Ein wichtiger Aspekt des hier vorgestellten Ansatzes kann darin gesehen werden, dass über den Umweg der dimensionslosen Größe des Skalierungsparameters, das nicht metrische Signal der (Mono-) Kamera mit dem metrischen Signal im zeitlichen Verlauf korreliert bzw. zueinander registriert werden kann.The approach proposed here offers the advantage of making it possible to draw conclusions about the time offset solely from the evaluation of the content of signals that are already available, which can then be used, for example, for a very efficient calibration or synchronization of the two signals. No great additional technical effort is therefore required in order to synchronize or calibrate different signals. An important aspect of the approach presented here can be seen in the fact that the non-metric signal of the (mono) camera can be correlated with the metric signal over time or registered with one another via the detour of the dimensionless size of the scaling parameter.
Besonders günstig ist eine Ausführungsform des hier vorgeschlagenen Ansatzes, bei dem im Schritt des Vergleichens ein zeitlicher Verlauf von ersten Skalierungsparametern innerhalb eines Zeitfensters mit einem zeitlichen Verlauf der zweiten Skalierungsparameter innerhalb eines um den Zeitparameter verschobenen Zeitfensters verglichen wird. Ferner wird im Schritt des Ermittelns des Zeitparameters als dem Zeitversatz zwischen dem ersten und zweiten Signal derjenige Parameter ermittelt, bei dem der um den Zeitparameter verschobene zeitliche Verlauf des zweiten Skalierungsparameters eine größte Ähnlichkeit zum zeitlichen Verlauf des ersten Skalierungsparameter aufweist. Eine solche Ausführungsform des hier vorgeschlagenen Ansatzes bietet den Vorteil, nicht nur einen einzigen Zeitparameter zu verwenden, an dem der erste Skalierungsparameter innerhalb eines Toleranzbereichs um den zweiten Skalierungsparameter liegt, sondern den Verlauf der jeweiligen Skalierungsparameter innerhalb eines Zeitfensters zu betrachten. Auf diese Weise kann vermieden werden, dass bei einem zufälligerweise gleichen Wert des ersten Skalierungsparameters mit dem um den Zeitparameter verschobenen zweiten Skalierungsparameter, jedoch völlig anderem weiteren zeitlichen Verlauf der jeweiligen Skalierungsparameter der Zeitparameter als der tatsächlichen Zeitvorsatz interpretiert wird. Vorteilhaft lässt sich hierdurch der Zeitversatz sehr robust und zuverlässig bestimmen.An embodiment of the approach proposed here is particularly favorable, in which, in the step of comparing, a time profile of first scaling parameters within a time window is compared with a time profile of the second scaling parameters within a time window shifted by the time parameter. Furthermore, in the step of determining the time parameter as the time offset between the first and second signal, that parameter is determined in which the temporal course of the second scaling parameter shifted by the time parameter has the greatest similarity to the temporal course of the first scaling parameter. Such an embodiment of the approach proposed here offers the advantage of not only using a single time parameter at which the first scaling parameter is within a tolerance range around the second scaling parameter, but of considering the course of the respective scaling parameters within a time window. In this way, it can be avoided that if the value of the first scaling parameter happens to be the same with the second scaling parameter shifted by the time parameter, but completely different further temporal progression of the respective scaling parameters, the time parameter is interpreted as the actual time prefix. In this way, the time offset can advantageously be determined very robustly and reliably.
Denkbar ist ferner auch eine Ausführungsform des hier vorgeschlagenen Ansatzes, bei dem im Schritt des Einlesens das erste und zweite Signal eingelesen werden, bei denen die durch den optischen Sensor erfasste Sequenz von Bildern und/oder durch den Messsensor erfasste Sequenz der Messgröße je in einem gleichen zeitlichen Abstand von Erfassungszeitpunkten erfasst wurde. Hierdurch werden das erste und zweite Signal durch eine zyklische Abtastung der Umgebung um die mobile Trägerplattform bereitgestellt. Eine solche Ausführungsform bietet den Vorteil, dass die jeweiligen Sensoren, die die dem ersten und zweiten Signal zu Grunde liegenden Informationen bereitstellen, im gleichen zeitlichen Abstand die jeweilige betreffende physikalische Größe abtasten. Auf diese Weise hat ein einmal bestimmter Zeitversatz eine deutlich längere Gültigkeit, als wenn die Abtastraten der einzelnen Sensoren zeitlich auseinanderdriften.An embodiment of the approach proposed here is also conceivable in which the first and second signals are read in in the reading-in step, in which the sequence of images captured by the optical sensor and / or the sequence of the measured variable captured by the measuring sensor are each identical the time interval between acquisition times was recorded. As a result, the first and second signals are provided by cyclical scanning of the environment around the mobile carrier platform. Such an embodiment offers the advantage that the respective sensors, which provide the information on which the first and second signals are based, scan the respective relevant physical variable at the same time interval. In this way, a time offset that has been determined once has a significantly longer validity than if the sampling rates of the individual sensors drift apart in time.
Technisch sehr einfach zu implementieren ist eine Ausführungsform des hier vorgeschlagenen Ansatzes, bei dem im Schritt des Einlesens des zweiten Signals als Messgröße eine metrische und/oder durch den Messsensor absolut erfassbare physikalische Größe eingelesen wird. Eine solche Ausführungsform bietet den Vorteil, dass ein entsprechender Messsensor oftmals bereits schon in einer entsprechenden Sensorumgebung zur Verfügung steht und meist auch schon ein sehr präzises Messergebnis für die Messgröße liefert, beispielsweise verglichen mit einem aus unterschiedlichen Bildern abzuleitenden Skalierungsparameters. Auf diese Weise lässt sich eine sehr sichere Erkennung des Zeitversatzes realisieren, bei der der präzisere Messwert als Basis für die Verschiebung des Skalierungsparameters verwendet wird.One embodiment of the approach proposed here is technically very easy to implement, in which, in the step of reading in the second signal, a metric and / or physical variable that can be absolutely detected by the measuring sensor is read in as the measured variable. Such an embodiment offers the advantage that a corresponding measuring sensor is often already available in a corresponding sensor environment and usually already delivers a very precise measurement result for the measured variable, for example compared to a scaling parameter to be derived from different images. In this way, a very reliable detection of the time offset can be implemented, in which the more precise measured value is used as the basis for shifting the scaling parameter.
Von Vorteil ist ferner eine Ausführungsform des hier vorgeschlagenen Ansatzes, bei dem im Schritt des Einlesens als Sequenz der Messgröße ein zeitlicher Verlauf einer Geschwindigkeit der mobilen Trägerplattform eingelesen wird. Eine solche Ausführungsform bietet den Vorteil, dass speziell ein Geschwindigkeitswert durch unterschiedliche Sensoren bereits sehr genau erfasst werden kann, sodass auch die Bestimmung des Zeitversatzes sehr präzise ausgestaltet werden kann.An embodiment of the approach proposed here is also advantageous, in which, in the reading-in step, a sequence of the measured variable over time is read in for a speed of the mobile carrier platform. Such an embodiment offers the advantage that, in particular, a speed value can already be recorded very precisely by different sensors, so that the determination of the time offset can also be designed very precisely.
Besonders günstig ist eine Ausführungsform des hier vorgestellten Ansatzes, bei dem im Schritt des Berechnens die zweiten Skalierungsparameter je unter Verwendung einer Integralwert-Bildung über zumindest einen Zeitabschnitt der als Messgröße verwendeten Geschwindigkeit berechnet werden. Hierdurch lässt sich sehr einfach aber dennoch präzise der zweite Skalierungsparameter ermitteln.An embodiment of the approach presented here is particularly favorable in which, in the calculation step, the second scaling parameters are each calculated using an integral value formation over at least a time segment of the speed used as the measured variable. In this way, the second scaling parameter can be determined very easily, but nevertheless precisely.
Alternativ oder zusätzlich kann gemäß einer weiteren Ausführungsform im Schritt des Einlesens als Messgröße eine von dem Messsensor der mobilen Trägerplattform erfasste räumliche Tiefe zu einem erkannten Objekt eingelesen werden. Eine solche Ausführungsform bietet den Vorteil, einer vereinfachten Berechnung der Skalierungsparameter gegenüber z. B. einem Geschwindigkeit messenden Sensor.Alternatively or additionally, according to a further embodiment, in the step of reading in, a spatial depth to a recognized object that is detected by the measuring sensor of the mobile carrier platform can be read in as a measured variable. Such an embodiment offers the advantage of a simplified calculation of the scaling parameters compared to z. B. a speed measuring sensor.
Gemäß einer weiteren Ausführungsform des hier vorgestellten Ansatzes können im Schritt des Berechnens die ersten Skalierungsparameter unter Verwendung einer Bestimmung von relativen Positionen (von in den Bildern erkannten, einander zugeordneten Szenenpunkten) in den Bildern berechnet werden. Eine solche Ausführungsform bietet den Vorteil von oftmals bereits aus der Bildverarbeitung bekannten Ansätzen zur Ermittlung des optischen Flusses auch ein recht präzises Ergebnis für den ersten Skalierungsparameter zu erhalten.According to a further embodiment of the approach presented here, the first scaling parameters can be calculated in the calculation step using a determination of relative positions (of scene points recognized in the images and assigned to one another) in the images. Such an embodiment offers the advantage of approaches for determining the optical flow, which are often already known from image processing, of also obtaining a very precise result for the first scaling parameter.
Gemäß einer weiteren Ausführungsform des hier vorgestellten Ansatzes kann in einem Schritt des Verschiebens eine Zeitbasis des ersten und/oder zweiten Signals unter Verwendung des ermittelten Zeitversatzes verschoben werden, insbesondere wobei das erste und/oder zweite Signal um den ermittelten Zeitversatz verzögert wird. Eine solche Ausführungsform bietet den Vorteil, nun Signale für eine weitere nachfolgende Verarbeitung, beispielsweise für Fahrerassistenzsysteme oder Notfahrfunktionen zur Verfügung zu haben, die eine gemeinsame Zeitbasis in Bezug auf ein erkanntes Ereignis haben. Auf diese Weise kann eine deutliche Verbesserung der Präzision der aus den korrigierten Signalen bzw. den Signalen, deren Zeitbasis verschoben wurde, erhaltenen Informationen eröffnet werden.According to a further embodiment of the approach presented here, in a shifting step, a time base of the first and / or second signal can be shifted using the determined time offset, in particular wherein the first and / or second signal is delayed by the determined time offset. Such an embodiment offers the advantage of having signals available for further subsequent processing, for example for driver assistance systems or emergency driving functions, which have a common time base with regard to a recognized event. In this way, a significant improvement in the precision of the information obtained from the corrected signals or the signals whose time base has been shifted can be opened up.
Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control device.
Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrundeliegende Aufgabe schnell und effizient gelöst werden.The approach presented here also creates a device which is designed to carry out, control or implement the steps of a variant of a method presented here in corresponding devices. The object on which the invention is based can also be achieved quickly and efficiently by means of this embodiment variant of the invention in the form of a device.
Hierzu kann die Vorrichtung zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EEPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann.For this purpose, the device can have at least one processing unit for processing signals or data, at least one storage unit for storing signals or data, at least one interface to a sensor or an actuator for reading in sensor signals from the sensor or for outputting data or control signals to the Have an actuator and / or at least one communication interface for reading in or outputting data, which are embedded in a communication protocol. The computing unit can be, for example, a signal processor, a microcontroller or the like, wherein the storage unit can be a flash memory, an EEPROM or a magnetic storage unit. The communication interface can be designed to read in or output data wirelessly and / or wired, a communication interface that can read in or output wired data, for example, can read this data electrically or optically from a corresponding data transmission line or output it into a corresponding data transmission line.
Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.In the present case, a device can be understood to mean an electrical device that processes sensor signals and outputs control and / or data signals as a function thereof. The device can have an interface that is hard and / or can be designed in software. In the case of a hardware design, the interfaces can, for example, be part of a so-called system ASIC which contains a wide variety of functions of the device. However, it is also possible that the interfaces are separate, integrated circuits or at least partially consist of discrete components. In the case of a software-based design, the interfaces can be software modules that are present, for example, on a microcontroller alongside other software modules.
Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.A computer program product or computer program with program code, which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk or an optical memory, and for performing, implementing and / or controlling the steps of the method according to one of the embodiments described above is also advantageous is used, especially when the program product or program is executed on a computer or device.
Ausführungsbeispiele des hier vorgestellten Ansatzes sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
-
1 ein Szenario, in dem der hier vorgestellte Ansatz gemäß einem Ausführungsbeispiel im Zusammenhang mit einer mobilen Trägerplattform und einem Blockschaltbild einer Vorrichtung gemäß einem Ausführungsbeispiel näher erläutert wird; -
2 eine Darstellung zur Erläuterung der prinzipiellen Funktionsweise des hier vorgestellten Ansatzes gemäß einem Ausführungsbeispiel; -
3 eine Blockschaltbilddarstellung eines Sensorsystems zur Verarbeitung von Sensorsignalen zur Verdeutlichung der dem hier vorgestellten Ansatz zugrundeliegenden Problematik; -
4 eine Diagramm-Darstellung einer exemplarischen Vorgehensweise gemäß dem vorgestellten Ansatz zum Bestimmen eines Zeitversatzes zwischen einem Bezugszeitpunkt eines ersten Signals und einem Bezugszeitpunkt eines zweiten Signals; und -
5 ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens.
-
1 a scenario in which the approach presented here is explained in more detail according to an exemplary embodiment in connection with a mobile carrier platform and a block diagram of a device according to an exemplary embodiment; -
2 a representation to explain the basic functionality of the approach presented here according to an embodiment; -
3 a block diagram representation of a sensor system for processing sensor signals to illustrate the problem on which the approach presented here is based; -
4th a diagram representation of an exemplary procedure according to the presented approach for determining a time offset between a reference time of a first signal and a reference time of a second signal; and -
5 a flowchart of an embodiment of a method.
In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.In the following description of advantageous exemplary embodiments of the present invention, identical or similar reference symbols are used for the elements shown in the various figures and having a similar effect, a repeated description of these elements being dispensed with.
Ein abbildender optischer Sensor wie der optische Bildaufnahmesensor
Ferner ist auf der mobilen Trägerplattform
Als Messgröße
Die metrische Information kann durch einen unbekannten, über die Zeit hinweg langsam veränderlichen, Skalenfehler gestört sein, wobei dieser Skalenfehler durch den bestimmten zweiten Skalenparameter erkannt und kompensiert werden kann. Im Beispiel der ESP-Sensorik könnte dies eine Abweichung der tatsächlichen Reifengröße von der angenommenen Reifengröße sein.The metric information can be disturbed by an unknown scale error that changes slowly over time, this scale error being able to be recognized and compensated for by the determined second scale parameter. In the example of the ESP sensor system, this could be a deviation of the actual tire size from the assumed tire size.
Zusätzlich wird, wie vorstehend mit Bezug zur
Das erste Bild
Analog kann auch das dritte Bild
Die hierbei erhalten Informationen werden dann an die Bestimmungseinheit
Der Begriff „Skala“ bzw. Skalierungsparameter bezieht sich in dem hier verwendeten Zusammenhang auf die einer Szene oder einer Bewegung inhärente Skalierungsinformation. Dies kann eine Entfernung, Ausdehnung oder zurückgelegte Strecke sein. Die relative Skala bezeichnet dabei eine Änderung der Skala bezüglich zweier Zeitintervalle.In the context used here, the term “scale” or scaling parameter relates to the scaling information inherent in a scene or a movement. This can be a distance, extension or distance traveled. The relative scale denotes a change in the scale with respect to two time intervals.
Der hier vorgestellte Ansatz verwendet einen abbildenden optischen Sensor, der ein zweidimensionales Abbild, bzw. eine Projektion, der Szene liefert. Dies bedeutet, er liefert keinerlei metrische Information, wie beispielsweise die Tiefe der einzelnen Szenenpunkte. Somit erzeugt eine skalierte Bewegung in einer entsprechend skalierten Welt immer das gleiche Abbild. Die Skala selbst ist meist nicht messbar.The approach presented here uses an imaging optical sensor that delivers a two-dimensional image or projection of the scene. This means that it does not provide any metric information, such as the depth of the individual scene points. Thus, a scaled movement always creates the same image in a correspondingly scaled world. The scale itself is usually not measurable.
Der hier vorgestellte Ansatz bezieht sich auf bewegte Sensorplattformen, die mit einem optischen Sensor ausgestattet sind. Ein wichtiger Aspekt des hier vorgestellten Ansatzes kann darin gesehen werden, dass hier ein Verfahren zur Schätzung der relativen Skala bezüglich zweier Zeitintervalle vorgestellt wird, basierend auf den Bildern eines optischen Sensors. Das Verfahren stützt sich dabei rein auf die Bewegung projizierter statischer Szenenpunkte und benötigt keine weitere Information.The approach presented here relates to moving sensor platforms that are equipped with an optical sensor. An important aspect of the approach presented here can be seen in the fact that a method for estimating the relative scale with respect to two time intervals is presented here, based on the images of an optical sensor. The method is based purely on the movement of projected static scene points and does not require any further information.
Das hier vorgeschlagene Verfahren bzw. der hier vorgestellte Ansatz zeichnet sich durch seine geringe Komplexität bei gleichzeitiger Universalität aus. Entgegen den bisher bekannten Ansätzen wird die relative Skala pro Szenepunkt bestimmt, wodurch zusätzlich eine relative Bewegungsinformation für nicht statische Szenenpunkte gegeben ist.The method proposed here or the approach presented here is distinguished by its low complexity and, at the same time, universality. Contrary to the approaches known up to now, the relative scale is determined for each scene point, which additionally provides relative movement information for non-static scene points.
Nachfolgend wird nun näher auf die Ermittlung des Zeitversatzes eingegangen, wobei zunächst eine mathematische Nomenklatur für die Beschreiung erläutert wird. Matrizen und Vektoren werden hier in Fettschrift (Groß- und Kleinbuchstaben) angegeben. Ein Bezugsrahmen wird als hochgestelltes Zeichen hinzugefügt auf der rechten Seite und der relativen Position oder Ausrichtung als hochgestelltes Links und tiefgestelltes Rechts. Eine Rotationsmatrix ARB ∈ SO(3) beschreibt eine Rotationsfolge Rz(AψB)·Ry(AθB)·Rx(AϕB) der Übertragung von Rahmen A in Rahmen B. Der Vektor AtB ∈ ℝ3, codiert den Vektor von A nach B mit in Bezug auf den Koordinatenrahmen A. Siehe auch Gleichung (2) zu klären, wie die Notation Transformationsentitäten und zu transformierende Punkte in ℝ3 in Beziehung setzt. Gemessene Punktkoordinaten lp = [lu, lv]T ∈ ℝ2 werden dargestellt in normalisierten Bildkoordinaten als
Der hier vorgestellte Ansatz bezieht sich auf bewegte Sensorplattformen
Das hier beschriebene Verfahren ermöglicht die Bestimmung des Zeitlichen Versatzes zwischen metrischen und optischen und Sensormessungen, und somit eine Synchronisation jeglicher abgeleiteten Information.The method described here enables the determination of the time offset between metric and optical and sensor measurements, and thus a synchronization of any derived information.
Im Folgenden wird eine mathematische Herleitung des zu schützenden Verfahrens gegeben.A mathematical derivation of the process to be protected is given below.
Zunächst wird die Schätzung der relativen Skala über die Zeit näher thematisiert.First, the estimation of the relative scale over time is discussed in more detail.
Hierbei liefert ein monokularer optischer Sensor wie der optische Bildaufnahmesensor
Nachfolgend wird eine Schätzung der relativen Skala basierend auf optischem Fluss durchgeführt. Aus den Bildpaaren eines monokularen Sensors kann die Bewegung der projizierten Szenenpunkte über die Zeit hinweg bestimmt werden. Dies ist ein Standardproblem der Bildverarbeitung und wird als Optischer Fluss bezeichnet. Basierend auf den Korrespondenzen des Optischen Fluss kann daraufhin die Rotation des Sensors sowie die Translationsrichtung bestimmt werden. Dies ist ebenfalls ein Standardproblem und wird oft als visuelle Odometrie bezeichnet. Durch das Fehlen von Tiefeninformation kann die Länge bzw. Skalierung des Translationsvektors nicht bestimmt werden, sondern nur seine Richtung. Aus den Punktkorrespondenzen dreier aufeinander folgender Sensorbilder und der Eigenbewegung der Bildpaare kann nun die relative Skala, d.h. die Änderung der unbekannten Skalierung des Translationsvektors, bestimmt werden. Für paarweise Korrespondenzen (C(t1)p, C(t2)p) und (C(t2)p, C(t3)p) ∈ ℝ3 eines statischen dreidimensionalen Szenenpunktes gilt für die Transformation bezüglich des Sensorkoordinatensystems C zu den jeweiligen Abbildungszeitpunkten (t1; t2) bzw. (t3; t2)
Durch beidseitige Multiplikation mit [C(t1)p̃]× bzw. [C(t1)p̃]× erhält man die mehrdimensionalen Bedingungsgleichung
Durch Lösen von 6 und 7 nach C(t2)z und anschließendem gleichsetzen, erhält man drei Bedingungsgleichungen mit den Unbekannten s12 und s23. Alle anderen Größen sind bekannt. Durch Substitution
Diese kann nun auf verschiedene Weise geschätzt werden. Eine oder mehrere Gleichungen aller Punktkorrespondenzen können nach (t2,t3)σ(t1,t2) gelöst werden, um dann beispielsweise den Median oder Mittelwert anzuwenden. Eine Histogrammlösung ist ebenfalls möglich. Die Bedingungsgleichungen aller Punktkorrespondenzen können auch in ein gemeinsames, überbestimmtes lineares Gleichungssystem überführt werden, um dann als gemeinsames Optimierungsproblem gelöst zu werden. Ohne Beschränkung der Allgemeinheit wurden diesem Beispiel angrenzende Zeitintervalle (t1; t2) und (t2; t3) gewählt. Die relative Skala kann aber tatsächlich für beliebige, auch überlappende Zeitintervalle bestimmt werden. Statt einer direkten Berechnung der relativen Skala aus den Punktkorrespondenzen, kann alternativ, unter Annahme einer Skala, für beide Zeitintervalle eine dreidimensionale Szeneninformation bestimmt werden. Diese beinhaltet dann eine inhärente Skala, welche sich proportional zur unbekannten Skala verhält. Beziehen sich beide Tiefeninformationen auf das gleiche Referenzkoordinatensystem, kann die Berechnung der relativen Skala (t2,t3)σ(t1,t2) durch Vergleich der inhärenten Skalen der beiden Tiefeninformationen erfolgen. Unter der Annahme s(t1,t2) = 1 und s(t2,t3) =1 können zunächst bezüglich Frame c(t2) normierte Tiefen entlang der z-Achse C(t2)z̃12 und C(t2)z̃23 berechnet werden. Für diese gilt
Die relative Skala berechnet sich dann als
Auf die gleiche Weise können auch andere Szenenelemente wie beispielsweise dreidimensionale Punkte oder Ebenen berechnet werden (z. B. Bodenebene). Im Falle dreidimensionaler Punkte kann als Tiefeninformation der radiale Abstand dienen, im Falle der Ebene, der Abstand dieser zum Ursprung.In the same way, other scene elements such as three-dimensional points or planes can also be calculated (e.g. ground plane). In the case of three-dimensional points, the radial distance can serve as depth information, in the case of the plane, the distance between this and the origin.
Entsprechend kann auch direkt die relative Skala zwischen der Information zweier metrischer Sensoren bestimmt werden.Correspondingly, the relative scale between the information from two metric sensors can also be determined directly.
Schließlich wird eine Bestimmung des zeitlichen Versatzes im Falle eines Geschwindigkeit-messenden Sensors als Messsensors
Zur Bestimmung des Zeitlichen Versatzes zwischen einem optischen und eine Geschwindigkeit messenden Sensor, kann die relative Skala, wie vorstehend beschrieben bestimmt, als Quotient zweier Integrale über die Geschwindigkeit interpretiert werden. Ohne Beschränkung der Allgemeinheit seien hier für den optischen Sensor äquidistante Aufnahmezeitpunkte, im Abstand Δ, angenommen. Somit gilt für die relative Skala bezüglich des optischen Sensors
Zur Vereinfachung wird hier angenommen, dass die Translationsrichtung des optischen Sensors parallel ist zur Achse der Geschwindigkeitsmessung. Dies ist beispielsweise bei einer geradlinigen Bewegung der Sensorplattform der Fall. Für das Geschwindigkeitssignal berechnet sich die relative Skala
Dadurch erhält man zwei äquivalente Signale (t-Δ,t)σ(t-2Δ,t-Δ) und (t-Δ,t)σ̂(t-2Δ,t-Δ). Wird das Geschwindigkeitssignal mit einem zeitlichen Versatz δ registriert, gilt somit
In
Alternativ oder zusätzlich wird auch eine Bestimmung des zeitlichen Versatzes im Falle eines Tiefe-messenden Sensors als Messsensors
Als Vergleichsgröße wird die Änderung einer Tiefen- bzw. Skaleninformation eines Szenenelements (z. B. Punkt oder Ebene) betrachtet. Sei d(t) eine Tiefen- bzw. Skaleninformation eines Szenenelements zum Zeitpunkt t, welche mit einem zeitlichen Versatz gemessen wird, dann gilt
Wiederum erhält man zwei äquivalente Signale (t-Δ,t)σ(t-2Δ,t-Δ) und (t-Δ,t)σ(t-2Δ,t-Δ), für die nun mit herkömmlichen Methoden (z. B. unter Betrachtung der Korrelation) der Zeitliche Versatz bestimmt werden kann.Again, two equivalent signals (t-Δ, t) σ (t-2Δ, t-Δ) and (t-Δ, t) σ (t-2Δ, t-Δ) are obtained , for which conventional methods (e.g. B. considering the correlation) the time offset can be determined.
Auch kann angemerkt werden, dass In monokularen Sensorsystemen (z. B. Kamera) durch die projektive Erfassung der Szene keinerlei Tiefeninformation messbar ist. D. h. die Skala der Szene ist unbekannt (eine beliebig skalierte Bewegung der Kamera durch eine entsprechend skalierte Szene würde das gleiche Abbild erzeugen). Somit fehlt folgende Information:
- - Tiefe/Entfernung der Szenenpunkte
- - Skalierung bzw. Geschwindigkeit der eigenen Bewegung
- - relative Geschwindigkeit fremdbewegter Objekte
- - Depth / distance of the scene points
- - Scaling or speed of your own movement
- - Relative speed of objects moving outside
Die Kamerabewegung kann aus einer Bildfolge über die Zeit bestimmt werden, unter Verwendung der Bewegung der Szenenpunkte im Abbild. Diese Bewegung beinhaltet alle drei rotatorischen Freiheitsgrade, die translatorische Bewegung kann allerdings nur bis auf die unbekannte Skala bestimmt werden. Man kennt somit nur die Bewegungsrichtung nicht die zurückgelegte Strecke bzw. Skala. Soll die oben genannten skalenabhängigen Informationen erhalten, sollte die unbekannte Skala zusätzlich in das System eingespeist werden. Diese kann z. B. von einem Geschwindigkeit-messenden oder Tiefe messenden Sensor kommen.The camera movement can be determined from an image sequence over time, using the movement of the scene points in the image. This movement includes all three rotational degrees of freedom, but the translational movement can only be determined up to the unknown scale. You only know the direction of movement, not the distance or scale covered. If the above-mentioned scale-dependent information is to be received, the unknown scale should also be fed into the system. This can e.g. B. come from a speed-measuring or depth-measuring sensor.
Ein Aspekt des hier vorgestellten Ansatzes ist es, eine Änderung der Skala (relative Skala), über die Zeit hinweg, aus den monokularen Sensordaten zu bestimmen. Dies erfolgt punktweise unabhängig, wird somit für jeden Szenenpunkt separat berechnet. Die absolute Skala bleibt weiterhin unbekannt, dennoch sind dadurch wichtige Fragestellungen beantwortbar wie z. B.:
- - wie verändert sich die Bewegung/Geschwindigkeit der Sensorplattform über die Zeit (relative Skala statischer Szenenpunkte verhält sich umgekehrt proportional)
- - sind Szenenpunkte statisch oder fremdbewegt
- - wie ist die relative Bewegung fremdbewegter Szenenpunkte (nähern oder entfernen sich)
- - How does the movement / speed of the sensor platform change over time (relative scale of static scene points is inversely proportional)
- - Scene points are static or externally moved
- - what is the relative movement of externally moved scene points (approaching or moving away from each other)
Fällt die Messung zeitweise aus, kann aus der relativen Skala der Eigenbewegung weiterhin auf die Momentangeschwindigkeit zurück geschlossen werden.
- - Erkennung fremdbewegter Szenenpunkte/Objekte wodurch eine semantische Segmentierung der Szene realisiert wird und zusätzlich die Bestimmung des Kollisionszeitpunkts.
- - Ist die relative Skala bekannt, kann sie mit der gemessenen relativen oder absoluten Skala (die absolute Skala lässt sich in eine relative umwandeln) eines anderen Sensors verglichen werden, wodurch ein zeitlicher Versatz der beiden Sensorströme erkannt und ausgeglichen werden kann.
- - Detection of scene points / objects that have been moved outside of the vehicle, whereby a semantic segmentation of the scene is implemented and, in addition, the determination of the time of the collision.
- - If the relative scale is known, it can be compared with the measured relative or absolute scale (the absolute scale can be converted into a relative) of another sensor, whereby a time offset between the two sensor currents can be recognized and compensated for.
Das Besondere ist, dass die relative Skala hier als universelles Maß fungiert, welches robust und effizient für den optischen Sensor hergeleitet werden kann und sich direkt für jeden metrischen Sensor (z. B. Geschwindigkeit / Tiefe messend) erschließt. Tatsächlich ist es möglich komplexe Fragestellungen, die in der Lösung klassischer Weise auf Tiefen-/Skaleninformation zurückgreifen, auch in dieser relativen Darstellung zu lösen. Ein Beispiel dafür wäre ein Fahrassistenzsystem für PKW (Notbremsfunktion, Adaptive Cruise Control, ...).The special thing is that the relative scale functions here as a universal measure, which can be derived robustly and efficiently for the optical sensor and is directly accessible for every metric sensor (e.g. measuring speed / depth). In fact, it is possible to solve complex problems that traditionally rely on depth / scale information in the solution, also in this relative representation. An example of this would be a driver assistance system for cars (emergency braking function, adaptive cruise control, ...).
Die relative Skala wird auf sehr effiziente Weise für jeden Szenenpunkt separat bestimmt, wodurch sich weitere Einsatzmöglichkeiten erschließen (siehe oben). Andere Verfahren nutzen nicht die Separierbarkeit des Problems auf einzelne Punkte, sondern berechnen diese mittels eingeschränkter Modelle oder als Änderung einer globalen Größe.The relative scale is determined in a very efficient way for each scene point separately, which opens up further possibilities for use (see above). Other methods do not use the fact that the problem can be separated into individual points, but rather calculate them using restricted models or as a change in a global variable.
Der hier vorgestellte Ansatz ermöglicht die punktweise unabhängige Bestimmung einer räumlich relativen Bewegungsinformation aus dem zeitlichen Datenstrom eines monokular abbildenden Sensors. Ferner ermöglicht auf eine weitere Ausführungsform in effizienter Weise die Bestimmung eines zeitlichen Versatzes zwischen einem monokularen optischen Sensor und einem oder mehreren weiteren Sensoren (optisch oder metrisch).The approach presented here enables the point-by-point, independent determination of spatially relative movement information from the temporal data stream of a monocular imaging sensor. Furthermore, a further embodiment enables a time offset to be determined in an efficient manner between a monocular optical sensor and one or more further sensors (optical or metric).
Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.If an exemplary embodiment comprises an “and / or” link between a first feature and a second feature, this is to be read in such a way that the exemplary embodiment according to one embodiment has both the first feature and the second feature and, according to a further embodiment, either only the has the first feature or only the second feature.
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020207248.5A DE102020207248A1 (en) | 2020-06-10 | 2020-06-10 | Method and device for determining a time offset between a reference time of a first signal and a reference time of a second signal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020207248.5A DE102020207248A1 (en) | 2020-06-10 | 2020-06-10 | Method and device for determining a time offset between a reference time of a first signal and a reference time of a second signal |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020207248A1 true DE102020207248A1 (en) | 2021-12-16 |
Family
ID=78718780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020207248.5A Pending DE102020207248A1 (en) | 2020-06-10 | 2020-06-10 | Method and device for determining a time offset between a reference time of a first signal and a reference time of a second signal |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020207248A1 (en) |
-
2020
- 2020-06-10 DE DE102020207248.5A patent/DE102020207248A1/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102014209137B4 (en) | Method and device for calibrating a camera system of a motor vehicle | |
DE112014002019B4 (en) | Waveform modeling device, vehicle information processing system, waveform modeling method and waveform modeling program | |
DE112017006840B4 (en) | Information processing program, information processing method and information processing device | |
DE112015003605B4 (en) | Object detection device using multiple object detection devices | |
DE10326943A1 (en) | Autonomous vehicle and associated method and device for motion determination, motion control and object detection | |
DE112014003818T5 (en) | Object estimator and object estimation method | |
DE102013224502A1 (en) | Method for calibrating stereo camera of vehicle, involves finding calibration error for calibrating stereo camera, by comparing three-dimensional (3D) environment data of two cameras calculated at preset time periods | |
DE102017117593A1 (en) | Vehicle driving assistance device | |
DE102016208056A1 (en) | Method and device for processing image data and driver assistance system for a vehicle | |
DE112018007485T5 (en) | Road surface detection device, image display device using a road surface detection device, obstacle detection device using a road surface detection device, road surface detection method, image display method using a road surface detection method, and obstacle detection method using a road surface detection method | |
WO2020127053A1 (en) | On-board visual determination of kinematic measurement variables of a rail vehicle | |
EP2736017A2 (en) | Method for determining the movement of a motor vehicle | |
DE102018204451A1 (en) | Method and device for auto-calibration of a vehicle camera system | |
EP3539085B1 (en) | 3d localization | |
DE112015003988T5 (en) | Free space recognition device and free space recognition method | |
WO2014009406A1 (en) | Method and device for calculating a change in an image scale of an object | |
DE102020133092A1 (en) | POSITION ESTIMATE DEVICE AND POSITION ESTIMATE PROCEDURES | |
EP3811336B1 (en) | Method for determining mutually corresponding image points, soc for performing the method, camera system having the soc, controller and vehicle | |
WO2011020713A1 (en) | Method and control device for determining movement information of an object | |
DE102020207248A1 (en) | Method and device for determining a time offset between a reference time of a first signal and a reference time of a second signal | |
DE102013001867A1 (en) | Method for determining orientation and corrected position of motor vehicle, involves registering features of loaded and recorded environmental data by calculating transformation and calculating vehicle orientation from transformation | |
DE102010042821B4 (en) | Method and apparatus for determining a basic width of a stereo detection system | |
DE102011056948A1 (en) | Method for calibrating a camera to a position sensor | |
DE102017217063A1 (en) | A recognition system, method of operation and training method for generating a 3D model with reference data | |
DE112021002598T5 (en) | IMAGE PROCESSING DEVICE |