DE102021203976A1 - Verfahren zur Ermittlung von Signallaufzeiten und System zur Fusion von Sensordaten mindestens zweier Sensoren zur Objekterkennung - Google Patents

Verfahren zur Ermittlung von Signallaufzeiten und System zur Fusion von Sensordaten mindestens zweier Sensoren zur Objekterkennung Download PDF

Info

Publication number
DE102021203976A1
DE102021203976A1 DE102021203976.6A DE102021203976A DE102021203976A1 DE 102021203976 A1 DE102021203976 A1 DE 102021203976A1 DE 102021203976 A DE102021203976 A DE 102021203976A DE 102021203976 A1 DE102021203976 A1 DE 102021203976A1
Authority
DE
Germany
Prior art keywords
sensor
signal propagation
data packets
sensors
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021203976.6A
Other languages
English (en)
Inventor
Joachim Boerger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102021203976.6A priority Critical patent/DE102021203976A1/de
Priority to US17/653,160 priority patent/US11831404B2/en
Priority to ATA50251/2022A priority patent/AT524964A2/de
Priority to CN202210424388.2A priority patent/CN115225189A/zh
Publication of DE102021203976A1 publication Critical patent/DE102021203976A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0852Delays
    • H04L43/0858One way delays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J3/00Time-division multiplex systems
    • H04J3/02Details
    • H04J3/06Synchronising arrangements
    • H04J3/0635Clock or time synchronisation in a network
    • H04J3/0638Clock or time synchronisation among nodes; Internode synchronisation
    • H04J3/0658Clock or time synchronisation among packet nodes
    • H04J3/0661Clock or time synchronisation among packet nodes using timestamps
    • H04J3/0667Bidirectional timestamps, e.g. NTP or PTP for compensation of clock drift and for compensation of propagation delays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J3/00Time-division multiplex systems
    • H04J3/02Details
    • H04J3/06Synchronising arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J3/00Time-division multiplex systems
    • H04J3/02Details
    • H04J3/06Synchronising arrangements
    • H04J3/0635Clock or time synchronisation in a network
    • H04J3/0638Clock or time synchronisation among nodes; Internode synchronisation
    • H04J3/0658Clock or time synchronisation among packet nodes
    • H04J3/0661Clock or time synchronisation among packet nodes using timestamps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W56/00Synchronisation arrangements
    • H04W56/001Synchronization between nodes

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Nach einem ersten Aspekt der Erfindung wird ein Verfahren zum Synchronisieren von mindestens zwei Umfeldsensoren eines Multisensorsystems mit einer zentralen Recheneinheit vorgeschlagen, welches die folgenden Schritte aufweist: Zunächst werden durch die Umfeldsensoren Sensorsignale erfasst, die mindestens eine Umfeldinformation repräsentieren. In einem nächsten Schritt werden durch die jeweiligen Umfeldsensoren Datenpakete erzeugt, welche die jeweils erfassten Sensorsignale und/oder aus den Sensorsignalen abgeleitete Messgrößen umfassen. In einem weiteren Schritt werden diese Datenpakete von der zentralen Recheneinheit über ein Datennetzwerk empfangen. Erfindungsgemäß werden Signallaufzeiten der Datenpakete für jeden Umfeldsensor mittels eines Algorithmus ermittelt, wobei eine mittlere Signallaufzeit von Datenpaketen eines jeweiligen Umfeldsensors basierend auf einem inhaltlichen Vergleich der von den Datenpaketen umfassten Messgrößen mit entsprechenden Messgrößen aus Datenpaketen mindestens eines anderen Umfeldsensors bestimmt werden und die bestimmte mittlere Signallaufzeit dem jeweiligen Umfeldsensor zugeordnet wird.

Description

  • Die Erfindung betrifft ein Verfahren zur Ermittlung von Signallaufzeiten, sowie ein System zur Fusion von Sensordaten mindestens zweier Sensoren zur Objekterkennung, in dem ein derartiges Verfahren zum Einsatz kommt. Die Erfindung betrifft ferner ein Computerprogramm.
  • Stand der Technik
  • In sogenannten Multisensor-Systeme werden mehrere Umfeldsensoren zur Erfassung einer Umgebung, beispielsweise eines Fahrzeugs eingesetzt. In herkömmlichen System werden die Sensoren in jeweiliger Nähe zueinander verbaut (zB Video + Radar im Fahrzeug), wodurch Laufzeitunterschiede nur in minimalen Bereichen entstehen. Seriensysteme werden zudem so konzipiert, dass Laufzeitunterschiede konstant und bekannt sind, d.h. diese können bei der Auswertung und Sensordatenfusion in einfacher Weise herausgerechnet werden.
  • Andere verteile Sensorsysteme, z.B. Überwachungskameras, verfügen über NTP (Network Time Protocol) oder ähnliche Möglichkeiten zum Synchronisieren der internen Uhrzeit.
  • Neuartige, komplex verteilte Sensorsysteme, bestehend nicht nur aus unterschiedlichen Sensorsystemen, sondern auch über große Flächen verteilt angeordnete Sensoren (z.B. mehrere Autobahntunnel) benötigen wiederum komplexe Netzwerkarchitekturen, da einfache Ethernetverbindungen aufgrund Kabellängenbeschränkung etc. hier eventuell nicht mehr möglich sind. Die benötigten Switches, Konverter, Funkverbindungen etc. führen nicht nur zu höheren, sondern auch variablen oder unbekannten Veränderungen der Signallaufzeiten.
  • Derartige Multi-Sensor Systeme können z.B. zur infrastrukturgestützten Unterstützung für teil- oder vollautomatisierte Fahrzeuge eingesetzt werden, um beispielsweise die verschiedenen Stärken von unterschiedlichen Typen von Umfeldsensoren zu ergänzen, z.B. eine hohe laterale Präzision von Kameras zusammen mit einer hohen longitudinalen Präzision einer Radarsensorik. Weiterhin kann mittels eines Multi-Sensor Systems meist ein größerer Sichtbereich abgedeckt werden, als mit einem Einzelsensor. Ferner sind Multi-Sensor Systeme geeignet, um bestimmte Sicherheitsanforderungen zu erfüllen, z.B. die redundante Objektdetektion durch unabhängige, auf verschiedenen physikalischen Messprinzipien beruhende Sensortypen.
  • Ein solches Multi-Sensor System umfasst üblicherweise eine Vielzahl von Umfeldsensoren, die die von ihnen erfassten Mess- bzw. Objektdaten in Form von Datenpaketen über ein Datennetzwerk an eine zentrale Recheneinheit (Fusionsserver) schicken, wo die Mess- bzw. Objektdaten beispielsweise weiterverarbeitet und fusioniert werden können. Die Signallaufzeiten der Datenpakete sind in der Regel für jeden der beteiligten Umfeldsensoren unterschiedlich, was beispielsweise durch die Netzwerkarchitektur (z.B. Kabellänge, Switches, Firewalls, VPN, ...) und/oder durch die Signalverarbeitung des Umfeldsensors bedingt sein kann.
  • Unter der Voraussetzung, dass die Umfeldsensoren zuvor, z.B. per NTP (Network Time Protocol) miteinander synchronisiert wurden, treffen von jedem Umfeldsensor gesendete Datenpakete jeweils mit einem absoluten Zeitstempel tStamp ein. Alternativ, bei bekannten Signallaufzeiten dt, kann im Modul der zentralen Recheneinheit dieser Zeitstempel im Nachhinein berechnet werden durch tStamp := tNow - dt, wobei tNow den Zeitpunkt des Eintreffens des Datenpakets bezeichnet.
  • Um die Mess- bzw. Objektdaten nach dem Eintreffen in der zentralen Recheneinheit weiterzuverarbeiten, werden die gemessenen Daten (z.B. Objektpositionen) üblicherweise mittels Prädiktion / Retrodiktion vorab auf gleiche Zeitstempel umgerechnet. Danach können Fusionsalgorithmen etc. eingesetzt werden.
  • In realen Aufbauten verfügen manche, insbesondere einfach aufgebaute Umfeldsensoren oft nicht über einen derartigen NTP Mechanismus o.ä., und die Signallaufzeiten dt sind unbekannt oder sogar variabel. Eine mögliche Strategie ist es dann beispielsweise, die Signallaufzeit zu ignorieren, und Zeitstempel beim Eintreffen des jeweiligen Datenpakets zu vergeben: tStamp := tNow.
  • Aus Erfahrung sind Laufzeiten der Größenordnung dt = 10...50 ms realistisch. Werden z.B. schnelle Objekte erfasst, z.B. Fahrzeuge auf einer Autobahn mit Geschwindigkeiten bis zu v = 180 km/h, kann dies im schlechtesten Fall eine Abweichung von bis zu 2,5 Metern erzeugen. Die Fusion von Daten mit einer solch großen Unschärfe kann dadurch stark beeinträchtigt werden, und die resultierende Genauigkeit der fusionierten Objektposition genauso.
  • Hierdurch können schlimmstenfalls sogenannte „false negative Events“ entstehen, wenn z.B. zur Konfidenzermittlung eine Übereinstimmung zweier Sensorkonzepte benötigt wird. Ein entsprechendes System könnte also im schlimmsten Fall nicht eingreifen, und ein eventueller Unfall besonders bei schnellen Fahrzeugen kann nicht verhindert werden.
  • Aus der CN 104035752 A ist ein fahrzeugbasiertes Multi-Sensorsystem bekannt.
  • Die DE 11 2011 100 223 T5 offenbart die Zeitsynchronisation von durch mehrere Messgeräte durchgeführten Messungen.
  • Die DE 10 2017 108 765 A1 offenbart Vorrichtungen, Verfahren und Computerprogramme zum Ermitteln und Übertragen in einem Mobilkommunikationssystem und ein System zum zeitsynchronen Abtasten.
  • Eine Aufgabe der Erfindung kann daher darin gesehen werden, eine Möglichkeit zu schaffen, Signallaufzeiten von nicht vorab synchronisierten Umfeldsensoren eines vernetzten Sensorsystems zuverlässig zu bestimmen.
  • Offenbarung der Erfindung
  • Nach einem ersten Aspekt der Erfindung wird ein Verfahren zum Synchronisieren von mindestens zwei Umfeldsensoren eines Multisensorsystems mit einer zentralen Recheneinheit vorgeschlagen, welches die folgenden Schritte aufweist: Zunächst werden durch die Umfeldsensoren Sensorsignale erfasst, die mindestens eine Umfeldinformation repräsentieren. Insbesondere können die Sensorsignale Informationen über ein oder mehrere Objekte im Umfeld des Umfeldsensors umfassen. Die Umfeldsensoren können beispielsweise stationär an einer Straße oder einer Verkehrsinfrastruktur angeordnet sein. Die Umfeldsensoren können beispielsweise Radarsensoren und/oder Lidarsensoren und/oder Kameras umfassen, wobei beispielsweise mindestens zwei der Umfeldsensoren unterschiedlich ausgebildet sind. Es ist jedoch ebenso möglich, dass die Umfeldsensoren gleichartig ausgebildet sind.
  • Die Umfeldsensoren können beispielsweise stationär innerhalb einer Infrastruktur angeordnet sein, beispielsweise an einer Fahrbahn oder im Bereich einer Tunneleinfahrt oder innerhalb eines Tunnels. Alternativ oder zusätzlich können manche oder alle der Umfeldsensoren beispielsweise an einem Fahrzeug angeordnet sein. Die zentrale Recheneinheit kann ebenfalls stationär ausgebildet sein, beispielsweise als Server oder als sogenannte RSU (Road Side Unit).
  • In einem nächsten Schritt werden durch die jeweiligen Umfeldsensoren Datenpakete erzeugt, welche die jeweils erfassten Sensorsignale und/oder aus den Sensorsignalen abgeleitete Messgrößen umfassen.
  • In einem weiteren Schritt werden diese Datenpakete von der zentralen Recheneinheit über ein Datennetzwerk empfangen. Das Datennetzwerk kann drahtgebundene und/oder drahtlose Datenübertragungswege aufweisen.
  • Erfindungsgemäß werden Signallaufzeiten der Datenpakete für jeden Umfeldsensor mittels eines Algorithmus ermittelt, wobei eine mittlere Signallaufzeit von Datenpaketen eines jeweiligen Umfeldsensors basierend auf einem inhaltlichen Vergleich der von den Datenpaketen umfassten Messgrößen mit entsprechenden Messgrößen aus Datenpaketen mindestens eines anderen Umfeldsensors bestimmt werden und die bestimmte mittlere Signallaufzeit dem jeweiligen Umfeldsensor zugeordnet wird.
  • Mit anderen Worten erfolgt ein Vergleich der von zwei verschiedenen Umfeldsensoren erfassten Messgrößen wobei ein Zeitversatz dt bestimmt wird, für den die Messgrößen z.B. innerhalb einer gewissen Fehlertoleranz übereinstimmen. Dieser Zeitversatz dt beschreibt dann den relativen Unterschied in der Signallaufzeit der beiden betrachteten Umfeldsensoren. Um den Zeitversatz dt zu bestimmen, können an sich bekannte Verfahren, beispielsweise ein Matching-Algorithmus in Verbindung mit einer Outlier-Detection verwendet werden, alternativ ein Verfahren basierend auf Kreuzkorrelation oder ähnliches.
  • Die Messgrößen, die gemäß der Erfindung inhaltlich miteinander verglichen werden, können beispielsweise einen Abstand zu einem Objekt und/oder eine Objektposition und/oder eine Geschwindigkeit eines Objekts und/oder eine Objektklasse und/oder eine Objektform und/oder eine Objekthöhe umfassen.
  • Bevorzugt kann nun basierend auf dem bestimmten Zeitversatz dt jedes Datenpaket mit einem korrigierten Zeitstempel versehen werden, wobei der korrigierte Zeitstempel mittels der ermittelten mittleren Signallaufzeit für den jeweiligen Umfeldsensor bestimmt wird, der das Datenpaket sendet. Ein sich gegebenenfalls anschließender Fusionsschritt kann auf Basis der korrigierten Zeitstempel erfolgen, was die Qualität und Zuverlässigkeit einer Sensordatenfusion erhöht.
  • Besonders bevorzugt wird einer der Umfeldsensoren als Referenzsensor ausgewählt und Signallaufzeiten der Datenpakete der anderen Umfeldsensoren werden basierend auf einem inhaltlichen Vergleich von Messgrößen mit entsprechenden, durch den Referenzsensor erfassten Messgrößen bestimmt. Ein korrigierter Zeitstempel der Datenpakete kann nun jeweils relativ bezüglich des Referenzsensors bestimmt werden. Eine Signallaufzeit zwischen dem Referenzsensor und der zentralen Recheneinheit kann vorab bestimmt werden, insbesondere mittels Network Time Protocol (NTP), wobei den Datenpaketen des Referenzsensors ein absoluter Zeitstempel basierend auf dieser Signallaufzeit zugeordnet wird. Damit kann dem Referenzsensor eine absolute Zeitbasis zugeordnet werden.
  • In einer bevorzugten Ausführung der Erfindung können mittlere Signallaufzeiten der Datenpakete für die Umfeldsensoren mittels eines Matching-Algorithmus berechnet werden. Hierbei wird für jeden Umfeldsensor durch Vergleich der eintreffenden Datenpakete mit den eintreffenden Datenpaketen eines Referenz-Umfeldsensors die Signallaufzeit ermittelt.
  • Besonders bevorzugt erfolgt die Ermittlung der Signallaufzeiten, indem für zumindest ein Paar von Umfeldsensoren eine Menge von Quadrupeln aus durch einen ersten Umfeldsensor erfasste Messgröße x1, zugehörige unkorrigierte, erster Messzeit t1, durch einen zweiten Umfeldsensor erfasste Messgröße x2, zugehörige unkorrigierte, zweiter Messzeit t2, bestimmt wird für die gilt,
    • • dass die erste Messgröße und die zweite Messgröße: x1 = x2 (z.B. durch Interpolation der Messwerte) und
    • • dass der Unterschied zwischen der unkorrigierten, ersten Messzeit t1 und der unkorrigierten, zweiten Messzeit t2 kleiner als ein vorgegebener Grenzwert c ist: | t 1 t 2 | < c ,
      Figure DE102021203976A1_0001
      und
    • • dass zu der ersten Messzeit t1 keine weiteren Sensorsignale durch den ersten Umfeldsensor erfasst wurden, die eine Messgröße nahe (innerhalb eines Intervalls x1 ± d) der ersten Messgröße ergeben und dass zu der zweiten Messzeit t2 keine weiteren Sensorsignale durch den zweiten Umfeldsensor erfasst wurden, die eine Messgröße nahe (innerhalb eines Intervalls x2 ± d) der zweiten Messgröße ergeben, d.h. weder (x1', t1) mit |x1 - x1'| <d noch (x2', t2) mit |x2 - x2'| <d gilt,
    wobei für jedes der gefundenen Quadrupel, die diese Bedingungen erfüllen, eine Signallaufzeitdifferenz aus der ersten Messzeit und der zweiten Messzeit gebildet wird: dt1,2 = t1-t2, = dt1 - dt2
    und eine mittlere Laufzeitdifferenz dt1,2,final als ein Mittelwert der Signallaufzeitdifferenzen über alle gefundenen Quadrupel berechnet wird und wobei der erste Umfeldsensor als Referenzsensor gewählt wird und die mittlere Laufzeitdifferenz als Signallaufzeit des zweiten Umfeldsensors bestimmt wird.
  • Hierbei kann z.B. hypothetisch angenommen werden, dass die Signallaufzeit dt1 oder dt2 = 0 ist. Die eintreffenden Datenpakete des andere Umfeldsensors können mit einem bezüglich des Referenzsensors korrigierten Zeitstempel versehen werden. Wird z.B. der zweite Umfeldsensor als Referenzsensor gewählt, so gilt dt2 = 0 und t1 = t2 + dt1,2,final.
  • Nach einem zweiten Aspekt der Erfindung wird ein Verfahren zur Fusion von Sensorsignalen von mindestens zwei Umfeldsensoren mittels einer zentralen Recheneinheit vorgeschlagen, umfassend die Schritte
    • • Erfassen von Sensorsignalen, die mindestens eine Umfeldinformation repräsentieren durch die Umfeldsensoren,
    • • Erzeugen von Datenpaketen umfassend die jeweils erfassten Sensorsignale und/oder aus den Sensorsignalen abgeleitete Messgrößen durch die Umfeldsensoren, wobei für jeden Umfeldsensor eine mittlere Signallaufzeit gemäß einem Verfahren nach dem ersten Aspekt der Erfindung;
    • • Empfangen der Datenpakete der Umfeldsensoren von der zentralen Recheneinheit über ein Datennetzwerk, wobei jedem Datenpaket basierend auf der mittleren Signallaufzeit des jeweiligen Umfeldsensor ein Zeitstempel zugeordnet wird;
    • • Fusionieren der von den Datenpaketen umfassten Sensordaten basierend auf dem jeweiligen Zeitstempel.
  • Nach einem dritten Aspekt der Erfindung wird ein Multisensor-System zur Fusion von Sensordaten zur Objekterkennung vorgeschlagen, das mindestens zwei Umfeldsensoren und eine zentrale Recheneinheit aufweist. Die zentrale Recheneinheit, die auch als Fusionsserver bezeichnet werden kann ist ausgebildet, die Umfeldsensoren mittels eines Verfahrens gemäß dem ersten Aspekt der Erfindung zu synchronisieren und die von den Umfeldsensoren gesendeten Datenpaketen umfassten Sensordaten basierend auf ermittelten Signallaufzeiten zu fusionieren.
  • Die Erfindung erlaubt vorteilhaft die Ermittlung von Signallaufzeiten in einem Multisensor- und Fusionssystem mit komplexer, teils unbekannter Netzwerkarchitektur. Dank der präzisen, datengetriebenen Ermittlung der Signallaufzeiten können Datenpakete von verschiedenen und beliebigen Sensoren auf eine gemeinsame Zeitbasis umgerechnet werden.
  • Die Erfindung ermöglicht so eine optimierte Fusion der Messergebnisse mehrerer Umfeldsensorsysteme, besonders bei Detektion von schnell bewegten Objekte. Weiterhin wird eine hohe Messgüte, auch unabhängig von der Fusion, erreicht, da Messfehler, die durch eine fehlerbehaftete Signallaufzeit entstehen würden, eliminiert werden. Weiterhin ermöglicht die Erfindung die Vermeidung von sogenannten „False Positives“: Wenn ein Fusionsalgorithmus z.B. aufgrund von durch fehlerbehaftete Signallaufzeiten verursachten Messfehlern zwischen zwei Messungen kein Matching und damit keine Zusammenführung der Sensorsignale oder Messgrößen erzielen kann, bleiben je nach Design im Allgemeinen beide Messungen erhalten, so dass eine der Messung überflüssig ist und zu ungewünschten Reaktionen führen kann (z.B. autonome Notbremsung). Die Erfindung erlaubt außerdem ein Monitoring des Gesamtsystems durch Überwachung der Signallaufzeiten auf Veränderungen hin.
  • Falls im Gesamtsystem auch nur ein Umfeldsensor mit einer absoluten Zeitbasis ausgestattet ist, kann dieser als Referenz verwendet werden, um mit dem beschriebenen Verfahren alle verbundenen Sensoren ebenfalls dieselbe Zeitbasis (z.B. Atomzeit) einzustellen. Dank den im vorgestellten Verfahren ermittelten einzelnen Signallaufzeiten dt ist ein Abgleich mit der lokalen Uhrzeit und folgende Korrektur trivial.
  • Die erfindungsgemäße Ermittlung der Signallaufzeiten kann bevorzugt nicht nur einmalig geschehen. Läuft das Verfahren permanent mit, und die Signallaufzeiten der beteiligten Umfeldsensoren werden ständig neu bestimmt, kann insbesondere sichergestellt werden, dass beispielsweise bei einer Umkonfiguration des Datennetzwerks schnell die neuen korrigierten Laufzeiten und somit auch korrigierte Zeitstempel ermittelt werden. Große Abweichungen der relativen Signallaufzeiten können so beispielsweise zur Diagnose verwendet werden, um zum Beispiel einen Systemzustand als unsicher zu klassifizieren und entsprechende Maßnahmen zu ergreifen. Weitere Anwendungen mit deutlich größeren Signallaufzeiten, z.B. auch über drahtlose Datenverbindungen (z.B. Funkverbindungen) sind denkbar.
  • Figurenliste
  • Unter Bezugnahme auf die beigefügten Figuren werden Ausführungsformen der Erfindung im Detail beschrieben.
    • 1 zeigt schematisch ein Multisensor-System zur Fusion von Sensordaten zur Objekterkennung nach einem Ausführungsbeispiel der Erfindung.
    • 2 zeigt beispielhaft ein Diagramm von mittels eines Multisensor-System zur Fusion von Sensordaten zur Objekterkennung gemäß der Erfindung erfassten Messgrößen über der Zeit.
    • 3 zeigt ein Ablaufdiagramm eines Verfahrens zum Synchronisieren von zwei Umfeldsensoren eines Multisensorsystems gemäß einem Ausführungsbeispiel der Erfindung.
    • 4 zeigt ein Ablaufdiagramm eines Verfahrens zur Fusion von Sensorsignalen von zwei Umfeldsensoren gemäß einem Ausführungsbeispiel der Erfindung.
  • Bevorzugte Ausführungen der Erfindung
  • In der nachfolgenden Beschreibung der Ausführungsbeispiele der Erfindung werden gleiche Elemente mit gleichen Bezugszeichen bezeichnet, wobei auf eine wiederholte Beschreibung dieser Elemente gegebenenfalls verzichtet wird. Die Figuren stellen den Gegenstand der Erfindung nur schematisch dar.
  • 1 zeigt ein Multisensor-System 10 zur Fusion von Sensordaten zur Objekterkennung nach einem Ausführungsbeispiel der Erfindung. Das Multisensorsystem 10 umfasst in diesem Beispiel zwei Umfeldsensoren 12, 14, wobei der erste Umfeldsensor 12 als Kamerasensor ausgebildet ist und der zweite Umfeldsensor 14 als Radarsensor ausgebildet ist. Die Umfeldsensoren 12, 14 sind in diesem Beispiel stationär innerhalb einer Straßen-Infrastruktur angeordnet und erfassen Objekte 50, beispielsweise Verkehrsteilnehmer, die sich innerhalb eines bestimmten Bereichs einer Straße bzw. Fahrbahn bewegen. Beispielsweise können die Umfeldsensoren einen Einfahrtsbereich eines Tunnels erfassen und/oder das Innere eines Tunnels. Im Rahmen der Erfindung ist es alternativ jedoch auch denkbar, dass einer oder mehrere Umfeldsensoren des Multisensor-Systems nicht-stationär, also beispielsweise an Bord eines Fahrzeugs angeordnet sind.
  • Die von den Umfeldsensoren 12 und 14 erfassten Sensorsignale repräsentieren Umfeldinformationen, beispielsweise Informationen über Positionen von Objekten im jeweiligen Erfassungsbereich der Umfeldsensoren 12 und 14. Aus den erfassten Sensorsignalen lassen sich Messgrößen ableiten, die die Umfeldinformationen charakterisieren, z.B. ein Abstand zwischen dem jeweiligen Umfeldsensor 12, 14 und einem Objekt 50. Die Sensorsignale und/oder die daraus abgeleiteten Messgrößen werden von dem jeweiligen Umfeldsensor 12, 14 an eine zentrale Recheneinheit 30 in Form von Datenpaketen 22, 24 über ein Datennetzwerk 40 gesendet. Die zentrale Recheneinheit 30 ist ausgebildet, die von den Datenpaketen 22, 24 umfassten Umfeldinformationen zusammenzuführen (zu fusionieren) und so beispielsweise ein umfassendes und zuverlässiges Umfeldmodell zu erstellen.
  • Bedingt durch die spezifische Netzwerkarchitektur (Kabellänge, Switches, Firewalls, VPN, ...) des Datennetzwerks 40 kommen die Datenpakete 22, 24 üblicherweise mit unterschiedlichen Zeitverzögerungen dtRadar und dtKamera an der zentralen Recheneinheit 30 an. Um die Daten nach dem Eintreffen in der zentralen Recheneinheit 30 weiterzuverarbeiten, müssen die Daten vor der Fusion auf gleiche Zeitstempel umgerechnet werden.
  • Im vorliegenden Beispiel ist der erste Umfeldsensor 12 (Kamerasensor) per NTP (Network Time Protocol) vorab synchronisiert worden, so dass die Datenpakete 22 einen absoluten Zeitstempel tstamp aufweisen. Der zweite Umfeldsensor 14 ist im vorliegenden Bild nicht vorab synchronisiert worden, so dass zunächst eine genaue Signallaufzeit der Datenpakete 24 durch das Datennetzwerk 40 ermittelt werden muss.
  • Erfindungsgemäß werden Signallaufzeiten der Datenpakete 24 für den zweiten Umfeldsensor 14 mittels eines Algorithmus ermittelt, indem die von den Datenpaketen 24 umfassten Messgrößen inhaltlich mit den von den Datenpakten 22 des ersten Umfeldsensors 12 umfassten Messgrößen verglichen werden. Im vorliegenden Beispiel wird von beiden Umfeldsensoren 12 und 14 als Messgröße ein zeitabhängiger Abstand d zu einem Objekt 50 bestimmt. Die gemessenen Abstände können nach Umrechnung in ein einheitliches Koordinatensystem verglichen werden und eine mittlere Signallaufzeit relativ zu dem absoluten Zeitstempel tstamp des ersten Umfeldsensors 12 bestimmt werden.
  • Dieses Vorgehen ist in 2 näher erläutert. 2 zeigt ein Diagramm möglicher durch die Umfeldsensoren 12 und 14 erfasster Messgrößen. Hierbei treffen der zentralen Recheneinheit 30 von den Umfeldsensoren 12 und 14 gesendete Datenpakete umfassend Messgrößen ein ein, wobei die Zeitstempel für jeden Messwert zunächst einfach dem Zeitpunkt des Eintreffens des Datenpakets in der zentralen Recheneinheit 30 entsprechen. Von dem ersten Umfeldsensor 12 (dem Kamerasensor) werden die Messkurven 212', 212'', 212''' empfangen, die zeitabhängige Distanzen zu drei erfassten Objekten im Erfassungsbereich der Umfeldsensoren 12, 14 repräsentieren. Jeder Messpunkt hat die Koordinate (dxKamera, tStampKamera,Receive). Von dem zweiten Umfeldsensor 14 (dem Radarsensor) werden die Messkurven 214', 214'', 214''' empfangen, die ebenfalls zeitabhängige Distanzen zu denselben drei erfassten Objekten im Erfassungsbereich der Umfeldsensoren 12, 14 repräsentieren. Jeder Messpunkt hat die Koordinate (dxRadar, tStampRadar,Receive).
  • Die drei erfassten Objekte, bei denen es sich beispielsweise um Fahrzeuge handeln kann, entfernen sich in diesem Beispiel mit konstanter Geschwindigkeit von der Sensorik (dh. dx nimmt zu). Stark betont dargestellt ist der zeitliche Versatz dt', dt'', dt''' zwischen dem Eintreffen der Kameradaten und den deutlich späteren Radardaten. Die Signallaufzeiten der Umfeldsensoren 12 und 14 werden mit dtKamera und dtRadar bezeichnet.
  • Per Definition gilt: t StampKamera + dt Kamera = t StampKamera , Receive
    Figure DE102021203976A1_0002
    t StampRadar + dt Radar = t StampRadar , Receive
    Figure DE102021203976A1_0003

    wobei tStampKamera, dtKamera, tStampRadar und dtRadar zunächst unbekannt sind. Im ersten Schritt werden noch keine absoluten Zeitstempel in Betracht gezogen, dh. die Umfeldsensoren 12 und 14 werden zunächst untereinander synchronisiert.
  • Es werden dazu die jeweiligen Signallaufzeiten dtRadar und dtKamera bis auf eine additive Konstante bestimmt: Gesucht ist der zeitliche Versatz dtRadar,Kamera = dtRadar - dtKamera
  • Hierfür kann ein bekannter Matching-Algorithmus in Verbindung mit einer Outlier-Detection verwendet werden, alternativ kann ein Verfahren basierend auf Kreuzkorrelation oder ähnlichem eingesetzt werden. Die genaue Wahl des Algorithmus soll hier nicht eingeschränkt werden, aber zur Veranschaulichung dient folgende Möglichkeit:
    • Bestimmt wird mittels dem Matching-Algorithmus zunächst eine hinreichend große Menge von Quadrupeln (dxRadar, tKamera,Receive, dXKamera, tRadar,Receive) für die die folgenden Bedingungen erfüllt sind:
      • - dxRadar = dxKamera (falls keine übereinstimmenden Messwerte für die Distanz d vorliegen, können diese z.B. durch Interpolation ermittelt werden)
      • - |tRadar,Receive - tKamera,Receive| < c,
      • - es gibt zum selben Zeitpunkt KEINE weiteren Messungen in der räumlichen Umgebung, um Fehlmatches zu vermeiden, dh weder (dx'Radar, tRadar,Receive) mit |dxRadar - dx'Radar| < d noch (dx'Kamera, tKamera,Receive) mit |dxKamera - dx'Kamera| < d
      wobei c, und d vorab bestimmte Schwellenwerte beschreiben.
  • In einem nächsten Schritt werden für jedes dieser Quadrupel (Matches) die jeweiligen Signallaufzeitdifferenzen dtRadar,Kamera = dtRadar - dtKamera = tRadar - tKamera berechnet.
  • Nun kann die Laufzeitdifferenz dtRadar,Kamera durch Mittelung, z.B. als Median, einer hinreichend über die Zeit verteilten Menge aus Einzelresultate aus dem vorhergehenden Schritt berechnet werden.
  • Im Folgenden kann der erste Umfeldsensor 12 (Kamerasensor) wird als Referenz gewählt werden. Es wird vorerst hypothetisch angenommen, dass die Signallaufzeit dtKamera = 0 ist. Die zum Zeitpunkt tNow eintreffenden Datenpakete des zweiten Umfeldsensors 14 (Radardaten) können nun mit einem relativ zum ersten Umfeldsensor 12 korrigierten Zeitstempel tRadar,Kamera versehen werden: t Radar , Kamera : = t Now dt Radar , Kamera
    Figure DE102021203976A1_0004
  • Durch NTP oder ähnliche Mechanismen kann gewährleistet werden, dass der erste Umfeldsensor 12 (oder ein beliebiger anderer Referenzsensor im System) zeitsynchron zum Fusionsserver ist. Somit können für alle eintreffenden Sensorpakete 22, 24 final die korrekten Zeitstempel in der Zeitbasis des Fusionsservers vergeben werden:
    • Dazu wird zunächst dtKamera bestimmt, indem bei Versand der Datenpakete 22 in dem ersten Umfeldsensor 12 ein interner Zeitstempel tKamera,Send vergeben wird.
    • dtKamera kann dann dank der synchronisierten Zeitgebder des ersten Umfeldsensors 12 und der zentralen Recheneinheit 30 direkt „abgelesen“ werden als dtKamera := tKamera,Receive - tKamera,Send
  • Auch hierbei ist es vorteilhaft, mehrere Messungen gemittelt, z.B. via Median, zu betrachten, um größere Stabilität zu erzielen.
  • Nun kann auch für den nicht über NTP synchronisierten Umfeldsensor 14, im Beispiel also den Radarsensor, die tatsächliche, absolute Signallaufzeit bestimmt werden: dtRadar = dtRadar,Kamera + dtKamera
  • Dank der nun bekannten Signallaufzeiten kann beim Eintreffen jedes Datenpakets in der zentralen Recheneinheit 30 der korrekte Zeitstempel in der Zeitbasis der zentralen Recheneinheit 30 vergeben werden: t Radar , Measured : = t Radar , Received dt Radar tKamera , Measured : = t Camera , Received dt Kamera
    Figure DE102021203976A1_0005
    (entsprechend tKamera,Send, bis auf minimale Schwankungen, falls sich die Signallaufzeiten ändern)
  • Dieses Prinzip kann im Rahmen der Erfindung auf allgemeine Szenarien mit mehr als zwei Umfeldsensoren übertragen werden: Die zuvor beschriebene Bestimmung der Signallaufzeitdifferenz dtRadar,Kamera wird bei mehreren Umfeldsensoren auf jeden einzelnen Umfeldsensor angewandt, dh. es wird beispielsweise immer die Signallaufzeitdifferenz zu einem ersten, ausgewählten Umfeldsensor bestimmt, der als Referenzsensor dient. Alternativ ist ein randomisiertes Matching mit zufällig ausgewählten Paaren von Umfeldsensoren oder ein vollständiges Matching aller Umfeldsensoren zueinander denkbar. Dies erfordert zwar einen höheren Rechenaufwand, kann aber die Stabilität des Systems erhöhen.
  • In 3 ist ein Ausführungsbeispiel eines erfindungsgemäßen Verfahrens zum Synchronisieren von zwei Umfeldsensoren eines Multisensorsystems mittels einer zentralen Recheneinheit, als Ablaufdiagramm dargestellt. In einem ersten Schritt 310 werden Sensorsignale, die mindestens eine Umfeldinformation repräsentieren durch die Umfeldsensoren erfasst. In einem zweiten, darauffolgenden Schritt 320 werden Datenpakete erzeugt, die die jeweils erfassten Sensorsignale und/oder aus den Sensorsignalen abgeleitete Messgrößen durch die Umfeldsensoren erzeugt. In einem darauffolgenden dritten Schritt 330 werden die Datenpakete der Umfeldsensoren von der zentralen Recheneinheit über ein Datennetzwerk empfangen. In einem vierten Schritt 340 werden Signallaufzeiten der Datenpakete für jeden Umfeldsensor mittels eines Algorithmus ermittelt, wobei eine mittlere, relative Signallaufzeit von Datenpaketen eines der Umfeldsensoren basierend auf einem inhaltlichen Vergleich der von den Datenpaketen umfassten Messgrößen mit entsprechenden Messgrößen aus Datenpaketen des anderen Umfeldsensors bestimmt wird und die bestimmte mittlere relative Signallaufzeit dem jeweiligen Umfeldsensor zugeordnet wird.
  • In 4 ist ein Ausführungsbeispiel eines erfindungsgemäßen Verfahrens zur Fusion von Sensorsignalen von zwei Umfeldsensoren mittels einer zentralen Recheneinheit mittels einer zentralen Recheneinheit, als Ablaufdiagramm dargestellt. In einem ersten Schritt werden Sensorsignale, die mindestens eine Umfeldinformation repräsentieren durch die Umfeldsensoren erfasst. In einem zweiten Schritt 420 werden Datenpaketen umfassend die jeweils erfassten Sensorsignale und/oder aus den Sensorsignalen abgeleitete Messgrößen durch die Umfeldsensoren erzeugt, wobei für jeden Umfeldsensor eine mittlere Signallaufzeit gemäß einem Verfahren nach dem ersten Aspekt der Erfindung bestimmt wird. In einem folgenden Schritt 430 werden Datenpakete der Umfeldsensoren von der zentralen Recheneinheit über ein Datennetzwerk empfangen, wobei jedem Datenpaket basierend auf der zuvor ermittelten mittleren Signallaufzeit des jeweiligen Umfeldsensor ein Zeitstempel zugeordnet wird. In einem folgenden Schritt 440 werden die von den Datenpaketen umfassten Sensordaten basierend auf dem jeweiligen Zeitstempel durch die zentrale Recheneinheit fusioniert.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • CN 104035752 A [0012]
    • DE 112011100223 T5 [0013]
    • DE 102017108765 A1 [0014]

Claims (10)

  1. Verfahren zum Synchronisieren von mindestens zwei Umfeldsensoren (12, 14) eines Multisensorsystems (10) mittels einer zentralen Recheneinheit (30), umfassend die Schritte • Erfassen von Sensorsignalen, die mindestens eine Umfeldinformation repräsentieren durch die Umfeldsensoren (12, 14), • Erzeugen von Datenpaketen (22, 24) umfassend die jeweils erfassten Sensorsignale und/oder aus den Sensorsignalen abgeleitete Messgrößen durch die Umfeldsensoren (12, 14); • Empfangen der Datenpakete (22, 24) der Umfeldsensoren von der zentralen Recheneinheit (30) über ein Datennetzwerk (40); gekennzeichnet durch • Ermitteln von Signallaufzeiten der Datenpakete (22, 24) für jeden Umfeldsensor (12,1 4) mittels eines Algorithmus, wobei eine mittlere Signallaufzeit von Datenpaketen (22, 24) eines jeweiligen Umfeldsensors (12,1 4) basierend auf einem inhaltlichen Vergleich der von den Datenpaketen (22, 24) umfassten Messgrößen mit entsprechenden Messgrößen aus Datenpaketen (22, 24) mindestens eines anderen Umfeldsensors (12, 14) bestimmt werden und die bestimmte mittlere Signallaufzeit dem jeweiligen Umfeldsensor (12, 14) zugeordnet wird.
  2. Verfahren nach Anspruch 1, wobei jedes Datenpaket (22, 24) mit einem korrigierten Zeitstempel versehen wird, wobei der korrigierte Zeitstempel mittels der ermittelten mittleren Signallaufzeit für den jeweiligen Umfeldsensor (12,1 4) bestimmt wird, der das Datenpaket (22, 24) sendet.
  3. Verfahren nach einem der Ansprüche 1 oder 2, wobei einer der Umfeldsensoren (12, 14) als Referenzsensor ausgewählt wird und Signallaufzeiten der Datenpakete (22, 24) basierend auf einem inhaltlichen Vergleich von Messgrößen mit entsprechenden, durch den Referenzsensor erfassten Messgrößen bestimmt werden und korrigierte Zeitstempel der Datenpakete jeweils relativ bezüglich des Referenzsensors bestimmt werden.
  4. Verfahren nach Anspruch 3, wobei eine Signallaufzeit zwischen dem Referenzsensor (12) und der zentralen Recheneinheit vorab bestimmt wird, insbesondere mittels Network Time Protocol (NTP) und wobei den Datenpaketen (22) des Referenzsensors ein absoluter Zeitstempel basierend auf der Signallaufzeit zugeordnet wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei das Ermitteln von mittleren Signallaufzeiten der Datenpakete (22, 24) für die Umfeldsensoren (12, 14) mittels eines Matching-Algorithmus erfolgt, wobei für jeden Umfeldsensor (12, 14) die Signallaufzeit anhand eintreffender Datenpakete durch Vergleich mit einem Referenz-Umfeldsensor ermittelt wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, wobei die Messgrößen einen Abstand zu einem Objekt (50) und/oder eine Objektposition und/oder eine Geschwindigkeit eines Objekts (50) und/oder eine Objektklasse und/oder eine Objektform und/oder eine Objekthöhe umfassen.
  7. Verfahren nach einem der vorangehenden Ansprüche, wobei die Ermittlung der Signallaufzeiten erfolgt, indem für zumindest ein Paar von Umfeldsensoren (12, 14) eine Menge von Quadrupeln aus durch einen ersten Umfeldsensor erfasste Messgröße, zugehörige unkorrigierte, erster Messzeit, durch einen zweiten Umfeldsensor erfasste Messgröße, zugehörige unkorrigierte, zweiter Messzeit, bestimmt wird für die gilt, • dass die erste Messgröße und die zweite Messgröße übereinstimmen und • dass der Unterschied zwischen der unkorrigierten, ersten Messzeit und der unkorrigierten, ersten Messzeit kleiner als ein vorgegebener Grenzwert ist, und • dass zu der ersten Messzeit keine weiteren Sensorsignale durch den ersten Umfeldsensor erfasst wurden, die eine Messgröße nahe der ersten Messgröße ergeben und dass zu der zweiten Messzeit keine weiteren Sensorsignale durch den zweiten Umfeldsensor erfasst wurden, die eine Messgröße nahe der zweiten Messgröße ergeben; wobei für jedes der Quadrupel eine Signallaufzeitdifferenz aus der ersten Messzeit und der zweiten Messzeit gebildet wird, und eine mittlere Laufzeitdifferenz als ein Mittelwert der Signallaufzeitdifferenzen berechnet wird und wobei der erste Umfeldsensor (12) als Referenzsensor gewählt wird und die mittlere Laufzeitdifferenz als Signallaufzeit des zweiten Umfeldsensors bestimmt wird.
  8. Verfahren zur Fusion von Sensorsignalen von mindestens zwei Umfeldsensoren (12, 14) mittels einer zentralen Recheneinheit (30), umfassend die Schritte • Erfassen von Sensorsignalen, die mindestens eine Umfeldinformation repräsentieren durch die Umfeldsensoren (12, 14), • Erzeugen von Datenpaketen (22, 24) umfassend die jeweils erfassten Sensorsignale und/oder aus den Sensorsignalen abgeleitete Messgrößen durch die Umfeldsensoren (12, 14), wobei für jeden Umfeldsensor (12, 14) eine mittlere Signallaufzeit gemäß einem Verfahren nach einem der Ansprüche 1 bis 7 bestimmt wird; • Empfangen der Datenpakete (22, 24) der Umfeldsensoren (12, 14) von der zentralen Recheneinheit (30) über ein Datennetzwerk (40), wobei jedem Datenpaket (22, 24) basierend auf der mittleren Signallaufzeit des jeweiligen Umfeldsensors (12, 14) ein Zeitstempel zugeordnet wird; • Fusionieren der von den Datenpaketen (22, 24) umfassten Sensordaten basierend auf dem jeweiligen Zeitstempel.
  9. Multisensor-System (10) zur Fusion von Sensordaten zur Objekterkennung umfassend • mindestens zwei Umfeldsensoren (12, 14); • eine zentrale Recheneinheit (30), die ausgebildet ist, die Umfeldsensoren (12, 14) mittels eines Verfahrens gemäß eines der Ansprüche 1 bis 7 zu synchronisieren und die ausgebildet ist, die von den Umfeldsensoren gesendeten Datenpaketen (22, 24) umfassten Sensordaten basierend auf ermittelten Signallaufzeiten zu fusionieren.
  10. Multisensor-System (10) nach Anspruch 9, wobei mindestens einer der Umfeldsensoren (12, 14) als Radarsensor und/oder Lidarsensor und/oder Kamera ausgebildet ist, wobei insbesondere mindestens zwei der Umfeldsensoren (12, 14) unterschiedlich ausgebildet sind.
DE102021203976.6A 2021-04-21 2021-04-21 Verfahren zur Ermittlung von Signallaufzeiten und System zur Fusion von Sensordaten mindestens zweier Sensoren zur Objekterkennung Pending DE102021203976A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102021203976.6A DE102021203976A1 (de) 2021-04-21 2021-04-21 Verfahren zur Ermittlung von Signallaufzeiten und System zur Fusion von Sensordaten mindestens zweier Sensoren zur Objekterkennung
US17/653,160 US11831404B2 (en) 2021-04-21 2022-03-02 Method for ascertaining signal propagation times, and system for fusing sensor data from at least two sensors for an object detection
ATA50251/2022A AT524964A2 (de) 2021-04-21 2022-04-19 Verfahren zur Ermittlung von Signallaufzeiten und System zur Fusion von Sensordaten mindestens zweier Sensoren zur Objekterkennung
CN202210424388.2A CN115225189A (zh) 2021-04-21 2022-04-21 同步环境传感器的方法、融合传感器信号的方法和融合传感器数据以进行对象识别的系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021203976.6A DE102021203976A1 (de) 2021-04-21 2021-04-21 Verfahren zur Ermittlung von Signallaufzeiten und System zur Fusion von Sensordaten mindestens zweier Sensoren zur Objekterkennung

Publications (1)

Publication Number Publication Date
DE102021203976A1 true DE102021203976A1 (de) 2022-10-27

Family

ID=83507729

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021203976.6A Pending DE102021203976A1 (de) 2021-04-21 2021-04-21 Verfahren zur Ermittlung von Signallaufzeiten und System zur Fusion von Sensordaten mindestens zweier Sensoren zur Objekterkennung

Country Status (4)

Country Link
US (1) US11831404B2 (de)
CN (1) CN115225189A (de)
AT (1) AT524964A2 (de)
DE (1) DE102021203976A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112011100223T5 (de) 2010-01-11 2013-01-24 Faro Technologies, Inc. Verfahren und Vorrichtung zur Synchronisation von durch mehrere messtechnische Geräte durchgeführten Messungen
CN104035752A (zh) 2013-03-04 2014-09-10 江南大学 一种基于视觉物联网的Linux智能车载系统
DE102017108765A1 (de) 2017-04-25 2018-10-25 Smart Mobile Labs AG Vorrichtungen, Verfahren und Computerprogramme zum Ermitteln und Übertragen einer Zeitbasis in einem Mobilkommunikationssystem, System zum Zeitsynchronen Abtasten

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7269097B1 (en) * 2005-10-19 2007-09-11 The United States Of America As Represented By The Secretary Of The Navy Method for recovering data from a large array of lost-cost sensors
US8755469B1 (en) * 2008-04-15 2014-06-17 The United States Of America, As Represented By The Secretary Of The Army Method of spectrum mapping and exploitation using distributed sensors
US10285141B1 (en) * 2012-09-19 2019-05-07 Safeco Insurance Company Of America Data synchronization across multiple sensors
US9178544B1 (en) * 2013-03-07 2015-11-03 The United States Of America, As Represented By The Secretary Of The Army Parameter offset estimation through use of a secondary signal collected from multiple sensors
DE102014211166A1 (de) * 2013-11-20 2015-05-21 Continental Teves Ag & Co. Ohg Verfahren, Fusionsfilter und System zur Fusion von Sensorsignalen mit unterschiedlichen zeitlichen Signalausgabeverzügen zu einem Fusionsdatensatz
DE102014110667A1 (de) * 2014-07-29 2016-02-04 Valeo Schalter Und Sensoren Gmbh Vefahren zum Klassifizieren eines Objektes in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
US10057083B2 (en) * 2015-01-29 2018-08-21 Innowave IP LLC Multi-sensor electromagnetic radiation and mechanical signal fusion
US10120064B2 (en) * 2015-03-19 2018-11-06 Nxp Usa, Inc. Radar system and method with saturation detection and reset
US9935685B2 (en) * 2015-05-28 2018-04-03 Qualcomm Incorporated DC power line synchronization for automotive sensors
WO2017154296A1 (ja) 2016-03-10 2017-09-14 三菱電機株式会社 受信装置及び事象検知時刻の推定方法
US10580301B2 (en) * 2016-03-16 2020-03-03 Kiomars Anvari Moving vehicles in a smart environment
DE102017103660B4 (de) * 2017-02-22 2021-11-11 OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung Verfahren zum betrieb einer lichtquelle für eine kamera, lichtquelle, kamera
DE102017219209A1 (de) * 2017-10-26 2019-05-02 Continental Automotive Gmbh Verfahren zum Erkennen eines fehlerhaften Zeitstempels einer Ethernet-Nachricht und Steuereinheit für ein Kraftfahrzeug
US10826808B2 (en) 2018-01-29 2020-11-03 Denso International America, Inc. Vehicle application enabling and network routing systems implemented based on latency characterization and projection
US11435752B2 (en) * 2018-03-23 2022-09-06 Motional Ad Llc Data fusion system for a vehicle equipped with unsynchronized perception sensors
DE102018216809A1 (de) * 2018-09-28 2020-04-02 Robert Bosch Gmbh Verfahren, Vorrichtung und Sensorsystem zur Umfelderfassung für ein Fahrzeug

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112011100223T5 (de) 2010-01-11 2013-01-24 Faro Technologies, Inc. Verfahren und Vorrichtung zur Synchronisation von durch mehrere messtechnische Geräte durchgeführten Messungen
CN104035752A (zh) 2013-03-04 2014-09-10 江南大学 一种基于视觉物联网的Linux智能车载系统
DE102017108765A1 (de) 2017-04-25 2018-10-25 Smart Mobile Labs AG Vorrichtungen, Verfahren und Computerprogramme zum Ermitteln und Übertragen einer Zeitbasis in einem Mobilkommunikationssystem, System zum Zeitsynchronen Abtasten

Also Published As

Publication number Publication date
AT524964A2 (de) 2022-11-15
CN115225189A (zh) 2022-10-21
US11831404B2 (en) 2023-11-28
US20220345237A1 (en) 2022-10-27

Similar Documents

Publication Publication Date Title
EP3213260B1 (de) Verfahren und vorrichtung zur lokalisierung eines fahrzeugs in seinem umfeld
EP2579601B1 (de) Verfahren und Vorrichtung zum Ermitteln eines Kalibrierparameters einer Stereokamera
EP1412774B1 (de) Verfahren zur zeitlichen synchronisation mehrerer fahrzeugsensoren
DE102017203838A1 (de) Verfahren und System zur Umfelderfassung
DE102016102283A1 (de) Kartendatenbearbeitungsvorrichtung für ein Fahrzeug
DE102018203591B3 (de) Verfahren und System zur Klassifikation von Verkehrsteilnehmern
DE102016218934A1 (de) Verfahren zum Datenaustausch und Datenfusionierung von Umfelddaten
EP2140287A1 (de) Fahrerassistenzsystem und verfahren zur objektplausibilisierung
EP2799901A2 (de) Verkehrsüberwachungssystem zur Geschwindigkeitsmessung und Zuordnung von bewegten Fahrzeugen bei einem Mehrziel-Aufnahmemodul
EP3292547A1 (de) Verfahren zur plausibilisierung von messwerten eines mobilgeräts
DE10143561A1 (de) Verfahren und System zur Lokalisierung von Emittern
DE102012214555A1 (de) Verfahren und System zum Ausgleichen einer Zeitabweichung
DE112016006564T5 (de) Empfänger und Ereigniserfassungszeitpunkt-Schätzungsverfahren
DE102011101359A1 (de) Verfahren und Vorrichtung zur Klassifikation von Daten
WO2013076132A9 (de) Verfahren und vorrichtung zur kommunikationssignalbasierten positionsermittlung von objekten im strassenverkehr sowie verwendung der vorrichtung
DE102019217187A1 (de) Verfahren und Vorrichtung zur Ermittlung von Navigationsinformationen
EP2629115A1 (de) Sensorvorrichtung
EP3510748B1 (de) Verfahren, vorrichtung und computerprogramm zum empfangen, verarbeiten und übertragen von daten
DE102021203976A1 (de) Verfahren zur Ermittlung von Signallaufzeiten und System zur Fusion von Sensordaten mindestens zweier Sensoren zur Objekterkennung
EP3824318A1 (de) Verfahren zur erfassung von umgebungsinformationen mittels mehrerer radarsensoren
WO2023083620A1 (de) Prüfung der umfeldsensorik und/oder umfeldperzeption eines fahrzeugs
WO2019063630A1 (de) Verfahren und einrichtung
DE102019211021B4 (de) Verfahren zum Detektieren eines Zeitversatzes
DE112020002028T5 (de) Bildgebendes system und verfahren
DE102019120519A1 (de) Computer-implementiertes Verfahren und Computerprogrammprodukt zum Test von realen oder virtuellen Steuergeräten

Legal Events

Date Code Title Description
R163 Identified publications notified