DE102018114042A1 - Vorrichtung, verfahren und system zur multimodalen fusionsverarbeitung von daten mit mehreren verschiedenen formaten, die von heterogenen vorrichtungen erfasst wurden - Google Patents

Vorrichtung, verfahren und system zur multimodalen fusionsverarbeitung von daten mit mehreren verschiedenen formaten, die von heterogenen vorrichtungen erfasst wurden Download PDF

Info

Publication number
DE102018114042A1
DE102018114042A1 DE102018114042.8A DE102018114042A DE102018114042A1 DE 102018114042 A1 DE102018114042 A1 DE 102018114042A1 DE 102018114042 A DE102018114042 A DE 102018114042A DE 102018114042 A1 DE102018114042 A1 DE 102018114042A1
Authority
DE
Germany
Prior art keywords
data
fusion
module
multimodal
heterogeneous devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018114042.8A
Other languages
English (en)
Inventor
Shuqing Zeng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102018114042A1 publication Critical patent/DE102018114042A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/30Arrangements in telecontrol or telemetry systems using a wired architecture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/80Arrangements in the sub-station, i.e. sensing device
    • H04Q2209/84Measuring functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Vorrichtung, Verfahren und System zur hybriden multimodalen Datenfusion, um Daten mit mehreren verschiedenen Formaten durch eine zentralisierte Datenfusionsverarbeitung zusammenzuführen und um die zusammengeführten Daten durch eine verteilte Datenverarbeitung an einen Satz heterogener Sensorvorrichtungen zu senden. Die hybride multimodale Datenfusionsvorrichtung umfasst ein multimodales Fusionsmodul, das so konfiguriert ist, dass dieses in einem ersten Modus zusammengeführte Daten mit mehreren unterschiedlichen Formaten empfängt, die von einem Satz heterogener Vorrichtungen erfasst werden und das zum Betrieb in einem zweiten Modus konfiguriert ist, um die zusammengeführten Daten an jede der heterogenen Vorrichtungen zu senden. Ein Zuordnungsmodul zum Zusammenführen von Daten mit mehreren verschiedenen Formaten, die von jeder der heterogenen Vorrichtungen erfasst werden, und zum Senden der zusammengeführten Daten an das multimodale Fusionsmodul. Eine Fusionsstreckendatei zum Speichern zuvor zusammengeführter Daten, um zu ermöglichen, dass das multimodale Fusionsmodul Cueing-Informationen basierend auf den gespeicherten zuvor zusammengeführten Daten an die heterogenen Vorrichtungen sendet.

Description

  • EINLEITUNG
  • Das vorliegende System bezieht sich allgemein auf das Gebiet der Datenfusion und insbesondere auf eine Vorrichtung, ein Verfahren und ein System zur hybriden Datenfusion zum Zusammenführen von Daten mit mehreren verschiedenen Formaten durch eine zentralisierte Datenfusionsverarbeitung und zum Senden der zusammengeführten Daten durch eine verteilte Datenverarbeitung an einen Satz heterogener Sensorvorrichtungen.
  • Die Sensordatenfusion spielt bei fortschrittlichen Sensoren in Pkw und Nutzfahrzeugen eine zentrale Rolle. Ein einzelner eigenständiger Sensor besitzt Einschränkungen bezüglich der Reichweite und des Sichtfeldes und kann möglicherweise keine ausreichende und zuverlässige 360-Grad-Abdeckung bereitstellen. Um die Beschränkungen einzelner Sensoren zu überwinden, werden mehrere Sätze heterogener Sensoren verwendet, um ein vergrößertes Sichtfeld und einen größeren Bereich von Daten über die Fahrumgebung zu erfassen und bereitzustellen. Daher werden im Automobilbereich viele heterogene Sensoren an Bord verwendet, z. B. GPS-, FM-CW-LIDAR- „Lichtdetektions- und Entfernungsmess“-Radare, Impuls- und FSK-Radare sowie CCD-, CMOS- oder andere Kamera-/Videobildmodulsensoren zur Bereitstellung umfangreicherer Daten und eine zuverlässige 360-Grad-Abdeckung der Fahrumgebung.
  • Dementsprechend ist es wünschenswert, eine hybride zentralisierte und verteilte Architektur zu haben, um die von den heterogenen Sensoren erzeugten Daten zusammenzuführen und die von den heterogenen Vorrichtungen empfangenen mehreren Sensordaten mit unterschiedlichen Formaten effizient in einem hybriden internen zentralisierten und verteilten Verarbeitungshub verarbeiten zu können. Zusätzlich können andere Vorteile durch die Datenfusion erhalten werden, da das Zusammenführen der erfassten Daten von verschiedenen heterogenen Sensoren nicht nur die Datenabdeckung über Zustände um ein Fahrzeug erweitert, sondern ebenfalls die Zuverlässigkeit des gesamten Erfassungssystems im Falle von Ausfällen einzelner oder mehrerer Sensoren erhöht. Das heißt, die zusammengeführten Daten liefern überlappende oder redundante Daten zur Verarbeitung von den mehreren Sensoren, was Integritätsprüfungen empfangener Daten ermöglicht.
  • Zusätzlich ist es wünschenswert, zuvor zusammengeführte Daten, die in einer Fusionsstreckendatei gespeichert sind, von den heterogenen Sensoren zu verwenden, um verbesserte Cueing-Lösungen basierend auf den zuvor zusammengeführten Daten zu erzeugen, die an einzelne Sensoren zur Rauschfilterung, zur Anpassung von Sensorerkennungsschwellenwerten sowie zur Anpassung anderer Sensorattribute, wodurch die Genauigkeit und Zuverlässigkeit des Sensors effektiv erhöht wird, verteilt werden.
  • Zusätzlich ist es wünschenswert, ein mehrstufiges Modulschema für jeden der heterogenen Sensoren zu verwenden, um mehrere Datentypen zu zusammenführen, die mittels Prozessen auf Block-, Merkmal- und Sensorebene empfangen werden.
  • Zusätzlich ist es wünschenswert, Fusionskonturmodelle zum Verbessern von Messungen zu erzeugen, die von den heterogenen Sensoren empfangen und an das multimodale Fusionsmodul für eine verbesserte Sensorgenauigkeit übermittelt werden.
  • Weiterhin werden weitere wünschenswerte Merkmale und Eigenschaften der vorliegenden Offenbarung aus der nachfolgenden ausführlichen Beschreibung der Vorrichtung und den beigefügten Ansprüchen, die in Verbindung mit den zugehörigen Zeichnungen und dem Hintergrund der Offenbarung aufgenommen werden, ersichtlich.
  • KURZDARSTELLUNG
  • Eine Vorrichtung wird für eine hybride multimodale Datenfusion bereitgestellt. Die Vorrichtung umfasst ein multimodales Fusionsmodul, das so konfiguriert ist, dass dieses in einem ersten Modus zusammengeführte Daten mit mehreren verschiedenen Formaten empfängt, die von einem Satz heterogener Vorrichtungen erfasst werden und um in einem zweiten Modus zu arbeiten, um die zusammengeführten Daten an jede der heterogenen Vorrichtungen zu senden und ein zugeordnetes Modul zum Zusammenführen der Daten mit mehreren verschiedenen Formaten, die von jeder der heterogenen Vorrichtungen erfasst werden, und zum Senden der zusammengeführten Daten an das multimodale Fusionsmodul; und ferner eine Fusionsstreckendatei zum Speichern der zuvor zusammengeführten Daten, um zu ermöglichen, dass das multimodale Fusionsmodul Cueing-Information, basierend auf den gespeicherten zuvor zusammengeführten Daten, an die heterogenen Vorrichtungen sendet.
  • Es wird ein Verfahren für eine hybride multimodale Datenfusion bereitgestellt. Das Verfahren umfasst das Arbeiten in einem von unten nach oben gerichteten (Bottom-Up-)Modus zum Zusammenführen von Daten, die von einem Satz heterogener Vorrichtungen erfasst wurden und das Arbeiten in einem von oben nach unten gerichteten (Top-Down-)Modus, um zusammengeführte Daten an einen Satz heterogener Vorrichtungen zu verteilen und um des Weiteren zuvor zusammengeführte Daten, die von den heterogenen Vorrichtungen empfangen wurden, zu speichern, um Vorhersagedaten, basierend auf empfangenen und gespeicherten sowie zuvor zusammengeführten Daten, zu erzeugen und um diese an die heterogenen Vorrichtungen zu verteilen, um deren Erfassungsfähigkeiten zu verbessern.
  • Figurenliste
  • Die vorliegende Offenbarung wird nachfolgend in Verbindung mit den folgenden Zeichnungsfiguren beschrieben, worin gleiche Bezugszeichen gleiche Elemente bezeichnen, und
    • 1 ist ein Funktionsblockdiagramm, das ein Sensormanagementsystem in einem Fahrzeug gemäß verschiedenen beispielhaften Ausführungsformen darstellt;
    • 2 ist ein Funktionsblockdiagramm, das ein Mehrebenen-Fusionsdiagramm eines Moduls auf einer Objektebene, einer Merkmalsebene und einer Sensorebene, die mit dem multimodalen Fusionssystem gekoppelt sind, gemäß einer beispielhaften Ausführungsform zeigt;
    • 3 ist ein Funktionsblockdiagramm, das ein hybrides zentralisiertes und verteiltes Architekturdiagramm der Mehrebenen-Bottom-Up- und Top-Down-Fusionsverarbeitung des multimodalen Fusionssystems gemäß einer beispielhaften Ausführungsform zeigt;
    • 4A ist eine Zeitlinie, die eine zeitliche Zusammenführungszeitlinie der multimodalen Zusammenführung der zentralisierten Zusammenführungsarchitektur gemäß einer beispielhaften Ausführungsform zeigt;
    • 4B ist ein Funktionsblockdiagramm, das ein multimodales zeitliches Fusionsschema der zentralisierten Fusionsarchitektur gemäß einer beispielhaften Ausführungsform zeigt;
    • 5 ist ein Funktionsblockdiagramm, das ein Radarverarbeitungsdiagramm des Radarverarbeitungssystems des multimodalen Fusionssystems gemäß einer beispielhaften Ausführungsform darstellt;
    • 6 ist ein Funktionsblockdiagramm, das ein LIDAR-Verarbeitungsdiagramm des LIDAR-Verarbeitungssystems des multimodalen Fusionssystems gemäß einer beispielhaften Ausführungsform darstellt;
    • 7 ist ein Funktionsblockdiagramm, das ein Bildverarbeitungsdiagramm des Bildverarbeitungssystems des multimodalen Fusionssystems gemäß einer beispielhaften Ausführungsform darstellt;
    • 8 ist ein Funktionsblockdiagramm, das ein Streckenebenen-Sensorverarbeitungsdiagramm des multimodalen Fusionssystems gemäß einer beispielhaften Ausführungsform darstellt;
    • 9A, 9B und 9C sind Diagramme, die ein Konturmodelldiagramm für das multimodale Fusionsmodulsystem gemäß einer beispielhaften Ausführungsform darstellen;
    • 10 ist ein Funktionsblockdiagramm, das ein multimodales Fusionsdiagramm des multimodalen Fusionsmodulsystems gemäß einer beispielhaften Ausführungsform darstellt;
    • 11A und 11B sind Funktionsblockdiagramme, die ein LIDAR-Clustering-Diagramm des multimodalen Fusionsmodulsystems gemäß einer beispielhaften Ausführungsform veranschaulichen;
    • 12A, 12B und 12C sind Funktionsblockdiagramme, die ein Diagramm einer Radar-Rohstrecke, die mit der Zielkonturfusion des multimodalen Modulsystems gemäß einer beispielhaften Ausführungsform verbunden ist, veranschaulichen;
    • 13 ist ein Funktionsblockdiagramm, das eine grafische Ansicht der Bildverfolgungszuordnungen des Streckenhöhensensormoduls des multimodalen Modulsystems gemäß einer beispielhaften Ausführungsform darstellt.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die nachfolgende ausführliche Beschreibung ist lediglich veranschaulichender Natur und soll die Ausführungsformen des Gegenstandes oder die Anwendungen und Verwendungen derartiger Ausführungsformen in keiner Weise einschränken. Wie hierin verwendet, bedeutet das Wort „exemplarisch“ „dient als ein Beispiel, eine Instanz oder Veranschaulichung“. Jede hierin als exemplarisch beschriebene Anwendung ist gegenüber anderen Anwendungen nicht notwendigerweise als bevorzugt oder vorteilhaft auszulegen. Weiterhin besteht keine Absicht, im vorstehenden technischen Bereich, Hintergrund, der Kurzzusammenfassung oder der folgenden ausführlichen Beschreibung an eine ausdrücklich oder implizit vorgestellte Theorie gebunden zu sein.
  • Die Techniken und Technologien können hierin in Bezug auf die funktionellen und/oder logischen Blockkomponenten und unter Bezugnahme auf symbolische Darstellungen von Vorgängen, Programmverarbeitungen und Funktionen beschrieben werden, die von verschiedenen Computerkomponenten oder Vorrichtungen durchgeführt werden können. Diese Vorgänge, Programme und Funktionen werden zuweilen als Computer-ausgeführt, computerisiert, Software-implementiert oder Computerimplementiert bezeichnet. Darüber hinaus können die verschiedenen in den Figuren dargestellten Blockkomponenten aus einer beliebigen Anzahl an Hardware-, Software- und/oder Firmware-Komponenten aufgebaut sein, die dafür konfiguriert sind, die spezifischen Funktionen auszuführen. So kann beispielsweise eine Ausführungsform eines Systems oder einer Komponente verschiedene integrierte Schaltungskomponenten, z. B. Speicherelemente, digitale Signalverarbeitungselemente, Logikelemente, Wertetabellen oder dergleichen, einsetzen, die eine Vielzahl von Funktionen unter der Steuerung eines oder mehrerer Mikroprozessoren oder anderer Steuergeräte ausführen können. Der hierin verwendete Begriff „Modul“ bezieht sich auf alle Hardware-, Software-, Firmwareprodukte, elektronische Steuerkomponenten, auf die Verarbeitungslogik und/oder Geräte, einzeln oder in Kombinationen, unter anderem umfassend, eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, ein Modul (gemeinsam genutzt, dediziert oder gruppiert) und einen Speicher, der ein oder mehrere Software- oder Firmwareprogramme, eine kombinatorische Logikschaltung und/oder andere geeignete Komponenten ausführt, die die beschriebene Funktionalität bieten.
  • Unter Bezugnahme auf 1 ist ein Fahrzeug 100, das ein multimodales Fusionssystem 110 aufweist, gemäß exemplarischen Ausführungsformen dargestellt. Das Fahrzeug 100 umfasst eine Vielzahl von Sensoren 120 und ein multimodales Fusionsmodul 140 des multimodalen Fusionssystems 110. Die Sensoren erfassen beobachtbare Zustände des Fahrzeugs 100 und können unter anderem auch Bildsensoren, LIDAR-Sensoren und Radarsensoren umfassen. Im Allgemeinen ist jeder Sensor der Vielzahl von Sensoren spezifisch an das multimodale Fusionsmodul 140 des Fahrzeugs 100 gekoppelt und konfiguriert, um externe Umgebungen des Fahrzeugs 100 zu erfassen. Das multimodale Fusionsmodul 140 empfängt Sensorsignale, die von den Sensoren 120 erzeugt werden, verarbeitet die Sensorsignale, um Sensordaten zu erhalten, und führt die Sensordaten zusammen. In verschiedenen Ausführungsformen führt das multimodale Fusionsmodul 140 die Sensordaten zusammen, basierend auf zentralisierten und multimodalen Verarbeitungsverfahren und -systemen, die hierin offenbart werden. Obwohl die abgebildete Ausführungsform die mobile Plattform als ein Fahrzeug 100 umsetzt, können die hier vorgestellten Konzepte in anderen mobilen Plattformen, wie etwa Flugzeugen, Raumfahrzeugen, Wasserfahrzeugen, Motorrädern, Robotern, Robotervorrichtungen und dergleichen, eingesetzt werden. Darüber hinaus können die hier vorgestellten Konzepte auch in nicht-mobilen Plattformanwendungen eingesetzt werden, falls dies gewünscht wird.
  • Wie bereits erwähnt, umfasst das Fahrzeug 100 im Allgemeinen eine Vielzahl von Sensoren 120, Vorrichtungen und Software, die zum Erfassen von Informationen ausreichen, und die erfassten Informationen dabei in digitale Informationen umwandeln, und die digitalen Informationen dem multimodalen Fusionsmodul 140 bereitstellen. Im Allgemeinen ist jeder Sensor der Vielzahl von Sensoren konfiguriert, um Aspekte der Umgebung des Fahrzeugs 100 zu erfassen.
  • Das multimodale Fusionssystem kann mit mindestens einem Sender-Empfänger 136 gekoppelt werden, der mindestens einen Sender und einen Empfänger umfasst, die funktionsfähig mit dem Prozessor 142 verbunden sind. Der Sender-Empfänger 136 kann das multimodale Fusionsmodul 140 in die Lage versetzen, die Kommunikationsverbindungen zu den On-Board-Komponenten und externen Kommunikationsquellen, einschließlich der drahtlosen Kommunikation, herzustellen und aufrechtzuerhalten. Der Sender-Empfänger 136 kann die Signalverarbeitung (z. B. Digitalisierung, Datenkodierung, Modulation usw.), wie sie in der Technik bekannt ist, durchführen. In einigen Ausführungsformen ist der Sender-Empfänger 136 in dem multimodalen Fusionsmodul 140 integriert.
  • Mit weiterführendem Verweis auf 1 werden die Komponenten des multimodalen Fusionsmoduls 140 und dessen Funktionen beschrieben. In der dargestellten Ausführungsform umfasst das Computersystem des multimodalen Fusionsmoduls 140 einen Prozessor 142, der kommunikativ mit einem Speicher 144, einer Schnittstelle 146, einem Speichermedium 148, einen Bus 150 und einer optionalen Speicherplatte 158 verbunden ist. In verschiedenen Ausführungsformen führt das multimodale Fusionssystem 110 (und genauer gesagt das multimodale Fusionsmodul 140) Aktionen und andere Funktionen aus, die nachfolgend in Verbindung mit 2 beschrieben werden. Der Prozessor 142 führt die dem multimodalen Fusionsmodul 140 zugewiesenen Berechnungs- und Steuerfunktionen aus und kann jede Art von Modul oder mehrere Module, einzelne integrierte Schaltungen, wie beispielsweise ein Mikromodul, einzelne integrierte Schaltungen, wie beispielsweise ein Mikroprozessor oder eine geeignete Anzahl an integrierten Schaltungen und/oder Leiterplatten, die zum Ausführen der beschriebenen Operationen, Aufgaben und Funktionen zusammenwirken, indem sie elektrische Signale manipulieren, die Datenbits an Speicherplätzen im Systemspeicher darstellen sowie andere Signalverarbeitungen, umfassen.
  • Während des Betriebes lädt und führt der Prozessor 142 ein oder mehrere Programme, Algorithmen und Regeln aus, die als Anweisungen und Anwendungen 152 im Speicher 144 enthalten sind und steuert als solches den allgemeinen Betrieb des Steuersystems 130 sowie das Computersystem des multimodalen Fusionsmoduls 140. Beim Ausführen der hierin beschriebenen Prozesse lädt und führt der Prozessor 142 mindestens Programm 156 aus.
  • Ein computerlesbares Speichermedium, wie zum Beispiel ein Speicher 144, eine Speichervorrichtung 148 oder eine optionale Speicherplatte 158, kann sowohl als Speicher als auch als Notizblock verwendet werden. Die Speicherstellen, an denen Datenbits gehalten werden, sind physikalische Orte, die bestimmte elektrische, magnetische, optische oder organische Eigenschaften, die den Datenbits entsprechen, aufweisen. Der Speicher 144 kann eine beliebige Art eines geeigneten, computerlesbaren Speichermediums sein. So kann beispielsweise der Speicher 144 verschiedene Typen von dynamischem Random Access Memory (DRAM), wie SDRAM, verschiedene Typen von statischem RAM (SRAM) und die verschiedenen Permanentspeichertypen (PROM, EPROM und Flash), beinhalten. In bestimmten Beispielen befindet sich der Speicher 144 auf dem gleichen Computerchip wie der Prozessor 142 und/oder ist ortsgleich damit angeordnet. In der dargestellten Ausführungsform speichert der Speicher 144 die vorgenannten Anweisungen und Anwendungen 152 zusammen mit einer oder mehreren konfigurierbaren Variablen in gespeicherten Werten 154.
  • Die Speichervorrichtung 148 ist ein computerlesbares Speichermedium in Form eines beliebigen geeigneten Speichermediums, einschließlich Direktzugriffsspeichervorrichtungen, wie beispielsweise Festplattenlaufwerke, Flashsysteme, Diskettenlaufwerke und optische Laufwerke. In einer exemplarischen Ausführungsform umfasst das Speichergerät 148 ein Programmprodukt, aus dem der Speicher 144 ein Programm 156 empfangen kann, das eine oder mehrere Ausführungsformen eines oder mehrerer Verfahren der vorliegenden Offenbarung ausführt. In einer weiteren exemplarischen Ausführungsform kann das Programmprodukt direkt im Speicher 144 und/oder auf einer Speicherplatte (z. B. optionale Speicherplatte 158) gespeichert sein und/oder anderweitig darauf zugreifen, wie im Folgenden erläutert.
  • Die zuvor zusammengeführten Daten der Streckendateien können in einem computerlesbaren Speichermedium, wie dem Speicher 144, in der Speichervorrichtung 148 oder auf der optionalen Speicherplatte 158 gespeichert werden. Der Bus 150 dient zur Übertragung von Programmen, Daten, Status und anderen Informationen oder Signalen zwischen den verschiedenen Komponenten des Computersystems des multimodalen Fusionsmoduls 140. Der Bus 150 kann aus allen zur Verbindung von Computersystemen und Komponenten geeigneten physischen oder logischen Mitteln bestehen. Dies schließt ohne Einschränkung auch direkt verdrahtete Verbindungen, Faseroptik, sowie Infrarot- und Drahtlosbustechnologien ein. Während des Betriebs wird das Programm 156 im Speicher 144 abgelegt und vom Prozessor 142 geladen und ausgeführt.
  • Die Schnittstelle 146 ermöglicht die Kommunikation innerhalb des multimodalen Fusionsmoduls 140, beispielsweise über einen Systemtreiber und/oder über ein anderes Computersystem und kann unter Verwendung jedes geeigneten Verfahrens und jeder geeigneten Vorrichtung implementiert werden. In einer Ausführungsform erhält die Schnittstelle 146 die Daten von den Sensoren 120 und/oder dem Sender-Empfänger 136. Die Schnittstelle 146 kann eine oder mehrere Netzwerkschnittstellen beinhalten, um mit anderen Systemen oder Komponenten zu kommunizieren. Die Schnittstelle 146 kann zudem eine oder mehrere Netzwerkschnittstelle(n) für die Kommunikation mit Technikern und/oder eine oder mehrere Speicherschnittstellen für die Verbindung mit Speichervorrichtungen (wie beispielsweise die Speichervorrichtung 148) beinhalten.
  • Mit Bezug auf 2 und unter fortgesetzter Bezugnahme auf 1 zeigt 2 ein Mehrebenen-Fusionssystem 200 mit einem zentralisierten Fusionssystem 210 und einem hierarchischen Hybridsystem 220 für jeden der Sensoren 120 von 1. Das Mehrebenen-Fusionssystem 200 transformiert Sensordaten in geeignete Koordinatendaten für die Datenfusion. Das Mehrebenen-Fusionssystem 200 verwendet algorithmische Lösungen zum Transformieren von Sensordaten und zum Erzeugen von Darstellungen der Daten höherer Ebene, wie zum Beispiel zusammengeführte Objektlisten, Belegungsgittern und zusammengeführte Stixel, die in Szeneninterpretationswerkzeugen verwendet werden. Darüber hinaus können die Vorlagenübereinstimmungssuche und semantische Kennzeichnung verwendet werden, um ein semantisches Verständnis von den Darstellungen der externen Fahrumgebung aus abgeleiteten Daten von den Sensor-, Merkmals- und Objektverarbeitungsebenen bereitzustellen. In verschiedenen Ausführungsformen umfasst das hierarchische Hybridsystem 220 ein Sensorebenen-Verarbeitungsmodul 230, ein Merkmalsebenen-Verarbeitungsmodul und ein Obj ektebenen-Verarbeitungsmodul 250.
  • Zu Beginn erzeugen die heterogenen Sensoren (Sensoren 120 von 1) durch Kamera, LIDAR, Radar, V2X, Massenquelle usw. generierte Sensorsignale, die durch das Sensorebenen-Verarbeitungsmodul 230 verarbeitet werden, um binäre Daten zu erhalten, auf die als Sensorebenendaten eines Ziels von Interesse Bezug genommen wird. Diese Daten auf Sensorebene sind Daten auf niedrigster Ebene und umfassen RGB-Pixel, 3D-Voxel, Radarpunkterkennung mit Vertrauensattributebereich, Geschwindigkeit, Winkel, RCS, Bewegungsrichtung, stationäre Identifizierungskennzeichen usw. Dieses Sensorebenen-Datenmodul wird direkt an das zentralisierte Fusionssystem 210 zur Datenfusionsverarbeitung und zum weiteren Speichern in Streckendateien gesendet. Zusätzlich werden die Sensorebenendaten 235 zu dem Merkmalsebenen-Verarbeitungsmodul 240 zur weiteren Merkmalsebenen-Verarbeitung weitergeleitet. Das zentralisierte Fusionssystem 210 kann Verknüpfungsstrategien, die Gating-Techniken und Zuweisungsstrategien zum Zusammenführen der verschiedenen empfangenen Daten auf Sensorebene umfassen, verwenden.
  • Zusätzlich können die Sensordaten in zusammengeführten Streckendateien oder einem anderen ähnlichen Typ von Datenstruktur zur späteren Verwendung sowie zur Verteilung der zusammengeführten Daten an die anderen heterogenen Sensoren beibehalten werden. Mit anderen Worten, Sensorebenendaten von bestimmten Sensoren können für eine Überkreuzanwendung durch andere heterogene Sensoren durch das multimodale Fusionssystem umgewandelt und gespeichert werden. Es können ebenfalls Filter- und Cueing-Verfahren angewendet werden, bei denen zusammengeführte Datenstrecken gefiltert und in einem verteilten Zusammenführungsschema durch eine Strecken-zu-Strecken-Zuordnungsprozedur an den Satz heterogener Sensoren ausgegeben werden.
  • Als Nächstes empfängt das Merkmalsebenen-Verarbeitungsmodul 240 die Sensorebenendaten 235 und erzeugt Merkmalskarten, Superpixel, Stixel und Tracklets 245 von den empfangenen Sensorebenendaten 235. Mit anderen Worten werden Merkmale durch eine Pixelebenenverarbeitung unter Verwendung algorithmischer Lösungen von den Binärsensorebenendaten ermittelt, um Merkmalskarten, Stixel, Tracklets und andere ähnliche Verfahren zu bestimmen und die Pixeldaten zu gruppieren und zu ermitteln, um Darstellungen der Fahrumgebung bereitzustellen. In einem Fall können in einer mehrstufigen Darstellung von externen Umgebungen, wenn eine feinere Granularität von Bildern benötigt wird, Stixel- und Gitterverfahren zur Darstellung von Vorstadt- und Stadtszenen verwendet werden. In anderen Fällen werden Stixel- und Freiraumgitter für ländliche Hindernisse verwendet. Darüber hinaus können Stixel ebenfalls verwendet werden, um Ziele in der Umgebung darzustellen. Schließlich kann die Punktwolkendarstellung für statische Hindernisse verwendet werden.
  • Die Objektebenenverarbeitung 250 ist die Endstufe des hierarchischen Hybridsystems 220 und auf Schätzungen physikalischer Objekte mittels algorithmischen Lösungen ausgerichtet. Diese Verarbeitung auf Objektebene kann durch das zentralisierte Fusionssystem 210 ausgeführt werden oder in anderen nicht gezeigten Fällen kann diese extern durch Module anderer Sensorvorrichtungen durchgeführt werden. Das heißt, in einigen Fällen wird die Objekterkennung in einer verteilten Weise durch heterogene Sensoren und nicht durch das zentralisierte Fusionssystem 210 durchgeführt. Nichtsdestoweniger ist das zentralisierte Fusionssystem 210 in beiden Fällen so konfiguriert, dass dieses die Daten auf Objektebene von Objektlisten, Attributen und Informationen des Belegungsgitters 260 zur weiteren Verarbeitung empfängt. Objektlisten können Listen von Fußgängern sowie physikalische Fahrzeugobjekte umfassen, und Attribute können Objektattribute für Geschwindigkeit, Entfernung von der Kamera usw. umfassen. Zusätzlich kann eine Klassifizierung und Bewegungseinschätzung durch Algorithmen des zentralisierten Fusionssystems 210 durchgeführt werden. Außerdem können Straßengeometrieeinschätzungen und andere Vorhersagen höherer Ebenen während der Objekterfassung durch das zentralisierte Fusionssystem 210 durchgeführt werden. Daher kann das zentralisierte Fusionssystem 210 Sensor-, Merkmal- und Objektebenendaten des Ziels von Interesse verwenden und kombinieren, um Zustände des Ziels von Interesse in externen Umgebungsdarstellungen zu erhalten.
  • Mit Bezug auf 3 und unter fortgesetzter Bezugnahme auf 2 zeigt 3 ein hybrides zentralisiertes und verteiltes Architekturdiagramm des hybriden Datenfusionssystems 300 unter Verwendung eines multimodalen Fusionsmoduls 310, wobei die Bild 330-, Radar 340- und LIDAR 350-Sensormodule jeweils Mehrebenen-Fusionsmodule 360 zur Verarbeitung erfasster Daten aufweisen. Die Mehrebenen-Fusionsmodule 360 umfassen mindestens, sind jedoch nicht beschränkt auf Objektebenenmodule 365, Merkmalsebenenmodule 370 und Sensorebenenmodule 375 zur Objekt-, Merkmals- und Sensorebenenverarbeitung, wie zuvor in 2 dargestellt. Die Mehrebenen-Verarbeitung der Bild 330-, Radar 340- und LIDAR 350-Sensormodule wird zur weiteren Verarbeitung an das Zuordnungs- und Ausrichtungskorrekturmodul 320 gesendet. Mit anderen Worten, das Zuordnungs- und Ausrichtungskorrekturmodul 320 ist so konfiguriert, dass dieses Mehrebenen-Sensordaten zur Verarbeitung empfängt.
  • Als Nächstes umfasst das hybride Datenfusionssystem 300 sowohl die zentralisierten als ebenfalls die verteilten Architekturen basierend auf der Anordnung der mehreren Sätze heterogener Sensoren. Zum Beispiel wird im Betrieb des Systems eine verteilte Fusionsarchitektur verwendet, um die Rechenverarbeitung und Kommunikation zu reduzieren, wenn jedoch eine höhere Genauigkeit benötigt wird, wird eine zentralisierte Fusionsarchitektur verwendet. Alternativ kann, basierend auf den verfügbaren heterogenen Sensoren, eine Kombination beider Betriebsmodi verwendet werden, um einen zusammengeführten Zustand eines Ziels von Interesse zu erhalten. Wie erläutert wird in Fällen, in denen die Verarbeitungsmodule jedes der Sensoren mit Streckendaten über Cueing-Informationen der Sensoroperation verbessert sind, ein zentralisierter Zusammenführungsbetriebsmodus verwendet, um die an die Sensormodule zu sendenden Hinweisinformationen zu erzeugen. Das heißt, die Cueing-Information wird zentral durch algorithmische Lösungen des multimodalen Fusionsmoduls 310 aus früheren historischen Streckendaten einer Fusionsstreckendatei 390 erzeugt, die lokal, entfernt oder in der Cloud gespeichert ist. Ein verteilter Betrieb wird zur Kalibrierung von jedem der heterogenen Systeme verwendet, wobei die Cueing-Informationen in einem verteilten Schema, unabhängig einzeln von Signalprozessoren jedes Sensors, verarbeitet werden.
  • Zusätzlich ermöglicht es der hybriden zentralisierten und verteilten Fusionsarchitektur, dass das multimodale Fusionsmodul 310 so konfiguriert ist, dass dieses in einem Dualmodus-Verarbeitungsbetrieb arbeitet, in dem in einem Modus ein Top-Down-Prozessablauf stattfindet, in dem Cueing-Informationen enthaltende zusammengeführte Streckendaten an die heterogenen Sensoren gesendet werden. Die Cueing-Informationen können Daten von etwa einem Fusionsziel, einer Konturposition und einer Geschwindigkeit umfassen, und diese Cueing-Informationen werden unter Verwendung eines Rückkopplungswegs direkt von dem multimodalen Fusionsmodul 310 zu jedem der heterogenen Sensoren unter Verwendung eines Mehrweg-Informationsflusses gesendet werden, wobei Signalmodule mittels algorithmischer Lösungen in jedem der heterogenen Sensoren gesendete Informationen verarbeiten, um bei der Kalibrierung oder Bias-Korrektur des individuellen Sensors während des Echtzeitbetriebs Unterstützung zu leisten. Zum Beispiel können die in den gesendeten Streckenverfolgungsdaten enthaltenden Cueing-Informationen durch jedes Sensorsignalmodul weiter verarbeitet werden, um Filterschemata und Erfassungsschwellenebene der Sensoren einzustellen und um die Sensorausrichtung und den Mess-Bias einzuschätzen.
  • Wie erwähnt, arbeitet das multimodale Fusionsmodul in einem Dualmodus-Verarbeitungsbetrieb, in dem im zweiten Modus ein Bottom-Up-Prozessfluss stattfindet, wobei die in 3 gezeigten binären Daten oder Sensorebenendaten von jedem der heterogenen Sensoren erfasst werden. Zum Beispiel kann der Bildsensor 330 binäre Daten von RBG-Pixeln, Bereichsrate, Peilung, Peilrate 335 usw. erfassen, die an das Zuordnungs- und Ausrichtungskorrekturmodul 320 gesendet werden. Der Radarsensor 340 erfasst ebenfalls binäre Daten, jedoch eines Bereiches, einer Bereichsrate und einem Peilwinkel 345, die ebenfalls an das Zuordnungs- und Ausrichtungskorrekturmodul 320 gesendet werden. Schließlich erfasst der LIDAR-Sensor 350 binäre Daten von Punktwolken 355, die wiederum an das Zuordnungs- und Ausrichtungskorrekturmodul 320 gesendet werden.
  • Das Zuordnungs- und Ausrichtungskorrekturmodul 320 verwendet parametrische Zuordnungs- und Datenausrichtungs-Korrekturlösungen, um die Sensor-, Merkmal- und Objektebenendaten eines interessierenden Ziels von jedem der heterogenen Sensoren zu aggregieren und zu kombinieren. Um solche Zuordnungen durchzuführen, können Datenzuordnungstechniken einschließlich Korrelation, Abstandsmessungen und probabilistischen Ähnlichkeiten verwendet werden. Ausrichtungskorrekturen können durch eine Zielverfolgung von Daten mehrerer Sensoren erkannt werden. Zum Beispiel kann im Fall einer Fehljustierung der Bildverarbeitung ein Prozess eingerichtet werden, um die Bildsensoren auf Grundlage von Bildkoordinaten und Winkelschätzungen von Richtungen des interessierenden Ziels auszurichten; Fehlanpassungswinkeldaten, die nicht mit den Winkelschätzungen korrelieren, werden entfernt und Korrekturen können an der Bildausrichtung vorgenommen werden. Zusätzlich können Winkelkorrekturen basierend auf früheren Winkelinformationen durchgeführt werden, dies würde zu inkrementellen Änderungen der Ausrichtung führen. In diesem Fall basieren Cueing-Informationen auf historischen Winkeldaten.
  • Mit Bezug auf 4A und unter fortgesetzter Bezugnahme auf 3 zeigt 4A eine multimodale Fusionszeitverhaltenszeitfolge 400 von Ereignissen des multimodalen Fusionsmoduls, die während des Betriebs empfangenen werden. Das multimodale Fusionsmodul arbeitet in einem zentralisierten multimodalen Datenfusionsschema, um Daten von den heterogenen Sensoren zusammenzuführen, die eine Zeitsynchronisation von ereignisgesteuerten Aktionen von den heterogenen Sensoren erfordern. Solche Ereignisse, die von den heterogenen Sensoren selbst dann erfasst werden, wenn die heterogenen Sensoren bei gleicher Frequenz arbeiten, sind jedoch möglicherweise nicht synchronisiert. Daher werden von Algorithmen des multimodalen Fusionsmoduls Techniken verwendet, um den Betrieb des multimodalen Fusionsmoduls einzustellen, wenn asynchrone Sensordaten von den heterogenen Sensoren empfangen werden. In einem einzigen Ereignis werden Daten des Bildsensors des angetriebenen Datenfusionsschemas, LIDAR-Sensordaten und Radarsensordaten von dem Satz heterogener Vorrichtungen empfangen, vorausgesetzt, dass Sensoren vorhanden sind, die mit diesen Funktionen in Beziehung stehen. Die Sensordaten, die von jedem der Sensoren verarbeitet werden, werden unabhängig und in einer verteilten Weise ausgeführt. Mit anderen Worten, Module der heterogenen Sensoren sind zwar zeitlich so eingestellt, dass diese synchron arbeiten, und verarbeiten die erfassten Daten und alle zusätzlichen empfangenen Daten synchron, können jedoch möglicherweise nicht synchronisiert sein. Das heißt, aufgrund der verteilten Architektur und der unabhängigen Datenverarbeitung durch jeden der Sensoren kann es in einigen Fällen zu Änderungen an der Menge der zusammengeführten Daten, die von jedem der Sensoren während Cueing-Operationen empfangen werden, führen. Dies kann zu zeitlichen Abweichungen des Abschlusses der Verarbeitung der Daten durch jeden heterogenen Sensor während eines Zyklus und dem nachfolgenden Empfang der erfassten Daten durch das Fusionssystem führen.
  • In dem Anfangszyklus t0 wird ein gemeinsamer Zeitstempel für die Ankunftszeit aller Sensordaten erzeugt. Dieser gemeinsame Zeitstempel kann erzeugt werden, da alle Sensordaten in einem Zyklus eingehen, und daher kann eine Ursprungszeittabelle der Ankunftszeit der Sensordaten erzeugt werden. Es gibt jedoch Ereignisse, die zu Abweichungen des ursprünglichen to-Abbildungschemas führen können. Das Fusionssystem kompensiert diese Ereignisse durch Algorithmen zur Vorhersage von Änderungen Δ [1...4] an der Datenankunftszeit der verarbeiteten Daten von jedem der Sensoren. Zum Beispiel wird zu Beginn des Zyklus t 410 bis zum nachfolgenden t+1 440 Zyklus eine Vorhersage Δ für jede nachfolgende Sensordaten-Ankunftszeit berechnet. Zunächst wird die Vorhersage Δ1 für die Datenankunftszeit für den Bildsensor berechnet, was zu der Bilddatenkorrekturzeit 415 führt. Als Nächstes wird die Vorhersage Δ2 für die LIDAR-Datenkorrekturzeit berechnet und diese Δ2 wird von der Bilddatenkorrekturzeit 415 versetzt, gefolgt von der anschließenden Radardatenkorrektur Δ3 320, die in ähnlicher Weise von der LIDAR-Datenkorrekturzeit 420 versetzt ist, und schließlich wird eine Vorhersage Δ4 für den nächsten Fusionsausgabezyklus t+1 berechnet. Daher wird eine Delta-Vorhersagekorrektur Δ[1...4] während des gesamten Zyklus fortgeführt, wobei die Vorausankunftszeitvorhersage für jede Sensorprozessdatenankunftszeit kompensiert wird. Unter Verwendung dieses Vorhersageschemas treten daher keine Verzögerungen in dem Verarbeitungszyklus auf, die aufgetreten wären, wenn die Ankunftszeit abweichen würde, wie in dem Fall, in dem nur zeitgeberbasierte Berechnungen verwendet werden.
  • Mit Bezug auf 4B und unter fortgesetzter Bezugnahme auf 4A zeigt 4B ein zeitliches multimodales Zusammenführungsdiagramm des multimodalen Fusionssystems 450 der Ereignisankunft und der nachfolgenden Vorhersageberechnung nach der Fusionsausgabe 465. Anfangs tritt eine Bestimmung 455 einer Ereignisankunftszeit auf. Wenn festgestellt wird, dass dies keine Ereignisankunftszeit „N“ ist, kehrt der Prozessablauf zum Start zurück. Dies tritt auf, wenn eine zeitliche Persistenz der abgetasteten Daten des erkannten Objekts von Interesse vorliegt. Liegt beispielsweise eine infinitesimale Änderung der Sensordaten vor, ist keine zusätzliche Erfassung erforderlich, da sich die interessierenden Objektattribute nicht von den zuvor gespeicherten Sensordaten über das Objekt geändert hätten. Erfolgt als Nächstes eine Fusionsausgabe 465, dann werden die Vorhersagen 460 Δ[1...4] berechnet, aber es werden keine Bild-, LIDAR- oder Radardatenkorrekturen benötigt, sodass die erfassten Daten ausgegeben werden. Wird alternativ keine Fusionsausgabe 465 bestimmt, werden zusätzliche zusammengeführte Daten benötigt und eine zusätzliche Korrektur durch Vorhersage 485 der Bild-, LIDAR- und Radardaten wird benötigt 380. Diese beiden parallelen Verarbeitungspfade werden vom Rückkopplungspfad 475 für die Ankunft des nächsten Ereignisses zurückgegeben. Durch Verwendung dieses heterogenetischen Modalitätsschemas werden weniger Daten aggregiert und die Gesamtleistung des Fusionssystems wird verbessert.
  • Mit Bezug auf 5 veranschaulicht 5 ein Radarverarbeitungssystem-Diagramm des Radarsensorsystems 500 des Radarmoduls 510 des multimodalen Fusionssystems. Im Betrieb erhält das Radarmodul 510 eine konstante Fehlalarmrate CFAR von dem Radarobjektdetektor 520, auf die ein adaptiver Schwellenwert 530 angewendet wird, der das Umgebungs-Clutter und Rauschen reflektiert. Der Radarobjektdetektor 520 vergleicht eine empfangene Signalamplitude mit einem adaptiven Schwellenwert 530, der von Cueing-Prozessen basierend auf vorhergesagten zusammengeführten Daten 570 eingestellt wird, die frühere Schwelleninformationen umfassen, die von dem Fusionssystem an den Radarobjektdetektor 520 verteilt werden.
  • Als Nächstes gibt der Radarobjektdetektor 520 erfasste Daten von Radarpunkten, Entfernung und Winkelrate zur weiteren Verarbeitung entlang der Pipeline aus. In der nächsten Stufe 540 werden die erfassten Daten gereinigt und verrauschte Objekte entfernt. Die verrauschten Objekte, speziell die Punkte der verrauschten Objekte, werden mittels vorheriger verrauschter Punktdaten, die aus der zeitlichen Persistenz durch die Datenzuordnung 565 aus dem Vermitteln von empfangenen vorhergesagten zusammengeführten Daten 570 gewonnen wurden, entfernt. In der nächsten Stufe 550 entlang der Radarsensor-Verarbeitungspipeline werden eine Ausrichtung und eine Bias-Korrektur des Sensors durchgeführt, die wiederum durch die Datenzuordnung 565 von den Cueing-Prozessen der empfangenen vorhergesagten zusammengeführten Daten 570 gewonnen wurden. In der letzten Stufe der Radarsensor-Verarbeitungspipeline 560 werden Datenklassifizierer zum Klassifizieren eines Radarpunkts in stationäre oder dynamische Punktsätze durchgeführt. Die gefilterten Datenpunkte werden zusätzlich durch die Datenzuordnung 565 mit Fusionsdatenstrecken verarbeitet und an das Fusionsmodul 575 weitergeleitet, was zu Aktualisierungen der Messung der Fusionsdatenstrecken durch das Fusionsstreckenmessungs- und Aktualisierungsmodul 580 für das interessierende Ziel führt.
  • Mit Bezug auf 6 veranschaulicht 6 ein LIDAR-Verarbeitungsdiagramm des LIDAR-Verarbeitungssystems 600 des multimodalen Fusionssystems bei der Ankunft von Punktwolkendaten. Punktwolkendaten x, y, z werden an das LIDAR-Modul 610 zur Verarbeitung für Bestimmungen über ein Ziel von Interesse geliefert. Die abgetasteten LIDAR-Punktdaten werden in zwei Stufen verarbeitet, wobei anfänglich in der ersten Stufe 620 Schätzalgorithmen zur Korrektur der LIDAR-Ausrichtung und des Bias verwendet werden. In der nachfolgenden Stufe werden Algorithmen 630 angewendet, um Schwellenwertschätzungen zum Entfernen von Bodenpunkten aus den Punktwolkendaten durchzuführen. Beide Stufen empfangen in den Fusionsdaten Nicht-Bodenpunktdaten von Strecken. Diese Nicht-Bodenpunkte werden durch die Datenzuordnung 640 der Nicht-Boden-LIDAR-Punkte mit den zusammengeführten Daten, die aus dem Cueing der empfangenen vorhergesagten zusammengeführten Daten 680 gewonnen werden, die an die Datenzuordnungsmodule 640 gesendet werden, erkannt. Von dem LIDAR-Modul 610 werden die Punktwolken x, y, z und der Fusionsstreckenindex zu dem Fusionsmodul 660 zur weiteren Verarbeitung gesendet. Das Cueing der aktuellen Radarpunkte 690 wird verwendet, um die Umwandlung der Punktwolkendaten durch Clustering-Algorithmen 670 in Tracklets unter Verwendung der Radarpunkte für das Cueing zu ermöglichen. Die Fusionsstreckenmessungen werden basierend auf den Clustering-Algorithmen aktualisiert. Zusätzlich werden Datenzuordnungsprozesse 685 verwendet, um das Cueing der aktuellen Radarpunkte zuzuordnen.
  • Unter Bezugnahme auf 7 veranschaulicht 7 ein Bildverarbeitungsdiagramm des Bildverarbeitungssystems 700 des multimodalen Fusionssystems, wenn Bilddaten von mit dem Fahrzeug gekoppelten Kameras erfasst werden, um Bilddaten der Fahrzeugumgebung zu erzeugen. Zu Beginn werden Intensitätsbilder durch das Bildmodul 710 zur Verarbeitung mit einem Aufruf von empfangenen vorhergesagten zusammengeführten Daten 705 zur Bodenpixelerfassung 745, Objekterkennung 720, Bildklassifizierung 725 und für Geschwindigkeitsschätzungen 730 des interessierenden Ziels empfangen. Anfangs werden Bewegungsschätzungsberechnungen 750, basierend auf vertikalen Schichten des Bewegungsflusses von Superpixeln der empfangenen Intensitätsbilder, erstellt. In der nächsten Stufe der Bildverarbeitungspipeline werden Bodenpixel 745 mittels Cueing der empfangenen vorhergesagten zusammengeführten Daten 705 detektiert. Eine Bestimmung 735 wird durch Vergleiche der Daten der vorhergesagten zusammengeführten Daten 705 und durch Schwellenwertbestimmungen durchgeführt, um zu bestimmen, ob die Pixel Bodenbilder sind. Wenn die Pixel vom Boden sind, werden Berechnungsschätzungen für die extrinsischen Kameraparameter 740 durchgeführt, und die Kameraprojektionsparameter werden mit den Schätzungen aktualisiert. Zusätzlich wird das Klassifizieren der Bodenpixel für eine zukünftige Verwendung bei der Datenextraktion durchgeführt. Alternativ wird, wenn keine Bodenpixel erfasst werden, eine Widerspruchserkennung 720 des Extraktionsobjektkandidaten durchgeführt und eine Superpixelsegmentierung des erfassten Objekts wird abgebildet. Zusätzlich wird eine Klassifizierung der Pixel in einer nachfolgenden Stufe durchgeführt und schließlich werden Geschwindigkeitsschätzungen 730 des interessierenden Ziels oder des detektierten Objekts durchgeführt. Beide dieser Prozesse der Klassifizierung und Geschwindigkeitsschätzungen verwenden vorhergesagte zusammengeführte Daten, die durch die Datenzuordnung 715 der vorhergesagten zusammengeführten Daten 705 gewonnen wurden. Schließlich werden die Fusionsdaten mit hinzugefügter Objektkennzeichnung und Bewegungsflussschätzungen des Bildes in einer Bildebene 760 zur weiteren Verarbeitung durch das Fusionsmodul aktualisiert.
  • Mit Bezug auf 8 veranschaulicht 8 ein Streckenebenen-Sensorverarbeitungsdiagramm des Radarsensorsystems 800 des multimodalen Fusionssystems. In diesem Beispiel sind die Radarsensoren mit einem individuellen Verarbeitungsmodul 810 ausgestattet, das eine lokale Verfolgung durchführt. Die empfangenen Rahmendateninformationen umfassen den Bereich, die Entfernungsrate, den Azimut und die Azimutgeschwindigkeit des Objekts von Interesse. Die Streckenebenenerfassung des Radarsensors verwendet eine Datenzuordnung von Streckendaten des Radarsensors mit dem Fusionsstreckenindex 830 aufgrund von empfangenen geschätzten vorhergesagten Fusionsdatenschätzungen 840, um das Radarsensorsystem 800 zu konfigurieren und um die Sensorausrichtung und den Bias 820 zu berechnen und zu korrigieren. Eine Aktualisierung des Fusionsstreckenzustands, einschließlich der Streckendaten der Entfernung, der Entfernungsrate, des Azimuts, der Azimutgeschwindigkeit, des Fusionsobjektindex usw. wird an das multimodale Fusionsmodul 850 gesendet. Die Fusionsstrecken-Messungsaktualisierungen werden durch das Fusionsstrecken-Messungsaktualisierungsmodul 860 des multimodalen Fusionsmoduls 850 verarbeitet. Zusätzlich ist der Streckenebenensensor konfiguriert, um kinetische Zustände von Objekten zu ermöglichen, die die Position und Geschwindigkeit des Objekts von Interesse sind und nicht binäre Daten auf Sensorebene oder Zwischenmerkmalsdaten. Daher wird eine Objektebenen-Datenverarbeitung durch das Radarsensorsystem 800 für die Fusionsstrecken-Messungsaktualisierungen durchgeführt.
  • Unter Bezugnahme auf die 9A, 9B und 9C zeigen die 9A, 9B und 9C Konturmodelldiagramme für LIDAR-Punktcluster des multimodalen Fusionsmoduls. Jedes interessierende Ziel 910 wird als Zustandsvariable eines Ortes p = (x, y) modelliert, der einen Richtungswinkel (φ), eine Bodengeschwindigkeit (v) und eine Gierrate (ω) aufweist. Die Kontur der Zielreferenz des Radarpunkts 1020 zum Zielrahmen wird in einem Gaußschen Mischmodell „GMM“ wie folgt modelliert: p ( x ) = 1 M k = 1 M g ( x ;  m k ,   σ k )
    Figure DE102018114042A1_0001
    g ( x ;  m k ,   σ k ) = ce x m k 2 σ k 2
    Figure DE102018114042A1_0002
    und x m k σ k
    Figure DE102018114042A1_0003
    ist die Mahalanobis Entfernung
    • • Im HV-Rahmen ist das Konturmodell p ( x | p ,   φ ) = 1 M k = 1 M g ( x ;  m ' k ,   σ ' k ) , m ' k = p + R φ m k ,
      Figure DE102018114042A1_0004
      σ'k=RφσkRφT, Rφ ist die Rotationsmatrix des Winkels φ
  • In einem Vorhersagemodus wird das Fahrzeugziel von Interesse 910 als gewöhnliche Differentialgleichungen (ODE - Ordinary Differential Equations) wie folgt modelliert: dx ( t ) = F ( X ( t ) ) dt + GdW ( t )
    Figure DE102018114042A1_0005
    wobei X ( t ) = ( x , y , φ , v , ω ) ,
    Figure DE102018114042A1_0006
    F ( X ( t ) ) = ( vcos φ+ y ω− v H ,  vsin φ− x ω ,   ω− ω H ,   θ ,   θ ) ,
    Figure DE102018114042A1_0007
    W(t) ein unabhängiger Brown'scher Prozess mit Null-Mittelwert und Einheitsvarianz ist, und die Diffusionsmatrix G ist diagonal.
  • Gegeben X(t0), kann der vorhergesagte Zustand X(t1)bei t1=t0+dt in der Nähe von X * um angenähert werden G ' X ( t 1 ) = F ' X ( t 0 ) + u + w
    Figure DE102018114042A1_0008
    G ' = G 1
    Figure DE102018114042A1_0009
    F ' = G 1 ( F X | X * δ t + I )
    Figure DE102018114042A1_0010
    u = G 1 ( F ( X * ) δ t F X | X * δ t X * )
    Figure DE102018114042A1_0011
  • W ist eine 5 × 1 Null-Mittelwert-Einheitsvarianz des Gaußschen Rauschens.
  • Mit Bezug auf 10 veranschaulicht 10 ein multimodales Zusammenführungsdiagramm des multimodalen Zusammenführungssystems 1000 des multimodalen Zusammenführungsalgorithmus zum Zuordnen von Radarpunkten zu LIDAR-basierten Punktkonturen. Eine Messung zur Punktwolkenkorrektur für jeden Radarpunkt wird durch das multimodale Fusionsmodul durchgeführt, und eine LIDAR-basierte Kontur wird erzeugt. Für jede Messung ml findet der Algorithmus für die Punktwolkenkorrektur den nächsten Punkt pl in der Kontur zu dem in 10 gezeigten Radarpunkt 1020. Daher ist ein Radarpunkt 1020 der LIDAR-basierten Kontur pl zugeordnet.
  • Die lineare Geschwindigkeit des Punktes wird wie folgt bestimmt: v l = p l × ( ω ω H ) + [ v x v y ]
    Figure DE102018114042A1_0012
    und n l = p l + P p l + P
    Figure DE102018114042A1_0013
  • Die Messgleichung lautet wie folgt: r l = p l + P
    Figure DE102018114042A1_0014
    Figure DE102018114042A1_0015
    nur für Radar α l = ( p l + P )
    Figure DE102018114042A1_0016
  • Für alle Wolkenpunkte wird ein Aggregationsprozess durch den Algorithmus für die Punktwolkenkorrektur für alle Messungsgleichungen durchgeführt und ist wie folgt: o = HX + ε , X = ( x c , y c , φ , v , ω )
    Figure DE102018114042A1_0017
  • Gegeben ein vorausgehendes
    Figure DE102018114042A1_0018
    • -Konstrukt
      Figure DE102018114042A1_0019
      und eine Dreiecksmatrix
      Figure DE102018114042A1_0020
      , dann ist
      Figure DE102018114042A1_0021
      a posteriori.
  • Die aktualisierte Schätzung ist dann wie folgt:
    Figure DE102018114042A1_0022
  • Unter Bezugnahme auf die 11A und 11B zeigen die 11A und 11B Radar-Clusterdiagramme, die als Dreieckssymbole 1100 des LIDAR-Verarbeitungsalgorithmus des Radarmoduls des multimodalen Fusionsmodulsystems dargestellt sind. In 11A und in der alternativen Darstellung der Fusionskonturpunkte in FIG. In 11B werden Darstellungen eines sich bewegenden Hostfahrzeugs HV und der Konturfusionspunkte 1110 gezeigt, die das RV-entfernte Fahrzeug umgeben. Um ein sich bewegendes Fahrzeug algorithmisch mit einem ortsfesten Hindernis wie Leitplanken der Kontur zu unterscheiden, werden Fusionspunkte 1110 berechnet.
  • Für jeden Konturzusammenführungspunkt sj 1110 ist ein Berechnungsvergleichskoeffizient für einen Radarpunkt mk als ajk , k a jk = 1
    Figure DE102018114042A1_0023
    vorhanden
  • Für zwei beliebige der Konturfusionspunkte 1110 si und sj ist die erweiterte Distanz 1120 wie folgt definiert:
    Figure DE102018114042A1_0024
    wobei d (si , sj ) die euklidische Distanz oder eine andere Distanzmetrik zwischen den zwei LIDAR-Punkten ist, und C(ml , mk ) ist die Distanzmetrik zwischen den zwei Radarpunkten, d. h., C(ml , mk ), dies ist eine große positive Zahl, wenn ml , mk zu zwei getrennten Zielen mit signifikant unterschiedlichen Doppler-Messungen gehören.
  • Dann werden unter Verwendung einer erweiterten Entfernungsmetrik in der Berechnung und der Durchführung von Clusterberechnungen, die in einigen Fällen Graph-Färbungsalgorithmuslösungen sind, dann sind in solchen Graph-Färbungsalgorithmuslösungen zwei Konturpunkte, die eine Abstandsmetrik aufweisen, die kleiner als ein Schwellenwert sind, demselben Cluster zugewiesen; andernfalls werden die Konturfusionspunkte 1110 zwei verschiedenen Clustern C1, C2 zugewiesen.
  • Unter Bezugnahme auf die 12A, 12B und 12C veranschaulichen die 12A, 12B und 12C Diagramme von Radar-Rohstreckenpunkt-Zuordnungen des Radarmoduls mit Zielkonturfusion des multimodalen Fusionsmodulsystems. Eine Top-Down-Verarbeitung wird von dem Radarsensormodul für die erfassten Daten von der Streckenzuordnung mit der Zielkonturfusionsabbildung durchgeführt. In 12A wird für jeden Radarpunkt 1200 mk die Minimalentfernung senkrecht zur Entfernung D(mk ) 1210 zu den Schwerpunkten jeder LIDAR-basierten Kontur kommutiert und dies wird mit D(mk ) 1210 bezeichnet, wenn D(mk)< T von mk eine resultierende Kommutierung der LIDAR-basierten Kontur innerhalb eines minimalen Abstands zugeordnet ist. Falls nicht zugewiesen, wird mk als ein Kandidat zur Aktualisierung der Fusionsdatenverfolgung behandelt. In 12B wird eine LIDAR-basierte Kontur erzeugt, die das entfernte Fahrzeug in Bezug auf das Host-Fahrzeug umgibt, wobei wiederum mk die Minimalentfernung senkrecht zur Entfernung D(mk) 1210 zu den Schwerpunkten jeder LIDAR-basierten Kontur gehört. In 12C werden Radarpunktdaten 1220 empfangen, und eine Verarbeitung der Radarpunkte und der Fusiondatenzuordnung wird mit den empfangenen Top-Down-Fusionsstreckeninformationen 1240 durchgeführt 1230. Diese resultierende Verarbeitung ermöglicht die Erzeugung verbesserter Radar-Rohmessinformationen, um beispielsweise die Schwellenwertanpassungen des LIDAR-Moduls zu kalibrieren.
  • Mit Bezug auf 13 veranschaulicht 13 eine grafische Ansicht der Bildstreckenzuordnungen der Streckenebene des Bildsensormoduls des multimodalen Fusionsmodulsystems. Eine Top-Down-Verarbeitung des Bildziels von Interesse 1300, das als ein Bildziel V bezeichnet ist, wird in 13 gezeigt. Das Bildziel V illustriert vertikale und longitudinale Verschiebungen, die algorithmische Berechnungen sind. Das Bildziel V erhält die folgenden Attribute: x für die Längsverschiebung, y für die seitliche Verschiebung, vx und vy, W für die Breite und L für die Länge. Für jedes Objekt von Interesse 1300 Vwerden anfänglich die vier Ecken kommutiert, die vier Ecken sind Ci, i = 1,...,4, die wie folgt kommutiert werden: x-W/2, y-L/2, x-W/2, y+L/2, x+W/2, y-L/2 und x+W/2, y+L/2. Ein Abstand wird zu dem Objekt von Interesse 1300 V zu jeder Kontur E kommutiert, die als der kürzeste Abstand von jeder der vier Ecken zu der Kontur definiert sein kann. Der Abstand wird wie folgt kommutiert: d ( V ,  E ) = min i { d ( c i ,  E ) }
    Figure DE102018114042A1_0025
    wobei d (Ci, E) der kürzeste Euklidische Abstand vom Punkt Ci zu den Liniensegmenten in E ist. Dann wird eine Vergrößerung der Abstandsmetrik zwischen dem Bildziel, einer Geschwindigkeit und der Fusionszielgeschwindigkeit wie folgt berechnet: d ( V ,  E ) = α  min i { d ( c i ,  E ) } + β v F v V
    Figure DE102018114042A1_0026
    , wobei α und β gewichtete Faktoren sind vF und vV Fusions- und Bildgeschwindigkeiten sind.
  • Anschließend wird das Bildziel V der Kontur mit dem kürzesten Abstand d(V, E) zugeordnet, wenn der kürzeste Abstand kleiner als ein vordefinierter Schwellenwert ist.
  • Während mindestens ein exemplarischer Aspekt in der vorstehenden ausführlichen Beschreibung der Offenbarung dargestellt wurde, sollte darauf hingewiesen werden, dass eine große Anzahl an Variationen existiert. Es versteht sich weiterhin, dass der exemplarische Aspekt bzw. die exemplarischen Aspekte lediglich Beispiele sind und den Umfang, die Anwendbarkeit oder die Konfiguration der Offenbarung in keiner Weise einschränken sollen. Vorstehende ausführliche Beschreibung bietet Fachleuten vielmehr eine zweckmäßige Roadmap zur praktischen Anwendung eines in der Offenbarung angegebenen exemplarischen Aspektes. Es versteht sich, dass verschiedene Änderungen an der Funktion und der Anordnung von Elementen vorgenommen werden können, die in einem exemplarischen Aspekt beschrieben sind, ohne von dem Umfang der Offenbarung abzuweichen, wie in den beigefügten Ansprüchen dargelegt.

Claims (10)

  1. Hybride multimodale Fusionsvorrichtung, umfassend: ein multimodales Fusionsmodul, das so konfiguriert ist, dass es in einem ersten Modus arbeitet, um zusammengeführte Daten mit mehreren unterschiedlichen Formaten zu empfangen, die von einem Satz heterogener Vorrichtungen erfasst werden und so konfiguriert sind, dass diese in einem zweiten Modus die zusammengeführten Daten an jede der heterogenen Vorrichtungen sendet; ein Zuordnungsmodul, das so konfiguriert ist, dass dieses Daten mit mehreren verschiedenen Formaten, die von jeder der heterogenen Vorrichtungen erfasst werden, zusammengeführt und die zusammengeführten Daten an das multimodale Fusionsmodul sendet; und eine Fusionsstreckendatei, die zum Speichern zuvor zusammengeführter Daten konfiguriert ist, um zu ermöglichen, dass das multimodale Fusionsmodul, basierend auf den gespeicherten, zuvor zusammengeführten Daten, Cueing-Informationen an die heterogenen Vorrichtungen sendet.
  2. Multimodale Fusionsvorrichtung nach Anspruch 1, worin der Satz von heterogenen Vorrichtungen mindestens eine Bild-, Radar- oder LIDAR-Sensorvorrichtung umfasst.
  3. Multimodale Fusionsvorrichtung nach Anspruch 1, worin das Zuordnungsmodul dazu konfiguriert ist, eine Ausrichtungsdatenkorrektur der erfassten Daten von den heterogenen Vorrichtungen durchzuführen.
  4. Multimodale Fusionsvorrichtung nach Anspruch 1, worin das Zuordnungsmodul dazu konfiguriert ist, eine Bias-Datenkorrektur der erfassten Daten von den heterogenen Vorrichtungen durchzuführen.
  5. Multimodale Fusionsvorrichtung nach Anspruch 1, das multimodale Fusionsmodul ferner Folgendes umfassend: ein Mehrebenen-Fusionsmodul, umfassend ein Sensormodul zum Konvertieren der von den heterogenen Vorrichtungen erfassten Daten in Sensordaten zum Senden an das multimodale Fusionsmodul zur Datenfusion.
  6. Multimodale Fusionsvorrichtung nach Anspruch 5, das Fusionsmodul mit mehreren Ebenen ferner Folgendes umfassend: ein Merkmalsmodul, das mit dem Sensormodul gekoppelt ist und zum Umwandeln von Sensordaten in Merkmalsebenendaten konfiguriert ist, um diese zur Datenfusion an das multimodale Fusionsmodul zu senden.
  7. Multimodale Fusionsvorrichtung nach Anspruch 6, das Fusionsmodul mit mehreren Ebenen ferner Folgendes umfassend: ein Objektmodul, das mit dem Merkmalsmodul gekoppelt ist und das zum Umwandeln von Merkmalsdaten in Objektdaten konfiguriert ist, um diese zur Datenfusion an das multimodale Fusionsmodul zu senden.
  8. Multimodale Fusionsvorrichtung nach Anspruch 7, das multimodale Fusionsmodul ferner umfassend: ein Objektmodul, das dazu konfiguriert ist, andere Objektdaten zu verarbeiten, die bereits von externen Vorrichtungen verarbeitet wurden, um die Erfassungsgenauigkeiten der heterogenen Vorrichtungen zu verbessern.
  9. Multimodale Fusionsvorrichtung nach Anspruch 1, worin das multimodale Fusionsmodul konfiguriert ist, um Verzögerungen in einem Verarbeitungszyklus zu reduzieren, indem Vorhersagedaten von Verzögerungen der Ankunft von Sensordaten verwendet werden.
  10. Hybrides multimodales Fusionssystem, umfassend: mindestens ein Modul zur multimodalen Datenfusion; und mindestens eine computerlesbare Speichervorrichtung, die Befehle umfasst, die, wenn diese ausgeführt werden, die Durchführung eines Verfahrens zum Zusammenführen von Daten durch das multimodale Datenfusionsmodul für Daten bewirken, die von einem Satz heterogener Vorrichtungen empfangen werden, wobei das Verfahren Folgendes umfasst: das Betreiben, in einem Modus, des multimodalen Fusionsmoduls, das konfiguriert ist, um Daten in mehreren unterschiedlichen Formaten zu empfangen, die von heterogenen Vorrichtungen erfasst werden; das Betreiben, in einem zweiten Modus, des multimodalen Fusionsmoduls, das dazu konfiguriert ist, zusammengeführte Daten an jede der heterogenen Vorrichtungen zu senden; das Zusammenführen der empfangenen Daten mit mehreren verschiedenen Formaten von jeder der heterogenen Vorrichtungen durch das multimodale Fusionsmodul wie angewiesen, und Senden der zusammengeführten Daten an jede der heterogenen Vorrichtungen; und das Speichern der zuvor zusammengeführten Daten, die von den heterogenen Vorrichtungen zusammengeführt wurden, in einer mit dem multimodalen Fusionsmodul gekoppelten Verfolgungsdatei, um basierend auf gespeicherten zuvor zusammengeführten Daten Vorhersagedaten zu erzeugen, die an die heterogenen Vorrichtungen gesendet werden.
DE102018114042.8A 2017-06-14 2018-06-12 Vorrichtung, verfahren und system zur multimodalen fusionsverarbeitung von daten mit mehreren verschiedenen formaten, die von heterogenen vorrichtungen erfasst wurden Pending DE102018114042A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/622,628 US10602242B2 (en) 2017-06-14 2017-06-14 Apparatus, method and system for multi-mode fusion processing of data of multiple different formats sensed from heterogeneous devices
US15/622628 2017-06-14

Publications (1)

Publication Number Publication Date
DE102018114042A1 true DE102018114042A1 (de) 2018-12-20

Family

ID=64457765

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018114042.8A Pending DE102018114042A1 (de) 2017-06-14 2018-06-12 Vorrichtung, verfahren und system zur multimodalen fusionsverarbeitung von daten mit mehreren verschiedenen formaten, die von heterogenen vorrichtungen erfasst wurden

Country Status (3)

Country Link
US (1) US10602242B2 (de)
CN (1) CN109086788B (de)
DE (1) DE102018114042A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020160798A1 (de) * 2019-02-06 2020-08-13 Bayerische Motoren Werke Aktiengesellschaft Verfahren und eine vorrichtung zur sensordatenfusion für ein fahrzeug
DE102021102480A1 (de) 2021-02-03 2022-08-04 Valeo Schalter Und Sensoren Gmbh Verfahren zum bestimmen einer ersten montageposition zumindest einer ersten sensorvorrichtung eines assistenzsystems eines kraftfahrzeugs sowie assistenzsystem

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10528850B2 (en) * 2016-11-02 2020-01-07 Ford Global Technologies, Llc Object classification adjustment based on vehicle communication
JP6816658B2 (ja) * 2017-06-09 2021-01-20 トヨタ自動車株式会社 物標情報取得装置
US10641888B2 (en) * 2017-11-06 2020-05-05 Veoneer Us Inc. Cued automobile sensor fusion
US11232350B2 (en) * 2017-11-29 2022-01-25 Honda Motor Co., Ltd. System and method for providing road user classification training using a vehicle communications network
US11340632B2 (en) * 2018-03-27 2022-05-24 Uatc, Llc Georeferenced trajectory estimation system
US11237004B2 (en) 2018-03-27 2022-02-01 Uatc, Llc Log trajectory estimation for globally consistent maps
US11237260B2 (en) * 2018-06-13 2022-02-01 Denso Ten Limited Processing apparatus for estimating a movement direction of a target
KR102569904B1 (ko) * 2018-12-18 2023-08-24 현대자동차주식회사 표적 차량 추적 장치 및 그의 표적 차량 추적 방법과 그를 포함하는 차량
CN110018470A (zh) * 2019-03-01 2019-07-16 北京纵目安驰智能科技有限公司 基于多传感器前融合的实例标注方法、模型、终端和存储介质
CN110208793B (zh) * 2019-04-26 2022-03-11 纵目科技(上海)股份有限公司 基于毫米波雷达的辅助驾驶系统、方法、终端和介质
CN110501006B (zh) * 2019-08-29 2022-05-03 电子科技大学 一种异类传感器联合航迹关联与跟踪方法
US11287530B2 (en) * 2019-09-05 2022-03-29 ThorDrive Co., Ltd Data processing system and method for fusion of multiple heterogeneous sensors
CN111144501B (zh) * 2019-12-30 2023-11-07 中科海拓(无锡)科技有限公司 一种基于栅格的证据融合时空轨迹数据关联方法
CN111462237B (zh) * 2020-04-03 2022-09-20 清华大学 利用多源信息构建四通道虚拟图像的目标距离检测方法
CN113715753A (zh) * 2020-05-25 2021-11-30 华为技术有限公司 车辆传感器数据的处理方法和系统
CN111859270B (zh) * 2020-07-14 2022-11-25 苏州浪潮智能科技有限公司 一种神经网络的卷积方法和装置
CN111860867B (zh) * 2020-07-24 2023-01-10 苏州浪潮智能科技有限公司 一种混合异构系统的模型训练方法、系统及相关装置
CN112257750B (zh) * 2020-09-21 2024-01-09 中国科学院上海微系统与信息技术研究所 一种面向复合式探测节点的分布式融合系统
CN113762001B (zh) * 2020-10-10 2024-04-19 北京京东乾石科技有限公司 一种目标检测方法、装置、电子设备和存储介质
US11170476B1 (en) * 2020-10-15 2021-11-09 Aeva, Inc. Techniques for fast point cloud filtering using a series cascaded filter
CN112528554A (zh) * 2020-11-17 2021-03-19 中国运载火箭技术研究院 一种适于多发多源火箭试验数据的数据融合方法及系统
CN112596074B (zh) * 2020-12-09 2022-04-12 南京农业大学 一种基于激光雷达的导航车辆障碍物探测方法
CN112733907A (zh) * 2020-12-31 2021-04-30 上海商汤临港智能科技有限公司 数据融合方法、装置、电子设备以及存储介质
US11733346B2 (en) * 2021-02-24 2023-08-22 Qualcomm Incorporated Assistance information to aid with cooperative radar sensing with imperfect synchronization
CN113011465B (zh) * 2021-02-25 2021-09-03 浙江净禾智慧科技有限公司 一种基于分组多级融合的生活垃圾投放智能化监管方法
CN113484857B (zh) * 2021-06-29 2024-04-12 北京理工大学 多源异构点迹融合的跟踪方法、装置、设备及存储介质
CN113671483B (zh) * 2021-08-19 2024-02-20 上海无线电设备研究所 一种基于秒脉冲的星载复合数据融合方法
US20230109909A1 (en) * 2021-10-07 2023-04-13 Motional Ad Llc Object detection using radar and lidar fusion
CN113870259B (zh) * 2021-12-02 2022-04-01 天津御锦人工智能医疗科技有限公司 多模态医学数据融合的评估方法、装置、设备及存储介质
CN114697771B (zh) * 2022-03-16 2023-07-21 电子科技大学 一种多传感器异构数据同步采集匹配系统
CN116308960B (zh) * 2023-03-27 2023-11-21 杭州绿城信息技术有限公司 基于数据分析的智慧园区物业防控管理系统及其实现方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110257882A1 (en) * 2010-04-15 2011-10-20 Mcburney Paul W Road map feedback server for tightly coupled gps and dead reckoning vehicle navigation
US9542846B2 (en) * 2011-02-28 2017-01-10 GM Global Technology Operations LLC Redundant lane sensing systems for fault-tolerant vehicular lateral controller
US9128185B2 (en) 2012-03-15 2015-09-08 GM Global Technology Operations LLC Methods and apparatus of fusing radar/camera object data and LiDAR scan points
US9429650B2 (en) * 2012-08-01 2016-08-30 Gm Global Technology Operations Fusion of obstacle detection using radar and camera
CN104076373A (zh) * 2013-03-27 2014-10-01 北京大学 一种基于多信息融合辅助的载波跟踪方法与系统
US9547989B2 (en) * 2014-03-04 2017-01-17 Google Inc. Reporting road event data and sharing with other vehicles
US20170024621A1 (en) * 2015-07-20 2017-01-26 Dura Operating, Llc Communication system for gathering and verifying information
US10094919B2 (en) * 2015-10-06 2018-10-09 GM Global Technology Operations LLC Radar-vision fusion for target velocity estimation
US9916703B2 (en) * 2015-11-04 2018-03-13 Zoox, Inc. Calibration for autonomous vehicle operation
US10599150B2 (en) * 2016-09-29 2020-03-24 The Charles Stark Kraper Laboratory, Inc. Autonomous vehicle: object-level fusion

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020160798A1 (de) * 2019-02-06 2020-08-13 Bayerische Motoren Werke Aktiengesellschaft Verfahren und eine vorrichtung zur sensordatenfusion für ein fahrzeug
DE102021102480A1 (de) 2021-02-03 2022-08-04 Valeo Schalter Und Sensoren Gmbh Verfahren zum bestimmen einer ersten montageposition zumindest einer ersten sensorvorrichtung eines assistenzsystems eines kraftfahrzeugs sowie assistenzsystem

Also Published As

Publication number Publication date
CN109086788B (zh) 2022-09-20
CN109086788A (zh) 2018-12-25
US10602242B2 (en) 2020-03-24
US20180367871A1 (en) 2018-12-20

Similar Documents

Publication Publication Date Title
DE102018114042A1 (de) Vorrichtung, verfahren und system zur multimodalen fusionsverarbeitung von daten mit mehreren verschiedenen formaten, die von heterogenen vorrichtungen erfasst wurden
DE102020131323A1 (de) Kamera-zu-lidar-kalibration und -validierung
DE112018000899T5 (de) Gemeinsame 3D-Objekterfassung und Ausrichtungsabschätzung über multimodale Fusion
DE102020103512A1 (de) Kollaborative 3-d-umgebungskarte für computergestützte oder autonom fahrende fahrzeuge
DE102018112115A1 (de) Verfahren und Systeme zum Ermitteln der Geschwindigkeit von sich bewegenden Objekten
DE102013113570A1 (de) Bayes-Netz zum Nachführen von Objekten unter Verwendung von Absuchpunkten unter Verwendung mehrerer LiDAR-Sensoren
DE102013102153A1 (de) Verfahren zur Registrierung von Entfernungsbildern von mehreren LiDAR-Sensoren
DE102013113571A1 (de) Verfahren und Vorrichtungen zum Vereinigen von Radar/Kamera-Objektdaten und LiDAR-Absuchpunkten
DE102021112349A1 (de) Fahrzeugbetrieb unter verwendung eines dynamischen belegungsrasters
DE102020113848A1 (de) Ekzentrizitätsbildfusion
EP3824247A1 (de) Verfahren und system zum bestimmen einer position eines fahrzeugs
DE102018121008B4 (de) System zum fahren eines autonomen fahrzeugs sowie damit ausgestattetes fahrzeugs
DE102018123467A1 (de) Verfahren und systeme zur radar-lokalisierung in autonomen fahrzeugen
DE102021002798A1 (de) Verfahren zur kamerabasierten Umgebungserfassung
DE102007013664A1 (de) Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger
DE102020200911B3 (de) Verfahren zum Erkennen von Objekten in einer Umgebung eines Fahrzeugs
DE102010005290A1 (de) Vereinigungsmodul für mehrere Objekte für ein Kollisionsvorbereitungssystem
DE112021006101T5 (de) Systeme und Verfahren zur Objektdetektion mit LiDAR-Dekorrelation
DE102018215753A1 (de) Vorrichtung und Verfahren zum Ermitteln einer Trajektorie eines Fahrzeugs
DE102015207047A1 (de) Verfahren und System automatisierten Sequenzieren von Fahrzeugen in nebeneinander angeordneten Durchfahrtskonfigurationen über eine bildbasierte Einstufung
WO2022247994A1 (de) System zur sensordatenfusion für die umgebungswahrnehmung
DE102022124846A1 (de) Radar-anti-spoofing-system zum identifizieren von durch reziprozitätsbasiertes sensor-spoofing erzeugten geisterobjekten
DE102020100230A1 (de) Rekonstruktion von landmarkenpositionen in autonomen maschinenanwendungen
DE102022108656A1 (de) Neuronales quantilnetz
DE102019213929A1 (de) Plausibilitätsprüfung angehaltener vormals dynamischer Objekte mit Hilfe von Belegungsrastern

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE