DE102018120405A1 - Fusion von radar- und bildsensorsystemen - Google Patents

Fusion von radar- und bildsensorsystemen Download PDF

Info

Publication number
DE102018120405A1
DE102018120405A1 DE102018120405.1A DE102018120405A DE102018120405A1 DE 102018120405 A1 DE102018120405 A1 DE 102018120405A1 DE 102018120405 A DE102018120405 A DE 102018120405A DE 102018120405 A1 DE102018120405 A1 DE 102018120405A1
Authority
DE
Germany
Prior art keywords
radar
reflections
map
obtaining
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102018120405.1A
Other languages
English (en)
Inventor
Shuqing Zeng
Igal Bilik
Shahar Villeval
Yasen Hu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102018120405A1 publication Critical patent/DE102018120405A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Ein System und Verfahren zum Zusammenführen eines Radarsystems und eines Bildsensorsystems umfasst das Erhalten von Radarreflexionen, die aus Übertragungen von Hochfrequenz (RF)-Energie resultieren. Das Verfahren umfasst ebenfalls das Erhalten von Bildrahmen von einem oder mehreren Bildsensorsystemen und das Erzeugen von Regions of Interest (ROI)-Vorschlägen, basierend auf den Radarreflexionen und den Bildrahmen. Informationen zu Objekten, die anhand der ROI-Vorschläge erfasst wurden, werden bereitgestellt.

Description

  • EINLEITUNG
  • Die vorliegende Offenbarung betrifft die Fusion von Radar- und Bildsensorsystemen.
  • Fahrzeuge (z. B. Automobile, Lastkraftwagen, Baumaschinen, Landmaschinen, automatisierte Fabrikausrüstung) sind zunehmend mit Sensorsystemen ausgestattet, die einen verbesserten oder automatisierten Fahrzeugbetrieb ermöglichen. Wenn zum Beispiel ein Sensorsystem ein Objekt direkt vor dem Fahrzeug erfasst, kann eine Warnung an den Fahrer ausgegeben werden oder eine automatische Bremsung oder andere Kollisionsvermeidungsmanöver können durchgeführt werden. Die von den Sensorsystemen erhaltenen Informationen müssen die Erkennung und Identifizierung von Objekten in der Umgebung des Fahrzeugs erleichtern. Ein Typ von Sensorsystem, ein Lichterfassungs- und Entfernungsmesssystem (LIDAR - Light Detection And Ranging)-System, liefert eine dichte Punktwolke (d. h., einen dichten Satz von Reflexionen), die beim Identifizieren einer möglichen Region of Interest (ROI) für weitere Untersuchungen hilfreich sein kann. LIDAR-Systeme haben jedoch Wetter- und andere Einschränkungen. Dementsprechend ist dieses wünschenswert, eine Fusion von Radar- und Bildsensorsystemen bereitzustellen.
  • KURZDARSTELLUNG
  • In einer beispielhaften Ausführungsform umfasst ein Verfahren zum Verschmelzen eines Radarsystems und eines Bildsensorsystems das Erhalten von Radarreflexionen, die aus Übertragungen von Hochfrequenz(RF - Radio Frequency)-Energie resultieren. Das Verfahren umfasst ebenfalls das Erhalten von Bildrahmen von einem oder mehreren Bildsensorsystemen und das Erzeugen von Region of Interest-Vorschlägen (ROI) basierend auf den Radarreflexionen und den Bildrahmen. Informationen zu Objekten, die anhand der ROI-Vorschläge erfasst wurden, werden bereitgestellt.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale wird eine Radarkarte aus den Radarreflexionen erhalten. Die Radarkarte zeigt eine Intensität von verarbeiteten Reflexionen mit jeweiligen Entfernungswerten an.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale wird eine visuelle Merkmalskarte aus den Bildrahmen erhalten. Das Erhalten der visuellen Merkmalskarte umfasst das Verarbeiten der Bildrahmen unter Verwendung eines neuronalen Netzwerks.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale umfasst das Erzeugen der ROI-Vorschläge das Auffinden einer Überlappung zwischen Merkmalen der visuellen Merkmalskarte und Punkten in der Radarkarte.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale umfasst das Erhalten der Radarkarte das Projizieren dreidimensionaler Cluster auf eine Bildebene.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale basiert das Erhalten der dreidimensionalen Cluster auf dem Durchführen schnellen Fourier-Transformationen (FFT - Fast Fourier Transform) der Radarreflexionen.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale umfasst das Erhalten der visuellen Merkmalskarte das Durchführen eines Faltungsvorgangs.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale umfasst das Durchführen des Faltungsvorgangs das Durchführen einer Reihe von Faltungen der Bildrahmen mit einer Kernmatrix.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale umfasst das Bereitstellen der Informationen das Bereitstellen einer Anzeige für einen Fahrer eines Fahrzeugs, die Informationen des Radarsystems und des Bildsensorsystems umfassen.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale ist die Bereitstellung der Informationen für ein Fahrzeugsystem eines Fahrzeugs, das das Radarsystem und das Bildsensorsystem umfasst, wobei das Fahrzeugsystem ein Kollisionsvermeidungssystem, ein adaptives Geschwindigkeitsregelungssystem oder ein autonomes Fahrsystem aufweist.
  • In einer anderen beispielhaften Ausführungsform umfasst ein Fusionssystem ein Radarsystem, um Radarreflexionen zu erhalten, die aus Übertragungen von Hochfrequenz (RF)-Energie resultieren. Das System umfasst ebenfalls ein Bildsensorsystem zum Erhalten von Bildrahmen von einem oder mehreren Bildsensorsystemen und eine Steuerung zum Erzeugen von Region-of-Interest (ROI)-Vorschlägen, basierend auf den Radarreflexionen und den Bildrahmen sowie zum Bereitstellen von Informationen über Objekte, die basierend auf den ROI-Vorschlägen erfasst werden.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale erhält die Steuerung eine Radarkarte von den Radarreflexionen, wobei die Radarkarte eine Intensität der verarbeiteten Reflexionen bei jeweiligen Entfernungswerten angibt.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale erhält die Steuerung eine visuelle Merkmalskarte, basierend auf der Verarbeitung der Bildrahmen unter Verwendung eines neuronalen Netzwerks.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale erzeugt die Steuerung die ROI-Vorschläge, basierend auf dem Auffinden einer Überlappung zwischen Merkmalen der visuellen Merkmalskarte und Punkten in der Radarkarte.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale erhält die Steuerung die Radarkarte, basierend auf dem Projizieren von dreidimensionalen Clustern auf eine Bildebene.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale erhält die Steuerung die dreidimensionalen Cluster, basierend auf der Durchführung einer schnellen Fourier-Transformation der Radarreflexionen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale erhält die Steuerung die visuelle Merkmalskarte, basierend auf der Durchführung eines Faltungsvorgangs.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale führt die Steuerung den Faltungsvorgang, basierend auf der Durchführung einer Reihe von Faltungen der Bildrahmen mit einer Kernmatrix, durch.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale liefert die Steuerung die Informationen als eine Anzeige für einen Fahrer eines Fahrzeugs, das das Radarsystem und das Bildsensorsystem umfasst.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale ist die Bereitstellung der Informationen für ein Fahrzeugsystem eines Fahrzeugs, das das Radarsystem und das Bildsensorsystem umfasst, wobei das Fahrzeugsystem ein Kollisionsvermeidungssystem, ein adaptives Geschwindigkeitsregelungssystem oder ein autonomes Fahrsystem aufweist.
  • Die oben genannten Eigenschaften und Vorteile sowie anderen Eigenschaften und Funktionen der vorliegenden Offenbarung gehen aus der folgenden ausführlichen Beschreibung in Verbindung mit den zugehörigen Zeichnungen ohne Weiteres hervor.
  • Figurenliste
  • Andere Merkmale, Vorteile und Details erscheinen nur exemplarisch in der folgenden ausführlichen Beschreibung der Ausführungsformen, wobei sich die ausführliche Beschreibung auf die Zeichnungen bezieht, wobei gilt:
    • 1 ist ein Blockdiagramm eines Systems zum Durchführen einer Fusion von Radar- und Bildsensorsystemen in einem Fahrzeug gemäß einer oder mehreren Ausführungsformen;
    • 2 ist ein Prozessablauf eines Verfahrens zum Durchführen einer Fusion von Radar- und Bildsensorsystemen gemäß einer oder mehreren Ausführungsformen erhalten werden.
    • 3 zeigt beispielhafte Ergebnisse, die in dem Prozessablauf eines Verfahrens zum Durchführen einer Fusion von Radar- und Bildsensorsystemen gemäß einer oder mehreren Ausführungsformen erhalten werden; und
    • 4 zeigt ein beispielhaftes Bild mit Merkmalen von einer visuellen Merkmalskarte und Punkten von einer Entfernungskarte, die zum Erzeugen von Region of Interest-Vorschlägen gemäß einer oder mehreren Ausführungsformen verwendet werden.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende Beschreibung ist lediglich exemplarischer Natur und nicht dazu gedacht, die vorliegende Offenbarung in ihren An- oder Verwendungen zu beschränken. Es sollte verstanden werden, dass in den Zeichnungen entsprechende Bezugszeichen gleiche oder entsprechende Teile und Merkmale bezeichnen.
  • Wie zuvor erwähnt, benötigen Fahrzeugsysteme, die Warnungen bereitstellen oder automatische Aktionen ausführen, Informationen von Sensorsystemen, die Regions of Interest (ROI) für eine Untersuchung identifizieren. Ein LIDAR-System sendet gepulste Laserstrahlen aus und bestimmt die Entfernung zu erfassten Objekten anhand von reflektierten Signalen. Das LIDAR-System erhält einen dichteren Satz von Reflexionen, der als Punktwolke bezeichnet wird, als ein Radarsystem. Zusätzlich zu relativ höheren Kosten im Vergleich zu Radarsystemen erfordern LIDAR-Systeme trockenes Wetter und liefern keine Doppler-Informationen wie Radarsysteme. Radarsysteme arbeiten im Allgemeinen durch Senden von Hochfrequenz (RF)-Energie und Empfangen von Reflexionen dieser Energie von Zielen in dem Radarsichtfeld. Wenn sich ein Ziel relativ zu dem Radarsystem bewegt, wird die Frequenz der empfangenen Reflexionen von der Frequenz der Übertragungen verschoben. Diese Verschiebung entspricht der Dopplerfrequenz und kann verwendet werden, um die relative Geschwindigkeit des Ziels zu bestimmen. Das heißt, die Doppler-Information erleichtert eine Bestimmung der Geschwindigkeit eines detektierten Objekts relativ zu der Plattform (z. B. dem Fahrzeug) des Radarsystems.
  • Ausführungsformen der hierin ausführlich beschriebenen Systeme und Verfahren beziehen sich auf die Verwendung eines Radarsystems zur Identifizierung von ROI. Eine Fusion von Radar- und Bildsensorsystemen wird verwendet, um die Leistungsverbesserung eines LIDAR-Systems, verglichen mit dem Radarsystem allein, zu erzielen, während Vorteile gegenüber dem LIDAR-System in Bezug auf bessere Leistung bei nassem Wetter und die Fähigkeit, zusätzlich Doppler-Messungen zu erhalten, bereitgestellt werden. Insbesondere wird ein faltendes neuronales Netzwerk (CNN - Convolutional Neural Network) verwendet, um eine Merkmalskartenextraktion an Rahmen durchzuführen, die von einer Video- oder Standbildkamera erhalten werden, und diese Merkmalskarte wird mit einer Entfernungskarte fusioniert, die unter Verwendung eines Radarsystems erhalten wird. Die Fusion wird gemäß der einen oder mehreren Ausführungsformen umso erfolgreicher sein, je höher die Winkelauflösung des Radarsystems ist. Somit ist das exemplarische Radarsystem, das zu Erläuterungszwecken erläutert wird, ein Ultrakurzstreckenradar (USRR - Ultra-Short-Range Radar)-System. Kameras werden als beispielhafte Bildsensorsysteme erläutert.
  • Gemäß einer beispielhaften Ausführungsform zeigt 1 ein Blockdiagramm eines Systems zum Durchführen einer Fusion von Radar- und Bildsensorsystemen in einem Fahrzeug 100. Das in 1 dargestellte exemplarische Fahrzeug 100 ist ein Kraftfahrzeug 101. Das Fahrzeug 100 ist mit drei beispielhaften Kameras 150a, 150b, 150c (im Allgemeinen als 150 bezeichnet) und einem Radarsystem 130, das in der beispielhaften Ausführungsform ein USRR-System 135 ist, dargestellt. Die Fusion gemäß einer oder mehrerer Ausführungsformen wird durch eine Steuerung 110 durchgeführt.
  • Die Steuerung 110 enthält eine Verarbeitungsschaltung, um ein faltendes neuronales Deep Learning Netzwerk (CNN) zu implementieren. Die Verarbeitungsschaltung kann eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor 115 (gemeinsam genutzt, dediziert oder Gruppenprozessor) und einen Speicher 120 beinhalten, der ein oder mehrere Software- oder Firmwareprogramme, wie in 1 gezeigt, eine kombinatorische Logikschaltung und/oder andere geeignete Komponenten ausführt, welche die beschriebene Funktionalität bieten. Die Steuerung 110 kann, basierend auf der Fusion von Daten von dem Radarsystem 130 und den Kameras 150, Informationen oder ein Steuersignal an ein oder mehrere Fahrzeugsysteme 140 liefern. Die Fahrzeugsysteme 140 können beispielsweise ein Kollisionsvermeidungssystem, ein adaptives Geschwindigkeitsregelungssystem oder ein vollständig autonomes Fahrsystem umfassen.
  • 2 ist ein Prozessablauf eines Verfahrens zum Durchführen einer Radarkalibrierung gemäß einer oder mehreren Ausführungsformen. Einige oder alle Prozesse können von der Steuerung 110 ausgeführt werden. Einige oder alle Funktionen der Steuerung 110 können gemäß alternativen Ausführungsformen in dem Radarsystem 130 enthalten sein. Bei Block 210 umfasst das Erhalten von Radarreflexionen 205 das Erhalten von Daten von dem Radarsystem 130, das gemäß der erläuternden Ausführungsform das USRR-System 135 ist. In alternativen Ausführungsformen können die Radarreflexionen 205 von mehreren Radarsystemen 130 erhalten werden. Zum Beispiel können zwei oder mehr USRR-Systeme 135 Sichtfelder aufweisen, die sich mit dem Sichtfeld einer Kamera 150 überlappen. Das Ausführen der Vorverarbeitung bei Block 220 umfasst das Ausführen bekannter Verarbeitungsfunktionen, wie z. B. Durchführen einer schnellen Fourier-Transformation (FFT - Fast Fourier Transform) an den empfangenen Radarreflexionen unter Berücksichtigung der FFT-Werte, die einen vordefinierten Schwellenwert überschreiten und Gruppieren dieser Werte in dreidimensionale Cluster 225, wie in 3 dargestellt. Das Projizieren auf eine Bildebene bei Block 230 umfasst das Erzeugen einer zweidimensionalen Entfernungskarte 235 aus den dreidimensionalen Clustern 225, die bei Block 220 identifiziert wurden. Die Entfernungskarte 235 gibt den Bereich jeder der empfangenen Reflexionen an, die den Schwellenwert entlang einer Achse und die jeweilige Intensität entlang einer senkrechten Achse überschreitet. Eine beispielhafte Entfernungskarte 235 ist in 3 dargestellt.
  • Bei Block 240 umfasst das Erhalten von Bildrahmen 207 das Erhalten von Bildern von jeder der Kameras 150. Ein Bildrahmen 207, der den beispielhaften dreidimensionalen Clustern 225 entspricht, ist ebenfalls in 3 dargestellt. Die Verarbeitung der Bildrahmen 207 bei Block 250 führt zu einer visuellen Merkmalskarte 255. Die Verarbeitung der Bildrahmen 207 umfasst eine bekannte Reihe von Faltungsvorgängen, bei denen die Matrix von Pixeln der Bildrahmen 207 und anschließend das Ergebnis des vorherigen Faltungsvorgangs eine Faltung mit einer Kernmatrix unterzogen werden. Die anfänglichen Kernwerte können zufällig sein oder durch Experimentieren bestimmt und während eines Trainingsprozesses verfeinert werden. Die visuelle Merkmalskarte 255 zeigt Merkmale (z. B. Bäume, Fahrzeuge, Fußgänger) in den verarbeiteten Bildrahmen 207 an.
  • Bei Block 260 umfasst das Erzeugen eines oder mehrerer Vorschläge von Regions of Interest (ROI) das Verwenden der aus den Radarreflexionen 205 resultierenden Entfernungskarte 235 und der aus den Bildrahmen 207 resultierenden visuellen Merkmalskarte 255 als Eingaben. Insbesondere werden Objekte, die in der Radarkarte 235 angezeigt werden, und visuelle Merkmale, die in der visuellen Merkmalskarte 255 identifiziert sind, verglichen, um eine Überlappung als die ROI zu bestimmen. Die visuelle Merkmalskarte 255 und die ROI-Vorschläge (erzeugt bei Block 260) werden bei Block 270 für das Poolen von Bereichsvorschlägen (RP - Region Proposal) verwendet. RP-Pooling bezieht sich bei Block 270 auf das Normalisieren der ROI-Vorschläge (erzeugt bei Block 260) auf die gleiche Größe. Das heißt, jeder ROI-Vorschlag kann eine unterschiedliche Größe (z. B. 32 × 32 Pixel, 256 × 256 Pixel) aufweisen und kann in Block 270 auf die gleiche Größe (z. B. 7 × 7 Pixel) normalisiert werden. Die Pixel in der visuellen Merkmalskarte 255, die den ROI-Vorschlägen entsprechen, werden extrahiert und normalisiert, um eine normierte Merkmalskarte 275 zu erzeugen. Diese Verarbeitung wird unter Bezugnahme auf 4 näher beschrieben. Das Klassifizieren und Lokalisieren der normalisierten Merkmalskarte 275 bei Block 280 umfasst einen anderen neuralen Netzwerkprozess. Im Wesentlichen werden die Vorschläge in der normierten Merkmalskarte 275, basierend auf einer bekannten Objektidentifikationsverarbeitung, analysiert, um zu bestimmen, ob diese ein Objekt umfassen. Wenn dies der Fall ist, wird das Objekt klassifiziert (z. B. Fußgänger, Fahrzeug).
  • Das Bereitstellen der Ausgabe kann in Block 290 mehrere Ausführungsformen umfassen. Gemäß einer Ausführungsform kann die Ausgabe eine Anzeige 410 für den Fahrer sein, die eine Anzeige der klassifizierten Objekte in einer Kameraanzeige überlagert. Die Anzeige kann ein Bild mit Kästchen umfassen, die den Umriss von klassifizierten Objekten anzeigen. Farbe oder andere Codierungen können die Klassifizierung anzeigen. Die Kästchen werden mit einer zentralen Position u, v in Pixelkoordinaten und einer Größe (Breite W und Höhe H) in Pixeleinheiten platziert. Alternativ oder zusätzlich umfasst die Ausgabe Informationen, die für ein oder mehrere Fahrzeugsysteme 140 bereitgestellt werden können. Die Informationen können den Ort und die Klassifizierung jedes klassifizierten Objekts in einem dreidimensionalen Raum von der Fahrzeugperspektive umfassen. Die Informationen können die Erfassungswahrscheinlichkeit, Objektgeometrie, Geschwindigkeit (d. h., Kurswinkel, Geschwindigkeit) umfassen, die basierend auf Doppler-Informationen, erhalten durch das Radarsystem 130 oder Bildrahmen-für-Bildrahmen-Bewegung, basierend auf den Kameras 150 und der Position (z. B. im x, y-Koordinatensystem) für jedes Objekt, bestimmt werden.
  • 3 zeigt beispielhafte Ergebnisse, die in dem Prozessablauf eines Verfahrens zum Durchführen einer Fusion von Radar- und Bildsensorsystemen gemäß einer oder mehreren Ausführungsformen erhalten werden. Ein beispielhafter Bildrahmen 207 ist dargestellt. Der beispielhafte Bildrahmen 207 zeigt Objekte (z. B. geparkte Autos) an, die die Hochfrequenz (RF)-Übertragungen von dem Radarsystem 130 sowie weniger reflektierende Objekte (z. B. Bäume) reflektieren. Exemplarische dreidimensionale Cluster 225, die bei Block 220 erhalten werden, sind ebenfalls in 3 für dasselbe Szenario, das in dem beispielhaften Bildrahmen 207 gezeigt wird, dargestellt. Wie die Schattierung der dreidimensionalen Cluster 225 anzeigt, reflektieren die geparkten Autos mehr Energie als andere Objekte in der Szene. Eine beispielhafte Entfernungskarte 235 ist ebenfalls in 3 dargestellt. Die Entfernungskarte 235 ist eine zweidimensionale Projektion von dreidimensionalen Clustern 225. Basierend auf der Verarbeitung des exemplarischen Bildrahmens 207 wird ebenfalls eine resultierende beispielhafte visuelle Merkmalskarte 255 in 3 gezeigt. Die in der visuellen Merkmalskarte 255 identifizierten Merkmale sind, wie gezeigt, durch Rechtecke begrenzt. Wie in 3 gezeigt, weisen die Rechtecke, die die verschiedenen Merkmale begrenzen, unterschiedliche Größen auf (d. h., umfassen eine unterschiedliche Anzahl von Pixeln). Dies führt zu dem Bedarf für das Pooling bei Block 270.
  • 4 zeigt ein beispielhaftes Bild 410 mit Merkmalen 420 aus einer visuellen Merkmalskarte 255 und Punkten 430 aus einer Entfernungskarte 235, die zum Erzeugen von ROI-Vorschlägen gemäß einer oder mehreren Ausführungsformen verwendet werden. Die Merkmale 420 von der Merkmalskarte 255 werden als zweizeilige Rechtecke angezeigt, und die Punkte 430 der Entfernungskarte 235 werden als einzeilige Rechtecke angezeigt. Wie 4 zeigt, werden Bäume als Merkmale 420 angezeigt, bilden aber keine Punkte 430 in der Entfernungskarte 235. Da die Bäume keinen Überlappungsbereich zwischen den Merkmalen 420 und den Punkten 430 darstellen, würden die Bäume daher in Block 260 in keiner ROI angezeigt werden. Selbst wenn in Block 260 erzeugte ROIs Bäume, Sträucher und dergleichen umfassen würden, würde die Klassifizierung in Block 280 diese Objekte aus der Ausgabe in Block 290 ausschließen.
  • Während die obige Offenbarung mit Bezug auf exemplarische Ausführungsformen beschrieben wurde, werden Fachleute verstehen, dass unterschiedliche Änderungen vorgenommen und die einzelnen Teile durch entsprechende andere Teile ausgetauscht werden können, ohne vom Umfang der Offenbarung abzuweichen. Darüber hinaus können viele Modifikationen vorgenommen werden, um eine bestimmte Materialsituation an die Lehren der Offenbarung anzupassen, ohne von deren wesentlichem Umfang abzuweichen. Daher ist vorgesehen, dass die vorliegende Offenbarung nicht auf die speziellen offenbarten Ausführungsformen beschränkt ist, aber alle Ausführungsformen beinhaltet, die in deren Umfang fallen.

Claims (10)

  1. Verfahren zur Fusion eines Radarsystems und eines Bildsensorsystems, wobei das Verfahren Folgendes umfasst: Erhalten von Radarreflexionen, die aus Übertragungen von Hochfrequenz(RF)-Energie resultieren; Erhalten von Bildrahmen von einem oder mehreren Bildsensorsystemen; Erzeugen von Region of Interest (ROI)-Vorschlägen basierend auf den Radarreflexionen und den Bildrahmen; und Bereitstellen von Informationen über Objekte, die basierend auf den ROI-Vorschlägen erfasst wurden.
  2. Verfahren nach Anspruch 1, ferner umfassend das Erhalten einer Radarkarte aus den Radarreflexionen, wobei die Radarkarte eine Intensität verarbeiteter Reflexionen bei jeweiligen Entfernungswerten angibt und ferner das Erhalten einer visuellen Merkmalskarte aus den Bildrahmen umfasst, wobei das Erhalten der visuellen Merkmalskarte das Verarbeiten der Bildrahmen unter Verwendung eines neuronalen Netzes umfasst.
  3. Verfahren nach Anspruch 2, wobei das Erzeugen der ROI-Vorschläge das Finden einer Überlappung zwischen Merkmalen der visuellen Merkmalskarte und Punkten in der Radarkarte umfasst.
  4. Verfahren nach Anspruch 2, wobei das Erhalten der Radarkarte das Projizieren von dreidimensionalen Clustern auf eine Bildebene umfasst, und das Verfahren ferner das Erhalten der dreidimensionalen Cluster, basierend auf dem Durchführen einer Fast-Fourier-Transformation der Radarreflexionen, und das Erhalten der visuellen Merkmalskarte das Durchführen eines Faltungsvorgangs umfasst, und das Durchführen des Faltungsvorgangs das Ausführen einer Reihe von Faltungen der Bildrahmen mit einer Kernmatrix umfasst.
  5. Verfahren nach Anspruch 1, wobei das Bereitstellen der Informationen das Bereitstellen einer Anzeige für einen Fahrer eines Fahrzeugs, das das Radarsystem und das Bildsensorsystem umfasst, und das Bereitstellen von Informationen für ein Fahrzeugsystem eines Fahrzeugs, das das Radarsystem und das Bildsensorsystem umfasst, wobei das Fahrzeugsystem ein Kollisionsvermeidungssystem, ein adaptives Geschwindigkeitsregelungssystem oder ein autonomes Fahrsystem umfasst.
  6. Fusionssystem, umfassend: Radarsystem, das konfiguriert ist, um Radarreflexionen zu erhalten, die aus Übertragungen von Hochfrequenz(RF)-Energie resultieren; Bildsensorsystem, das konfiguriert ist, Bildrahmen von einem oder mehreren Bildsensorsystemen zu erhalten; und Steuerung, die konfiguriert ist, um auf Grundlage der Radarreflexionen und der Bildrahmen Vorschläge für eine Region of Interest (ROI) zu erzeugen und Informationen über Objekte bereitzustellen, die basierend auf den ROI-Vorschlägen erfasst werden.
  7. System nach Anspruch 6, wobei die Steuerung ferner konfiguriert ist, um aus den Radarreflexionen eine Radarkarte zu erhalten, wobei die Radarkarte eine Intensität von verarbeiteten Reflexionen bei jeweiligen Entfernungswerten anzeigt und zum Erhalt einer visuellen Merkmalskarte, basierend auf der Verarbeitung der Bildrahmen durch ein neurales Netzwerk.
  8. System nach Anspruch 7, wobei die Steuerung ferner dazu konfiguriert ist, die ROI-Vorschläge, basierend auf dem Auffinden einer Überlappung zwischen Merkmalen der visuellen Merkmalskarte und Punkten in der Radarkarte, zu erzeugen.
  9. System nach Anspruch 7, wobei die Steuerung ferner konfiguriert ist, um die Radarkarte, basierend auf dem Projizieren von dreidimensionalen Clustern auf eine Bildebene, zu erhalten und dreidimensionale Cluster, basierend auf der Durchführung einer Fast-Fourier-Transformation der Radarreflexionen, zu erhalten, die Steuerung weiterhin konfiguriert ist, um die visuelle Merkmalskarte, basierend auf der Durchführung eines Faltungsvorgangs, zu erhalten, wobei der Faltungsvorgang auf der Durchführung einer Reihe von Faltungen der Bildrahmen mit einer Kernmatrix basiert.
  10. System nach Anspruch 6, wobei die Steuerung ferner konfiguriert ist, um Informationen als eine Anzeige für einen Fahrer eines Fahrzeugs bereitzustellen, das das Radarsystem und das Bildsensorsystem umfasst, und um die Informationen für ein Fahrzeugsystem eines Fahrzeugs bereitzustellen, das das Radarsystem und das Bildsensorsystem umfasst, wobei das Fahrzeugsystem ein Kollisionsvermeidungssystem, ein adaptives Geschwindigkeitsregelungssystem oder ein autonomes Fahrsystem umfasst.
DE102018120405.1A 2017-08-22 2018-08-21 Fusion von radar- und bildsensorsystemen Withdrawn DE102018120405A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/683,144 US20190065878A1 (en) 2017-08-22 2017-08-22 Fusion of radar and vision sensor systems
US15/683,144 2017-08-22

Publications (1)

Publication Number Publication Date
DE102018120405A1 true DE102018120405A1 (de) 2019-02-28

Family

ID=65321301

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018120405.1A Withdrawn DE102018120405A1 (de) 2017-08-22 2018-08-21 Fusion von radar- und bildsensorsystemen

Country Status (3)

Country Link
US (1) US20190065878A1 (de)
CN (1) CN109426802A (de)
DE (1) DE102018120405A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11676488B2 (en) 2019-10-11 2023-06-13 Aptiv Technologies Limited Method and system for determining an attribute of an object at a pre-determined time point
DE102022204546A1 (de) 2022-05-10 2023-11-16 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren für eine Verarbeitung von Sensordaten für ein Fahrassistenzsystem eines Fahrzeuges
US11941509B2 (en) 2020-02-27 2024-03-26 Aptiv Technologies AG Method and system for determining information on an expected trajectory of an object

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11361554B2 (en) 2019-10-22 2022-06-14 Robert Bosch Gmbh Performing object and activity recognition based on data from a camera and a radar sensor
US11270170B2 (en) * 2020-03-18 2022-03-08 GM Global Technology Operations LLC Object detection using low level camera radar fusion
EP4116738A4 (de) * 2020-03-31 2024-03-20 Bitsensing Inc. Radarvorrichtung und verfahren zur klassifizierung von objekten
CN112346073B (zh) * 2020-09-25 2023-07-11 中山大学 一种动态视觉传感器与激光雷达数据融合方法
US11954180B2 (en) 2021-06-11 2024-04-09 Ford Global Technologies, Llc Sensor fusion area of interest identification for deep learning
CN113688900A (zh) * 2021-08-23 2021-11-23 阿波罗智联(北京)科技有限公司 雷达和视觉数据融合处理方法、路侧设备及智能交通系统
CN116559927B (zh) * 2023-07-11 2023-09-22 新石器慧通(北京)科技有限公司 激光雷达的航向角确定方法、装置、设备及介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0532052B1 (de) * 1991-09-12 2008-02-13 FUJIFILM Corporation Verfahren zur Ermittlung von Objektbildern und Verfahren zur Bestimmung der Bewegung davon
US5761385A (en) * 1995-09-05 1998-06-02 Loral Defense Systems Product and method for extracting image data
JP4557041B2 (ja) * 2008-04-18 2010-10-06 株式会社デンソー 車両用画像処理装置
CN102508246B (zh) * 2011-10-13 2013-04-17 吉林大学 车辆前方障碍物检测跟踪方法
CN103188548A (zh) * 2011-12-30 2013-07-03 乐金电子(中国)研究开发中心有限公司 数字电视手语配音方法及装置
EP2639781A1 (de) * 2012-03-14 2013-09-18 Honda Motor Co., Ltd. Fahrzeug mit verbesserter Verkehrsobjektpositionserkennung
US8855849B1 (en) * 2013-02-25 2014-10-07 Google Inc. Object detection based on known structures of an environment of an autonomous vehicle
KR102022699B1 (ko) * 2013-03-26 2019-11-06 삼성디스플레이 주식회사 영상 제어 표시 장치 및 영상 제어 방법
CN103809163B (zh) * 2014-01-13 2016-05-25 中国电子科技集团公司第二十八研究所 一种基于局部极大值的车辆雷达目标检测方法
CN105691340A (zh) * 2014-11-28 2016-06-22 西安众智惠泽光电科技有限公司 一种多功能智能汽车防撞装置
KR102366402B1 (ko) * 2015-05-21 2022-02-22 엘지전자 주식회사 운전자 보조 장치 및 그 제어방법
US9630619B1 (en) * 2015-11-04 2017-04-25 Zoox, Inc. Robotic vehicle active safety systems and methods
US10145951B2 (en) * 2016-03-30 2018-12-04 Aptiv Technologies Limited Object detection using radar and vision defined image detection zone
US10545229B2 (en) * 2016-04-22 2020-01-28 Huawei Technologies Co., Ltd. Systems and methods for unified mapping of an environment
JP6964234B2 (ja) * 2016-11-09 2021-11-10 パナソニックIpマネジメント株式会社 情報処理方法、情報処理装置およびプログラム
CN106926712A (zh) * 2017-03-28 2017-07-07 银西兰 新能源电动房车
CN106951879B (zh) * 2017-03-29 2020-04-14 重庆大学 基于摄像头与毫米波雷达的多特征融合车辆检测方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11676488B2 (en) 2019-10-11 2023-06-13 Aptiv Technologies Limited Method and system for determining an attribute of an object at a pre-determined time point
US11941509B2 (en) 2020-02-27 2024-03-26 Aptiv Technologies AG Method and system for determining information on an expected trajectory of an object
DE102022204546A1 (de) 2022-05-10 2023-11-16 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren für eine Verarbeitung von Sensordaten für ein Fahrassistenzsystem eines Fahrzeuges

Also Published As

Publication number Publication date
CN109426802A (zh) 2019-03-05
US20190065878A1 (en) 2019-02-28

Similar Documents

Publication Publication Date Title
DE102018120405A1 (de) Fusion von radar- und bildsensorsystemen
DE102004035842B4 (de) Duales ungleichartiges erfassendes Objektdetektions- und Zielerfassungssystem
EP1298454B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
EP3540457A1 (de) Identifikation von objekten mittels radardaten
DE102007019491B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung, Fahrzeug, Fahrzeugumgebungs-Überwachungsverfahren und Fahrzeugumgebungs-Überwachungsprogramm
DE102014207802B3 (de) Verfahren und System zum proaktiven Erkennen einer Aktion eines Verkehrsteilnehmers
EP3292510A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnreflexionen
DE102018132805A1 (de) Verfahren für eine verbesserte Objekterfassung
DE102010005290A1 (de) Vereinigungsmodul für mehrere Objekte für ein Kollisionsvorbereitungssystem
DE102015114733A1 (de) Objektgrenzdetektion für Kraftfahrzeugradarbildgebung
DE102018133441A1 (de) Verfahren und System zum Bestimmen von Landmarken in einer Umgebung eines Fahrzeugs
DE102020107344A1 (de) Azimut- und elevationsradar-abbildung mit eindimensionalen antennenanordnungen des radarsystems
DE102018121008A1 (de) Kreuzverkehrserfassung unter verwendung von kameras
DE102017108254A1 (de) Rundumsichtkamerasystem zur Objekterkennung und -verfolgung
DE102021103370A1 (de) Objekterkennung mittels low-level-kamera-radar-fusion
DE102016104730A1 (de) Verfahren zum Detektieren eines Objekts entlang einer Straße eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102021129544A1 (de) Systeme und verfahren zur tiefenabschätzung in einem fahrzeug
EP1298012B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
EP3663881A1 (de) Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren
DE102018106478A1 (de) Zielverfolgung unter verwendung von regionskovarianz
DE102020103770A1 (de) Identifizierung der Aufmerksamkeitsregion zur Verbesserung der sensorgestützten Erkennung in einem Fahrzeug
DE102019209473A1 (de) Verfahren und Vorrichtung zur schnellen Erfassung von sich wiederholenden Strukturen in dem Bild einer Straßenszene
DE102019102672A1 (de) Intersensorisches lernen
DE102022111240A1 (de) Identifizierung planarer Punkte in einer Lidar-Punktwolke, die mit einem Fahrzeug-Lidar-System erhalten wird

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee