DE102015122825B4 - Techniken zum Gruppieren von Zielelementen für eine Objektfusion - Google Patents

Techniken zum Gruppieren von Zielelementen für eine Objektfusion Download PDF

Info

Publication number
DE102015122825B4
DE102015122825B4 DE102015122825.4A DE102015122825A DE102015122825B4 DE 102015122825 B4 DE102015122825 B4 DE 102015122825B4 DE 102015122825 A DE102015122825 A DE 102015122825A DE 102015122825 B4 DE102015122825 B4 DE 102015122825B4
Authority
DE
Germany
Prior art keywords
targets
object detection
detection system
list
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102015122825.4A
Other languages
English (en)
Other versions
DE102015122825A1 (de
Inventor
Shuqing Zeng
Kevin A. O'Dea
Dmitriy Feldman
James N. Nickolaou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102015122825A1 publication Critical patent/DE102015122825A1/de
Application granted granted Critical
Publication of DE102015122825B4 publication Critical patent/DE102015122825B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93276Sensor installation details in the windshield area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Ein Verfahren zum Gruppieren von Objektsensormessungen mit Zielobjekten in einem Objektdetektionssystem (12), wobei das genannte Verfahren folgende Schritte umfasst:- Bereitstellen einer Liste von Zielobjekten, welche von dem Objektdetektionssystem (12) verfolgt werden, wobei die Liste von Zielobjekten bekannte Zielelemente umfasst, welche von dem Objektdetektionssystem (12) in einem Bereich vor einem Trägerfahrzeug (180) identifiziert werden;- Berechnen von hypothetischen Standorten und Orientierungen für jedes bekannte Ziel in der Liste von Zielobjekten, wobei das Berechnen von hypothetischen Standorten und Orientierungen für jedes bekannte Zielelement ein Verwenden von digitalen Kartendaten umfasst, um einen Standort und eine Orientierung jedes bekannten Zielelements basierend auf Straßenbiegungsdaten und Zielelementgeschwindigkeit vorherzusagen, wobei die hypothetischen Standorte und Orientierungen eine Vorhersage der Bewegung jedes bekannten Zielelements, seitdem die Liste von Zielobjekten zuletzt berechnet wurde, umfassen;- Bereitstellen von Sensormesspunkten von mindestens einem Objekterfassungssystem, wobei die Sensormesspunkte Punkte bezeichnen, an denen ein Objekt in dem Bereich vor dem Trägerfahrzeug (180) detektiert wurde;- Gruppieren unter Verwenden eines Mikroprozessors der Sensormesspunkte mit den bekannten Zielelementen an den hypothetischen Standorten und Orientierungen;- Validieren der hypothetischen Standorte und Orientierungen basierend auf dem Gruppieren;- Identifizieren von neuen Zielelementen basierend auf eventuellen Clustern von Sensormesspunkten, welche nicht mit einem der bekannten Zielelemente korrelieren; und- Aktualisieren der Liste von Zielobjekten, um die bekannten Zielelemente an den hypothetischen Standorten und Orientierungen und eventuelle neu identifizierte Zielelemente zu umfassen.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft im Allgemeinen eine erweiterte Zielelementidentifizierung in einem Objektdetektionssystem und insbesondere ein Verfahren zum Gruppieren von Objektsensormessungen zu Zielelementen, welches Straßenbiegungsinformationen, zusätzliche Zielelementattribute und eine Abstandskompression für verbesserte Gruppierungsgenauigkeit, und ein Gitterbasiertes Abgleichen unter Verwenden von Hash-Tabellen für eine verbesserte Rechenleistung verwendet.
  • Diskussion der verwandten Technik
  • Viele Fahrzeuge umfassen heutzutage Objektdetektionssysteme, welche verschiedene Technologien zum Detektieren und Identifizieren von Objekten in der Nähe eines Trägerfahrzeugs einsetzen, wobei die Objekte andere Fahrzeuge, Fußgänger, feste Objekte usw. umfassen können. Die Technologien, welche zur Objektdetektion verwendet werden, umfassen unter anderem Kameras mit Bildverarbeitungsalgorithmen, Radar, Lidar und Ultraschall. Die Daten von dem Objektdetektionssystem werden typischerweise in einem oder mehreren nachgeschalteten Systemen in dem Fahrzeug verwendet - wozu Kollisionswarnsysteme, Kollisionsvermeidungssysteme und andere Fahreralarmsysteme gehören.
  • Die Objektdetektionssysteme können auch dazu verwendet werden, Straßenränder, Spurmarkierungen, Leitplanken und Mittelstreifen zu identifizieren, und der Standort dieser Elemente kann in einem Spurerfassungssystem dazu verwendet werden, die Spurgeometrie auf der Straße vor dem Trägerfahrzeug zu bestimmen.
  • Angesichts der Weiterverbreitung von Objektdetektionssensoren in Fahrzeugen und der vielen verschiedenen Objekttypen, welche es zu detektieren gilt, sind Geschwindigkeit und Genauigkeit der Verarbeitung aller Objektsensordaten von größter Bedeutung. Obwohl auf diesem Gebiet in der Vergangenheit gewisse Fortschritte gemacht wurden, werden weitere Verbesserungen benötigt, um das Ziel zu erreichen, einen Satz unverarbeiteter Sensormessungen effizient in eine exakte Liste von Fahrzeugen und anderen Zielelementen in der Nähe des Trägerfahrzeugs umzurechnen.
  • Die DE 10 2013 113 570 A1 offenbart ein Bayes-Netz zum Nachführen von Objekten unter Verwendung von Absuchpunkten unter Verwendung mehrerer LiDAR-Sensoren.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Entsprechend den Lehren der vorliegenden Erfindung wird ein Verfahren zum verbesserten Gruppieren von Zielelementen von Sensormessungen in einem Objektdetektionssystem gemäß Anspruch 1 offenbart.
  • Zusätzliche Merkmale der vorliegenden Erfindung werden aus der nachstehenden Beschreibung und den beiliegenden Ansprüchen, in Zusammenhang mit den beiliegenden Zeichnungen gesehen, hervorgehen.
  • Figurenliste
    • 1 ist ein schematisches Diagramm eines Fahrzeugs mit zwei verschiedenen Arten von Objektdetektionssystemen;
    • 2 ist eine Abbildung, wie ein herkömmliches Objektdetektionssystem Sensormessungen mit möglichen Zielelementen abgleicht;
    • 3 ist eine Abbildung, wie Straßenbiegungsinformationen dazu verwendet werden können, die Bewegung von Zielobjekten zu verfolgen und sie mit Sensormessungen abzugleichen;
    • 4 ist ein Blockdiagramm eines Systems, welches zwei Quellen von Straßenbiegungsinformationen und externe Informationsquellen zusammen mit einer Liste von bekannten Zielobjekten verwendet, um Sensormessungen zu einer neuen Liste von Zielelementen zu gruppieren;
    • 5A ist eine Abbildung eines Trägerfahrzeugs, welches sowohl feste als auch bewegliche Objekte auf der vorausliegenden Fahrbahn verfolgt;
    • 5B ist eine Grafik, welche die Mehrdeutigkeit beim Gruppieren einer Sensormessung mit einem Zielelement zeigt, welche entstehen kann, wenn nur die Entfernung als Parameter verwendet wird;
    • 5C ist eine Grafik, in der eine Objektentfernungsrate enthalten ist, um die Gruppierung von Sensormessungen mit Zielelementen zu verbessern;
    • 6 ist eine Grafik einer abgebildeten Entfernungsmessung gegenüber einer tatsächlichen Entfernungsmessung, wobei die abgebildete Entfernung auf einer Log-Skala berechnet wird;
    • 7A ist eine Grafik in Polarkoordinaten von Sensormessungen mit Bezug auf ein Trägerfahrzeug, wobei die tatsächliche Entfernungsmessung auf der radialen Skala verwendet wird;
    • 7B ist eine Grafik in Polarkoordinaten von Sensormessungen mit Bezug auf ein Trägerfahrzeug, wobei die mittels Log abgebildete Entfernungsmessung auf der radialen Skala verwendet wird, wodurch die Variation der Entfernung reduziert wird;
    • 8A ist eine Abbildung eines Gitters, welches dazu verwendet werden kann, Sensormessungen mit bekannten Zielelementen zu gruppieren;
    • 8B ist eine Abbildung einer Hash-Tabelle und einer Technik zum effizienten Gruppieren von Sensormessungen mit bekannten Zielelementen unter Verwendung des Gitters aus 8A;
    • 9 ist eine Abbildung eines Gitters, welches mit einem Flutfüllungsalgorithmus dazu verwendet werden kann, Sensormessungen mit bekannten Zielelementen beliebiger Form zu gruppieren; und
    • 10 ist ein Flussdiagramm eines Verfahrens zum Gruppieren von Objektsensormessungen mit Zielelementen in einem Objektdetektionssystem.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSBEISPIELE
  • Die nachstehende Diskussion der Ausführungsbeispiele der Erfindung bezüglich eines Verfahrens zum Gruppieren von Objektsensormessungen mit Zielelementen in einem Objektdetektionssystem ist rein beispielhafter Art und keineswegs dazu gedacht, die Erfindung oder ihre Anwendungen oder Verwendungen einzuschränken.
  • Objektdetektionssystems sind in modernen Fahrzeugen immer geläufiger geworden, da Kollisionswarn- und Kollisionsvermeidungssysteme und andere weiterentwickelte Systeme bei den Verbrauchern immer beliebter werden. Um genaue und rechtzeitige Objektinformationen bereitzustellen, wurden Objektdetektionssysteme entwickelt, welche verschiedene Sensortechnologien und verschiedene Techniken zur Objekterkennung verwenden. Alle diese Systeme können jedoch aus einer verbesserten Genauigkeit der Zielverfolgung und einer verbesserten Recheneffizienz Nutzen ziehen.
  • 1 ist ein schematisches Diagramm eines Fahrzeugs 10, welches ein Objektdetektionssystem 12 umfasst, welches Informationen über umgebende Objekte von einem ersten Objekterfassungssystem 20 und einem zweiten Objekterfassungssystem 30 empfängt. Das erste Objekterfassungssystem 20 empfängt Bilder von einer Frontkamera 22, welche viele verschiedene Arten von Objekten vor dem Fahrzeug 10 detektieren kann. Die Frontkamera 22 kann vorherfahrende Fahrzeuge, Fußgänger, Straßenränder und Mittelstreifen, Überführungen, Schilder und andere Objekte detektieren, und das erste Objekterfassungssystem 20 verfolgt diese detektierten Objekte mit Bezug auf das Fahrzeug 10.
  • Das zweite Objekterfassungssystem 30 empfängt Messungen von einer Vielzahl von Sensoren um das Fahrzeug 10 herum. Die Sensoren können einen hinteren Sensor 32, einen vorderen Sensor 34 und seitliche Sensoren 36 und 38 umfassen. Alle Sensoren 32 bis 38 können eine Radar-, Lidar-, Ultraschall- oder eine bestimmte andere Sensortechnologie dazu verwenden, Objekte um das Fahrzeug 10 herum zu detektieren. Die Objekterfassungssysteme 20 und 30 sind rein beispielhaft für die Arten von Objektsensoren, welche in dem Fahrzeug 10 installiert werden können. Das Fahrzeug 10 muss nicht genau ein kamerabasiertes Objekterfassungssystem und ein nicht kamerabasiertes System umfassen. Es kann tatsächlich nur ein Objekterfassungssystem oder mehr als eines unter Verwendung von verschiedenen Kombinationen von Kamera, Radar, Lidar, Ultraschall usw. geben.
  • Die Objekterfassungssysteme 20 und 30 stellen ihre Sensormessungen dem Objektdetektionssystem 12 bereit, welches Sensormessungen mit einer Liste von verfolgten Zielobjekten (Fahrzeugen, Überführungen, Bäumen, Fußgängern usw.) in Echtzeit verknüpft. Es ist eine Hauptaufgabe des Objektdetektionssystems 12, ein genaues und effizientes Gruppieren von Sensormessungen zu Zielobjekten bereitzustellen.
  • Es versteht sich, dass das Objektdetektionssystem 12, das erste Objekterfassungssystem 20 und das zweite Objekterfassungssystem 30 mindestens aus einem Prozessor und einem Speichermodul bestehen, wobei die Prozessoren mit Software konfiguriert sind, welche derart ausgelegt ist, dass sie Sensormessungen empfängt und Zielobjekte identifiziert und verfolgt. Die Logik und die Berechnungen, welche in dem Objektdetektionssystem 12 verwendet werden, werden nachstehend ausführlich besprochen.
  • Es versteht sich weiter, dass die Merkmale und Berechnungen des Objektdetektionssystems 12, des ersten Objekterfassungssystems 20 und des zweiten Objekterfassungssystems 30 anders aufgeteilt sein könnten als hier beschrieben, ohne den Geist der offenbarten Erfindung zu verlassen. Beispielsweise könnten alle Berechnungen zum Gruppieren von Sensormessungen und zur Fusion von Zielelementen in einem einzigen Prozessor in dem Objektdetektionssystem 12 ausgeführt werden. D.h. die Systeme 12, 20 und 30 könnten in einer einzigen räumlichen Vorrichtung oder in mehreren verschiedenen Modulen ausgebildet sein; keine dieser Konfigurationsoptionen wirkt sich auf die nachstehend besprochenen erfindungsgemäßen Verfahren aus.
  • 2 bildet ab, wie ein herkömmliches Objektdetektionssystem Sensormessungen mit möglichen Zielelementen abgleicht. Ein Zielfahrzeug 80 wird durch einen hypothetischen Schwerpunktstandort 82 zusammen mit einer Länge L und einer Breite W dargestellt, wobei sich der Schwerpunktstandort 82 in einer Position (xf,yf) befindet. Das Fahrzeug 80 wird als Beispiel einer üblichen Objektart verwendet, welches von einem Objektdetektionssystem detektiert werden kann. Die Sensormesspunkte 84 und 86 müssen überprüft werden, um zu bestimmen, ob sie zu dem Zielfahrzeug 80 gehören und den hypothetischen Schwerpunktstandort 82 unterstützen. Ein Verfahren, um dies zu bestimmen, besteht darin, die folgende Ungleichheit zu überprüfen: max ( | x x f L / 2 | , | y y f W / 2 | ) < 1
    Figure DE102015122825B4_0001
  • Wobei x und y die Koordinaten des Messpunktes 84 oder 86 sind, welcher überprüft wird, und die anderen Variablen zuvor beschrieben wurden. Wenn die Ungleichheit der Gleichung (1) wahr ist, dann bestätigt sich, dass die Punktkoordinaten (x,y) in das Rechteck fallen, welches um (xf,yf) zentriert ist, und der Messpunkt 84 wird beispielsweise als zu dem Zielfahrzeug 80 gehörend und den hypothetischen Schwerpunktstandort 82 unterstützend bestimmt.
  • Obwohl die in der Gleichung (1) ausgebildete herkömmliche Technik für Zielfahrzeuge angemessen ist, welche vor einem Trägerfahrzeug geradeaus fahren, kann es sein, dass sie für den Fall von andersartigen Objekten in Situationen, in denen sich die Straßenbiegung auf Position und Orientierung des Zielelements auswirkt, oder unter anderen Umständen keine genauen Ergebnisse erbringt. Eine falsche Verknüpfung von Sensormesspunkten mit Zielelementen verursacht fehlerhafte Zielfusionsergebnisse, welche zu Fehlern in den nachgeschalteten Systemen führen, welche die Objektdetektionsdaten verwenden.
  • Nachstehend werden mehrere Techniken besprochen, welche sowohl die Genauigkeit als auch die Recheneffizienz des Gruppierens von Sensormesspunkten mit einer Liste von Zielobjekten erhöhen.
  • 3 bildet ab, wie die Straßenbiegungsinformationen dazu verwendet werden können, die Bewegung von Zielobjekten zu verfolgen und sie mit Sensormessungen abzugleichen. Wie gezeigt, biegt eine Straße 100 vor einem Trägerfahrzeug 102 nach rechts ab. Ein Objektdetektionssystem in dem Fahrzeug 102, wie etwa das System 12 aus 1, verfolgt zwei Zielfahrzeuge voraus - ein Fahrzeug 110 und ein Fahrzeug 120. In dem Objektdetektionssystem des Trägerfahrzeugs 102 weist das Zielfahrzeug 110 einen hypothetischen Schwerpunktstandort 112 auf, und das Zielfahrzeug 120 weist einen hypothetischen Schwerpunktstandort 122 auf, wobei die beiden hypothetischen Schwerpunktstandorte 112 und 122 basierend auf Schwerpunktstandorten des vorhergehenden Zeitschritts und der bekannten Biegung der Straße 100 bestimmt werden. D.h. das Objektdetektionssystem in dem Trägerfahrzeug 102 geht davon aus, dass die Fahrzeuge 110 und 120 einer Rechtskurve folgen statt in der Richtung ihres vorhergehenden Geschwindigkeitsvektors geradeaus weiterzufahren.
  • Eine gewisse Anzahl von Sensormesspunkten (130 bis 140) muss als entweder zu dem Zielfahrzeug 110 oder 120 gehörend identifiziert werden, oder nicht. Wie in 3 gezeigt, da die Zielfahrzeuge 110 und 120 eine Position und Orientierung aufweisen, welche der Straßenbiegung folgen, gehören die Messpunkte 130 und 132 zu dem Zielfahrzeug 110, die Punkte 136 und 138 gehören zu dem Zielfahrzeug 120, und die Punkte 134 und 140 gehen zur linken Seite der Straße 100 ab und gehören wahrscheinlich zu anderen Objekten, wie etwa Bäumen oder Schildern.
  • In 3 ist zu sehen, dass, wenn das Trägerfahrzeug 102 die Straßenbiegung nicht berücksichtigen würde und sich die hypothetischen Schwerpunktstandorte 112 und 122 direkt vor ihrem vorhergehenden Standort befinden würden, das sich ergebende Gruppieren von Punkten mit Zielobjekten ganz anders wäre. In einer derartigen Situation würde der Messpunkt 130 wahrscheinlich nicht mit dem Fahrzeug 110 gruppiert werden, wie es sein sollte, der Punkt 134 würde wahrscheinlich fälschlicherweise mit dem Fahrzeug 110 gruppiert werden, der Messpunkt 136 würde wahrscheinlich nicht mit dem Fahrzeug 120 gruppiert werden, wie es sein sollte, und der Punkt 140 würde wahrscheinlich fälschlicherweise mit dem Fahrzeug 120 gruppiert werden. Zusammenfassend verhindert die Verwendung der Straßenbiegung zur Vorhersage von Zielelementstandorten fehlerhafte Ergebnisse beim Gruppieren der Zielfahrzeuge für vier der sechs Messpunkte bei diesem Beispiel.
  • 4 ist ein Blockdiagramm eines Systems 150, welches zwei Quellen von Straßenbiegungsinformationen und externe Informationsquellen zusammen mit einer Liste von bekannten Zielobjekten dazu verwendet, Sensormessungen zu einer neuen Liste von Zielelementen zu gruppieren. Das System 150 setzt die Vorwegnahme der Straßenbiegung um, was in 3 abgebildet ist. Die Datenbank 152 enthält aktuelle Objektfusionsdaten, welche eine Liste von verfolgten Zielelementen {T} und ihre Schwerpunktstandorte enthalten. Digitale Kartendaten werden in dem Kästchen 154 bereitgestellt, wobei die digitalen Kartendaten von der Art sind, welche gewöhnlich in Fahrzeug-Navigationssystemen verwendet wird und die Straßenart, die Straßenbiegung und viele andere Informationen umfassen. In dem Kästchen 156 werden Spurbiegungsdaten von einem gegebenenfalls verfügbaren fahrzeugeigenen Spurverfolgungssystem bereitgestellt. Fahrzeugeigene Spurverfolgungssysteme sind in vielen Fahrzeugen verfügbar, welche Kamerabilder oder andersartige Datenerfassung dazu verwenden, Spurmarkierungen, wie etwa Straßenränder, Straßenstreifen, Mittelstreifen usw., zu identifizieren und zu verfolgen. Die Spurbiegungsdaten von dem Spurverfolgungssystem in dem Kästchen 156 stellen gegebenenfalls eine Quelle von Straßenbiegungsinformationen bereit, welche zu den Straßenbiegungsinformationen aus der digitalen Karte des Kästchens 154 ergänzend sind oder anstelle derselben verwendet werden können.
  • Objektdaten von einer beliebigen Quelle außerhalb des Trägerfahrzeugs 102 werden in dem Kästchen 158 bereitgestellt. Die Daten in dem Kästchen 158 werden über Funkkommunikationskanäle unter Verwendung von Fahrzeug-zu-Fahrzeug-(V2V), Fahrzeug-zu-Infrastruktur-(V2I) oder sogar Fahrzeug-zu-Fußgänger-Kommunikationstechnologien, wie etwa dedizierten Nahbereichskommunikationen (DSRC), WiFi usw., bereitgestellt. Die Daten in dem Kästchen 158 können von einer oder mehreren externen Quellen bereitgestellt werden und umfassen insgesamt eine Liste von Objekten {O}, welche den externen Quellen bekannt sind. Beispielsweise können die Daten in dem Kästchen 158 eine Zielfahrzeugposition, welche von einem anderen Fahrzeug über V2V rundgesendet wird, und/oder ein paar Baustellentonnen, welche von einer Kamera am Straßenrand detektiert wurden und über V2I rundgesendet werden, umfassen. Viele Arten von Objekten sind nun „standortbezogen“, und alle diese Objekte mit einer geeigneten Kommunikationsfähigkeit können ihre Objektdaten (Art, Größe, Standort, Orientierung, Bewegung) in dem Kästchen 158 bereitstellen. Die Objektliste {O} in dem Kästchen 158 ist optional, wie auch die externen Datenquellen und Objekte nicht immer vorhanden sein müssen.
  • Objektsensormessungen von den Objektsensoren an Bord des Trägerfahrzeugs 102 werden in dem Kästchen 160 bereitgestellt. Die Objektsensormessungen umfassen Punkte, an denen ein Objekt detektiert wird, wie etwa die Punkte 130 bis 140 aus 3. Das Kästchen 162 enthält einen Prozessor, wie etwa den Prozessor in dem Objektdetektionssystem 12 aus 1, welcher einen Gruppierungsalgorithmus ausführt, welcher Sensormesspunkte mit bekannten Zielelementen abgleicht. Wie zuvor mit Bezug auf 3 besprochen, verwendet der Algorithmus, welcher in dem Kästchen 162 abläuft, Straßenbiegungsinformationen, um die hypothetischen Schwerpunktstandorte der Fahrzeuge 110 und 120 zu bestimmen, was somit zu einem viel besseren Abgleich von Sensormesspunkten mit verfolgten Zielfahrzeugen führt. Der Gruppierungsalgorithmus, welcher in dem Kästchen 162 abläuft, nutzt auch das a-priori-Wissen fester oder beweglicher Objekte aus externen Quellen, welche in dem Kästchen 158 bereitgestellt werden. Eine aktualisierte Zielelementliste {T'} mit den Schwerpunktstandorten von Objekten wird als Ausgabe auf der Linie 164 bereitgestellt.
  • In der vorstehenden Diskussion basierte das Gruppieren von Sensormessungen mit Zielfahrzeugen nur auf dem Standort (Entfernung und Azimut) der Messungen und der Zielfahrzeuge. Es können jedoch andere Attribute der Sensormessungen und der Zielfahrzeuge dazu verwendet werden, die Genauigkeit des Gruppierungsprozesses zu verbessern. 5A ist eine Abbildung eines Trägerfahrzeugs, welches sowohl feste als auch bewegliche Objekte auf einer vorausliegenden Fahrbahn verfolgt. Auf einer Straße 170 fährt ein Trägerfahrzeug 180 und verfolgt Objekte voraus mit einem Objektdetektionssystem, wie etwa dem System 12 aus 1. Ein Zielfahrzeug 190 wird von dem Trägerfahrzeug 180 verfolgt. Eine Überführung 200, welche über die Straße 170 geht, wird ebenfalls als ein Objekt von dem Trägerfahrzeug 180 verfolgt. Die Überführung 200 kann eine beliebige Konstruktion sein, welche über die Straße 170 geht, einschließlich einer Brücke/Überführung, einer Schilderkonstruktion, einer Tunneleinfahrt usw. Anstelle der Überführung 200 könnte ein Objekt am Straßenrand, wie etwa ein Baum oder ein Fußgänger, oder ein Hindernis auf der Straße bei diesem Beispiel gleichermaßen verwendet zu werden.
  • Das Objektdetektionssystem in dem Fahrzeug 180 stellt bei diesem erläuternden Beispiel drei Sensormessungen bereit - einen Messpunkt 192, welcher ohne Weiteres mit dem Fahrzeug 190 verknüpft wird, einen Punkt 202 der mit der Überführung 200 verknüpft wird, und einen Messpunkt 188. Auf Grund der Nähe des Fahrzeugs 190 zu der Überführung 200 sind Entfernungsinformationen alleine nicht ausreichend, um zu bestimmen, zu welchem Zielelement der Punkt 188 gehört. Die Azimutwinkelinformationen tragen auch nicht dazu bei, die Mehrdeutigkeit aufzulösen, wie es 5A zu entnehmen ist.
  • 5B ist eine Grafik 210, welche die Mehrdeutigkeit beim Gruppieren einer Sensormessung mit einem Zielelement zeigt, welche entstehen kann, wenn nur die Entfernung als Parameter verwendet wird, wie in 5A abgebildet. Die Grafik 210 zeichnet die Entfernung auf der Achse 212 ein. Die Messpunkte 192, 188 und 202 werden in ihren jeweiligen Positionen auf der Achse 212 gezeigt. Die Schwerpunktstandorte des Fahrzeugs 190 und der Überführung 200 werden ebenfalls genau unter der Achse 212 gezeigt. Der Schwerpunktstandort des Fahrzeugs 190 schreibt eine Wahrscheinlichkeitsverteilung 194 mit einer Mittellinie 196 vor, und der Schwerpunktstandort der Überführung 200 schreibt eine Wahrscheinlichkeitsverteilung 204 mit einer Mittellinie 206 vor. Die Wahrscheinlichkeitsverteilungen 194 und 204 werden bei diesem Beispiel der Einfachheit halber als identisch gezeigt. Aus 5B geht hervor, dass der Messpunkt 188 gut sowohl in die Wahrscheinlichkeitsverteilung 194 des Fahrzeugs 190 als auch in die Wahrscheinlichkeitsverteilung 204 der Überführung 200 fällt. Somit ist es nicht möglich, den Punkt 188 basierend auf der Entfernung alleine entweder mit dem Fahrzeug 190 oder der Überführung 200 genau zu gruppieren.
  • 5C ist eine Grafik 220, in der die Objektentfernungsrate enthalten ist, um das Gruppieren von Sensormessungen mit Zielelementen zu verbessern. Objektdetektionssysteme auf Radar- oder Lidar-Basis stellen typischerweise Entfernungsratendaten zusammen mit Entfernungs- und Azimutdaten für Sensormessungen bereit. Für kamerabasierte Objektdetektionssysteme kann die Entfernungsrate durch Verfolgen der Zielelemententfernung über mehrere Zeitschritte und Teilen der Entfernungsänderung durch die verstrichene Zeit bestimmt werden. In der Grafik 220 wird die Entfernung auf der Achse 222 eingezeichnet und die Entfernungsrate wird auf der Achse 224 eingezeichnet. Die Schwerpunktstandorte des Fahrzeugs 190 und der Überführung 200 zusammen mit den Messpunkten 192, 188 und 202 werden in ihren jeweiligen Entfernungspositionen gezeigt. Wie zuvor besprochen, sind die Entfernungswerte des Fahrzeugs 190, der Überführung 200 und der Punkte 192, 188 und 202 kaum getrennt.
  • Nun stellt aber die Entfernungsrate eine deutliche Trennung zwischen dem Fahrzeug 190 und der Überführung 200 und ihren verknüpften Messpunkten bereit. Das Fahrzeug 190, welches ungefähr auf der gleichen Geschwindigkeit wie das Trägerfahrzeug 180 fährt, weist eine sehr geringe Entfernungsrate auf, wie es aus der Grafik 220 hervorgeht. Andererseits weist die Überführung 200, da sie ortsfest ist, eine sehr große negative Entfernungsrate mit Bezug auf das Trägerfahrzeug 180 auf. Unter Verwendung sowohl der Entfernungs- als auch der Entfernungsratenattribute der Zielelemente und Messpunkte, ist es klar, dass der Punkt 202 mit dem Fahrzeug 200 verknüpft ist und der Punkt 192 mit dem Fahrzeug 190 verknüpft ist, welche beide bereits aus 5B bekannt sind. Noch wichtiger ist, dass jetzt klar ist, dass der Messpunkt 188 mit dem Fahrzeug 190 verknüpft ist, da der Punkt 188 eine Entfernungsrate nahe null aufweist.
  • Das in 5A bis 5C gezeigte und zuvor besprochene Beispiel verwendet die Entfernungsrate als Attribut der Sensormessungen und der verfolgten Zielfahrzeuge, um die Gruppierungsgenauigkeit zu erhöhen. Zusätzlich zu der Entfernungsrate können ähnlich viele andere Attribute verwendet werden. Diese anderen Attribute umfassen: Mikro-Doppler-Daten (verfügbar von Radar- oder Lidar-Systemen), welche kleine Bewegungen detektieren können, wie etwa eine Fahrzeug-Karosseriebewegung und Vibrationen; Zielelementquerschnitt, welcher dadurch bestimmt wird, wie viel Energie von einem Objekt in einem Radar- oder Lidar-Signal zurückgegeben wird, und der eine Angabe über die Objektgröße und/oder das Material ist; Signal/RauschVerhältnis an den Messpunkten; und zahlreiche Attribute, welche von kamerabasierten Objekterfassungssystemen bereitgestellt werden können, wozu Farbe, Muster, Aussehen/Textur und Größe gehören.
  • Wie zuvor besprochen, ist die Entfernung ein wesentlicher Parameter, welcher beim Gruppieren von Sensormesspunkten mit verfolgten Zielelementen verwendet wird. Es gibt jedoch einen inhärenten Verlust an Genauigkeit bei Sensormessungen in größeren Abständen. Beispielsweise weisen einige radarbasierte Objekterfassungssysteme eine Entfernungsabweichung auf, welche ungefähr 5% der Entfernung ausmacht. Bei größeren Entfernungen könnte die Entfernungsabweichung ausreichen, um zu bewirken, dass ein Sensormesspunkt außerhalb der Grenzen eines verfolgten Fahrzeugs liegt. Diese Diskrepanz kann durch Verwenden einer Log-Skala-Darstellung der Entfernungsdaten behoben werden.
  • 6 ist eine Grafik 230 einer abgebildeten Entfernungsmessung gegenüber einer tatsächlichen Entfernungsmessung, wobei die abgebildete Entfernung auf einer logarithmischen Skala berechnet wird. Die Achse 232 misst die tatsächliche Entfernungsmessung, während die Achse 234 die abgebildete Entfernungsmessung misst. Bei einem Ausführungsbeispiel kann der Wert r der abgebildeten Entfernung unter Verwendung der folgenden Gleichung bestimmt werden: r ¯ = log ( r λ L ) log ( 1 + λ )
    Figure DE102015122825B4_0002
  • Wobei r der tatsächliche Entfernungswert ist, L ein Abstands-/Kompressions-Verhältnis ist, und A eine Zellengröße ist, welche bei der Gitteraufteilung des abgebildeten Bereichs verwendet wird. 6 zeigt die nicht lineare Abbildung der Entfernung, welche sich aus der Verwendung der Gleichung (2) mit Werten für L gleich 3 % und A gleich 1 m ergeben. Diese Technik der Entfernungsabbildung verringert die Entfernungsdifferenzen bei größeren Entfernungswerten.
  • 7A ist eine Grafik 240 in Polarkoordinaten von Sensormessungen mit Bezug auf ein Trägerfahrzeug, wobei die tatsächliche Entfernungsmessung auf der radialen Skala eingezeichnet ist, und der Azimutwinkel umfangsmäßig eingezeichnet ist. Die Messpunkte 242 und 244 werden in der Grafik 240 gezeigt. Die Punkte 242 und 244 sind in der Grafik 240 ziemlich weit entfernt, so dass ihre Entfernungsdifferenz größer als die Länge eines typischen Fahrzeugs ist. Ein Großteil dieser Entfernungsdifferenz kann jedoch auf eine Abweichung der Sensormessung bei der großen Entfernung zurückzuführen sein. Somit ist es nicht klar, ob die Punkte 242 und 244 zu dem gleichen Fahrzeug gehören oder nicht.
  • 7B ist eine Grafik 250 in Polarkoordinaten von Sensormessungen mit Bezug auf ein Trägerfahrzeug, wobei eine Log-abgebildete Entfernungsmessung auf der radialen Skala verwendet wird, wodurch eine Variation der Entfernung reduziert wird. Wenn die abgebildete Entfernung r auf der radialen Skala wie in der Grafik 250 verwendet wird, werden die Abstände komprimiert, und die Abstandsabweichungen werden reduziert. Wenn sie in der Grafik 250 unter Verwendung ihrer abgebildeten Entfernungswerte r eingezeichnet werden, sind die Punkte 242' und 244' nahe genug aneinander, um deutlich mit demselben Zielfahrzeug verknüpft zu sein.
  • Die zuvor beschriebenen Techniken verbessern einzeln und zusammen verwendet die Genauigkeit der Gruppierung von Sensormessungen mit verfolgten Zielelementen erheblich. Zusammen mit der Genauigkeit ist auch die Recheneffizienz ein äußerst wichtiger Faktor für die Leistung eines Objektdetektionssystems. Nachstehend werden Techniken beschrieben, welche die Recheneffizienz der Gruppierung von Sensormessungen mit verfolgten Zielelementen erhöhen.
  • In einem herkömmlichen Zielgruppierungsalgorithmus werden alle möglichen Kombinationen von Sensormesspunkten (Punkten, welche von einem Radarsystem zurückgegeben werden usw.) und bekannten Fusionszielelementen (Fahrzeugen usw.) aufgezählt und ausgewertet. Bei diesem herkömmlichen Ansatz liegt für ein Szenario mit N Sensormessungen und N Fusionszielelementen die Rechenkomplexität bei einer Größenordnung von N2. Nachstehend wird ein verbesserter Ansatz vorgeschlagen, bei dem die Objekte (d.h. die Sensormessungen) vor dem Abgleich in einer Hash-Tabelle sortiert werden, was zu einer Berechnung führt, welche um eine Größenordnung schneller ist (in der Größenordnung N statt N2).
  • 8A ist eine Abbildung eines Gitters 270, welches dazu verwendet werden kann, Sensormessungen mit bekannten Zielelementen zu gruppieren. Das Gitter 270 stellt den xy-Raum vor einem Trägerfahrzeug dar, wo sich verfolgte Zielelemente befinden und Sensormesspunkte bereitgestellt werden. Jede Zelle des Gitters 270 ist ein Quadrat mit einer Größe (272) gleich W. Ein Sensormesspunkt 274 an den Koordinaten (x,y) wird der Zelle (i,j) zugeteilt, so dass: i = [ x W + 0.5  sign ( x ) ] j = [ y W + 0.5  sign ( y ) ]
    Figure DE102015122825B4_0003
  • Wobei i und j auf ganzzahlige Zellennummern gerundet werden. Auf diese Art und Weise wird jeder Messpunkt mit seiner Zellennummer unter Verwendung einer Hash-Tabelle 280, in 8B gezeigt, indexiert.
  • Wenn beispielsweise der Sensormesspunkt 274 an den Koordinaten (x,y) der Zelle (i,j) zugeteilt wird, dann kann eine verkettete Liste 282 erstellt werden, welche alle Messpunkte enthält, welche ebenfalls der Zelle (i,j) zugeteilt sind. Diese Liste wird unter Verwendung der Gleichung (3) für die Koordinaten (xn,yn) jedes Punktes erstellt, was eine verkettete Liste (wie etwa die Liste 282) für jede Zelle in dem Gitter 270, welche Punkte enthält, ergibt.
  • Dann ist es einfach, die Zellen zu identifizieren, welche Nachbarn der Zelle (i,j) sind - d.h. die acht Zellen, welche die Zelle (i,j) umgeben, welche von (1-1,j-1) ... (i+1,j+1) reichen. Diese neunzellige Gruppe, welche in dem Kästchen 276 aus 8A gezeigt wird, kann ein Fusionszielelement, wie etwa ein Fahrzeug, darstellen. Dann kann für ein Fusionszielelement, welches einen hypothetischen Schwerpunktstandort 284 aufweist, welcher in die Zelle (i,j) fällt, eine Liste 286 erstellt werden, welche alle neun Zellen in dem Kästchen 276 umfasst, und die Sensormesspunkte, welche mit jeder Zelle verknüpft sind, können aus den verketteten Listen 282 übernommen werden. Auf diese Art und Weise kann für alle Fusionszielelemente eine Liste von verknüpften Messpunkten erstellt werden. Die Berechnung der Verknüpfung von Punkten mit Zellen für die verketteten Listen 282 liegt in der Größenordnung der Anzahl von Punkten N. Die Berechnung der Verknüpfung von Zellen mit Fusionszielelementen für die verketteten Listen 286 liegt ebenfalls in der Größenordnung der Anzahl von Fusionszielelementen N. Diese beiden Berechnungen sind additiv, ohne ihre gegenseitigen Faktoren zu berücksichtigen. Somit liegt die Gesamtberechnung der Punkt-Zielelement-Gruppierung in der Größenordnung von N statt N2 wie bei einem herkömmlichen Ansatz, welcher alle Faktoren vollständig berücksichtigt.
  • Die zuvor besprochene Gittergruppierungstechnik kann erweitert werden, um mit einer beliebigen gewünschten Form von Fusionszielelement statt nur mit dem einfachen Kästchen 276 aus 8A zu funktionieren.
  • 9 ist eine Abbildung eines Gitters 300, welches mit einem Flutfüllungsalgorithmus dazu verwendet werden kann, Sensormessungen mit Fusionszielelementen beliebiger Form zu gruppieren. Das Gitter 300 stellt wieder den xy-Raum vor einem Trägerfahrzeug dar, wo es verfolgte Zielelemente gibt und Sensormesspunkte bereitgestellt werden. Wie zuvor, ist jede Zelle des Gitters 300 ein Quadrat mit einer Größe (302) gleich W. Die Messpunkte können mit Zellen in dem Gitter 300 unter Verwendung einer Hash-Tabelle und einer verketteten Liste, wie zuvor besprochen, verknüpft werden.
  • Nun kann man aber statt Nachbarpunkte in einem einfachen Kästchen zu identifizieren, ein beliebig geformtes Zielelement definieren und einen Flutfüllungsalgorithmus verwenden, um eine Zellenliste zu erstellen. In dem Fall aus 9 weist ein Fusionszielelement einen hypothetischen Schwerpunktstandort 304 auf. Das Fusionszielelement weist eine Form auf, welche durch eine Ellipse 306 definiert wird, deren Achsen nicht auf das rechteckige Muster des Gitters 300 ausgerichtet sein müssen. Es können einfache geometrische Berechnungen verwendet werden, um eine Liste von Gitterzellen zu identifizieren, von denen sich ein beliebiger Teil innerhalb der Ellipse 306 befindet. Sobald die Liste der Zellen, welche von der Ellipse 306 „berührt“ werden (wobei sich ein beliebiger Teil davon in ihrem Innern befindet), bekannt ist, wird dann jede dieser Zellen getestet, um sicherzustellen, dass ihre Nachbarn (oben, unten, links und rechts - wodurch ein neunzelliges Kästchen erstellt wird, wie zuvor) ebenfalls in der Liste der Zellen enthalten sind. Die sich ergebende Gruppe von Zellen, welche von dem Flutfüllungsalgorithmus identifiziert wird - die Zellen, welche von der Ellipse 306 berührt werden oder Nachbarn der Zellen sind, welche davon berührt werden - wird in dem Bereich 308 aus 9 schattiert gezeigt.
  • Nach der Ausführung der zuvor besprochenen Flutfüllungsberechnung ist eine Liste der Zellen bekannt, welche zu der Ellipse 306 benachbart sind, welche um den Schwerpunkt 304 zentriert ist. Die zuvor beschriebene Technik mit der Hash-Tabelle und der verketteten Liste kann dann dazu verwendet werden, die Messpunkte, welche mit der Ellipse 306 verknüpft sind, und somit das Fusionszielelement mit dem Schwerpunkt 304 zu identifizieren. Bei Realweltanwendungen ist der Bereich, welcher von dem Gitter 300 abgedeckt wird, sehr groß - z.B. erstreckt er sich über 100 m vor dem Trägerfahrzeug und enthält Tausende von Gitterzellen mit einer Größe von 1 Quadratmeter. In einem derartigen Fall, selbst wenn mehrere Zielfahrzeuge verfolgt werden, werden nur ein paar hundert Gitterzellen ausgefüllt. Somit ist im Vergleich zu einem Ansatz, welcher alle Faktoren berücksichtigt und jeden Messpunkt mit jedem Fusionszielelement vergleicht, die Technik mit der Flutfüllung und der Hash-Tabelle aus 9 rechnerisch sehr effizient.
  • 10 ist ein Flussdiagramm 400 eines Verfahrens zum Gruppieren von Objektsensormessungen mit Zielelementen in einem Objektdetektionssystem. Das Verfahren des Flussdiagramms 400 umfasst die zuvor besprochenen Techniken für Genauigkeit und Recheneffizienz. Das Verfahren des Flussdiagramms 400 ist derart ausgelegt, dass es an einem Prozessor in einem Objektdetektionssystem, wie etwa dem Objektdetektionssystem 12 aus 1, ausgeführt werden kann.
  • In dem Kästchen 402 wird eine Liste von verfolgten Zielelementen bereitgestellt. Die Liste von verfolgten Zielelementen wird vorstehend manchmal als Fusionszielelemente beschrieben, weil Fusionstechniken häufig beim Identifizieren der Zielelemente verwendet werden. In dem Kästchen 404 wird eine Liste von hypothetischen Zielstandorten und Orientierungen erstellt. Die hypothetischen Zielelementdaten werden unter Verwendung von früheren Standort-/ Orientierungsdaten des Zielelements aus dem Kästchen 402 zusammen mit Zielelementgeschwindigkeiten bei Bewegung, Straßenbiegungsinformationen usw. erstellt. In dem Kästchen 406 werden Sensormesspunkte von einem oder mehreren Objekterfassungssystemen, wie etwa den Objekterfassungssystemen 20 und 30 aus 1, bereitgestellt. Wie zuvor besprochen, können die Sensormesspunkte unter Verwendung einer Radar-, Lidar-, Ultraschall-, Kamera- oder anderen geeigneten Technologie erzielt werden.
  • In dem Kästchen 408 werden die Sensormesspunkte mit hypothetischen Zielelementen gruppiert. Das Gruppieren von Punkten/Zielelementen verwendet mindestens geometrische Daten (Standort) zum Abgleichen der Punkte mit den Zielelementen. Das Gruppieren kann die Gitterbasierten Hash-Tabellen-Techniken verwenden, welche in 8A/B und 9 beschrieben werden. Das Gruppieren kann auch ergänzende Zielelementattribute verwenden - wie etwa Entfernungsrate, Mikro-Doppler-Daten, Zielelementquerschnitt, Signal/RauschVerhältnis in Messpunkten und visuelle Attribute, welche von kamerabasierten Objekterfassungssystemen bereitgestellt werden. Diese ergänzenden Zielelementattribute stellen eine größere Gewissheit beim Gruppieren von Messpunkten mit Zielelementen bereit. Das Gruppieren in dem Kästchen 408 kann auch eine Log-abgebildete Darstellung der Entfernung statt die tatsächliche Entfernung verwenden.
  • In dem Kästchen 410 werden die hypothetischen Schwerpunktstandorte validiert und können gegebenenfalls derart angepasst werden, dass sie optimale Gruppierungsergebnisse erzielen. Wenn die hypothetischen Schwerpunktstandorte in dem Kästchen 410 angepasst werden, dann kehrt der Prozess in einer Schleife zu dem Kästchen 408 zurück, um die Gruppierung der Punkte/Zielelemente neu zu berechnen. In dem Kästchen 412 werden neue Zielelemente basierend auf eventuellen Clustern von Messpunkten identifiziert, welche nicht mit bekannten Zielelementen in dem Kästchen 408 gruppiert sind. In dem Kästchen 414 wird eine aktualisierte Liste von Standorten und Orientierungen des Zielelements ausgegeben. Die aktualisierte Zielelementliste aus dem Kästchen 414 wird als Eingabe von bordeigenen Fahrzeuganwendungen, wie etwa von Kollisionswarn- und Kollisionsvermeidungssystemen, verwendet. Die aktualisierte Zielelementliste aus dem Kästchen 414 wird auch wieder dem Kästchen 402 bereitgestellt, um die nächste Iteration des Verfahrens zum Gruppieren von Punkten/Zielelementen zu beginnen.
  • Unter Verwendung der hier offenbarten Verfahren kann man die Geschwindigkeit und Genauigkeit der Berechnungen zum Gruppieren von Punkten/Zielelementen in einem Objektdetektionssystem erheblich verbessern. Schnelle, genaue Objektdetektionsdaten können von vielen wichtigen Systemen an Bord der Fahrzeuge verwendet werden - um die Fahrer vor eventuellen Kollisionsrisiken zu warnen oder automatisch Ausweichmaßnahmen zu treffen, um eine Kollision zu vermeiden, sowie aus anderen Gründen.
  • Die vorstehende Diskussion offenbart und beschreibt rein beispielhafte Ausführungsbeispiele der vorliegenden Erfindung. Der Fachmann wird ohne Weiteres aus dieser Diskussion und aus den beiliegenden Zeichnungen und Ansprüchen erkennen, dass diverse Änderungen, Modifikationen und Variationen daran vorgenommen werden können, ohne Geist und Umfang der Erfindung zu verlassen, wie sie in den nachstehenden Ansprüchen definiert wird.

Claims (9)

  1. Ein Verfahren zum Gruppieren von Objektsensormessungen mit Zielobjekten in einem Objektdetektionssystem (12), wobei das genannte Verfahren folgende Schritte umfasst: - Bereitstellen einer Liste von Zielobjekten, welche von dem Objektdetektionssystem (12) verfolgt werden, wobei die Liste von Zielobjekten bekannte Zielelemente umfasst, welche von dem Objektdetektionssystem (12) in einem Bereich vor einem Trägerfahrzeug (180) identifiziert werden; - Berechnen von hypothetischen Standorten und Orientierungen für jedes bekannte Ziel in der Liste von Zielobjekten, wobei das Berechnen von hypothetischen Standorten und Orientierungen für jedes bekannte Zielelement ein Verwenden von digitalen Kartendaten umfasst, um einen Standort und eine Orientierung jedes bekannten Zielelements basierend auf Straßenbiegungsdaten und Zielelementgeschwindigkeit vorherzusagen, wobei die hypothetischen Standorte und Orientierungen eine Vorhersage der Bewegung jedes bekannten Zielelements, seitdem die Liste von Zielobjekten zuletzt berechnet wurde, umfassen; - Bereitstellen von Sensormesspunkten von mindestens einem Objekterfassungssystem, wobei die Sensormesspunkte Punkte bezeichnen, an denen ein Objekt in dem Bereich vor dem Trägerfahrzeug (180) detektiert wurde; - Gruppieren unter Verwenden eines Mikroprozessors der Sensormesspunkte mit den bekannten Zielelementen an den hypothetischen Standorten und Orientierungen; - Validieren der hypothetischen Standorte und Orientierungen basierend auf dem Gruppieren; - Identifizieren von neuen Zielelementen basierend auf eventuellen Clustern von Sensormesspunkten, welche nicht mit einem der bekannten Zielelemente korrelieren; und - Aktualisieren der Liste von Zielobjekten, um die bekannten Zielelemente an den hypothetischen Standorten und Orientierungen und eventuelle neu identifizierte Zielelemente zu umfassen.
  2. Das Verfahren nach Anspruch 1, wobei die Liste von Zielobjekten für jedes der bekannten Zielelemente Attributdaten umfasst, welche Mikro-Doppler-Daten, einen Zielelementquerschnitt, ein Signal/Rausch-Verhältnis an Messpunkten und visuelle Attribute, wenn sie von einem kamerabasierten Objekterfassungssystem (12) verfügbar sind, umfasst.
  3. Das Verfahren nach Anspruch 1 oder 2, wobei die Liste von Zielobjekten für jedes der bekannten Zielelemente eine Entfernung und einen Azimutwinkel mit Bezug auf das Trägerfahrzeug (180) und eine Entfernungsrate mit Bezug auf das Trägerfahrzeug (180) umfasst.
  4. Das Verfahren nach Anspruch 3, wobei das Gruppieren der Sensormesspunkte mit den bekannten Zielelementen ein Vergleichen sowohl der Entfernung als auch der Entfernungsrate der Punkte und der Zielelemente umfasst, um Korrelationen festzustellen.
  5. Das Verfahren nach einem der Ansprüche 1 bis 4, wobei das Berechnen von hypothetischen Standorten und Orientierungen für jedes bekannte Zielelement das Verwenden von Objektdaten umfasst, welche von einer oder mehreren Quellen bereitgestellt werden, welche außerhalb des Trägerfahrzeugs (180) liegt bzw. liegen, wozu Objektdaten, welche von anderen Fahrzeugen bereitgestellt werden, und Objektdaten, welche von der Infrastruktur am Straßenrand detektiert und bereitgestellt werden, gehören.
  6. Das Verfahren nach einem der Ansprüche 1 bis 5, wobei das Gruppieren der Sensormesspunkte mit den bekannten Zielelementen ein Verwenden einer Gitterbasierten Technik umfasst, welche jeden der Messpunkte einer Gitterzelle basierend auf dem Standort zuteilt, eine Teilmenge von Gitterzellen in einer Nachbarschaft jedes der bekannten Zielelemente identifiziert, und die Messpunkte in der identifizierten Teilmenge von Gitterzellen mit dem bekannten Zielelement gruppiert.
  7. Das Verfahren nach Anspruch 6, wobei die Gitterbasierte Technik ein Identifizieren der Teilmenge von Gitterzellen in der Nachbarschaft jedes der bekannten Zielelemente umfasst, indem ein neunzelliges Quadrat von Gitterzellen, welche einen Schwerpunkt von jedem der bekannten Zielelemente umgeben, festgelegt wird.
  8. Das Verfahren nach Anspruch 6, wobei die Gitterbasierte Technik ein Verwenden eines Flutfüllungsalgorithmus umfasst, um die Teilmenge von Gitterzellen in der Nachbarschaft jedes der bekannten Zielelemente zu identifizieren, wobei die bekannten Zielelemente eine beliebige Form und Orientierung aufweisen können.
  9. Das Verfahren nach einem der Ansprüche 1 bis 8, wobei das Bereitstellen von Sensormesspunkten von mindestens einem Objekterfassungssystem(12) ein Bereitstellen von Sensormesspunkten von einem radarbasierten Objekterfassungssystem (12) und von einem kamerabasierten Objekterfassungssystem (12) umfasst.
DE102015122825.4A 2015-01-14 2015-12-23 Techniken zum Gruppieren von Zielelementen für eine Objektfusion Active DE102015122825B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/597,108 2015-01-14
US14/597,108 US9563808B2 (en) 2015-01-14 2015-01-14 Target grouping techniques for object fusion

Publications (2)

Publication Number Publication Date
DE102015122825A1 DE102015122825A1 (de) 2016-07-14
DE102015122825B4 true DE102015122825B4 (de) 2023-02-16

Family

ID=56233752

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015122825.4A Active DE102015122825B4 (de) 2015-01-14 2015-12-23 Techniken zum Gruppieren von Zielelementen für eine Objektfusion

Country Status (3)

Country Link
US (1) US9563808B2 (de)
CN (1) CN105787502B (de)
DE (1) DE102015122825B4 (de)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5761162B2 (ja) * 2012-11-30 2015-08-12 トヨタ自動車株式会社 車両位置推定装置
US10115026B2 (en) * 2014-04-04 2018-10-30 Delphi Technologies, Inc. Method for lane detection
JP6269562B2 (ja) * 2015-04-17 2018-01-31 株式会社デンソー 運転支援システム、車載機
US10019631B2 (en) * 2015-11-05 2018-07-10 Qualcomm Incorporated Adapting to appearance variations when tracking a target object in video sequence
JP6571545B2 (ja) * 2016-01-19 2019-09-04 パナソニック株式会社 物体検出装置および物体検出方法
EP3293545A1 (de) * 2016-09-09 2018-03-14 Autoliv Development AB Bestimmung der relativen geschwindigkeit in einem kraftfahrzeugradarsystem
CN106571046B (zh) * 2016-11-11 2021-07-16 上海市政工程设计研究总院(集团)有限公司 基于路面网格体系的车路协同辅助驾驶方法
US10989791B2 (en) * 2016-12-05 2021-04-27 Trackman A/S Device, system, and method for tracking an object using radar data and imager data
JP2018096838A (ja) * 2016-12-13 2018-06-21 株式会社東芝 レーダ装置、信号処理装置および信号処理方法
JP6678605B2 (ja) * 2017-01-11 2020-04-08 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
JP6509279B2 (ja) * 2017-05-31 2019-05-08 本田技研工業株式会社 物標認識システム、物標認識方法、およびプログラム
JP6480504B2 (ja) * 2017-05-31 2019-03-13 本田技研工業株式会社 物標認識システム、物標認識方法、およびプログラム
US10757485B2 (en) 2017-08-25 2020-08-25 Honda Motor Co., Ltd. System and method for synchronized vehicle sensor data acquisition processing using vehicular communication
US10334331B2 (en) 2017-08-25 2019-06-25 Honda Motor Co., Ltd. System and method for synchronized vehicle sensor data acquisition processing using vehicular communication
US10168418B1 (en) 2017-08-25 2019-01-01 Honda Motor Co., Ltd. System and method for avoiding sensor interference using vehicular communication
CN107830865B (zh) * 2017-10-16 2020-04-17 东软集团股份有限公司 一种车辆目标分类方法、装置、系统及计算机程序产品
US10641888B2 (en) 2017-11-06 2020-05-05 Veoneer Us Inc. Cued automobile sensor fusion
US10733420B2 (en) * 2017-11-21 2020-08-04 GM Global Technology Operations LLC Systems and methods for free space inference to break apart clustered objects in vehicle perception systems
US10955540B2 (en) 2017-12-01 2021-03-23 Aptiv Technologies Limited Detection system
FR3076045A1 (fr) * 2017-12-22 2019-06-28 Orange Procede de surveillance d'un environnement d'un premier element positionne au niveau d'une voie de circulation, et systeme associe
EP3531167B1 (de) * 2018-02-21 2021-04-07 Ibeo Automotive Systems GmbH Verfahren und vorrichtung zur optischen distanzmessung
JP2019159380A (ja) * 2018-03-07 2019-09-19 株式会社デンソー 物体検知装置、物体検知方法およびプログラム
CN108762245B (zh) * 2018-03-20 2022-03-25 华为技术有限公司 数据融合方法以及相关设备
US11163317B2 (en) 2018-07-31 2021-11-02 Honda Motor Co., Ltd. System and method for shared autonomy through cooperative sensing
US11181929B2 (en) 2018-07-31 2021-11-23 Honda Motor Co., Ltd. System and method for shared autonomy through cooperative sensing
CN110969058B (zh) * 2018-09-30 2023-05-05 毫末智行科技有限公司 用于环境目标的融合方法及装置
CN110376583B (zh) * 2018-09-30 2021-11-19 毫末智行科技有限公司 用于车辆传感器的数据融合方法及装置
US10838054B2 (en) 2018-10-08 2020-11-17 Aptiv Technologies Limited Detection system and method
JP7111586B2 (ja) * 2018-11-09 2022-08-02 株式会社Soken 物体検出装置
US11332124B2 (en) * 2019-01-10 2022-05-17 Magna Electronics Inc. Vehicular control system
DE102019102920A1 (de) * 2019-02-06 2020-08-06 Bayerische Motoren Werke Aktiengesellschaft Verfahren und eine Vorrichtung zur Sensordatenfusion für ein Fahrzeug
US11092668B2 (en) * 2019-02-07 2021-08-17 Aptiv Technologies Limited Trailer detection system and method
JP7285923B2 (ja) * 2019-05-13 2023-06-02 日立Astemo株式会社 車両制御システム
KR20220020369A (ko) * 2019-06-14 2022-02-18 케이피아이티 테크놀로지스 리미티드 라이더 및 레이더 기반 추적 및 매핑 시스템 및 방법
US11300677B2 (en) * 2019-07-08 2022-04-12 GM Global Technology Operations LLC Automated driving systems and control logic for host vehicle velocity estimation using wide aperture radar
US11408995B2 (en) 2020-02-24 2022-08-09 Aptiv Technologies Limited Lateral-bin monitoring for radar target detection
US12018980B2 (en) * 2020-04-20 2024-06-25 Schlumberger Technology Corporation Dynamic systems and processes for determining a condition thereof
CN111695491B (zh) * 2020-06-10 2023-12-19 阿波罗智联(北京)科技有限公司 用于检测行人的方法和装置
DE102020211237A1 (de) 2020-09-08 2022-03-10 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Fahrerassistenzsystem zur Erkennung und Bestimmung geometrischer Eigenschaften von Objekten unter Verwendung von Ultraschall
CN112590808B (zh) * 2020-12-23 2022-05-17 东软睿驰汽车技术(沈阳)有限公司 多传感器融合方法、系统及自动驾驶车辆
CN117321439A (zh) * 2021-05-25 2023-12-29 松下知识产权经营株式会社 探测系统、传感器系统、探测方法以及程序
US20230003868A1 (en) * 2021-07-02 2023-01-05 Viettel Group System and method for evaluation centroid range-bearing processing in high resolution coastal surveillance radar
CN118410384B (zh) * 2024-05-09 2024-10-01 武汉天业数智信息技术有限公司 一种基于批量处理的多系统数据融合处理方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080300787A1 (en) 2006-02-03 2008-12-04 Gm Global Technology Operations, Inc. Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
DE102013113570A1 (de) 2012-03-15 2014-09-11 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Bayes-Netz zum Nachführen von Objekten unter Verwendung von Absuchpunkten unter Verwendung mehrerer LiDAR-Sensoren

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10307342B4 (de) * 2003-02-21 2005-08-11 Volkswagen Ag Vorrichtung und Verfahren zur modellbasierten On-Board-Diagnose
US20110046842A1 (en) * 2009-08-21 2011-02-24 Honeywell International Inc. Satellite enabled vehicle prognostic and diagnostic system
US8718378B2 (en) * 2011-07-11 2014-05-06 Futurewei Technologies, Inc. Image topological coding for visual search
DE102011121441A1 (de) * 2011-12-16 2013-06-20 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Verfahren zum Betreiben eines Fehlerdiagnosesystems eines Fahrzeugs und Fahrzeug
DE102014005181A1 (de) * 2014-04-03 2015-10-08 Astrium Gmbh Positions- und Lagebestimmung von Objekten

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080300787A1 (en) 2006-02-03 2008-12-04 Gm Global Technology Operations, Inc. Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
DE102013113570A1 (de) 2012-03-15 2014-09-11 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Bayes-Netz zum Nachführen von Objekten unter Verwendung von Absuchpunkten unter Verwendung mehrerer LiDAR-Sensoren

Also Published As

Publication number Publication date
US20160203374A1 (en) 2016-07-14
CN105787502A (zh) 2016-07-20
US9563808B2 (en) 2017-02-07
DE102015122825A1 (de) 2016-07-14
CN105787502B (zh) 2019-06-04

Similar Documents

Publication Publication Date Title
DE102015122825B4 (de) Techniken zum Gruppieren von Zielelementen für eine Objektfusion
DE112014004990B4 (de) Verfahren zum Erzeugen exakter Fahrspurebenen-Karten
EP2561419B1 (de) Verfahren zur bestimmung des fahrbahnverlaufes für ein kraftfahrzeug
DE102016223638B4 (de) Fahrunterstützungsvorrichtung
DE102013208521B4 (de) Kollektives Erlernen eines hochgenauen Straßenmodells
DE102010006828B4 (de) Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
DE102015100134B4 (de) Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren
DE112019007451T5 (de) Hochpräzises Verfahren sowie Gerät zur Fahrzeugpositionierung in mehreren Szenen, und fahrzeugmontiertes Terminal
DE102011120497B4 (de) Systeme und Verfahren zur präzisen Fahrzeugpositionsbestimmung innerhalb einer Fahrspur
DE102016217645B4 (de) Verfahren zum Bereitstellen von Information über eine voraussichtliche Fahrintention eines Fahrzeugs
DE102015214338A1 (de) Bestimmung einer Anordnungsinformation für ein Fahrzeug
DE102015000399B4 (de) Kartographieren von Fahrspuren mittels Fahrzeugflottendaten
EP3740738B1 (de) Verfahren zur positionsbestimmung eines fahrzeugs
DE112015006622T5 (de) Fahrspurbestimmungsvorrichtung und Fahrspurbestimmungsverfahren
DE102009014104A1 (de) Erkennungssystem für ein Fahrzeug
DE102015000394B4 (de) Fahrzeugflotten-basierte Messung von Umgebungsdaten
DE102013107861A1 (de) Tracking von Strassen-Fahrzeugen mit Sensoren unterschiedlicher Ausführungsarten
DE102013102153A1 (de) Verfahren zur Registrierung von Entfernungsbildern von mehreren LiDAR-Sensoren
DE102019214628A1 (de) Validierung von Umfelderfassung mittels Satelitenbildern und SAR-Radardaten
DE112009004902T5 (de) Verfahren zum Bestimmen einer Fahrzeugfahrposition und Fahrzeugfahrposition-Bestimmungsvorrichtung
DE102009014105A1 (de) Erkennungssystem für ein Fahrzeug
EP3391086B1 (de) Verbessertes verfahren zum ermitteln der randbebauung einer fahrbahn für die lokalisierung von kraftfahrzeugen
DE112020000590T5 (de) Karte und verfahren zum erstellen einer karte
DE102021113651B3 (de) System zur Sensordatenfusion für die Umgebungswahrnehmung
DE102015105089B4 (de) Radarvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: SCHWEIGER & PARTNERS, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01S0013930000

Ipc: G01S0007410000

R016 Response to examination communication
R082 Change of representative

Representative=s name: SCHWEIGER & PARTNERS, DE

Representative=s name: SCHWEIGER, MARTIN, DIPL.-ING. UNIV., DE

R082 Change of representative

Representative=s name: SCHWEIGER, MARTIN, DIPL.-ING. UNIV., DE

Representative=s name: SCHWEIGER & PARTNERS, DE

R018 Grant decision by examination section/examining division
R082 Change of representative

Representative=s name: SCHWEIGER, MARTIN, DIPL.-ING. UNIV., DE

R020 Patent grant now final