DE102019111569A1 - Dbscan-parameter als funktion der sensorsuite-konfiguration - Google Patents

Dbscan-parameter als funktion der sensorsuite-konfiguration Download PDF

Info

Publication number
DE102019111569A1
DE102019111569A1 DE102019111569.8A DE102019111569A DE102019111569A1 DE 102019111569 A1 DE102019111569 A1 DE 102019111569A1 DE 102019111569 A DE102019111569 A DE 102019111569A DE 102019111569 A1 DE102019111569 A1 DE 102019111569A1
Authority
DE
Germany
Prior art keywords
sensors
processor
detection
clustering
gate size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019111569.8A
Other languages
English (en)
Inventor
Ishai Eljarat
Gonen Barkan
Igal Bilik
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102019111569A1 publication Critical patent/DE102019111569A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/581Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of interrupted pulse modulated waves and based upon the Doppler effect resulting from movement of targets
    • G01S13/582Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of interrupted pulse modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • G01S13/878Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/66Sonar tracking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/932Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations
    • G01S2015/933Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations for measuring the dimensions of the parking space when driving past
    • G01S2015/935Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations for measuring the dimensions of the parking space when driving past for measuring the contour, e.g. a trajectory of measurement points, representing the boundary of the parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es sind ein Fahrzeug, ein Radarsystem und ein Verfahren zum Erfassen eines Objektes offenbart. Das Radarsystem beinhaltet eine Vielzahl von Sensoren, wobei ein Sichtfeld eines der Vielzahl von Sensoren ein Sichtfeld von mindestens einem anderen der Vielzahl von Sensoren in einem Bereich überlappt, sowie einen Prozessor. Der Prozessor empfängt von der Vielzahl von Sensoren eine Erfassung aus dem Bereich wobei die Erfassung auf ein Objekt bezogen ist, einen Überlappungswert für den Bereich bestimmt, einen Dichteparameter eines Clustering-Kriteriums basierend auf dem Überlappungswert anpasst und ein gültiges Clustering der Erfassung mit einer benachbarten Erfassung unter Verwendung des angepassten Dichteparameters bestimmt.

Description

  • EINLEITUNG
  • Der Gegenstand der Offenbarung bezieht sich auf das Erfassen eines Objekts an einem Fahrzeugradarsystem und insbesondere auf ein System und Verfahren zum Bündeln von Radarerfassungen in Bereichen, die durch die Sichtfelder mehrerer Sensoren eines Radarsystems abgedeckt sind, um das Objekt zu erfassen.
  • In Fahrzeugen verwendete Radarsysteme erhalten eine Vielzahl von Reflexionen von elektromagnetischen Wellen, sogenannte Erfassungen, und bestimmen aus den Erfassungen ein oder mehrere Objekte im Sichtfeld des Radarsystems. Um ein Objekt zu bestimmen, wird ein Clustering-Algorithmus auf die Erfassungen angewendet, um gültige Gruppierungen zu bestimmen, oder das Clustering von Erfassungen, die sich auf das Objekt beziehen. In Bereichen, aus denen mehrere Sensoren Erfassungen empfangen, kann ein fester Satz von Dichteparametern, die im Clustering-Algorithmus verwendet werden, dazu führen, dass einige Erfassungen fälschlicherweise als Rauschen klassifiziert werden. Dementsprechend ist es wünschenswert, einen Clustering-Algorithmus vorzusehen, der die Überschneidung zwischen den Sichtfeldern der Sensoren berücksichtigt, um die Qualität des Clustering-Algorithmus zu verbessern und so die Existenz, Lage und andere Parameter der Objekte besser zu bestimmen.
  • KURZDARSTELLUNG
  • In einer exemplarischen Ausführungsform wird ein Verfahren zum Erkennen eines Objekts offenbart. Das Verfahren beinhaltet das Erhalten von Erfassungen, die sich auf das Objekt an einer Vielzahl von Sensoren in einem Radarsystem beziehen, das Bestimmen eines Überschneidungswerts für einen Bereich, in dem sich die Erfassung befindet, für eine Erfassung, das Einstellen eines Dichteparameters eines Clustering-Kriteriums basierend auf dem Überschneidungswert und das Bestimmen eines gültigen Clustering der Erfassung mit einer benachbarten Erfassung, um das Objekt unter Verwendung des eingestellten Dichteparameters zu bestimmen.
  • Neben einem oder mehreren der hierin beschriebenen Merkmale beinhaltet das Verfahren das Anpassen des Dichteparameters durch Anpassen mindestens einer der Gate-Größen eines Clustering-Algorithmus und einer Mindestpunktanforderung des Clustering-Algorithmus. Das Verfahren beinhaltet ferner das Multiplizieren der Gate-Größe und der Mindestpunktanforderung für einen von einem einzelnen Sensor abgedeckten Bereich mit dem Überschneidungswert für den Bereich, in dem sich die Erfassung befindet. Das Verfahren beinhaltet ferner das Anpassen der mindestens einen von einer Gate-Größe eines Clustering-Algorithmus und einer Mindestpunktanforderung durch mindestens einen Sensorausrichtungswert. Das Verfahren beinhaltet ferner das Bestimmen eines Rauschsignals. In verschiedenen Ausführungsformen beinhaltet das Verfahren das Ausführen einer Aktion an einem Fahrzeug basierend auf der bestimmten Position des Objekts.
  • In noch einer weiteren exemplarischen Ausführungsform wird ein Radarsystem offenbart. Das Radarsystem beinhaltet eine Vielzahl von Sensoren, wobei ein Sichtfeld eines der Vielzahl von Sensoren ein Sichtfeld von mindestens einem anderen der Vielzahl von Sensoren in einem Bereich überlappt, sowie einen Prozessor. Der Prozessor ist so konfiguriert, dass er von der Vielzahl von Sensoren eine Erfassung aus dem Bereich empfängt, wobei die Erfassung auf ein Objekt bezogen ist, einen Überschneidungswert für den Bereich bestimmt, einen Dichteparameter eines Clustering-Kriteriums basierend auf dem Überschneidungswert anpasst und ein gültiges Clustering der Erfassung mit einer benachbarten Erfassung unter Verwendung des angepassten Dichteparameters bestimmt.
  • Neben einem oder mehreren der hierin beschriebenen Merkmale ist der Prozessor ferner konfiguriert, um den Dichteparameter durch Anpassen mindestens einer der Gate-Größen eines Clustering-Algorithmus und einer Mindestpunktanforderung des Clustering-Algorithmus anzupassen. Der Prozessor ist ferner konfiguriert, um die Gate-Größe und die Mindestpunktanforderung durch Multiplizieren der Gate-Größe und der Mindestpunktanforderung mit dem Überschneidungswert für den Bereich anzupassen. Der Prozessor ist ferner konfiguriert, um die mindestens eine von einer Gate-Größe und den Mindestpunktanforderungen durch einen Sensorausrichtungswert anzupassen. Der Prozessor ist ferner konfiguriert, um eine Anzahl von falschen Rauschsignalen aus dem Clustering-Algorithmus zu reduzieren. Der Prozessor ist ferner konfiguriert, um das Objekt aus dem gültigen Clustering zu bestimmen. In verschiedenen Ausführungsformen ist der Prozessor konfiguriert, um eine Aktion an einem Fahrzeug basierend auf dem bestimmten Objekt durchzuführen.
  • In noch einer weiteren exemplarischen Ausführungsform wird ein Fahrzeug offenbart. Das Fahrzeug beinhaltet eine Vielzahl von Radarsensoren, worin ein Sichtfeld eines der Vielzahl von Radarsensoren ein Sichtfeld von mindestens einem anderen der Vielzahl von Radarsensoren in einem Bereich überlappt, sowie einen Prozessor. Der Prozessor ist so konfiguriert, dass er von der Vielzahl von Radarsensoren eine Erfassung aus dem Bereich empfängt, wobei die Erfassung auf ein Objekt bezogen ist, einen Überschneidungswert für den Bereich bestimmt, einen Dichteparameter eines Clustering-Kriteriums basierend auf dem Überschneidungswert anpasst und ein gültiges Clustering der Erfassung mit einer benachbarten Erfassung unter Verwendung des angepassten Dichteparameters bestimmt.
  • Neben einem oder mehreren der hierin beschriebenen Merkmale ist der Prozessor ferner konfiguriert, um den Dichteparameter durch Anpassen mindestens einer der Gate-Größen eines Clustering-Algorithmus und einer Mindestpunktanforderung des Clustering-Algorithmus anzupassen. Der Prozessor ist ferner konfiguriert, um die Gate-Größe und die Mindestpunktanforderung durch Multiplizieren der Gate-Größe und der Mindestpunktanforderung mit dem Überschneidungswert für den Bereich anzupassen. Der Prozessor ist ferner konfiguriert, um die mindestens eine von einer Gate-Größe und den Mindestpunktanforderungen durch einen Sensorausrichtungswert anzupassen. Der Prozessor ist ferner konfiguriert, um eine Anzahl von falschen Rauschsignalen aus dem Clustering-Algorithmus zu reduzieren. Der Prozessor ist ferner konfiguriert, um das Objekt aus dem gültigen Clustering zu bestimmen. In verschiedenen Ausführungsformen ist der Prozessor konfiguriert, um eine Aktion am Fahrzeug basierend auf dem bestimmten Objekt durchzuführen.
  • Die oben genannten Eigenschaften und Vorteile sowie anderen Eigenschaften und Funktionen der vorliegenden Offenbarung gehen aus der folgenden ausführlichen Beschreibung in Verbindung mit den zugehörigen Zeichnungen ohne Weiteres hervor.
  • Figurenliste
  • Andere Eigenschaften, Vorteile und Details erscheinen, nur exemplarisch, in der folgenden ausführlichen Beschreibung der ausführlichen Beschreibung, welche sich auf die folgenden Zeichnungen bezieht:
    • 1 zeigt ein Fahrzeug mit einem Trajektorienplanungssystem gemäß verschiedenen Ausführungsformen;
    • 2 zeigt ein veranschaulichendes Radarerfassungsfeld, das an einem Sensor eines Radarsystems des Fahrzeugs von 1;
    • 3 veranschaulicht die Überschneidung zwischen den Sichtfeldern mehrerer an einem Fahrzeug angeordneter Radarsensoren;
    • Die 4A und 4B veranschaulichen ein Sichtfeld für einen exemplarischen Sensor von Ober- bzw. Seitenansichten; und
    • 5 zeigt ein Flussdiagramm, das ein Verfahren zum Erfassen eines Objekts in einem Sichtfeld einer Anordnung von Radarsensoren veranschaulicht.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende Beschreibung ist lediglich exemplarischer Natur und nicht dazu gedacht, die vorliegende Offenbarung in ihren An- oder Verwendungen zu beschränken. Es sollte verstanden werden, dass in den Zeichnungen entsprechende Bezugszeichen gleiche oder entsprechende Teile und Merkmale bezeichnen.
  • Gemäß einer exemplarischen Ausführungsform zeigt 1 im Allgemeinen bei 100 ein Trajektorienplanungssystem, das gemäß verschiedenen Ausführungsformen einem Fahrzeug 10 zugeordnet ist. Im Allgemeinen bestimmt das Trajektorienplanungssystem 100 einen Trajektorienplan für das automatisierte Fahren des Fahrzeugs 10. Das Fahrzeug 10 beinhaltet im Allgemeinen ein Fahrgestell 12, eine Karosserie 14, Vorderräder 16 und Hinterräder 18. Die Karosserie 14 ist auf dem Fahrgestell 12 angeordnet und umhüllt im Wesentlichen die anderen Komponenten des Fahrzeugs 10. Die Karosserie 14 und das Chassis 12 können gemeinsam einen Rahmen bilden. Die Räder 16 und 18 sind jeweils mit dem Fahrgestell 12 in der Nähe einer jeweiligen Ecke der Karosserie 14 drehbar gekoppelt.
  • In verschiedenen Ausführungsformen ist das Fahrzeug 10 ein autonomes Fahrzeug und das Trajektorienplanungssystem 100 ist in das autonome Fahrzeug 10 (im Folgenden als das autonome Fahrzeug 10 bezeichnet) integriert. Das autonome Fahrzeug 10 ist beispielsweise ein Fahrzeug, das automatisch gesteuert wird, um Passagiere von einem Ort zum anderen zu befördern. Das autonome Fahrzeug 10 ist in der veranschaulichten Ausführungsform als Pkw dargestellt, es sollte jedoch beachtet werden, dass auch jedes andere Fahrzeug, einschließlich Motorräder, Lastwagen, Sportfahrzeuge (SUVs), Freizeitfahrzeuge (RVs), Wasserfahrzeuge, Luftfahrzeuge usw. verwendet werden kann. In einer exemplarischen Ausführungsform ist das autonome Fahrzeug 10 ein sogenanntes Level-Vier oder Level-Fünf Automatisierungssystem. Ein Level-Vier-System zeigt eine „hohe Automatisierung“ unter Bezugnahme auf die Fahrmodus-spezifische Leistung durch ein automatisiertes Fahrsystem aller Aspekte der dynamischen Fahraufgabe an, selbst wenn ein menschlicher Fahrer nicht angemessen auf eine Anforderung einzugreifen, reagiert. Ein Level-Fünf-System zeigt eine „Vollautomatisierung“ an und verweist auf die Vollzeitleistung eines automatisierten Fahrsystems aller Aspekte der dynamischen Fahraufgabe unter allen Fahrbahn- und Umgebungsbedingungen, die von einem menschlichen Fahrer verwaltet werden können.
  • Wie dargestellt, beinhaltet das autonome Fahrzeug 10 im Allgemeinen ein Antriebssystem 20, ein Übertragungssystem 22, ein Lenksystem 24, ein Bremssystem 26, ein Sensorsystem 28, ein Stellgliedsystem 30, mindestens einen Datenspeicher 32 und mindestens eine Steuerung 34. Das Antriebssystem 20 kann in verschiedenen Ausführungsformen einen Verbrennungsmotor, eine elektrische Maschine, wie beispielsweise einen Traktionsmotor und/oder ein Brennstoffzellenantriebssystem, beinhalten. Das Getriebesystem 22 ist dazu konfiguriert, Leistung vom Antriebssystem 20 auf die Fahrzeugräder 16 und 18 gemäß den wählbaren Übersetzungsverhältnissen zu übertragen. Gemäß verschiedenen Ausführungsformen kann das Getriebesystem 22 ein Stufenverhältnis-Automatikgetriebe, ein stufenlos verstellbares Getriebe oder ein anderes geeignetes Getriebe beinhalten. Das Bremssystem 26 ist dazu konfiguriert, den Fahrzeugrädern 16 und 18 ein Bremsmoment bereitzustellen. Das Bremssystem 26 kann in verschiedenen Ausführungsformen Reibungsbremsen, Brake-by-Wire, ein regeneratives Bremssystem, wie beispielsweise eine elektrische Maschine und/oder andere geeignete Bremssysteme beinhalten. Das Lenksystem 24 beeinflusst die Position der Fahrzeugräder 16 und 18. Während in einigen Ausführungsformen innerhalb des Umfangs der vorliegenden Offenbarung zur Veranschaulichung als ein Lenkrad dargestellt, kann das Lenksystem 24 kein Lenkrad beinhalten.
  • Das Sensorsystem 28 beinhaltet eine oder mehrere Sensorvorrichtungen 40a-40n, die beobachtbare Zustände der äußeren Umgebung und/oder der inneren Umgebung des autonomen Fahrzeugs 10 erfassen. Die Sensorvorrichtungen 40a-40n können Radargeräte, Lidare, globale Positionierungssysteme, optische Kameras, Wärmebildkameras, Ultraschallsensoren und/oder andere Sensoren beinhalten, sind aber nicht darauf beschränkt. In verschiedenen Ausführungsformen beinhaltet das Fahrzeug 10 ein Radarsystem mit einer Anordnung von Radarsensoren, wobei die Radarsensoren an verschiedenen Stellen entlang des Fahrzeugs 10 angeordnet sind. Im Betrieb sendet ein Radarsensor einen elektromagnetischen Impuls 48 aus, der am Fahrzeug 10 von einem oder mehreren Objekten 50 im Sichtfeld des Sensors reflektiert wird. Der reflektierte Impuls 52 erscheint als eine oder mehrere Erfassungen am Radarsensor. Jeder Sensor, der den Bereich abdeckt, in dem sich das Objekt 50 befindet, d. h. das Objekt in seinem Sichtfeld aufweist, kann die Reflexion 52 empfangen und somit eine Erfassung des Objekts 50 erhalten. In einer Anordnung von Sensoren kann sich das Objekt 50 im Sichtfeld von mehr als einem Sensor befinden.
  • Das Stellantriebssystem 30 beinhaltet ein oder mehrere Stellantriebsvorrichtungen 42a-42n, die ein oder mehrere Fahrzeugeigenschaften, wie zum Beispiel das Antriebssystem 20, das Getriebesystem 22, das Lenksystem 24 und das Bremssystem 26, steuern, sind aber nicht darauf beschränkt. In verschiedenen Ausführungsformen können die Fahrzeugmerkmale ferner Innen- und/oder Außenfahrzeugmerkmale, wie beispielsweise Türen, einen Kofferraum und Innenraummerkmale, wie z. B. Belüftung, Musik, Beleuchtung usw., beinhalten, sind jedoch nicht auf diese beschränkt (nicht nummeriert) beinhalten, sind jedoch nicht auf diese beschränkt.
  • Die Steuerung 34 beinhaltet mindestens einen Prozessor 44 und eine computerlesbare Speichervorrichtung oder Medien 46. Der Prozessor 44 kann eine Spezialanfertigung oder ein handelsüblicher Prozessor sein, eine Zentraleinheit (CPU), eine Grafikprozessoreinheit (GPU) unter mehreren Prozessoren verbunden mit der Steuerung 34, ein Mikroprozessor auf Halbleiterbasis (in Form eines Mikrochips oder Chip-Satzes), ein Makroprozessor, eine Kombination derselben oder allgemein jede beliebige Vorrichtung zur Ausführung von Anweisungen. Die computerlesbare Speichervorrichtung oder Medien 46 können flüchtige und nicht-flüchtige Speicher in einem Nur-Lese-Speicher (ROM), einem Speicher mit direktem Zugriff (RAM) und einem Keep-Alive-Memory (KAM) beinhalten. KAM ist ein persistenter oder nicht-flüchtiger Speicher, der verwendet werden kann, um verschiedene Betriebsvariablen zu speichern, während der Prozessor 44 ausgeschaltet ist. Die computerlesbare Speichervorrichtung oder Medien 46 können unter Verwendung einer beliebigen einer Anzahl an bekannten Speichervorrichtungen, wie beispielsweise PROMs (programmierbarer Nur-Lese-Speicher), EPROMs (elektrische PROM), EEPROMs (elektrisch löschbarer PROM), Flash-Speicher oder beliebige andere elektrischen, magnetischen, optischen oder kombinierten Speichervorrichtungen implementiert werden, die Daten speichern können, von denen einige ausführbare Anweisungen darstellen, die von der Steuerung 34 beim Steuern des autonomen Fahrzeugs 10 verwendet werden.
  • Die Anweisungen können ein oder mehrere separate Programme beinhalten, von denen jede eine geordnete Auflistung von ausführbaren Anweisungen zum Implementieren von logischen Funktionen umfasst. Die Anweisungen empfangen und verarbeiten, wenn diese vom Prozessor 44 ausgeführt werden, Signale vom Sensorsystem 28, führen Logik, Berechnungen, Verfahren und/oder Algorithmen zur automatischen Steuerung der Komponenten des autonomen Fahrzeugs 10 durch und erzeugen Steuersignale an das Stellgliedsystem 30, um die Komponenten des autonomen Fahrzeugs 10 basierend auf der Logik, den Berechnungen, den Verfahren und/oder Algorithmen automatisch zu steuern. Obwohl in 1 nur eine Steuerung 34 dargestellt ist, können Ausführungsformen des autonomen Fahrzeugs 10 eine beliebige Anzahl an Steuerungen 34 beinhalten, die über ein geeignetes Kommunikationsmedium oder eine Kombination von Kommunikationsmedien kommunizieren und zusammenwirken, um die Sensorsignale zu verarbeiten, Logiken, Berechnungen, Verfahren und/oder Algorithmen durchzuführen, und Steuersignale zu erzeugen, um die Funktionen des autonomen Fahrzeugs 10 automatisch zu steuern.
  • Das Trajektorienplanungssystem 100 navigiert das Fahrzeug 10 basierend auf einer Bestimmung des Objekts und/oder deren Standorte in der Umgebung des Fahrzeugs. In verschiedenen Ausführungsformen führt die Steuerung 34 Berechnungen durch, um das Vorhandensein und/oder die Position eines Objekts in der Umgebung des Fahrzeugs aus einer Vielzahl von Erfassungen zu bestimmen, die an einem oder mehreren Sensoren des Radarsystems des Fahrzeugs 10 empfangen werden. Nach dem Bestimmen verschiedener Parameter des Objekts, wie beispielsweise Reichweite, Azimut, Höhe, Geschwindigkeit usw. aus der Vielzahl von Erkennungen, kann die Steuerung 34 die eine oder mehrere Betätigungsvorrichtungen 42a-n, das Antriebssystem 20, das Getriebesystem 22, das Lenksystem 24 und/oder die Bremse 26 bedienen, um das Fahrzeug 10 in Bezug auf das Objekt 50 zu navigieren. In verschiedenen Ausführungsformen navigiert die Steuerung 34 das Fahrzeug 10, um den Kontakt mit dem Objekt 50 zu vermeiden.
  • 2 zeigt ein veranschaulichendes Radarerfassungsfeld 200, das an einem Sensor des Radarsystems des Fahrzeugs 10 von 1 empfangen wird. Das Radarerfassungsfeld 200 beinhaltet eine Vielzahl von Erfassungen (angegeben durch die Punkte 202), die durch den Sensor erhalten werden. Das Radarerfassungsfeld 200 zeigt ferner einen Clustering-Algorithmus, der auf die Vielzahl von Erfassungen angewendet wird, um Cluster zwischen Erfassungen zu bilden, die sich auf ein und dasselbe Objekt beziehen. In verschiedenen Ausführungsformen ist der Clustering-Algorithmus ein DBSCAN-(Density-Based Spatial Clustering of Applications with Noise)-Algorithmus.
  • Der Clustering-Algorithmus gruppiert Erfassungen unter Verwendung von zwei Dichteparametern: einer Gate-Größe ε und einem Minimalpunkt minPts. Diese Parameter definieren eine minimal erforderliche Dichte von Erfassungen, um die Erfassungen als Teil eines Clusters zu qualifizieren. Die Gate-Größe ist im Allgemeinen ein Radius eines Kreises 204 oder einer Kugel, die eine ausgewählte Erfassung umgibt und bezeichnet einen Suchbereich, in dem nach benachbarten Erfassungen gesucht werden soll. Der Prozessor 34 sucht nach benachbarten Erfassungen innerhalb des Kreises 204 oder der durch die Gate-Größe angezeigten Kugel und stellt eine Anzahl der Anzahl der benachbarten Erfassungen innerhalb des Kreises oder der Kugel bereit. Der Parameter minPts zeigt einen Schwellenwert für die Anzahl an, ab dem der Algorithmus einen gültigen Cluster von Erfassungen definiert. Mit anderen Worten, wenn die Anzahl von benachbarten Erfassungen innerhalb des Kreises 204 oder der Kugel kleiner als minPts ist, betrachtet der Clustering-Algorithmus die Erfassungen als nicht relevant. Wenn die Anzahl von benachbarten Erfassungen innerhalb des Kreises 204 oder der Kugel größer ist als die minPts, gruppiert der Clustering-Algorithmus die Erfassungen als Teil desselben Clusters. In der veranschaulichenden Ausführungsform von 2 wird der Wert des Parameters minPts auf 3 gesetzt. Jedoch kann jeder geeignete Wert für minPts in alternativen Ausführungsformen verwendet werden. Als Ergebnis des Clustering-Algorithmus mit minPts = 3 wird eine Gruppe von Erfassungen oben rechts im Erfassungsfeld 200 als erster Cluster C1 und eine Gruppe von Erfassungen unten links im Erfassungsfeld 200 als zweiter Cluster C2 eingestuft. Eine Einzelerfassung in der oberen Mitte des Erfassungsfeldes 200 weist keine unmittelbaren benachbarten Erfassungen auf und wird daher als Rauschen ,N‘ eingestuft.
  • Die Auswahl der Gate-Größe und minPts ändert das Ergebnis der Clustering-Algorithmuserfassung. Wenn mehrere Sensoren Erfassungen vom gleichen Objekt empfangen, kann es sinnvoll sein, die Gate-Größe und minPts zu ändern, um die erhöhte Anzahl von Erfassungen zu berücksichtigen. Im Gegensatz dazu kann die Verwendung eines einzelnen festgelegten Satzes von Dichteparametern (ε, minPts) für eine Anordnung von Sensoren mit überlappenden Sichtfeldern zu einer falschen Klassifizierung von Erfassungen als Rauschen führen.
  • 3 veranschaulicht die Überlappung der Sichtfelder mehrerer an einem Fahrzeug angeordneter Radarsensoren. Zum Zwecke der Veranschaulichung befinden sich die Radarsensoren 302, 304, 306 und 308 an einem vorderen Ende des Fahrzeugs 10. Die Radarsensoren 302, 304, 306 und 308 können jedoch in alternativen Ausführungsformen an jeder beliebigen Stelle des Fahrzeugs 10 angeordnet sein. Jeder Sensor weist ein Sichtfeld auf, das einen Bereich des von den Sensoren abgedeckten Raumes definiert. Ein Bereich des Raumes wird von einem Sensor abgedeckt, wenn ein Objekt im Bereich des Raumes vom Sensor erfasst werden kann. Das Sichtfeld für einen Sensor wird im Allgemeinen durch einen elliptischen Kegel gegeben.
  • Die 4A und 4B veranschaulichen ein Sichtfeld für einen exemplarischen Sensor von Ober- bzw. Seitenansichten. 4A zeigt das Sichtfeld aus einer Draufsicht auf den Sensor. Das Sichtfeld aus der Draufsicht wird durch den Bereich Rmax des Sensors und eine Azimutöffnung θÖffnung des Sensors definiert. 4B zeigt ein Sichtfeld von einer Seitenansicht des Sensors. Das Sichtfeld aus der Seitenansicht wird durch den Bereich Rmax des Sensors und eine Höhenöffnung φÖffnung des Sensors definiert.
  • Rückblickend auf 3 sind die Grenzen der Sichtfelder entlang des Azimuts für die Sensoren 302, 304, 306 und 308 dargestellt. Das Sichtfeld des Sensors 302 wird durch die linke Grenze 302L und die rechte Grenze 304R begrenzt. Das Sichtfeld des Sensors 304 wird durch die linke Grenze 304L und die rechte Grenze 304R begrenzt. Das Sichtfeld des Sensors 306 wird durch die linke Grenze 306L und die rechte Grenze 306R begrenzt. Das Sichtfeld des Sensors 308 wird durch die linke Grenze 308L und die rechte Grenze 308R begrenzt. Die Sichtfelder dieser Sensoren 302, 304, 306 und 308 überlappen sich in einigen Bereichen. Ein Raumvolumen beinhaltet beispielsweise Bereiche (gekennzeichnet mit „1“), die nur von einem einzelnen Sensor abgedeckt werden, Bereiche (gekennzeichnet mit „2“), die von zwei Sensoren abgedeckt werden, und Bereiche (gekennzeichnet mit „3“), die von drei Sensoren abgedeckt werden. Obwohl in 3 keine zusätzlichen Bereiche dargestellt sind, sind auch Bereiche möglich, die von vier oder mehr Sensoren abgedeckt werden, insbesondere in einem Radarsystem, das mehr als die vier in 3 dargestellten Sensoren beinhaltet. Die Anzahl der Radare, die einen bestimmten Punkt oder einen bestimmten Bereich im Raum abdecken, kann durch den Parameter nÜberlappung angezeigt werden. Nachdem der Parameter nÜberlappung für einen Bereich bestimmt wurde, können die Dichteparameter (d. h. Gate-Größe und minPts) des Clustering-Algorithmus angepasst werden, um die Erfassungen zu bündeln und gleichzeitig eine Fehlzählung einer Erfassung als Rauschen zu reduzieren.
  • Um die Dichteparameter anzupassen, wird zunächst ein Wert von nÜberlappung für einen Bereich bestimmt. Wenn Si die Menge der Punkte ist, die zum Sichtfeld des ith Sensors zählen, dann g i ( x , y , z ) = { 0, A n d e r n f  alls 1, i f   ( x , y , z )     S i }
    Figure DE102019111569A1_0001
    und n Ü u b e r l a p p u n g ( x , y , z ) = i = 1 N S e n s o r e n g i ( x , y , z )
    Figure DE102019111569A1_0002
  • Nachdem nÜberlappung für einen Bereich bestimmt wurde, werden die Dichteparameter entsprechend angepasst, insbesondere ε ( n Ü b e r l a p p u n g ) = γ 1 n Ü b e r l a p p u n g ε 0
    Figure DE102019111569A1_0003
    und m i n P t s ( n Ü b e r l a p p u n g ) = γ 2 n Ü b e r l a p p u n g m i n P t s 0
    Figure DE102019111569A1_0004
    wobei die Parameter ε0 eine Gate-Größe und minPts0 der Zählschwellenwert zum Definieren eines gültigen Clusters in einem von einem einzelnen Sensor abgedeckten Bereich ist. Die Parameter γ1 und γ2 beziehen sich auf eine Score_Ausrichtung durch die folgenden Gleichungen: y 1 1 / S c o r e _ A u s r i c h t u n g
    Figure DE102019111569A1_0005
    und y 2 S c o r e _ A u s r i c h t u n g
    Figure DE102019111569A1_0006
  • Die Score-Ausrichtung ist eine Zahl zwischen 0 und 1, die eine Qualität der Ausrichtung der Sensoren auf eine ausgewählte ideale Konfiguration der Sensoren anzeigt. Eine Score Ausrichtung bei 0 zeigt eine schlechte Ausrichtung der Sensoren an, während eine Score-Ausrichtung bei 1 eine gute Ausrichtung der Sensoren anzeigt. Gemäß GL. (3) nimmt bei einer guten Ausrichtung die Gate-Größe ε für eine Erfassung mit zunehmender Anzahl von Sensoren zu, die den Bereich abdecken, in dem die Erfassung erfolgt. Gemäß GL. (3) steigt auch die Anzahl der minPts mit zunehmender Anzahl der Sensoren für den entsprechenden Bereich. Der Clustering-Algorithmus wird daher mit den angepassten Dichteparametern durchgeführt, die abgeleitet werden aus den Gl. (1)-(6). In einem Bereich mit nÜberlappung = 2 wird das Clustering beispielsweise mit der Gate-Größe ε(2)= 2γ1ε0 und minPts(2) = 2γ2minPts durchgeführt. Es können weitere Parameter verwendet werden, um die Werte von ε(nÜberlappung) und minPts(nÜberlappung) zu beeinflussen oder anzupassen, entweder zusätzlich zur Score-Ausrichtung oder als Alternative zur Score-Ausrichtung. Die Verwendung eines Ausrichtungswertes als Parameter für die Gl. (5) und (6) ist ein Beispiel. In einer weiteren Ausführungsform können die Funktionen der Gl. (5) und (6) andere relevante Parameter berücksichtigen
  • 5 zeigt ein Flussdiagramm 500, das ein Verfahren zum Erfassen eines Objekts in einem Sichtfeld einer Anordnung von Radarsensoren veranschaulicht. In Feld 502 werden eine Vielzahl von Erfassungen an einem oder mehreren Sensoren eines Radarsystems erhalten. In Feld 504 wird eine Erfassung ausgewählt und ein Überlappungswert nÜberlappung für den Bereich bestimmt, in dem sich die Erfassung befindet. In Feld 506 werden die Parameter ε und minPts der Gate-Größe bestimmt und/oder für den Wert der nÜberlappung angepasst. In Feld 508 wird der Clustering-Algorithmus für die ausgewählte Erfassung unter Verwendung der Gate-Größe ε und minPts, die für den Wert der nÜberlappung für den Erfassungsbereich bestimmt wurden, ausgeführt, um einen gültigen Cluster von Erfassungen zu bestimmen. In Feld 510 identifiziert der Prozessor 34 das Objekt aus dem gültigen Cluster. In Feld 512 führt der Prozessor 34 eine geeignete Aktion am Fahrzeug in Bezug auf das Objekt basierend auf den Parametern des Objekts, wie beispielsweise seiner Position und/oder Geschwindigkeit, durch.
  • Während die obige Offenbarung mit Bezug auf exemplarische Ausführungsformen beschrieben wurde, werden Fachleute verstehen, dass unterschiedliche Änderungen vorgenommen und die einzelnen Teile durch entsprechende andere Teile ausgetauscht werden können, ohne vom Umfang der Offenbarung abzuweichen. Darüber hinaus können viele Modifikationen vorgenommen werden, um eine bestimmte Materialsituation an die Lehren der Offenbarung anzupassen, ohne von deren wesentlichem Umfang abzuweichen. Daher ist beabsichtigt, dass die vorliegende Offenbarung nicht auf die ermittelten offenbarten Ausführungsformen eingeschränkt ist, sondern alle Ausführungsformen beinhaltet, die in ihren Schutzumfang fallen.

Claims (10)

  1. Verfahren zum Erfassen eines Objekts, umfassend: Erhalten von Erfassungen, die sich auf das Objekt beziehen, an einer Vielzahl von Sensoren in einem Radarsystem; Bestimmen eines Überlappungswerts für einen Bereich, in dem sich die Erfassung befindet, für eine Erfassung; Anpassen eines Dichteparameters eines Clustering-Kriteriums basierend auf dem Überlappungswert; und Bestimmen eines gültigen Clusterings der Erfassung mit einer benachbarten Erfassung, um das Objekt unter Verwendung des angepassten Dichteparameters zu bestimmen.
  2. Verfahren nach Anspruch 1, worin das Anpassen des Dichteparameters ferner das Anpassen mindestens einer von einer Gate-Größe eines Clustering-Algorithmus und einer Mindestpunktanforderung des Clustering-Algorithmus umfasst.
  3. Verfahren nach Anspruch 2, ferner umfassend das Multiplizieren der Gate-Größe und der Mindestpunktanforderung für einen von einem einzelnen Sensor abgedeckten Bereich mit dem Überlappungswert für den Bereich, in dem sich die Erfassung befindet.
  4. Verfahren nach Anspruch 2, ferner umfassend das Anpassen der mindestens einen von einer Gate-Größe eines Clustering-Algorithmus und einer Mindestpunktanforderung durch mindestens einen Sensorausrichtungswert.
  5. Verfahren nach Anspruch 1, ferner umfassend das Bestimmen eines Rauschsignals.
  6. Radarsystem, umfassend: eine Vielzahl von Sensoren, worin ein Sichtfeld eines der Vielzahl von Sensoren ein Sichtfeld von mindestens einem anderen der Vielzahl von Sensoren in einem Bereich überlappt; und einen Prozessor, der konfiguriert ist, zum: Empfangen einer Erfassung aus dem Bereich von einer Vielzahl von Sensoren, wobei die Erfassung auf ein Objekt bezogen ist; Bestimmen eines Überlappungswerts für den Bereich; Anpassen eines Dichteparameters eines Clustering-Kriteriums basierend auf dem Überlappungswert; und Bestimmen eines gültigen Clusterings der Erfassung mit einer benachbarten Erfassung unter Verwendung des angepassten Dichteparameters.
  7. Radarsystem nach Anspruch 6, worin der Prozessor ferner konfiguriert ist, um den Dichteparameter durch Anpassen mindestens einer von einer Gate-Größe eines Clustering-Algorithmus und einer Mindestpunktanforderung des Clustering-Algorithmus anzupassen.
  8. Radarsystem nach Anspruch 7, worin der Prozessor ferner konfiguriert ist, um die Gate-Größe und die Mindestpunktanforderung durch Multiplizieren der Gate-Größe und der Mindestpunktanforderung mit dem Überlappungswert für den Bereich anzupassen.
  9. Radarsystem nach Anspruch 7, worin der Prozessor ferner konfiguriert ist, um die mindestens eine von einer Gate-Größe und den Mindestpunktanforderungen durch einen Sensorausrichtungswert anzupassen.
  10. Radarsystem nach Anspruch 6, worin der Prozessor ferner konfiguriert ist, um eine Anzahl von falschen Rauschsignalen aus dem Clustering-Algorithmus zu reduzieren.
DE102019111569.8A 2018-05-14 2019-05-03 Dbscan-parameter als funktion der sensorsuite-konfiguration Pending DE102019111569A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/978,693 2018-05-14
US15/978,693 US11079488B2 (en) 2018-05-14 2018-05-14 DBSCAN parameters as function of sensor suite configuration

Publications (1)

Publication Number Publication Date
DE102019111569A1 true DE102019111569A1 (de) 2019-11-14

Family

ID=68336931

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019111569.8A Pending DE102019111569A1 (de) 2018-05-14 2019-05-03 Dbscan-parameter als funktion der sensorsuite-konfiguration

Country Status (3)

Country Link
US (1) US11079488B2 (de)
CN (1) CN110488295B (de)
DE (1) DE102019111569A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110806563A (zh) * 2019-11-19 2020-02-18 西南交通大学 基于雷达脉冲混叠程度判定的辐射源信号聚类分选方法
CN111044986A (zh) * 2019-12-25 2020-04-21 成都纳雷科技有限公司 一种用于雷达目标检测的密度聚类方法及装置
DE102020215254A1 (de) 2020-12-03 2022-06-09 Continental Automotive Gmbh Verfahren zur Erkennung von Parklücken mittels Ultraschallsensoren
EP4357806A1 (de) * 2022-10-18 2024-04-24 Robert Bosch GmbH Verfahren und vorrichtung zur filterung von radarreflexionspunkten

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112674646B (zh) * 2020-12-15 2022-08-09 广东盈峰智能环卫科技有限公司 基于多算法融合的自适应贴边作业方法及机器人
JP6960129B1 (ja) * 2020-12-21 2021-11-05 WaveArrays株式会社 レーダ装置
CN114609626A (zh) * 2022-03-16 2022-06-10 电子科技大学 一种车载毫米波雷达多目标检测方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008073962A2 (en) * 2006-12-12 2008-06-19 Rutgers, The State University Of New Jersey System and method for detecting and tracking features in images
US9472097B2 (en) * 2010-11-15 2016-10-18 Image Sensing Systems, Inc. Roadway sensing systems
US9129211B2 (en) * 2012-03-15 2015-09-08 GM Global Technology Operations LLC Bayesian network to track objects using scan points using multiple LiDAR sensors
US9255988B2 (en) * 2014-01-16 2016-02-09 GM Global Technology Operations LLC Object fusion system of multiple radar imaging sensors
CN106461774B (zh) * 2014-02-20 2019-04-23 御眼视觉技术有限公司 基于雷达提示视觉成像的高级驾驶员辅助系统
US10018709B2 (en) * 2014-09-19 2018-07-10 GM Global Technology Operations LLC Radar target detection via multi-dimensional cluster of reflectors
US9891310B2 (en) * 2015-04-02 2018-02-13 Raytheon Company Sequential multi-beam radar for maximum likelihood tracking and fence search
US20170242117A1 (en) * 2016-02-19 2017-08-24 Delphi Technologies, Inc. Vision algorithm performance using low level sensor fusion
US20180032822A1 (en) * 2016-08-01 2018-02-01 Ford Global Technologies, Llc Vehicle exterior monitoring
US20180128916A1 (en) * 2016-11-04 2018-05-10 GM Global Technology Operations LLC Object detection in multiple radars
US10612929B2 (en) * 2017-10-17 2020-04-07 AI Incorporated Discovering and plotting the boundary of an enclosure

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110806563A (zh) * 2019-11-19 2020-02-18 西南交通大学 基于雷达脉冲混叠程度判定的辐射源信号聚类分选方法
CN111044986A (zh) * 2019-12-25 2020-04-21 成都纳雷科技有限公司 一种用于雷达目标检测的密度聚类方法及装置
CN111044986B (zh) * 2019-12-25 2022-05-10 成都纳雷科技有限公司 一种用于雷达目标检测的密度聚类方法及装置
DE102020215254A1 (de) 2020-12-03 2022-06-09 Continental Automotive Gmbh Verfahren zur Erkennung von Parklücken mittels Ultraschallsensoren
WO2022117161A1 (de) * 2020-12-03 2022-06-09 Continental Automotive Gmbh Verfahren zur erkennung von parklücken mittels ultraschallsensoren
EP4357806A1 (de) * 2022-10-18 2024-04-24 Robert Bosch GmbH Verfahren und vorrichtung zur filterung von radarreflexionspunkten

Also Published As

Publication number Publication date
CN110488295A (zh) 2019-11-22
US20190346559A1 (en) 2019-11-14
US11079488B2 (en) 2021-08-03
CN110488295B (zh) 2023-05-26

Similar Documents

Publication Publication Date Title
DE102019111569A1 (de) Dbscan-parameter als funktion der sensorsuite-konfiguration
DE102019110927A1 (de) Verallgemeinertes inverses 3D-Sensormodell
EP2991874B1 (de) Bereitstellen einer effizienten umfeldkarte für ein fahrzeug
DE102019114603A1 (de) Geschwindigkeitsvektorschätzung von objekten durch mehrere radare mit unterschiedlichen beobachtungswinkeln
DE102020102712A1 (de) Entfernung von fehlalarmen in der keulenbildungsphase zum erfassen von radaren unter verwendung eines tiefen neuronalen netzwerks
DE102018129063A1 (de) Systeme und verfahren zur freiraum-inferenz zum brechen von geclusterten objekten in fahrzeugwahrnehmungssystemen
WO2006128766A1 (de) Verfahren und vorrichtung zur erkennung und klassifizierung von objekten
DE102019111383A1 (de) Verfahren zur effizienten volumetrischen integration für 3d-sensoren
DE102019115365A1 (de) Sequentielle zielparameterschätzung zum abbilden von radar
DE102015101292A1 (de) Verfahren zum Erfassen eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs durch Überprüfen einer räumlichen Abweichung von Messpunkten, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102021103370A1 (de) Objekterkennung mittels low-level-kamera-radar-fusion
DE102020105642A1 (de) Entwerfen von und verarbeiten mit antennenarrays zur beseitigung von fehldetektionen in einem radarsystem
DE102019115665A1 (de) Optimierung tiefer neuronaler netze unter beibehaltung der richtigkeit
DE102019114882A1 (de) Reichweite und richtung der einfallsmigration mit doppler-mehrdeutigkeitsschätzung
DE102019133708A1 (de) Verfahren und vorrichtung zum erfassen von statischen und dynamischen informationen auf spurniveau
DE102022126313A1 (de) Verfahren und Systeme zur Ausrichtung einer Kamera zum Boden
DE102020106469A1 (de) Verfahren und systeme für die verwaltung automatisierter fahrfunktionen
DE102019217723A1 (de) Fahrsicherheits-steuersystem unter verwendung von umgebungsgeräuschen und steuerverfahren dafür
DE102016118308A1 (de) Verfahren zum Bestimmen eines Abstands zwischen einem Kraftfahrzeug und einem Objekt mit Anpassung einer berücksichtigten Anzahl von Abstandswerten, Steuergerät, Fahrerassistenzsystem sowie Kraftfahrzeug
DE10335601B4 (de) Verfahren zur Objektklassifizierung unter Verwendung einer 3D-Modelldatenbank
DE102021106694A1 (de) Dynamische lidar-zu-kamera-ausrichtung
DE102020103770A1 (de) Identifizierung der Aufmerksamkeitsregion zur Verbesserung der sensorgestützten Erkennung in einem Fahrzeug
DE102019114576A1 (de) Ultrabreitband-radarkalibrierung und einfallswinkel-schätzung
DE102022126309A1 (de) Verfahren und Systeme zur Ausrichtung einer Kamera zum Boden
DE102018100596A1 (de) Verfahren zum Verhindern einer kritischen Situation für ein Kraftfahrzeug, wobei ein Abstand zwischen einer Kraftfahrzeugkontur und einer Objektkontur bestimmt wird, Fahrerassistenzsystem sowie Kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: LKGLOBAL LORENZ UND KOPF PATENTANWALT, ATTORNE, DE

Representative=s name: LKGLOBAL | LORENZ & KOPF PARTG MBB PATENTANWAE, DE

Representative=s name: LKGLOBAL ] LORENZ & KOPF PARTG MBB PATENTANWAE, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01S0007292000

Ipc: G01S0007410000