DE102018217000A1 - Verfahren, Computerprogramm und Messsystem für die Auswertung von Bewegungsinformationen - Google Patents

Verfahren, Computerprogramm und Messsystem für die Auswertung von Bewegungsinformationen Download PDF

Info

Publication number
DE102018217000A1
DE102018217000A1 DE102018217000.2A DE102018217000A DE102018217000A1 DE 102018217000 A1 DE102018217000 A1 DE 102018217000A1 DE 102018217000 A DE102018217000 A DE 102018217000A DE 102018217000 A1 DE102018217000 A1 DE 102018217000A1
Authority
DE
Germany
Prior art keywords
points
vehicle
radar
static
targets
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018217000.2A
Other languages
English (en)
Inventor
Florian Maile
Jannik Metzner
Daniel Fafula
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102018217000.2A priority Critical patent/DE102018217000A1/de
Publication of DE102018217000A1 publication Critical patent/DE102018217000A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • G01S13/876Combination of several spaced transponders or reflectors of known location for determining the position of a receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Verfahren, bei dem ein Clustering-Prozess (S150) auf einer akkumulierten Punktwolke (81) eines Bewegungsmesssystems ausgeführt wird und Punkte der Punktwolke (81), die vom Clustering-Prozess keinem Cluster zugeordnet werden können, als Ausreißer klassifiziert werden.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft Verfahren, Computerprogramm und Messsystem für die Auswertung von Bewegungsinformationen, beispielsweise Bewegungsinformationen eines Radarmessgeräts.
  • TECHNISCHER HINTERGRUND
  • Es sind Bewegungsmesssysteme bekannt, die für autonomes bzw. teilautonomes Fahren oder für „Advanced Driver Assistance Systems“ (ADAS) -Funktionen an Kraftfahrzeugen verwendet werden. Um eine Umgebungswahrnehmung zu erreichen, tasten solche Messsysteme die Umgebung des Kraftfahrzeugs auf Objekte ab, um deren Relativposition und Relativgeschwindigkeit gegenüber dem Kraftfahrzeug zu ermitteln. Dafür senden diese Messsysteme Wellen aus, welche an umliegenden Objekten reflektiert werden und sodann von dem Messsystem wieder Empfangen werden. Dies sind beispielsweise elektromagnetische Wellen oder akustische Wellen. Insbesondere werden hierfür Radar- oder Lidar-Messsysteme genutzt. Autonome Fahrzeuge erhalten mittels Radar oder Lidar Position und Geschwindigkeiten von Objekten, wie anderen Verkehrsteilnehmern oder Hindernissen.
  • Die Radar-Technologie („Radio Detection and Ranging“) bezieht sich beispielsweise auf Vorrichtungen, Verfahren und Systeme zur Ortung und Erkennung von Objekten auf Basis von elektromagnetischen Wellen im Radiofrequenzbereich. Das Radar sendet ein elektromagnetisches Signal und empfängt Echos von Objekten. Mittels der Radar-Technologie kann beispielsweise über die Auswertung von Laufzeiten eine Position und unter Berücksichtigung von Frequenzsignaländerung (DopplerEffekt) eine relative Geschwindigkeit eines Objekts ermittelt werden.
  • Für die Aufgabe der Umgebungswahrnehmung laufen verschiedene Algorithmen wie statische Umgebungswahrnehmung, dynamische Objektverarbeitung, Alignment-Berechnung sowie Lokalisierung und Mapping. Viele dieser Algorithmen beruhen darauf, dass mehrere aufeinanderfolgende Messrahmen miteinander ausgerichtet werden. Um dieses Problem zu lösen, werden modernste Scan-to-Scan-Matching-Methoden eingesetzt. Ein Radarsensor erzeugt typischerweise spärliche und verrauschte Messungen der Umgebung. Dies hat zur Folge, dass die Scan-to-Scan-Abgleichmethode an Genauigkeit leidet.
  • Hiervon ausgehend liegt der Erfindung die Aufgabe zu Grunde, ein Verfahren, ein Computerprogramm und ein Messsystem für die Auswertung von Bewegungsinformationen bereitzustellen, welche die Genauigkeit eines Scan-to-Scan-Abgleichs verbessern. Diese Aufgabe wird durch das Verfahren nach Anspruch 1, das Computerprogramm nach Anspruch 9, und das Messsystem nach Anspruch 10 gelöst. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen und der folgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung.
  • Die Ausführungsbeispiele zeigen ein Verfahren, bei dem ein Clustering-Prozess auf einer akkumulierten Punktwolke eines Bewegungsmesssystems ausgeführt wird und Punkte der Punktwolke, die vom Clustering-Prozess keinem Cluster zugeordnet werden können, als Ausreißer klassifiziert werden.
  • Das Bewegungsmesssystem umfasst beispielsweise ein oder mehrere Radarsensoren, Lidar-Sensoren, Kamera, oder dergleichen.
  • Bei den Punkten der akkumulierten Punktwolke kann es sich beispielsweise um Ziele einer vom Bewegungsmesssystem bereitgestellten Zielliste handeln. Die Ziele werden beispielsweise in Form von Messrahmen bereitgestellt, die vom Bewegungsmesssystem geliefert werden.
  • Die Punkte bzw. Ziele der Punktwolke können über eine vorgegebene Akkumulationszeit akkumuliert werden. Das Akkumulieren von Punkten kann beispielsweise dadurch erfolgen, dass die Punkte einem Datensatz hinzugefügt werden, in welchem die Punkte aller aufeinanderfolgenden Messrahmen der Akkumulationszeit vereinigt werden. Die Akkumulationszeit kann beispielsweise durch eine Maximalzahl an Messrahmen vorgegeben werden, die akkumuliert werden.
  • Vorzugsweise erfolgt bei dem Verfahren eine Klassifizierung der vom Bewegungsmesssystem bereitgestellten Punkte bzw. Ziele als statische Punkte bzw. Ziele oder mobile Punkte bzw. Ziele und nur die statischen Punkte bzw. Ziele werden in der Punktwolke akkumuliert. Diese Ermittlung der statischen Punkte bzw. Ziele erfolgt beispielsweise mithilfe einer statischen Funktion, die eine theoretische Vorhersage (z.B. einen Cosinus-Verlauf) repräsentiert. Weitere Möglichkeiten zur Klassifikation von statischen/mobilen Punkten bzw. Zielen, wäre ein RANSAC-Algorithmus, der eine Gerade durch die Ziele legt oder Machine-Learning Ansätze.
  • Vorzugsweise werden die Messrahmen auf Punkte bzw. Ziele gefiltert, die zum Beispiel einen hohen Intensitätswert aufweisen.
  • Ferner kann bei dem Verfahren eine Ermittlung der Eigenbewegung, sowie eine Kompensation der Eigenbewegung in den statischen Punkten bzw. Ziele erfolgen. Die Ermittlung der Eigenbewegung des Fahrzeugs kann beispielsweise auf einem beliebigen, dem Fachmann bekannten Odometrie-Verfahren erfolgen. Mittels solcher Odometrie-Verfahren wird die Odometrie des Fahrzeugs, beispielsweise Position (X,Y,Z) und Rotationsbewegungen (Drehraten) um eine Hoch-, Quer und Längsachse des Fahrzeuges (Eulerwinkel Phi, Theta, Psi) ermittelt. Translatorische Geschwindigkeitskomponenten können hierfür aus dem ESP oder über die Raddrehzahlen hergeleitet werden. Rotatorische Komponenten (Drehraten) können ebenfalls aus dem ESP (Gierrate) oder alle drei Drehraten aus einer IMU (Inertial Measurement Unit) hergeleitet werden. Es kann auch ein Regressionsverfahren verwendet werden, bei dem durch die als statisch klassifizierten Ziele eine Regressionsfunktion gelegt wird, die eine theoretische Vorhersage (z.B. eine statische Funktion wie einen Cosinus-Verlauf) repräsentiert. Aus den Regressionsparametern ergeben sich die Eigenbewegung des Fahrzeuges wie Fahrzeuggeschwindigkeit und die Drehrate um die Hochachse des Fahrzeuges. Die Fahrzeuggeschwindigkeit und Drehraten um die jeweiligen Fahrzeugachsen werden genutzt um die akkumulierten Messrahmen in ein gemeinsames Koordinatensystem transformieren zu können. Durch die Kompensation der Eigenbewegung liegt somit ein Punktziel, welches in mehreren aufeinanderfolgenden Messrahmen auftritt, werden im akkumulierten Koordinatensystem mit großer Wahrscheinlichkeit an exakt der gleichen Stelle mehrere Punktziele vorhanden sein.
  • Der Clustering-Prozess kann beispielsweise auf einem dem Fachmann bekannten dichtebasierten Clustering-Algorithmus wie beispielsweise DBSCAN („Density-Based Spatial Clustering of Applications with Noise“) oder insbesondere der spezialisierten Variante GDBSCAN („Grid based DBSCAN“) basieren.
  • Bevorzugt erfolgt bei dem Verfahren eine Störunterdrückung, bei der Punkte der Punktwolke, die als Ausreißer klassifiziert werden, verworfen werden. Auf diese Weise kann ein störungsbereinigter Datensatz erhalten werden.
  • Auf Grundlage der störungsbereinigten Punktwolke kann ein Scan-to-Scan-Matching durchgeführt wird. Bei der Durchführung des Scan-to-Scan-Matchings werden beispielsweise die Punktwolken mittels Rotation und Translation möglichst gut miteinander in Deckung gebracht. Das Scan-to-Scan-Matching kann beispielsweise mittels dem Fachmann bekannten Verfahren wie ICP („Iterative Closest Point“) oder NDT („Normal Distribution Transform“) erfolgen.
  • Die Ausführungsbeispiele betreffen auch ein Computerprogramm, umfassend Instruktionen, die, wenn Sie auf einem Prozessor ausgeführt werden, diesen dazu veranlassen, Verfahren, wie sie hier beschrieben sind, durchzuführen.
  • Die Ausführungsbeispiele betreffen auch ein Messsystem umfassend einen Prozessor, der dazu ausgelegt ist, Verfahren, wie sie hier beschrieben sind, durchzuführen.
  • Bei der Auswerteeinheit kann es sich beispielsweise um ein Steuergerät (engl. ECU = electronic control unit oder ECM = electronic control module) handeln. Die Auswerteeinheit könnte eine Steuerungseinheit für autonomes Fahren sein oder eine zentrale Steuereinheit eines Kraftfahrzeugs sein. Die Steuereinheit für autonomes Fahren (z.B. ein „Autopilot“) kann beispielsweise in einem autonomen Fahrzeug eingesetzt werden, so dass dieses ganz oder teilweise ohne Einfluss eines menschlichen Fahrers im Straßenverkehr agieren kann. Bei dem Prozessor kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Verarbeitungseinheit (CPU = central processing unit) handeln, die Programminstruktionen ausführt.
  • Die Auswerteeinheit kann sich im Fahrzeug befinden, oder auch außerhalb oder teilweise außerhalb des Fahrzeugs. Die Rohradardaten können von dem Fahrzeug zu einem Server oder in ein Cloud-System übertragen werden, wo auf Grundlage der übermittelten Rohradardaten und eines geplanten Fahrmanövers eine optimale Fahrposition des Fahrzeugs ermittelt wird und das Ergebnis wieder an das Fahrzeug rückübermittelt wird. Demgemäß ist vorgesehen, dass die Zentralsteuerungseinheit bzw. Steuerlogik ganz oder teilweise auch außerhalb des Fahrzeugs liegen kann. So kann es sich bei der Steuerlogik beispielsweise um einen Algorithmus handeln, der auf einem Server oder einem Cloud-System abläuft.
  • Die Ausführungsbeispiele offenbaren auch ein Kraftfahrzeug, das eine Radarsteuerungseinheit und/oder eine Auswertungseinheit, wie oben und in den Ausführungsbeispielen beschrieben, umfasst. Bei dem Fahrzeug kann es sich beispielsweise um ein autonomes oder teilautonomes Kraftfahrzeug wie einen PKW, einen LKW oder dergleichen handeln.
  • Die Ausführungsbeispiele offenbaren ferner auch ein Verfahren, umfassend ein Filtern von Radardaten, die von einer Antennenanordnung gewonnenen wurden, wobei bei der Filterung der Radardaten Teile der Radardaten, in denen kein potentielles Zielobjekt enthalten ist, eliminiert werden, um die Menge an Radardaten zu reduzieren. Das Verfahren kann sämtliche oben bezüglich der Radarsteuerungseinheit und Auswertungseinheit beschriebenen Funktionen ausführen.
  • Ausführungsformen werden nun beispielhaft und unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, in denen:
    • 1 ein Blockdiagramm zeigt, das schematisch die Konfiguration eines Fahrzeugs mit einer Steuerungseinheit für autonomes (oder teilautonomes) Fahren;
    • 2 ein Blockdiagramm zeigt, das eine beispielhafte Konfiguration einer Steuerungseinheit (ECU 1, 2, 3, 4 und 5 in 1) darstellt;
    • 3 ein Blockdiagramm zeigt, das eine beispielhafte Konfiguration einer Radareinheit darstellt;
    • 4 ein Blockdiagramm zeigt, das eine weitere beispielhafte Konfiguration einer Radareinheit darstellt;
    • 5 ein Flussdiagramm eines Ausführungsbeispiels eines Verfahrens zur Störunterdrückung in akkumulierten Punktwolken eines Radarsensors zeigt;
    • 6a,b,c ein Beispiel für die Klassifizierung der vom Radarsensor erfassten Zielpunkte eines Messrahmens als statische oder mobile Zielpunkte und eine Bestimmung der Eigenbewegung zeigen;
    • 7 ein beispielhaftes Ergebnis des Clustering-Prozesses bzw. der Störunterdrückung durch Verwerfen von Ausreißern in den akkumulierten Messdaten zeigt;
    • 8 schematisch den DBSCAN-Algorithmus als ein Ausführungsbeispiel für einen Clustering-Prozess zeigt;
    • 9 ein beispielhaftes Ergebnis eines Scan-to-Scan-Matchings auf Grundlage von störungsbereinigten Messdaten zeigt; und
    • 10 zeigt ein beispielhaftes Ergebnis eines Scan-to-Scan-Matchings zeigt, bei dem keine Störungsbereinigung der Messdaten erfolgt.
  • 1 zeigt ein Blockdiagramm, das schematisch die Konfiguration eines Fahrzeugs mit Radarmessystem und einer Steuerungseinheit für autonomes (oder teilautonomes) Fahren gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt. Das autonome Fahrzeug ist ein Fahrzeug, das ganz oder teilweise ohne Einfluss eines menschlichen Fahrers im Straßenverkehr agieren kann. Beim autonomen Fahren übernimmt das Steuerungssystem des Fahrzeugs vollständig oder weitestgehend die Rolle des Fahrers. Autonome (bzw. teilautonome) Fahrzeuge können mit Hilfe verschiedener Sensoren ihre Umgebung wahrnehmen, aus den gewonnenen Informationen ihre Position und die anderen Verkehrsteilnehmer bestimmen und mithilfe des Steuerungssystems und der Navigationssoftware des Fahrzeugs das Fahrziel ansteuern und im Straßenverkehr entsprechend agieren.
  • Das autonome Fahrzeug 1 umfasst mehrere elektronische Komponenten, welche via ein Fahrzeugkommunikationsnetzwerk 28 miteinander verbunden sind. Das Fahrzeugkommunikationsnetzwerk 28 kann beispielsweise ein im Fahrzeug eingebautes standardgemäßes Fahrzeugkommunikationsnetzwerk wie etwa ein CAN-Bus (controller area network), ein LIN-Bus (local interconnect network), ein Ethernet-basierter LAN-Bus (local area network), ein MOST-Bus, ein LVDS-Bus oder dergleichen sein.
  • In dem in 1 dargestellten Beispiel umfasst das autonome Fahrzeug 1 eine Steuerungseinheit 12 (ECU 1), die ein Lenksystem steuert. Das Lenksystem bezieht sich dabei auf die Komponenten, die eine Richtungssteuerung des Fahrzeugs ermöglichen. Das autonome Fahrzeug 1 umfasst ferner eine Steuerungseinheit 14 (ECU 2), die ein Bremssystem steuert. Das Bremssystem bezieht sich dabei auf die Komponenten, die ein Bremsen des Fahrzeugs ermöglichen. Das autonome Fahrzeug 1 umfasst ferner eine Steuerungseinheit 16 (ECU 3), die einen Antriebsstrang steuert. Der Antriebsstrang bezieht sich dabei auf die Antriebskomponenten des Fahrzeugs. Der Antriebsstrang kann einen Motor, ein Getriebe, eine Antriebs-/Propellerwelle, ein Differential und einen Achsantrieb umfassen.
  • Das autonome Fahrzeug 1 umfasst ferner eine Steuerungseinheit für autonomes Fahren 18 (ECU 4). Die Steuerungseinheit für autonomes Fahren 18 ist dazu ausgelegt, das autonome Fahrzeug 1 so zu steuern, dass dieses ganz oder teilweise ohne Einfluss eines menschlichen Fahrers im Straßenverkehr agieren kann. Die Steuerungseinheit für autonomes Fahren 18 steuert ein oder mehrere Fahrzeugsubsysteme, während das Fahrzeug im autonomen Modus betrieben wird, nämlich das Bremssystem 14, das Lenksystem 12 und das Antriebssystem 14. Hierfür kann die Steuerungseinheit für autonomes Fahren 18 beispielsweise über das Fahrzeugkommunikationsnetzwerk 28 mit den entsprechenden Steuerungseinheiten 12, 14 und 16 kommunizieren.
  • Die Steuerungseinheiten 12, 14 und 16 können ferner von den oben genannten Fahrzeugsubsystemen Fahrzeugbetriebsparameter empfangen, die diese mittels einem oder mehreren Fahrzeugsensoren erfassen. Fahrzeugsensoren sind vorzugsweise solche Sensoren, die einen Zustand des Fahrzeugs oder einen Zustand von Fahrzeugteilen erfassen, insbesondere deren Bewegungszustand. Die Sensoren können einen Fahrzeuggeschwindigkeitssensor, einen Gierraten-Sensor, einen Beschleunigungssensor, einen Lenkradwinkelsensor, einen Fahrzeuglastsensor, Temperatursensoren, Drucksensoren und dergleichen umfassen. Beispielsweise können auch Sensoren entlang der Bremsleitung angeordnet sein, um Signale auszugeben, die den Bremsflüssigkeitsdruck an verschiedenen Stellen entlang der hydraulischen Bremsleitung anzeigen. Andere Sensoren in der Nähe des Rades können vorgesehen sein, welche die Radgeschwindigkeit und den Bremsdruck erfassen, der am Rad aufgebracht wird.
  • Die Fahrzeugsensorik des autonomen Fahrzeugs 1 umfasst ferner eine Satellitennavigationseinheit 24 (GPS-Einheit) und einen oder mehrere optische Sensoren 20, die dazu ausgelegt sind, optische Informationen zu erfassen. Die optischen Sensoren 20 können innerhalb des Fahrzeugs oder außerhalb des Fahrzeugs angeordnet sein. Beispielsweise kann eine Kamera in einem vorderen Bereich des Fahrzeugs 1 zur Aufnahme von Bildern eines vor dem Fahrzeug befindlichen Bereichs eingebaut sein.
  • Das autonome Fahrzeug 1 umfasst ferner eine oder mehrere Radareinheiten 26. Bei der Radareinheit 26 kann es sich beispielsweise um ein Dauerstrichradar (CW-Radar) oder ein moduliertes Dauerstrichradar (FMCW-Radar) handeln. Radardaten werden von der Radareinheit 26 erfasst und beispielsweise an eine Zentralsteuerungseinheit 22 (oder alternativ an die Steuerungseinheit für autonomes Fahren, ECU 4) übertragen.
  • Die Zentralsteuerungseinheit 22 ist dazu ausgelegt, die Radardaten von der Radareinheit 26 zu empfangen und die Radardaten zu verarbeiten. Die Radardaten umfassen Informationen, wie beispielsweise aufgrund von Range-Doppler-Karten erzeugte Ziellisten. Die Zentralsteuerungseinheit 22 kann die erhaltene Information selbst auswerten oder beispielsweise an die Steuerungseinheit für autonomes Fahren 18 weiter übertragen.
  • Wenn steuerungsseitig oder fahrerseitig ein Betriebszustand für das autonome Fahren aktiviert ist, bestimmt die Steuerungseinheit für autonomes Fahren 18, auf Grundlage von zur Verfügung stehenden Daten über eine vorgegebene Fahrtstrecke, auf Grundlage der von der Radareinheit 26 empfangenen Daten, auf Grundlage von mittels optischen Sensoren 20 aufgenommenen Umgebungsdaten, sowie auf Grundlage von mittels den Fahrzeugsensoren erfassten Fahrzeugbetriebsparametern, die der Steuerungseinheit 18 von den Steuerungseinheiten 12, 14 und 16 zugeleitet werden, Parameter für den autonomen Betrieb des Fahrzeugs (beispielsweise Soll-Geschwindigkeit, Soll-Moment, Abstand zum Vorausfahrzeug, Abstand zum Fahrbahnrand, Lenkvorgang und dergleichen).
  • 2 zeigt ein Blockdiagramm, das eine beispielhafte Konfiguration einer Steuerungseinheit (ECU 1, 2, 3, 4 und 5 in 1) darstellt. Bei der Steuerungseinheit kann es sich beispielsweise um ein Steuergerät (electronic control unit ECU oder electronic control module ECM) handeln. Die Steuerungseinheit umfasst einen Prozessor 210. Bei dem Prozessor 210 kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Verarbeitungseinheit (CPU = central processing unit) handeln, die Programminstruktionen ausführt. Die Radarsteuerungseinheit umfasst ferner einen Nur-Lese-Speicher, ROM 230 (ROM = Read-only memory) und einem Direktzugriffsspeicher, RAM 220 (RAM = Random Access Memory) (z. B. dynamischer RAM („DRAM“), synchron DRAM („SDRAM“) usw.), die als Programmspeicherbereich und als Datenspeicherbereich dienen. Ferner umfasst die Radarsteuerungseinheit zur Speicherung von Daten und Programmen ein Speicherlaufwerk 260, wie beispielsweise ein Festplattenlaufwerk (hard disk drive: HDD), ein Flashspeicher-Laufwerk oder ein nicht flüchtiges Festkörperlaufwerk (solid state drive: SSD). Die Steuerungseinheit umfasst ferner eine Fahrzeugkommunikationsnetzwerk-Interface 240, über welche die Steuerungseinheit mit dem Fahrzeugkommunikationsnetzwerk (28 in 2) kommunizieren kann. Jede der Einheiten der Steuerungseinheit ist über ein Kommunikationsnetzwerk 250 verbunden. Insbesondere kann die Steuerungseinheit der 2 als eine Implementierung der Zentralsteuerungseinheit 22, ECU 5, der 1 dienen, wobei ROM 230, RAM 220 und Speicherlaufwerk 260 als Programmspeicherbereich für Programme zur Auswertung von Radardaten (z.B. dem Prozess der 11) und als Datenspeicherbereich für Radardaten dienen.
  • 3 zeigt als schematisches Blockdiagramm eine aus dem Stand der Technik bekannte beispielhafte Radararchitektur. Eine Radareinheit 26 weist einen RF-Chip 301 auf. Bei dem RF-Chip 301 kann es sich beispielsweise um einen Single-Chip-Radar handeln, bei dem mehrere Antennen für beispielsweise den Millimeterwellenbereich (hier n Sendeantennen TX und m Empfangsantennen RX) in einem Chip integriert sind. Eine solche Integration ist möglich, da der Radar-Frequenzbereich winzige Antennen möglich macht. Die Größe anderer notwendiger Komponenten, wie z.B. Induktivitäten ist reduziert, so dass der RF-Chip 301 in einem Massenproduktions-Halbleiterprozess, wie er für Mikroprozessoren verwendet wird, hergestellt werden kann. Der RF-Chip 301 erzeugt die Radarsignale und empfängt die reflektierten Signale. Der RF-Chip 301 führt ferner eine A/D-Konvertierung der erzeugten Daten durch und gibt diese als A/D-konvertiertes Basisbandsignal an ein Interface 302 weiter, das als Schnittstelle zu einem Fahrzeugkommunikationsnetzwerk 28 dient, beispielsweise ein Serialisierer/De-Serialisierer. Die Radareinheit 26 ist über dieses Fahrzeugkommunikationsnetzwerk 28 mit einer Prozessoreinheit 303 („CPU“ = Central Processing Unit) verbunden. Bei der Prozessoreinheit 303 kann es sich beispielsweise um den Prozessor der Zentralsteuerungseinheit 22 („Fahrzeug-Controller“) aus 1, um den Prozessor der Steuerungseinheit 18 für autonomes Fahren aus 1, oder um eine zentrale Radar-Verarbeitungseinheit handeln, die für die Weiterverarbeitung der Radardaten vorgesehen ist. In diesem Beispiel handelt es sich bei dem Fahrzeugkommunikationsnetzwerk 28 um eine serielle Verbindung mit hoher Datenrate, z.B. um eine Datenverbindung gemäß dem Schnittstellenstandard LVDS („Low Voltage Differential Signaling“) oder um ein Ethernet-Datennetz. Die hohe Datenrate des Fahrzeugkommunikationsnetzwerks 28 ermöglicht eine direkte Übermittlung des A/D-konvertiertes Basisbandsignals an die Prozessoreinheit 303.
  • 4 zeigt als schematisches Blockdiagramm eine weitere aus dem Stand der Technik bekannte beispielhafte Radararchitektur. Wie im Beispiel der 3 weist eine Radareinheit 26 einen RF-Chip 301 auf mit mehreren Antennen für beispielsweise den Millimeterwellenbereich (hier n Sendeantennen TX und m Empfangsantennen RX) auf, die in einem Chip integriert sind. Der RF-Chip 301 erzeugt die Radarsignale und empfängt die reflektierten Signale. Der RF-Chip 301 führt ferner eine A/D-Konvertierung der erzeugten Daten durch und gibt diese als A/D-konvertiertes Basisbandsignal an einen Radar-Mikroprozessor 304 weiter. Der Radar-Mikroprozessor 304 führt eine Vorverarbeitung der Radardaten durch. Beispielsweise erzeugt der Radar-Mikroprozessor 304 aus den Radardaten eine Zielobjekt-Liste (kurz „Zielliste“), beispielsweise auf Basis einer Range-Doppler-Karte, und gibt diese über das Interface 302 zum Fahrzeugkommunikationsnetzwerk 28 weiter. Die Radareinheit 26 ist über dieses Fahrzeugkommunikationsnetzwerk 28 mit einer Prozessoreinheit 303 („CPU“ = Central Processing Unit) verbunden. Bei der Prozessoreinheit 303 kann es sich wie im Beispiel der 3 um einen Prozessor der Zentralsteuerungseinheit 22 („Fahrzeug-Controller“) aus 1, um einen Prozessor der Steuerungseinheit 18 für autonomes Fahren aus 1, oder um eine zentrale Radar-Verarbeitungseinheit handeln, die für die Weiterverarbeitung der Radardaten vorgesehen ist. In diesem Beispiel handelt es sich bei dem Fahrzeugkommunikationsnetzwerk 28 um eine serielle Verbindung mit geringerer Datenrate, z.B. um eine Datenverbindung gemäß dem Schnittstellenstandard CAN-FD („Low Voltage Differential Signaling“). Da nicht das gesamte A/D-konvertierte Basisbandsignal übertragen wird, reicht eine geringere Datenrate für die Übertragung an die Prozessoreinheit 303 aus.
  • Verfahren zur Störunterdrückung in akkumulierten Zielpunktewolken
  • 5 zeigt ein Flussdiagramm eines Ausführungsbeispiels eines Verfahrens zur Störunterdrückung in akkumulierten Punktwolken eines Radarsensors. Das Verfahren startet bei S100. In einem Schritt S110 erfolgt eine Klassifizierung der vom Radarsensor erfassten Ziele in einem Messrahmen als statische oder mobile Ziele. Diese Klassifizierung kann auf eine beliebige, dem Fachmann bekannte Weise erfolgen. Für statische Zielpunkte fährt das Verfahren mit Schritt S120 fort. Mobile Zielpunkte werden verworfen und das Verfahren fährt mit Schritt S140 fort. Für die statischen Zielpunkte erfolgt in Schritt S120 eine Kompensation der Eigenbewegung des Radarsensors. Die Ermittlung der Eigenbewegung des Fahrzeugs kann auf eine beliebigen, dem Fachmann bekannten Odometrie-Verfahren erfolgen. Es wird die Odometrie des Fahrzeugs, beispielsweise Position (X,Y,Z) und Rotationsbewegungen (Drehraten) um eine Hoch-, Quer und Längsachse des Fahrzeuges (Eulerwinkel Phi, Theta, Psi) ermittelt. Translatorische Geschwindigkeitskomponenten können hierfür aus dem ESP oder über die Raddrehzahlen hergeleitet werden. Rotatorische Komponenten (Drehraten) können ebenfalls aus dem ESP (Gierrate) oder alle drei Drehraten aus einer IMU (Inertial Measurement Unit) hergeleitet werden. Bei einer langen Akkumulationszeit (hoher Wert für nMax) kann es auch von Vorteil sein, die Positionsbestimmung auf Informationen von GPS, Scan-to-Scan Matching oder anderen bekannte Methoden für Odometrie zu stützen. In Schritt S130 werden die hinsichtlich der Eigenbewegung des Radarsensors kompensierten statischen Zielpunkte akkumuliert. In Schritt S140, wird geprüft, ob die maximale Anzahl maxN an Messrahmen verarbeitet wurde, in dem ein Rahmenzähler ctr mit maxN verglichen wird. Die Anzahl maxN entspricht einer Akkumulationszeit. Diese Akkumulationszeit maxN der Punktwolken, die zu einem sogenannten „Scan“ führt, kann beliebig gewählt werden, wie z.B. ein Messrahmen, zwei Messrahmen, fünf Messrahmen, zehn Messrahmen, etc. Falls in Schritt S140 festgestellt wird, dass der Rahmenzähler ctr kleiner oder gleich der Maximalrahmenzahl maxN ist (Akkumulationszeit noch nicht erreicht), wird der Rahmenzähler ctr imkrementiert und das Verfahren wiederholt die Schritte S110 bis 130 für die Zielpunkte des nächsten Messrahmens. Auf diese Weise werden die als statisch klassifizierten Zielpunkte einer Anzahl maxN an Messrahmen akkumuliert. Falls in Schritt S140 erkannt wird, dass der Rahmenzähler größer ist als die Maximalrahmenzahl maxN, also die Akkumulationszeit erreicht wurde, wird in Schritt S150 ein Clustering-Prozess auf den akkumulierten Datensatz ausgeführt. Der Clustering-Prozess des Schritts S150 kann beispielsweise auf einem dem Fachmann bekannten dichtebasierten Clustering-Algorithmus wie beispielsweise DBSCAN („Density-Based Spatial Clustering of Applications with Noise“) oder insbesondere der speziellen Variante GDBSCAN („Grid based DBSCAN“) basieren, wie dies in Zusammenhang mit 7 und 8 unten näher erläutert wird. Zielpunkte, die vom Clustering-Algorithmus keinem Cluster zugeordnet werden, werden als Ausreißer klassifiziert. In Schritt S160 erfolgt eine Störunterdrückung, indem Ausreißer im Datensatz verworfen, um einen störungsbereinigten Datensatz zu erhalten. In Schritt S170 wird auf Grundlage des störungsbereinigten Datensatzes ein Scan-to-Scan-Matching zwischen Zielen aufeinanderfolgender Messrahmen durchgeführt. Dies Scan-to-Scan-Matching kann wiederum auf einem dem Fachmann bekannten Verfahren beruhen. Beispiele hierzu sind unten in Zusammenhang mit 9 beschrieben. Das Verfahren endet bei Schritt S180.
  • Klassifizieren der Ziele und Kompensation der Eigenbewegung des Fahrzeugs
  • Im Folgenden werden beispielhafte Algorithmen für eine Klassifizierung der Punkte der Punktewolke als statische bzw. mobile Ziele dargelegt, wie sie in Schritt S110 der 5 erfolgt.
  • Um Punkte einer Punktwolke eines Bewegungssensors (Lidar/Radar/Kamera) als statisch oder mobil zu identifizieren, kann ein gängiger Algorithmus aus dem Stand der Technik zur Anwendung kommen. Ein typischer Ansatz für Radar ist beispielsweise, die Radialgeschwindigkeit jedes Punktes zu verwenden und sie mit der Geschwindigkeit des Ego-Fahrzeugs zu vergleichen (Annahme, dass statische Ziele über eine Cosinus-Funktion verteilt liegen, siehe 6). Weitere Möglichkeiten zur Klassifikation von statischen/mobilen Zielen, wäre ein RANSAC-Algorithmus, der eine Gerade durch die Ziele legt oder Machine-Learning Ansätze. Für Lidar können zwei Punktwolken auf Basis von Scan-to-Scan-Matching-Methoden wie verglichen werden, um bewegte Objekte zu identifizieren. Das Scan-to-Scan-Matching kann beispielsweise mittels dem Fachmann bekannten Verfahren wie ICP („Iterative Closest Point“) oder NDT („Normal Distribution Transform“) erfolgen. Auf Grundlage der ermittelten Übereinstimmungen von Punkten kann nach diesen Verfahren eine Anpassung der Punktwolke des zweiten Messrahmens an die Punktwolke des ersten Messrahmens erfolgen. Eine Kamera ist in der Lage, bewegte Ziele oder Pixel mit optischem Fluss, maschinellem Lernen usw. zu erkennen.
  • 6a zeigt ein Beispiel für die Klassifizierung der vom Radarsensor erfassten Zielpunkte eines Messrahmens als statische oder mobile Zielpunkte und eine Bestimmung der Eigenbewegung des Fahrzeugs (bzw. Radar-Sensors), wie sie in den Schritt S110 und S120 der 5 beispielhaft erfolgen kann.
  • Beispielhaft werden in 6a die Messwerte eines zweidimensionalen Messsystems dargestellt, welches eine Radialgeschwindigkeit und einen Seitenwinkel erfasst, jedoch keinen Höhenwinkel liefert. Die Messdaten des Radar-Messsystems werden wie üblich verarbeitet (beispielsweise in einem Mikroprozessor 304 in 4 oder auch in einer Zentralsteuerungseinheit 303 in 3 bzw. 210 in 2), um eine Zielliste bereitzustellen. Dies erfolgt beispielsweise über zwei Fourier-Transformationen, durch die eine Range-Doppler-Map bereitgestellt wird. Die Range-Doppler-Map umfasst die Informationen über den Radialabstand, die Radialgeschwindigkeit und unter welchem Winkel, Höhenwinkel und/oder Seitenwinkel, ein Ziel auftritt. Die Range-Doppler-Map stellt dementsprechend eine Art von Zielliste dar. In der 6a ist eine beispielhafte Zielliste dargestellt, wobei gegenüber der X-Achse 20 der Seitenwinkel ϕ und gegenüber der Y-Achse 22 die Radialgeschwindigkeit vr aufgetragen ist. Der Radialabstand ist in der Darstellung nicht aufgetragen. Das Kraftfahrzeug 10 bewegt sich während eines Messvorgangs beispielhaft mit einer Eigengeschwindigkeit. Für die Erläuterungen dieses Beispiels werden Lenk- sowie Rotationsbewegungen des Kraftfahrzeugs vernachlässigt. Das Prinzip kann jedoch auch auf Lenk- sowie Rotationsbewegungen erweitert werden.
  • In der 6a sind beispielhaft Ziele 66a, 66b eines Messvorgangs dargestellt. Die Ziele 66a, 66b sind durch Kreise sowie durch Quadrate eingezeichnet, welche jeweilige Ziele repräsentieren. Die Kreise 66a stellen statische Ziele dar, die Quadrate 66b stellen mobile Ziele dar. Ein statisches Ziel ist fest mit einem Untergrund verbunden oder bewegt sich über gegenüber dem Untergrund nicht. Die statischen Ziele weisen eine absolute Relativgeschwindigkeit gegenüber dem Kraftfahrzeug auf, welche der Bewegungsgeschwindigkeit des Kraftfahrzeugs entspricht. Mobile Ziele sind demgegenüber Ziele, welche sich selbst gegenüber dem Untergrund bewegen und dadurch eine Relativgeschwindigkeit aufweisen, die sich von der Fahrzeuggeschwindigkeit unterscheidet. Mobile Ziele können beispielsweise aufgrund von Fußgängern, Radfahrern oder andere Kraftfahrzeuge auftreten.
  • Das Radar-Messsystem ermittelt anstelle der absoluten Relativgeschwindigkeit die Radialgeschwindigkeit vr aller Ziele 66a, 66b. Die Radialgeschwindigkeit aller Ziele 66a hängt von dem Winkel ϕ ab, unter dem das Ziel 66a gegenüber dem Fahrzeug auftritt. Es ist im Voraus bekannt, dass die Verteilung der statischen Ziele 66a durch eine statische Funktion. Diese statische Funktion, hier vereinfacht als „Cosinus-Funktion“ bezeichnet (die theoretische Funktion hat weitere Terme, man spricht nur zur Vereinfachung von einem „Cosinus“), entspricht der theoretischen Verteilung der statischen Ziele und hängt unter anderem von der aktuellen Eigenbewegung des Kraftfahrzeugs (sowie ggf. von einem oder mehreren Kalibrierungsparametern) ab.
  • Sei v e
    Figure DE102018217000A1_0001
    der Geschwindigkeitsvektor des Sensors (zur Vereinfachung sei nur die Geschwindigkeitskomponente v x e
    Figure DE102018217000A1_0002
    in x-Richtung betrachtet) im Ego-Rahmen (Eigengeschwindigkeit), p s e
    Figure DE102018217000A1_0003
    der Positionsvektor des Sensors im Ego-Rahmen und sei ωi die Drehgeschwindigkeit im Ego-Rahmen um die i-te Achse (i=x,y,z) mit entsprechender Rotationsmartrix Ω, so kann die die statische Funktion f für die Radialgeschwindikeit νrad für den Fall eines ideal positionierten und ausgerichteten Sensors wie folgt formuliert werden: v r a d = ( r r ) T [ v e + Ω p s e ] = f ( ω z ,   v x e ,   θ ,   ϕ )
    Figure DE102018217000A1_0004
    mit r = r ( cos ( θ ) cos ( ϕ ) cos ( θ ) sin ( ϕ ) sin ( θ ) ) p s e = [ t x ,   t y ,   t z ] T v e = [ v x e ,   0,   0 ] T v t o t = v e + Ω p s e
    Figure DE102018217000A1_0005
    Der Vektor der Radialgeschwindigkeit v r
    Figure DE102018217000A1_0006
    und der gesamte Geschwindigkeitsvektor v t o t
    Figure DE102018217000A1_0007
    mit dem translatorischen Anteil v e
    Figure DE102018217000A1_0008
    und dem rotatorischen Anteil Ω p s e
    Figure DE102018217000A1_0009
    sind in 6b schematisch dargestellt.
  • Im zweidimensionalen Fall, der in 6a dargestellt ist, kann unter Annahme von ωx = ωy = 0 die Rotationsmatrix wie folgt dargestellt werden Ω = [ 0 ω z 0 ω z 0 0 0 0 0 ]
    Figure DE102018217000A1_0010
    und r = r ( cos ( ϕ ) sin ( ϕ ) 0 )
    Figure DE102018217000A1_0011
    und die statische Funktion f vereinfacht sich zu v r a d = ( r r ) T [ v e + Ω p s e ] = f ( ω z ,   v x e ,   ϕ )
    Figure DE102018217000A1_0012
    D.h. die statische Funktion f hängt im Wesentlichen von cos(ϕ) und weiteren Termen, sowie von der Ego-Geschwindigkeit v x e
    Figure DE102018217000A1_0013
    und der Drehgeschwindigkeit ωZ des Ego-Fahrzeugs ab. Die Ego-Geschwindigkeit v x e
    Figure DE102018217000A1_0014
    und der Drehgeschwindigkeit ωZ des Ego-Fahrzeugs kann folglich mittels Regression gewonnen werden.
  • Die theoretische Verteilung f der statischen Zeile für den oben beschriebenen zweidimensionalen Fall ist in 6a als Linie 60 dargestellt. Die Messpunkte der statischen Ziele sind entlang dieser theoretische Verteilung 60 zu erwarten. Die mobilen Ziele weisen je nach Relativgeschwindigkeit einen entsprechenden Abstand von der Cosinus-Funktion 60 auf. Die Ermittlung der statischen Ziele erfolgt mithilfe dieser statischen Funktion 60, indem auf Grundlage der theoretischen Vorhersage (Cosinus-Verlauf) und auf Grundlage von beispielsweise Messergebnissen eines vorherigen Messrahmens oder durch eine Schätzung der aktuellen Eigenbewegung des Fahrzeugs ein Näherungsverlauf der statischen Kurve 60 ermittelt wird.
  • Um die mobilen Ziele zu erkennen, wird die Cosinus-Funktion 60 um eine Bandbreite verbreitert, die in der 2 durch die beiden gestrichelten Linien 61 dargestellt ist. Die Bandbreite kann beispielsweise fest vorgegeben sein, oder von statischen Bewegungsparametern oder von anderen Parametern abhängen. Alle Ziele die innerhalb der Bandbreite 61 der Cosinus-Funktion 60 liegen werden als statische Ziele klassifiziert. Hierbei kann es auftreten, dass auch mobile Ziele 66b fälschlicherweise als statische Ziele klassifiziert werden. Dies ist jedoch für die Bestimmung der Eigenbewegung unerheblich, da diese zumeist eine sehr geringe Abweichung der Radialgeschwindigkeit gegenüber den statischen Zielen aufweisen und aufgrund der verhältnismäßig großen Anzahl an statischen Zielen 26a keine signifikante Auswirkung bewirken.
  • Durch die als statisch klassifizierten Ziele kann sodann eine Regressionsfunktion gelegt. Die Regressionsfunktion ist so gewählt, dass diese die theoretisch erwartete Verteilung (z.B. Cosinus) der statischen Ziele beschreibt, wobei einige regressive Parameter variabel sind. Diese variablen regressiven Parameter werden durch eine lineare Regressionsanalyse variiert, um eine optimale Anpassung der Regressionsfunktion an die statischen Ziele bereitzustellen. Dadurch werden die variablen regressiven Parameter ermittelt. Die regressiven Parameter sind unter anderem regressive Bewegungsparameter (odometrische Parameter) sowie regressive Kalibrierungsparameter. Die odometrischen Parameter werden auf die dem Fachmann bekannte Weise durch die lineare Regressionsanalyse ermittelt. Etwaige Kalibrierungsparameter werden als bekannt und gegeben angenommen. Im Beispiel der 6a entspricht der odometrische Parameter der Bewegungsgeschwindigkeit des Messsystems bzw. des Kraftfahrzeugs. Der odometrische Parameter oder regressive Bewegungsparameter ist in der 2 durch ein Kreuz 61 dargestellt, wobei dessen Position der Bewegungsgeschwindigkeit des Kraftfahrzeugs entspricht. Das Kreuz 61 entspricht dem Extremum der Regressionsfunktion 60, hier dem Minimum. Das Kraftfahrzeug bewegt sich demgemäß beispielhaft mit einer Geschwindigkeit von etwa 3,7 m/s. Die maximale Radialgeschwindigkeit 61 eines statischen Ziels tritt dementsprechend bei einem statischen Ziel auf, welches sich auf der Sollachse (ϕ = 0) befindet.
  • Bei der Bestimmung der statischen Funktion f kann auch eine Verstellung des Sensors („Sensorrahmen“) gegenüber dem Fahrzeug-Rahmen („Ego-Rahmen“ bzw. Fahrzeugrahmen), wie sie in 6c schematisch gezeigt ist, mitberücksichtigt werden und durch Kalibrierung kompensiert werden:
  • Angenommen, der Sensor ist um Winkel verstellt (ψextext) und angenommen, die Verstellung ϕext ≈ 0, dann wird die Rotation zwischen dem versetzten Sensorrahmen und dem Fahrzeugrahmen mit den folgenden 3D-Drehmatrizen definiert: R s e = R z ( ψ e x t ) R y ( θ e x t ) R x ( ϕ e x t = 0 ) R e s = ( R s e ) T
    Figure DE102018217000A1_0015
    R z ( ψ e x t ) = [ cos ( ψ e x t ) sin ( ψ e x t ) 0 sin ( ψ e x t ) cos ( ψ e x t ) 0 0 0 1 ]
    Figure DE102018217000A1_0016
    R y ( θ e x t ) = [ cos ( θ e x t ) 0 sin ( θ e x t ) 0 1 0 sin ( θ e x t ) 0 cos ( θ e x t ) ]
    Figure DE102018217000A1_0017
    R x ( ϕ e x t ) = [ 1 0 0 0 cos ( ϕ e x t ) sin ( ϕ e x t ) 0 sin ( ϕ e x t ) cos ( ϕ e x t ) ]
    Figure DE102018217000A1_0018
    Die statische Funktion f kann damit wie folgt formuliert werden: v r a d = ( r r ) T R e s [ v e + Ω p s e ] = f ( ω z ,   v x e ,   ψ e x t ,   θ e x t ,   θ ,   ϕ )
    Figure DE102018217000A1_0019
    Diese Gleichung kann für einen Kalibrierungsalgorithmus zur Optimierung verwendet werden. Die Parameter, die geschätzt werden, sind ψext, θext. Die Parameter v x e
    Figure DE102018217000A1_0020
    und ωZ werden bei der Kalibrierung festgelegt und als bekannt vorausgesetzt. Nach der Bestimmung der ψext, θext in der Kalibrierung sind ψext, θext bekannt und v x e
    Figure DE102018217000A1_0021
    und ωZ können wie oben beschrieben durch Regression geschätzt werden. In diesem Fall werden die Versatzwinkel auf die bekannten Werte fixiert und die Parameter ψext, θext werden optimiert.
  • Wenn die Kalibrierungsparameter ψext, θext des Radarsensors bekannt sind, kann man demnach das Extremum der Radialgeschwindigkeit statischer Ziele ermitteln und erhält man so unmittelbar die Geschwindigkeit ωZ des Kraftfahrzeugs. Neben der Eigengeschwindigkeit kann man auf entsprechende Weise auch die Rotationsbewegung v x e
    Figure DE102018217000A1_0022
    des Kraftfahrzeugs ermitteln.
  • Mit dem odometrischen Parameter bzw. den odometrischen Parametern ist somit die Eigenbewegung des Messsystems oder des Kraftfahrzeugs bekannt. Zudem kann der odometrische Parameter als Näherungswert für die Ermittlung der statischen Ziele eines nachfolgenden Durchlaufs des Verfahrens genutzt werden. Das Verfahren zur Klassifizierung der Ziele als statisch bzw. mobil und zur Ermittlung der Eigenbewegung des Fahrzeugs kann auch fortlaufend durchgeführt werden, sodass die Eigenbewegung des Kraftfahrzeugs jederzeit bekannt ist.
  • Ist mittels des Verfahrens der 6a, b, c (oder mittels eines beliebigen anderen bekannten odometrischen Verfahrens zur Bestimmung der Eigenbewegung des Fahrzeugs), die Eigenbewegung des Messsystems bzw. des Kraftfahrzeugs bekannt, so können in einem nächsten Schritt die statischen Ziele um diese Eigenbewegung kompensiert werden (Schritt S120 in 5).
  • Akkumulieren der Ziele
  • Das Akkumulieren von Zielen in S130 kann beispielsweise dadurch erfolgen, dass die Ziele einem Datensatz hinzugefügt werden, in welchem die Ziele aller aufeinanderfolgenden Messrahmen der Akkumulationszeit vereinigt werden. Seien T ( n ) = { T 1 ( n ) , T 2 ( n ) , , T N ( n ) ( n ) }
    Figure DE102018217000A1_0023
    die Ziele des n-ten Messrahmens, wobei der n-te Messrahmen N(n) Zielpunkte aufweist, dann umfasst der durch die Akkumulation entstehende Datensatz T die Vereinigung T = c t r T ( c t r ) ;   c t r { 1, ; m a x N }
    Figure DE102018217000A1_0024
    der Mengen T(ctr) aller Ziele aller Messrahmen ctr innerhalb der Akkumulationszeit maxN. Verändert sich ein Ziel von einem Messrahmen zum nächsten nicht, wird es gemäß diesem Ausführungsbeispiel mehrfach aufgenommen, d.h. es liegt im akkumulierten Datensatz mehrfach vor.
  • Clustering-Algorithmus
  • 7 zeigt ein beispielhaftes Ergebnis des Clustering-Prozesses bzw. der Störunterdrückung durch Verwerfen von Ausreißern in den akkumulierten Messdaten, wie sie in den Schritten S150 und S160 der 5 erfolgen. In dem Diagramm der 7 ist eine über eine Akkumulationszeit (nMax in 5) akkumulierte Punktwolke gezeigt. Im vorliegenden Beispiel sind die akkumulierten Radardaten in einem X-Y-Diagramm dargestellt, wobei die X-Achse einen Sensorbereich von 0 bis 250 m umfasst und die Y-Achse einen Sensorbereich von -50 bis +50 m umfasst. Jeder Punkt der Punktwolke im X-Y-Diagramm entspricht einem Ziel der Zielliste, wie sie vom Messystem bereitgestellt wird. Die Punkte der Punktwolke entsprechen den aktuellen statischen Zielen des Messystems, wobei die Messungen des Sensors (Radar, Lidar) in Kugelkoordinaten in ein kartesisches Koordinatensystem transformiert werden und mit der Odometrie des Akkumulationszeitraums (Eigenbewegungskompensation des Schritts S120 der 5) korrigiert als Punktwolke akkumuliert werden.
  • Die vom Messystem gelieferte Punktewolke der statischen Ziele wird einem Clusterring-Prozess unterzogen (S150 in 5). Durch den Clustering-Prozess wird die Punktwolke in Cluster und Rauschen bzw. Störpunkte unterteilt. Jene Messpunkte (Ziele) der Punktewolke, die in dem Clustering-Prozess einem Cluster zugeordnet werden können, sind im X-Y-Diagramm durch einen entsprechenden Kreis markiert. Die Störpunkte sind nicht durch Kreise markiert. Durch die Störunterdrückung (S160 in 5) werden jene Messpunkte, die im Clustering-Prozess nicht einem Cluster zugeordnet werden, verworfen. Nachdem der dichtebasierte Clustering-Algorithmus auf die Punktwolke angewendet wurde, sind nur noch die wichtigsten Formen der Punktwolke übrig. Nur diese relevanten Messpunkte, also jene Messpunkte, die einem Cluster zugeordnet werden können, werden dem Scan-to-Scan-Matching (S170 in 5) zugeführt.
  • 8 zeigt schematisch den DBSCAN-Algorithmus als ein Ausführungsbeispiel für den Clustering-Prozess (Schritt S150 der 5). Ein dichtebasierter Clustering-Algorithmus wie DBSCAN oder die Grid-Version GDBSCAN, die für Sensoren zur Entfernungsbestimmung verwendet werden kann, versucht, alle Punkte zu einem Cluster zusammenzufassen, die dicht sind. Gemäß DBSCAN bilden die durch dieselben Kernpunkte (auch „Kernobjekte“ genannt) miteinander verbundenen Punkte 82 einen Cluster. Objekte, die nicht Teil eines dichte-verbundenen Clusters sind, werden als Rauschpunkte 83 bezeichnet und gemäß der vorliegenden Erfindung verworfen. Die Clusterpunkte 82 der Cluster werden dem Scan-to-Scan-Matching zugeführt. Auf diese Weise wird ein Punkt, der nicht nahe genug an den anderen Punkten liegt, als Rauschen bezeichnet. Basierend auf dem Ergebnis des Clustering-Prozesses, der eine Trennung zwischen verrauschten Punkten, die als Durcheinander betrachtet werden, und interessanten Punkten beschrieben wurde, konnte erreicht werden. Der DBSCAN-Algorithmus basiert auf zwei Parametern, nämlich der Nachbarschaftslänge ε und dem Dichtekriterium minPts. Beide Parameter können vom Fachmann geeignet gewählt werden. Beispielsweise kann die Nachbarschaftslänge ε in der Größenordnung bzw. in Abhängigkeit der Sensormessfehler und oder der Fehler der Bestimmung der Eigenbewegung gewählt werden. Das Dichtekriterium minPts basiert auf einer Anzahl von Punkten, die unterhalb einer bestimmten Schwelle liegen. Es kann beispielsweise in Abhängigkeit von der Akkumulationszeit (maxN in 5) gewählt werden (z.B. minPts = maxN). Darüber hinaus kann das Dichtekriteriun minPts auch basierend auf der Sensorauflösung gewählt werden (je höher ein Sensor auflöst, desto mehr Ziele/Punkte/Detektionen sind pro Objekt zu erwarten). Generell kann das Abstandskriterium ε mehrdimensional sein (3D-Raum, Geschwindigkeit, Intensität, etc.). Infolgedessen wird nicht eine euklidische Distanzfunktion evaluiert sondern zum Beispiel die Mahalanobis-Distanz. Beispielsweise kann für einen Radarsensor mit einer Range-Genauigkeit von 0.7 m bei einem Akkumulationszeitraum von nMax = 2 Datenrahmen die Nachbarschaftslänge ε = 2 m gewählt werden und das Dichtekriterium minPts = 3.
  • Scan-to-Scan-Matching
  • 9 zeigt ein beispielhaftes Ergebnis eines Scan-to-Scan-Matchings auf Grundlage von störungsbereinigten Messdaten, wie es in Schritt S170 der 5 erfolgt. Wie in 7 sind im vorliegenden Beispiel die akkumulierten Radardaten in einem X-Y-Diagramm dargestellt, wobei die X-Achse einen Sensorbereich von 0 bis 250 m umfasst und die Y-Achse einen Sensorbereich von 0 bis 50 m umfasst. Die Messpunkte eines ersten, vorherigen Messrahmens („Scan 1“) sind durch kleine Kreise gekennzeichnet. Die Messpunkte eines zweiten, nachfolgenden (z.B. aktuellen) Messrahmens („Scan 2“) sind durch kleine Kreuze gekennzeichnet. Das Scan-to-Scan-Matching ermittelt eine Übereinstimmung von Messpunkten (Zielpunkten) des ersten Messrahmens mit Messpunkten (Zielpunkten) des zweiten Messrahmens. Solche Übereinstimmungen sind durch gepunktete Linien („match12“) gekennzeichnet, welche die jeweils übereinstimmenden Messpunkte miteinander verbinden. Da in Schritt S110 des Verfahrens der 5 nur statische Ziels für die akkumulierte Punktwolken Scan 1 und Scan 2 herangezogen werden, wird in 9 die Bewegung eines Fahrzeugs sichtbar.
  • Das Scan-to-Scan-Matching kann beispielsweise mittels dem Fachmann bekannten Verfahren wie ICP („Iterative Closest Point“) oder NDT („Normal Distribution Transform“) erfolgen. Auf Grundlage der ermittelten Übereinstimmungen von Punkten kann nach diesen Verfahren eine möglichst genaue Anpassung der Punktwolke des zweiten Messrahmens an die Punktwolke des ersten Messrahmens erfolgen. Bei der Durchführung des Scan-to-Scan-Matchings werden die Punktwolken auf die dem Fachmann bekannte Weise mittels Rotation und Translation möglichst gut miteinander in Deckung gebracht. Dies erfolgt beispielsweise, indem die Summe der Quadrate der Abstände über alle Punktepaare der 9 gebildet wird, wodurch ein Maß für die Güte der Übereinstimmung zwischen den Punktwolken erhalten wird. Auf Grundlage dieses Maßes für die Güte der Übereinstimmung zwischen den Punktwolken kann durch eine Veränderung der Transformationsparameter eine Optimierung erfolgen, welche die bestmöglichen Transformationsparameter liefert. Das Scan-to-Scan-Matching verfeinert/verbessert somit das Odometrie-Ergebnis, welches in Schritt S120 der 5 durch beispielsweise Integration der Gierrate/Geschwindigkeit gewonnen wurde.
  • 10 zeigt ein beispielhaftes Ergebnis eines Scan-to-Scan-Matchings, bei dem keine Störungsbereinigung der Messdaten erfolgt. Ohne das Dichte-Clustering vor dem Scan-to-Scan-Matching eines vorherigen und eines aktuellen Scans ist die Übereinstimmung wegen der Ausreißer deutlich schlechter. In 9 haben einige Matching-Vektoren (gestrichelte Linien „match12“) nicht die gleiche Richtung, wie die meisten anderen Matching-Vektoren. Basierend auf der Störunterdrückung jener Punkte, die als Rauschen bzw. Störung betrachtet werden (S160 in 5), ist der Anpassungsprozess stabiler und robuster (siehe 9 mit weniger Ausreißer-Übereinstimmungen im Vergleich zu 10).
  • Obgleich sich die oben beschriebenen Ausführungsbeispiele auf Punktwolken eines Radarsensors beziehen, kann das Verfahren alternativ auch auf andere punktbasierten Messsensoren wie beispielsweise Lidar, oder 3D-Rekonstruktion auf Basis von Kamerabildern (monokular oder stereo) angewendet werden. Die Akkumulation von Punkten einer Punktwolke kann auch Daten mehrerer Sensoren wie mehrerer Radare, Lidare oder Kameras berücksichtigen, um eine dichtere Punktwolke zu erhalten, welche die Umgebung repräsentiert.
  • Darüber hinaus können verschiedene bekannte Algorithmen für den Clustering-Prozess und/oder den Scan-to-Scan-Matching-Prozess verwendet werden. Obgleich in den Ausführungsbeispielen DBSCAN oder GDBSCAN als Clustering-Algorithmus genannt sind, können auch andere Clustering-Algorithmen zur Anwendung kommen.
  • Beispielhaft wurden in den obigen Ausführungsbeispielen das Verfahren anhand eines Messsystems dargestellt, welches lediglich einen Seitenwinkel erfasst, jedoch keinen Höhenwinkel liefert. Die Verfahren können jedoch insbesondere für Radar-Messsysteme angewandt werden, die einen mehrdimensionalen Raum abtasten. Der Sichtbereich eines solchen Radar Messsystems spannt sich insbesondere über einen Höhenwinkel und einen Seitenwinkel auf. Eine Adaption von dem Höhenwinkel auf den Seitenwinkel und auch umgekehrt erfolgt entsprechend sinngemäß, sodass eine Übertragung des erläuterten Prinzips in den mehrdimensionalen Raum (Seitenwinkel, Höhenwinkel, Entfernung, Intensität, Radialgeschwindigkeit, etc.) auf die jeweils zusätzliche Winkelinformation problemlos möglich ist.
  • Bezugszeichenliste
  • 12
    Steuerungseinheit für Lenksystem
    14
    Steuerungseinheit für Bremssystem
    16
    Steuerungseinheit für Antriebstrang
    18
    Steuerungseinheit für autonomes Fahren
    20
    optische Sensoren
    22
    Zentralsteuerungseinheit
    24
    Satellitennavigationseinheit
    26
    Radareinheit
    28
    Fahrzeugkommunikationsnetzwerk
    210
    Prozessor einer Steuerungseinheit
    220
    RAM einer Steuerungseinheit
    230
    ROM einer Steuerungseinheit
    240
    Fahrzeugkommunikationsnetzwerk-Interface einer Steuerungseinheit
    250
    Kommunikationsnetzwerk einer Steuerungseinheit
    260
    externes Speicherlaufwerk einer Steuerungseinheit
    301
    RF-Chip
    302
    Interface zum Fahrzeugkommunikationssystem
    303
    Prozessoreinheit
    304
    Radar-µC
    60
    statische Funktion (Cosinus)
    61
    Bandbreite für Klassifizierung
    66a
    statische Ziele der Zielliste
    66b
    mobile Ziele der Zielliste
    81
    Punktwolke
    82
    Cluster-Punkte
    83
    Rauschpunkte

Claims (10)

  1. Verfahren, bei dem ein Clustering-Prozess (S150) auf einer akkumulierten Punktwolke (81) eines Bewegungsmesssystems ausgeführt wird und Punkte der Punktwolke (81), die vom Clustering-Prozess keinem Cluster zugeordnet werden können, als Ausreißer klassifiziert werden.
  2. Verfahren nach Anspruch 1, bei dem eine Störunterdrückung (S160) erfolgt, bei der Punkte der Punktwolke (81), die als Ausreißer klassifiziert werden, verworfen werden.
  3. Verfahren nach Anspruch 2, bei dem auf Grundlage der störungsbereinigten Punktwolke ein Scan-to-Scan-Matching (S170) durchgeführt wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei es sich bei den Punkten der akkumulierten Punktwolke um Ziele einer vom Bewegungsmesssystem bereitgestellten Zielliste handelt.
  5. Verfahren nach Anspruch 1, bei dem eine Klassifizierung (S110) der vom Bewegungsmesssystem (26) bereitgestellten Punkte als statische Ziele (66a) oder mobile Punkte (66b) erfolgt und nur die statischen Punkte in der Punktwolke (81) akkumuliert werden.
  6. Verfahren nach Anspruch 5, bei dem eine Ermittlung (S120) der Eigenbewegung, sowie eine Kompensation der Eigenbewegung in den statischen Punkten (66a) erfolgt.
  7. Verfahren nach einem der vorhergehenden Ansprüche, bei dem Punkte der Punktwolke (81) über eine Akkumulationszeit (maxN) akkumuliert (S130) werden.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei es sich bei dem Bewegungsmesssystem um einen Radarsensor oder Lidar-Sensor handelt.
  9. Computerprogramm, umfassend Instruktionen, die, wenn Sie auf einem Prozessor (303, 304) ausgeführt werden, diesen dazu veranlassen, das Verfahren nach einem der Ansprüche 1 bis 8 durchzuführen.
  10. Messsystem umfassend einen Prozessor (303, 304), der dazu ausgelegt ist, das Verfahren nach einem der Ansprüche 1 bis 8 durchzuführen.
DE102018217000.2A 2018-10-04 2018-10-04 Verfahren, Computerprogramm und Messsystem für die Auswertung von Bewegungsinformationen Pending DE102018217000A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018217000.2A DE102018217000A1 (de) 2018-10-04 2018-10-04 Verfahren, Computerprogramm und Messsystem für die Auswertung von Bewegungsinformationen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018217000.2A DE102018217000A1 (de) 2018-10-04 2018-10-04 Verfahren, Computerprogramm und Messsystem für die Auswertung von Bewegungsinformationen

Publications (1)

Publication Number Publication Date
DE102018217000A1 true DE102018217000A1 (de) 2020-04-09

Family

ID=69886384

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018217000.2A Pending DE102018217000A1 (de) 2018-10-04 2018-10-04 Verfahren, Computerprogramm und Messsystem für die Auswertung von Bewegungsinformationen

Country Status (1)

Country Link
DE (1) DE102018217000A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021233738A1 (de) * 2020-05-20 2021-11-25 BSH Hausgeräte GmbH Erstellen einer umgebungskarte
CN113721253A (zh) * 2021-08-30 2021-11-30 杭州视光半导体科技有限公司 基于fmcw激光雷达的运动物体速度检测方法
DE102023106975A1 (de) 2023-03-20 2024-06-06 Cariad Se Verfahren zum upsamplen von messpunkten einer punktwolke

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DESCHAUD, Jean-Emmanuel. IMLS-SLAM: scan-to-model matching based on 3D data. In: 2018 IEEE International Conference on Robotics and Automation (ICRA). IEEE, 2018, S. 2480-2485. URL: https://ieeexplore.ieee.org/iel7/8449910/8460178/08460653.pdf[abgerufen am 18.07.2019] *
HANKE, Fabian: Ego- and object motion estimation. Masterarbeit, Technische Universität München, 2018. URL: https://mediatum.ub.tum.de/doc/1452203/file.pdf[abgerufen am 18.07.2019] *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021233738A1 (de) * 2020-05-20 2021-11-25 BSH Hausgeräte GmbH Erstellen einer umgebungskarte
CN113721253A (zh) * 2021-08-30 2021-11-30 杭州视光半导体科技有限公司 基于fmcw激光雷达的运动物体速度检测方法
CN113721253B (zh) * 2021-08-30 2024-03-15 杭州视光半导体科技有限公司 基于fmcw激光雷达的运动物体速度检测方法
DE102023106975A1 (de) 2023-03-20 2024-06-06 Cariad Se Verfahren zum upsamplen von messpunkten einer punktwolke

Similar Documents

Publication Publication Date Title
DE102017105305A1 (de) Verfahren zur automatischen bestimmung einer sensorstellung
DE102017124868A1 (de) Verbesserte Objekterfassung in mehreren Radaren
DE102019214628A1 (de) Validierung von Umfelderfassung mittels Satelitenbildern und SAR-Radardaten
DE102018217000A1 (de) Verfahren, Computerprogramm und Messsystem für die Auswertung von Bewegungsinformationen
DE102017124863A1 (de) Fahrzeugradarsteuerung
DE102018122595A1 (de) Synchronisation mehrerer radaranlaufzeiten zur störungsminderung
DE102018216999A1 (de) Verfahren, Computerprogramm und Messsystem für die Auswertung von Bewegungsinformationen
DE102020105619A1 (de) System und verfahren zur bestimmung der fahrzeugposition
DE102018127782A1 (de) System und Verfahren zur Pseudozufalls-Chirp-Planung zur Vermeidung von Interferenzen
DE102017219697A1 (de) Objekterfassungssystem für Fahrzeuge und Objekterfassungsverfahren für Fahrzeuge
DE102019213929A1 (de) Plausibilitätsprüfung angehaltener vormals dynamischer Objekte mit Hilfe von Belegungsrastern
DE102018128583A1 (de) Fahrzeugradarsteuerung
DE102018215151A1 (de) Verfahren und Steuerungseinheit für eine Radarsensorarchitektur
DE102018129323A1 (de) Verfahren und Vorrichtung zur verbesserten Radarzielverfolgung mit Leistungsinformationen
DE102018128738A1 (de) Verfahren und vorrichtung zur kontinuierlichen verfolgung in einem multi-radarsystem
DE102017119182B4 (de) Verfahren und Vorrichtung zur rechnerisch effizienten Zielerfassung und Verfolgung unter Verwendung eines Radars
DE102018219841A1 (de) Verfahren und Steuerungseinheit für eine Radarsensorarchitektur
DE102018218003A1 (de) Verfahren, Computerprogramm und Messsystem für die Auswertung von Bewegungsinformationen
WO2024012928A1 (de) Verfahren zum trainieren eines neuronalen netzes
DE102019213867A1 (de) Hinderniserkennung umfassend ein rekurrentes neuronales Netzwerk
DE102016105022A1 (de) Verfahren zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs durch eine indirekte Messung mit Sensoren, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102019105578A1 (de) Generieren einer superauflösungs-tiefenkarte
DE102019204408B4 (de) Verfahren zur Bestimmung der Gierrate eines Zielobjekts auf Grundlage der Sensordaten beispielsweise eines hochauflösenden Radars
DE102019211327B4 (de) Vorrichtung, Fahrzeug und Verfahren zur verbesserten Multi-Radar-Sensor-Kalibration
DE112021005777T5 (de) Systeme und Verfahren zum Entfernungsraten-Dealiasing unter Verwendung einer Positionskonsistenz

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000