DE102019204408A1 - Method for determining the yaw rate of a target object on the basis of the sensor data, for example from a high-resolution radar - Google Patents

Method for determining the yaw rate of a target object on the basis of the sensor data, for example from a high-resolution radar Download PDF

Info

Publication number
DE102019204408A1
DE102019204408A1 DE102019204408.5A DE102019204408A DE102019204408A1 DE 102019204408 A1 DE102019204408 A1 DE 102019204408A1 DE 102019204408 A DE102019204408 A DE 102019204408A DE 102019204408 A1 DE102019204408 A1 DE 102019204408A1
Authority
DE
Germany
Prior art keywords
target object
vehicle
yaw rate
center
detections
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102019204408.5A
Other languages
German (de)
Other versions
DE102019204408B4 (en
Inventor
Dan Oprisan
Philipp Ruess
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102019204408.5A priority Critical patent/DE102019204408B4/en
Priority to PCT/EP2020/056618 priority patent/WO2020200683A1/en
Publication of DE102019204408A1 publication Critical patent/DE102019204408A1/en
Application granted granted Critical
Publication of DE102019204408B4 publication Critical patent/DE102019204408B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/589Velocity or trajectory determination systems; Sense-of-movement determination systems measuring the velocity vector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/50Systems of measurement, based on relative movement of the target
    • G01S15/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S15/588Velocity or trajectory determination systems; Sense-of-movement determination systems measuring the velocity vector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Verfahren zur Bestimmung der Gierrate (ω) eines Zielobjektes (50), umfassend ein Empfangen von Sensordaten, welche eine Punktwolke (P1, ... PN) umfassen, welche das Zielobjekt (50) beschreibt, ein Abschätzen der Lage des Gierzentrums (64) des Zielobjektes (50) auf Grundlage der Punktwolke (P1, ...PN), sowie ein Bestimmen der Gierrate (ω) auf Grundlage des abgeschätzten Ortes des Gierzentrums (64).Method for determining the yaw rate (ω) of a target object (50), comprising receiving sensor data which comprise a point cloud (P1, ... PN) which describes the target object (50), estimating the position of the yaw center (64) of the target object (50) on the basis of the point cloud (P1, ... PN), as well as determining the yaw rate (ω) on the basis of the estimated location of the yaw center (64).

Description

Die vorliegende Offenbarung betrifft ein Verfahren zum Auswerten von Sensordaten, insbesondere im Gebiet der Fahrzeugsensorik für Fahrerassistenzsysteme, autonome Fahrzeuge oder halbautonome Fahrzeuge.The present disclosure relates to a method for evaluating sensor data, in particular in the field of vehicle sensor technology for driver assistance systems, autonomous vehicles or semi-autonomous vehicles.

Autonome Fahrzeuge und Fahrassistenzsysteme gewinnen an Relevanz und Verbreitung. Für solche Systeme ist es insbesondere von Bedeutung, dass das Fahrzeug den Fahrweg umliegender Fahrzeuge, beispielsweise von Fahrzeugen anderer Verkehrsteilnehmer richtig einschätzen kann. Um den Fahrweg anderer Fahrzeuge im Straßenverkehr einzuschätzen, ist neben der Ortsinformation und der Bewegungsgeschwindigkeit auch die Gierrate (Drehung) des einzuschätzenden Fahrzeugs von Bedeutung.Autonomous vehicles and driver assistance systems are becoming more relevant and widespread. For such systems it is particularly important that the vehicle can correctly assess the route of surrounding vehicles, for example vehicles of other road users. In order to estimate the route of other vehicles in road traffic, the yaw rate (rotation) of the vehicle to be assessed is important in addition to the location information and the speed of movement.

Es sind bereits Lösungen aus dem Stand der Technik bekannt, die in der Lage sind die Gierrate eines Fahrzeugs basierend auf Sensordaten zu bestimmen. So bestimmt das in Patentoffenbarung DE 102013019804 A1 offengelegte Gerät die Gierrate eines anderen Fahrzeugs mit Hilfe zweier Sensoren.Solutions are already known from the prior art which are able to determine the yaw rate of a vehicle based on sensor data. So determined in patent disclosure DE 102013019804 A1 The device disclosed the yaw rate of another vehicle with the help of two sensors.

Es sind auch weitere Lösungen bekannt, welche die Gierrate über zeitliche Filterung (Tracking) der Sensordaten bestimmen.Other solutions are also known which determine the yaw rate by filtering (tracking) the sensor data over time.

Die bekannten Lösungen sind allerdings im zeitlichen Auflösungsvermögen beschränkt, da mehrere zeitlich versetzte Messungen ausgewertet werden müssen, oder es besteht die Notwendigkeit, mehrere Sensoren zu verwenden, was den Aufbau der Messapparatur platz- und ressourcenintensiv macht.The known solutions are, however, limited in their temporal resolving power, since several measurements offset in time have to be evaluated, or there is a need to use several sensors, which makes the construction of the measuring apparatus space-consuming and resource-intensive.

Hiervon ausgehend liegt der Erfindung die Aufgabe zu Grunde, ein Verfahren und eine Auswertungseinheit bereitzustellen, welches die Bestimmung der Gierrate verbessert. Diese Aufgabe wird durch das Verfahren nach Anspruch 1 und die Auswertungseinheit nach Anspruch 10 gelöst. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen und der folgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung.Proceeding from this, the invention is based on the object of providing a method and an evaluation unit which improve the determination of the yaw rate. This object is achieved by the method according to claim 1 and the evaluation unit according to claim 10. Further advantageous embodiments of the invention emerge from the subclaims and the following description of preferred exemplary embodiments of the present invention.

Die Ausführungsbeispiele zeigen ein Verfahren zur Bestimmung der Gierrate eines Zielobjektes, umfassend ein Empfangen von Sensordaten, welche mehrere Detektionen umfassen, welche das Zielobjekt beschreibt, ein Abschätzen der Lage des Gierzentrums des Zielobjektes auf Grundlage der Detektionen, sowie ein Bestimmen der Gierrate auf Grundlage des abgeschätzten Ortes des Gierzentrums. Die Gierrate beschreibt hierbei die Rotationsgeschwindigkeit eines Objekts um die Hochachse an einem definierten Referenzpunkt, hier Gierzentrum genannt. Vorzugsweise liefern die mehreren Detektionen liefern eine Punktwolke, welche das Zielobjekt beschreibt.The exemplary embodiments show a method for determining the yaw rate of a target object, comprising receiving sensor data comprising multiple detections which describe the target object, estimating the position of the yaw center of the target object on the basis of the detections, and determining the yaw rate on the basis of the estimated Location of the greed center. The yaw rate describes the speed of rotation of an object around the vertical axis at a defined reference point, here called the yaw center. The multiple detections preferably provide a point cloud which describes the target object.

Bei dem Fahrzeug kann es sich insbesondere um ein fahrerloses autonomes oder um ein teilautonom bewegtes Fahrzeug handeln. Es kann sich beispielsweise um ein Land-, Luft- oder Wasserfahrzeug handeln, beispielsweise um ein fahrerloses Transportsystem (FTS), einen autonomen PKW, ein Schienenfahrzeug, eine Drohne oder ein Boot.The vehicle can in particular be a driverless autonomous vehicle or a partially autonomous vehicle. For example, it can be a land, air or water vehicle, for example a driverless transport system (AGV), an autonomous car, a rail vehicle, a drone or a boat.

Die Sensordaten stammen beispielsweise von ein oder mehreren Sensoren, welche dazu ausgelegt sind, das Umfeld eines Fahrzeugs zu erfassen. Bei den Sensoren kann es sich insbesondere um Kameras, Radar-Sensoren, Lidar-Sensoren, Ultraschall-Sensoren oder dergleichen handeln.The sensor data originate, for example, from one or more sensors which are designed to detect the surroundings of a vehicle. The sensors can in particular be cameras, radar sensors, lidar sensors, ultrasonic sensors or the like.

Das Verfahren umfasst vorzugsweise eine Kombination eines Least Squares-Schätzverfahrens von mehreren Detektionen mit einer Orientierungsschätzung auf Basis der Hauptkomponentenanalyse, zusammen mit einer Abschätzung des Gierzentrums.The method preferably comprises a combination of a least squares estimation method of several detections with an orientation estimation based on the principal component analysis, together with an estimation of the yaw center.

Die Gierrate wird beispielsweise bestimmt durch Lösung einer überbestimmten Modellgleichung, welche die Bewegung des Zielobjektes abschätzt. Hierbei kann beispielsweise eine Modellgleichung verwendet werden, die als Unbekannte den Betrag der Zielobjektsgeschwindigkeit und die Gierrate des Zielobjekts enthält.The yaw rate is determined, for example, by solving an overdetermined model equation which estimates the movement of the target object. Here, for example, a model equation can be used which contains the amount of the target object speed and the yaw rate of the target object as unknowns.

Die Modellgleichung wird beispielsweise gelöst, indem N Detektionen bzw. Messpunkte der Sensordaten in die Modellgleichung eingesetzt werden, um ein Gleichungssystem mit zwei Unbekannten und N Gleichungen zu erhalten.The model equation is solved, for example, by inserting N detections or measuring points of the sensor data into the model equation in order to obtain an equation system with two unknowns and N equations.

Das Gleichungssystem kann beispielsweise mit Hilfe eines Least-Square-Schätzverfahrens gelöst werden.The system of equations can be solved, for example, with the aid of a least square estimation method.

Die Sensordaten liegen beispielsweise als Punktwolke vor, die Orts- und Geschwindigkeitsinformationen von Zielen des Zielobjektes umfasst.The sensor data are available, for example, as a point cloud that includes location and speed information of targets of the target object.

Das Abschätzen der Lage des Gierzentrums kann beispielsweise durch Abschätzung der Koordinaten des Clusterzentrums der Punkwolke erfolgen. Beispielsweise kann das Clusterzentrum als der Schwerpunkt der Punkwolke ermittelt werden.The position of the yaw center can be estimated, for example, by estimating the coordinates of the cluster center of the point cloud. For example, the cluster center can be determined as the center of gravity of the point cloud.

Die Lage des Gierzentrums kann auch auf Basis einer Hauptkomponentenanalyse abgeschätzt werden. Die Ermittlung der Orientierung des Zielobjekts erfolgt beispielsweise mit einer Hauptkomponentenanalyse der dem Zielobjekt zugehörigen Detektionen, indem der Winkel der Hauptkomponenten ausgewertet wird.The location of the yaw center can also be estimated based on a principal component analysis. The orientation of the target object is determined, for example, with a main component analysis of the detections associated with the target object, in that the angle of the main components is evaluated.

Beispielsweise kann die Lage des Gierzentrums als Mitte einer Hinterachse des Zielobjektes abgeschätzt werden.For example, the position of the yaw center can be estimated as the center of a rear axle of the target object.

Die Ausführungsbeispiele zeigen auch eine Auswertungseinheit mit einem Prozessor, der dazu ausgelegt ist, das hier beschrieben Verfahren durchzuführen. Bei dem Prozessor kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Verarbeitungseinheit (CPU = central processing unit) handeln, die Programminstruktionen ausführt.The exemplary embodiments also show an evaluation unit with a processor which is designed to carry out the method described here. The processor can be, for example, a computing unit such as a central processing unit (CPU) that executes program instructions.

Das Verfahren kann beispielsweise als ein computer-implementiertes Verfahren realisiert werden, das von einem Prozessor einer Auswertungseinheit ausgeführt wird. Gegenstand ist somit auch ein Computerprogramm, welches die hier beschriebenen Verfahren ausführt.The method can be implemented, for example, as a computer-implemented method that is carried out by a processor of an evaluation unit. The subject matter is therefore also a computer program that executes the method described here.

Die Erfassung, Überprüfung und Verarbeitung, beispielsweise die Bestimmung der Gierrate erfolgt vorzugsweise in Echtzeit. Das heißt, die Bestimmung der Gierrate eines Zielobjekts auf Grundlage der Sensordaten beispielsweise eines hochauflösenden Radars erfolgt vorzugsweise instantan. Instantan bedeutet hier, dass die Schätzung der Gierrate innerhalb eines Messzyklus, also ohne Historieninformation, erfolgt.The detection, checking and processing, for example the determination of the yaw rate, is preferably carried out in real time. That is, the determination of the yaw rate of a target object on the basis of the sensor data, for example from a high-resolution radar, is preferably instantaneous. Instantaneous means here that the yaw rate is estimated within a measurement cycle, i.e. without any history information.

Ausführungsformen werden nun beispielhaft und unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, in denen:

  • 1 ein Blockdiagramm zeigt, das schematisch die Konfiguration eines Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt;
  • 2 ein Blockdiagramm ist, das eine beispielhafte Konfiguration eines Steuergeräts für autonomes Fahren zeigt;
  • 3 die von einem Radarsensor gemessenen Daten eines Fahrzeugs schematisch darstellt;
  • 4 und 5 schematisch die schrittweise Bestimmung des Drehzentrums eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke zeigen;
  • 6 in einem Flussdiagram die Bestimmung des Drehzentrums eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke schematisch darstellt; und
  • 7 die Bestimmung der Gierrate eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke bei bereits bestimmtem Drehzentrum zeigt.
  • 8 eine mögliche Modellgleichung zur Berechnung der Gierrate verdeutlicht.
Embodiments will now be described by way of example and with reference to the accompanying drawings, in which:
  • 1 Fig. 13 is a block diagram schematically showing the configuration of a vehicle according to an embodiment of the present invention;
  • 2 Fig. 13 is a block diagram showing an exemplary configuration of an autonomous driving control device;
  • 3 shows schematically the data of a vehicle measured by a radar sensor;
  • 4th and 5 schematically show the step-by-step determination of the center of rotation of a gyrating vehicle from a point cloud provided by a radar sensor;
  • 6th shows schematically in a flow diagram the determination of the center of rotation of a gyrating vehicle from a point cloud provided by a radar sensor; and
  • 7th shows the determination of the yaw rate of a yawing vehicle from a point cloud provided by a radar sensor with an already determined center of rotation.
  • 8th illustrates a possible model equation for calculating the yaw rate.

1 zeigt ein Blockdiagramm, das schematisch die Konfiguration eines Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt. Das Fahrzeug umfasst mehrere Komponenten, welche via eines Fahrzeugkommunikationsnetzwerks 28 miteinander verbunden sind. Das Fahrzeugkommunikationsnetzwerk 28 kann beispielsweise ein im Fahrzeug eingebautes standardgemäßes Fahrzeugkommunikationsnetzwerk wie etwa ein CAN-Bus (controller area network), ein LIN-Bus (local interconnect network), ein LAN-Bus (local area network), ein MOST-Bus und/oder ein FlexRay-Bus (registered trademark) oder dergleichen sein. 1 FIG. 13 is a block diagram schematically showing the configuration of a vehicle according to an embodiment of the present invention. The vehicle includes several components that are connected via a vehicle communication network 28 are connected to each other. The vehicle communication network 28 For example, a standard vehicle communication network installed in the vehicle such as a CAN bus (controller area network), a LIN bus (local interconnect network), a LAN bus (local area network), a MOST bus and / or a FlexRay Be a bus (registered trademark) or the like.

In dem in 1 dargestellten Beispiel umfasst das autonome Fahrzeug 1 eine Steuereinheit 12 (ECU 1). Diese Steuereinheit 12 steuert ein Lenksystem. Das Lenksystem bezieht sich dabei auf die Komponenten, die eine Richtungssteuerung des Fahrzeugs ermöglichen. Das autonome Fahrzeug 1 umfasst ferner eine Steuereinheit 14 (ECU 2), die ein Bremssystem steuert. Das Bremssystem bezieht sich dabei auf die Komponenten, die ein Bremsen des Fahrzeugs ermöglichen. Das autonome Fahrzeug 1 umfasst ferner eine Steuereinheit 16 (ECU 3), die einen Antriebsstrang steuert. Der Antriebsstrang bezieht sich dabei auf die Antriebskomponenten des Fahrzeugs. Der Antriebsstrang kann einen Motor, ein Getriebe, eine Antriebs-/Propellerwelle, ein Differential und einen Achsantrieb umfassen.In the in 1 The example shown includes the autonomous vehicle 1 a control unit 12 (ECU 1). This control unit 12 controls a steering system. The steering system refers to the components that enable directional control of the vehicle. The autonomous vehicle 1 further comprises a control unit 14th (ECU 2) that controls a braking system. The braking system refers to the components that enable the vehicle to brake. The autonomous vehicle 1 further comprises a control unit 16 (ECU 3) that controls a power train. The drive train refers to the Drive components of the vehicle. The powertrain may include an engine, a transmission, a drive / propeller shaft, a differential, and a final drive.

Das autonome Fahrzeug 1 umfasst ferner eine Steuereinheit für autonomes Fahren 18 (ECU 4). Die Steuereinheit für autonomes Fahren 18 ist dazu ausgelegt, das autonome Fahrzeug 1 so zu steuern, dass dieses ganz oder teilweise ohne Einfluss eines menschlichen Fahrers im Straßenverkehr agieren kann. Die Steuereinheit für autonomes Fahren 18, die in 2 und der zugehörigen Beschreibung näher beschrieben ist, steuert ein oder mehrere Fahrzeugsubsysteme während das Fahrzeug im autonomen Modus betrieben wird, nämlich das Bremssystem 14, das Lenksystem 12 und das Antriebssystem 14. Hierfür kann die Steuereinheit für autonomes Fahren 18 beispielsweise über das Fahrzeugkommunikationsnetzwerk 28 mit den entsprechenden Steuereinheiten 12, 14 und 16 kommunizieren.The autonomous vehicle 1 further comprises a control unit for autonomous driving 18th (ECU 4). The control unit for autonomous driving 18th is designed to be the autonomous vehicle 1 to be controlled in such a way that it can operate completely or partially without the influence of a human driver in road traffic. The control unit for autonomous driving 18th , in the 2 and the associated description is described in more detail, controls one or more vehicle subsystems while the vehicle is operated in the autonomous mode, namely the braking system 14th , the steering system 12 and the drive system 14th . The control unit for autonomous driving can be used for this 18th for example via the vehicle communication network 28 with the corresponding control units 12 , 14th and 16 communicate.

Das Fahrzeug umfasst ferner ein oder mehrere Sensoren 26, welche dazu ausgelegt sind, das Umfeld des Fahrzeugs zu erfassen, wobei die Sensoren am Fahrzeug montiert sind und Bilder des Umfelds des Fahrzeugs erfassen, oder Objekte oder Zustände im Umfeld des Fahrzeugs erkennen. Die Umfeldsensoren 26 umfassen insbesondere Kameras, Radar-Sensoren, Lidar-Sensoren, Ultraschall-Sensoren oder dergleichen. Die Umfeldsensoren 26 können innerhalb des Fahrzeugs oder außerhalb des Fahrzeugs (z. B. an der Außenseite des Fahrzeugs) angeordnet sein. Beispielsweise kann eine Kamera in einem vorderen Bereich des Fahrzeugs zur Aufnahme von Bildern eines vor dem Fahrzeug befindlichen Bereichs vorgesehen sein.The vehicle also includes one or more sensors 26th which are designed to detect the surroundings of the vehicle, the sensors being mounted on the vehicle and capture images of the surroundings of the vehicle, or to detect objects or states in the surroundings of the vehicle. The environment sensors 26th include in particular cameras, radar sensors, lidar sensors, ultrasonic sensors or the like. The environment sensors 26th can be arranged inside the vehicle or outside the vehicle (e.g. on the outside of the vehicle). For example, a camera can be provided in a front area of the vehicle for recording images of an area in front of the vehicle.

Die Fahrzeugsensorik des Fahrzeugs umfasst ferner eine Satellitennavigationseinheit 24 (GPS/GNSS-Einheit). Es sei darauf hingewiesen, dass im Kontext der vorliegenden Erfindung GPS/GNSS stellvertretend für sämtliche Globale Navigationssatellitensysteme (GNSS) steht, wie z.B. GPS, A-GPS, Galileo, GLONASS (Russland), Compass (China), IRNSS (Indien) und dergleichen.The vehicle sensor system of the vehicle also includes a satellite navigation unit 24 (GPS / GNSS unit). It should be noted that in the context of the present invention, GPS / GNSS is representative of all global navigation satellite systems (GNSS), such as GPS, A-GPS, Galileo, GLONASS (Russia), Compass (China), IRNSS (India) and the like .

Das Fahrzeug umfasst ferner eine Benutzerschnittstelle 32 (HMI = Human-Machine-Interface), die einem Fahrzeuginsassen ermöglicht, mit einem oder mehreren Fahrzeugsystemen in Interaktion zu stehen. Diese Benutzerschnittstelle 32 (beispielsweise eine GUI = graphical user interface) kann eine elektronische Anzeige zum Ausgeben einer Graphik, von Symbolen und/oder Inhalt in Text-form, und eine Eingabeschnittstelle zum Empfangen einer Eingabe (beispielsweise manuelle Eingabe, Spracheingabe und Eingabe durch Gesten, Kopf- oder Augen-bewegungen) umfassen. Die Eingabeschnittstelle kann beispielsweise Tastaturen, Schalter, berührungsempfindliche Bildschirme (Touchscreen), Eye-Tracker und dergleichen umfassen.The vehicle also includes a user interface 32 (HMI = Human-Machine-Interface) that enables a vehicle occupant to interact with one or more vehicle systems. This user interface 32 (for example a GUI = graphical user interface) can be an electronic display for outputting graphics, symbols and / or content in text form, and an input interface for receiving input (for example manual input, voice input and input by means of gestures, headers or Eye movements). The input interface can include, for example, keyboards, switches, touch-sensitive screens (touchscreens), eye trackers and the like.

Wenn steuerungsseitig oder fahrerseitig ein Betriebszustand für das autonome Fahren aktiviert ist, bestimmt die Steuereinheit für autonomes Fahren 18, auf Grundlage von zur Verfügung stehenden Daten über eine vorgegebene Fahrtstrecke, von Umweltsensoren aufgenommenen Umgebungsdaten, sowie von mittels den Fahrzeugsensoren erfassten Fahrzeugbetriebsparametern, die der Steuereinheit 18 von den Steuereinheiten 12, 14 und 16 zugeleitet werden, Parameter für den autonomen Betrieb des Fahrzeugs (beispielsweise Soll-Geschwindigkeit, Soll-Moment, Abstand zum Vorausfahrzeug, Abstand zum Fahrbahnrand, Lenkvorgang und dergleichen). If an operating state for autonomous driving is activated on the control side or on the driver side, the control unit determines for autonomous driving 18th , on the basis of available data about a specified route, environmental data recorded by environmental sensors, and vehicle operating parameters recorded by the vehicle sensors, which the control unit 18th from the control units 12 , 14th and 16 parameters for the autonomous operation of the vehicle (for example, target speed, target torque, distance to the vehicle ahead, distance to the edge of the road, steering process and the like).

Beispielsweise ist die Steuereinheit für autonomes Fahren 18 dazu ausgelegt den Fahrweg umliegender Fahrzeuge, beispielsweise von Fahrzeugen anderer Verkehrsteilnehmer zu analysieren und einzuschätzen.For example, the control unit is for autonomous driving 18th designed to analyze and assess the route of surrounding vehicles, for example those of other road users.

2 zeigt ein Blockdiagramm, das eine beispielhafte Konfiguration einer Steuereinheit für autonomes Fahren 18 (ECU 4) darstellt. Bei der Steuereinheit für autonomes Fahren 18 kann es sich beispielsweise um ein Steuergerät (electronic control unit ECU oder electronic control module ECM) handeln. Die Steuereinheit für autonomes Fahren 18 (ECU 4) umfasst einen Prozessor 40. Bei dem Prozessor 40 kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Verarbeitungseinheit (CPU = central processing unit) handeln, die Programminstruktionen ausführt. Der Prozessor der Steuereinheit für autonomes Fahren 18 ist dazu ausgelegt, beim Fahren hinter einem Vorausfahrzeug je nach geplantem Fahrmanöver, basierend auf den Informationen des sensorbasierten Umfeldmodells, eine optimale Fahrposition (Folgeabstand, Lateralversatz) unter Berücksichtigung des zulässigen Fahrspurbereichs zu berechnen. Die errechnete optimale Fahrposition wird zur Steuerung von Aktuatoren der Fahrzeugsubsysteme 12, 14 und 16, beispielsweise von Brems-, Antriebs- und/oder Lenkaktuatoren, verwendet. Die Steuereinheit für autonomes Fahren 18 umfasst ferner einen Speicher und eine Eingabe/ Ausgabe-Schnittstelle. Der Speicher kann aus einem oder mehreren nichtflüchtigen computerlesbaren Medien bestehen und umfasst mindestens einen Programmspeicherbereich und einen Datenspeicherbereich. Der Programmspeicherbereich und der Datenspeicherbereich können Kombinationen von verschiedenen Arten von Speicher umfassen, beispielsweise von einem Nur-Lese-Speicher 43 (ROM = Read-only memory) und einem Direktzugriffsspeicher 42 (RAM = Random Access Memory) (z. B. dynamischer RAM („DRAM“), synchron DRAM („SDRAM“) usw.). Ferner kann die Steuereinheit für autonomes Fahren 18 ein externes Speicherlaufwerk 44, wie beispielsweise ein externes Festplattenlaufwerk (hard disk drive: HDD), ein Flashspeicher-Laufwerk oder ein nicht flüchtiges Festkörperlaufwerk (solid state drive: SSD) umfassen. Die Steuereinheit für autonomes Fahren 18 umfasst ferner eine Kommunikationsschnittstelle 45, über welche die Steuereinheit mit dem Fahrzeugkommunikationsnetzwerk (28 in 2) kommunizieren kann. 2 FIG. 13 is a block diagram showing an exemplary configuration of a control unit for autonomous driving 18th (ECU 4). At the control unit for autonomous driving 18th it can for example be a control device (electronic control unit ECU or electronic control module ECM). The control unit for autonomous driving 18th (ECU 4) includes a processor 40 . At the processor 40 For example, it can be a computing unit such as a central processing unit (CPU) that executes program instructions. The processor of the control unit for autonomous driving 18th is designed to calculate an optimal driving position (following distance, lateral offset) while driving behind a vehicle in front, depending on the planned driving maneuver, based on the information from the sensor-based environment model, taking into account the permitted lane area. The calculated optimal driving position is used to control the actuators of the vehicle subsystems 12 , 14th and 16 , for example of braking, drive and / or steering actuators used. The control unit for autonomous driving 18th further comprises a memory and an input / output interface. The memory can consist of one or more non-transitory computer-readable media and comprises at least a program storage area and a data storage area. The program memory area and the data memory area can comprise combinations of different types of memory, for example read-only memory 43 (ROM = Read-only memory) and a random access memory 42 (RAM = Random Access Memory) (e.g. dynamic RAM ("DRAM"), synchronous DRAM ("SDRAM"), etc.). Furthermore, the control unit can be used for autonomous driving 18th an external storage drive 44 such as an external hard disk drive (HDD), a flash memory drive, or a non-volatile solid state drive (SSD). The control unit for autonomous driving 18th furthermore comprises a communication interface 45 via which the control unit connects to the vehicle communication network ( 28 in 2 ) can communicate.

3 zeigt schematisch die von einem Umgebungssensor 26 gemessenen Daten eines Fahrzeugs. Als Umgebungssensor 26 wird beispielsweise ein hochauflösender Radar verwendet, der für ein Zielobjekt mehrere Detektionen P1 bis PN („Ziele“) generiert, die mittel dem Fachmann bekannten Verfahren einem Zielobjekt zugeschrieben werden können. Im Folgenden werden die Prinzipien der Erfindung anhand eines Radarsensors beschrieben. Diese Prinzipien lassen sich allerdings genauso für Daten von anderen Sensortypen, wie beispielsweise ToF-, Lidar-, Ultraschall- oder Kamerasensoren anwenden. Bei dem Zielobjekt handelt es sich hier beispielsweise um ein Fahrzeug 50 mit Hinterachse 51. Das Radar ist in der Lage, die Position der Detektionen P1 bis PN beispielsweise in einem Polarkoordinatensystem (Abstand ri und Azimutwinkel θi) zu bestimmen, sowie die Radialgeschwindigkeit vr,i der Detektionen zu erfassen. Dadurch ist die radiale Geschwindigkeitsverteilung vr,i an verschiedenen Ortspunkten des Zielobjekts P1 bis PN für einen gegebenen Messzeitpunkt bekannt. Bei einer reinen Translationsbewegung stimmt der gemessene Geschwindigkeitsvektor vi an dem gegebenen Messpunkt Pi in Betrag und Phase mit der mittleren Zielobjektgeschwindigkeit v' = Mittelwert (vi) überein. Für diese Situationen sind Verfahren bekannt, um aus den gemessenen Radardetektionen den Objektgeschwindigkeitsvektor vi zu bestimmen, auf die an dieser Stelle nicht näher eingegangen wird. 3 shows schematically that of an environmental sensor 26th measured data of a vehicle. As an environmental sensor 26th For example, a high-resolution radar is used that has multiple detections for a target object P 1 to P N (“Targets”) that can be assigned to a target object using methods known to those skilled in the art. The principles of the invention are described below using a radar sensor. However, these principles can also be used for data from other types of sensors, such as ToF, lidar, ultrasound or camera sensors. The target object is, for example, a vehicle 50 with rear axle 51 . The radar is able to track the position of the detections P 1 to P N for example, to determine in a polar coordinate system (distance r i and azimuth angle θ i ), as well as to detect the radial velocity v r, i of the detections. As a result, the radial speed distribution is v r, i at different location points of the target object P 1 to P N known for a given measurement time. In the case of a purely translational movement, the measured speed vector v i at the given measuring point P i corresponds in magnitude and phase to the mean target object speed v '= mean value (v i ). Methods are known for these situations in order to determine the object speed vector v i from the measured radar detections, which will not be discussed in more detail at this point.

Eine zusätzliche Rotation des Zielobjekts um das Rotationszentrum (im realen Umfeld oft gegeben, beispielsweise bei einer Kurvenfahrt) mit einer Gierrate ω führt zu einer Überlagerung der mittleren Zielobjektgeschwindigkeit v' mit dem Geschwindigkeitsanteil vθ,i, der durch die Rotation des Zielobjekts verursacht wird. Die Superposition dieser Geschwindigkeitskomponenten beeinflusst die radiale Geschwindigkeitsverteilung vr,i, die vom Sensor erfasst wird. Durch die zusätzlichen unbekannten Größen (Gierrate ω, Rotationszentrum) ist eine allgemeine Bestimmung der Fahrzeugkinematik in einem einzigen Zyklus nicht mehr sinnvoll durchführbar. Aus diesem Grund nutzt das folgende Verfahren einige Annahmen über die Form und Funktionalität von Fahrzeugen, um das mathematische Problem der Bestimmung der Gierrate aus den gemessenen Sensordaten zu vereinfachen.An additional rotation of the target object around the center of rotation (often given in the real environment, for example when cornering) with a yaw rate ω leads to an overlay of the mean target object speed v 'with the speed component v θ, i , which is caused by the rotation of the target object. The superposition of these speed components influences the radial speed distribution v r, i , which is recorded by the sensor. Due to the additional unknown variables (yaw rate ω, center of rotation), a general determination of the vehicle kinematics in a single cycle can no longer be carried out in a meaningful way. For this reason, the following procedure uses some assumptions about the shape and functionality of vehicles in order to simplify the mathematical problem of determining the yaw rate from the measured sensor data.

Setzt man zur Beschreibung der Kinematik des Zielobjekts ein Einspurmodell mit Vorderachslenkung voraus (klassisches Fahrzeug), lässt sich der Referenzpunkt, um den das Fahrzeug rotiert, durch das Zentrum der Hinterachse genau beschreiben. Dieser Referenzpunkt wird im Folgenden als Drehzentrum 64 bezeichnet.If a single-track model with front-axle steering is assumed to describe the kinematics of the target object (classic vehicle), the reference point around which the vehicle rotates can be precisely described through the center of the rear axle. This reference point is hereinafter referred to as the center of rotation 64 designated.

4 und 5 zeigen schematisch die schrittweise Bestimmung des Drehzentrums eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke (auch „Detektionen“, oder „Ziele“ genannt). Da für ein Zielobjekt mehrere räumlich verteilte Detektionen vorhanden sind, kann die geometrische Ausdehnung und auch die Orientierung des Zielobjekts bestimmt werden. Die Ermittlung der Orientierung des Zielobjekts erfolgt beispielsweise mit einer Hauptkomponentenanalyse der dem Zielobjekt zugehörigen Detektionen, indem der Winkel der Hauptkomponenten ausgewertet wird. 4th and 5 show schematically the step-by-step determination of the center of rotation of a gyrating vehicle from a point cloud provided by a radar sensor (also called “detections” or “targets”). Since there are several spatially distributed detections for a target object, the geometric extent and also the orientation of the target object can be determined. The orientation of the target object is determined, for example, with a main component analysis of the detections associated with the target object, in that the angle of the main components is evaluated.

In 4 detektiert ein Umgebungssensor 26, beispielsweise ein Radarsensor, in seinem Sichtfeld 260 ein Zielobjekt als Punktwolke. Die Punktwolke besteht aus einzelnen Detektionen, welche aus Abstandsmessungen und Richtungsmessungen im Sichtbereich des Sensors ermittelt werden. Die Punktwolke bzw. die einzelnen Detektionen enthalten neben Abstands- (Ort) auch (Relativ-)Geschwindigkeitsinformationen. Daher kann die geometrische Ausdehnung und somit auch die Orientierung des Zielobjekts, in diesem Fall das Fahrzeug 50, bestimmt werden. Zu diesem Zweck werden beispielsweise die zueinander orthogonal stehenden Hauptkomponenten 61 und 62 aus der Punktewolke mittels Hauptkomponentenanalyse bestimmt. Algorithmen zu diesem Zweck sind aus dem Stand der Technik hinlänglich bekannt. Ferner kann aus der Punktewolke auch auf die geometrische Ausdehnung des Zielobjekts rückgeschlossen werden. 4 zeigt diesbezüglich, wie mittels Least Square oder einem anderen Fehlerfunktions-Minimalisierungsverfahren ein Rechteck 60 in die Punktwolke gefittet wird. Dieses Rechteck 60 wird an dieser Stelle als vereinfachte Form des Zielobjektes benutzt und nutzt das Wissen aus, dass es sich bei dem Zielobjekt um ein Fahrzeug 50 handelt, dessen Form als Rechteck angenähert werden kann.In 4th an environmental sensor detects 26th , for example a radar sensor, in its field of view 260 a target object as a point cloud. The point cloud consists of individual detections, which are determined from distance measurements and direction measurements in the field of vision of the sensor. The point cloud or the individual detections contain not only distance (location) but also (relative) speed information. Therefore, the geometric extension and thus also the orientation of the target object, in this case the vehicle 50 , be determined. For this purpose, for example, the main components that are orthogonal to one another are used 61 and 62 determined from the point cloud using principal component analysis. Algorithms for this purpose are well known from the prior art. Furthermore, conclusions can also be drawn about the geometric extent of the target object from the point cloud. 4th shows in this regard how a rectangle is created using Least Square or another error function minimization method 60 is fitted into the point cloud. This rectangle 60 is used at this point as a simplified form of the target object and uses the knowledge that the target object is a vehicle 50 acts whose shape can be approximated as a rectangle.

Das Rechteck wird beispielsweise unter der Hilfsbedingung an die Punktwolke gefittet, dass die jeweiligen Rechteckseiten a und b orthogonal auf den Hauptkomponenten 61 und 62 stehen. Anschließend kann eine Fehlerfunktion f bestimmt werden, wobei f die jeweils kürzesten Abstände zwischen einem Punkt Pi und dem Rechteck 60 aufsummiert und diese Funktion mittels Least-Square-Verfahrens oder einem anderen Fehlerfunktions-Minimierungsalgorithmuses minimiert.The rectangle is fitted to the point cloud, for example, under the auxiliary condition that the respective sides of the rectangle a and b are orthogonal to the main components 61 and 62 stand. An error function f can then be determined, where f is the shortest distance between a point P i and the rectangle 60 summed up and this function is minimized using the least square method or another error function minimization algorithm.

5. zeigt das berechnete Rechteck 60 mit Seitenlängen a und b inklusive Hauptkompnenten 61 und 62 ohne die vom Radarsensor bestimmte Punktwolke. Sobald das Rechteck 60 bestimmt ist, kann die Lage der Hinterachse 63 näherungsweise geschätzt werden. Daher kann der Ort der Hinterachse 63 dadurch abgeschätzt werden, dass die Hinterachse 63 als parallel zum Heck des Fahrzeugs im Abstand L angenommen wird. Der Abstand L kann im Vorfeld eingestellt werden, zum Beispiel als L = 0,2 · max{a,b}. Das Heck des Fahrzeugs kann aus den Seitenlängen a und b des Rechtecks 60 und dem mittleren Geschwindigkeitsvektor v' des Fahrzeugs bestimmt werden. Da Fahrzeuge länger als breit sind, kommt als Heck nur eine der beiden kürzeren Seiten in Betracht. Zunächst wird also bestimmt, ob a oder b kürzer ist. Nun wird angenommen, dass das Fahrzeug vorwärts fährt. In diesem Fall kann angenommen werden, dass das Heck die Seite ist, die sich in der entgegengesetzten Richtung zur mittleren Geschwindigkeit v' der Punktwolke befindet. Ist das Heck auf diese Weise bestimmt, kann Ort und Orientierung der Hinterachse 63 abgeschätzt werden. Nun wird als weitere Annahme verwendet, dass das Drehzentrum 64 des Zielobjekts sich in der Mitte der Hinterachse 63 befindet. Auf diese Art kann der Ort der Drehachse 64 ausreichend eingeschätzt werden um mit der weiteren Gierratenbestimmung fortzufahren. 5 . shows the calculated rectangle 60 with side lengths a and b including main components 61 and 62 without the point cloud determined by the radar sensor. Once the rectangle 60 is determined, the position of the rear axle 63 can be estimated approximately. Hence the location of the rear axle 63 can be estimated by the fact that the rear axle 63 is assumed to be parallel to the rear of the vehicle at a distance L. The distance L can be set in advance, for example as L = 0.2 · max {a, b}. The rear of the vehicle can be made up of the side lengths a and b of the rectangle 60 and the mean speed vector v 'of the vehicle can be determined. Since vehicles are longer than they are wide, only one of the two shorter sides can be considered as the rear. So first it is determined whether a or b is shorter. It is now assumed that the vehicle is moving forward. In this case it can be assumed that the stern is the side which is in the opposite direction to the mean velocity v 'of the point cloud. If the rear is determined in this way, the location and orientation of the rear axle can be determined 63 be estimated. A further assumption is now made that the center of rotation 64 of the target object is in the middle of the rear axle 63 is located. In this way the location of the axis of rotation 64 must be assessed sufficiently to proceed with further yaw rate determination.

Simulationen haben bestätigt, dass die Position des Rotationszentrums nicht exakt bekannt sein muss, um eine robuste Gierratenschätzung zu erhalten. Für die Bestimmung des Rotationszentrums 64 kann deshalb alternativ auch eine Abschätzung über die Koordinaten des Clusterzentrums der Punkwolke herangezogen werden, was für die hier Beschriebene Bestimmung der Gierrate bereits ausreichend ist. Das Verwenden des Clusterzentrums als Gierzentrum ist im Vergleich zur Berechnung der Hinterachse weniger Rechenzeit-aufwändig.Simulations have confirmed that the exact position of the center of rotation does not need to be known to get a robust yaw rate estimate. For determining the center of rotation 64 Therefore, as an alternative, an estimate of the coordinates of the cluster center of the point cloud can also be used, which is already sufficient for the determination of the yaw rate described here. Using the cluster center as the yaw center is less computationally time consuming compared to calculating the rear axle.

6 zeigt in einem Flussdiagram die Bestimmung des Drehzentrums eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke. Das Verfahren wird beispielsweise von einer Sensorauswertungseinheit ausgeführt, wie beispielsweise einer Steuereinheit für autonomes Fahren (18 in 1) oder dergleichen ausgeführt. In einem ersten Schritt S60 werden die zueinander orthogonalen Hauptkomponenten 61 und 62 aus der Punktwolke des Radar-Sensors mittels Hauptkomponentenanalyse bestimmt. In einem Zwischenschritt S61 wird aus den Hauptkomponenten 61 und 62 ein Winkel φ bestimmt (siehe 8), der die relative Orientierung des Fahrzeugs zum Sensor 26 angibt. In einem nächsten Schritt S62 werden die Rechteckslängen a und b anhand der Punktwolke und der Hauptkomponenten bestimmt. Hierzu wird das wissen ausgenutzt, dass sich a und b orthogonal zu ihrer jeweiligen Hauptkomponente befinden und anschließend die Fehlerfunktion f mittels Least-Square-Verfahren oder einem anderen Fehlerfunktons-Minimierungsverfahrens minimiert, sodass die beiden a und b bestimmt werden, für die die Fehlerfunktion f minimal wird. Hierbei kann die Fehlerfunktion f beispielsweise wie folgt ausgedrückt werden f ( a , b ) = i = 1 N min { | P i R ( a , b ) | 2 }

Figure DE102019204408A1_0001
als die Summe über alle minimalen Abstände zwischen einem Messpunkt Pi und dem Rechteck 60 repräsentiert durch die Funktion R(a,b). Anschließend wir in einem Schritt S63 aus den Punktgeschwindigkeiten vi der Punktwolke die mittlere Fahrzeuggeschwindigkeit v' bestimmt. Hierbei gilt: v ' = i N v i N
Figure DE102019204408A1_0002
wobei N die Anzahl der Punkte der Punktwolke ist. In einem nächsten Schritt S64 wird das Heck des Fahrzeugs aus der Richtung der mittleren Geschwindigkeit v' und den Rechtecksseitenlängen a und b bestimmt, wobei das Wissen ausgenutzt wird, dass nur die kürze Rechtecksseitenlänge min(a,b) als Heck in Frage kommt und angenommen wird, dass das Fahrzeug vorwärts fährt, das Heck folglich die Rechtecksseitenlänge ist, die sich in der entgegengesetzten Richtung der mittleren Geschwindigkeit v' befindet. In einem nächsten Schritt S65 werden Lage und Orientierung der Hinterachse 63 als parallel zum Heck und im Abstand L abgeschätzt. Für L kann zuvor ein Wert festgelegt werden. Zum Beispiel L = 0,2 · max{a,b}. In einem letzten Schritt S66 wird nun das Drehzentrum 64 als in der Mitte der Hinterachse 63 befindlich abgeschätzt. Auf diese Art ist nun der Ort des Drehzentrums 64 ausreichend bekannt, um zu einer robusten Abschätzung der Gierrate zu gelangen. 6th shows in a flow diagram the determination of the center of rotation of a gurgling vehicle from a point cloud provided by a radar sensor. The method is carried out, for example, by a sensor evaluation unit, such as a control unit for autonomous driving ( 18th in 1 ) or the like. In a first step S60 become the main components orthogonal to each other 61 and 62 determined from the point cloud of the radar sensor using principal component analysis. In an intermediate step S61 is made up of the main components 61 and 62 an angle φ is determined (see 8th ), which shows the relative orientation of the vehicle to the sensor 26th indicates. In a next step S62 the rectangle lengths a and b are determined using the point cloud and the main components. For this purpose, use is made of the knowledge that a and b are orthogonal to their respective main component and then the error function f is minimized using the least square method or another error function minimization method, so that the two a and b for which the error function f is determined becomes minimal. Here, the error function f can be expressed as follows, for example f ( a , b ) = i = 1 N min { | P i - R. ( a , b ) | 2 }
Figure DE102019204408A1_0001
as the sum of all minimum distances between a measuring point P i and the rectangle 60 represented by the function R (a, b). Then we do it in one step S63 the mean vehicle speed v 'is determined from the point velocities v i of the point cloud. The following applies here: v ' = i N v i N
Figure DE102019204408A1_0002
where N is the number of points in the point cloud. In a next step S64 the rear of the vehicle is determined from the direction of the average speed v 'and the rectangular side lengths a and b, using the knowledge that only the short rectangular side length min (a, b) is possible as the rear and it is assumed that the vehicle drives forward, the tail is consequently the length of the rectangle which is in the opposite direction of the mean speed v '. In a next step S65 position and orientation of the rear axle 63 estimated to be parallel to the stern and at a distance L. A value can be specified for L beforehand. For example L = 0.2 * max {a, b}. In a final step S66 becomes the turning center 64 than in the middle of the rear axle 63 currently estimated. In this way is now the location of the turning center 64 known enough to arrive at a robust estimate of the yaw rate.

7 zeigt die Bestimmung der Gierrate eines girierenden Fahrzeugs aus einer von einem Radarsensor bereitgestellten Punktwolke bei bereits bestimmtem Drehzentrum. Das Verfahren wird beispielsweise von einer Sensorauswertungseinheit ausgeführt, wie beispielsweise einer Steuereinheit für autonomes Fahren (18 in 1) oder dergleichen. In einem ersten Schritt S71 wird zunächst die Punktwolke empfangen, die von einem Sensor geliefert wird und die Messdaten dieses Sensors repräsentiert. Der Sensor kann ein Radar, ein Lidar oder auch ein Kamerasensor sein. Die Punktwolke besteht aus Abstandsmessungen eines detektierten Objekts im Sichtbereich des Sensors. Die Punktwolke enthält neben Abstands- (Ort) auch (Relativ-)Geschwindigkeitsinformationen. In einem zweiten Schritt S72 wird das Drehzentrum des Objekts aus der Punktwolke bestimmt. Dazu wird beispielsweise das in 6 beschriebene Verfahren angewandt. Gemäß dem Verfahren der 6 wird die Zielobjektorientierung durch Hauptkomponentenanalyse ermittelt. In einer anderen Variante kann die Zielobjektorientierung an Stelle der Hauptkomponentanalyse aus einer anderen Quelle bezogen werden. Dies kann mit Hilfe eines anderen Sensors in einem Fusionssytem bestimmt werden (z.B. Lidar oder Kamera). Oder aber durch Verwendung von a priori Wissen (z.B. Querverkehr an der Kreuzung). In einem dritten Schritt S73 werden die Punkte P1 bis PN der Punktwolke in eine Modellgleichung eingesetzt, die die zwei Unbekannten Betrag der Zielobjektgeschwindigkeit v und Gierrate ω enthält. Die Modellgleichung beschreibt hierbei typischerweise das Bewegungsverhaltens eines Fahrzeugs, das wiederum als Rechteck mit den Seitenlängen a und b genähert wird. Die Modellgleichung ist mit zwei Unbekannten und N > 2 Messpunkten überbestimmt. Daher wird die Modellgleichung für mehrere Detektionen aus einem Messzyklus ausgewertet, was ein überbestimmtes Gleichungssystem mit zwei Unbekannten und N Gleichungen zur Folge hat, wobei N für die Anzahl der betrachteten Detektionen (Punkte der Punktwolke) steht. Dieses Gleichungssystem wird mit einem Least-Squares-Schätzverfahren gelöst und man erhält eine Schätzung der Gierrate ω und des Betrags des Geschwindigkeitsvektors v. In einem vierten Schritt S74 wird nun die berechnete Gierrate ω ausgeben, sodass andere Systeme des Fahrzeugs, zum Beispiel ein Einpark-, Brems- oder Fahrassistent diese für ihre Funktion verwenden können. 7th shows the determination of the yaw rate of a yawing vehicle from a point cloud provided by a radar sensor with an already determined center of rotation. The method is carried out, for example, by a sensor evaluation unit, such as a control unit for autonomous driving ( 18th in 1 ) or similar. In a first step S71 the point cloud is received first, which is supplied by a sensor and represents the measurement data of this sensor. The sensor can be a radar, a lidar or a camera sensor. The point cloud consists of distance measurements of a detected object in the field of view of the sensor. In addition to distance (location) information, the point cloud also contains (relative) speed information. In a second step S72 the center of rotation of the object is determined from the point cloud. For example, the in 6th procedure described. According to the procedure of 6th the target object orientation is determined by principal component analysis. In another variant, the target object orientation can be obtained from another source instead of the main component analysis. This can be determined with the help of another sensor in a fusion system (e.g. lidar or camera). Or by using a priori knowledge (e.g. cross traffic at the intersection). In a third step S73 will be the points P 1 to P N the point cloud is used in a model equation that contains the two unknowns amount of target object speed v and yaw rate ω. The model equation typically describes the movement behavior of a vehicle, which in turn is approximated as a rectangle with side lengths a and b. The model equation is over-determined with two unknowns and N> 2 measuring points. The model equation is therefore evaluated for several detections from one measurement cycle, which results in an overdetermined system of equations with two unknowns and N equations, where N stands for the number of detections considered (points of the point cloud). This system of equations is solved using a least squares estimation method and an estimate of the yaw rate ω and the magnitude of the speed vector v is obtained. In a fourth step S74 the calculated yaw rate ω is now output so that other systems in the vehicle, for example a parking, braking or driving assistant, can use this for their function.

Da für ein Zielobjekt mehrere räumlich verteilte Detektionen vorhanden sind, kann die geometrische Ausdehnung und somit auch die Orientierung des Zielobjekts bestimmt werden. Die Ermittlung der Orientierung des Zielobjekts erfolgt beispielsweise mit einer Hauptkomponentenanalyse der dem Zielobjekt zugehörigen Detektionen, indem der Winkel der Hauptkomponenten ausgewertet wird. Für die Bestimmung des Rotationszentrums wird die Annahme getroffen, dass eine Abschätzung über die Koordinaten des Clusterzentrums ausreichend ist. Simulationen haben bestätigt, dass die Position des Rotationszentrums nicht exakt bekannt sein muss, um eine robuste Gierratenschätzung zu erhalten. Es verbleiben zwei Unbekannte (Betrag der Zielobjektgeschwindigkeit und Gierrate) für eine Modellgleichung, somit ist die Gleichung unterbestimmt. Daher wird die Modellgleichung für mehrere Detektionen aus einem Messzyklus ausgewertet, was ein überbestimmtes Gleichungssystem mit zwei Unbekannten und N Gleichungen zur Folge hat, wobei N für die Anzahl der betrachteten Detektionen steht. Dieses Gleichungssystem wird mit einem Least-Squares-Schätzverfahren gelöst und man erhält eine Schätzung der Gierrate und des Betrags des Geschwindigkeitsvektors.Since several spatially distributed detections are available for a target object, the geometric extent and thus also the orientation of the target object can be determined. The orientation of the target object is determined, for example, with a main component analysis of the detections associated with the target object, in that the angle of the main components is evaluated. To determine the center of rotation, the assumption is made that an estimate based on the coordinates of the cluster center is sufficient. Simulations have confirmed that the exact position of the center of rotation does not need to be known to get a robust yaw rate estimate. There remain two unknowns (amount of target object speed and yaw rate) for a model equation, so the equation is underdetermined. The model equation is therefore evaluated for several detections from one measurement cycle, which results in an over-determined system of equations with two unknowns and N equations, where N stands for the number of detections considered. This system of equations is solved using a least squares estimation method and an estimate of the yaw rate and the magnitude of the speed vector is obtained.

Die Ausführungsbeispiele zeigen somit eine Kombination eines Least Squares-Schätzverfahrens von mehreren Detektionen mit einer Orientierungsschätzung auf Basis der Hauptkomponentenanalyse, zusammen mit einer Abschätzung des Rotationszentrums. Dadurch kann der Geschwindigkeitsbetrag und die Gierrate des Objekts innerhalb eines Messzyklus mit nur einem Radarsensor ausgewertet werden. Bisher beschriebene Verfahren sind zur Gierratenschätzung eines Zielobjekts in einem Messzyklus auf mindestens zwei Radarsensoren angewiesen, oder benötigen bei Verwendung von einem Radarsensor mehrere Messzyklen um die Gierrate zu bestimmen.The exemplary embodiments thus show a combination of a least squares estimation method of several detections with an orientation estimation based on the principal component analysis, together with an estimation of the center of rotation. As a result, the amount of speed and the yaw rate of the object can be evaluated within one measuring cycle with just one radar sensor. The methods described so far are dependent on at least two radar sensors to estimate the yaw rate of a target object in one measuring cycle, or, if one radar sensor is used, require several measuring cycles to determine the yaw rate.

8 veranschaulicht eine Modellgleichung, wie sie in 7 verwendet wurde, um die Gierrate ω abzuschätzen. 8th illustrates a model equation as described in 7th was used to estimate the yaw rate ω.

Eine Modellgleichung zur Beschreibung der Bewegung, insbesondere der Drehung eines Fahrzeugs 10, die verwendet werden kann, um die Gierrate zu schätzen, wie in Schritt S73 der 7 beschrieben, lautet beispielsweise: v D = v cos ( θ φ ) + ω ( y R cos ( θ ) x R sin ( θ ) )

Figure DE102019204408A1_0003
Hierbei bezeichnen die einzelnen Variablen folgende physikalische Größen, wie in 8 dargestellt: θ, r und vD bezeichnen den vom Sensor 26 gemessenen Winkel, Abstand und Radialgeschwindigkeit einer Detektion (vgl. 3). φ bezeichnet den mittels Hauptachsentransformation ermittelten Orientierungswinkel des Fahrzeugs 10 relativ zum Sensor 26 (vgl. Schritt S61 in 6). xR und yR bezeichnen die Koordinaten des Gierzentrums 64 (wie beispielsweise gemäß dem Verfahren der 6 ermittelt), ω bezeichnet die gesuchte Gierrate des Fahrzeugs und v die Lineargeschwindigkeit des Fahrzeugs 10, die vom Sensor 26 gemessene Radialgeschwindigkeit des Fahrzeugs 10.A model equation to describe the movement, especially the rotation of a vehicle 10 that can be used to estimate yaw rate, as in step S73 of the 7th is described, for example: v D. = v cos ( θ - φ ) + ω ( y R. cos ( θ ) - x R. sin ( θ ) )
Figure DE102019204408A1_0003
The individual variables designate the following physical quantities, as in 8th shown: θ, r and v D denote that of the sensor 26th measured angle, distance and radial speed of a detection (cf. 3 ). φ denotes the orientation angle of the vehicle determined by means of the main axis transformation 10 relative to the sensor 26th (see step S61 in 6th ). x R and y R denote the coordinates of the Greed center 64 (such as according to the procedure of 6th determined), ω denotes the searched yaw rate of the vehicle and v the linear velocity of the vehicle 10 taken from the sensor 26th measured radial speed of the vehicle 10 .

Die Punktwolke ℘, die der Sensor liefert besteht aus N Detektionen mit mindestens den Einträgen ri, vD,i und θi: = { P 1 ( r 1 ,   v D ,1 ,   θ 1 ) ,   ...   ,   P i ( r i ,   v D , i ,   θ i ) ,   ...   ,   P N ( r N ,  v D , N ,   θ N ) }

Figure DE102019204408A1_0004
The point cloud ℘ that the sensor delivers consists of N detections with at least the entries r i , v D, i and θ i : = { P 1 ( r 1 , v D. ,1 , θ 1 ) , ... , P i ( r i , v D. , i , θ i ) , ... , P N ( r N , v D. , N , θ N ) }
Figure DE102019204408A1_0004

Die Werte xR und yR (Koordinaten des Gierzentrums 6) und der Orientierungswinkel <p wurden aus der Hauptkomponentenanalyse (siehe 4 bis 6) bestimmt. Somit verbleiben nur die Lineargeschwindigkeit v und die Gierrate ω als unbekannte Größen der Modellgleichung.The values x R and y R (coordinates of the yaw center 6th ) and the orientation angle <p were obtained from the principal component analysis (see 4th to 6th ) certainly. Thus, only the linear velocity v and the yaw rate ω remain as unknown quantities in the model equation.

Gleichung (1) kann als Skalarprodukt zweier Vektoren dargestellt werden, wobei der zweite Vektor die Unbekannten v und ω enthält: v D = [ cos ( θ φ )     y R cos ( θ ) x R sin ( θ ) ] [ v ω ]

Figure DE102019204408A1_0005
Gleichung (2) kann nun auf jedes Element der Punktwolke Pi ∈ ℘ angewendet werden, sodass ein Gleichungssystem mit N Gleichungen entsteht. Dieses kann als Vektorgleichung mit den Vektoren y
Figure DE102019204408A1_0006
und p
Figure DE102019204408A1_0007
sowie der Matrix X dargestellt werden: [ v D ,1 v D , N ] = y [ cos ( θ 1 φ ) y R cos ( θ 1 ) x R sin ( θ 1 ) cos ( θ N φ ) y R cos ( θ N ) x R sin ( θ N ) ] X [ v ω ] p
Figure DE102019204408A1_0008
Equation (1) can be represented as the scalar product of two vectors, where the second vector contains the unknowns v and ω: v D. = [ cos ( θ - φ ) y R. cos ( θ ) - x R. sin ( θ ) ] [ v ω ]
Figure DE102019204408A1_0005
Equation (2) can now be applied to every element of the point cloud P i ∈ ℘, so that an equation system with N equations is created. This can be used as a vector equation with the vectors y
Figure DE102019204408A1_0006
and p
Figure DE102019204408A1_0007
as well as the matrix X: [ v D. ,1 v D. , N ] = y [ cos ( θ 1 - φ ) y R. cos ( θ 1 ) - x R. sin ( θ 1 ) cos ( θ N - φ ) y R. cos ( θ N ) - x R. sin ( θ N ) ] X [ v ω ] p
Figure DE102019204408A1_0008

Durch Invertieren der Matrix X kann Gleichung (3) nach p

Figure DE102019204408A1_0009
umgestellt werden. Für die Least-Square-Verfahrensschätzung empfiehlt sich eine weitere Transposition von X, sodass eine weitere Gleichung erhalten wird: p L S Q = ( X T X ) 1 X T y
Figure DE102019204408A1_0010
By inverting the matrix X, equation (3) can be obtained from p
Figure DE102019204408A1_0009
be changed. For the least square method estimation, another transposition of X is recommended, so that another equation is obtained: p L. S. Q = ( X T X ) - 1 X T y
Figure DE102019204408A1_0010

Da das Gleichungssystem überbestimmt ist, kann, wie bereits weiter oben erwähnt, p

Figure DE102019204408A1_0011
und damit v und ω mittels Least-Square-Schätzverfahren aus Gleichung (4) bestimmt/geschätzt werden.Since the system of equations is overdetermined, as already mentioned above, p
Figure DE102019204408A1_0011
and thus v and ω are determined / estimated using the least square estimation method from equation (4).

BezugszeichenlisteList of reference symbols

1010
Fahrzeugvehicle
1212th
ECU 1 BremssystemECU 1 braking system
1414th
ECU 2 AntriebsstrangECU 2 powertrain
1616
ECU 3 LenksystemECU 3 steering system
1818th
ECU 4 Steuereinheit für autonomes FahrenECU 4 control unit for autonomous driving
2020th
Safety-ECUSafety ECU
2424
GNSSGNSS
2626th
Umfeldsensoren (Radar)Environment sensors (radar)
2828
FahrzeugkommunikationsnetzwerkVehicle communication network
3030th
Notaus-ECUEmergency stop ECU
3232
HMIHMI
5050
Fahrzeug und ZielobjektVehicle and target
5151
Hinterachse des Fahrzeugs 50Rear axle of the vehicle 50
6161
HauptkomponenteMain component
6262
HauptkomponenteMain component
6060
Rechteckrectangle
6363
HinterachseRear axle
6464
GierzentrumGreed center
260260
Sichtfeld des Sensors 26Field of view of sensor 26
P1, ... PN P 1 , ... P N
Punktwolke des ZielobjektsPoint cloud of the target object

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • DE 102013019804 A1 [0003]DE 102013019804 A1 [0003]

Claims (10)

Verfahren zur Bestimmung der Gierrate (ω) eines Zielobjektes (50), umfassend ein Empfangen von Sensordaten, welche mehrere Detektionen (P1, ...PN) umfassen, welche das Zielobjekt (50) beschreiben, ein Abschätzen der Lage des Gierzentrums (64) des Zielobjektes (50) auf Grundlage der Detektionen (P1, ...PN), sowie ein Bestimmen der Gierrate (ω) auf Grundlage des abgeschätzten Ortes des Gierzentrums (64).Method for determining the yaw rate (ω) of a target object (50), comprising receiving sensor data which include several detections (P 1 , ... P N ) which describe the target object (50), estimating the position of the yaw center ( 64) of the target object (50) on the basis of the detections (P 1 , ... P N ), as well as determining the yaw rate (ω) on the basis of the estimated location of the yaw center (64). Verfahren nach Anspruch 1, bei dem eine Bestimmung der Orientierung (<p) des Zielobjektes (50) auf Basis einer Hauptkomponentenanalyse erfolgt.Procedure according to Claim 1 , in which the orientation (<p) of the target object (50) is determined on the basis of a principal component analysis. Verfahren nach Anspruch 1 oder 2, das ein Least Square-Schätzverfahren basierend auf mehreren Detektionen (P1, ...PN) umfasst.Procedure according to Claim 1 or 2 which comprises a least square estimation method based on multiple detections (P 1 , ... P N ). Verfahren einem der vorhergehenden Ansprüche, wobei die Gierrate (ω) bestimmt wird durch Lösung einer überbestimmten Modellgleichung (Gleichung (4)), welche die Bewegung des Zielobjektes (50) abschätzt.Method according to one of the preceding claims, wherein the yaw rate (ω) is determined by solving an over-determined model equation (equation (4)) which estimates the movement of the target object (50). Verfahren nach Anspruch 4, wobei eine Modellgleichung verwendet wird, die als Unbekannte den Betrag der Zielobjektsgeschwindigkeit (v) und die Gierrate (ω) des Zielobjekts (50) enthält.Procedure according to Claim 4 wherein a model equation is used which contains as unknowns the magnitude of the target object speed (v) and the yaw rate (ω) of the target object (50). Verfahren nach Anspruch 4 oder 5, wobei die Modellgleichung gelöst wird, indem N Detektionen der Sensordaten (P1 bis PN) in die Modellgleichung eingesetzt werden, um ein Gleichungssystem mit zwei Unbekannten (v, ω) und N Gleichungen zu erhalten.Procedure according to Claim 4 or 5 , solving the model equation by inserting N detections of the sensor data (P 1 to P N ) into the model equation to obtain an equation system with two unknowns (v, ω) and N equations. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Lage des Gierzentrums (64) durch Abschätzung der Koordinaten des Clusterzentrums der Detektionen (P1, ... PN) erfolgt.Method according to one of the preceding claims, wherein the position of the yaw center (64) takes place by estimating the coordinates of the cluster center of the detections (P 1 , ... P N ). Verfahren nach einem der vorhergehenden Ansprüche, wobei die Lage des Gierzentrums (64) auf Basis einer Hauptkomponentenanalyse abgeschätzt wird.Method according to one of the preceding claims, wherein the position of the yaw center (64) is estimated on the basis of a principal component analysis. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Lage des Gierzentrums (64) als Mitte einer Hinterachse (63) des Zielobjektes abgeschätzt wird.Method according to one of the preceding claims, wherein the position of the yaw center (64) is estimated as the center of a rear axle (63) of the target object. Vorrichtung, umfassen einen Prozessor, der dazu ausgelegt ist, das Verfahren nach einem der Ansprüche 1 bis 9 durchzuführen.Device, comprise a processor which is designed to perform the method according to one of the Claims 1 to 9 perform.
DE102019204408.5A 2019-03-29 2019-03-29 Method for determining the yaw rate of a target object based on sensor data, for example from a high-resolution radar Active DE102019204408B4 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019204408.5A DE102019204408B4 (en) 2019-03-29 2019-03-29 Method for determining the yaw rate of a target object based on sensor data, for example from a high-resolution radar
PCT/EP2020/056618 WO2020200683A1 (en) 2019-03-29 2020-03-12 Method for determining the yaw rate of a target object on the basis of sensor data, for example a high-resolution radar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019204408.5A DE102019204408B4 (en) 2019-03-29 2019-03-29 Method for determining the yaw rate of a target object based on sensor data, for example from a high-resolution radar

Publications (2)

Publication Number Publication Date
DE102019204408A1 true DE102019204408A1 (en) 2020-10-01
DE102019204408B4 DE102019204408B4 (en) 2023-02-02

Family

ID=69804910

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019204408.5A Active DE102019204408B4 (en) 2019-03-29 2019-03-29 Method for determining the yaw rate of a target object based on sensor data, for example from a high-resolution radar

Country Status (2)

Country Link
DE (1) DE102019204408B4 (en)
WO (1) WO2020200683A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013019804A1 (en) * 2013-11-27 2015-05-28 Daimler Ag Method for determining a movement of an object
EP3415945A1 (en) * 2017-06-12 2018-12-19 Aptiv Technologies Limited Method of determining the yaw rate of a target vehicle

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008025773A1 (en) 2008-05-29 2009-01-08 Daimler Ag Local and movement conditions estimating method for observed object i.e. vehicle, involves determining distance, detecting shifting of portion of object, and estimating parameter of local and movement condition
US9983301B2 (en) 2015-10-02 2018-05-29 Delphi Technologies, Inc. Automated vehicle radar system to determine yaw-rate of a target vehicle
EP3285230B1 (en) 2016-08-19 2021-04-07 Veoneer Sweden AB Enhanced object detection and motion estimation for a vehicle environment detection system
EP3415948B1 (en) 2017-06-12 2021-11-10 Aptiv Technologies Limited A method of determining the de-aliased range rate of a target

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013019804A1 (en) * 2013-11-27 2015-05-28 Daimler Ag Method for determining a movement of an object
EP3415945A1 (en) * 2017-06-12 2018-12-19 Aptiv Technologies Limited Method of determining the yaw rate of a target vehicle

Also Published As

Publication number Publication date
DE102019204408B4 (en) 2023-02-02
WO2020200683A1 (en) 2020-10-08

Similar Documents

Publication Publication Date Title
DE102017118401B4 (en) METHOD AND SYSTEM FOR PERFORMING AUTONOMOUS OPERATION OF A VEHICLE
DE102016106298B4 (en) Fusion method for a cross-traffic application using radar devices and a camera
DE102016102002B4 (en) Improvement of a vehicle motion estimation with radar data
DE102015114465B4 (en) Method for path planning for an evasive steering maneuver
DE102013200132B4 (en) Lane keeping system for a vehicle
DE102011103795B4 (en) System for evaluating a target in the vicinity of a vehicle
DE102017120112A1 (en) DEPTH CARE VALUATION WITH STEREO IMAGES
DE102017115752A1 (en) Vehicle and method of controlling the same
DE102015114464A1 (en) Uniform motion planner for an autonomous vehicle while avoiding a moving obstacle
DE102012216386A1 (en) Method for operating a driver assistance system of a vehicle
DE112018008222T5 (en) MOVEMENT PLAN GENERATING DEVICE AND AUTONOMOUS DRIVING SYSTEM
DE102019214628A1 (en) Validation of surroundings detection using satellite images and SAR radar data
DE102018221265B4 (en) Method and system for detecting wind acting on a vehicle
DE102017129501A1 (en) Autonomous motor vehicle object recognition
EP3653460A1 (en) Method and control unit for operating an autonomous vehicle
DE102021104324A1 (en) IMPROVED OBJECT DETECTION AND RESPONSE
DE102019117769A1 (en) Driving control system for a vehicle
DE102019132150A1 (en) Method for automatically calibrating an environment sensor, in particular a lidar sensor, of a vehicle on the basis of occupancy cards and computing device
DE102017205973A1 (en) Method for determining an offset contained in a yaw rate signal of a yaw rate sensor of a motor vehicle and control device and motor vehicle
DE112020002753T5 (en) VEHICLE CONTROL METHOD, VEHICLE CONTROL DEVICE AND VEHICLE CONTROL SYSTEM INCLUDING THEM
DE102020215504A1 (en) Method and device for detecting objects in the surroundings of a vehicle
DE102020124331A1 (en) VEHICLE TRACK MAPPING
DE102019213929A1 (en) Plausibility check of stopped previously dynamic objects with the help of allocation grids
DE102019213867A1 (en) Obstacle detection comprising a recurrent neural network
DE102018218003A1 (en) Process, computer program and measuring system for the evaluation of movement information

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final