DE102019211327B4 - Vorrichtung, Fahrzeug und Verfahren zur verbesserten Multi-Radar-Sensor-Kalibration - Google Patents

Vorrichtung, Fahrzeug und Verfahren zur verbesserten Multi-Radar-Sensor-Kalibration Download PDF

Info

Publication number
DE102019211327B4
DE102019211327B4 DE102019211327.3A DE102019211327A DE102019211327B4 DE 102019211327 B4 DE102019211327 B4 DE 102019211327B4 DE 102019211327 A DE102019211327 A DE 102019211327A DE 102019211327 B4 DE102019211327 B4 DE 102019211327B4
Authority
DE
Germany
Prior art keywords
sensors
vehicle
ext
processor
designed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019211327.3A
Other languages
English (en)
Other versions
DE102019211327A1 (de
Inventor
Florian Maile
Frasher Loshaj
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102019211327.3A priority Critical patent/DE102019211327B4/de
Publication of DE102019211327A1 publication Critical patent/DE102019211327A1/de
Application granted granted Critical
Publication of DE102019211327B4 publication Critical patent/DE102019211327B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • G01S7/403Antenna boresight in azimuth, i.e. in the horizontal plane
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • G01S7/4034Antenna boresight in elevation, i.e. in the vertical plane
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52004Means for monitoring or calibrating

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

Vorrichtung umfassend einen Prozessor (40), der dazu ausgelegt ist, die Ausrichtung mehrerer Umfeldsensoren (26) eines Fahrzeugs zu ermitteln, indem bei bekannter Ego-Bewegung(v→e,Ω)des Fahrzeugs Ausrichtungsparameter (ψext,i, θext,i) der Umfeldsensoren (26) basierend auf einer Optimierung von aus einem von den Ausrichtungsparametern (ψext,i, θext,i) abhängenden Modellverlauf (60) erwarteten Radialgeschwindigkeiten an von mit den Umfeldsensoren (26) gemessenen Radialgeschwindigkeiten (66a, 66b) von Zielen bestimmt werden.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft das technische Gebiet der Fahrzeugsensorik und deren Datenauswertung, insbesondere für autonome oder teilautonome Fahrzeuge.
  • TECHNISCHER HINTERGRUND
  • Autonome oder teilautonome Fahrzeuge weisen Sensoren wie beispielsweise Kameras, Radar- und Lidar-Sensoren auf, die das Umfeld des Fahrzeugs sensorisch erfassen und deren Daten in einer Steuereinheit mittels geeigneter Software ausgewertet werden. Auf Grundlage der durch diese Datenverarbeitung gewonnenen Informationen kann eine Steuereinheit über entsprechende Aktuatoren Brems-, Geschwindigkeits-, Abstands-, Kompensations- und/oder Ausweichregelungen selbsttätig auslösen und durchführen.
  • Für leistungsstarke Fahrassistenzsysteme und autonome Fahrzeuge ist eine präzise Umfelderkennung wichtig. Zu diesem Zweck besitzen moderne Fahrzeuge eine Vielzahl von Sensoren, zum Beispiel Radar, Lidar oder Kamera-Sensoren, die ihre Messwerte in Form einer Punktwolke liefern. Eine Herausforderung bei der Verwendung mehrerer Sensoren mit unterschiedlichen Sichtfeldern ist hierbei das Erreichen eines korrekten Sichtfeld-Überlapps.
  • Es sind bereits Lösungen für dieses Problem bekannt. Zum Beispiel offenbart das Dokument „On-line Calibration of Multiple LIDARs on a Mobile Vehicle Platform“ von Chao Gao und John R. Spletzer, 2010 IEEE International Conference on Robotics and Automation, 2010 ein Verfahren zur Bestimmung eines gemeinsamen Sichtfelds von Lidar-Sensoren. Jedoch benötigt dieses Verfahren eine Karte und eine äußerst präzise Kenntnis der Geschwindigkeit, mit der sich die Sensoren, also das Fahrzeug, auf dem sie montiert sind, bewegen.
  • Das Dokument „Odometry-based Online Extrinsic Sensor Calibration“, von Sebastian Schneider und Thorsten Luettel, Proceedings of the International Conference on Intelligent Robots and Systems IEEE/RSJ, Nov. 2013, liefert ebenfalls einen Ansatz, um überlappende Sichtfelder zu bestimmen. Hierbei wird ein zweiter Kalibrationssensor verwendet, welcher den Aufbau größer, unhandlicher und teurer macht und zudem muss die Odometrie der überlappenden Sensoren bekannt sein.
  • Die DE 10 2017 222 183 A1 offenbart ein Verfahren zum Überwachen mehrerer Umgebungssensoren eines Kraftfahrzeugs, wobei zunächst zumindest ein Objekt in einer Umgebung des Kraftfahrzeugs mit einem Umgebungssensor der mehreren Umgebungssensoren erfasst wird, anschließend der Umgebungssensor anhand eines zu dem zumindest einen Objekt erfassten Merkmals als der das zumindest eine Objekt erfassende Umgebungssensor aus den mehreren Umgebungssensoren zugeordnet wird, in einem weiteren Verfahrensschritt das Kraftfahrzeug anhand des zumindest einen erfassten Objekts in einer digitalen Karte lokalisiert wird, wobei dem zumindest einen Objekt ein Referenzobjekt auf der digitalen Karte zugeordnet ist, und eine Dekalibrierung des Umgebungssensors der mehreren Umgebungssensoren durch Auswerten eines Dekalibrierungskriteriums unter Berücksichtigung des erfassten zumindest einen Objekts durch den dem erfassten Objekt zugeordneten Umgebungssensor und des Referenzobjekts ermittelt wird.
  • Die EP 2 761 324 B1 offenbart ein Verfahren zur Bestimmung extrinsischer Kalibrierparameter zwischen einem Sensorrahmen und einem Basisrahmen einer transportierbaren Vorrichtung für mindestens einen Sensor.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung wurde hinsichtlich der vorstehend beschriebenen Problematik entwickelt, und es ist Aufgabe der vorliegenden Erfindung, bei der Verwendung mehrerer Sensoren mit unterschiedlichen Sichtfeldern einen verbesserten Sichtfeld-Überlapp zu erreichen.
  • Diese Aufgabe wird durch die Vorrichtung nach Anspruch 1, das Fahrzeug nach Anspruch 9 und das Verfahren nach Anspruch 10 gelöst. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen und der folgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung.
  • Die vorliegende Erfindung stellt eine Vorrichtung zur verbesserten Multi-Radar-Sensor-Kalibration bereit.
  • Die Ausführungsbeispiele zeigen eine Vorrichtung mit einem Prozessor, der dazu ausgelegt ist, die Ausrichtung mehrerer Umfeldsensoren eines Fahrzeugs zu ermitteln, indem bei bekannter Ego-Bewegung des Fahrzeugs eine Optimierung von Ausrichtungsparametern der Umfeldsensoren im Hinblick auf eine Abweichung der von den Umfeldsensoren ermittelten Messungen von einem aus der bekannten Ego-Bewegung erwartetem Modellverlauf vorgenommen wird.
  • Bei der Vorrichtung kann es sich beispielsweise um eine elektronische Steuereinheit (ECU) eines Fahrzeugs handeln. Die Steuerungseinheit kann beispielsweise eine elektronische Steuereinheit einer Radareinheit eines autonomen Fahrzeugs, z.B. einer Radarsensorarchitektur sein. Die elektronische Steuereinheit kann dabei speziell für die Auswertung von Sensordaten vorgesehen sein, eine zentrale Steuereinheit sein, oder auch eine Steuereinheit für autonomes oder teilautonomes Fahren. Bei dem Prozessor der Radarsteuerungseinheit kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Verarbeitungseinheit (CPU = central processing unit) handeln, die Programminstruktionen ausführt.
  • Die erfindungsgemäßen Prinzipien können auf beliebige Umfeldsensoren angewandt werden, bevorzugt jedoch Radarsensoren, Lidarsensoren, Kamerasensoren, oder dergleichen.
  • Die Umfeldsensoren stellen ihre Messergebnisse in Form von einzelnen Messungen von jeweils Entfernung und Azimutwinkel und ggf. auch einem Elevationswinkel bereit, die beispielsweise als Messpunkte (auch „Ziele“ genannt) in eine Rasterkarte eingetragen werden können. Die Messpunkte gehören zu Zielobjekten wie beispielsweise Verkehrsteilnehmer oder Hindernisse auf einer Straße, die von dem Umfeldsensor erfasst werden.
  • Vorzugsweis ist der Prozessor dazu ausgelegt ist, einen Fehler zwischen gemessenen Radialgeschwindigkeiten und aus dem Modellverlauf erwarteten Radialgeschwindigkeiten zu minimieren.
  • Insbesondere kann der Prozessor dazu ausgelegt sein, einen quadratischen Fehler durch einen nichtlinearen Optimierer zu minimieren.
  • Ferner kann der Prozessor dazu ausgelegt ist, ein Gleichungssystem nach den Ausrichtungsparametern zu lösen.
  • Auch kann der Prozessor dazu ausgelegt sein, die Ausrichtungsparameter durch Abtasten in einem bestimmten Bereich und durch Auswahl jenes Parametersatzes abzuschätzen, welcher die Kovarianz eines Radialgeschwindigkeits-Fits minimiert.
  • Bevorzugt ist der Prozessor dazu ausgelegt ist, auf Grundlage des gefundenen Satzes an Ausrichtungsparametern die relative Ausrichtung der jeweiligen Sichtfelder der Umfeldsensoren zueinander zu bestimmen.
  • Insbesondere kann der Prozessor dazu ausgelegt sein, auf Grundlage der relativen Ausrichtung der jeweiligen Sichtfelder der Umfeldsensoren Messungen der Umfeldsensoren zu einem Gesamtbild zusammenzufügen.
  • Die Ausführungsbeispiele offenbaren auch ein Fahrzeug, umfassend mehrere Umfeldsensoren, sowie eine Vorrichtung nach einem der vorangehenden Ansprüche, die dazu ausgelegt ist, aus der bekannten Ego-Bewegung des Fahrzeugs die Ausrichtung der Umfeldsensoren zu ermitteln. Bei dem Fahrzeug kann es sich beispielsweise um ein einen PKW, einen LKW oder dergleichen handeln. Insbesondere kann es sich auch um ein autonomes oder teilautonomes Kraftfahrzeug handeln, das auf Grundlage der Messdaten eine autonome oder teilautonome Steuerung des Kraftfahrzeug vornimmt. Auch kann es sich bei dem Fahrzeug um ein fahrerloses Transportsystem (FTS), ein Schienenfahrzeug, eine Drohne oder ein Boot handeln.
  • Die Ausführungsbeispiele zeigen auch ein Verfahren zur Ermittlung der Ausrichtung ein oder mehrerer Umfeldsensoren eines Fahrzeugs, bei dem bei bekannter Ego-Bewegung des Fahrzeugs eine Optimierung von Ausrichtungsparameter der Umfeldsensoren im Hinblick auf eine Abweichung der von den Umfeldsensoren ermittelten Messungen von einem aus der bekannten Ego-Bewegung erwartetem Modellverlauf vorgenommen wird.
  • Hierbei wird ein kontinuierlicher Sichtfeld-Überlapp mehrerer Sensoren erreicht, indem die Informationen von Radialgeschwindigkeit, Azimuth- und Elevationswinkel der einzelnen Sensoren ausgewertet werden.
  • BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELEN
  • Im Folgenden wird die Erfindung anhand der in den Figuren dargestellten Ausführungsformen beispielhaft erläutert.
    • 1 zeigt ein Blockdiagramm, das schematisch die Konfiguration eines Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt.
    • 2 zeigt ein Fahrzeug, ausgerüstet mit drei Sensoren mit überlappenden Sichtfeldern.
    • 3a zeigt schematisch die Messwerte eines zweidimensionalen Messsystems, welches eine Radialgeschwindigkeit und einen Seitenwinkel erfasst, jedoch keinen Höhenwinkel liefert.
    • 3b zeigt schematisch den Vektor der Radialgeschwindigkeit v r
      Figure DE102019211327B4_0002
      und der gesamte Geschwindigkeitsvektor v t o t
      Figure DE102019211327B4_0003
      mit dem translatorischen Anteil v e
      Figure DE102019211327B4_0004
      und dem rotatorischen Anteil Ω p s e .
      Figure DE102019211327B4_0005
    • 4 zeigt schematisch ein Fahrzeug mit drei (Radar-)Sensoren, nämlich zwei Seitensensoren und einem Frontsensor mit überlappenden Sichtbereichen.
    • 5a zeigt einen beispielhaften Fall, in dem die Ausrichtungswinkel zweier Sensoren (Seitensensor und Frontsensor), nicht optimal gewählt sind, insbesondere von einer falschen Ausrichtung des Seitensensors ausgegangen wird. Eine an die Ziele beider Sensoren angepasste Kurve hat eine geringe Kovarianz.
    • 5b zeigt einen beispielhaften Fall, in dem die Ausrichtungswinkel zweier Sensoren (Seitensensor und Frontsensor), nicht optimal gewählt sind, d.h. von einer korrekten Ausrichtung des Seitensensors ausgegangen wird. Eine an die Ziele beider Sensoren angepasste Kurve hat eine geringe Kovarianz.
  • 1 zeigt ein Blockdiagramm, das schematisch die Konfiguration eines Fahrzeugs 10 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt. Das Fahrzeug 10 umfasst mehrere elektronische Komponenten, welche via eines Fahrzeugkommunikationsnetzwerks 28 miteinander verbunden sind. Das Fahrzeugkommunikationsnetzwerk 28 kann beispielsweise ein im Fahrzeug eingebautes standardgemäßes Fahrzeugkommunikationsnetzwerk wie etwa ein CAN-Bus (controller area network), ein LIN-Bus (local interconnect network), ein LAN-Bus (local area network), ein MOST-Bus und/oder ein FlexRay-Bus (registered trademark) oder dergleichen sein.
  • In dem in 1 dargestellten Beispiel umfasst das Fahrzeug 10 eine Steuereinheit 12 (ECU 1) für ein Bremssystem. Das Bremssystem bezieht sich dabei auf die Komponenten, die ein Bremsen des Fahrzeugs ermöglichen. Das Fahrzeug 10 umfasst ferner eine Steuereinheit 14 (ECU 2), die einen Antriebsstrang steuert. Der Antriebsstrang bezieht sich dabei auf die Antriebskomponenten des Fahrzeugs. Der Antriebsstrang kann einen Motor, ein Getriebe, eine Antriebs-/ Propellerwelle, ein Differential und einen Achsantrieb umfassen. Das Fahrzeug 10 umfasst ferner eine Steuereinheit 16 (ECU 3), die ein Lenksystem steuert. Das Lenksystem bezieht sich dabei auf die Komponenten, die eine Richtungssteuerung des Fahrzeugs ermöglichen. Das Fahrzeug 10 umfasst des Weiteren eine Steuereinheit 40 (ECU 4), welche in der Lage ist, das im folgenden beschriebene Verfahren auszuführen und auf diese Weise aus den Sensordaten der Umfeldsensoren 26 ein kontinuierliches, gemeinsames Sichtfeld aller Sensoren zu berechnen.
  • Die Steuereinheiten 12, 14, 16 und 40 können ferner von den oben genannten Fahrzeugsubsystemen Fahrzeugbetriebsparameter empfangen, die diese mittels einem oder mehreren Fahrzeugsensoren erfassen. Fahrzeugsensoren sind vorzugsweise solche Sensoren, die einen Zustand des Fahrzeugs oder einen Zustand von Fahrzeugteilen erfassen, insbesondere deren Bewegungszustand. Die Sensoren können einen Fahrgeschwindigkeitssensor, einen Gierraten-Sensor, einen Beschleunigungssensor, einen Lenkradwinkelsensor, einen Fahrzeuglastsensor, Temperatursensoren, Drucksensoren und dergleichen umfassen. Beispielsweise können auch Sensoren entlang der Bremsleitung angeordnet sein, um Signale auszugeben, die den Bremsflüssigkeitsdruck an verschiedenen Stellen entlang der hydraulischen Bremsleitung anzeigen. Andere Sensoren in der Nähe des Rades können vorgesehen sein, welche die Radgeschwindigkeit und den Bremsdruck erfassen, der am Rad aufgebracht wird.
  • Die Fahrzeugsensorik des Fahrzeugs 10 umfasst darüber hinaus eine Satellitennavigationseinheit 24 (GNSS-Einheit). Es sei darauf hingewiesen, dass im Kontext der vorliegenden Erfindung GNSS stellvertretend für sämtliche Globale Navigationssatellitensysteme (GNSS) steht, wie z.B. GPS, AGPS, Galileo, GLONASS (Russland), Compass (China), IRNSS (Indien) und dergleichen.
  • Das Fahrzeug 10 umfasst ferner ein oder mehrere Sensoren, welche dazu ausgelegt sind, das Umfeld des Fahrzeugs zu erfassen, wobei die Sensoren am Fahrzeug montiert sind und Bilder des Umfelds des Fahrzeugs erfassen, oder Objekte oder Zustände im Umfeld des Fahrzeugs erkennen. Die Umfeldsensoren 26 umfassen insbesondere Kameras, Radar-Sensoren, Lidar-Sensoren, Ultraschall-Sensoren oder dergleichen. Die Umfeldsensoren 26 können innerhalb des Fahrzeugs oder außerhalb des Fahrzeugs (z. B. an der Außenseite des Fahrzeugs) angeordnet sein. Beispielsweise kann eine Kamera in einem vorderen Bereich des Fahrzeugs 10 zur Aufnahme von Bildern eines vor dem Fahrzeug befindlichen Bereichs vorgesehen sein.
  • Das Fahrzeug 10 umfasst ferner eine Benutzerschnittstelle 21 (HMI = Human-Machine-Interface), die einem Fahrzeuginsassen ermöglicht, mit einem oder mehreren Fahrzeugsystemen in Interaktion zu stehen. Diese Benutzerschnittstelle 21 (beispielsweise eine GUI = Graphical User Interface) kann eine elektronische Anzeige zum Ausgeben einer Graphik, von Symbolen und/oder Inhalt in Textform, und eine Eingabeschnittstelle zum Empfangen einer Eingabe (beispielsweise manuelle Eingabe, Spracheingabe und Eingabe durch Gesten, Kopf- oder Augenbewegungen) umfassen. Die Eingabeschnittstelle kann beispielsweise Tastaturen, Schalter, berührungsempfindliche Bildschirme (Touchscreen), Eye-Tracker und dergleichen umfassen.
  • 2 zeigt schematisch eine erfindungsgemäße Sensordatenverarbeitungseinheit 40. Alle Bestandteile der Sensordatenverarbeitungseinheit 40 sind über ein internes Kommunikationsnetzwerk 46 verbunden. Bei der Sensordatenverarbeitungseinheit 40 kann es sich beispielsweise um ein Steuergerät (Electronic Control Unit, ECU oder Electronic Control Module, ECM) handeln. Die Sensordatenverarbeitungseinheit 40 umfasst einen Prozessor 41. Bei dem Prozessor 41 kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Verarbeitungseinheit (CPU = Central Processing Unit) handeln, die Programminstruktionen ausführt. Die Sensordatenverarbeitungseinheit 40 umfasst ferner einen Nur-Lese-Speicher 43 (ROM = Read-Only Memory) und einem Direktzugriffsspeicher 42 (RAM = Random Access Memory) (z. B. dynamischer RAM („DRAM“), synchron DRAM („SDRAM“) usw.). Diese Speicher können Programme mit Programminstruktionen und Daten speichern. Ferner kann die Sensordatenverarbeitungseinheit 40 ein externes Speicherlaufwerk 44, wie beispielsweise ein externes Festplattenlaufwerk (hard disk drive: HDD), ein Flashspeicher-Laufwerk oder ein nicht flüchtiges Festkörperlaufwerk (solid state drive: SSD) umfassen. Die Sensordatenverarbeitungseinheit 40 umfasst ferner eine Kommunikationsschnittstelle 45, hier ein CAN-Interface, über welche die Steuereinheit mit dem Fahrzeugkommunikationsnetzwerk (28 in 1) kommunizieren kann.
  • In 3a sind schematisch die Messwerte eines zweidimensionalen Messsystems dargestellt, welches eine Radialgeschwindigkeit und einen Seitenwinkel erfasst, jedoch keinen Höhenwinkel liefert. Die Messdaten des Radar-Messsystems werden wie üblich verarbeitet (beispielsweise in einem Mikroprozessor, wie dem Mikroprozessor 41 der Sensordatenverarbeitungseinheit der 2), um eine Zielliste bereitzustellen. Dies erfolgt beispielsweise über zwei Fourier-Transformationen, durch die eine Range-Doppler-Map bereitgestellt wird. Die Range-Doppler-Map umfasst die Informationen über den Radialabstand, die Radialgeschwindigkeit und unter welchem Winkel, Höhenwinkel und/oder Seitenwinkel, ein Ziel auftritt. Die Range-Doppler-Map stellt dementsprechend eine Art von Zielliste dar. In der 3a ist eine beispielhafte Zielliste dargestellt, wobei gegenüber der X-Achse der Seitenwinkel ϕ und gegenüber der Y-Achse die Radialgeschwindigkeit vr aufgetragen ist. Der Radialabstand ist in der Darstellung nicht aufgetragen. Das Kraftfahrzeug 10 bewegt sich während eines Messvorgangs beispielhaft mit einer Eigengeschwindigkeit. Für die Erläuterungen dieses Beispiels werden Lenk- sowie Rotationsbewegungen des Kraftfahrzeugs vernachlässigt. Das Prinzip kann jedoch auch auf Lenk- sowie Rotationsbewegungen erweitert werden.
  • In der 3a sind beispielhaft Ziele 66a, 66b (Messungen) eines Messvorgangs dargestellt. Die Ziele 66a, 66b sind durch Kreise sowie durch Quadrate eingezeichnet, welche jeweilige Ziele repräsentieren. Zur Vereinfachung werden hier nur statische Ziele berücksichtigt. Ein statisches Ziel ist fest mit einem Untergrund verbunden oder bewegt sich über gegenüber dem Untergrund nicht. Die statischen Ziele weisen eine absolute Relativgeschwindigkeit gegenüber dem Kraftfahrzeug auf, welche der Bewegungsgeschwindigkeit des Kraftfahrzeugs entspricht. Mobile Ziele sind demgegenüber Ziele, welche sich selbst gegenüber dem Untergrund bewegen und dadurch eine Relativgeschwindigkeit aufweisen, die sich von der Fahrzeuggeschwindigkeit unterscheidet. Mobile Ziele können beispielsweise aufgrund von Fußgängern, Radfahrern oder andere Kraftfahrzeuge auftreten.
  • Das Radar-Messsystem ermittelt anstelle der absoluten Relativgeschwindigkeit die Radialgeschwindigkeit vr aller Ziele 66a, 66b. Die Radialgeschwindigkeit aller Ziele 66a hängt von den Winkeln ϕ, θ (Azimut- (Seitenwinkel) und Elevationswinkel) ab, unter dem das Ziel 66a gegenüber dem Fahrzeug auftritt. Es ist bekannt, dass die Verteilung der statischen Ziele 66a durch eine statische Funktion gegeben ist. Diese statische Funktion, hier vereinfacht als „Cosinus-Funktion“ bezeichnet (die theoretische Funktion hat weitere Terme, man spricht nur zur Vereinfachung von einem „Cosinus“), entspricht der theoretischen Verteilung der statischen Ziele und hängt unter anderem von der aktuellen Eigenbewegung des Kraftfahrzeugs (sowie ggf. von einem oder mehreren Kalibrierungsparametern) ab.
  • Sei v e
    Figure DE102019211327B4_0006
    der Geschwindigkeitsvektor des Fahrzeugs (zur Vereinfachung sei nur die Geschwindigkeitskomponente v x e
    Figure DE102019211327B4_0007
    in x-Richtung betrachtet) im Ego-Rahmen (Eigengeschwindigkeit), p s e
    Figure DE102019211327B4_0008
    der Positionsvektor des Sensors im Ego-Rahmen und sei ωi die Drehgeschwindigkeit im Ego-Rahmen um die i-te Achse (i=x,y,z) mit entsprechender Rotationsmartrix Ω, so kann die die statische Funktion f für die Radialgeschwindikeit vrad für den Fall eines ideal positionierten und ausgerichteten Sensors wie folgt formuliert werden: v r a d = ( r r ) T [ v e + Ω p s e ] = ƒ ( ω z , v x e , θ , ϕ )
    Figure DE102019211327B4_0009
    mit r = r ( cos ( θ ) cos ( ϕ ) cos ( θ ) sin ( ϕ ) sin ( θ ) )
    Figure DE102019211327B4_0010
    p s e = [ t x , t y , t z ] T
    Figure DE102019211327B4_0011
    v s e = [ v x e ,0,0 ] T
    Figure DE102019211327B4_0012
    v s e = v t o t = v e + Ω p s e
    Figure DE102019211327B4_0013
  • Der Vektor der Radialgeschwindigkeit v r
    Figure DE102019211327B4_0014
    und der gesamte Geschwindigkeitsvektor v s e
    Figure DE102019211327B4_0015
    des Sensors mit dem translatorischen Anteil v s e
    Figure DE102019211327B4_0016
    und dem rotatorischen Anteil Ω p s e
    Figure DE102019211327B4_0017
    sind in 6b schematisch dargestellt.
  • Im zweidimensionalen Fall, der in 3a dargestellt ist, kann unter Annahme von ωx = ωy = 0 die Rotationsmatrix wie folgt dargestellt werden Ω = [ 0 ω z 0 ω z 0 0 0 0 0 ]
    Figure DE102019211327B4_0018
  • Zur Veranschaulichung unter Vernachlässigung von Elevationswinkeln der Ziele r = r ( cos ( ϕ ) sin ( ϕ ) 0 )
    Figure DE102019211327B4_0019
    vereinfacht sich die statische Funktion f zu v r a d = ( r r ) T [ v e + Ω p s e ] = ƒ ( ω z , v x e , ϕ )
    Figure DE102019211327B4_0020
  • D.h. die statische Funktion f hängt im Wesentlichen von cos(ϕ) und weiteren Termen, sowie von der Ego-Geschwindigkeit v x e
    Figure DE102019211327B4_0021
    und der Drehgeschwindigkeit ωz des Ego-Fahrzeugs ab. Die Ego-Geschwindigkeit v x e
    Figure DE102019211327B4_0022
    und der Drehgeschwindigkeit ωz des Ego-Fahrzeugs kann folglich mittels Regression gewonnen werden.
  • Unter Vernachlässigung jeglicher Fahrzeugrotation, d.h. ωx = ωy = ωz = 0 gilt: v r a d = ( r r ) T v s e = ƒ ( v x e , ϕ )
    Figure DE102019211327B4_0023
  • D.h. die statische Funktion f hängt im Wesentlichen von cos(ϕ) und weiteren Termen, sowie von der Ego-Geschwindigkeit v x e
    Figure DE102019211327B4_0024
    ab.
  • Die theoretische Verteilung f der statischen Zeile für den oben beschriebenen zweidimensionalen Fall ist in 3a als Linie 60 dargestellt. Die Messpunkte der statischen Ziele sind entlang dieser theoretische Verteilung 60 zu erwarten. Die mobilen Ziele weisen je nach Relativgeschwindigkeit einen entsprechenden Abstand von der Cosinus-Funktion 60 auf. Die Ermittlung der statischen Ziele erfolgt beispielsweise mithilfe dieser statischen Funktion 60, indem auf Grundlage der theoretischen Vorhersage (Cosinus-Verlauf) und auf Grundlage von beispielsweise Messergebnissen eines vorherigen Messrahmens oder durch eine Schätzung der aktuellen Eigenbewegung des Fahrzeugs ein Näherungsverlauf der statischen Kurve 60 ermittelt wird.
  • 4 zeigt schematisch ein Fahrzeug mit drei (Radar-)Sensoren, nämlich zwei Seitensensoren und einem Frontsensor mit überlappenden Sichtbereichen. Wie bereits in 1 erwähnt, kann es sich bei den Sensoren um einen Radar, einen Lidar, einen Kamera-Sensor oder dergleichen handeln, der beispielsweise Radialgeschwindigkeit, radialer Abstand, Azimut- (Seitenwinkel) und Elevationswinkel von Zielen bestimmen kann. Jeder der Umfeldsensoren besitzt ein eigenes Sichtfeld, wobei die Sichtfelder benachbarter Sensoren überlappen.
  • Wie in der Beschreibung von 3a, 3b bereits erwähnt, zeigen nur statische Objekte als Ziel den konkreten Verlauf einer Cosinus-Kurve. Im Falle eines dynamischen Ziels verschmiert der Cosinus. Betrachtet man jedoch eine ausreichend statische Umgebung so mitteln sich die verschiedenen Effekte einzelner dynamischer Ziele im Gesamtbild heraus, sodass nicht notwendigerweise eine Unterscheidung zwischen dynamischen und statischen Zielen vorgenommen werden muss. Die Umwelt sollte während des Messvorgangs folglich ausreichend „statisch“ sein. Alternativ kann auch ein dem Fachmann bekanntes Verfahren verwendet werden, um statische Ziele von dynamischen Zielen zu unterscheiden und um dynamische Ziele zu verwerfen.
  • Angenommen, der Sensor ist um Winkel ψextext gegenüber die Fahrtrichtung verstellt (im Folgenden „Ausrichtungswinkel“ genannt) und angenommen, die Verstellung ϕext ≈ 0, dann wird die Rotation zwischen dem versetzten Sensorrahmen und dem Fahrzeugrahmen mit den folgenden 3D-Drehmatrizen definiert: R s e = R z ( ψ e x t ) R y ( θ e x t ) R x ( ϕ e x t = 0 )
    Figure DE102019211327B4_0025
    R e s = ( R s e ) T
    Figure DE102019211327B4_0026
    R z ( ψ e x t ) = [ cos ( ψ e x t ) sin ( ψ e x t ) 0 sin ( ψ e x t ) cos ( ψ e x t ) 0 0 0 1 ]
    Figure DE102019211327B4_0027
    R y ( θ e x t ) = [ cos ( θ e x t ) 0 sin ( θ e x t ) 0 1 0 sin ( θ e x t ) 0 cos ( θ e x t ) ]
    Figure DE102019211327B4_0028
    R x ( ϕ e x t ) = [ 1 0 0 0 cos ( ϕ e x t ) sin ( ϕ e x t ) 0 sin ( ϕ e x t ) cos ( ϕ e x t ) ]
    Figure DE102019211327B4_0029
  • Die statische Funktion f kann damit wie folgt formuliert werden: v r a d = ( r r ) T R e s [ v e + Ω p s e ] = ƒ ( ω z , v x e , ψ e x t , ϕ e x t , θ , ϕ )
    Figure DE102019211327B4_0030
  • Mit r ^ = r ^ r
    Figure DE102019211327B4_0031
    und dem Positionsvektor p s e
    Figure DE102019211327B4_0032
    des Sensors im Ego-Rahmen, der in den nötigen Genauigkeitsanforderungen als bekannt angenommen werden kann und zur Vereinfachung der Darstellung im den folgenden Formeln vernachlässigt wird, vereinfacht sich dies zu v r a d = ( r r ) T R e s v s e = ƒ ( ω z , v x e , ψ e x t , θ e x t , θ , ϕ )
    Figure DE102019211327B4_0033
  • Betrachtet man nun ein System, das mehrere Sensoren umfasst, so kann die Radialgeschwindigkeit des j-ten Ziels, gemessen mit dem i-ten Sensor, wie folgt ausgedrückt werden: v r a d , i , j = r ^ i , j T R s e T ( ψ e x t , i , θ e x t , i ) v s e
    Figure DE102019211327B4_0034
  • Dabei ist v s e
    Figure DE102019211327B4_0035
    die Ego-Geschwindigkeit und ψext,i, θext,i sind die Ausrichtungswinkel des i-ten Sensors in Bezug auf den Fahrzeugrahmen.
  • Für k-Sensoren kann dies wie folgt ausgedrückt werden: ( v r a d ,1,1 v r a d ,1, N 1 v r a d , k , N k v r a d , k , N k ) = ( r ^ 1,1 T R T ( ψ e x t ,1 , θ e x t ,1 ) r ^ 1, N 1 T R T ( ψ e x t ,1 , θ e x t ,1 ) r ^ k ,1 T R T ( ψ e x t , k , θ e x t , k ) r ^ k , N k T R T ( ψ e x t , k , θ e x t , k ) ) v s e
    Figure DE102019211327B4_0036
  • Mit bekannter Ego-Geschwindigkeit v s e
    Figure DE102019211327B4_0037
    kann das Gleichungssystem nach den Ausrichtungswinkeln ψext,i, θext,i gelöst werden, indem man den quadratischen Fehler zwischen gemessenen und erwarteten Radialgeschwindigkeiten minimiert. Wenn andererseits die Ausrichtungswinkel ψext,i, θext,i bekannt sind, kann man nach der Ego-Geschwindigkeit lösen, indem man das lineare Gleichungssystem löst und den kleinsten quadratischen Fehler minimiert.
  • Informationen über Ego-Bewegung v e ,
    Figure DE102019211327B4_0038
    Ω des Fahrzeugs liegen typischerweise in einer zentralen Fahrzeugsteuereinheit zum Abruf bereit und werden üblicherweise mit Sensoren, wie beispielsweise Radumlaufgeschwindigkeitssensoren, Ortsensoren (GPS), Beschleunigungsmessern, Gyroskopen, oder dergleichen ermittelt und werden im Folgenden als bekannt erachtet. Daraus und unter Kenntnis der Position des Sensors lässt sich wie durch obige Formel dargelegt der gesamte Geschwindigkeitsvektor vs des Sensors ermitteln.
  • Erfindungsgemäß werden bei bekannter Ego-Bewegung die Ausrichtungswinkel ψext,i, θext,i geschätzt. Dies kann beispielsweise durch ein Ausgleichungsverfahren, hier beispielsweise einem mathematischen Standardverfahren wie dem Least-Square-Fit erfolgen. Beim Least-Square-Verfahren (auch „Methode der kleinsten Quadrate“) wird zur Datenpunktwolke (hier Radarziele) eine Kurve gesucht, die möglichst nahe an den Datenpunkten verläuft. Das Least-Square-Verfahren besteht darin, die Ausrichtungswinkel ψext,i, θext,i so zu bestimmen, dass die Summe der quadratischen Abweichungen der aus dem Modell erwarteten Kurve von den beobachteten Punkten minimiert wird. Durch Mininimierung des quadratischen Fehlers wird folglich ein optimaler Satz an Ausrichtungswinkeln ψext,i, θext,i gefunden, welche eine Ego-Bewegungsschätzung mit minimaler Varianz liefern.
  • In den 5a und 5b ist ein Beispiel für die Optimierung der Ausrichtungswinkel eines Front- und eines Seitensensors in 2D dargestellt. In 5a ist ein beispielhafter Fall gezeigt, in dem die Ausrichtungswinkel der Sensoren nicht optimal gewählt sind, insbesondere von einer falschen Ausrichtung des Seitensensors ausgegangen wird. Eine an die Ziele beider Sensoren angepasste Kurve hat eine große Kovarianz. Es ergeben sich Radialgeschwindigkeiten, die nicht gut in das Radialgeschwindigkeitsprofil der vorhergesagten Kurve passen. In 5b ist dagegen ein beispielhafter Fall gezeigt, in dem die Ausrichtungswinkel der Sensoren optimal gewählt sind, d.h. von einer korrekten Ausrichtung des Seitensensors ausgegangen wird. Eine an die Ziele beider Sensoren angepasste Kurve hat eine geringe Kovarianz.
  • Mit dieser Methode werden die Ausrichtungswinkel ψext,1, θext,1 ...ψext,k θext,k abgeschätzt durch Abtasten in einem bestimmten Bereich und Auswahl jenes Parametersatzes, welcher die Kovarianz des Radialgeschwindigkeits-Fits minimiert. Dieses Abtasten kann mit dem Metropolis-Hastings-Verfahren oder ähnlichen Methoden durchgeführt werden.
  • Alternativ zur obigen stichprobenbasierten Methode zur Schätzung der Parameter ψext,1 θext,1 ... , ψext,k, θext,k kann auch der Fehler der kleinsten Quadrate (LSQ) mit einem nichtlinearen Optimierer wie Levenberg-Marquardt mit beispielsweise der folgenden Kostenfunktion minimiert werden: argmin β i = 1 M j = 1 N i | v r a d , i , j + r ^ i , j T R T ( β ) v s e | 2
    Figure DE102019211327B4_0039
    wobei β = [ ψ e x t ,1 , θ e x t ,1 , ψ e x t , M , θ e x t , M ]
    Figure DE102019211327B4_0040
    und M die Anzahl der Sensoren bezeichnet.
  • Der gefundenen Satz an Ausrichtungswinkeln ψext,i, θext,i enthält die Information über die realen Einbauwinkel aller Sensoren und kann daher herangezogen werden, um die relative Ausrichtung der einzelnen Sichtfelder zueinander zu bestimmen und somit, um die einzelnen Detektormessungen zu einem großen Gesamtbild zusammenzufügen. Dies erfolgt mit dem Fachmann bekannten Mitteln, indem beispielsweise die Messungen mittels der Ausrichtungswinkel ψext,i, θext,i in ein gemeinsames Rasterbild übertragen werden.
  • Die Eigengeschwindigkeit des Fahrzeugs, auf welchem die Sensoren montiert sind, sollte vorzugsweise 10m/s übersteigen, damit ein signifikanter Unterschied zwischen beispielsweise den Linienverläufen der Sensoren (beispielsweise Front- und eines Seitensensor der 5a und 5b) erkennbar ist. Auch sollte das Fahrzeug während des Messvorgangs nicht schlagartig sein Bewegungsverhalten ändern. Ein hoch dynamisches Fahrverhalten des Fahrzeugs würde die Ergebnisse der im folgenden beschriebenen Berechnungen verschlechtern.
  • Das vorgeschlagene Verfahren kann auf Grundlage der hier angegebenen Prinzipien und Gleichungen im allgemeinen 3D-Raum beschrieben werden und wurde nur Veranschaulichung mit Messungen von 2D-Sensor aufgezeigt, in diesem Fall nur abhängig von Radialgeschwindigkeit und Azimutwinkel.
  • Bezugszeichen
  • 10
    Kraftfahrzeug
    12
    ECU 1 Bremssystem
    14
    ECU 2 Antriebsstrang
    16
    ECU 3 Lenksystem
    21
    HMI
    24
    GNSS
    26
    Sensor
    30
    Ideallinie
    31
    Punktwolke eines ersten Sensors
    32
    Punktwolke eines zweiten Sensors
    33
    Punktwolke eines dritten Sensors
    34
    Punktwolke eines vierten Sensors
    35
    Punktwolke eines fünften Sensors
    36
    Punktwolke eines sechsten Sensors
    37
    Punktwolke eines siebten Sensors
    40
    Steuereinheit, ECU 4 Sensorverarbeitung
    60
    statische Cosinusfunktion
    66a
    Punktwolke eines ersten statischen Ziels
    66b
    Punktwolke eines zweiten statischen Ziels

Claims (10)

  1. Vorrichtung umfassend einen Prozessor (40), der dazu ausgelegt ist, die Ausrichtung mehrerer Umfeldsensoren (26) eines Fahrzeugs zu ermitteln, indem bei bekannter Ego-Bewegung ( v e , Ω )
    Figure DE102019211327B4_0041
    des Fahrzeugs Ausrichtungsparameter (ψext,i, θext,i) der Umfeldsensoren (26) basierend auf einer Optimierung von aus einem von den Ausrichtungsparametern (ψext,i, θext,i) abhängenden Modellverlauf (60) erwarteten Radialgeschwindigkeiten an von mit den Umfeldsensoren (26) gemessenen Radialgeschwindigkeiten (66a, 66b) von Zielen bestimmt werden.
  2. Vorrichtung nach Anspruch 1, wobei der Prozessor (40) dazu ausgelegt ist, einen Fehler zwischen gemessenen Radialgeschwindigkeiten (vrad,i,j) und aus dem Modellverlauf (60) erwarteten Radialgeschwindigkeiten ( r ^ i , j T R s e T ( ψ e x t , i , θ e x t , i ) v s e )
    Figure DE102019211327B4_0042
    zu minimieren.
  3. Vorrichtung nach Anspruch 2, wobei der Prozessor (40) dazu ausgelegt ist, einen quadratischen Fehler durch einen nichtlinearen Optimierer zu minimieren.
  4. Vorrichtung nach einem der vorangehenden Ansprüche, wobei der Prozessor (40) dazu ausgelegt ist, ein Gleichungssystem nach den Ausrichtungsparametern (ψext,i, θext,i) zu lösen.
  5. Vorrichtung nach einem der vorangehenden Ansprüche, wobei der Prozessor (40) dazu ausgelegt ist, die Ausrichtungsparameter (ψext,i, θext,i) durch Abtasten in einem bestimmten Bereich und durch Auswahl jenes Parametersatzes abzuschätzen, welcher die Kovarianz eines Radialgeschwindigkeits-Fits minimiert.
  6. Vorrichtung nach einem der vorangehenden Ansprüche, wobei der Prozessor (40) dazu ausgelegt ist, auf Grundlage des gefundenen Satzes an Ausrichtungsparametern (ψext,i, θext,i) die relative Ausrichtung der jeweiligen Sichtfelder der Umfeldsensoren (26) zueinander zu bestimmen.
  7. Vorrichtung nach einem der vorangehenden Ansprüche, wobei der Prozessor (40) dazu ausgelegt ist, auf Grundlage der relativen Ausrichtung der jeweiligen Sichtfelder der Umfeldsensoren (26) Messungen der Umfeldsensoren (26) zu einem Gesamtbild zusammenzufügen.
  8. Vorrichtung nach einem der vorangehenden Ansprüche, wobei es sich bei den Umfeldsensoren (26) um Radar, Lidar oder Kamera-Sensoren handelt.
  9. Fahrzeug, umfassend mehrere Umfeldsensoren (26), sowie eine Vorrichtung nach einem der vorangehenden Ansprüche, die dazu ausgelegt ist, aus der bekannten Ego-Bewegung ( v e , Ω )
    Figure DE102019211327B4_0043
    des Fahrzeugs die Ausrichtung der Umfeldsensoren (26) zu ermitteln.
  10. Verfahren zur Ermittlung der Ausrichtung ein oder mehrerer Umfeldsensoren (26) eines Fahrzeugs, bei dem bei bekannter Ego-Bewegung ( v e , Ω )
    Figure DE102019211327B4_0044
    des Fahrzeugs Ausrichtungsparametern (ψext,i, θext,i) der Umfeldsensoren (26) basierend auf einer Optimierung von aus einem von den Ausrichtungsparametern (ψext,i, θext,i) abhängenden Modellverlauf (60) erwarteten Radialgeschwindigkeiten an von mit den Umfeldsensoren (26) gemessenen Radialgeschwindigkeiten (66a, 66b) von Zielen bestimmt werden.
DE102019211327.3A 2019-07-30 2019-07-30 Vorrichtung, Fahrzeug und Verfahren zur verbesserten Multi-Radar-Sensor-Kalibration Active DE102019211327B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019211327.3A DE102019211327B4 (de) 2019-07-30 2019-07-30 Vorrichtung, Fahrzeug und Verfahren zur verbesserten Multi-Radar-Sensor-Kalibration

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019211327.3A DE102019211327B4 (de) 2019-07-30 2019-07-30 Vorrichtung, Fahrzeug und Verfahren zur verbesserten Multi-Radar-Sensor-Kalibration

Publications (2)

Publication Number Publication Date
DE102019211327A1 DE102019211327A1 (de) 2021-02-04
DE102019211327B4 true DE102019211327B4 (de) 2024-02-08

Family

ID=74174795

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019211327.3A Active DE102019211327B4 (de) 2019-07-30 2019-07-30 Vorrichtung, Fahrzeug und Verfahren zur verbesserten Multi-Radar-Sensor-Kalibration

Country Status (1)

Country Link
DE (1) DE102019211327B4 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022112745A1 (de) 2022-05-20 2023-11-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zum erkennen einer fehlfunktion eines umfeldmodells einer automatisierten fahrfunktion

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004003877A1 (de) 2003-01-27 2004-08-05 Denso Corp., Kariya Detektor für Fahrzeugverhalten, Verarbeitungssystem im Fahrzeug, Kalibriereinrichtung für Erfassungsinformationen und Prozessor im Fahrzeug
DE102008030071A1 (de) 2007-06-29 2009-05-07 GM Global Technology Operations, Inc., Detroit GPS-Basierter fahrzeuginterner Sensorkalibrierungsalgorithmus
US20110065473A1 (en) 2009-09-17 2011-03-17 Sony Corporation Angular velocity correction device, angular velocity correction method, navigation device, and cellular phone having navigation function
DE102015113911A1 (de) 2014-08-28 2016-03-03 GM Global Technology Operations LLC Sensoroffsetkalibrierung unter Verwenden von Karteninformationen
EP3001137A1 (de) 2014-09-25 2016-03-30 Audi Ag Verfahren zur überwachung einer kalibrierung mehrerer umgebungssensoren eines kraftfahrzeugs und kraftfahrzeug
DE102017205727A1 (de) 2017-04-04 2018-10-04 Siemens Aktiengesellschaft Verfahren zum Kalibrieren eines Sensorsystems
DE102017222183A1 (de) 2017-12-07 2019-06-13 Audi Ag Verfahren und System zum Überwachen mehrerer Umgebungssensoren eines Kraftfahrzeugs
EP2761324B1 (de) 2011-09-30 2020-02-19 Chancellors, Masters & Scholars of the University of Oxford Bestimmung äusserlicher verbesserungsparameter für einen sensor

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004003877A1 (de) 2003-01-27 2004-08-05 Denso Corp., Kariya Detektor für Fahrzeugverhalten, Verarbeitungssystem im Fahrzeug, Kalibriereinrichtung für Erfassungsinformationen und Prozessor im Fahrzeug
DE102008030071A1 (de) 2007-06-29 2009-05-07 GM Global Technology Operations, Inc., Detroit GPS-Basierter fahrzeuginterner Sensorkalibrierungsalgorithmus
US20110065473A1 (en) 2009-09-17 2011-03-17 Sony Corporation Angular velocity correction device, angular velocity correction method, navigation device, and cellular phone having navigation function
EP2761324B1 (de) 2011-09-30 2020-02-19 Chancellors, Masters & Scholars of the University of Oxford Bestimmung äusserlicher verbesserungsparameter für einen sensor
DE102015113911A1 (de) 2014-08-28 2016-03-03 GM Global Technology Operations LLC Sensoroffsetkalibrierung unter Verwenden von Karteninformationen
EP3001137A1 (de) 2014-09-25 2016-03-30 Audi Ag Verfahren zur überwachung einer kalibrierung mehrerer umgebungssensoren eines kraftfahrzeugs und kraftfahrzeug
DE102017205727A1 (de) 2017-04-04 2018-10-04 Siemens Aktiengesellschaft Verfahren zum Kalibrieren eines Sensorsystems
DE102017222183A1 (de) 2017-12-07 2019-06-13 Audi Ag Verfahren und System zum Überwachen mehrerer Umgebungssensoren eines Kraftfahrzeugs

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GAO, Chao ; SPLETZER, John R.: On-line calibration of multiple LIDARs on a mobile vehicle platform. In: 2010 IEEE International Conference on Robotics and Automation, 3-8 May 2010, Anchorage, AK, USA, 2010, S. 279-284. - ISBN 978-1-4244-5038-1 (P). DOI: 10.1109/ROBOT.2010.5509880. URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=5509880 [abgerufen am 2019-10-07]
SCHNEIDER, Sebastian ; LUETTEL, Thorsten ; WUENSCHE, Hans-Joachim: Odometry-based online extrinsic sensor calibration. In: 2013 IEEE/RSJ International Conference on Intelligent Robots and Systems, 3-7 Nov. 2013, Tokyo, Japan, 2013, S. 1287-1292. - ISBN 978-1-4673-6358-7 (E). DOI: 10.1109/IROS.2013.6696515. URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6696515 [abgerufen am 2019-10-07]

Also Published As

Publication number Publication date
DE102019211327A1 (de) 2021-02-04

Similar Documents

Publication Publication Date Title
DE102018113927B4 (de) System und Verfahren zur seitlichen Steuerung eines Fahrzeugs bei niedriger Geschwindigkeit
DE102017217961B4 (de) Einrichtung zum steuern eines fahrzeugs an einer kreuzung
EP3497476B1 (de) Kraftfahrzeug und verfahren zur 360°-umfelderfassung
DE102020118187B4 (de) System und Verfahren zum Kalibrieren einer Lenkradneutralstellung
DE102013200132B4 (de) Fahrspurhaltesystem für ein Fahrzeug
DE102017105305A1 (de) Verfahren zur automatischen bestimmung einer sensorstellung
DE10251949A1 (de) Fahrdynamikregelung mit Bildsensorsystem
DE102012024874A1 (de) Verfahren und Vorrichtung zum prädikativen Ermitteln eines Parameterwertes einer von einem Fahrzeug befahrbaren Oberfläche
DE102018114233A1 (de) Vor-kollision-steuerungsvorrichtung
DE112019001542T5 (de) Positionsschätzvorrichtung
DE102019216399A1 (de) Verfahren und Vorrichtung zum Kalibrieren eines Fahrzeugsensors
EP3610224B1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur schätzung einer pose eines kraftfahrzeugs
EP3653460A1 (de) Verfahren und steuereinheit zum betreiben eines autonomen fahrzeugs
EP3475921B1 (de) Verfahren und fahrzeugsteuersystem zum erzeugen von abbildungen eines umfeldmodells und entsprechendes fahrzeug
DE102019132150A1 (de) Verfahren zum automatischen Kalibrieren eines Umfeldsensors, insbesondere eines Lidar-Sensors, eines Fahrzeugs auf Grundlage von Belegungskarten sowie Recheneinrichtung
DE102019211327B4 (de) Vorrichtung, Fahrzeug und Verfahren zur verbesserten Multi-Radar-Sensor-Kalibration
DE102018217000A1 (de) Verfahren, Computerprogramm und Messsystem für die Auswertung von Bewegungsinformationen
DE112020002753T5 (de) Fahrzeugsteuerverfahren, fahrzeugsteuervorrichtung und fahrzeugsteuersystem diese enthaltend
DE102019102923B4 (de) Verfahren und eine Vorrichtung zur Sensordatenfusion für ein Fahrzeug
DE102018218003A1 (de) Verfahren, Computerprogramm und Messsystem für die Auswertung von Bewegungsinformationen
DE102018216999A1 (de) Verfahren, Computerprogramm und Messsystem für die Auswertung von Bewegungsinformationen
DE102019213929A1 (de) Plausibilitätsprüfung angehaltener vormals dynamischer Objekte mit Hilfe von Belegungsrastern
EP3922526B1 (de) Bestimmung eines rollwinkels oder eines nickwinkels eines fortbewegungsmittels
DE102018132676A1 (de) Verfahren zum Lokalisieren eines Fahrzeugs in einer Umgebung
WO2018095669A1 (de) Verfahren und vorrichtung zum bestimmen einer genauen position eines fahrzeugs anhand von radarsignaturen der fahrzeugumgebung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division