-
TECHNISCHES GEBIET
-
Die vorliegende Offenbarung betrifft das technische Gebiet der Fahrzeugsensorik und deren Datenauswertung, insbesondere für autonome oder teilautonome Fahrzeuge.
-
TECHNISCHER HINTERGRUND
-
Autonome oder teilautonome Fahrzeuge weisen Sensoren wie beispielsweise Kameras, Radar- und Lidar-Sensoren auf, die das Umfeld des Fahrzeugs sensorisch erfassen und deren Daten in einer Steuereinheit mittels geeigneter Software ausgewertet werden. Auf Grundlage der durch diese Datenverarbeitung gewonnenen Informationen kann eine Steuereinheit über entsprechende Aktuatoren Brems-, Geschwindigkeits-, Abstands-, Kompensations- und/oder Ausweichregelungen selbsttätig auslösen und durchführen.
-
Für leistungsstarke Fahrassistenzsysteme und autonome Fahrzeuge ist eine präzise Umfelderkennung wichtig. Zu diesem Zweck besitzen moderne Fahrzeuge eine Vielzahl von Sensoren, zum Beispiel Radar, Lidar oder Kamera-Sensoren, die ihre Messwerte in Form einer Punktwolke liefern. Eine Herausforderung bei der Verwendung mehrerer Sensoren mit unterschiedlichen Sichtfeldern ist hierbei das Erreichen eines korrekten Sichtfeld-Überlapps.
-
Es sind bereits Lösungen für dieses Problem bekannt. Zum Beispiel offenbart das Dokument „On-line Calibration of Multiple LIDARs on a Mobile Vehicle Platform“ von Chao Gao und John R. Spletzer, 2010 IEEE International Conference on Robotics and Automation, 2010 ein Verfahren zur Bestimmung eines gemeinsamen Sichtfelds von Lidar-Sensoren. Jedoch benötigt dieses Verfahren eine Karte und eine äußerst präzise Kenntnis der Geschwindigkeit, mit der sich die Sensoren, also das Fahrzeug, auf dem sie montiert sind, bewegen.
-
Das Dokument „Odometry-based Online Extrinsic Sensor Calibration“, von Sebastian Schneider und Thorsten Luettel, Proceedings of the International Conference on Intelligent Robots and Systems IEEE/RSJ, Nov. 2013, liefert ebenfalls einen Ansatz, um überlappende Sichtfelder zu bestimmen. Hierbei wird ein zweiter Kalibrationssensor verwendet, welcher den Aufbau größer, unhandlicher und teurer macht und zudem muss die Odometrie der überlappenden Sensoren bekannt sein.
-
Die
DE 10 2017 222 183 A1 offenbart ein Verfahren zum Überwachen mehrerer Umgebungssensoren eines Kraftfahrzeugs, wobei zunächst zumindest ein Objekt in einer Umgebung des Kraftfahrzeugs mit einem Umgebungssensor der mehreren Umgebungssensoren erfasst wird, anschließend der Umgebungssensor anhand eines zu dem zumindest einen Objekt erfassten Merkmals als der das zumindest eine Objekt erfassende Umgebungssensor aus den mehreren Umgebungssensoren zugeordnet wird, in einem weiteren Verfahrensschritt das Kraftfahrzeug anhand des zumindest einen erfassten Objekts in einer digitalen Karte lokalisiert wird, wobei dem zumindest einen Objekt ein Referenzobjekt auf der digitalen Karte zugeordnet ist, und eine Dekalibrierung des Umgebungssensors der mehreren Umgebungssensoren durch Auswerten eines Dekalibrierungskriteriums unter Berücksichtigung des erfassten zumindest einen Objekts durch den dem erfassten Objekt zugeordneten Umgebungssensor und des Referenzobjekts ermittelt wird.
-
Die
EP 2 761 324 B1 offenbart ein Verfahren zur Bestimmung extrinsischer Kalibrierparameter zwischen einem Sensorrahmen und einem Basisrahmen einer transportierbaren Vorrichtung für mindestens einen Sensor.
-
-
ZUSAMMENFASSUNG DER ERFINDUNG
-
Die vorliegende Erfindung wurde hinsichtlich der vorstehend beschriebenen Problematik entwickelt, und es ist Aufgabe der vorliegenden Erfindung, bei der Verwendung mehrerer Sensoren mit unterschiedlichen Sichtfeldern einen verbesserten Sichtfeld-Überlapp zu erreichen.
-
Diese Aufgabe wird durch die Vorrichtung nach Anspruch 1, das Fahrzeug nach Anspruch 9 und das Verfahren nach Anspruch 10 gelöst. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen und der folgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung.
-
Die vorliegende Erfindung stellt eine Vorrichtung zur verbesserten Multi-Radar-Sensor-Kalibration bereit.
-
Die Ausführungsbeispiele zeigen eine Vorrichtung mit einem Prozessor, der dazu ausgelegt ist, die Ausrichtung mehrerer Umfeldsensoren eines Fahrzeugs zu ermitteln, indem bei bekannter Ego-Bewegung des Fahrzeugs eine Optimierung von Ausrichtungsparametern der Umfeldsensoren im Hinblick auf eine Abweichung der von den Umfeldsensoren ermittelten Messungen von einem aus der bekannten Ego-Bewegung erwartetem Modellverlauf vorgenommen wird.
-
Bei der Vorrichtung kann es sich beispielsweise um eine elektronische Steuereinheit (ECU) eines Fahrzeugs handeln. Die Steuerungseinheit kann beispielsweise eine elektronische Steuereinheit einer Radareinheit eines autonomen Fahrzeugs, z.B. einer Radarsensorarchitektur sein. Die elektronische Steuereinheit kann dabei speziell für die Auswertung von Sensordaten vorgesehen sein, eine zentrale Steuereinheit sein, oder auch eine Steuereinheit für autonomes oder teilautonomes Fahren. Bei dem Prozessor der Radarsteuerungseinheit kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Verarbeitungseinheit (CPU = central processing unit) handeln, die Programminstruktionen ausführt.
-
Die erfindungsgemäßen Prinzipien können auf beliebige Umfeldsensoren angewandt werden, bevorzugt jedoch Radarsensoren, Lidarsensoren, Kamerasensoren, oder dergleichen.
-
Die Umfeldsensoren stellen ihre Messergebnisse in Form von einzelnen Messungen von jeweils Entfernung und Azimutwinkel und ggf. auch einem Elevationswinkel bereit, die beispielsweise als Messpunkte (auch „Ziele“ genannt) in eine Rasterkarte eingetragen werden können. Die Messpunkte gehören zu Zielobjekten wie beispielsweise Verkehrsteilnehmer oder Hindernisse auf einer Straße, die von dem Umfeldsensor erfasst werden.
-
Vorzugsweis ist der Prozessor dazu ausgelegt ist, einen Fehler zwischen gemessenen Radialgeschwindigkeiten und aus dem Modellverlauf erwarteten Radialgeschwindigkeiten zu minimieren.
-
Insbesondere kann der Prozessor dazu ausgelegt sein, einen quadratischen Fehler durch einen nichtlinearen Optimierer zu minimieren.
-
Ferner kann der Prozessor dazu ausgelegt ist, ein Gleichungssystem nach den Ausrichtungsparametern zu lösen.
-
Auch kann der Prozessor dazu ausgelegt sein, die Ausrichtungsparameter durch Abtasten in einem bestimmten Bereich und durch Auswahl jenes Parametersatzes abzuschätzen, welcher die Kovarianz eines Radialgeschwindigkeits-Fits minimiert.
-
Bevorzugt ist der Prozessor dazu ausgelegt ist, auf Grundlage des gefundenen Satzes an Ausrichtungsparametern die relative Ausrichtung der jeweiligen Sichtfelder der Umfeldsensoren zueinander zu bestimmen.
-
Insbesondere kann der Prozessor dazu ausgelegt sein, auf Grundlage der relativen Ausrichtung der jeweiligen Sichtfelder der Umfeldsensoren Messungen der Umfeldsensoren zu einem Gesamtbild zusammenzufügen.
-
Die Ausführungsbeispiele offenbaren auch ein Fahrzeug, umfassend mehrere Umfeldsensoren, sowie eine Vorrichtung nach einem der vorangehenden Ansprüche, die dazu ausgelegt ist, aus der bekannten Ego-Bewegung des Fahrzeugs die Ausrichtung der Umfeldsensoren zu ermitteln. Bei dem Fahrzeug kann es sich beispielsweise um ein einen PKW, einen LKW oder dergleichen handeln. Insbesondere kann es sich auch um ein autonomes oder teilautonomes Kraftfahrzeug handeln, das auf Grundlage der Messdaten eine autonome oder teilautonome Steuerung des Kraftfahrzeug vornimmt. Auch kann es sich bei dem Fahrzeug um ein fahrerloses Transportsystem (FTS), ein Schienenfahrzeug, eine Drohne oder ein Boot handeln.
-
Die Ausführungsbeispiele zeigen auch ein Verfahren zur Ermittlung der Ausrichtung ein oder mehrerer Umfeldsensoren eines Fahrzeugs, bei dem bei bekannter Ego-Bewegung des Fahrzeugs eine Optimierung von Ausrichtungsparameter der Umfeldsensoren im Hinblick auf eine Abweichung der von den Umfeldsensoren ermittelten Messungen von einem aus der bekannten Ego-Bewegung erwartetem Modellverlauf vorgenommen wird.
-
Hierbei wird ein kontinuierlicher Sichtfeld-Überlapp mehrerer Sensoren erreicht, indem die Informationen von Radialgeschwindigkeit, Azimuth- und Elevationswinkel der einzelnen Sensoren ausgewertet werden.
-
BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELEN
-
Im Folgenden wird die Erfindung anhand der in den Figuren dargestellten Ausführungsformen beispielhaft erläutert.
- 1 zeigt ein Blockdiagramm, das schematisch die Konfiguration eines Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt.
- 2 zeigt ein Fahrzeug, ausgerüstet mit drei Sensoren mit überlappenden Sichtfeldern.
- 3a zeigt schematisch die Messwerte eines zweidimensionalen Messsystems, welches eine Radialgeschwindigkeit und einen Seitenwinkel erfasst, jedoch keinen Höhenwinkel liefert.
- 3b zeigt schematisch den Vektor der Radialgeschwindigkeit und der gesamte Geschwindigkeitsvektor mit dem translatorischen Anteil und dem rotatorischen Anteil
- 4 zeigt schematisch ein Fahrzeug mit drei (Radar-)Sensoren, nämlich zwei Seitensensoren und einem Frontsensor mit überlappenden Sichtbereichen.
- 5a zeigt einen beispielhaften Fall, in dem die Ausrichtungswinkel zweier Sensoren (Seitensensor und Frontsensor), nicht optimal gewählt sind, insbesondere von einer falschen Ausrichtung des Seitensensors ausgegangen wird. Eine an die Ziele beider Sensoren angepasste Kurve hat eine geringe Kovarianz.
- 5b zeigt einen beispielhaften Fall, in dem die Ausrichtungswinkel zweier Sensoren (Seitensensor und Frontsensor), nicht optimal gewählt sind, d.h. von einer korrekten Ausrichtung des Seitensensors ausgegangen wird. Eine an die Ziele beider Sensoren angepasste Kurve hat eine geringe Kovarianz.
-
1 zeigt ein Blockdiagramm, das schematisch die Konfiguration eines Fahrzeugs 10 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt. Das Fahrzeug 10 umfasst mehrere elektronische Komponenten, welche via eines Fahrzeugkommunikationsnetzwerks 28 miteinander verbunden sind. Das Fahrzeugkommunikationsnetzwerk 28 kann beispielsweise ein im Fahrzeug eingebautes standardgemäßes Fahrzeugkommunikationsnetzwerk wie etwa ein CAN-Bus (controller area network), ein LIN-Bus (local interconnect network), ein LAN-Bus (local area network), ein MOST-Bus und/oder ein FlexRay-Bus (registered trademark) oder dergleichen sein.
-
In dem in 1 dargestellten Beispiel umfasst das Fahrzeug 10 eine Steuereinheit 12 (ECU 1) für ein Bremssystem. Das Bremssystem bezieht sich dabei auf die Komponenten, die ein Bremsen des Fahrzeugs ermöglichen. Das Fahrzeug 10 umfasst ferner eine Steuereinheit 14 (ECU 2), die einen Antriebsstrang steuert. Der Antriebsstrang bezieht sich dabei auf die Antriebskomponenten des Fahrzeugs. Der Antriebsstrang kann einen Motor, ein Getriebe, eine Antriebs-/ Propellerwelle, ein Differential und einen Achsantrieb umfassen. Das Fahrzeug 10 umfasst ferner eine Steuereinheit 16 (ECU 3), die ein Lenksystem steuert. Das Lenksystem bezieht sich dabei auf die Komponenten, die eine Richtungssteuerung des Fahrzeugs ermöglichen. Das Fahrzeug 10 umfasst des Weiteren eine Steuereinheit 40 (ECU 4), welche in der Lage ist, das im folgenden beschriebene Verfahren auszuführen und auf diese Weise aus den Sensordaten der Umfeldsensoren 26 ein kontinuierliches, gemeinsames Sichtfeld aller Sensoren zu berechnen.
-
Die Steuereinheiten 12, 14, 16 und 40 können ferner von den oben genannten Fahrzeugsubsystemen Fahrzeugbetriebsparameter empfangen, die diese mittels einem oder mehreren Fahrzeugsensoren erfassen. Fahrzeugsensoren sind vorzugsweise solche Sensoren, die einen Zustand des Fahrzeugs oder einen Zustand von Fahrzeugteilen erfassen, insbesondere deren Bewegungszustand. Die Sensoren können einen Fahrgeschwindigkeitssensor, einen Gierraten-Sensor, einen Beschleunigungssensor, einen Lenkradwinkelsensor, einen Fahrzeuglastsensor, Temperatursensoren, Drucksensoren und dergleichen umfassen. Beispielsweise können auch Sensoren entlang der Bremsleitung angeordnet sein, um Signale auszugeben, die den Bremsflüssigkeitsdruck an verschiedenen Stellen entlang der hydraulischen Bremsleitung anzeigen. Andere Sensoren in der Nähe des Rades können vorgesehen sein, welche die Radgeschwindigkeit und den Bremsdruck erfassen, der am Rad aufgebracht wird.
-
Die Fahrzeugsensorik des Fahrzeugs 10 umfasst darüber hinaus eine Satellitennavigationseinheit 24 (GNSS-Einheit). Es sei darauf hingewiesen, dass im Kontext der vorliegenden Erfindung GNSS stellvertretend für sämtliche Globale Navigationssatellitensysteme (GNSS) steht, wie z.B. GPS, AGPS, Galileo, GLONASS (Russland), Compass (China), IRNSS (Indien) und dergleichen.
-
Das Fahrzeug 10 umfasst ferner ein oder mehrere Sensoren, welche dazu ausgelegt sind, das Umfeld des Fahrzeugs zu erfassen, wobei die Sensoren am Fahrzeug montiert sind und Bilder des Umfelds des Fahrzeugs erfassen, oder Objekte oder Zustände im Umfeld des Fahrzeugs erkennen. Die Umfeldsensoren 26 umfassen insbesondere Kameras, Radar-Sensoren, Lidar-Sensoren, Ultraschall-Sensoren oder dergleichen. Die Umfeldsensoren 26 können innerhalb des Fahrzeugs oder außerhalb des Fahrzeugs (z. B. an der Außenseite des Fahrzeugs) angeordnet sein. Beispielsweise kann eine Kamera in einem vorderen Bereich des Fahrzeugs 10 zur Aufnahme von Bildern eines vor dem Fahrzeug befindlichen Bereichs vorgesehen sein.
-
Das Fahrzeug 10 umfasst ferner eine Benutzerschnittstelle 21 (HMI = Human-Machine-Interface), die einem Fahrzeuginsassen ermöglicht, mit einem oder mehreren Fahrzeugsystemen in Interaktion zu stehen. Diese Benutzerschnittstelle 21 (beispielsweise eine GUI = Graphical User Interface) kann eine elektronische Anzeige zum Ausgeben einer Graphik, von Symbolen und/oder Inhalt in Textform, und eine Eingabeschnittstelle zum Empfangen einer Eingabe (beispielsweise manuelle Eingabe, Spracheingabe und Eingabe durch Gesten, Kopf- oder Augenbewegungen) umfassen. Die Eingabeschnittstelle kann beispielsweise Tastaturen, Schalter, berührungsempfindliche Bildschirme (Touchscreen), Eye-Tracker und dergleichen umfassen.
-
2 zeigt schematisch eine erfindungsgemäße Sensordatenverarbeitungseinheit 40. Alle Bestandteile der Sensordatenverarbeitungseinheit 40 sind über ein internes Kommunikationsnetzwerk 46 verbunden. Bei der Sensordatenverarbeitungseinheit 40 kann es sich beispielsweise um ein Steuergerät (Electronic Control Unit, ECU oder Electronic Control Module, ECM) handeln. Die Sensordatenverarbeitungseinheit 40 umfasst einen Prozessor 41. Bei dem Prozessor 41 kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Verarbeitungseinheit (CPU = Central Processing Unit) handeln, die Programminstruktionen ausführt. Die Sensordatenverarbeitungseinheit 40 umfasst ferner einen Nur-Lese-Speicher 43 (ROM = Read-Only Memory) und einem Direktzugriffsspeicher 42 (RAM = Random Access Memory) (z. B. dynamischer RAM („DRAM“), synchron DRAM („SDRAM“) usw.). Diese Speicher können Programme mit Programminstruktionen und Daten speichern. Ferner kann die Sensordatenverarbeitungseinheit 40 ein externes Speicherlaufwerk 44, wie beispielsweise ein externes Festplattenlaufwerk (hard disk drive: HDD), ein Flashspeicher-Laufwerk oder ein nicht flüchtiges Festkörperlaufwerk (solid state drive: SSD) umfassen. Die Sensordatenverarbeitungseinheit 40 umfasst ferner eine Kommunikationsschnittstelle 45, hier ein CAN-Interface, über welche die Steuereinheit mit dem Fahrzeugkommunikationsnetzwerk (28 in 1) kommunizieren kann.
-
In 3a sind schematisch die Messwerte eines zweidimensionalen Messsystems dargestellt, welches eine Radialgeschwindigkeit und einen Seitenwinkel erfasst, jedoch keinen Höhenwinkel liefert. Die Messdaten des Radar-Messsystems werden wie üblich verarbeitet (beispielsweise in einem Mikroprozessor, wie dem Mikroprozessor 41 der Sensordatenverarbeitungseinheit der 2), um eine Zielliste bereitzustellen. Dies erfolgt beispielsweise über zwei Fourier-Transformationen, durch die eine Range-Doppler-Map bereitgestellt wird. Die Range-Doppler-Map umfasst die Informationen über den Radialabstand, die Radialgeschwindigkeit und unter welchem Winkel, Höhenwinkel und/oder Seitenwinkel, ein Ziel auftritt. Die Range-Doppler-Map stellt dementsprechend eine Art von Zielliste dar. In der 3a ist eine beispielhafte Zielliste dargestellt, wobei gegenüber der X-Achse der Seitenwinkel ϕ und gegenüber der Y-Achse die Radialgeschwindigkeit vr aufgetragen ist. Der Radialabstand ist in der Darstellung nicht aufgetragen. Das Kraftfahrzeug 10 bewegt sich während eines Messvorgangs beispielhaft mit einer Eigengeschwindigkeit. Für die Erläuterungen dieses Beispiels werden Lenk- sowie Rotationsbewegungen des Kraftfahrzeugs vernachlässigt. Das Prinzip kann jedoch auch auf Lenk- sowie Rotationsbewegungen erweitert werden.
-
In der 3a sind beispielhaft Ziele 66a, 66b (Messungen) eines Messvorgangs dargestellt. Die Ziele 66a, 66b sind durch Kreise sowie durch Quadrate eingezeichnet, welche jeweilige Ziele repräsentieren. Zur Vereinfachung werden hier nur statische Ziele berücksichtigt. Ein statisches Ziel ist fest mit einem Untergrund verbunden oder bewegt sich über gegenüber dem Untergrund nicht. Die statischen Ziele weisen eine absolute Relativgeschwindigkeit gegenüber dem Kraftfahrzeug auf, welche der Bewegungsgeschwindigkeit des Kraftfahrzeugs entspricht. Mobile Ziele sind demgegenüber Ziele, welche sich selbst gegenüber dem Untergrund bewegen und dadurch eine Relativgeschwindigkeit aufweisen, die sich von der Fahrzeuggeschwindigkeit unterscheidet. Mobile Ziele können beispielsweise aufgrund von Fußgängern, Radfahrern oder andere Kraftfahrzeuge auftreten.
-
Das Radar-Messsystem ermittelt anstelle der absoluten Relativgeschwindigkeit die Radialgeschwindigkeit vr aller Ziele 66a, 66b. Die Radialgeschwindigkeit aller Ziele 66a hängt von den Winkeln ϕ, θ (Azimut- (Seitenwinkel) und Elevationswinkel) ab, unter dem das Ziel 66a gegenüber dem Fahrzeug auftritt. Es ist bekannt, dass die Verteilung der statischen Ziele 66a durch eine statische Funktion gegeben ist. Diese statische Funktion, hier vereinfacht als „Cosinus-Funktion“ bezeichnet (die theoretische Funktion hat weitere Terme, man spricht nur zur Vereinfachung von einem „Cosinus“), entspricht der theoretischen Verteilung der statischen Ziele und hängt unter anderem von der aktuellen Eigenbewegung des Kraftfahrzeugs (sowie ggf. von einem oder mehreren Kalibrierungsparametern) ab.
-
Sei
der Geschwindigkeitsvektor des Fahrzeugs (zur Vereinfachung sei nur die Geschwindigkeitskomponente
in x-Richtung betrachtet) im Ego-Rahmen (Eigengeschwindigkeit),
der Positionsvektor des Sensors im Ego-Rahmen und sei ω
i die Drehgeschwindigkeit im Ego-Rahmen um die i-te Achse (i=x,y,z) mit entsprechender Rotationsmartrix Ω, so kann die die statische Funktion f für die Radialgeschwindikeit v
rad für den Fall eines ideal positionierten und ausgerichteten Sensors wie folgt formuliert werden:
mit
-
Der Vektor der Radialgeschwindigkeit
und der gesamte Geschwindigkeitsvektor
des Sensors mit dem translatorischen Anteil
und dem rotatorischen Anteil
sind in
6b schematisch dargestellt.
-
Im zweidimensionalen Fall, der in
3a dargestellt ist, kann unter Annahme von ω
x = ω
y = 0 die Rotationsmatrix wie folgt dargestellt werden
-
Zur Veranschaulichung unter Vernachlässigung von Elevationswinkeln der Ziele
vereinfacht sich die statische Funktion f zu
-
D.h. die statische Funktion f hängt im Wesentlichen von cos(ϕ) und weiteren Termen, sowie von der Ego-Geschwindigkeit
und der Drehgeschwindigkeit ω
z des Ego-Fahrzeugs ab. Die Ego-Geschwindigkeit
und der Drehgeschwindigkeit ω
z des Ego-Fahrzeugs kann folglich mittels Regression gewonnen werden.
-
Unter Vernachlässigung jeglicher Fahrzeugrotation, d.h. ω
x = ω
y = ω
z = 0 gilt:
-
D.h. die statische Funktion f hängt im Wesentlichen von cos(ϕ) und weiteren Termen, sowie von der Ego-Geschwindigkeit
ab.
-
Die theoretische Verteilung f der statischen Zeile für den oben beschriebenen zweidimensionalen Fall ist in 3a als Linie 60 dargestellt. Die Messpunkte der statischen Ziele sind entlang dieser theoretische Verteilung 60 zu erwarten. Die mobilen Ziele weisen je nach Relativgeschwindigkeit einen entsprechenden Abstand von der Cosinus-Funktion 60 auf. Die Ermittlung der statischen Ziele erfolgt beispielsweise mithilfe dieser statischen Funktion 60, indem auf Grundlage der theoretischen Vorhersage (Cosinus-Verlauf) und auf Grundlage von beispielsweise Messergebnissen eines vorherigen Messrahmens oder durch eine Schätzung der aktuellen Eigenbewegung des Fahrzeugs ein Näherungsverlauf der statischen Kurve 60 ermittelt wird.
-
4 zeigt schematisch ein Fahrzeug mit drei (Radar-)Sensoren, nämlich zwei Seitensensoren und einem Frontsensor mit überlappenden Sichtbereichen. Wie bereits in 1 erwähnt, kann es sich bei den Sensoren um einen Radar, einen Lidar, einen Kamera-Sensor oder dergleichen handeln, der beispielsweise Radialgeschwindigkeit, radialer Abstand, Azimut- (Seitenwinkel) und Elevationswinkel von Zielen bestimmen kann. Jeder der Umfeldsensoren besitzt ein eigenes Sichtfeld, wobei die Sichtfelder benachbarter Sensoren überlappen.
-
Wie in der Beschreibung von 3a, 3b bereits erwähnt, zeigen nur statische Objekte als Ziel den konkreten Verlauf einer Cosinus-Kurve. Im Falle eines dynamischen Ziels verschmiert der Cosinus. Betrachtet man jedoch eine ausreichend statische Umgebung so mitteln sich die verschiedenen Effekte einzelner dynamischer Ziele im Gesamtbild heraus, sodass nicht notwendigerweise eine Unterscheidung zwischen dynamischen und statischen Zielen vorgenommen werden muss. Die Umwelt sollte während des Messvorgangs folglich ausreichend „statisch“ sein. Alternativ kann auch ein dem Fachmann bekanntes Verfahren verwendet werden, um statische Ziele von dynamischen Zielen zu unterscheiden und um dynamische Ziele zu verwerfen.
-
Angenommen, der Sensor ist um Winkel ψ
ext,θ
ext gegenüber die Fahrtrichtung verstellt (im Folgenden „Ausrichtungswinkel“ genannt) und angenommen, die Verstellung ϕ
ext ≈ 0, dann wird die Rotation zwischen dem versetzten Sensorrahmen und dem Fahrzeugrahmen mit den folgenden 3D-Drehmatrizen definiert:
-
Die statische Funktion f kann damit wie folgt formuliert werden:
-
Mit
und dem Positionsvektor
des Sensors im Ego-Rahmen, der in den nötigen Genauigkeitsanforderungen als bekannt angenommen werden kann und zur Vereinfachung der Darstellung im den folgenden Formeln vernachlässigt wird, vereinfacht sich dies zu
-
Betrachtet man nun ein System, das mehrere Sensoren umfasst, so kann die Radialgeschwindigkeit des j-ten Ziels, gemessen mit dem i-ten Sensor, wie folgt ausgedrückt werden:
-
Dabei ist
die Ego-Geschwindigkeit und ψ
ext,i, θ
ext,i sind die Ausrichtungswinkel des i-ten Sensors in Bezug auf den Fahrzeugrahmen.
-
Für k-Sensoren kann dies wie folgt ausgedrückt werden:
-
Mit bekannter Ego-Geschwindigkeit
kann das Gleichungssystem nach den Ausrichtungswinkeln ψ
ext,i, θ
ext,i gelöst werden, indem man den quadratischen Fehler zwischen gemessenen und erwarteten Radialgeschwindigkeiten minimiert. Wenn andererseits die Ausrichtungswinkel ψ
ext,i, θ
ext,i bekannt sind, kann man nach der Ego-Geschwindigkeit lösen, indem man das lineare Gleichungssystem löst und den kleinsten quadratischen Fehler minimiert.
-
Informationen über Ego-Bewegung
Ω des Fahrzeugs liegen typischerweise in einer zentralen Fahrzeugsteuereinheit zum Abruf bereit und werden üblicherweise mit Sensoren, wie beispielsweise Radumlaufgeschwindigkeitssensoren, Ortsensoren (GPS), Beschleunigungsmessern, Gyroskopen, oder dergleichen ermittelt und werden im Folgenden als bekannt erachtet. Daraus und unter Kenntnis der Position des Sensors lässt sich wie durch obige Formel dargelegt der gesamte Geschwindigkeitsvektor vs des Sensors ermitteln.
-
Erfindungsgemäß werden bei bekannter Ego-Bewegung die Ausrichtungswinkel ψext,i, θext,i geschätzt. Dies kann beispielsweise durch ein Ausgleichungsverfahren, hier beispielsweise einem mathematischen Standardverfahren wie dem Least-Square-Fit erfolgen. Beim Least-Square-Verfahren (auch „Methode der kleinsten Quadrate“) wird zur Datenpunktwolke (hier Radarziele) eine Kurve gesucht, die möglichst nahe an den Datenpunkten verläuft. Das Least-Square-Verfahren besteht darin, die Ausrichtungswinkel ψext,i, θext,i so zu bestimmen, dass die Summe der quadratischen Abweichungen der aus dem Modell erwarteten Kurve von den beobachteten Punkten minimiert wird. Durch Mininimierung des quadratischen Fehlers wird folglich ein optimaler Satz an Ausrichtungswinkeln ψext,i, θext,i gefunden, welche eine Ego-Bewegungsschätzung mit minimaler Varianz liefern.
-
In den 5a und 5b ist ein Beispiel für die Optimierung der Ausrichtungswinkel eines Front- und eines Seitensensors in 2D dargestellt. In 5a ist ein beispielhafter Fall gezeigt, in dem die Ausrichtungswinkel der Sensoren nicht optimal gewählt sind, insbesondere von einer falschen Ausrichtung des Seitensensors ausgegangen wird. Eine an die Ziele beider Sensoren angepasste Kurve hat eine große Kovarianz. Es ergeben sich Radialgeschwindigkeiten, die nicht gut in das Radialgeschwindigkeitsprofil der vorhergesagten Kurve passen. In 5b ist dagegen ein beispielhafter Fall gezeigt, in dem die Ausrichtungswinkel der Sensoren optimal gewählt sind, d.h. von einer korrekten Ausrichtung des Seitensensors ausgegangen wird. Eine an die Ziele beider Sensoren angepasste Kurve hat eine geringe Kovarianz.
-
Mit dieser Methode werden die Ausrichtungswinkel ψext,1, θext,1 ...ψext,k θext,k abgeschätzt durch Abtasten in einem bestimmten Bereich und Auswahl jenes Parametersatzes, welcher die Kovarianz des Radialgeschwindigkeits-Fits minimiert. Dieses Abtasten kann mit dem Metropolis-Hastings-Verfahren oder ähnlichen Methoden durchgeführt werden.
-
Alternativ zur obigen stichprobenbasierten Methode zur Schätzung der Parameter ψ
ext,1 θ
ext,1 ... , ψ
ext,k, θ
ext,k kann auch der Fehler der kleinsten Quadrate (LSQ) mit einem nichtlinearen Optimierer wie Levenberg-Marquardt mit beispielsweise der folgenden Kostenfunktion minimiert werden:
wobei
und M die Anzahl der Sensoren bezeichnet.
-
Der gefundenen Satz an Ausrichtungswinkeln ψext,i, θext,i enthält die Information über die realen Einbauwinkel aller Sensoren und kann daher herangezogen werden, um die relative Ausrichtung der einzelnen Sichtfelder zueinander zu bestimmen und somit, um die einzelnen Detektormessungen zu einem großen Gesamtbild zusammenzufügen. Dies erfolgt mit dem Fachmann bekannten Mitteln, indem beispielsweise die Messungen mittels der Ausrichtungswinkel ψext,i, θext,i in ein gemeinsames Rasterbild übertragen werden.
-
Die Eigengeschwindigkeit des Fahrzeugs, auf welchem die Sensoren montiert sind, sollte vorzugsweise 10m/s übersteigen, damit ein signifikanter Unterschied zwischen beispielsweise den Linienverläufen der Sensoren (beispielsweise Front- und eines Seitensensor der 5a und 5b) erkennbar ist. Auch sollte das Fahrzeug während des Messvorgangs nicht schlagartig sein Bewegungsverhalten ändern. Ein hoch dynamisches Fahrverhalten des Fahrzeugs würde die Ergebnisse der im folgenden beschriebenen Berechnungen verschlechtern.
-
Das vorgeschlagene Verfahren kann auf Grundlage der hier angegebenen Prinzipien und Gleichungen im allgemeinen 3D-Raum beschrieben werden und wurde nur Veranschaulichung mit Messungen von 2D-Sensor aufgezeigt, in diesem Fall nur abhängig von Radialgeschwindigkeit und Azimutwinkel.
-
Bezugszeichen
-
- 10
- Kraftfahrzeug
- 12
- ECU 1 Bremssystem
- 14
- ECU 2 Antriebsstrang
- 16
- ECU 3 Lenksystem
- 21
- HMI
- 24
- GNSS
- 26
- Sensor
- 30
- Ideallinie
- 31
- Punktwolke eines ersten Sensors
- 32
- Punktwolke eines zweiten Sensors
- 33
- Punktwolke eines dritten Sensors
- 34
- Punktwolke eines vierten Sensors
- 35
- Punktwolke eines fünften Sensors
- 36
- Punktwolke eines sechsten Sensors
- 37
- Punktwolke eines siebten Sensors
- 40
- Steuereinheit, ECU 4 Sensorverarbeitung
- 60
- statische Cosinusfunktion
- 66a
- Punktwolke eines ersten statischen Ziels
- 66b
- Punktwolke eines zweiten statischen Ziels