DE102022200142A1 - Schätzen eines Bewegungszustands eines Fahrzeugs aus Kameradaten mithilfe von maschinellem Lernen - Google Patents

Schätzen eines Bewegungszustands eines Fahrzeugs aus Kameradaten mithilfe von maschinellem Lernen Download PDF

Info

Publication number
DE102022200142A1
DE102022200142A1 DE102022200142.7A DE102022200142A DE102022200142A1 DE 102022200142 A1 DE102022200142 A1 DE 102022200142A1 DE 102022200142 A DE102022200142 A DE 102022200142A DE 102022200142 A1 DE102022200142 A1 DE 102022200142A1
Authority
DE
Germany
Prior art keywords
data
vehicle
state
movement
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022200142.7A
Other languages
English (en)
Inventor
Simon Weissenmayer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022200142.7A priority Critical patent/DE102022200142A1/de
Priority to PCT/EP2023/050391 priority patent/WO2023131715A1/de
Publication of DE102022200142A1 publication Critical patent/DE102022200142A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

Ein Verfahren zum Schätzen eines Bewegungszustands eines Fahrzeugs (1), das mit einer Kamera (5) zum Erfassen einer Umgebung des Fahrzeugs (1) ausgestattet ist, umfasst: Empfangen von Kameradaten (8), die von der Kamera (5) erzeugt wurden; Eingeben der Kameradaten (8) in einen Algorithmus (10), der mit historischen Kameradaten und den historischen Kameradaten zugeordneten Referenzbewegungsdaten trainiert wurde, um die Kameradaten (8) in Bewegungsdaten (12) umzuwandeln, die einen aktuellen Bewegungszustand des Fahrzeugs (1) beschreiben; und Bestimmen eines geschätzten Bewegungszustands des Fahrzeugs (1) aus den Bewegungsdaten (12) durch einen Zustandsschätzer (23).

Description

  • Gebiet der Erfindung
  • Die Erfindung betrifft ein Verfahren zum Schätzen eines Bewegungszustands eines Fahrzeugs. Des Weiteren betrifft die Erfindung ein Steuergerät und ein Computerprogramm zum Ausführen eines solchen Verfahrens und ein computerlesbares Medium, auf dem ein solches Computerprogramm gespeichert ist.
  • Stand der Technik
  • Messdaten kostengünstiger Inertialsensoren, wie sie zum Erfassen eines Bewegungszustands eines Fahrzeugs eingesetzt werden, enthalten häufig Messfehler, die sich infolge von Temperaturänderungen verstärken können. Um die Messfehler klein zu halten, können die Messdaten beispielsweise mithilfe einer sogenannten Strapdown-Rechnung korrigiert werden. Dabei können über einen längeren Zeitraum hinweg Integrationsfehler auftreten, die zu Ungenauigkeiten bei der Bestimmung von Geschwindigkeits- oder Drehwinkelwerten führen können. Aus diesem Grund werden häufig zusätzlich Positionsdaten eines globalen Navigationssatellitensystems und/oder Messdaten eines oder mehrerer Raddrehzahlsensoren herangezogen, um die Ergebnisse der Strapdown-Rechnung zu korrigieren. Die Korrektur kann beispielsweise in einem Kalman-Filter stattfinden.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund werden nachstehend ein Verfahren zum Schätzen eines Bewegungszustands eines Fahrzeugs, ein entsprechendes Steuergerät, ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Medium gemäß den unabhängigen Ansprüchen vorgestellt. Vorteilhafte Weiterbildungen und Verbesserungen des hier vorgestellten Ansatzes ergeben sich aus der Beschreibung und sind in den abhängigen Ansprüchen beschrieben.
  • Vorteile der Erfindung
  • Ausführungsformen der vorliegenden Erfindung ermöglichen eine hochgenaue Schätzung eines Bewegungszustands eines Fahrzeugs basierend auf Kameradaten, ohne dass hierzu Sensordaten einer zusätzlichen Sensorik, etwa eines Inertialsensors oder eines satellitengestützten Ortungssensors, zwingend erforderlich sind.
  • Ein erster Aspekt der Erfindung betrifft ein computerimplementiertes Verfahren zum Schätzen eines Bewegungszustands eines Fahrzeugs, das mit einer oder mehreren Kameras zum Erfassen einer Umgebung des Fahrzeugs ausgestattet ist. Das Verfahren umfasst zumindest die folgenden Schritte: (i) Empfangen von Kameradaten, die von der Kamera erzeugt wurden; (ii) Eingeben der Kameradaten in einen Algorithmus, der mit historischen Kameradaten und den historischen Kameradaten zugeordneten Referenzbewegungsdaten trainiert wurde, um die Kameradaten in Bewegungsdaten umzuwandeln, die einen aktuellen Bewegungszustand des Fahrzeugs beschreiben; und (iii) Bestimmen eines geschätzten Bewegungszustands des Fahrzeugs aus den Bewegungsdaten durch einen Zustandsschätzer.
  • Beispielsweise können die Kameradaten in Schritt (i) in mehreren aufeinanderfolgenden Zeitschritten empfangen werden, wobei in jedem Zeitschritt Schritt (ii) bis (iii) ausgeführt werden. Beispielsweise können die Bewegungsdaten in einem aktuellen Zeitschritt in den Zustandsschätzer eingegeben werden, um Schätzdaten im aktuellen Zeitschritt zu erhalten, die den geschätzten Bewegungszustand des Fahrzeugs zu einem dem aktuellen Zeitschritt nachfolgenden Zeitschritt beschreiben. Dabei können die Schätzdaten beispielsweise Werte für eine geschätzte Geschwindigkeit und/oder einen geschätzten Drehwinkel des Fahrzeugs in Bezug auf eine oder mehrere Raumachsen umfassen.
  • Der Zustandsschätzer kann beispielsweise ein Kalman-Filter, eine Variante eines Kalman-Filters, ein Partikelfilter oder eine Kombination aus mindestens zwei dieser Beispiele sein.
  • Unter „Algorithmus“ kann ein Klassifikations- und/oder Regressionsalgorithmus verstanden werden, der mit einer Methode des maschinellen Lernens konfiguriert wurde, um einem bestimmten Bild, wie es von einer Kamera aufgenommen wird, d. h. einer zwei- oder mehrdimensionalen Matrix aus bestimmten Farb- und/oder Helligkeitswerten, und/oder einer Folge mindestens zweier solcher Bilder, einen oder mehrere Schätzwerte für mindestens eine Bewegungsgröße, die geeignet ist, um den aktuellen Bewegungszustand des Fahrzeugs zu charakterisieren, zuzuordnen. Eine geeignete Bewegungsgröße kann beispielsweise eine Beschleunigung, Drehrate, Geschwindigkeit oder ein Drehwinkel sein. Die Bewegungsgrößen können jeweils auf eine, zwei oder drei verschiedene Raumachsen eines Koordinatensystems, in dem sich das Fahrzeug bewegt und/oder das sich mit dem Fahrzeug bewegt, bezogen sein.
  • Die historischen Kameradaten können von einer oder mehreren realen Kameras bereitgestellt worden sein, beispielsweise von der Kamera des Fahrzeugs und/oder mindestens einer anderen Kamera mindestens eines anderen Fahrzeugs. Die historischen Kameradaten können aber auch aus einer Simulation der Kamera, des Fahrzeugs und/oder der Umgebung des Fahrzeugs stammen. Die Referenzbewegungsdaten können beispielsweise Geschwindigkeitswerte, Beschleunigungswerte, Drehwinkelwerte und/oder Drehratenwerte umfassen, die Bildern in den historischen Kameradaten zugeordnet sein können.
  • Das Verfahren kann beispielsweise automatisch durch einen Prozessor eines Steuergeräts des Fahrzeugs ausgeführt werden. Das Steuergerät kann zusätzlich konfiguriert sein, um eine satellitengestützte Navigationsfunktion und/oder eine oder mehrere Fahrerassistenzfunktionen wie beispielsweise ABS oder ESP auszuführen, mit denen das Fahrzeug in Abhängigkeit vom geschätzten Bewegungszustand gelenkt, beschleunigt und/oder abgebremst werden kann. Hierzu kann das Fahrzeug eine entsprechende Aktorik umfassen, beispielsweise in Form eines Lenkaktors, eines Bremsaktors, eines Motorsteuergeräts, eines elektrischen Antriebsmotors oder einer Kombination aus mindestens zwei dieser Beispiele.
  • Das Fahrzeug kann ein Kraftfahrzeug sein, etwa in Form eines Pkw, Lkw, Busses oder eines Motorrads. Das Fahrzeug kann von einem Menschen geführt sein oder ganz oder teilweise autonom bewegt werden. Im weiteren Sinn kann unter einem Fahrzeug auch ein Flugzeug, ein Schiff, ein Kran oder ein autonomer, mobiler Roboter verstanden werden. Beispielsweise kann das vor- und nachstehend beschriebene Verfahren genutzt werden, um den Bewegungszustand eines Hakens des Krans zu schätzen.
  • Die Kamera kann beispielsweise in einen Front-, Heck- und/oder Seitenbereich des (Kraft-) Fahrzeugs eingebaut sein. Alternativ kann es sich bei der Kamera um eine Komponente eines Smartphones oder einer Smartwatch handeln.
  • Ein zweiter Aspekt der Erfindung betrifft ein Steuergerät, das einen Prozessor umfasst, der konfiguriert ist, um das vor- und nachstehend beschriebene Verfahren auszuführen. Das Steuergerät kann Hardware- und/oder Softwaremodule umfassen. Zusätzlich zum Prozessor kann das Steuergerät einen Speicher und Datenkommunikationsschnittstellen zur Datenkommunikation mit Peripheriegeräten umfassen. Merkmale des Verfahrens können auch als Merkmale des Steuergeräts aufgefasst werden und umgekehrt.
  • Weitere Aspekte der Erfindung betreffen ein Computerprogramm und ein computerlesbares Medium, auf dem das Computerprogramm gespeichert ist.
  • Das Computerprogramm umfasst Befehle, die einen Prozessor bei Ausführung des Computerprogramms durch den Prozessor veranlassen, das vor- und nachstehend beschriebene Verfahren auszuführen.
  • Das computerlesbare Medium kann ein flüchtiger oder nicht flüchtiger Datenspeicher sein. Beispielsweise kann das computerlesbare Medium eine Festplatte, ein USB-Speichergerät, ein RAM, ROM, EPROM oder Flash-Speicher sein. Das computerlesbare Medium kann auch ein einen Download eines Programmcodes ermöglichendes Datenkommunikationsnetzwerk wie etwa das Internet oder eine Datenwolke (Cloud) sein.
  • Merkmale des vor- und nachstehend beschriebenen Verfahrens können auch als Merkmale des Computerprogramms und/oder des computerlesbaren Mediums aufgefasst werden und umgekehrt.
  • Mögliche Merkmale und Vorteile von Ausführungsformen der Erfindung können unter anderem, und ohne die Erfindung einzuschränken, als auf den nachstehend beschriebenen Ideen und Erkenntnissen beruhend angesehen werden.
  • Gemäß einer Ausführungsform können die Bewegungsdaten eine aktuelle Geschwindigkeit, eine aktuelle Beschleunigung, einen aktuellen Drehwinkel und/oder eine aktuelle Drehrate des Fahrzeugs anzeigen. Zusätzlich oder alternativ kann der Zustandsschätzer eine geschätzte Geschwindigkeit und/oder einen geschätzten Drehwinkel des Fahrzeugs bestimmen. Wie bereits erwähnt, können die Kameradaten Farbwerte und/oder Helligkeitswerte umfassen, die vom Algorithmus in Schätzwerte für die vorgenannten Bewegungsgrößen umgesetzt werden können.
  • Gemäß einer Ausführungsform können die Bewegungsdaten zusätzlich Varianzen bezüglich des aktuellen Bewegungszustands anzeigen. Zusätzlich oder alternativ kann der Zustandsschätzer zusätzlich Varianzen bezüglich des geschätzten Bewegungszustands bestimmen. Beispielsweise können die Bewegungsdaten aktuelle Werte für eine oder mehrere Bewegungsgrößen umfassen, wobei jedem aktuellen Wert ein entsprechender Varianzwert und/oder mindestens ein sonstiger statistischer Wert, der eine Unsicherheit bezüglich des jeweiligen Werts quantifiziert, zugeordnet sein kann. Diese Varianzen können vom Zustandsschätzer ausgewertet werden, um den geschätzten Bewegungszustand noch genauer zu bestimmen. Dabei kann der Zustandsschätzer geschätzte Varianzen bestimmen, die bei der Bestimmung des geschätzten Bewegungszustands berücksichtigt und/oder zur externen Weiterverarbeitung vom Zustandsschätzer ausgegeben werden können.
  • Gemäß einer Ausführungsform kann der Zustandsschätzer ein Kalman-Filter sein. Unter dem Begriff „Kalman-Filter“ kann auch eine Variante eines Kalman-Filters, etwa ein extended Kalman filter oder ein unscented Kalman filter, oder eine Kombination aus mindestens zwei solcher Varianten verstanden werden. Damit kann der geschätzte Bewegungszustand besonders effizient bestimmt werden.
  • Gemäß einer Ausführungsform kann der Algorithmus ein künstliches neuronales Netz sein. Das künstliche neuronale Netz kann beispielsweise ein mehrlagiges Perzeptron, ein faltendes neuronales Netz (convolutional neural network) und/oder eine LSTM-Architektur (long short-term memory) umfassen. Damit kann der aktuelle Bewegungszustand des Fahrzeugs sehr genau bestimmt werden. insbesondere kann die Bestimmung genauer erfolgen, als dies mit gängigen Inertialsensoren der Fall wäre. Beispielsweise können damit Ungenauigkeiten aufgrund von Messfehlern, wie sie für Inertialsensoren typisch sind, vermieden werden. Entsprechend genauer kann der geschätzte Bewegungszustand des Fahrzeugs vom Zustandsschätzer bestimmt werden.
  • Gemäß einer Ausführungsform kann zum Trainieren des Algorithmus eine Kostenfunktion, die eine Abweichung zwischen den Bewegungsdaten und den Referenzbewegungsdaten quantifiziert, minimiert worden sein. Dabei kann die Kostenfunktion eine Likelihood-Funktion, insbesondere eine Log-Likelihood-Funktion, sein. Anders ausgedrückt kann der Algorithmus unter Berücksichtigung von Unsicherheiten bezüglich der Ein- und/oder Ausgabedaten des Algorithmus und/oder der Referenzbewegungsdaten, mit denen die Ausgabedaten verglichen werden, optimiert worden sein. Der Algorithmus kann beispielsweise in einem Gradientenverfahren durch Backpropagation optimiert worden sein. Möglich ist aber auch eine Optimierung mithilfe von Normalgleichungen. Damit kann das Verfahren weiter verbessert werden.
  • Gemäß einer Ausführungsform können die Referenzbewegungsdaten von einem Inertialsensor, einem satellitengestützten Ortungssensor und/oder einem Raddrehzahlsensor erzeugt worden sein. Beispielsweise können die Referenzbewegungsdaten von einem besonders hochwertigen und entsprechend genauen Inertialsensor bereitgestellt worden sein, der aus Kostengründen in einem Fahrzeug üblicherweise nicht verbaut wird. Anders ausgedrückt kann der Bewegungszustand des Fahrzeugs mit einer Genauigkeit geschätzt werden, die mindestens genauso hoch ist, wie wenn die Bewegungsdaten von einem solchen hochwertigen Inertialsensor bereitgestellt werden, jedoch ohne dass der Inertialsensor tatsächlich im Fahrzeug verbaut zu werden braucht.
  • Gemäß einer Ausführungsform können zusätzlich Sensordaten, die von einer zusätzlichen Sensorik des Fahrzeugs erzeugt wurden, empfangen und in den Zustandsschätzer eingegeben werden. Auf diese Weise kann die Genauigkeit des Verfahrens erhöht werden. Darüber hinaus kann damit die Ausfallsicherheit des Systems erhöht werden. Beispielsweise kann der geschätzte Bewegungszustand auch dann noch bestimmt werden, wenn die Kamera ausfällt oder in ihrer Funktion beeinträchtigt ist.
  • Gemäß einer Ausführungsform kann die zusätzliche Sensorik mindestens einen Inertialsensor, einen satellitengestützten Ortungssensor und/oder einen Raddrehzahlsensor umfassen. In diesem Fall kann für die Bereitstellung der Sensordaten eine deutlich kostengünstigere Sensorik verwendet werden, als wenn der geschätzte Bewegungszustand ausschließlich aus den Sensordaten, d. h. ohne den aus den Kameradaten gewonnenen Bewegungsdaten, bestimmt wird. Zudem ermöglicht dies eine Prognose und Korrektur der Sensordaten auf Basis der Kameradaten. Beispielsweise können somit Fehler in den Ausgabedaten eines Inertialsensors zuverlässig erkannt werden.
  • Figurenliste
  • Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, wobei weder die Zeichnungen noch die Beschreibung als die Erfindung einschränkend auszulegen sind.
    • 1 zeigt ein Fahrzeug mit einem Fahrzeugsystem, das eine Kamera und ein Steuergerät gemäß einer Ausführungsform der Erfindung umfasst.
    • 2 zeigt das Fahrzeugsystem aus 1 im Detail.
    • 3 veranschaulicht einen Algorithmus in Form eines künstlichen neuronalen Netzes zur Verwendung in einem Verfahren gemäß einer Ausführungsform der Erfindung.
  • Die Figuren sind lediglich schematisch und nicht maßstabsgetreu. Gleiche Bezugszeichen bezeichnen in den Figuren gleiche oder gleichwirkende Merkmale.
  • Ausführungsformen der Erfindung
  • 1 zeigt ein Fahrzeug 1, das mit einem Fahrzeugsystem 3 bestehend aus einer Kamera 5 zum Erfassen einer Umgebung des Fahrzeugs 1 und einem Steuergerät 7 zum Auswerten von Kameradaten 8 der Kamera 5 in einem nachstehend beschriebenen Verfahren ausgestattet ist.
  • 2 zeigt mögliche Komponenten des Fahrzeugsystems 3 bzw. des Steuergeräts 7.
  • In diesem Beispiel umfasst das Steuergerät 7 einen Machine-Learning-Algorithmus 10, nachfolgend kurz Algorithmus 10 genannt, der mit historischen Kameradaten und Referenzbewegungsdaten trainiert wurde, um die Kameradaten 8 in Bewegungsdaten 12 umzuwandeln, die Werte für eine oder mehrere Bewegungsgrößen umfassen. Dementsprechend können die Referenzbewegungsdaten Referenzwerte für diese Bewegungsgröße(n) umfassen, die mit den historischen Kameradaten in geeigneter Weise zeitlich korreliert sein können.
  • Der Algorithmus 10 ist hier beispielhaft als ein künstliches neuronales Netz ausgeführt, dessen prinzipieller Aufbau in 3 gezeigt ist. Das Netz umfasst eine Eingabeschicht 15, in die die Kameradaten 8 eingegeben werden, und eine Ausgabeschicht 17 mit einer Mehrzahl von Ausgabeneuronen 19, die die Bewegungsdaten 12 ausgeben, hier Werte für eine Längsgeschwindigkeit vx, eine Quergeschwindigkeit vy, eine Vertikalgeschwindigkeit vz, eine Längsbeschleunigung ax, eine Querbeschleunigung ay, eine Vertikalbeschleunigung az, einen Rollwinkel ϕ, einen Nickwinkel θ, einen Gierwinkel ψ, eine Rollrate ωx, eine Nickrate ωy und eine Gierrate ωz. Die Eingabeschicht 15 und die Ausgabeschicht 17 sind über eine Mehrzahl hintereinanderliegender Zwischenschichten 21 miteinander verknüpft, die jeweils mehrere Neuronen mit trainierbaren Gewichten umfassen können, wobei die Ausgaben einer Zwischenschicht 21 als Eingaben in die jeweils nachfolgende Zwischenschicht 21 eingegeben werden.
  • Zusätzlich kann der Algorithmus 10 für jede der vorgenannten Bewegungsgrößen Unsicherheiten ausgeben, beispielsweise in Form entsprechender Varianzen σ v x 2 , σ v y 2 , σ v z 2 , σ a x 2 , σ a y 2 , σ a z 2 , σ ϕ 2 , σ θ 2 , σ ψ 2 , σ ω x 2 , σ ω y 2 , σ ω z 2 .
    Figure DE102022200142A1_0001
  • Zudem läuft auf dem Steuergerät 7 ein Zustandsschätzer 23, beispielsweise ein Kalman-Filter, der die Bewegungsdaten 12 vom Algorithmus 10 in jedem Zeitschritt empfängt und daraus Schätzdaten 25 erzeugt, die einen geschätzten Bewegungszustand des Fahrzeugs 1 zu einem dem jeweiligen Zeitpunkt nachfolgenden zukünftigen Zeitpunkt beschreiben. Die Schätzdaten 25 können beispielsweise einem ABS-Modul 27, einem ESP-Modul 28 und/oder einem Navigationsmodul 29 zum satellitengestützten Navigieren des Fahrzeugs 1 basierend auf Sensordaten 31 eines entsprechenden Ortungssensors 33 zur Verfügung gestellt werden.
  • In diesem Beispiel werden in den Zustandsschätzer 23 zusätzlich Sensordaten 35 eines Inertialsensors 37 des Fahrzeugs 1 eingegeben. Die Sensordaten 35 und die Kameradaten 12 können dabei in geeigneter Weise zeitlich miteinander korreliert sein.
  • Im Folgenden wird die Berechnung der Schätzdaten 25 näher erläutert.
  • Zunächst berechnet der Algorithmus 10 aus den Kameradaten 8 erste Modellwerte z = [vx,k vy,k vz,k ϕx θx ψk]T , umfassend erste Geschwindigkeitswerte [vx,k vy,k vz,k]T und erste Roll-, Nick- und Gierwinkelwerte [ ϕ k θ k ψ k ] T .
    Figure DE102022200142A1_0002
  • Außerdem berechnet der Algorithmus 10 aus den Kameradaten 8 die ersten weiteren Modellwerte u = [ax,k ay,k az,k ωx,k ωy,k ωz,k] T , umfassend Beschleunigungswerte [ax,k ay,k az,k]T und Winkeländerungswerte [ ω x , k ω y , k ω z , k ] T .
    Figure DE102022200142A1_0003
  • Mithilfe einer Strapdown- oder Kalman-Filter-Rechnung können aus den ersten weiteren Modellwerten u und den zweiten Modellwerten x̂ = [vx,k vy,k vz,k ϕ̂k θ̂̂k ψ̂k] T , umfassend zweite Roll-, Nick- und Gierwinkelwerte [ϕ̂k θ̂̂k ψ̂k]T , die zweiten Modellwerte x̂k+1 = [v̂x,k+1y,k+1z,k+1 ϕ̂k+1 θ̂k+1 ψ̂k+1]T des nachfolgenden Zeitschritts k + 1, umfassend zweite Geschwindigkeitswerte [v̂x,k+1y,k+1z,k+1]T sowie zweite Roll-, Nick- und Gierwinkelwerte [ϕ̂k+1 θ̂k+1 ψ̂k+1]T , durch diskrete Integration über die Zeit dt berechnet werden: [ v ^ x , k + 1 v ^ y , k + 1 v ^ z , k + 1 ]
    Figure DE102022200142A1_0004
    [ v ^ x , k v ^ y , k v ^ z , k ] + d t ( [ a x , k a y , k a z , k ] [ ω x , k ω y , k ω z , k ] × [ v ^ x , k v ^ y , k v ^ z , k ] Zentrifugalbeschleunigung g [ sin ( θ ^ k ) cos ( θ ^ k ) sin ( ϕ ^ k ) cos ( θ ^ k ) cos ( θ ^ k ) ] Erdbeschleunigung ) [ ϕ ^ k + 1 θ ^ k + 1 ψ ^ k + 1 ] = [ ϕ ^ k θ ^ k ψ ^ k ] + d t [ 1 sin ( ϕ ^ k ) tan ( θ ^ k ) cos ( ϕ ^ k ) tan ( θ ^ k ) 0 cos ( ϕ ^ k ) sin ( ϕ ^ k ) 0 sin ( ϕ ^ k ) cos ( θ ^ k ) cos ( ϕ ^ k ) cos ( θ ^ k ) ] [ ω x , k ω y , k ω z , k ]
    Figure DE102022200142A1_0005
  • Die ersten Modellwerte können für die Korrektur der zweiten Modellwerte herangezogen werden. Die Korrektur kann mithilfe eines Kalman-Filters erfolgen.
  • Für das Training des Algorithmus 10 können Daten eines Inertialsensors 37, etwa Winkelgeschwindigkeiten, Beschleunigungen und gegebenenfalls ein Neigungswinkel, und zusätzlich Daten eines Satellitennavigationssystems 33, etwa Geschwindigkeiten und gegebenenfalls ein Neigungswinkel, als Referenz verwendet werden. Der Algorithmus 10 kann dann die ersten Modellwerte und die ersten weiteren Modellwerte ausgeben. Darüber hinaus ist es besonders von Vorteil, wenn der Algorithmus 10, wie in 3 gezeigt, zusätzlich zu jedem ersten Modellwert und jedem ersten weiteren Modellwert einen zugehörigen ersten Konfidenzwert bzw. einen zugehörigen ersten weiteren Konfidenzwert wie etwa eine Varianz σ2 ausgibt. Jeder Ausgabe µ ∈ {u,z} = {vx, vy, ...ωz} ist dann eine zusätzliche Varianzausgabe σ 2 { σ v x 2 , σ v y 2 ,... σ ω z 2 }
    Figure DE102022200142A1_0006
    zugeordnet.
  • Der Algorithmus 10 kann mithilfe der jeweiligen Ausgaben µk ∈ {vx,k, vy,k, ... ωz,k} und σ k 2 { σ v x , k 2 , σ v y , k 2 ,... σ ω z , k 2 }
    Figure DE102022200142A1_0007
    sowie der zugehörigen Referenzwerte µref,k ∈ {vx,ref,k, vy,ref,k, ... ωz,ref,k} und σ r e f , k 2 { σ v x , r e f , k 2 , σ v y , r e f , k 2 ,... σ ω z , r e f , k 2 }
    Figure DE102022200142A1_0008
    so trainiert werden, dass die zweifach negative Log-Likelihood-Funktion 2 ln ( L ) = k n ( ln ( 2 π ( σ k 2 + σ r e f , k 2 ) ) + ( μ k μ ref , k ) 2 σ k 2 + σ r e f , k 2 )
    Figure DE102022200142A1_0009
    über insgesamt n Berechnungsschritte k hinweg minimiert wird.
  • Im künstlichen neuronalen Netz des Algorithmus 10 können Schichten mit rekurrenten Berechnungen wie etwa GRU (gated recurrent unit) oder LSTM, Faltungsschichten und insbesondere Schichten mit stochastischen Neuronen zum Einsatz kommen.
  • Die Varianzausgaben des Algorithmus 10 können verwendet werden, um die Korrektur der zweiten Modellwerte mithilfe der ersten Modellwerte besonders gut auszuführen. Neben den zweiten Modellwerten können auch zugehörige zweite Konfidenzwerte σ ^ k + 1 2 { σ ^ v x , k + 1 2 , σ ^ v y , k + 1 2 ,... σ ψ ^ , k + 1 2 }
    Figure DE102022200142A1_0010
    berechnet werden.
  • Für die Berechnung der zugehörigen zweiten Konfidenzwerte σ ^ k + 1 2
    Figure DE102022200142A1_0011
    kann das Modell x ^ ˙ = ƒ ( x ^ , u ) = [ a x ω y v ^ z + ω z v ^ y + g  sin ( θ ^ ) a y + ω x v ^ z ω z v ^ x g  cos ( θ ^ ) sin ( ϕ ^ ) a z ω x v ^ y + ω y v ^ x g  cos ( ϕ ^ ) tan ( θ ^ ) ω y cos ( ϕ ^ ) ω z sin ( ϕ ^ ) ω y sin ( ϕ ^ ) cos ( θ ^ ) + ω z cos ( ϕ ^ ) cos ( θ ^ ) ]
    Figure DE102022200142A1_0012
    mit den zweiten Modellwerten x̂ = [v̂xyz ϕ̂k θ̂̂k ψ̂k] Tund den ersten weiteren Modellwerten u = [ax ay az ωx ωy ωz]T linearisiert werden zu x ^ ˙ = ƒ ( x ^ , u ) = ƒ ( x ^ , u ) x ^ x ^ + ƒ ( x ^ , u ) u u
    Figure DE102022200142A1_0013
    mit ƒ ( x ^ , u ) x ^ = [ 0 ω z ω y 0 g   c o s ( θ ^ ) 0 ω z 0 ω x g  cos ( θ ^ ) cos ( ϕ ^ ) g  sin ( θ ^ ) sin ( ϕ ^ ) 0 ω y ω x 0 g  cos ( θ ^ ) sin ( ϕ ^ ) g  sin ( θ ^ ) cos ( ϕ ^ ) 0 0 0 0 ( ω y cos ( ϕ ^ ) ω z sin ( ϕ ^ ) ) tan ( θ ^ ) ( ω y sin ( ϕ ^ ) + ω z cos ( ϕ ^ ) ) ( 1 + tan 2 ( θ ^ ) ) 0 0 0 0 ω y sin ( ϕ ^ ) ω z cos ( ϕ ^ ) 0 0 0 0 0 ω y cos ( ϕ ^ ) cos ( θ ^ ) ω z sin ( ϕ ^ ) cos ( θ ^ ) ω z cos ( ϕ ^ ) sin ( θ ^ ) cos ( θ ^ ) 2 + ω y sin ( ϕ ^ ) sin ( θ ^ ) cos ( θ ^ ) 2 0
    Figure DE102022200142A1_0014
    und ƒ ( x ^ , u ) u = [ 1 0 0 0 v z v y 0 1 0 v z 0 v x 0 0 1 v y v x 0 0 0 0 1 sin ( ϕ ^ ) tan ( θ ^ ) cos ( ϕ ^ ) tan ( θ ^ ) 0 0 0 0 cos ( ϕ ^ ) sin ( ϕ ^ ) 0 0 0 0 sin ( ϕ ^ ) cos ( θ ^ ) cos ( ϕ ^ ) cos ( θ ^ ) ]
    Figure DE102022200142A1_0015
  • Das linearisierte Strapdown-Modell kann zur Prädiktion der Kalman-Filter-Zustände bzw. der zweiten Modellwerte x ^ k + 1 = x ^ k + d t x ^ ˙ = ( I + d t ƒ ( x ^ , u ) x ^ ) A x ^ k + d t ƒ ( x ^ , u ) u B u
    Figure DE102022200142A1_0016
    und zur Prädiktion der Kalman-Filter-Kovarianzmatrix P ^ k + 1 = A P ^ k A + B Q B
    Figure DE102022200142A1_0017
    mit Q = [ σ a x 2 0 0 0 0 0 0 σ a y 2 0 0 0 0 0 0 σ a z 2 0 0 0 0 0 0 σ ω x 2 0 0 0 0 0 0 σ ω y 2 0 0 0 0 0 0 σ ω z 2 ]
    Figure DE102022200142A1_0018
    und P ^ = [ σ ^ v x 2 σ ^ v x σ ^ v y σ ^ v x σ ^ v z σ ^ v x σ ^ ϕ σ ^ v x σ ^ θ σ ^ v x σ ^ ψ σ ^ v x σ ^ v y σ ^ v y 2 σ ^ v y σ ^ v z σ ^ v y σ ^ ϕ σ ^ v y σ ^ θ σ ^ v y σ ^ ψ σ ^ v x σ ^ v z σ ^ v y σ ^ v z σ ^ v z 2 σ ^ v z σ ^ ϕ σ ^ v z σ ^ θ σ ^ v z σ ^ ψ σ ^ v x σ ^ ϕ σ ^ v y σ ^ ϕ σ ^ v z σ ^ ϕ σ ^ ϕ 2 σ ^ ϕ σ ^ θ σ ^ ϕ σ ^ ψ σ ^ v x σ ^ θ σ ^ v y σ ^ θ σ ^ v z σ ^ θ σ ^ ϕ σ ^ θ σ ^ θ 2 σ ^ θ σ ^ ψ σ ^ v x σ ^ ψ σ ^ v y σ ^ ψ σ ^ v z σ ^ ψ σ ^ ϕ σ ^ ψ σ ^ θ σ ^ ψ σ ψ 2 ]
    Figure DE102022200142A1_0019
    herangezogen werden, wobei zusätzlich auch die resultierenden Kovarianzen σ̂vxσ̂vy ... σ̂vxσ̂ψ̂ ... σ̂θσ̂ψ auf den Nebendiagonalen der Kovarianzmatrix P̂̂ prädiziert werden können.
  • Die Korrektur der zweiten Modellwerte x̂ = [v̂x,k vy,kz,k ϕ̂k θ̂k ψ̂k] T mithilfe der ersten Modellwerte z = [vx,k vy,k vz,k ϕk θ̂̂k ψk] T kann beim Kalman-Filter mithilfe des Kalman-Gain K = P ^ H T ( H P ^ H T + R ) 1
    Figure DE102022200142A1_0020
    mit HT = I und R = [ σ v x 2 0 0 0 0 0 0 σ v y 2 0 0 0 0 0 0 σ v z 2 0 0 0 0 0 0 σ ϕ 2 0 0 0 0 0 0 σ θ 2 0 0 0 0 0 0 σ ψ 2 ]
    Figure DE102022200142A1_0021
    wie folgt vorgenommen werden: x ^ ' = x ^ + K ( z H x ^ )
    Figure DE102022200142A1_0022
  • Die Kovarianzmatrix P̂ kann ebenso wie folgt korrigiert werden: P ^ ' = ( I K H ) P ^
    Figure DE102022200142A1_0023
  • Abschließend wird darauf hingewiesen, dass Begriffe wie „aufweisend“, „umfassend“ usw. keine anderen Elemente oder Schritte ausschließen und unbestimmte Artikel wie „ein“ oder „eine“ keine Vielzahl ausschließen. Bezugszeichen in den Ansprüchen sind nicht als Einschränkung anzusehen.

Claims (12)

  1. Verfahren zum Schätzen eines Bewegungszustands eines Fahrzeugs (1), wobei das Fahrzeug (1) mit einer Kamera (5) zum Erfassen einer Umgebung des Fahrzeugs (1) ausgestattet ist, wobei das Verfahren umfasst: Empfangen von Kameradaten (8), die von der Kamera (5) erzeugt wurden; Eingeben der Kameradaten (8) in einen Algorithmus (10), der mit historischen Kameradaten und den historischen Kameradaten zugeordneten Referenzbewegungsdaten trainiert wurde, um die Kameradaten (8) in Bewegungsdaten (12) umzuwandeln, die einen aktuellen Bewegungszustand des Fahrzeugs (1) beschreiben; und Bestimmen eines geschätzten Bewegungszustands des Fahrzeugs (1) aus den Bewegungsdaten (12) durch einen Zustandsschätzer (23).
  2. Verfahren nach Anspruch 1, wobei die Bewegungsdaten (12) eine aktuelle Geschwindigkeit, eine aktuelle Beschleunigung, einen aktuellen Drehwinkel und/oder eine aktuelle Drehrate des Fahrzeugs (1) anzeigen; und/oder wobei der Zustandsschätzer (23) eine geschätzte Geschwindigkeit und/oder einen geschätzten Drehwinkel des Fahrzeugs (1) bestimmt.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Bewegungsdaten (12) zusätzlich Varianzen bezüglich des aktuellen Bewegungszustands anzeigen; und/oder wobei der Zustandsschätzer (23) zusätzlich Varianzen bezüglich des geschätzten Bewegungszustands bestimmt.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Zustandsschätzer (23) ein Kalman-Filter ist.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Algorithmus (10) ein künstliches neuronales Netz ist.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei zum Trainieren des Algorithmus (10) eine Kostenfunktion, die eine Abweichung zwischen den Bewegungsdaten (12) und den Referenzbewegungsdaten quantifiziert, minimiert wurde; wobei die Kostenfunktion eine Likelihood-Funktion, insbesondere eine Log-Likelihood-Funktion, ist.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Referenzbewegungsdaten von einem Inertialsensor (37) und/oder einem satellitengestützten Ortungssensor (33) erzeugt wurden.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei zusätzlich Sensordaten (35), die von einer zusätzlichen Sensorik (37) des Fahrzeugs (1) erzeugt wurden, empfangen und in den Zustandsschätzer (23) eingegeben werden; wobei der Zustandsschätzer (23) den geschätzten Bewegungszustand zusätzlich aus den Sensordaten (35) bestimmt.
  9. Verfahren nach Anspruch 8, wobei die zusätzliche Sensorik mindestens einen Inertialsensor (37), einen satellitengestützten Ortungssensor (33) und/oder einen Raddrehzahlsensor umfasst.
  10. Steuergerät (7), umfassend einen Prozessor, der konfiguriert ist, um das Verfahren nach einem der vorhergehenden Ansprüche auszuführen.
  11. Computerprogramm, umfassend Befehle, die einen Prozessor bei Ausführung des Computerprogramms durch den Prozessor veranlassen, das Verfahren nach einem der Ansprüche 1 bis 9 auszuführen.
  12. Computerlesbares Medium, auf dem das Computerprogramm nach Anspruch 11 gespeichert ist.
DE102022200142.7A 2022-01-10 2022-01-10 Schätzen eines Bewegungszustands eines Fahrzeugs aus Kameradaten mithilfe von maschinellem Lernen Pending DE102022200142A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022200142.7A DE102022200142A1 (de) 2022-01-10 2022-01-10 Schätzen eines Bewegungszustands eines Fahrzeugs aus Kameradaten mithilfe von maschinellem Lernen
PCT/EP2023/050391 WO2023131715A1 (de) 2022-01-10 2023-01-10 Schätzen eines bewegungszustands eines fahrzeugs aus kameradaten mithilfe von maschinellem lernen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022200142.7A DE102022200142A1 (de) 2022-01-10 2022-01-10 Schätzen eines Bewegungszustands eines Fahrzeugs aus Kameradaten mithilfe von maschinellem Lernen

Publications (1)

Publication Number Publication Date
DE102022200142A1 true DE102022200142A1 (de) 2023-07-13

Family

ID=84982530

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022200142.7A Pending DE102022200142A1 (de) 2022-01-10 2022-01-10 Schätzen eines Bewegungszustands eines Fahrzeugs aus Kameradaten mithilfe von maschinellem Lernen

Country Status (2)

Country Link
DE (1) DE102022200142A1 (de)
WO (1) WO2023131715A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116872926A (zh) * 2023-08-16 2023-10-13 北京斯年智驾科技有限公司 一种自动驾驶车道保持方法、系统、装置及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111885138A (zh) * 2020-07-16 2020-11-03 广州小鹏车联网科技有限公司 控制方法、车辆和服务器

Also Published As

Publication number Publication date
WO2023131715A1 (de) 2023-07-13

Similar Documents

Publication Publication Date Title
DE102018111778B4 (de) Verfahren, Vorrichtung und System zur Steuerung eines Fahrzeugs, das eine Kreuzung passiert.
DE102013200132B4 (de) Fahrspurhaltesystem für ein Fahrzeug
DE112018006161T5 (de) System und Verfahren zum Steuern eines Fahrzeugs
WO2014040855A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs
DE102017102269A9 (de) Neigungs- und fehlausrichtungsausgleich für 6-dof-imu unter verwendung von gnss-/ins-daten
DE102013204833A1 (de) Spurhalteassistenz-System und -Verfahren
DE102019114585A1 (de) System und verfahren zum steuern eines fahrzeugs basierend auf einem voraussichtlichen verlassen der fahrspur
DE102010033530A1 (de) Verfahren und System zur Fahrspurenmittenführung eines Kraftfahrzeugs
DE102021128041A1 (de) Verbesserung eines neuronalen fahrzeugnetzwerks
DE102012203909A1 (de) Filterverfahren und Filtervorrichtung für Sensordaten
DE102019118210A1 (de) Vorrichtung und Verfahren zur Kompensation eines Richtungswinkels
DE102021116703A1 (de) Verfahren und System zur Vorhersage einer Trajektorie eines Zielfahrzeugs in einer Umgebung eines Fahrzeugs
DE102020101837A1 (de) Verfahren und Vorrichtung zur Ermittlung des Zustands eines Fahrzeugs
DE102019111041A1 (de) Verfahren und Vorrichtung zur Ermittlung eines Schätzwertes des Schwimmwinkels eines Fahrzeugs
DE102017220788A1 (de) Verfahren zum Trainieren eines zentralen Künstlichen-Intelligenz-Moduls
WO2023131715A1 (de) Schätzen eines bewegungszustands eines fahrzeugs aus kameradaten mithilfe von maschinellem lernen
DE102020200911B3 (de) Verfahren zum Erkennen von Objekten in einer Umgebung eines Fahrzeugs
DE102017108130A1 (de) Verfahren zur Datenfusion eines Datensatzes, entsprechende Recheneinheit und Fahrzeug welches mit einer entsprechenden Recheneinheit ausgestattet ist sowie Computerprogramm
EP4088224A1 (de) Verfahren zur zusammenführung mehrerer datensätze für die erzeugung eines aktuellen spurmodells einer fahrbahn und vorrichtung zur datenverarbeitung
WO2015090691A1 (de) Verfahren zum erzeugen eines umgebungsmodells eines kraftfahrzeugs, fahrerassistenzsystem und kraftfahrzeug
DE102017205973A1 (de) Verfahren zum Ermitteln eines in einem Gierratensignal eines Gierratensensors eines Kraftfahrzeugs enthaltenen Versatzes sowie Steuervorrichtung und Kraftfahrzeug
DE102016212097A1 (de) Verfahren und Vorrichtung zum Schätzen eines Lenkraddrehmoments für eine mechanische Rückkopplung an einem Lenkrad eines Kraftfahrzeugs
DE102013020558A1 (de) Verfahren zur Fahrwerksregelung und Fahrwerksregelsystem
DE102022121602A1 (de) Objektbewegungsbahnprognose
DE102019216379A1 (de) Verfahren zum Trainieren eines neuronalen Faltungs-Netzwerkes zum Bestimmen einer Lokalisierungs-Pose