DE102008026397B4 - Radar-, Lidar- und Kamera-unterstützte Verfahren zur Schätzung der Fahrzeugdynamik - Google Patents

Radar-, Lidar- und Kamera-unterstützte Verfahren zur Schätzung der Fahrzeugdynamik Download PDF

Info

Publication number
DE102008026397B4
DE102008026397B4 DE102008026397.4A DE102008026397A DE102008026397B4 DE 102008026397 B4 DE102008026397 B4 DE 102008026397B4 DE 102008026397 A DE102008026397 A DE 102008026397A DE 102008026397 B4 DE102008026397 B4 DE 102008026397B4
Authority
DE
Germany
Prior art keywords
vehicle
signals
lateral
longitudinal
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102008026397.4A
Other languages
English (en)
Other versions
DE102008026397A1 (de
Inventor
Shuqing Zeng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102008026397A1 publication Critical patent/DE102008026397A1/de
Application granted granted Critical
Publication of DE102008026397B4 publication Critical patent/DE102008026397B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/107Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/60Velocity or trajectory determination systems; Sense-of-movement determination systems wherein the transmitter and receiver are mounted on the moving object, e.g. for determining ground speed, drift angle, ground track
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • B60W2050/0031Mathematical model of the vehicle
    • B60W2050/0033Single-track, 2D vehicle model, i.e. two-wheel bicycle model
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

System (10) zum Schätzen der Fahrzeugdynamik in einem Fahrzeug (26), wobei das System (10) umfasst: einen Objekterfassungssensor (12) zum Erfassen stationärer Objekte relativ zur Fahrzeugbewegung, wobei der Objekterfassungssensor (12) Objekterfassungssignale zum Verfolgen des Objekts liefert; mehrere fahrzeugseitige Sensoren (20), die Sensorsignale liefern, die die Fahrzeugbewegung repräsentieren; einen Zuordnungsprozessor (14), der auf die Objektsignale anspricht, wobei der Zuordnungsprozessor (14) zum Verfolgen des Objekts die Objektsignale folgender Ansichten aufeinander abstimmt und Objektverfolgungssignale liefert; einen Längszustandsschätzprozessor (16), der auf die Objektverfolgungssignale und die Sensorsignale anspricht und einen Schätzwert der Fahrzeuggeschwindigkeit in Vorwärtsrichtung relativ zur Fahrzeugbewegung liefert; und einen Querzustandsschätzprozessor (18), der auf die Objektverfolgungssignale und die Sensorsignale anspricht, wobei der Querzustandsschätzprozessor die Fahrzeuggeschwindigkeit in Querrichtung relativ zur Fahrzeugbewegung schätzt; dadurch gekennzeichnet, dass der Längszustandsschätzprozessor (16) Objekt- und Sensorsignale der Fahrzeug-Längsposition, der Fahrzeug-Längsgeschwindigkeit, der Fahrzeug-Längsbeschleunigung und der Fahrzeuggeschwindigkeit empfängt und ein Kalman-Filter und ein Autoregressions-Rauschmodell verwendet, um eine korrigierte Längsbeschleunigung, eine korrigierte Fahrzeuggeschwindigkeit und ein Radschlupfsignal zu liefern; und/oder dass der Querzustandsschätzprozessor (18) Objekt- und Sensorsignale des Azimutwinkels und des seitlichen Versatzes eines Objekts sowie des Lenkradwinkels, der Giergeschwindigkeit und der Querbeschleunigung des Fahrzeugs empfängt und ein Kalman-Filter und ein Autoregressions-Rauschmodell verwendet, um eine Giergeschwindigkeitskorrektur, eine Querbeschleunigungskorrektur und eine Quergeschwindigkeit des Fahrzeugs zu liefern.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Diese Erfindung bezieht sich auf ein System zum Schätzen der Fahrzeugdynamik gemäß dem Oberbegriff des Anspruchs 1 und auf ein entsprechendes Verfahren gemäß dem Oberbegriff des Anspruchs 9.
  • 2. Diskussion des Standes der Technik
  • Ein gattungsgemäßes System ist beispielsweise aus der DE 102 51 949 A1 bekannt geworden.
  • Verschiedene Fahrerunterstützungssysteme und autonome Fahr- bzw. Steuervorgänge bei Fahrzeugen, wie beispielsweise elektronische Stabilitätssteuerung (electronic stability control, ECS), adaptive automatische Geschwindigkeitsregelung (adaptive cruise control, ACC), Spurhaltung (lane keeping, LK), Spurwechsel (lane changing, LC) usw., erfordern die Entwicklung äußerst robuster und genauer Module zum Schätzen verschiedener fahrzeugdynamischer Größen. Solche Module sind notwendig, um zum Steuern des Fahrzeugs einhergehend mit einem gewünschten Zustand die Kenntnis der Fahrzeugposition und der Fahrzeuggeschwindigkeit zu verschaffen.
  • Gegenwärtig werden auf einem mikroelektromechanischen System (MEMS) basierende Trägheitsmesseinheiten (inertial measurement units, IMUs) und Radgeschwindigkeits- bzw. Raddrehzahlsensoren verwendet, um die Fahrzeuggeschwindigkeit zu liefern. Jedoch ist die Leistung von Radgeschwindigkeitssensoren während Radschlupfzuständen wie etwa dann, wenn der Fahrer um die Kurve fährt oder Ausweichmanöver unternimmt, reduziert. Daher wird zu diesen Zeiten eine Koppelnavigationsstrategie für eine IMU angewandt, um die Geschwindigkeit und die Position des Fahrzeugs zu erzeugen. Da MEMS-IMUs gewöhnlich größere Fehler als teure Gyroskopsysteme besitzen, können Fehler hinsichtlich der Position und der Geschwindigkeit schnell anwachsen. Demgemäß sind gegenwärtige MEMS-IMUs der Kraftfahrzeug-Güteklasse (automotivegrade) allein im Allgemeinen nicht für längere Zeitperioden zur Koppelnavigation geeignet.
  • Auf dem Fachgebiet ist vorgeschlagen worden, GPS und ein kostengünstiges MEMS-IMU zu integrieren, um sich dem Problem einer systematischen Messabweichung und Drift ungleich null zuzuwenden. Jedoch wenden sich wenige dieser Systeme dem Problem zu, dass die GPS-Signale wie etwa dann, wenn sich das Fahrzeug in ”städtischen Schluchten” befindet, in denen eine zum Bestimmen der Position und der Geschwindigkeit des Fahrzeugs unzureichende Anzahl von Satelliten verfolgt wird, nicht immer verfügbar sind.
  • Künftige weiterentwickelte Fahrerunterstützungssysteme (advanced driver assist systems, ADS) für Fahrzeuge werden verschiedene Objekterfassungssensoren wie etwa Radar- und Lidarsensoren für den Fernbereich oder Ultraschall-Parkhilfesensoren umfassen. Ferner werden gegenwärtig Kamera-basierte Systeme für Spurabweichungswarnung entwickelt. Demgemäß ist das Interesse daran, zum Schätzen der Fahrzeugeigenbewegung Daten von diesen Vorrichtungen zu verwenden, gestiegen. Beispielsweise schlägt ein System vor, eine im Fahrzeug angebrachte Kalibrierkamera zu verwenden, um die Eigenbewegung zu schätzen und sich bewegende Objekte auf Straßen zu erfassen. Ein weiteres vorgeschlagenes System verwendet eine einzelne Kamera zum Berechnen der Eigenbewegung des Fahrzeugs auf Grundlage des Lichtflusses. Eine weitere Arbeit beinhaltet die Anwendung von Stereosehen auf das Problem der Schätzung der Eigenlage in städtischen Umgebungen. Jedoch ist bei vollgestopften Szenen (cluttered scenes) keiner dieser Lösungswege zuverlässig genug. Ferner machen wenige dieser Systeme den wesentlichen Bedarf an einer Systemintegration, die bei der künftigen technischen Entwicklung dieser Technologie notwendig ist, deutlich.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein verbessertes System sowie ein entsprechendes Verfahren zu schaffen.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • In Übereinstimmung mit den Lehren der vorliegenden Erfindung werden ein System, das die Merkmale des Anspruchs 1 aufweist, und ein Verfahren, das die Merkmale des Anspruchs 9 aufweist, offenbart, die die Fahrzeugdynamik, die die Fahrzeugposition und die Fahrzeuggeschwindigkeit umfasst, anhand eines stationären Objekts schätzen. Das System umfasst einen Objektsensor wie etwa ein Radar, ein Lidar oder eine Kamera, die Objektsignale des stationären Objekts liefern. Das System umfasst außerdem fahrzeugseitige Sensoren, die Signale, die die Fahrzeugbewegung repräsentieren, wie etwa den Lenkradwinkel, die Giergeschwindigkeit, die Längsgeschwindigkeit, die Längsbeschleunigung und die Querbeschleunigung liefern. Das System umfasst außerdem einen Zuordnungsprozessor, der die Objektsignale empfängt und die Objektverfolgung durch mehrere Datenrahmen versieht. Das System umfasst außerdem einen Längszustandsschätzprozessor, der die Objektsignale und die Sensorsignale empfängt und eine Korrektur der Fahrzeuggeschwindigkeit in Vorwärtsrichtung liefert. Das System umfasst außerdem einen Querzustandsschätzprozessor, der die Objektsignale und die Sensorsignale empfängt und eine Korrektur der Fahrzeuggeschwindigkeit in Querrichtung liefert.
  • Weitere Merkmale der vorliegenden Erfindung werden deutlich aus der folgenden Beschreibung und den angehängten Ansprüchen, wenn diese in Verbindung mit den begleitenden Zeichnungen aufgenommen werden.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockschaltplan eines Systems zum Bestimmen von Fahrzeugzustandsschätzwerten unter Verwendung von Objektsensoren gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 2 ist eine Draufsicht, die die Fahrzeug-Eigenbewegung anhand von Spuren von einem stationären Radar zeigt;
  • 3 ist eine Darstellung eines Fahrradmodells, das Parameter für das Fahrverhalten des Fahrzeugs identifiziert; und
  • 4 ist eine Draufsicht eines Fahrzeug-Koordinatensystems.
  • GENAUE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Die folgende Besprechung der Ausführungsformen der Erfindung, die auf ein System und ein Verfahren zum Schätzen der Fahrzeugdynamik anhand von Radar-, Lidar- und/oder Kamerasignalen gerichtet ist, ist dem Wesen nach rein beispielhaft.
  • Wie nachstehend ausführlich besprochen wird, schlägt die vorliegende Erfindung ein integriertes System vor, das kostengünstige MEMS-IMUs und andere fahrzeugseitige dynamische Sensoren verwendet, um mittels unterstützender Sensoren wie etwa Radar-, Lidar- und Sichtsystemen oder Kombinationen davon die Fahrzeugdynamikschätzwerte in Echtzeit zu korrigieren. Dies ermöglicht entweder eine verbesserte Leistung von vorhandenen Sensoren oder dieselbe Leistung von kleineren und preiswerteren Sensoren.
  • 1 ist ein Blockschaltplan eines Systems 10, das Fahrzeugzustandsschätzwerte wie etwa die Fahrzeugposition und die Fahrzeuggeschwindigkeit liefert, gemäß einer Ausführungsform der vorliegenden Erfindung. Das System 10 umfasst einen oder mehrere Objektsensoren 12 wie etwa Radar-, Lidar- und Sichtsysteme, Kameras usw., die an dem Fahrzeug verfügbar sein können, um Signale zu liefern, die Objekte außerhalb des Fahrzeugs verfolgen. Die Signale von den Sensoren 12 werden zu einem Zuordnungsprozessor 14 geschickt, der zum Verfolgen der Objekte die Abbildungen oder Bilder von den Signalen von aufeinander folgenden Ansichten abstimmt. Die Spuren von dem Zuordnungsprozessor 14 werden zu einem Längszustandsschätzprozessor 16, der die Fahrzeuggeschwindigkeit in Vorwärtsrichtung schätzt, und einem Querzustandsschätzprozessor 18, der die Fahrzeuggeschwindigkeit in Querrichtung als ein Ergebnis der Giergeschwindigkeit und des Schwimmwinkels bzw. Seitenschlupfwinkels schätzt, geschickt. Die Prozessoren 16 und 18 empfangen außerdem Signale von fahrzeugseitigen Sensoren 20 wie etwa einem Lenkradwinkelsensor, einem Giergeschwindigkeitssensor, einem Längsgeschwindigkeitssensor, einem Längsbeschleunigungssensor, einem Querbeschleunigungssensor usw., die alle Fachleuten auf dem Gebiet als Teil der verschiedenen Fahrzeugstabilitätssteuerungs- und Fahrerunterstützungssysteme, auf die oben hingewiesen wurde, bekannt sind.
  • Die Objektsensoren 12 bestimmen die Eigenbewegung des Fahrzeugs aus der Messung stationärer Objekte. 2 ist eine Draufsicht eines Fahrzeugs 26, das einen Radarsensor 28 umfasst, der ein stationäres Objekt 30 wie etwa einen Baum verfolgt. Der Radarsensor 28 ist am Schwerpunkt (center of gravity, CG) des Fahrzeugrahmens angebracht und in die Richtung der Fahrzeugfahrt gerichtet. Aus den Radarsignalen können wie folgt Fahrzeuggeschwindigkeiten berechnet werden: υx = –(x' – x)/ΔT (1) υy = –(y' – y)/ΔT (2) r = –(ϑ' – ϑ)/ΔT, (3) wobei die Größen (x, y) und (x', y') die Positionen des stationären Objekts 30 zur Zeit t bzw. t + Δt sind und υx, υy und r die Längsgeschwindigkeit, die Quergeschwindigkeit bzw. die Giergeschwindigkeit des Fahrzeugs 26 sind.
  • Die Entfernungsberechnungen, auf die oben hingewiesen wurde, können anhand eines in 3 gezeigten Fahrradmodells eines Fahrzeugs 32 erweitert werden, um eine Positionsverfolgung in dem Zuordnungsprozessor 14 bereitzustellen. Ein Entfernungssensor 34 ist an der Position (x0, y0, θ0) an dem Fahrzeug angebracht und weist in Vorwärtsrichtung. Die Bezeichnungen bei dem Fahrradmodell lauten:
  • α:
    Abstand von der Vorderradachse zum Fahrzeug-Schwerpunkt (CG);
    b:
    Abstand von der Hinterradachse zum Fahrzeug-CG;
    m:
    Fahrzeugmasse;
    Iz:
    träge Masse des Fahrzeugs längs der z-Achse;
    δ:
    Frontlaufradwinkel;
    l:
    Fahrzeug-Giergeschwindigkeit;
    u:
    Fahrzeug-Längsgeschwindigkeit; und
    υ:
    Fahrzeug-Quergeschwindigkeit.
  • Die Radarausgabe ist eine Liste von Objekten {oi|i = 1, ..., K} zur Zeit t. Die Messung des i-ten Objekts oi enthält die Entfernung ρ, die Entfernungsgeschwidigkeit ρ . und den Azimutwinkel ϑ. Gewöhnlich ist das Gesichtsfeld eines Fernbereichsradars schmal, beispielsweise 15°, weshalb jedes erfasste Objekt vor dem Fahrzeug auf der x-Achse liegt. Die folgende Gleichung (4) kann dazu verwendet werden, zu bestimmen, ob das Objekt stationär ist. |r .cosϑ – υx| < T (4)
  • Die Fahrzeugdynamik kann durch einen Zustandsvektor z dargestellt werden, dessen Komponenten umfassen:
  • δαx:
    Korrektur des Längsbeschleunigungsmesswerts;
    υx:
    Fahrzeug-Längsgeschwindigkeit;
    δr:
    Korrektur des Giergeschwindigkeitsmesswerts
    υy:
    Fahrzeug-Quergeschwindigkeit; und
    {(xi, yi)|i = 1, ..., K}:
    Liste von Positionen stationärer Objekte.
  • Der Längszustandsschätzprozessor 16 empfängt Längspositions-, Längsgeschwindigkeits-, Längsbeschleunigungs- und Fahrzeuggeschwindigkeitssignale von den Sensoren und verwendet die Kalman-Filterung sowie ein Autoregressions-Rauschmodell, um eine korrigierte Längsbeschleunigung αxo, eine korrigierte Längsgeschwindigkeit υxo und einen Radschlupf des Fahrzeugs zu verschaffen. Die Sensoren 20 wie etwa die Beschleunigungsmesser und die Radsensoren liefern Messwerte der Längsbeschleunigung αxo und der Geschwindigkeit υxo des Fahrzeugs. Der Schätzprozessor 16 kann die Längsposition und die Längsgeschwindigkeit des Fahrzeugs von der Radareingabe und die Längsbeschleunigung und die Fahrzeuggeschwindigkeit von den fahrzeugseitigen Sensoren 20 empfangen.
  • Der Prozessor 16 betrachtet die Beschleunigungskorrektur als Zufallspfadprozess. Das Längssystem des Fahrzeugs lässt sich wie folgt schreiben:
    Figure DE102008026397B4_0002
    wobei ε ein weißer Zufallsprozess mit Null-Mittelwert und Gaußscher Verteilung ist.
  • Unter der Annahme eines Messwerts oi = ({pi, p .i, ϑi} von dem i-ten Objekt, lässt sich die Beobachtungsgleichung wie folgt schreiben: picosϑi = xi + ν1 (8) p .cosϑi = –υx + ν2 (9) υxo = υx + ν3, (10) wobei die Größen ν1, ν2 und ν3 Beobachtungsrauschen sind, die als Gaußsche weiße Zufallsprozesse modelliert sind.
  • Der Kalman-Filterungsprozess in dem Prozessor 16 wird dazu verwendet, die korrigierte Längsbeschleunigung αx + δαx, die korrigierte Längsgeschwindigkeit υx und den Radschlupf zu bestimmen, wenn die folgende Bedingung erfüllt ist. x – υxo| > T (11) wobei T ein Schwellenwert ist.
  • Der Querzustandsschätzprozessor 18 empfängt Objekt-Azimutwinkel-, Objekt-Querversatz-, Lenkradwinkel-, Giergeschwindigkeits- und Querbeschleunigungssignale von den Sensoren und verwendet die Kalman-Filterung sowie ein Autoregressions-Rauschmodell, um eine Giergeschwindigkeitskorrektur, eine Querbeschleunigungskorrektur und ein Quergeschwindigkeitssignal des Fahrzeugs zu liefern. Die fahrzeugseitigen Sensoren 20 wie etwa die Beschleunigungsmesser- und Giergeschwindigkeitssensoren liefern Messwerte der Querbeschleunigung αyo und der Giergeschwindigkeit ro des Fahrzeugs. Der Lenkradwinkelsensor liefert den Lenkradwinkel δf. Die Korrektur der Giergeschwindigkeit ist als Zufallspfad modelliert. Es sei angenommen, dass L = a + b die Radbasis ist und cf und cr die Quersteifigkeitskoeffizienten des vorderen und des hinteren Reifens sind, dann kann das laterale Anlagenmodell wie folgt geschrieben werden:
    Figure DE102008026397B4_0003
    wobei ε1 und ε2 zwei weiße Gaußsche Zufallsprozesse sind.
  • Unter Annahme eines Messwerts oi – (pi, p .i, ϑi) von dem i-ten Objekt, lässt sich die Beobachtungsgleichung wie folgt schreiben: pisinϑi = yi + ν1 (15) αyo = υx(ro + δr) + ν2, (16) wobei die Größen ν1 und ν2 Beobachtungsrauschen sind, die als Gaußsche weiße Zufallsprozesse modelliert sind. Hierbei ist ν1 der durch den Messwert eingeführte Fehler und ν2 der durch die überhöhte Straße oder Sensormesswerte eingeführte Fehler.
  • Das Kalman-Filter in dem lateralen bzw. Quer-Schätzprozessor 18 wird dazu verwendet, die korrigierte Giergeschwindigkeit (ro + δr), die korrigierte Querbeschleunigung (αy + δαy) und die Quergeschwindigkeit υy zu bestimmen.
  • Die meisten Entfernungssensoren, die auf dem Fachgebiet verwendet werden, berichten ein Objekt mit einer Identifizierung, die über verschiedene Zeitrahmen gleich bleibt. Diese Informationen werden dazu verwendet, Objektabbildungen von aufeinander folgenden Rahmen abzustimmen. Mathematisch kann angenommen werden, dass der Sensor das Objektabbild {oi(t), li(t)|i = 1, ..., Ki} zu einer Zeit t und das Abbild {oj(t'), lj(t')|j = 1, ..., Kl'} zu einer Zeit t' liefert, wobei l die Objektidentifizierung bezeichnet. Daher lassen sich die Abstimmungen bzw. Entsprechungen aufeinander folgender Abbildungen wie folgt definieren: {(oi(t), o'j(t'))|li(t) = lj(t'), 1 ≤ i ≤ Kl, 1 ≤ j ≤ kl'} (17)
  • In einer Ausführungsform kann eine monokulare Kamera als Objektsensor verwendet werden. Die Kamera deckt die Bewegung des Fahrzeugs, das auf der Geländeoberfläche navigiert, ab, indem sie bestimmte Szenenelemente auf dem Gelände verfolgt. Bei einer monokularen Abfolge kommt eine homographische Transformation zwischen zwei Ansichten für die Elemente auf derselben Ebene vor. Das heißt, dass es für einen Satz von Punktentsprechungen xi, x ' / i zwischen zwei Bildern unter der Annahme, dass die Punkte koplanar sind, eine homographische Matrix F gibt, die wie folgt definiert ist x ' / i = Fxi, (18) wobei x eine homogene Bildkoordinate (u, υ, m)T bezeichnet, die das Bildpixel bei ( u / m, υ / m) repräsentiert.
  • Eine Weltkoordinate zur Zeit t ist so definiert, dass die Ebene x-o-y mit der Geländeebene zusammenfällt, wie in 4 gezeigt ist. Das Kamera-Koordinatensystem o'x'y'z' ist fest mit der Kamera, deren Bildebene und deren Symmetrieachse mit der Ebene o'x'y' bzw. der z'-Achse zusammenfallen. Wenn angenommen wird, dass P = K[I|0] und P' = K[Rc] die Projektionsmatrizen der Kamera von zwei Ansichten sind, lässt sich die Homographiematrix F wie folgt angeben: F = K(R – cnT/d)K–1, (19) wobei K die intrinsische Matrix ist, R die Kamera-Drehmatrix ist, c die Kamera-Mittelpunktskoordinaten sind und π = (nT, d)T die Ebenengleichung (nTX + d = 0) ist, und zwar alle im Weltkoordinatensystem.
  • In 4 soll P die Projektionsmatrix P = KR[I|–c] zur Zeit t bezeichnen, wobei c = (x, y, –d)' und R die extrinsische Matrix der Kamera ist. Die Geländeebene sei mit π0 = (n T / 0 , 0)T bezeichnet, wobei n0 = (0, 0, 1)T. Bis zu Ansicht des nächsten Rahmens t' verschiebt sich das Fahrzeug um Δc = (Δx, Δy, 0)T und dreht sich um Δθ in der Geländeebene. Die Drehmatrix lässt sich wie folgt schreiben:
    Figure DE102008026397B4_0004
  • Dann lässt sich die Projektionsmatrix P' zur Zeit t' als P' = KR'[I|–c'] schreiben, wobei R' = RΔR und c' = c + Δc.
  • Zur Anwendung von Gleichung (19) wird das Weltkoordinatensystem zur Zeit t in den Kameramittelpunkt verschoben. Die neuen Projektionsmatrizen werden zu: P = K[I|0] (21) P' = K[R'R–1|–R'Δc] (22)
  • Die Geländeebene wird zu (Rn0, d). Demgemäß: F = K(R'R–1 + R'Δcn T / 0RRT/d)K–1 (23)
  • Das Anwenden von RT = R–1 und R' = RΔR ergibt F = KRΔR(I + Δcn T / 0|d)(KR)–1 (24)
  • Wenn die kalibrierte Kamera betrachtet wird, d. h., dass und R im Voraus bekannt sind, kann die Hauptmatrix E wie folgt berechnet werden: E = (KR)–1FKR = ΔR(I + Δcn T / 0/d) (25)
  • Mit n = (0, 0, 1)T, Δc = (Δx, Δy, 0)T und Gleichung (20) kann die Hauptmatrix E wie folgt geschrieben werden:
    Figure DE102008026397B4_0005
  • Gewöhnlich ist der Drehwinkel θ bei zwei aufeinander folgenden Ansichten klein (d. h., sinθ << 1). Folglich kann Gleichung (26) approximiert werden durch:
    Figure DE102008026397B4_0006
  • Die Hauptmatrix E in Gleichung (27) ist eigentlich eine zweidimensionale Transformation mit einer Verschiebung Δx/d, Δy/d und einer Drehung θ.
  • Gegeben sei ein Satz von Punktpaaren {(xi, x ' / i |i = 1, ..., N)} mit übereinstimmendem Merkmal; dann kann die Eigenbewegungsschätzung als Schätzung nach der Methode der kleinsten Quadrate formuliert werden:
    Figure DE102008026397B4_0007
    was transformiert werden kann in:
    Figure DE102008026397B4_0008
    wobei x ^ = KRx und x ^' = KRx', wenn die Kamera-Kalibiermatrizen K und R bekannt sind.
  • Wenn Gleichung (27) untersucht wird, sind die normierten Punkte zwischen den zwei Ansichten mit einer starren Drehung (Δθ) und einer Verschiebung (Δx/d, Δy/d) aufeinander bezogen. Um die Parameter wiederzugewinnen, kann das folgende Verfahren angewandt werden.
  • Der Eingang sind N Paare der Punkte {(xi, x ' / i )|i = 1, ..., N} mit übereinstimmendem Gelände- bzw. Grundmerkmal sowie die intrinsische parametrische Matrix K und die extrinsische parametrische Matrix R der Kamera.
  • Der Ausgang sind die geschätzten Eigenbewegungsparameter
    Figure DE102008026397B4_0009
    • 1. Berechne x ^i = KRxi und x ^i = KRx ' / i für alle xi und x ' / i .
    • 2. Berechne
      Figure DE102008026397B4_0010
    • 3. Berechne:
      Figure DE102008026397B4_0011
    • 4. Die Singularwertzusammensetzung der Matrix C soll als C = UWVT geschrieben sein.
  • Dann können die Drehung R2 und die Verschiebung t2 wie folgt aufgelöst werden:
    Figure DE102008026397B4_0012
  • Zum Erfassen der Merkmalspunkte in den zwei aufeinander folgenden Bildern kann ein Harris-Ecken-Detektor verwendet werden. Um die Übereinstimmung zwischen den gefundenen Merkmalspunkten zu finden, kann dann eine Korrelationsoperation an den Bildern ausgeführt werden. Der Bildpunkt bei (u, υ) im Bild I und der Bildpunkt (u', υ') im Bild I' stimmen überein, wenn und nur dann wenn die folgende Bedingungen erfüllt sind:
    Figure DE102008026397B4_0013
  • Die geschätzten Bewegungsparameter in den vorhergehenden Zyklen werden dazu verwendet, den Abstimmungsprozess zu führen. Zum Zurückweisen von Szenenelementen oberhalb des Geländes oder aus den sich dynamisch bewegenden Objekten wie etwa Fahrzeugen auf der Straße wird das folgende Verfahren zum Löschen von Ausreißern angewandt.
  • Der Eingang sind zwei Sätze der Szenenelemente (normiert mit der intrinsischen und der extrinsischen Matrix) in Pixelkoordinaten, die mit {(u ^i, υ ^i)|i = 1, ..., N} und {(u ^j, υ ^j)|j = 1, ..., M} bezeichnet sind.
  • Der Ausgang sind Paare übereinstimmender Punkte und geschätzte Bewegungsparameter.
    • 1. Sage den Ort der Elemente in dem vorhergehenden Rahmen vorher durch Verwenden vorhergehender Bewegungsparameter:
      Figure DE102008026397B4_0014
    • 2. Wende das Korrelationsverfahren an, um die Sätze der vorhergesagten Punkte {(u ^i, υ ^i)} und {(u ^'j, υ ^'j)} abzustimmen.
    • 3. Wähle in zufälliger Weise nicht weniger als vier abgestimmte Paare aus, die nicht kolinear sind, und leite dann unter Anwendung des oben besprochenen Verfahrens die Eigenbewegungsparameter ab.
    • 4. Validiere die abgeleiteten Bewegungsparameter durch Verwenden der abgestimmten Paare aus dem Schritt 3.
    • 5. Wenn die Abweichung der Mehrheit der abgestimmten Punkte hinreichend klein ist, beende den Prozess, gehe andernfalls zum Schritt 3.
  • Ähnlich wie mit dem oben beschriebenen Entfernungssensor kann die Eigenbewegung über mehrere Rahmen durch Verfolgen geschätzt werden. Die Anlagen- und Beobachtungsmodelle lassen sich wie folgt schreiben.
  • Der Bewegungszustand ist bezeichnet durch:
  • υx:
    Fahrzeug-Längsgeschwindigkeit;
    υy:
    Fahrzeug-Quergeschwindigkeit;
    δr:
    Giergeschwindigkeitsmesswertkorrektur; und
    δαr:
    Längsbeschleunigungskorrektur.
  • υxo, αxo, ro, und αyo sollen gemessene Längsgeschwindigkeit, gemessene Längsbeschleunigung, gemessene Giergeschwindigkeit bzw. gemessene Querbeschleunigung sein. Dann kann das Anlagenmodell wie folgt geschrieben werden:
    Figure DE102008026397B4_0015
    wobei ε1, ε2 und ε3 Gaußsches weißes Rauschen mit Null-Mittelwert sind.
  • Die aus zwei aufeinander folgenden Ansichten wiedergewonnenen Bewegungsparameter sollen mit (Δθo(t), Δxo(t), Δyo(t)) bezeichnet sein, wobei Δθo der Drehwinkel ist und (Δxo, Δyo) die Verschiebung ist. Die Beobachtungsgleichungen können wie folgt geschrieben werden: Δxo = υxΔT + ν1 (39) Δyo = υyΔT + ν2 (40) Δθo = (ro + δr)ΔT + ν3 (41) αyo = υx(ro + δr) + ν4, (42) wobei ν1, ν2, ν3 und ν4 durch die Messwerte eingeführtes Rauschen sind.
  • Demgemäß kann das Kalman-Filter dazu verwendet werden, die Zustandsvariablen zu bestimmen.

Claims (11)

  1. System (10) zum Schätzen der Fahrzeugdynamik in einem Fahrzeug (26), wobei das System (10) umfasst: einen Objekterfassungssensor (12) zum Erfassen stationärer Objekte relativ zur Fahrzeugbewegung, wobei der Objekterfassungssensor (12) Objekterfassungssignale zum Verfolgen des Objekts liefert; mehrere fahrzeugseitige Sensoren (20), die Sensorsignale liefern, die die Fahrzeugbewegung repräsentieren; einen Zuordnungsprozessor (14), der auf die Objektsignale anspricht, wobei der Zuordnungsprozessor (14) zum Verfolgen des Objekts die Objektsignale folgender Ansichten aufeinander abstimmt und Objektverfolgungssignale liefert; einen Längszustandsschätzprozessor (16), der auf die Objektverfolgungssignale und die Sensorsignale anspricht und einen Schätzwert der Fahrzeuggeschwindigkeit in Vorwärtsrichtung relativ zur Fahrzeugbewegung liefert; und einen Querzustandsschätzprozessor (18), der auf die Objektverfolgungssignale und die Sensorsignale anspricht, wobei der Querzustandsschätzprozessor die Fahrzeuggeschwindigkeit in Querrichtung relativ zur Fahrzeugbewegung schätzt; dadurch gekennzeichnet, dass der Längszustandsschätzprozessor (16) Objekt- und Sensorsignale der Fahrzeug-Längsposition, der Fahrzeug-Längsgeschwindigkeit, der Fahrzeug-Längsbeschleunigung und der Fahrzeuggeschwindigkeit empfängt und ein Kalman-Filter und ein Autoregressions-Rauschmodell verwendet, um eine korrigierte Längsbeschleunigung, eine korrigierte Fahrzeuggeschwindigkeit und ein Radschlupfsignal zu liefern; und/oder dass der Querzustandsschätzprozessor (18) Objekt- und Sensorsignale des Azimutwinkels und des seitlichen Versatzes eines Objekts sowie des Lenkradwinkels, der Giergeschwindigkeit und der Querbeschleunigung des Fahrzeugs empfängt und ein Kalman-Filter und ein Autoregressions-Rauschmodell verwendet, um eine Giergeschwindigkeitskorrektur, eine Querbeschleunigungskorrektur und eine Quergeschwindigkeit des Fahrzeugs zu liefern.
  2. System nach Anspruch 1, wobei der Objekterfassungssensor (12) aus der Gruppe gewählt ist, die aus Radarvorrichtungen, Lidarvorrichtungen, Kameras und Sichtsystemen besteht.
  3. System nach Anspruch 1, wobei der Objekterfassungssensor (12) ein Fernbereichsradarsensor ist.
  4. System nach Anspruch 3, wobei der Fernbereichssensor am Schwerpunkt des Fahrzeugs (26) angebracht ist.
  5. System nach Anspruch 1, wobei der Objekterfassungssensor (12) die Position des Objekts durch Verwenden eines Fahrradmodells erfasst.
  6. System nach Anspruch 1, wobei die fahrzeugseitigen Sensoren (20) aus der Gruppe gewählt sind, die aus Lenkradwinkelsensoren, Giergeschwindigkeitssensoren, Längsgeschwindigkeitssensoren, Längsbeschleunigungssensoren und Querbeschleunigungssensoren besteht.
  7. System nach Anspruch 1, wobei der Objekterfassungssensor (12) eine monokulare Kamera ist.
  8. System nach Anspruch 1, wobei das System Teil einer auf einem mikroelektromechanischen System basierenden Trägheitsmesseinheit ist.
  9. Verfahren zum Schätzen der Fahrzeugdynamik eines Fahrzeugs (26), wobei das Verfahren umfasst: Erfassen stationärer Objekte relativ zur Bewegung des Fahrzeugs (26) und Liefern von Objekterfassungssignalen; Messen verschiedener Fahrzeugzustände mittels fahrzeugseitiger Sensoren und Liefern von Sensorsignalen; Verwenden der Objektsignale und der Sensorsignale, um eine korrigierte Längsbeschleunigung und eine korrigierte Fahrzeuggeschwindigkeit des Fahrzeugs (26) zu liefern; und Verwenden der Objekterfassungssignale und der Sensorsignale, um eine korrigierte Querbeschleunigung und eine korrigierte Giergeschwindigkeit des Fahrzeugs (26) zu liefern; dadurch gekennzeichnet, dass das Liefern einer korrigierten Längsbeschleunigung und einer korrigierten Fahrzeuggeschwindigkeit das Empfangen der Objektsignale und der Sensorsignale, die die Fahrzeug-Längsposition, die Fahrzeug-Längsgeschwindigkeit, die Fahrzeug-Längsbeschleunigung und die Fahrzeuggeschwindigkeit bezeichnen, und das Verwenden eines Kalman-Filters und eines Autoregressions-Rauschmodells, um die korrigierte Längsbeschleunigung, die korrigierte Fahrzeuggeschwindigkeit und den korrigierten Radschlupf zu liefern, umfasst; und/oder dass das Liefern einer korrigierten Querbeschleunigung und einer korrigierten Giergeschwindigkeit das Verwenden der Objektsignale, die den Objekt-Azimutwinkel und den Objekt-Querversatz bezeichnen, sowie der Sensorsignale, die den Lenkradwinkel, die Giergeschwindigkeit und die Querbeschleunigung bezeichnen, und das Verwenden eines Kalman-Filters und eines Autoregressions-Rauschmodells, um die Querbeschleunigungskorrektur, die Quergeschwindigkeitskorrektur und die Giergeschwindigkeit zu liefern, umfasst.
  10. Verfahren nach Anspruch 9, wobei das Erfassen stationärer Objekte das Verwenden einer Radarvorrichtung, einer Lidarvorrichtung und/oder einer Kameravorrichtung umfasst.
  11. Verfahren nach Anspruch 9, wobei das Messen der verschiedenen Fahrzeugzustände mittels fahrzeugseitiger Sensoren das Verwenden von Lenkradwinkelsensoren, Giergeschwindigkeitssensoren, Längsgeschwindigkeitssensoren, Längsbeschleunigungssensoren und Querbeschleunigungssensoren umfasst.
DE102008026397.4A 2007-06-05 2008-06-02 Radar-, Lidar- und Kamera-unterstützte Verfahren zur Schätzung der Fahrzeugdynamik Active DE102008026397B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/758,180 US8855848B2 (en) 2007-06-05 2007-06-05 Radar, lidar and camera enhanced methods for vehicle dynamics estimation
US11/758,180 2007-06-05

Publications (2)

Publication Number Publication Date
DE102008026397A1 DE102008026397A1 (de) 2009-01-29
DE102008026397B4 true DE102008026397B4 (de) 2017-03-23

Family

ID=40157523

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008026397.4A Active DE102008026397B4 (de) 2007-06-05 2008-06-02 Radar-, Lidar- und Kamera-unterstützte Verfahren zur Schätzung der Fahrzeugdynamik

Country Status (3)

Country Link
US (1) US8855848B2 (de)
CN (1) CN101320089B (de)
DE (1) DE102008026397B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021202641A1 (de) 2021-03-18 2022-09-22 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Bestimmung eines Bewegungszustands eines starren Körpers

Families Citing this family (110)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8095309B2 (en) * 2007-06-05 2012-01-10 GM Global Technology Operations LLC GPS assisted vehicular longitudinal velocity determination
JP4967062B2 (ja) * 2007-08-22 2012-07-04 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー オプティカルフロー、運動学及び深さ情報を使用して、物体の適切な運動を推定する方法
US8180513B2 (en) * 2008-05-05 2012-05-15 Southwest Research Institute Autonomous ground vehicle control system for high-speed and safe operation
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US8537337B2 (en) * 2009-12-22 2013-09-17 Weyerhaeuser Nr Company Method and apparatus for analyzing tree canopies with LiDAR data
JP5350297B2 (ja) * 2010-03-17 2013-11-27 クラリオン株式会社 車両姿勢角算出装置及びそれを用いた車線逸脱警報システム
US8718897B2 (en) 2010-03-29 2014-05-06 Wrightspeed, Inc. Vehicle dynamics control in electric drive vehicles
DE102010003850A1 (de) 2010-04-12 2011-10-13 Robert Bosch Gmbh Verfahren und Vorrichtung zur Nachführung einer Position einer Objektmarkierung
JP5610847B2 (ja) * 2010-05-26 2014-10-22 三菱電機株式会社 角速度推定装置及びコンピュータプログラム及び角速度推定方法
JP5618744B2 (ja) * 2010-05-26 2014-11-05 三菱電機株式会社 道路形状推定装置及びコンピュータプログラム及び道路形状推定方法
US8447519B2 (en) * 2010-11-10 2013-05-21 GM Global Technology Operations LLC Method of augmenting GPS or GPS/sensor vehicle positioning using additional in-vehicle vision sensors
US9147260B2 (en) * 2010-12-20 2015-09-29 International Business Machines Corporation Detection and tracking of moving objects
WO2012117528A1 (ja) * 2011-03-01 2012-09-07 トヨタ自動車株式会社 状態推定装置
CN102184408B (zh) * 2011-04-11 2012-12-26 西安电子科技大学 基于自回归模型的雷达高分辨距离像目标识别方法
KR101074638B1 (ko) * 2011-05-04 2011-10-18 한국항공우주연구원 조향 모델을 이용한 주행차선 판단방법
US9139203B2 (en) * 2011-11-04 2015-09-22 GM Global Technology Operations LLC Lane tracking system
US8957807B2 (en) * 2011-12-14 2015-02-17 Ford Global Technologies, Llc Internal multi-axis G sensing used to align an automotive forward radar to the vehicle's thrust axis
DE102012200139A1 (de) * 2012-01-05 2013-07-11 Robert Bosch Gmbh Verfahren und Vorrichtung zur radunabhängigen Geschwindigkeitsmessung bei einem Fahrzeug
US20130197736A1 (en) * 2012-01-30 2013-08-01 Google Inc. Vehicle control based on perception uncertainty
DE102012203037A1 (de) * 2012-02-28 2013-08-29 Continental Automotive Gmbh Verfahren zur Ermittlung der Geschwindigkeit und/oder Position eines Fahrzeuges
KR101962890B1 (ko) * 2012-03-02 2019-08-01 현대모비스 주식회사 차량 센서 오프셋 보정 시스템 및 그 방법
DE102012215322A1 (de) * 2012-08-29 2014-03-06 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen einer Position eines Fahrzeugs auf einer Fahrspur
US9423498B1 (en) * 2012-09-25 2016-08-23 Google Inc. Use of motion data in the processing of automotive radar image processing
KR101405583B1 (ko) * 2012-10-30 2014-06-10 현대자동차주식회사 차량 속도 추정 장치 및 방법
DE102013205245A1 (de) 2013-03-25 2014-09-25 Continental Teves Ag & Co. Ohg Fahrzeugreferenzgeschwindigkeitsbestimmungsverfahren und Fahrzeugsteuergerät mit einem solchen Verfahren
US9251587B2 (en) * 2013-04-05 2016-02-02 Caterpillar Inc. Motion estimation utilizing range detection-enhanced visual odometry
DE102014205127B4 (de) 2013-04-17 2024-08-01 Ford Global Technologies, Llc Steuerung der Fahrdynamik eines Fahrzeugs mit Spurrillenausgleich
WO2015037173A1 (ja) * 2013-09-12 2015-03-19 パナソニック株式会社 レーダ装置、車両及び移動体速度検出方法
GB2523095B (en) * 2014-02-12 2018-01-31 Jaguar Land Rover Ltd Apparatus and method for use in a vehicle
WO2015125022A2 (en) * 2014-02-20 2015-08-27 Mobileye Vision Technologies Ltd. Navigation based on radar-cued visual imaging
US10024955B2 (en) 2014-03-28 2018-07-17 GM Global Technology Operations LLC System and method for determining of and compensating for misalignment of a sensor
DE102014111126A1 (de) * 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen einer Umgebungskarte eines Umgebungsbereichs eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
US10339389B2 (en) * 2014-09-03 2019-07-02 Sharp Laboratories Of America, Inc. Methods and systems for vision-based motion estimation
US9199643B1 (en) 2014-09-25 2015-12-01 GM Global Technology Operations LLC Sensor odometry and application in crash avoidance vehicle
US9449397B2 (en) * 2014-10-15 2016-09-20 Caterpillar Inc. Real-time visual odometry system for determining motion of a machine with a range detection unit
CN104407337B (zh) * 2014-11-14 2017-03-29 中国船舶重工集团公司第七0九研究所 面向转弯机动目标的数据滤波方法及系统
CN104477169B (zh) * 2014-11-20 2018-04-13 郑州宇通客车股份有限公司 一种车辆转向角速度检测方法
JP6425130B2 (ja) * 2014-12-18 2018-11-21 パナソニックIpマネジメント株式会社 レーダ装置及びレーダ状態推定方法
DE102015200395B4 (de) 2015-01-14 2019-10-10 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Darstellung einer Fahrzeuginformation
US9886801B2 (en) * 2015-02-04 2018-02-06 GM Global Technology Operations LLC Vehicle sensor compensation
US9903945B2 (en) 2015-02-04 2018-02-27 GM Global Technology Operations LLC Vehicle motion estimation enhancement with radar data
JP6421935B2 (ja) * 2015-03-31 2018-11-14 パナソニックIpマネジメント株式会社 車両移動推定装置および車両移動推定方法
US9645250B2 (en) * 2015-04-07 2017-05-09 GM Global Technology Operations LLC Fail operational vehicle speed estimation through data fusion of 6-DOF IMU, GPS, and radar
US10247816B1 (en) * 2015-07-06 2019-04-02 Apple Inc. Apparatus and method to measure slip and velocity
US11100673B2 (en) 2015-09-24 2021-08-24 Apple Inc. Systems and methods for localization using surface imaging
WO2017053415A1 (en) 2015-09-24 2017-03-30 Quovard Management Llc Systems and methods for surface monitoring
CN108139475A (zh) * 2015-09-30 2018-06-08 索尼公司 信号处理设备、信号处理方法和程序
CN105416290B (zh) * 2015-11-30 2017-11-14 奇瑞汽车股份有限公司 检测车距的方法和装置
US9889859B2 (en) * 2015-12-21 2018-02-13 Intel Corporation Dynamic sensor range in advanced driver assistance systems
CN105678689B (zh) * 2015-12-31 2020-01-31 百度在线网络技术(北京)有限公司 高精地图数据配准关系确定方法及装置
DE102016001101A1 (de) * 2016-02-02 2017-08-03 Audi Ag Verfahren zur Erkennung und Identifikation eines Fahrmanövers eines Verkehrsteilnehmers und Kraftfahrzeug
US10088553B2 (en) * 2016-03-14 2018-10-02 GM Global Technology Operations LLC Method of automatic sensor pose estimation
WO2017168588A1 (ja) * 2016-03-29 2017-10-05 パイオニア株式会社 測定装置、測定方法、及び、プログラム
WO2017168654A1 (ja) * 2016-03-30 2017-10-05 パイオニア株式会社 測定装置、測定方法、及び、プログラム
JP6563849B2 (ja) * 2016-05-06 2019-08-21 株式会社Soken 推定装置
US10557942B2 (en) * 2016-06-07 2020-02-11 DSCG Solutions, Inc. Estimation of motion using LIDAR
US11016499B2 (en) 2016-07-29 2021-05-25 Pioneer Corporation Measurement device, measurement method and program
US10408937B2 (en) * 2016-09-20 2019-09-10 Ford Global Technologies, Llc Metal bridge detection systems and methods
US11092690B1 (en) * 2016-09-22 2021-08-17 Apple Inc. Predicting lidar data using machine learning
JP2018055539A (ja) * 2016-09-30 2018-04-05 パナソニックIpマネジメント株式会社 移動体の状態算出装置、状態算出方法、プログラムおよびそれを記録した記録媒体
DE102016223107A1 (de) 2016-11-23 2018-05-24 Volkswagen Aktiengesellschaft System und Verfahren zur Schätzung der Eigenbewegung eines Fahrzeuges
EP3545337B1 (de) * 2017-01-26 2024-07-03 Mobileye Vision Technologies Ltd. Fahrzeugnavigation auf der basis von ausgerichteten bildern und lidar-informationen
US10509120B2 (en) * 2017-02-16 2019-12-17 GM Global Technology Operations LLC Lidar-radar relative pose calibration
US10583832B2 (en) 2017-05-02 2020-03-10 Cnh Industrial America Llc Obstacle detection system for a work vehicle
JP6509279B2 (ja) * 2017-05-31 2019-05-08 本田技研工業株式会社 物標認識システム、物標認識方法、およびプログラム
DE102017211402A1 (de) * 2017-07-04 2019-01-10 Zf Friedrichshafen Ag Vorrichtung und Verfahren zum Bestimmen der Fahrdynamik eines Straßenfahrzeugs
DE102017214022A1 (de) * 2017-08-11 2019-02-14 Audi Ag Verfahren zur Ermittlung von die Eigenbewegung eines Kraftfahrzeugs beschreibenden Egodaten und Kraftfahrzeug
JP7132703B2 (ja) * 2017-09-12 2022-09-07 日立Astemo株式会社 車両運動状態推定装置、車両運動状態推定システム、車両運動制御装置および車両運動状態推定方法
CN111133398B (zh) * 2017-09-22 2023-09-26 伟摩有限责任公司 使用雷达技术检测自动驾驶车辆的运动
US10890919B2 (en) 2017-09-22 2021-01-12 Waymo Llc Calculating velocity of an autonomous vehicle using radar technology
US10514456B2 (en) 2017-11-29 2019-12-24 Qualcomm Incorporated Radar aided visual inertial odometry outlier removal
WO2019150483A1 (ja) * 2018-01-31 2019-08-08 パイオニア株式会社 速度算出装置、速度算出方法、及び、プログラム
EP3758983A4 (de) * 2018-02-26 2021-08-11 Fedex Corporate Services, Inc. Systeme und verfahren zur verbesserten kollisionsvermeidung bei logistischen bodenunterstützungsgeräten unter verwendung von multi-sensor-detektionsfusion
CN108828621A (zh) * 2018-04-20 2018-11-16 武汉理工大学 基于三维激光雷达的障碍检测和路面分割算法
EP3575829B1 (de) * 2018-05-30 2020-11-18 Axis AB Verfahren zur bestimmung einer transformationsmatrix
US10634777B2 (en) 2018-05-30 2020-04-28 Ford Global Technologies, Llc Radar odometry for vehicle
FR3087884B1 (fr) * 2018-10-31 2021-04-02 Renault Sas Procede de determination d’un vecteur de deplacement d’un vehicule automobile, procede de determination d’une vitesse du vehicule et vehicule associe
US11613041B1 (en) 2018-11-08 2023-03-28 Scepaniak IP Holdings, LLC Coping nailer
US11214967B1 (en) 2018-11-08 2022-01-04 Scepaniak IP Holdings, LLC Roof rock spreader
TWI680898B (zh) * 2018-11-23 2020-01-01 財團法人車輛研究測試中心 近距離障礙物之光達偵測裝置及其方法
US10852746B2 (en) 2018-12-12 2020-12-01 Waymo Llc Detecting general road weather conditions
US10940851B2 (en) 2018-12-12 2021-03-09 Waymo Llc Determining wheel slippage on self driving vehicle
FR3094798B1 (fr) 2019-04-02 2021-03-05 Renault procédé de détermination d’une vitesse d’un véhicule automobile
CN112050830B (zh) * 2019-06-06 2023-06-02 华为技术有限公司 一种运动状态估计方法及装置
CN110412563A (zh) * 2019-07-29 2019-11-05 哈尔滨工业大学 一种基于多传感器融合的辅助列车车皮挂接的便携式测距仪及其工作方法
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
CN110780670B (zh) * 2019-09-19 2023-03-21 上海机器人产业技术研究院有限公司 基于模糊控制算法的机器人避障控制方法
DE102019127022A1 (de) * 2019-10-08 2021-04-08 Valeo Schalter Und Sensoren Gmbh Bestimmen einer Gierrate eines Kraftfahrzeugs
US20210139028A1 (en) * 2019-11-13 2021-05-13 Sf Motors, Inc. Fuzzy logic based and machine learning enhanced vehicle dynamics determination
KR102675802B1 (ko) 2019-12-20 2024-06-17 주식회사 에이치엘클레무브 운전자 보조 시스템 및 그 제어방법
US11325594B2 (en) * 2020-02-10 2022-05-10 GM Global Technology Operations LLC Sensor fusion based on intersection scene to determine vehicle collision potential
US11531115B2 (en) 2020-02-12 2022-12-20 Caterpillar Global Mining Llc System and method for detecting tracking problems
US11429114B2 (en) * 2020-02-14 2022-08-30 Deere & Company Implement control of vehicle and implement combination
CN113359147B (zh) * 2020-03-06 2023-08-18 宇通客车股份有限公司 一种车辆及目标物运动状态的判断方法和装置
CN113470342B (zh) * 2020-03-30 2023-04-07 华为技术有限公司 一种自运动估计的方法及装置
CN111400931B (zh) * 2020-04-09 2022-09-27 北京理工大学 一种车辆横摆角速度的确定方法及系统
US11332152B2 (en) * 2020-05-29 2022-05-17 GM Global Technology Operations LLC Method and apparatus for determining a velocity of a vehicle
KR20210154446A (ko) * 2020-06-12 2021-12-21 삼성전자주식회사 복소수 기반 어텐션 네트워크 연산 방법 및 장치
DE102020119498A1 (de) 2020-07-23 2022-01-27 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Schätzen einer Eigenbewegung eines Fahrzeugs anhand von Messungen eines Lidar-Sensors sowie Recheneinrichtung
CN114076946A (zh) * 2020-08-18 2022-02-22 华为技术有限公司 一种运动估计方法及装置
US11702085B2 (en) 2020-11-09 2023-07-18 Fca Us Llc Vehicle center of gravity height detection and vehicle mass detection using light detection and ranging point cloud data
CN113147738A (zh) * 2021-02-26 2021-07-23 重庆智行者信息科技有限公司 一种自动泊车定位方法和装置
DE102021202603A1 (de) 2021-03-17 2022-09-22 Psa Automobiles Sa Computerimplementiertes Verfahren zur Bestimmung einer Querbeschleunigung eines Kraftfahrzeugs, Computerprogrammprodukt, Fahrassistenzsystem sowie Kraftfahrzeug
CN113223326B (zh) * 2021-04-28 2022-11-11 上海电科智能系统股份有限公司 基于路侧的多车多控多源低速辅助停车系统
EP4202790A1 (de) * 2021-12-21 2023-06-28 dSPACE GmbH Verfahren und system zur klassifikation von verkehrssituationen sowie trainingsverfahren
US12108696B2 (en) 2021-12-23 2024-10-08 Cnh Industrial America Llc Agricultural system and method for determining an as-driven path of an agricultural work vehicle
US20230219561A1 (en) * 2022-01-05 2023-07-13 Motional Ad Llc Vehicle state estimation augmenting sensor data for vehicle control and autonomous driving
CN116184430B (zh) * 2023-02-21 2023-09-29 合肥泰瑞数创科技有限公司 一种激光雷达、可见光相机、惯性测量单元融合的位姿估计算法
CN115950441B (zh) * 2023-03-08 2023-07-07 智道网联科技(北京)有限公司 自动驾驶车辆的融合定位方法、装置及电子设备
CN117036505B (zh) * 2023-08-23 2024-03-29 长和有盈电子科技(深圳)有限公司 车载摄像头在线标定方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10251949A1 (de) * 2002-11-08 2004-05-19 Robert Bosch Gmbh Fahrdynamikregelung mit Bildsensorsystem
DE102004060402A1 (de) * 2004-12-14 2006-07-13 Adc Automotive Distance Control Systems Gmbh Verfahren und Vorrichtung zur Ermittlung einer Fahrzeuggeschwindigkeit
WO2007017693A1 (en) * 2005-08-10 2007-02-15 Trw Limited Method and apparatus for determining motion of a vehicle
DE102006036921A1 (de) * 2005-08-05 2007-04-12 Continental Teves Ag & Co. Ohg Verfahren zum Stabilisieren eines Kraftfahrzeugs und Fahrdynamikregelsystem

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2242949B (en) * 1990-03-22 1994-02-09 Nissan Motor Braking force control apparatus
JPH05185801A (ja) * 1992-01-10 1993-07-27 Nissan Motor Co Ltd 車両の挙動制御装置
US5648905A (en) * 1993-12-07 1997-07-15 Mazda Motor Corporation Traveling control system for motor vehicle
US5979581A (en) * 1996-11-07 1999-11-09 The Regents Of The University Of California Lateral vehicle control apparatus and method for automated highway systems and intelligent cruise control
JPH10267685A (ja) * 1997-03-21 1998-10-09 Unisia Jecs Corp 車両の横滑り角推定方法
JP3266827B2 (ja) * 1997-06-25 2002-03-18 本田技研工業株式会社 車両の物体検知装置
DE19928915A1 (de) * 1999-06-24 2001-01-11 Bosch Gmbh Robert Verfahren zur Sichtweitenbestimmung
DE10131198A1 (de) * 2001-06-28 2003-01-16 Bosch Gmbh Robert Verfahren und Vorrichtung zur Beeinflussung wenigstens eines Parameters eines Fahrzeugs
JP2003146199A (ja) * 2001-11-15 2003-05-21 Honda Motor Co Ltd 車両状態量の推定方法
US6671595B2 (en) * 2002-01-08 2003-12-30 Ford Global Technologies, Llc Vehicle side slip angle estimation using dynamic blending and considering vehicle attitude information
DE10345802A1 (de) * 2003-09-30 2005-04-14 Robert Bosch Gmbh Verfahren und Vorrichtung zur Fahrspurerkennung für ein Fahrzeug
DE10235414A1 (de) * 2002-08-02 2004-02-12 Robert Bosch Gmbh Verfahren und Vorrichtung zur Ermittlung des Bevorstehens einer unausweichbaren Kollision
JP4433887B2 (ja) * 2003-07-01 2010-03-17 日産自動車株式会社 車両用外界認識装置
US7197388B2 (en) * 2003-11-06 2007-03-27 Ford Global Technologies, Llc Roll stability control system for an automotive vehicle using an external environmental sensing system
US7835854B2 (en) * 2004-02-20 2010-11-16 Sharp Kabushiki Kaisha Condition detection and display system, condition detection and display method, control program for condition detection and display system, and storage medium storing the control program
EP1610152B1 (de) * 2004-05-28 2017-05-03 Saab Ab Verfolgung eines sich bewegenden Objektes für ein Selbstverteidigungssystem
DE102005003274A1 (de) * 2005-01-25 2006-07-27 Robert Bosch Gmbh Verfahren und Vorrichtung zur Vermeidung und/oder Minderung der Folgen von Kollisionen beim Ausweichen vor Hindernissen
US7620477B2 (en) * 2006-07-05 2009-11-17 Battelle Energy Alliance, Llc Robotic intelligence kernel
US7885748B2 (en) * 2006-09-13 2011-02-08 Gm Global Technology Operations, Inc. Virtual accelerometer
US8447472B2 (en) * 2007-01-16 2013-05-21 Ford Global Technologies, Llc Method and system for impact time and velocity prediction
US7979207B2 (en) * 2007-03-19 2011-07-12 Sirf Technology, Inc. Systems and methods for detecting a vehicle static condition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10251949A1 (de) * 2002-11-08 2004-05-19 Robert Bosch Gmbh Fahrdynamikregelung mit Bildsensorsystem
DE102004060402A1 (de) * 2004-12-14 2006-07-13 Adc Automotive Distance Control Systems Gmbh Verfahren und Vorrichtung zur Ermittlung einer Fahrzeuggeschwindigkeit
DE102006036921A1 (de) * 2005-08-05 2007-04-12 Continental Teves Ag & Co. Ohg Verfahren zum Stabilisieren eines Kraftfahrzeugs und Fahrdynamikregelsystem
WO2007017693A1 (en) * 2005-08-10 2007-02-15 Trw Limited Method and apparatus for determining motion of a vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021202641A1 (de) 2021-03-18 2022-09-22 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Bestimmung eines Bewegungszustands eines starren Körpers

Also Published As

Publication number Publication date
DE102008026397A1 (de) 2009-01-29
US8855848B2 (en) 2014-10-07
CN101320089A (zh) 2008-12-10
CN101320089B (zh) 2011-09-21
US20100017128A1 (en) 2010-01-21

Similar Documents

Publication Publication Date Title
DE102008026397B4 (de) Radar-, Lidar- und Kamera-unterstützte Verfahren zur Schätzung der Fahrzeugdynamik
DE102017128619B4 (de) Fahrzeugsteuersystem, damit ausgerüstetes Fahrzeug sowie Verfahren zum Steuern mindestens einer Funktion eines Fahrzeugs
DE102018111778B4 (de) Verfahren, Vorrichtung und System zur Steuerung eines Fahrzeugs, das eine Kreuzung passiert.
DE102016115339B4 (de) Fahrzeugfahrtsteuerungsvorrichtung
DE102004003877B4 (de) Verarbeitungssystem im Fahrzeug
DE102013209575B4 (de) Verfahren zum steuern eines fahrzeugs
EP2819901B1 (de) Verfahren und vorrichtung zur ermittlung der geschwindigkeit und/oder position eines fahrzeuges
DE602004012962T2 (de) Echtzeit-hinderniserkennung mit einer kalibrierten kamera und bekannter ego-bewegung
DE102018114808A1 (de) Verfahren zur automatischen Querführung eines Folgefahrzeugs in einem Fahrzeug-Platoon
DE102019114511A1 (de) Radar-odometrie für ein fahrzeug
DE102007041121B4 (de) Verfahren und Vorrichtung zum Verarbeiten von Sensordaten für ein Fahrerassistenzsystem eines Fahrzeugs
DE102016102002A1 (de) Verbesserung einer Fahrzeugbewegungsabschätzung mit Radardaten
DE112011101251T5 (de) Fahrzeugsteuervorrichtung, Ziel-Führungsfahrzeug-Zuweisungsvorrichtung und Fahrzeugsteuerverfahren
DE102020105649A1 (de) Verfahren und vorrichtung zur parallelen verfolgung und lokalisierung mittels eines multimodalen schmelzverfahrens
DE102020107349A1 (de) Verfahren und vorrichtung zur dynamischen gierratenabweichungsschätzung
DE102018103473A1 (de) Wirksamer rollradius
DE112019001078T5 (de) Verfahren und vorrichtung zur fahrzeugsteuerung
DE102020105657A1 (de) Verfahren und Systeme für die Kartierung und Lokalisierung eines Fahrzeuges
DE112021003371T5 (de) Fahrzeugpositionsschätzvorrichtung und Fahrpositionsschätzverfahren
DE102017205973A1 (de) Verfahren zum Ermitteln eines in einem Gierratensignal eines Gierratensensors eines Kraftfahrzeugs enthaltenen Versatzes sowie Steuervorrichtung und Kraftfahrzeug
DE102021110449A1 (de) Verfahren und System zum Navigieren einer mobilen Plattform in einer Umgebung
WO2017178232A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines kraftfahrzeugs, recheneinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
DE102019206562A1 (de) Verfahren zum Ermitteln einer Fahrzeugtrajektorie
DE102008025773A1 (de) Verfahren zur Schätzung eines Orts- und Bewegungszustands eines beobachteten Objekts
DE102019204408B4 (de) Verfahren zur Bestimmung der Gierrate eines Zielobjekts auf Grundlage der Sensordaten beispielsweise eines hochauflösenden Radars

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8180 Miscellaneous part 1

Free format text: PFANDRECHT

8180 Miscellaneous part 1

Free format text: PFANDRECHT AUFGEHOBEN

8180 Miscellaneous part 1

Free format text: PFANDRECHT

8127 New person/name/address of the applicant

Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC , ( N. D. , US

R081 Change of applicant/patentee

Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC (N. D. GES, US

Free format text: FORMER OWNER: GM GLOBAL TECHNOLOGY OPERATIONS, INC., DETROIT, MICH., US

Effective date: 20110323

R018 Grant decision by examination section/examining division
R020 Patent grant now final