DE4124654A1 - Verfahren zur kontinuierlichen und automatischen fahrzeugorientierung auf einer fahrbahn - Google Patents
Verfahren zur kontinuierlichen und automatischen fahrzeugorientierung auf einer fahrbahnInfo
- Publication number
- DE4124654A1 DE4124654A1 DE4124654A DE4124654A DE4124654A1 DE 4124654 A1 DE4124654 A1 DE 4124654A1 DE 4124654 A DE4124654 A DE 4124654A DE 4124654 A DE4124654 A DE 4124654A DE 4124654 A1 DE4124654 A1 DE 4124654A1
- Authority
- DE
- Germany
- Prior art keywords
- road
- curvature
- image
- vehicle
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 claims abstract description 38
- 230000008569 process Effects 0.000 claims description 23
- 238000011156 evaluation Methods 0.000 claims description 13
- 230000008901 benefit Effects 0.000 abstract description 3
- 239000011159 matrix material Substances 0.000 description 65
- 230000008859 change Effects 0.000 description 30
- 239000013598 vector Substances 0.000 description 29
- 238000005259 measurement Methods 0.000 description 27
- 238000004422 calculation algorithm Methods 0.000 description 20
- 238000001514 detection method Methods 0.000 description 20
- 238000013507 mapping Methods 0.000 description 20
- 230000007704 transition Effects 0.000 description 19
- 230000033001 locomotion Effects 0.000 description 17
- 238000013459 approach Methods 0.000 description 14
- 230000000875 corresponding effect Effects 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000005484 gravity Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 238000000605 extraction Methods 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 6
- 230000001419 dependent effect Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000000354 decomposition reaction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000013213 extrapolation Methods 0.000 description 4
- 238000009472 formulation Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 239000000047 product Substances 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000006467 substitution reaction Methods 0.000 description 4
- 230000002596 correlated effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000004069 differentiation Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000035515 penetration Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- GSDSWSVVBLHKDQ-UHFFFAOYSA-N 9-fluoro-3-methyl-10-(4-methylpiperazin-1-yl)-7-oxo-2,3-dihydro-7H-[1,4]oxazino[2,3,4-ij]quinoline-6-carboxylic acid Chemical compound FC1=CC(C(C(C(O)=O)=C2)=O)=C3N2C(C)COC3=C1N1CCN(C)CC1 GSDSWSVVBLHKDQ-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 244000025254 Cannabis sativa Species 0.000 description 1
- LLQPHQFNMLZJMP-UHFFFAOYSA-N Fentrazamide Chemical compound N1=NN(C=2C(=CC=CC=2)Cl)C(=O)N1C(=O)N(CC)C1CCCCC1 LLQPHQFNMLZJMP-UHFFFAOYSA-N 0.000 description 1
- 101150089878 RAD2 gene Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 239000010426 asphalt Substances 0.000 description 1
- 230000008033 biological extinction Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000013067 intermediate product Substances 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000011068 loading method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000009012 visual motion Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
Description
Die Erfindung bezieht sich auf ein Verfahren zur kontinuierlichen
und automatischen Fahrzeugorientierung auf einer Fahrbahn
mit einem bilderzeugenden System und einer computerisierten
Bildauswertung zur Erzeugung von Fahrzeugsteuerdaten.
Aufgrund einer wachsenden Verkehrsleistung ist eine immer
stärkere Transportkapazitätsauslastung von Verkehrswegen unvermeidlich.
Derzeit stößt diese Erweiterung jedoch auf eine Begrenzung,
die durch den Menschen wegen seiner psychischen und physischen
Möglichkeiten als Fahrzeugführer vorgegeben ist.
Als Ausweg bietet sich der teilweise oder vollständige Ersatz
des Fahrzeugführers durch eine automatische Fahrzeugführung
an, die auch schon unter den gegenwärtigen Bedingungen zur
Erhöhung der Verkehrssicherheit und Komfortsteigerung wünschenswert
wäre.
Zur Realisierung einer automatischen Fahrzeugführung ist es
notwendig, wenn sich der Ersatz des Menschen nicht nur auf
eine bloße Geschwindigkeitsregelung beschränken soll, über
ein System zu verfügen, welches die selbstständige Orientierung
des Automaten auf der Fahrbahn ermöglicht.
Bisher zu diesem Zweck geschaffene Einrichtungen sind hierzu
nur sehr eingeschränkt fähig.
So ist z. B. ein Automat zur Fahrzeuglenkung aus dem
EUREKA-Projekt "Prometheus" bekannt.
Diese Einrichtung weist zur Orientierung und Lenkung des
Fahrzeuges auf der Fahrbahn eine Kamera auf, die so ausgerichtet
ist, daß sie die rechte Fahrbahnbegrenzung anvisiert.
Aus dem erzeugten Bild wird mittels eines computerisierten
Auswerteverfahrens versucht, nach Farbkontrasten eine Leitspur
zu ermitteln.
Die Spur dient dann als Bezug für die Fahrzeugsteuerung.
Abgesehen von der Möglichkeit, ein Kraftfahrzeug schienenfahrzeuggleich
auf einer Straße führen zu können, muß als
hauptsächlicher Nachteil dieser Vorgehensweise festgestellt
werden, daß es so nicht möglich ist, sich am tatsächlichen
Fahrbahnverlauf zu orientieren.
Eine vorausschauende Bewertung des weiteren Straßenverlaufs
ist nicht möglich.
Des weiteren führen Kontraste, die einen Eindruck einer Spur
verursachen, aber nicht in Fahrbahnrichtung verlaufen, bzw.
etwaige Auslöschungen des vom System z. B. als Spur aufgefaßten
Randstreifens durch Bremsspuren, Schlagschatten etc.,
zu nicht akzeptablen Funktionsausfällen.
Eine andere diskutierte Einrichtung zur automatischen Fahrzeuglenkung
trägt die Bezeichnung "Train".
Zur Sicherstellung einer fortwährend zuverlässigen Lenkung
ist es bei ihr vorgesehen, die Kamera und die zugehörige
Bildauswertung gegen einen Stromabnehmer, der zugleich ein
seitliches Führungssignal erzeugen kann, auszutauschen.
Dem Vorteil der exakten zuverlässigen Fahrzeuglenkung steht
hier allerdings der erhebliche Nachteil gegenüber, nur auf
Straßen zu funktionieren, die über eine entsprechende Ausrüstung
verfügen.
Wegen der erwähnten Unzulänglichkeiten der bisher in Realisierung
bzw. Diskussion befindlichen Systeme zur automatischen
Fahrzeugführung stellt sich die Erfindung die Aufgabe,
ein Verfahren zu schaffen, welches implementiert in
eine Einrichtung zur automatischen Fahrzeugführung, diese in
die Lage versetzt, monokulare Bildfolgen einer am Fahrzeug
montierten Kamera modellgestützt zur räumlichen Fahrbahnverlaufserfassung
zu interpretieren.
Gemäß der Erfindung wird diese Aufgabe dadurch gelöst, daß
von einer Fernsehkamera, die möglichst hoch über der Fahrbahn
am Fahrzeug aufgehängt ist, ständig digitalisierte Bildfolgen
im Videotakt an ein Rechnersystem mit einem Programm zur
speziellen verfahrensgemäßen Ausgestaltung der Signalverarbeitung
und Interpretation im Fahrzeug übertragen werden.
Im Verfahren werden generische Straßenmodelle und einfache
generische dynamische Modelle für die Fahrzeugbewegung ausgenutzt,
um bisher enthaltene Ergebnisse der Fahrbahn- und
Fahrzeugrelativlage - Erkennung zur Auswertung des nächsten
Bildes verwenden zu können.
Hierzu werden drei Teilmodelle kombiniert.
Monokulare Bilddaten nur des letzten Bildes werden mit rekursiven
Schätzverfahren zur Bestimmung der Straßenparameter und
des eigenen Relativzustands ausgewertet.
Dadurch entsteht im Rechner eine räumliche Vorstellung des
aktuellen Straßenverlaufs im Vorausschaubereich.
In vorteilhafter Weise gelingt dabei eine Umsetzung von Veränderungen
im Bild in regelungsorientierte Zustandsgrößen
innerhalb nur eines Verfahrenszyklus.
Im folgenden wird das Verfahren zur kontinuierlichen und
automatischen Orientierung auf einer Fahrbahn näher
erläutert in der folgenden Anlage.
Die Modellierung stellt das zur "höheren" Interpretation nötige, meist
anwendungsspezifische, Vorwissen über eine Szene dar. Erst hiermit wird
eine Umsetzung vom "anonymen" Bildsignal in problemorientierte Bedeutung
möglich.
Der 4D-Ansatz zur Bildfolgeninterpretation nutzt die Modellierung räumlich-
geometrischer und zeitlich-dynamischer Aspekte einer Szene und
ihrer Veränderungen. Diese raum/zeitliche Modellvorstellung leistet in
Kombination mit rekursiven Schätzverfahren in der hier beschriebenen
Anwendung zur Straßenfahrzeugführung sowohl die Erkennung des fahrzeugeigenen
Lateralzustandes relativ zur Fahrbahn, als auch die Erfassung
des räumlichen Fahrbahnverlaufes aus der 2D-Bildfolge während des Entlangfahrens.
Hierfür existieren zwei schwach gekoppelte dynamische Teilsysteme:
das der Fahrzeug-Querdynamik sowie der Fahrbahnkrümmungsdynamik.
Die Struktur des Differentialgleichungssystems, das die Fahrzeugseitenbewegung
bzw. die Fahrbahnkrümmungsdynamik beschreibt, die geometrischen
Modell- und Abbildungsparameter, das eingesetzte Zustandsschätzverfahren
(Kalman Filter) sowie die zugehörigen Kovarianzen der Meßfehler und Prozeßstörungen
stellen "analytisches Wissen" [Isermann u. Nold, 88] über
den optisch zu erfassenden (und in der Folge zu steuernden) Prozeß "Entlangfahren
an einer Straße" dar.
Die wesentlichen modellierten - und damit erfaßbaren - Freiheitsgrade
und ihre Auswirkung auf das Bild der Fahrbahn sollen im folgenden qualitativ
veranschaulicht werden (Bild 1a bis e):
Es zeigen im einzelnen Bild:
- a) Einfluß einer Seitenablage von der Fahrbahnmitte nach rechts,
- b) Einfluß eines Gierwinkels zwischen Fahrzeuglängs- bzw. Kameraachse und Fahrbahnrichtung nach links,
- c) Einfluß von horizontaler Fahrbahnkrümmung (Kurven)
- d) e) Einfluß von vertikaler Fahrbahnkrümmung (Steigungsänderungen)
Bild 1: Mögliche Erscheinungsbilder der Fahrbahn. Der Referenzverlauf
der Fahrbahnbegrenzungen für eine zentrierte, ausgerichtete Fahrzeugposition
auf ebener und gerader Straße ist jeweils mit dünner Strichstärke
eingezeichnet.
Der räumliche Fahrbahnverlauf (bzw. der einer Skelettlinie) wird im
wesentlichen durch die geometrischen Parameter der horizontalen bzw.
vertikalen Fahrbahnkrümmung (c0h, c0v) über der Lauflänge beschrieben
(vgl. Bild 2). Die Fahrbahnbegrenzungen werden als parallel verlaufend
mit Abstand b angenommen. Die Fahrbahnwölbung und -verwindung, d. h.
Änderungen des Hängewinkels, innerhalb des Vorausschaubereichs seien
vernachlässigbar klein.
Bild 2 gibt einen räumlichen Fahrbahnverlauf mit horizontaler und vertikaler
Krümmung wieder.
Die horizontale Krümmung c0h (Krümmungsradius Rh=1/c0h) kann sich linear
mit der Lauflänge 1 ändern (dc0h/d1=c1h=const.). Dies entspricht
den grundlegenden Bauvorschriften und Auslegungskriterien für
Straßen für höhere Fahrgeschwindigkeiten [RAS-L-1, 84]. Der Fahrbahnverlauf
im Lageplan (d. h. in der Draufsicht) besteht somit aus Segmenten
konstanter Krümmung, also Geraden und stationären Kurven, sowie aus Kurvenübergängen
mit sich linear ändernder Krümmung (Klothoiden). Kuppen
und Wannen im Höhenverlauf haben näherungsweise Kreisform (in Realität
durch quadratische Parabeln approximiert).
Abgesehen von der unmittelbaren Bedeutung der horizontalen Fahrbahnkrümmung
für die Seiten- und Längsführung des Fahrzeugs [Dickmanns u. Zapp,
86] läßt sich über die lokalen Krümmungsparameter der räumliche Straßenverlauf
im Vorausschaubereich sehr effizient geometrisch in einem beobachterbezogenen,
mitbewegten Koordinatensystem beschreiben. Darüber
hinaus lassen sich die zeitlichen, über den Vorausschaubereich gemittelten
Beziehungen zwischen c0h, c1h und 0h aufgrund des Entlangfahrens
mit bekannter Eigengeschwindigkeit v als kompaktes System linearer Differentialgleichungen
formulieren, wie von [Dickmanns, 88] vorgeschlagen.
Dies gilt weitgehend analog auch für die Vertikalkrümmungsparameter c0v,
c1v und 0v. D. h. es existiert ein dynamisches Modell der Fahrbahn-Krümmungsparameter,
das in Verbindung mit der geometrischen Modellierung und
den bekannten Abbildungsgesetzmäßigkeiten die Bestimmung dieser Größen
aus der Bildfolge mittels rekursiver Schätzverfahren erlaubt (vgl. Abschnitt
1.3).
In der Linienführung von Straßen für mittlere und höhere Fahrgeschwindigkeiten
wird u. a. die Fahrdynamik dadurch berücksichtigt, daß Krümmungsänderungen,
und damit auf das Fahrzeug wirkende Querkraftänderungen,
nicht sprunghaft, sondern stetig verlaufen. Dies wird durch Kurvenübergänge
(Klothoiden) mit sich linear über der Lauflänge 1 ändernder
Krümmung erreicht, d. h. es gilt
c (1)=c₀+c₁ · 1. (1)
Hierbei ist c=1/R (Kurvenradius R) die lokale Krümmung an der Lauflängenkoordinate
1 und c₀ der Anfangswert der Krümmung am Ort 1=0.
c₁=dc/d1 (2)
stellt die abschnittsweise konstante Krümmungsänderung über der Lauflänge
dar, die mit dem sog. Klothoidenparameter A über c₁=1/A² zusammenhängt
(vgl. [RAS-1-L, 84).
Der Fahrbahnverlauf im Lageplan kann somit durch die Horizontal-Krümmungsparameter
als Abfolge von Geraden, Kurvenübergangssegmenten
(Klothoiden) und Kreisbögen dargestellt werden:
Die Fahrbahnrichtungsänderung Δχc (Bild 3) ergibt sich in Anwendung
der Definition für die Krümmung c=dχc=dχ/d1 in der Differentialgeometrie
als Integral der Krümmung über der Lauflänge mit Gl. (1) zu
Die durch die Richtungsänderung über der Lauflänge auftretende laterale
Ablage Δyc von der ursprünglichen Tangente (Bild 3) wird durch einen
weiteren Integrationsschritt bestimmt.
Bild 3 stellt die lokale Geometrie eines Bogensegments dar.
Für kleine Winkeländerungen Δχ«1 (mit sinΔχ und cosΔχ≃1 und
Gl. (3)) lassen sich in einem kartesischen Koordinatensystem folgende
Näherungsbeziehungen für die Längs- und Querablage eines Punktes an der
Lauflängenkoordinate Δ1 auf der Klothoide angeben:
Bei einer maximalen Vorausschauentfernung von Δ1=20 [m] und einer
Krümmung von c₀=0,01 [1/m] (Kurvenradius 100 m) ergibt sich folgender
Näherungswert für die Querablage:
Gegenüber dem mathematisch exakten Wert
beträgt der Fehler durch die Linearisierung also ca. 0,5%.
Entsprechend [RAS-1-L, 84] werden Steigungsänderungen der Fahrbahn durch
im Vertikalprofil parabolische, näherungsweise kreisförmige Übergangssegmente
(Wannen u. Kuppen) realisiert. Als Parameter der Fahrbahn-
Vertikalgeometrie werden hier die über die Vorausschauweite gemittelte
vertikale Fahrbahnkrümmung c0vm, sowie - als Hilfsgröße zur dynamischen
Modellierung (speziell beim Übergang von ebenen zu vertikal gekrümmten
Fahrbahnbereichen, vgl. Kap. 3.2) - die mittlere Änderung der Vertikalkrümmung
über der Lauflänge c1vm=dcvm/d1 angesetzt.
Analog zu Gl. (1) bis (4) gilt dann für die Fahrbahn-Höhenänderung
ΔHcv aufgrund vertikaler Fahrbahnkrümmung über der Lauflänge Δ1
(ausgehend von horizontaler Fahrbahn):
Im Fahrbahnerfassungs-Modul gehen die räumliche Fahrbahngeometrie und
die perspektivischen Abbildungsgesetzmäßigkeiten explizit in den Erkennungsprozeß
mit ein.
Es zeigt:
Bild 4: Horizontale Fahrbahn- und Abbildungsgeometrie. Der Fahrzeugschwerpunkt ist mit SP gekennzeichnet, das Projektionszentrum der Kamera durch PZ.
Bild 4: Horizontale Fahrbahn- und Abbildungsgeometrie. Der Fahrzeugschwerpunkt ist mit SP gekennzeichnet, das Projektionszentrum der Kamera durch PZ.
Für die Größen in Bild 4 gilt folgende Indexkonvention:
V=Fahrzeug; K=Kamera, R=Fahrbahn, B=in Bildkoordinaten,
g=rel. zu geodätischem Koordinatensystem.
V=Fahrzeug; K=Kamera, R=Fahrbahn, B=in Bildkoordinaten,
g=rel. zu geodätischem Koordinatensystem.
Die horizontale Bildkoordinate yB eines Fahrbahnrand-Kantenelementes in
der Vorausschauentfernung L vom Projektionszentrum (PZ) wird durch die
Abbildungsparameter sowie folgende Größen der Kamera- und Fahrzeug-
Relativlage bzw. der ebenen Fahrbahngeometrie bestimmt:
f - Brennweite [mm],
ky - Kameraskalierfaktor (horizontal) [px1/mm],
L - Vorausschauentfernung [m],
d - Abstand des Projektionszentrums vom Fahrzeugschwerpunkt [m],
ψKV - Kamera-Gierwinkel relativ zur Fahrzeuglängsachse [rad],
yV - Ablage des Fahrzeugschwerpunkts von der Fahrbahnmitte [m],
ψV - Gierwinkel zwischen Fahrzeuglängsachse und Fahrbahntangente [rad],
b - Fahrbahnbreite [m],
c0hm - mittlere horizontale Fahrbahnkrümmung [1/m],
c1hm - mittlere horizontale Fahrbahnkrümmungsänderung [1/m²].
ky - Kameraskalierfaktor (horizontal) [px1/mm],
L - Vorausschauentfernung [m],
d - Abstand des Projektionszentrums vom Fahrzeugschwerpunkt [m],
ψKV - Kamera-Gierwinkel relativ zur Fahrzeuglängsachse [rad],
yV - Ablage des Fahrzeugschwerpunkts von der Fahrbahnmitte [m],
ψV - Gierwinkel zwischen Fahrzeuglängsachse und Fahrbahntangente [rad],
b - Fahrbahnbreite [m],
c0hm - mittlere horizontale Fahrbahnkrümmung [1/m],
c1hm - mittlere horizontale Fahrbahnkrümmungsänderung [1/m²].
Für alle Winkelbeziehungen der horizontalen Abbildungsgeometrie werden
vereinfachend die Linearisierungen der trigonometrischen Grundfunktionen
sin(ψ)≃ψ bzw. cos(ψ)≃1 benutzt. Für kleine Winkel |ψ|<10° beträgt
hierbei der maximale Fehler ca. 1,5%. Wegen des kleinen Verhältnisses
von Brennweite zu Vorausschauentfernung (f/L«1) bzw. des kleinen
Abstandes zwischen Projektionszentrum und Kameradrehpunkt wird näherungsweise
für die weiteren Herleitungen die Lage des Projektionszentrums,
der Bildebene und des Kameradrehpunktes auf der optischen Achse
als identisch angenommen.
Es ergeben sich somit in einer Vorausschauentfernung L von der Kamera-Bildebene
folgende (laterale) Ablageanteile der Fahrbahnbegrenzungen von
der Fahrspurmitte (vgl. Bild 4):
wobei +b/2 für den rechten und -b/2 für den linken Fahrbahnrand gilt,
und
gemäß Gl. (1.4) im vorigen Abschnitt.
Entsprechend gilt für die Ablage der Fahrbahnbegrenzung von der Kamera-
(Blickrichtungs)-Achse (vgl. Bild 4):
yRK=yRg-(yV+ + (8)
mit
=(L+d) · ψV (9)
und
=L · ψKV. (10)
Die Perspektivabbildung
ergibt mit =f · ky für die horizontale Bildkoordinate (skaliert in
Pixel-Einheiten [pxl]) eines Kantenelementes der Fahrbahnbegrenzungen
in der Vorausschauentfernung L
Die entsprechenden Elemente der Jacobischen Matrix C der Abbildungsgleichungen
für das ebene und räumliche Fahrbahnmodell sind im Anhang A2
angegeben. Im ebenen Fall ist die Vorausschauentfernung L nur von der
Kameraneigung gegenüber der Fahrbahn sowie von einer gewählten Bild-
Vertikalkoordinate (Bildzeile) abhängig. Weist die Fahrbahn auch vertikale
Krümmung auf, so geht diese in die Berechnung der Vorausschauentfernung
mit ein (s. folgender Abschnitt). Da im räumlichen Fall die
Vertikalkrümmungsparameter des Zustandsvektors des dynamischen
Fahrbahnkrümmungsmodells sind, werden dann die Abbildungsgleichungen vom
momentanen Vertikalkrümmungszustand abhängig, und damit nichtlinear
bezüglich des Zustandsvektors.
Die vertikale Abbildungsgeometrie wird im wesentlichen von der vertikalen
Kameraposition und -Nicklage relativ zur Fahrbahn sowie von einer
evtl. vorhandenen vertikalen Fahrbahnkrümmung bestimmt (vgl. Bild 5).
Es wird angenommen, daß die Fahrzeug-Längsachse immer parallel zur Fahrbahn-
Tangentialebene am Ort des Fahrzeug-Schwerpunkts liegt, d. h. hochfrequente
Nicklagestörungen kleiner Amplitude werden vernachlässigt.
Dies hat sich für stationäre Fahrzustände auf "normalen", d. h. glatt
asphaltierten Straßen als realistisch erwiesen. Allerdings gilt dies
nicht für unebene Straßen oder bei starken Beschleunigungs- und Abbremsmanövern,
die deutliche Nickbewegungen verursachen können. Um diese
Fälle bei gleichzeitiger korrekter Erkennung der Fahrbahnvertikalkrümmung
bzw. Fahrbahnbreite behandeln zu können, wäre eine direkte Erfassung
oder Schätzung der Fahrzeug-Nicklageänderung erforderlich.
Verdeutlicht wird in Bild 5 die vertikale Fahrbahn- und Abbildungsgeometrie.
Die benutzten Größen der vertikalen Fahrbahn- und Abbildungsgeometrie
sind im folgenden zusammengefaßt:
f - Brennweite [mm],
kz - Kameraskalierfaktor (vertikal) [pxl/mm],
d - Abstand des Projektionszentrums vom Fahrzeugschwerpunkt [m],
HK - Höhe der Kamera über der Fahrbahntangentialebene [m],
RK - Kamera-Nickwinkel relativ zur Fahrzeuglängsachse [rad],
zB - Bild-Vertikalkoordinate in Pixel-Einheiten [pxl],
L0 - Vorausschauentfernung bei ebener Fahrbahn [m],
Lcv - Vorausschauentfernung bei vertikal gekrümmter Fahrbahn [m],
Hcv - Höhenänderung aufgrund vertikal gekrümmter Fahrbahn [m],
c0vm - mittlere Vertikalkrümmung der Fahrbahn [1/m],
c1vm - mittlere Vertikalkrümmungsänderung der Fahrbahn [1/m²].
kz - Kameraskalierfaktor (vertikal) [pxl/mm],
d - Abstand des Projektionszentrums vom Fahrzeugschwerpunkt [m],
HK - Höhe der Kamera über der Fahrbahntangentialebene [m],
RK - Kamera-Nickwinkel relativ zur Fahrzeuglängsachse [rad],
zB - Bild-Vertikalkoordinate in Pixel-Einheiten [pxl],
L0 - Vorausschauentfernung bei ebener Fahrbahn [m],
Lcv - Vorausschauentfernung bei vertikal gekrümmter Fahrbahn [m],
Hcv - Höhenänderung aufgrund vertikal gekrümmter Fahrbahn [m],
c0vm - mittlere Vertikalkrümmung der Fahrbahn [1/m],
c1vm - mittlere Vertikalkrümmungsänderung der Fahrbahn [1/m²].
Die zur Berechnung der Jacobischen Matrix C der Meßgleichungen (Gl.
(12)) erforderliche Vorausschauentfernung Li=L(zBi, HK, RK, f, kz,
c0vm, c1vm) wird bzgl. einer ausgewählten Bild-Vertikalkoordinate (Bildzeile)
zBi wie folgt ermittelt:
Die Neigung des Sehstrahls durch zBi gegenüber der Fahrbahntangentialebene
ergibt sich zu
Im Falle einer ebenen Fahrbahn berechnet sich die der Bildvertikalkoordinate
zBi entsprechende Vorausschauentfernung zu
Gemäß Gl. (6) gilt für die Fahrbahnhöhenänderung durch eine mittlere
Vertikalkrümmung bzw. Krümmungsänderung über der Lauflänge Lcv+d (d. h.
relativ zur lokalen Fahrbahntangentialebene am Ort des FZG-Schwerpunktes)
Mit Gl. (13) läßt sich die Fahrbahnhöhenänderung innerhalb der Vorausschau
abhängig von zBi ausdrücken als
Hcv=HK-Lcv · (16)
Aus (16) und (15) folgt für Lcv ein Polynom 3. Ordnung
mit den Koeffizienten
das über die Newton-Iteration [Heinhold u. Behringer, 76] numerisch gelöst
wird. Wenn als Iterations-Startwert für Lcv die Lösung des jeweils
vorhergehenden Abtastintervalls (oder auch der Wert für den ebenen Fall
gemäß Gl. (14)) eingesetzt wird, konvergiert die Iteration typischerweise
in 2-3 Schritten, d. h. der numerische Rechenaufwand ist relativ
gering.
Durch Vernachlässigen des c1vm-Einflusses auf die Vorausschauweite läßt
sich das Polynom Gl. (17) auf 2. Ordnung vereinfachen und ist damit
direkt analytisch lösbar (vgl. Gl. (19) unten). Der c0vm-Schätzwert
folgt einem Sprung im realen Vertikalkrümmungsverlauf wegen der Mittelung
über die Vorausschauweite jedoch nur leicht verzögert ("Verschleifungseffekt").
Ein Vernachlässigen des c1vm-Einflusses bewirkte beim
Einfahren in vertikal gekrümmte Fahrbahnbereiche Fehler in der Vorausschauentfernung
und entsprechende Differenzen in der erwarteten Breite
des Fahrbahnbildes. Das seitliche Nachführverhalten der Auswertefenster
auf die mit einer Vertikalkrümmungsänderung verbundene Breitenänderung
des Fahrbahnbildes konnte durch explizite Berücksichtigung des c1vm-
Einflusses deutlich verbessert werden.
Ab einer gewissen negativen Vertikalkrümmung der Fahrbahn kann der Fall
eintreten, daß das Fahrbahnbild unterhalb der gewählten Bildzeile zBi
liegt, also auf der Höhe von zBi keine Kantenelemente als Merkmale extrahierbar
sind. Der Krümmungswert für diesen Grenzfall (bei dem der
Sehstrahl durch zBi die Tangente an die nach unten gekrümmte Fahrbahn in
der Entfernung Lcv bildet) läßt sich näherungsweise, unter Vernachlässigung
des c1vm-Einflusses, aus einem Polynom 2. Ordnung für Lcv abschätzen. Aus
und Gl. (16) ergibt sich die vereinfachte, quadratische Gleichung
für Lcv mit den Lösungen
Der Grenzfall für die maximale negative Krümmung ("Tangentenfall") abhängig
von zBi wird dadurch bestimmt, daß der Ausdruck unter der Wurzel
0 sein muß für reelle Lösung von Lcv, also
gilt. Dies ist erfüllt, solange die Vertikalkrümmung größer als der
Grenzwert
ist, wobei wegen der Vernachlässigung von d und c1vm noch ein "Sicherheits-Abstand"
Δc0res=0,0005 gegenüber dem "Tangentenfall"-Grenzwert
aus dem quadratischen Ansatz eingeführt wurde.
Falls Gl. (22) nicht mehr erfüllt ist, entfällt die Berechnung der zBi
entsprechenden Vorausschauentfernung, da die Nullstelleniteration für
Gl. (17) keine (hier) sinnvolle Lösung ergeben kann. Da zudem in der
Bildzeile zBi ein Fahrbahn-Kantenelement nicht mehr zuverlässig extrahierbar
ist, wird bei der sequentiellen Zustands-Innovation des Kalman
Filters der entsprechende Meßwert ausgelassen (vgl. Abschnitt 1.4.3.1).
Als zusätzliche Beschränkung sind die Vertikalkrümmungsparameter auf die
bei einspurigen Straßen im freien Gelände als maximal angenommenen Wertebereiche
von -0,003c0vm0,005 bzw. -0,00015c1vm0,00015
begrenzt (d. h. auf Krümmungsradien zwischen 330 m negativ und 200 m
positiv, bei einer maximalen vertikalen Krümmungsänderung von ebener
Straße auf 300 m Radius innerhalb 20 m Vorausschau).
In Bild 6 sind für eine S-Kurve im Fahrbahnverlauf qualitativ die
horizontale Krümmung bzw. Krümmungsänderung über der Lauflänge 1 (entsprechend
dem linearen Krümmungsmodell, vgl. Abschnitt 1.2.2) sowie
deren zeitliche Änderung aufgrund des Entlangfahrens mit einer konstanten
Geschwindigkeit dargestellt. Für die Zeitableitung der Krümmung c0h
gilt:
Zur besseren Unterscheidung von der Ziffer 1 ("Eins") wird die Lauflängenkoordinate
1 immer mit Unterstrich geschrieben.
Es zeigt Bild 6 den Fahrbahnverlauf und horizontale Krümmungsgrößen.
Die Unstetigkeit des c1h-Verlaufs über der Lauflänge bewirkt theoretisch
Dirac-Impulse in der Zeitableitung 1h, die real bzw. als Differential-
Beziehungen nicht modellierbar sind. Dies läßt sich jedoch umgehen, wenn
hierfür näherungsweise über den lokalen Vorausschaubereich L gemittelte
Größen c0hm und c1hm eingeführt werden, die in ihrem "Krümmungs-Effekt"
über L dem der theoretischen Größen c0h und c1h über 1 c äquivalent sind,
d. h. die gleiche Krümmungsablage Δyc erzeugen (vgl. Bild 7).
Dieser Ansatz wurde von [Dickmanns, 88] vorgeschlagen. Es soll also
gelten:
Δycm(c0hm, c1hm, L)=Δyc(c0h, c1h, 1 c). (24)
Zur Verdeutlichung
Bild 7: Die durch die gemittelten Krümmungsparameter (c0hm, c1hm) über die Vorausschauentfernung L bewirkte Ablage Δycm ist gleich der über die "Eindringtiefe" 1 c in den c1h- Stufenbereich auftretenden Querablage Δyc.
Bild 7: Die durch die gemittelten Krümmungsparameter (c0hm, c1hm) über die Vorausschauentfernung L bewirkte Ablage Δycm ist gleich der über die "Eindringtiefe" 1 c in den c1h- Stufenbereich auftretenden Querablage Δyc.
Die Beiträge der gemittelten Größen zur Querablage
sind
und
Für Δyc(1 c) gilt im Bereich 01 cL
Gleichsetzen von Gl. (25) mit Gl. (28) und Differenzieren nach 1 c
ergibt für c1hm folgende Differentialgleichung:
Die Substitution =c′1hm und eine Normierung auf L mit ξ=
(d. h. für die normierte Eindringtiefe gilt 0ξ1) ergibt
c′1hm(ξ)=3ξ²c1h-3c1hm(ξ). (30)
Z. B. via Laplace-Transformation ist folgende Lösung herleitbar:
Am Ort des c1h-Sprungs (d. h. an ξ=1 bzw. 1 c=L) mit dem Anfangswert
c1hm(0)=0 ergibt sich als Amplitude des gemittelten c1h-Verlaufes
Ab ξ1 liegt der Vorausschaubereich L voll im c1h-Stufenbereich. Es
wird eine neue, um L gegenüber 1 c (bzw. normiert um 1 gegenüber ξ) nach
rechts verschobene Laufkoordinate ξ′=ξ-1 eingeführt.
Gl. (24) gilt nach wie vor, jedoch ist nun im Vorausschaubereich der
Krümmungs-Anfangswert c0h(ξ′)≠0. Damit ergibt sich für die Querablage
des Straßenrandes von der Tangente infolge der Krümmung
bzw. nach Normieren auf L
Gl. (34) differenziert nach ξ′ ergibt, mit dc0h/dξ′=c1h
bzw. mit der Substitution c′1hm=
c′1hm(1)=3c1h-3c1hm(ξ′) (für ξ1, d. h. ξ′0). (36)
Obige Differentialgleichung hat die Lösung
c1hm(ξ′)=c1hm(ξ′=0) · e-3 ξ ′+c1h(1-e-3 ξ ′). (37)
Wegen des Anfangswertes am Ort der Stufe c1hm(ξ′=0)=c1h · 0,5445 (vgl.
Gl. (32)) kann die Lösung auch als
c1hm(ξ′)=c1h(1-0,4555 · e-3 ξ ′)
geschrieben werden.
Statt eines Dirac-Pulses im Fall der sprungförmigen Krümmungsänderung
gilt nun für die Zeitableitung der gemittelten Krümmungsänderung
Mit Gl. (30) und (38) gilt für die Zeitableitung der gemittelten
Krümmungsänderung c1hm im Intervall 0ξ1, d. h. für 01 cL:
Aus Gl. (36) bis (38) folgt für die Zeitableitung der gemittelten
Krümmungsänderung c1hm im Intervall ab ξ1 bzw. ξ′0, d. h. nach vollständigem
Eindringen der Vorausschau in den c1h-Stufenbereich:
Da der Ort einer Krümmungsänderung (d. h. c1h-Stufe) in der Vorausschau,
und damit die eventuelle "Eindringtiefe" 1 c, jedoch nicht im voraus
bekannt ist und nur sehr unzuverlässig aus dem geschätzten c1h-Verlauf
bei realen, verrauschten Meßwerten ermittelt werden kann, wird näherungsweise
die c1hm-Dynamik immer nach Gl. (40) modelliert. In der
experimentellen Erprobung bzw. im Vergleich zu bekannten Referenzverläufen
aus der Simulation lieferte die gemittelte Krümmungsdynamik sehr
gute Schätzergebnisse (vgl. Schätzwertverläufe in Abschnitt 6).
Hiermit existieren kompakte, sehr einfache Differentialbeziehungen zwischen
den für die optische Fahrbahnverfolgung und Fahrzeugquerführung
gleichermaßen relevanten gemittelten Horizontalkrümmungsparametern sowie
dem theoretischen (unstetigen) c1h-Verlauf. Für die Zustandsschätzung
wird die zeitliche Änderung von c1h (theoretisch aus einer Folge von
Dirac-Impulsen bestehend, deren Zeitpunkte unbekannt sind) als mittelwertfreier,
weißer, gaußverteilter Rauschprozeß angesetzt. Der c1h-Schätzwert
wird somit im Kalman Filter ausschließlich über die Innovation
durch die Meßwerte aus der Bildfolge "angetrieben".
Das Differentialgleichungssystem der horizontalen Fahrbahnkrümmungsdynamik
lautet dann zusammengefaßt:
bzw. in Matrix-Vektor-Notation
Wie schon in Abschnitt 1.2.2 bzw. 1.2.4 erläutert, wird der lokale Vertikalverlauf
der Fahrbahn über der Lauflänge 1 durch die beiden Parameter
der mittleren Vertikalkrümmung c0vm bzw. der mittleren Vertikalkrümmungsänderung
c1vm im Vorausschaubereich bis L dargestellt.
Analog zu Gl. (23) im vorigen Abschnitt gilt für die Zeitableitung der
gemittelten Vertikalkrümmung
Die Zeitableitung der Krümmungsänderung 1v, die bei Einfahren in ein im
Höhenprofil kreisförmiges Fahrbahnsegment (Kuppe, Wanne) wegen des Krümmungssprunges
theoretisch einen Dirac-Impuls aufweist, wird ebenso wie
1h im vorigen Abschnitt als mittelwertfreier, weißer, gaußverteilter
Rauschprozeß angesetzt.
Das kontinuierliche Teilsystem der gemittelten Vertikalkrümmungsdynamik
lautet somit:
0vm=c1vm · v
1vm= (t)
bzw. in Matrix-Vektor-Notation
Im 4D-Ansatz wird u. a. die Kenntnis der aktuellen Steuergrößen und deren
Auswirkung auf die Eigenbewegung des Fahrzeuges (bzw. der Kamera) relativ
zur Umgebung dazu genutzt, Veränderungen des Bildes im nächsten Verarbeitungszyklus
vorauszuberechnen, also zu "erwarten". Für die Fahrzeugspurführung
durch Rechnersehen sind neben der Krümmung die laterale
Fahrzeugposition und Winkellage relativ zu den Fahrbahnbegrenzungen wesentlich.
Innerhalb des Fahrbahnerfassungsmoduls muß also die Seitenbewegung
des Fahrzeugs modelliert sein. Eine gegenüber dem Modell von
[Zapp, 88] vereinfachte Modellierung der Fahrzeugquerdynamik als System
3. Ordnung mit einem zusätzlichen Integrator als Lenkstellglied erwies
sich für die optische Fahrbahn- und Relativlageerfassung als völlig ausreichend.
Bild 8 zeigt das Ersatzmodell der Fahrzeugseitenbewegung.
Modellparameter der Fahrzeugquerdynamik sind
Modellparameter der Fahrzeugquerdynamik sind
aAchs - Achsabstand (3,5 m),
kr - Reifen-Seitenkraftbeiwert (150 kN/rad).
m - Fahrzeugmasse (4000 kg),
V - Fahrgeschwindigkeit.
kr - Reifen-Seitenkraftbeiwert (150 kN/rad).
m - Fahrzeugmasse (4000 kg),
V - Fahrgeschwindigkeit.
In Klammern sind jeweils die Werte für das Versuchsfahrzeug "VaMoRs"
L508D angegeben.
Die Zustandsgrößen der Seitenbewegung sind
λ - Lenkwinkel [rad],
β - Schwimmwinkel [rad],
yV - Seitenablage von der Fahrbahnmitte [m],
ψV - Gierwinkel relativ zur Fahrbahntangente [rad].
β - Schwimmwinkel [rad],
yV - Seitenablage von der Fahrbahnmitte [m],
ψV - Gierwinkel relativ zur Fahrbahntangente [rad].
Als abgeleitete Größe, die nicht explizit im Modell auftritt, sei noch
der Bahnwinkel χV relativ zur Fahrbahntangente aufgeführt.
Das benutzte Fahrzeugquerdynamikmodell (vgl. Bild 8) entspricht in
seiner Struktur weitgehend dem linearen ebenen Einspurmodell nach
[Mitschke, 72; Donges, 78], das von [Zapp, 88] für den Fahrzeug-Querreglerentwurf
benutzt wurde, jedoch mit folgenden zusätzlichen Vereinfachungen:
- 1. Der Fahrzeug-Schwerpunkt wird (symmetrisch) in der Mitte zwischen Vorder- und Hinterachse angenommen. Dadurch entfällt eine Unterscheidung zwischen der Hebelarmlänge vor und hinter dem Schwerpunkt. Es bleibt nur mehr ein Geometrieparameter aAchs.
- 2. Die auf die Reifen wirkenden Umfangskräfte werden vernachlässigt. Die Seitenkraftbeiwerte für die Vorder- und Hinterreifen werden gleich groß angesetzt und für beide Reifen einer Achse im Parameter kr zusammengefaßt.
- 3. Der Einfluß des Lenkwinkeleinschlags λ auf die Gierrate V des Fahrzeugs ist gegenüber dem Modell nach Donges auf eine kinematische Beziehung vereinfacht. Unter der Annahme einer symmetrischen Schwerpunktlage entfällt zum einen der Einfluß des Schwimmwinkels β auf die Gierwinkelgeschwindigkeit. Zusätzlich wird eine kleine geschwindigkeitsabhängige Zeitkonstante von 0,1 bis 0,2 s (bei den in [Zapp, 88] benutzten Fahrzeugparameterwerten) zwischen λ und V vernachlässigt, die in der ursprünglichen Differentialgleichung modelliert ist.
Bezüglich des Ansatzes der ursprünglichen Seitenbewegungsgleichungen aus
dem Querkräftegleichgewicht bzw. Momentengleichgewicht um die Fahrzeughochachse
wird auf [Donges, 78] und [Zapp, 88] verwiesen. Im folgenden
werden die Bewegungsgleichungen für das vereinfachte, ebene Einspurmodell
3. Ordnung mit einem Integrator als Stellglied angegeben.
Die Lenkantriebsdynamik lautet also
(t)=kλ · u-λ(t). (44)
Mit den oben aufgeführten Vereinfachungen des Modells nach Donges lautet
die Differentialgleichung für den Schwimmwinkel
Für die Gierwinkelrate abhängig von Lenkwinkel und Fahrgeschwindigkeit
kann eine kinematische Näherung angewandt werden: Die Querablage der
Vorderachse durch ein mit Lenkeinschlag λ gefahrenes Weginkrement d1
ergibt sich für kleine λ (vgl. Bild 9) zu
dy=d1 · sinλ≃d1 · λ. (46)
Näherungsweise kann diese Querablage auch über
dy≃aAchs · dψVg (47)
ausgedrückt werden.
Bild 9 veranschaulicht die Lenkkinematik.
Durch Gleichsetzen von Gl. (46) mit (47) und Differenzieren nach der
Zeit folgt
bzw.
für die inertiale Gierrate des Fahrzeugs aufgrund eines Lenkeinschlags λ
bei der Fahrgeschwindigkeit v. Die (zeitliche) Richtungsänderung der
Fahrbahntangente aufgrund des Einfahrens in eine Kurve mit der Krümmung
c0h=dχR/d1 ergibt sich zu
bzw.
R=c0h · v. -(49)
Für die relative Gierbewegung zwischen Fahrzeug und Fahrbahn folgt dann
aus der Differenz von Gl. (48) und Gl. (49)
Der Bahnwinkel χV des Fahrzeugs relativ zur lokalen Fahrbahntangente am
Ort des Fahrzeug-Schwerpunktes (vgl. Bild 6) ergibt sich zu
χV=ψV+β, (51)
so daß für die Bewegungskomponente quer zur Fahrbahnrichtung
V=v · sinχV-≃v · χV (52)
gilt.
Das kontinuierliche, lineare und geschwindigkeitsabhängige Zustands
modell 4. Ordnung der Fahrzeugquerdynamik lautet somit zusammengefaßt
bzw. in Matrix-Vektor-Notation
Hierbei bedeuten
mit den Elementen
Die Systemmatrix des vollständigen, kontinuierlichen dynamischen Modells
des Fahrbahnerfassungsmoduls setzt sich aus den Teilsystemen der Fahr
zeugquerdynamik AV, der Horizontalkrümmungsdynamik Ach, sowie der Verti
kalkrümmungsdynamik Acv zusammen. Als Alternative zur dynamischen Model
lierung der vertikalen Fahrbahnkrümmung wurde auch die Schätzung der
Fahrbahnbreite als stationärer (aber verrauschter, 'unsicherer') Para
meter realisiert. Hierfür müssen die letzten beiden Spalten bzw. die
untersten Zeilen der Gesamtsystemmatrix (Gl. (54)) durch eine Null
spalte bzw. Nullzeile ersetzt werden.
In Matrix-Vektor-Notation lautet das Gesamtsystem somit:
=Ax+buλ+n
bzw. ausgeschrieben
wobei aF, bF und cF im vorigen Abschnitt angegeben sind. Die Elemente
der A und b entsprechenden zeitdiskreten Transitionsmatrix Φ bzw. des
diskreten Eingangsverstärkungsvektors g sind im Anhang A3 angegeben.
Die Zustandsschätzung erfolgt im 4D-Ansatz zur Bildfolgenauswertung über
ein instationäres Kalman Filter. Es erfüllt zwei zentrale Funktionen im
visuellen Interpretationsprozeß:
- a) Es stellt im Sinne einer abstrahierenden und datenreduzierenden Ver
arbeitungskomponente eine direkte Transformation von Merkmalskoor
dinaten in der Bildebene in problembezogene, d. h. hier regelungs
orientierte, physikalische Größen (z. B. Fahrzeugrelativposition und
Fahrbahnverlauf) in Raum und Zeit dar. Diese Transformation beinhal
tet wiederum zwei wesentliche Komponenten:
- i) die Inversion der perspektivischen Abbildung durch die Anpassung der Beweghungsmodelle im Sinne kleinster Fehlerquadrate der Vor hersagefehler.
- ii) die Glättung verrauschter Prozeß- und Meßdaten.
Beide Aspekte werden in einem einzigen Schritt und damit sehr effi zient abgearbeitet.
- b) Gleichzeitig bildet die Zustandsschätzung im Sinne einer in der Ver arbeitungshierachie nach unten gerichteten Verarbeitungskomponente die Kontroll- und Steuerungsinstanz für die lokale, verteilte Merk malsextraktion.
Das Grundprinzip der rekursiven Zustandsschätzung zur robusten Bildfol
geninterpretation soll im folgenden kurz skizziert werden (eine ausführ
liche Darstellung der angewandten Verfahren erfolgt in den anschließen
den Abschnitten):
Mittels der bekannten, modellierten Fahrzeug- und Fahrbahnparameter-
Dynamik (letztere infolge der Eigengeschwindigkeit v des Fahrzeugs auf
der Fahrbahn, beide zusammengefaßt in Form der Transitionsmatrix Φ(v),
Gln. (54) bzw. (55) unten) kann ausgehend von einem Schätzwert für
den aktuellen Systemzustand () der zukünftige Systemzustand ( ) zum
nächsten Verarbeitungszyklus vorausberechnet werden. Die auf das Fahr
zeug wirkenden Stellgrößen (u) und die Fahrgeschwindigkeit (v) gehen in
die zeitliche Zustands-Extrapolation explizit mit ein, zufällige auf das
System wirkende Störungen jedoch nicht. Über die nichtlinearen Abbil
dungsgesetzmäßigkeiten (Gln. (12) bzw. (56) unten) ist damit auch das
'erwartete' Bild der Fahrbahn berechenbar, in Form eines Vektors neuer
Merkmalskoordinaten in der (2D)-Bildebene. Diese Information kann
direkt zur Steuerung der Merkmalsextraktion verwendet werden, nämlich wo
im Bild (=Fensterposition) und in welchem Sektor von Vorzugsorientie
rungen (=Operator-Richtungsauswahl) Kantenkandidaten zu extrahieren
sind.
Die Vorhersagefehler (y), d. h. die Abweichungen zwischen erwarteten
und tatsächlichen Merkmalpositionen im Bild, führen über eine Gewich
tungsmatrix K zu einer Korrektur des erwarteten Zustands (Gl. (58)).
Dieser als Innovation bezeichnete Schritt bringt durch die Meßwerte neue
Information über den beobachteten Prozeß in die Schätzung ein. Die
räumlich-zeitliche Modellvorstellung in Form des Zustandsvektors wird
somit den 2D-Szenenveränderungen im Bild nachgeführt.
Aus einem redundanten und mehrdeutigen Satz von Kantenelementen werden
nur die selektiert und gehen in die Zustands-Innovation ein, die den
erwarteten Koordinaten am nächsten liegen (Gl. (57)). Der Selektions
schritt wird durch die in der Schätzfehler-Kovarianzmatrix P enthaltene
Information unterstützt, die der 'Unsicherheit' der aktuellen Schätz
werte entspricht: Die Abbildung der um einen Zeitschritt extrapolierten
Schätzfehlerkovarianz in den Meßwertraum liefert die sogenannte 'innova
tions variance' [Bierman, 77]. Diese stellt ein Maß für den zulässigen
Toleranzbereich dar, in dem neu extrahierte Kantenelemente um die
erwarteten Koordinaten streuen dürfen.
Bei sequentieller, skalarer Verarbeitung des Meßwertvektors können so
'Ausreißer' eliminiert werden. D. h. mit der Modellvorstellung inkon
sistente Kantenkandidaten werden schon vor der Innovation aussortiert.
Die Selektionsfähigkeit trägt dadurch wesentlich zur Schätzqualität,
ganz besonders aber zur Robustheit des Ansatzes gegenüber Störungen bei.
Auch stellt die Anzahl der verworfenen Merkmale unmittelbar ein Bewer
tungskriterium für die aktuelle Übereinstimmung von Modell und Realität
dar.
Die Abbildungsgleichungen (Gl. (56)) werden hierbei nur vorwärts aus
gewertet, d. h. vom Zustandsraum (als 'Interpretations-Welt') in den
Meßraum (Bildebene) abbildend und damit in der gleichen Richtung wie der
parallel dazu stattfindende 'echte', physikalische Abbildungsvorgang
über den Sensor. Die nicht-eindeutige inverse Perspektivtransformation
von der Bildebene zurück in räumliche Koordinaten wird umgangen. Sie
erfolgt implizit bei der Nachführung der Modellvorstellung auf die Sze
nenveränderungen durch Minimierung der Summe der Quadrate der Vorher
sagefehler.
Der Kalman Filter Algorithmus wurde in einer optimierten, numerisch
effizienten und stabilen Form nach [Bierman, 77] implementiert. Hierbei
ist die Schätzfehler-Kovarianzmatrix faktorisiert in P=U · D · UT, wobei U
eine obere Einheits-Dreiecksmatrix und D eine Diagonalmatrix darstellt.
Die Anwendbarkeit und hohe Effizienz dieses Ansatzes für die visuelle
Bewegungserfassung und -Steuerung in der Robotik wurde erstmals von
[Wünsche, 86] demonstriert. Der vollständige Selektions-, Innovations-
und Prädiktionszyklus für die Kovarianz und den Zustand des dynamischen
Modells im Fahrbahnerfassungs-Modul, bei Verarbeitung von acht Kanten
elementen der Fahrbahnbegrenzungen, wird z. B. in etwa 40 ms Rechenzeit
auf einem Objektprozessor (20 MHz 80 386/87) des Multiprozessorsystems
ausgeführt.
Die grundlegenden Schritte des Zustands-Schätzzyklus bei der Bildfolgen
auswertung im '4D-Ansatz' sind:
k=Φk-1(v) · k-1-+bk-1(v) · uk-1 (Prädiktion) (55)
k=g( k, p) (nichtlineare Perspektivabbildung vorwärts,
p enthält Abbildungsparameter) (56)
yk={⟨yki| |yki- ki|<ε(P)} (Selektion) (57)
k= t- k) (Innovation) (58)
wobei der Vektor der extrapolierten Zustände und die vom Filter
geschätzten Zustände sind; y beinhaltet die Positionen der für die Inno
vation selektierten Merkmale (Kantenelemente). Die Berechnung der Fil
terverstärkungsmatrix K sowie der Schätzfehler-Kovarianzen P im UD-fak
torisierten Verfahren nach Bierman wird in Abschnitt 1.4.3 eingehender
erläutert.
Zusammengefaßt bietet der räumlich-zeitlich modellgestützte, rekursive
Ansatz zur Bildfolgenauswertung folgende Vorteile:
- 1) Nur das jeweils letzte Bild der Bildfolge geht in die Verarbeitung ein. Ein Abspeichern von Bildsequenzen, und eine entsprechend zeit lich verzögerte Rückwärtsauswertung, entfällt.
- 2) Die Prädiktionsfähigkeit über das dynamische Modell erlaubt 'Erwar tungen' der Szenenveränderungen zur Kontrolle und Steuerung der Merk malsextraktion stüttzend miteinzubeziehen. Dies trägt besonders bei hohen Störanteilen oder lokalen Mehrdeutigkeiten im Bild wesentlich zur Robustheit des Ansatzes bei.
- 3) Die Anzahl der Meßwerte (verwertete Merkmale) pro Verarbeitungszyklus darf variieren, zeitweise kann sogar totales Ausbleiben von neuer Meßinformation über die dynamischen Modelle kompensiert werden. Dies ist in der Bildfolgenauswertung ebenfalls nutzbar bei schlechter Szenenqualität bzw. sich ändernden Sichtbarkeitsverhältnissen, z. B. bei Verdeckungen.
- 4) Meßunsicherheiten und Systemstörungen können im Kalman Filter expli zit berücksichtigt werden. Darüber hinaus lassen sich daraus auch Bewertungsmaße für die aktuelle Schätzqualität bestimmen.
- 5) Der Zustandsvektor stellt eine extrem kompakte Datenstruktur zur Beschreibung des momentanen Systemzustandes dar. Er eignet sich dadurch sehr gut zu effizientem Informationsaustausch zwischen Teilmodulen bzw. zu höheren Ebenen der Bildauswertung.
- 6) Das Verfahren ist in Kombination mit parallelen, lokalen Merkmalsex traktionsverfahren rechentechnisch sehr effizient. Verarbeitungsraten von 10 bis 25 Hz sind für Modelle achter bis zehnter Ordnung mit der derzeitigen Rechenleistung eines einzigen 32-bit Standard-Mikropro zessors ohne weiteres erreichbar.
Das Kalman Filter nach [Kalman, 60] ist ein zeitdiskreter, optimaler
Schätzer für den Zustand eines dynamischen Systems, auf das Steuerungen
und stochastische Störungen einwirken. Es stellt einen rekursiven, li
nearen Schätzalgorithmus nach der Minimierung der Summe der gewichteten
Fehlerquadrate dar, um den unbekannten Zustand eines dynamischen Systems
aus verrauschten, zeitdiskreten Meßwerten bestmöglich zu bestimmen. Die
statistischen Kenngrößen der Störgrößen und Meßfehler werden dafür als
bekannt vorausgesetzt. Die Struktur des Kalman Filters findet sich auch
im Luenberger-Beobachter wieder [Brammer u. Siffling, 75]. Der Unter
schied besteht darin, daß die Rückführgewichtungen der Vorhersagefehler
bei letzterem nicht nach stochastischen, sondern nach rein deterministi
schen Kriterien (vorgegebene Beobachterdynamik) abgeleitet werden.
Gegeben sei ein zeitdiskretes dynamisches System
xk+1=Φkxk+bkuk+wk (59)
auf das die Prozeßstörungen wk einwirken und von dem die mit Meßfehlern
vk behafteten Messungen
yk=Ckxk+vk (für lineare Meßgleichungen) (60)
bzw.
yk=g(xk, p)+vk (für nichtlineare Meßgleichungen) (61)
zur Verfügung stehen. Die Störungen vk und wk werden als gaußverteilt,
zeitlich unkorreliert (weiß) und mittelwertfrei angenommen, d. h. mit
Erwartungswerten E{w}=0 und E{v}=0, und den Kovarianzmatrizen R=E{wwT} und Q=E{vvT}.
Die Systemstörungen und Meßfehler sind zudem
untereinander nicht korreliert.
Für den Schätzfehler =-x, wobei x den nicht zugänglichen 'wahren'
Systemzustand und den Schätzwert darstellt, gelte E()=0 bzw. für
dessen Kovarianzmatrix P=E{T}.
Die konventionelle Kalman Filter Rekursion zur Berechnung der Schätz
fehlerkovarianzen P bzw. der Filterverstärkungsmatrix K (für den k-ten
Zeitschritt ausgehend von bekannten Anfangskovarianzen ₀) lautet:
Hierbei ist Ck im Fall nichtlinearer Meßgleichungen die Jacobische Ma
trix der Meßgleichungen zum Zeitpunkt k, d. h. die Matrix der partiellen
Ableitungen der m-vektorwertigen Funktion g(xk, p) nach den n Elementen
des Zustandsvektors xk (vgl. auch Anhang A2),
Die wesentlichen Nachteile einer Implementierung des Algorithmus in
obiger Form bezüglich Rechenaufwand und numerischer Eigenschaften sind:
- a) Gl. (63) erfordert die explizite Inversion einer n×n Matrix.
- b) In Gl. (64) sind potentielle Größenordnungsunterschiede der Operan den im Hinblick auf numerische Stabilität und Rechengenauigkeit kri tisch.
Im Rahmen der Raumfahrtprojekte der NASA Mitte der 60er Jahre wurden
intensive Weiterentwicklungen der rekursiven Filterverfahren durchge
führt. Diese Arbeiten wurden zum einen wesentlich durch die Implementa
tionsbeschränkungen der damaligen Bordcomputer bezüglich Wortlänge,
Rechenleistung und Arbeitsspeichergröße motiviert, aber auch generell
durch numerische Probleme, die in der konventionellen Formulierung des
Kalman-Filter-Algorithmus auftreten können [Bierman, 77; Maybeck, 79].
Der zeitaufwendige Schritt einer expliziten Matrixinversion bei der
Berechnung der Schätzfehlerkovarianzen läßt sich vermeiden, wenn Rk=
Diag(ri) eine Diagonalmatrix ist. Dies ist gegeben, wenn die Meßfehler
untereinander nicht korreliert, also unabhängig sind (ein diagonales R
ist auch für korrelierte Meßfehler durch eine entsprechende Transforma
tion der Meßgleichungen zu erreichen, vgl. [Chui u. Chen, 87]). Hierbei
können die Meßwerte yi bzw. deren Fehlervarianzen ri einzeln (in skala
rer Form), nacheinander eingebracht werden. Dadurch ergibt sich ein
sequentieller Algorithmus anstelle von Gl. (63) und (64), der pro
Zeitschritt k für den Meßwertindex i=1, mk durchlaufen wird (Gln.
(56) bis (69)). Die Meßmatrix C wird entsprechend nur zeilenweise
verarbeitet. Die konventionelle sequentielle Innovation für Schätzwert
und Kovarianz für den i-ten Meßwert (mit xi0= k und Pi0= k) lautet
(zum k-ten Zeitschritt, wobei zur besseren Übersichtlichkeit der Zeit
index k hier weggelassen wurde):
mit
αi=ciPi-1ci T+ri. (67)
Die Jacobische Matrix C kann hierbei innerhalb eines Zeitschritts kon
stant bleiben. Für den Vektor der Filterverstärkungen ergibt sich somit
Die Korrektur des aktuellen Zustandsschätzwerts durch Einbringen des i-
ten Meßwerts lautet
xi=xi-1+ki[yi- i]. (69)
wobei
k, p). (70)
Die Matrixinversion aus Gl. (63) ist somit auf eine Rekursion mit ska
larer Division zurückgeführt worden. Die sequentielle Verarbeitung ska
larer Meßwerte anstatt blockweiser Verarbeitung ganzer Meßwertvektoren
konstanter Länge ermöglicht es zudem, eine jeweils pro Zeitschritt vari
ierende Anzahl mk von Meßwerten zu berücksichtigen. Dies ist ein wich
tiger Aspekt für die Anwendung dieser Schätzverfahren zur Bildfolgenaus
wertung. Dabei kann sich die Anzahl der aktuell sichtbaren bzw. extra
hierbaren Merkmale abhängig von den Aspektbedingungen (vgl. [Wünsche,
88]) oder bedingt durch Szeneninhalte und -Qualität (speziell im Fall
natürlicher Szenen) signifikant ändern.
Eine weitere rechentechnisch vorteilhafte Modifikation des konventionel
len Kalman Filters bilden die sogenannten 'Square-Root Filter', wobei
Dreieckszerlegungen der Kovarianzmatrix P in der Form
P=S · ST
benutzt werden, S also einer 'Quadratwurzel' von P entspricht. Diese
Varianten wurden ursprünglich angegeben von [Potter, 64; Andrews, 68].
Abgesehen davon, daß S nur mehr anstatt n² Elemente enthält und
Dreiecksmatrizen einfacher zu invertieren sind (sofern überhaupt nötig),
ist damit automatisch die definitionsgemäße, aber im konventionellen
Fall durch numerische Effekte 'verlierbare' Symmetrie von P garantiert.
Darüber hinaus weisen diese Filter wesentlich bessere numerische Eigen
schaften auf, da nur mehr die Quadratwurzeln von potentiell sehr großen
bzw. sehr kleinen Elementen vorkommen und damit die Größenordnungsunter
schiede (Exponenten) von Operanden halbiert werden.
Eine Sonderform der Square-Root Filter bildet das UD-faktorisierte
Kalman Filter nach [Bierman, 75]. Hierbei ist die n×n Schätzfehler
kovarianzmatrix P faktorisiert in
P=U · D · UT (71)
wobei D eine Diagonalmatrix und U eine obere Einheits-Dreiecksmatrix
(d. h. mit Einsen auf der Diagonale) darstellt. Die ursprüngliche, 'aus
multiplizierte' Form der n×n Kovarianzmatrix P tritt im Algorithmus
nicht mehr explizit auf.
Zu den numerisch günstigen Eigenschaften dieser Faktorisierung in Kombi
nation mit der sequentiellen Formulierung des Kalman Filter kommen noch
sehr effiziente Implementationsmöglichkeiten, die speziell für Echtzeit
anwendungen optimierte Algorithmen ergeben. So werden z. B. Dreiecks
matrizen spaltenweise dicht in eindimensionalen Feldern abgelegt. Durch
Indextabellen läßt sich der Adreßberechnungsaufwand gegenüber 2-dimen
sionalen Feldern wesentlich reduzieren. Auch kann die Besetzungsstruktur
der Transitionsmatrizen ggf. vorteilhaft genutzt werden. Die Rechen
genauigkeit und numerische Stabilität übertrifft selbst bei ausschließ
licher Benutzung von Gleitkommaoperanden einfacher Genauigkeit (32-bit)
die des konventionellen, nicht-faktorisierten Kalman Filters bei Verwen
dung von Variablen doppelter Genauigkeit (64-bit).
Der Rechengang für die sequentielle, skalare Kovarianz-Innovation (engl.
'neasurement update') in der UD-faktorisierten Form entspricht grund
sätzlich Gl. (66) bis (68) unter Anwendung der Substitution P=U · D · UT.
Er ist detailliert bei [Bierman, 77] oder [Maybeck, 79, pp. 392
ff.] angegeben. Ein zentraler Schritt ist dabei jeweils die Faktorisie
rung einer symmetrischen, positiv semidefiniten Matrix über eine Varian
te der sogenannten Cholesky-Zerlegung.
Der skalare Term αi aus Gl. (67) wird von [Bierman, 77] als 'innova
tions variance' bezeichnet. Er gibt die in den Meßwertraum (hier Merk
malskoordinaten in der Bildebene) abgebildete Varianz des extrapolierten
Schätzzustands (für den k-ten Zeitschritt vor Berücksichtigung des i-ten
Meßwertes) an, addiert zur Varianz ri des i-ten Meßwertes. Die 'innova
tions variance' entspricht somit einer Varianz des Vorhersagefehlers
zwischen dem neuem Meßwert yi und dem erwarteten Wert i=gi( , p) aus
der Prädiktion.
Unter der Annahme gaußverteilter Störungen mit Varianz σ²yi=αi liegen
99% aller Meßwerte in einem Band von ±3σyi um den erwarteten Wert i.
Die Innovations-Varianz αi kann somit, wie von [Wünsche, 86; 88] reali
siert, zur Meßwert-Konsistenzüberprüfung bzw. als Selektionskriterium
zur Aussonderung von 'Meßwertausreißern' angewendet werden. D. h. Meß
werte, die die Bedingung
|yi- i|<3σyi- bzw. (yi- i)²<9α-i (72)
nicht erfüllen, gehen demnach nicht in die Zustands- und Kovarianzinno
vation ein. Dies trägt wesentlich zur Robustheit gegenüber Störungen
bzw. Mehrdeutigkeiten bei, die sich besonders in natürlichen Szenen
durch die lokale Merkmalsextraktion ergeben können (vgl. auch Abschnitt
4 zur Merkmalsextraktion bzw. Abschnitt 6). Die im Fahrbahnerfassungs
modul benutzten Werte der Meßwertvarianzen ri, die u. a. in die 'Innova
tions-Varianzen' αi und damit in die Bestimmung der Selektionskriterien
eingehen, sind im Anhang A4 angegeben.
Die zeitliche Extrapolation der Schätzfehlerkovarianzen nach Gl. (73)
bewirkt immer eine Zunahme der Schätz-'Unsicherheit', da unter Störungs
einfluß einen Zeitschritt vorausgerechnet wird (vgl. additiver Beitrag
von Q), ohne daß (zunächst) neue Information über den Systemzustand
mit eingeht. Der Kovarianz-Prädiktionsschritt nimmt bei Filtern mit rela
tiv wenigen Meßwerten (d. h. deren Anzahl entspricht etwa der Systemord
nung) einen signifikanten Anteil des Rechenaufwands pro Zeitschritt ein.
Deswegen sind speziell bei den Algorithmus-Varianten für Echtzeitanwen
dungen laufzeitoptimierende Implementationsaspekte sehr stark berück
sichtigt worden.
Die konventionelle Kovarianz-Prädiktion lautet
k+1=Φk kΦ-k T+Qk. (73)
Mit der Substitution =ÛÛT bzw. = T ergibt Gl. (73)
bzw. mit =ΦÛ als Zwischenprodukt gilt
In der UD-faktorisierten Formulierung des Kalman-Filter Algorithmus nach
Bierman und Thornton gliedert sich der Kovarianz-Prädiktionsschritt
(engl. auch 'time update' oder 'time propagation') grundsätzlich in zwei
aufeinanderfolgende Unterschritte:
- a) Die Matrixmultiplikation zur Berechnung des Zwischenproduktes =ΦÛ.
Die Berechnung von erfolgt bei allgemeinen, voll besetzten Transi
tionsmatrizen als konventionelle n×n Matrixmultiplikation.
Im nicht seltenen Fall einer dünn besetzten Transitionsmatrix Φ kann die Matrixmultiplikation jedoch durch einen speziellen Algorithmus nach [Thornton u. Bierman, 80] ausgeführt werden, der nur die nichtverschwin denden Elemente von Φ benutzt und entsprechend schneller ist. - b) Die neuerliche Orthogonalzerlegung von , und Q in und , die Faktoren der um einen Zeitschritt extrapolierten Kovarianzmatrix , erfolgt über den sogenannten 'modifizierten Gram-Schmidt' Algorithmus [Lawson u. Hanson, 74; Stewart, 79; Maybeck, 79].
Die 'modifizierte Gram-Schmidt-Orthogonalisierung' ist Kern der Zerle
gung von und und soll hier kurz skizziert werden, da im folgenden
Abschnitt eine laufzeitreduzierende Implementationsvariante diskutiert
wird. Für die gewichteten Skalarprodukte zweier Vektoren wird die Nota
tion
und
eingeführt.
Die neuen UD-Faktoren und von in Gl. (75) werden rekursiv
über die folgenden Schritte für j=n, n-1 . . . , 1 berechnet (der Rekur
sionsindex ist hochgestellt, gegenüber tiefgesetzten Zeilen- oder Spal
tenindizes):
Eine sehr effiziente FORTRAN-Implementation dieses Algorithmus, unter
Benutzung vektorgespeicherter Matrizen, wurde von Thornton und Bierman
angegeben. Eine leicht modifizierte Variante dieses Algorithmus gab
[Wünsche, 88] an, wobei die Kovarianzmatrix der Systemstörungen Q als
reine Diagonalmatrix eingeht. Dadurch ergeben sich weitere laufzeitre
duzierende Vereinfachungen. Die Kovarianzmatrix Q der diskreten System
störungen wurde hier ebenfalls als konstante Diagonalmatrix angesetzt.
Deren Elemente wurden über den Prozeß des sogenannten 'filter tuning'
[Maybeck, 79] iterativ-experimentell bestimmt (die Werte der Q-Elemente
sind zusammen mit den Anfangswerten der Schätzfehlerkovarianz 0 im
Anhang A4 angegeben).
Die Transitionsmatrix Φ der Bewegungsgleichungen technischer Systeme
kann bei geringer Kopplung der Bewegungsfreiheitsgrade, wie auch im hier
beschriebenen Anwendungsfall, blockweise Dreiecksstruktur oder dreiecks
ähnliche Besetzungsstruktur aufweisen. Dies trifft auch auf zwei weitere
Systeme zu, deren Bewegungserfassung mittels Rechnersehen und dem UD-
faktorisierten Filteransatz am Institut für Systemdynamik und Flugme
chanik untersucht wurden: a) das Satelliten-Andockmanöver [Wünsche, 86;
88], und b) die Relativlageschätzung zu Hindernissen von einem Straßen
fahrzeug aus [Christians et al., 89].
Bei Verarbeitung von relativ wenigen Meßwerten durch das Filter, d. h.
deren Anzahl entspricht der Systemordnung oder ist noch kleiner, bildet
die Kovarianz-Extrapolation den größten geschlossenen (unteilbaren)
Rechenzeit-Block innerhalb eines Zeitschritts. Im vorliegenden Fall wur
den bei Systemen achter bzw. neunter Ordnung Rechenzeiten von ca. 12 bis
16 ms für die Kovarianz-Extrapolation benötigt (auf 80 386/387, 20 MHz,
ohne Wartezyklen), wogegen für die sequentielle Innovation pro Meßwert
nur 2,3 bis 2,7 ms erforderlich sind. Bei einer Gesamtzykluszeit von 40 ms
(zwei Bildtakte bei 50 Hz Bildfrequenz) stellt dies einen signifikan
ten Anteil der zur Verfügung stehenden Rechenzeit dar.
In weiterführenden Untersuchungen von Anwendungen des UD-faktorisierten
Ansatzes wurde von [Bierman, 81] u. a. auf die Möglichkeit hingewiesen,
Blockdreiecksstrukturen der Transitionsmatrix zur Laufzeitverbesserung
bei der Kovarianz-Prädiktion zu berücksichtigen. Wegen des oben erwähn
ten hohen Rechenzeitbedarfs relativ zur Gesamtzykluszeit, und da die
Transitionsmatrix hier unterhalb der Diagonalen weitgehend unbesetzt
ist, wurde diese Eigenschaft der Besetzungsstruktur von Φ zur weiteren
Reduzierung des Rechenaufwandes genutzt. Hierbei können unbesetzte Be
reiche unterhalb der Diagonalen zeilenweise berücksichtigt werden.
Die Transitionsmatrix Φ des Gesamtsystems der Fahrzeugquerdynamik und
der Fahrbahnkrümmungsdynamik (vgl. Anhang A3) weist hier folgende Be
setzungsstruktur auf:
Hierbei sind von n²=81 Elementen knz=24 ungleich Null (Anteil λnz=knz/n²=30%)
bzw. unterhalb der Diagonale sind 1z=32 unbesetzt
(Anteil λ1z=1z/n²=40%). Zum Vergleich seien auch die entsprechenden
Besetzungsdichten der oben erwähnten Anwendungen angegeben:
Die dünne Besetzungsdichte λnz wird bereits im 'sparse Φ multiplication'
Algorithmus von [Thornton u. Bierman, 80] bei der Berechnung von W=ΦU
genutzt, um die Anzahl der Gleitkomma-Operationen des Typs A:=A+B · C
proportional zur Besetzungsdichte λnz zu reduzieren.
Im ursprünglich angegebenen Algorithmus wird jedoch im darauffolgenden
Schritt (Gl. (75)) der neuerlichen Faktorisierung über den 'modifizier
ten Gram-Schmidt Algorithmus' die von Φ auf W übertragene Besetzungs
struktur noch nicht berücksichtigt. Wegen der oberen Dreiecksform von U
bleibt nämlich bei der Matrixmultiplikation W=ΦU die Besetzungsstruk
tur von Φ erhalten.
Im Gram-Schmidt Algorithmus werden innerhalb einer zweifach geschachtel
ten Schleife (vgl. Gl. (79)) aus Zeilenvektoren von W die gewichteten
Skalarprodukte der Art [wi, wj] gebildet. Die zur Skalarproduktberech
nung nötigen Operationen, in einer dreifach geschachtelten Schleife
ausgeführt, werden also proportional n³ wiederholt. Hierbei werden die
Zeilenvektoren wi elementweise von links nach rechts verarbeitet. Da W
die gleiche Besetzungsstruktur wie Φ besitzt (vgl. Bild 10), die
ersten nsi Elemente jeder Zeile von W gleich Null sind und somit keinen
Beitrag zum Skalarprodukt liefern, können pro i-ter Zeile von W jeweils
nsi Schleifendurchläufe in Gl. (78) und (79) weggelassen werden.
Daraus resultiert eine signifikante Verringerung der Rechenzeit für die
UD-Kovarianz-Prädiktion, die bei den gegebenen Systemordnungen etwa
proportional zum Anteil der Nullelemente unterhalb der Diagonalen in Φ
ist, hier also ca. 40% beträgt (bei höheren Systemordnungen aber noch
größer sein kann). Die Laufzeiten der Kovarianz-Prädiktion für ein Sy
stem achter Ordnung konnten damit von 11,8 auf 6,9 ms reduziert werden,
für ein System neunter Ordnung von 15,8 auf 9,6 ms.
Gegenüber der Algorithmusversion nach Bierman, die in [Wünsche, 88]
angegeben ist, mußten als Änderungen nur ein weiteres Indexarray der
Dimension n als Übergabeparameter eingeführt werden, sowie die Start
werte zweier Schleifenindexvariablen von 1 auf nsi gesetzt werden. Das
Indexarray enthält die Spaltenindizes des jeweils ersten nichtver
schwindenden Elementes einer Transitionsmatrixzeile. Insgesamt wurden
damit nur drei Statements modifiziert um obige Laufzeitbesserung zu
realisieren.
Die Abbildungsgleichung Gl. (12) läßt sich verallgemeinert als Funktion
gi des Zustandsvektors x und der im Vektor pi zusammengefaßten Abbil
dungsparameter ( , Li, d, ψK) darstellen als
yBi=gi(x, pi), (A 1.1)
bzw. vektoriell geschrieben
yB=g(x, p). (A 1.2)
Hierbei ist yB der Vektor der (bis zu 8 verwerteten) horizontalen Bild
koordinaten der Fahrbahnbegrenzungen an verschiedenen Vorauschauentfer
nungen Li.
Die Meßmatrix C gibt im Fall nichtlinearer Abbildungsbeziehungen den
linearisierten Zusammenhang zwischen einer (kleinen) Änderung des Zu
standes Δx um den aktuellen Zustand x₀ und der entsprechenden Verschie
bung der Merkmalskoordinaten ΔyB im Bild an. Sie ist die Jacobische
Matrix der Abbildungsgleichungen, d. h. die Matrix der partiellen Ablei
tungen der Elemente von g nach den Elementen des Zustandsvektors x:
Für das dynamische Modell mit Horizontalkrümmungserkennung und Fahrbahn
breitenschätzung (d. h. für den Fall einer ebenen Fahrbahn) enthält der
Zustandsvektor die Elemente
Die Zustandsgrößen λ, β und c1h gehen nicht in die Abbildungsbeziehungen
Gl. (12) ein. Damit ergibt sich für die i-te Zeile ci (bzgl. des i-ten
Bildkoordinaten-Meßwerts) der Meßmatrix C:
wobei +b/2 für Bildkoordinaten-Meßwerte der rechten und -b/2 für solche
der linken Fahrbahnbegrenzung gilt.
Für das dynamische Modell zur Erfassung des räumlichen Fahrbahnverlau
fes, d. h. mit Vertikalkrümmungserkennung, enthält der Zustandsvektor die
Elemente
Hierbei ist die Vorausschauentfernung L abhängig von den Vertikalkrüm
mungsgrößen c0vm und c1vm, d. h. abhängig vom aktuellen Zustand x₀ (vgl.
vertikale Abbildungsgeometrie, Abschnitt 5.2.4). Die i-te Zeile ci
(bzgl. des i-ten Bildkoordinaten-Meßwerts yBi) der Jacobischen Matrix C
der Meßgleichungen lautet hierfür:
Eine analytische Differentiation der Abbildungsgleichung Gl. (12) nach
den Vertikalkrümmungszuständen c0vm und c1vm ist nicht mehr möglich, da
für die Abhängigkeit der Vorausschauweite L von den Vertikalkrümmungszu
ständen kein analytischer Ausdruck vorliegt. Die partiellen Ableitungen
∂yBi/∂c0vm bzw. ∂yBi∂c1vm zum aktuellen Zustand x₀ werden dann über
numerische Differentiation bestimmt via
und
Das kontinuierliche Modell der Fahrzeugseitenbewegung bzw. der Fahrbahn
krümmungsdynamik (Gl. (54)) ist von der Fahrgeschwindigkeit v als auch
evtl. von der Vorausschauweite L abhängig. Die Elemente der Transitions
matrix Φ und des diskreten Stellverstärkungsvektors g müssen daher zu
jedem Abtastzeitpunkt neu berechnet werden. D. h. für diese Größen müssen
entsprechende analytische Ausdrücke vorliegen. Innerhalb eines Abtast
schrittes werden L und v als konstant angenommen.
Über die Laplace-Transformation lassen sich die Elemente der Transi
tionsmatrix in analytischer Form aus der kontinuierlichen Systemmatrix
herleiten (vgl. [Ackermann, 83]):
Für den diskreten Eingangsverstärkungsvektor g abhängig von Φ und b gilt
Aus dem kontinuierlichen Zustandsraummodell A, b ergibt sich damit die
entsprechende diskrete Darstellung zu:
Für die Modellvariante mit Fahrbahnbreitenschätzung anstelle der Verti
kalkrümmungserkennung ist in der obigen Transitionsmatrix nur die letzte
Spalte bzw. Zeile zu streichen; ansonsten bestehen keine Unterschiede in
den diskreten Formen der dynamischen Modelle.
Mit den Faktoren
ergeben sich für die nichtverschwindenden bzw. nichttrivialen Elemente
der Transitionsmatrix folgende Terme:
Die Ausdrücke für die nichtverschwindenden Elemente des diskreten Ein
gangsverstärkungsvektors g lauten:
Für die Varianzen der Meßfehler, die als unkorreliert angenommen werden,
R=Diag (ri)=Diag {σλ², , . . . , }
wurden im Fahrbahnerfassungsmodul folgende Werte angesetzt:
σλ²=1,0E-6 [rad²] bzw. =5,0 [px1²].
Die Streuung des Lenkwinkelmeßwerts σλ=1,0E-3 [rad]≃0,057° entspricht
somit etwa einem viertelten Quantisierungsschritt des mit 0,24° Auf
lösung digitalisierten Lenkwinkels. Für die Streuung der Kantenkoor
dinatenmeßwerte in natürlichen Straßenszenen wurde ≃2,24 [px1]
angesetzt, womit auch einer gewissen Kanten-'Unschärfe' von nicht
markierten, unregelmäßigen Fahrbahnbegrenzungen, wie z. B. bei einem
direkten Übergang von Asphalt zu Gras, Rechnung getragen wird.
Die Kovarianzmatrix Q der diskreten Systemstörungen wurde für das Fahr
bahnerfassungsmodul als konstante Diagonalmatrix angesetzt. Deren Ele
mente wurden über den Prozeß des sogenannten 'filter tuning' [Maybeck,
79] iterativ-experimentell bestimmt zu
Q=Diag (1.E-7, 1.E-5, 1.E-4, 1.E-7,
1.E-9, 1.E-11, 1.E-10, 3.E-9, 1.E-10}. (A 4.1)
1.E-9, 1.E-11, 1.E-10, 3.E-9, 1.E-10}. (A 4.1)
Die dabei gemachten Vereinfachungen, d. h. die Vernachlässigung der Ne
bendiagonalelemente sowie der Geschwindigkeitsabhängigkeit, erwiesen
sich aus folgenden Gründen als sinnvoll und zulässig:
- - In der Praxis hat sich ein konstantes, diagonales Q bewährt.
- - Die numerische Berechnung von Q (diskret) aus einem kontinuierlichen, diagonalen Q über die Integration (vgl. [Brammer u. Siffling, 75, pp. 93 ff]) ergab schon eine deut liche Diagonaldominanz der Elemente von Q.
Darüber hinaus würde eine explizite on-line Berechnung von Q über obige
Beziehung selbst bei Vernachlässigung aller Terme mit höheren Potenzen
als T² einen nicht unerheblichen Rechenmehraufwand für die Kovarianz-
Prädiktion bedeuten.
Im Gegensatz zu Q und R, welche das 'langfristige' Filterverhalten be
einflussen, wird durch die Anfangsschätzfehlerkovarianz ₀ hauptsächlich
das Einschwingverhalten bestimmt. Als günstige Wahl für schnelles Ein
schwingen erwies sich die Besetzung
₀=Diag {0,1, 0, 0, 1, 0, 1, 0, 1, 0, 0, 0, 1, 0}, (A 4.3)
d. h. die Anfangswerte des Schwimmwinkels sowie der Krümmungsänderungen
(im Stand) werden als exakt angesehen. Mit ₀ als Diagonalmatrix gilt
zusätzlich
₀= ₀ sowie ₀=I, (A 4.4)
womit sich also eine anfängliche Zerlegung von ₀ erübrigt.
[Andrews, 68] A. Andrews: A Square Root Formulation of the Kalman Covariance
Equations, AIAA Journal Vol. 6, No. 6, 1968, pp. 1165-1166.
[Bierman, 77] G. J. Bierman: Factorization Methods for Discrete Sequential Estimation. Academic Press, New York, 1977.
[Bierman, 81] G. J. Biermann: Efficient Time Propagation of U-D Covariance Factors. IEEE Trans. Automatic Control, Vol. AC-4, Nr. 4, Aug. 1981, pp. 890-894.
[Christians et al., 89] T. Christians, H. J. Wünsche, E. D. Dickmanns: Räumliche Relativlageschätzung von Objekten (in einer Ebene) durch Rechnersehen. Interner Bericht am Institut für Systemdynamik und Flugmechanik der Universität der Bundeswehr München, LRT/WE 13/IB/89-6, April 1989.
[Chui u. Chen, 87] C. K. Chui, G. Chen: Kalman Filtering with Real-Time Applications. Springer-Verlag, Berlin, Heidelberg, New York, 1987.
[Dickmanns, 87] E. D. Dickmanns: 4D-Szenenanalyse mit integralen raum-/zeitlichen Modellen. In Paulus (Hrsg.): 9.DAGM-Symposium Mustererkennung, Braunschweig; Informatik Fachberichte 149, Springer-Verlag, Sept./Okt. 1987.
[Dickmanns, 88] E. D. Dickmanns: Dynamic Computer Vision for Mobile Robot Control. Proc. Int. Symposium on Robot Control, Sydney, Nov. 1988.
[Dickmanns u. Zapp, 86] E. D. Dickmanns, A. Zapp: A Curvature-based Scheme for Improving Road Vehicle Guidance by Computer Vision. Proc. SPIE Conf. on Mobile Robots, Vol. 727, Cambridge, MA, USA, 1986, pp. 161-168.
[Donges, 78] E. Donges: Der Fahrsimulator des Forschungsinstitutes für Anthropotechnik. Forschungsbericht Nr. 41, FGAN e. V., Forschungsinstitut für Anthropotechnik, Wachtberg-Werthhoven, Juli 1978.
[Heinhold u. Behringer, 76] J. Heinhold, F. Behringer: Einführung in die Höhere Mathematik, Teil 2: Infinitesimalrechnung. Carl Hanser Verlag, 1976.
[Isermann u. Nold, 88] R. Isermann, S. Nold: Wissensbasierte Fehlerdiagnose Technischer Prozesse. Proc. Prozeßrechensysteme 88, Informatik-Fachberichte 167, R. Lauber (Hrsg.), Stuttgart, 1988, pp. 738-748.
[Maybeck, 79] P. S. Maybeck: Stochastic Models, Estimation and Control. Vol.1. Academic Press, 1979.
[Mitschke, 72] M. Mitschke: Dynamik der Kraftfahrzeuge, Springer-Verlag, Berlin, Heidelberg, New York, 1972.
[Ozawa, Rosenfeld, 86] S. Ozawa, A. Rosenfeld: Synthesis of a road image as seen from a vehicle, Pattern Recognition, Vol. 19, No. 2, 1985, S. 123-145.
[RAS-L-1, 84] Richtlinien für die Anlage von Straßen (RAS), Teil: Linienführung, Abschnitt 1: Elemente der Linienführung, Forschungsgesellschaft für Straßen- und Verkehrswesen (Hrsg.) Köln, Ausgabe 1984.
[Sakurai et al., 87] K. Sakurai, H. Zen, H. Ohta, Y. Ushioda, S. Ozawa: Analysis of a road image as seen from a vehicle. Proc. 1st ICCV, London, 1987, pp. 651-656.
[Stewart, 73] G. W. Stewart: Introduction to Matrix Computations. Academic Press, 1973.
[Thornton u. Bierman, 80] C. L. Thornton, G. J. Bierman: UDUT Covaricance Factorization for Kalman Filtering. In: Control and Dynamic Systems, Advances in Theory and Application, Vol. 16, Academic Press, New York, 1980, pp. 178-248.
[Wünsche, 86] H. J. Wünsche: Detection and Control of Mobile Robot Motion by Real-Time Computer Vision. Proc. SPIE Conf. on Mobile Robots Vol. 727, Cambridge, MA, USA, Oct. 1986, pp. 100-109.
[Wünsche, 88] H. J. Wünsche: Bewegungssteuerung durch Rechnersehen. Fachberichte Messen, Steuern, Regeln Bd. 20, Springer-Verlag, Berlin 1988.
[Zapp. 88] A. Zapp: Automatische Straßenfahrzeugführung durch Rechnersehen. Dissertation an der Fakultät für Luft- und Raumfahrttechnik der Universität der Bundeswehr München, 1988.
[Bierman, 77] G. J. Bierman: Factorization Methods for Discrete Sequential Estimation. Academic Press, New York, 1977.
[Bierman, 81] G. J. Biermann: Efficient Time Propagation of U-D Covariance Factors. IEEE Trans. Automatic Control, Vol. AC-4, Nr. 4, Aug. 1981, pp. 890-894.
[Christians et al., 89] T. Christians, H. J. Wünsche, E. D. Dickmanns: Räumliche Relativlageschätzung von Objekten (in einer Ebene) durch Rechnersehen. Interner Bericht am Institut für Systemdynamik und Flugmechanik der Universität der Bundeswehr München, LRT/WE 13/IB/89-6, April 1989.
[Chui u. Chen, 87] C. K. Chui, G. Chen: Kalman Filtering with Real-Time Applications. Springer-Verlag, Berlin, Heidelberg, New York, 1987.
[Dickmanns, 87] E. D. Dickmanns: 4D-Szenenanalyse mit integralen raum-/zeitlichen Modellen. In Paulus (Hrsg.): 9.DAGM-Symposium Mustererkennung, Braunschweig; Informatik Fachberichte 149, Springer-Verlag, Sept./Okt. 1987.
[Dickmanns, 88] E. D. Dickmanns: Dynamic Computer Vision for Mobile Robot Control. Proc. Int. Symposium on Robot Control, Sydney, Nov. 1988.
[Dickmanns u. Zapp, 86] E. D. Dickmanns, A. Zapp: A Curvature-based Scheme for Improving Road Vehicle Guidance by Computer Vision. Proc. SPIE Conf. on Mobile Robots, Vol. 727, Cambridge, MA, USA, 1986, pp. 161-168.
[Donges, 78] E. Donges: Der Fahrsimulator des Forschungsinstitutes für Anthropotechnik. Forschungsbericht Nr. 41, FGAN e. V., Forschungsinstitut für Anthropotechnik, Wachtberg-Werthhoven, Juli 1978.
[Heinhold u. Behringer, 76] J. Heinhold, F. Behringer: Einführung in die Höhere Mathematik, Teil 2: Infinitesimalrechnung. Carl Hanser Verlag, 1976.
[Isermann u. Nold, 88] R. Isermann, S. Nold: Wissensbasierte Fehlerdiagnose Technischer Prozesse. Proc. Prozeßrechensysteme 88, Informatik-Fachberichte 167, R. Lauber (Hrsg.), Stuttgart, 1988, pp. 738-748.
[Maybeck, 79] P. S. Maybeck: Stochastic Models, Estimation and Control. Vol.1. Academic Press, 1979.
[Mitschke, 72] M. Mitschke: Dynamik der Kraftfahrzeuge, Springer-Verlag, Berlin, Heidelberg, New York, 1972.
[Ozawa, Rosenfeld, 86] S. Ozawa, A. Rosenfeld: Synthesis of a road image as seen from a vehicle, Pattern Recognition, Vol. 19, No. 2, 1985, S. 123-145.
[RAS-L-1, 84] Richtlinien für die Anlage von Straßen (RAS), Teil: Linienführung, Abschnitt 1: Elemente der Linienführung, Forschungsgesellschaft für Straßen- und Verkehrswesen (Hrsg.) Köln, Ausgabe 1984.
[Sakurai et al., 87] K. Sakurai, H. Zen, H. Ohta, Y. Ushioda, S. Ozawa: Analysis of a road image as seen from a vehicle. Proc. 1st ICCV, London, 1987, pp. 651-656.
[Stewart, 73] G. W. Stewart: Introduction to Matrix Computations. Academic Press, 1973.
[Thornton u. Bierman, 80] C. L. Thornton, G. J. Bierman: UDUT Covaricance Factorization for Kalman Filtering. In: Control and Dynamic Systems, Advances in Theory and Application, Vol. 16, Academic Press, New York, 1980, pp. 178-248.
[Wünsche, 86] H. J. Wünsche: Detection and Control of Mobile Robot Motion by Real-Time Computer Vision. Proc. SPIE Conf. on Mobile Robots Vol. 727, Cambridge, MA, USA, Oct. 1986, pp. 100-109.
[Wünsche, 88] H. J. Wünsche: Bewegungssteuerung durch Rechnersehen. Fachberichte Messen, Steuern, Regeln Bd. 20, Springer-Verlag, Berlin 1988.
[Zapp. 88] A. Zapp: Automatische Straßenfahrzeugführung durch Rechnersehen. Dissertation an der Fakultät für Luft- und Raumfahrttechnik der Universität der Bundeswehr München, 1988.
Claims (2)
1. Verfahren zur kontinuierlichen und automatischen Fahr
zeugorientierung auf einer Fahrbahn mit einem bild
erzeugenden System und einer computerisierten Bildaus
wertung zur Erzeugung von Fahrzeugsteuerdaten,
dadurch gekennzeichnet,
daß die Bilddaten eines letzten monokular erzeugten Bil
des einer fortlaufenden Bildfolge mit Hilfe eines einen
elektronischen Rechner steuernden Programms, orientiert
an räumlich-geometrischen und zeitlich-dynamischen As
pekten einer Szene, modelliert werden, um sie dann mit
tels rekursiver Schätzverfahren zur Bestimmung der Stra
ßenparamter, speziell des horizontalen und des vertika
len Krümmungsverlaufs im Vorausschaubereich sowie der
Breite und der eigenen straßenbezogenen Situation heran
zuziehen.
2. Verfahren nach Anspruch 1
dadurch gekennzeichnet,
daß ein kompletter Verfahrenszyklus inklusive einer Ak
tualisierung der Steuerdaten 1/10 bis 1/30 Sekunden
dauert.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4124654A DE4124654A1 (de) | 1991-07-25 | 1991-07-25 | Verfahren zur kontinuierlichen und automatischen fahrzeugorientierung auf einer fahrbahn |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4124654A DE4124654A1 (de) | 1991-07-25 | 1991-07-25 | Verfahren zur kontinuierlichen und automatischen fahrzeugorientierung auf einer fahrbahn |
Publications (1)
Publication Number | Publication Date |
---|---|
DE4124654A1 true DE4124654A1 (de) | 1993-01-28 |
Family
ID=6436978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4124654A Withdrawn DE4124654A1 (de) | 1991-07-25 | 1991-07-25 | Verfahren zur kontinuierlichen und automatischen fahrzeugorientierung auf einer fahrbahn |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE4124654A1 (de) |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19602772A1 (de) * | 1995-01-27 | 1996-08-08 | Fuji Heavy Ind Ltd | Warnsystem für ein Fahrzeug |
WO2001029513A1 (de) * | 1999-10-16 | 2001-04-26 | Bayerische Motoren Werke Aktiengesellschaft | Kameravorrichtung für fahrzeuge |
DE10055156A1 (de) * | 2000-11-07 | 2002-05-16 | Harman Becker Automotive Sys | Verfahren zur Erzeugung einer Navigationskarte und Navigationskarte |
DE10143029A1 (de) * | 2001-09-01 | 2002-11-21 | Bayerische Motoren Werke Ag | Verfahren zur Vorgaberegelung eines Fahrzeugs |
DE10133761A1 (de) * | 2001-07-11 | 2003-01-30 | Vitronic Dr Ing Stein Bildvera | Verfahren und Vorrichtung zur virtuellen Lagebestimmung eines Fahrzeugaufbaus |
EP1170195A3 (de) * | 2000-07-07 | 2003-11-05 | Nissan Motor Company, Limited | Fahrzeugregelung zum Folgen einer Fahrspur |
DE10258545A1 (de) * | 2002-09-23 | 2004-04-01 | Stefan Reich | Stabilisierungssystem für Flugkörper |
DE10114412C5 (de) * | 2001-03-23 | 2006-07-06 | Audi Ag | Verfahren zur Erzeugung einer Straßennetzkarte sowie Verfahren und Vorrichtung zur Steuerung von Fahrzeugsystemen in einem Fahrzeug |
US7089162B2 (en) | 2001-11-07 | 2006-08-08 | Harman International Industries, Incorporated | Navigation map creation system |
WO2007065923A1 (de) * | 2005-12-09 | 2007-06-14 | Hella Kgaa Hueck & Co. | Bahnplanung |
US7400950B2 (en) | 2002-09-23 | 2008-07-15 | Stefan Reich | Optical sensing system and system for stabilizing machine-controllable vehicles |
DE19655384B4 (de) * | 1995-05-25 | 2009-07-09 | Hitachi, Ltd. | Verfahren und Vorrichtung zur Kraftübertragungssteuerung eines Motorfahrzeugs |
DE102008021381A1 (de) * | 2008-04-29 | 2009-11-05 | Continental Automotive Gmbh | Verfahren und Vorrichtung zum Vorhersagen eines Krümmungsverlaufs einer Fahrbahn und Fahrerassistenzsystem |
EP2449789A1 (de) * | 2009-06-30 | 2012-05-09 | Saab AB | Verfahren und anordnung zur schätzung von 3d-modellen in einer strassenumgebung |
US8401737B2 (en) | 2006-12-07 | 2013-03-19 | Toyota Jidosha Kabushiki Kaisha | Vehicle control device |
DE102012008780A1 (de) * | 2012-04-28 | 2013-10-31 | Volkswagen Aktiengesellschaft | Verfahren und Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes und Kraftfahrzeug |
US8593521B2 (en) | 2004-04-15 | 2013-11-26 | Magna Electronics Inc. | Imaging system for vehicle |
US8599001B2 (en) | 1993-02-26 | 2013-12-03 | Magna Electronics Inc. | Vehicular vision system |
US8637801B2 (en) | 1996-03-25 | 2014-01-28 | Magna Electronics Inc. | Driver assistance system for a vehicle |
US8636393B2 (en) | 2006-08-11 | 2014-01-28 | Magna Electronics Inc. | Driver assistance system for vehicle |
US8665079B2 (en) | 2002-05-03 | 2014-03-04 | Magna Electronics Inc. | Vision system for vehicle |
US8842176B2 (en) | 1996-05-22 | 2014-09-23 | Donnelly Corporation | Automatic vehicle exterior light control |
US9014904B2 (en) | 2004-12-23 | 2015-04-21 | Magna Electronics Inc. | Driver assistance system for vehicle |
US9191997B2 (en) | 2010-10-19 | 2015-11-17 | Gentherm Gmbh | Electrical conductor |
US9191574B2 (en) | 2001-07-31 | 2015-11-17 | Magna Electronics Inc. | Vehicular vision system |
DE102014107765A1 (de) * | 2014-06-03 | 2015-12-03 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren und Vorrichtung zum automatischen oder halbautomatischen Einstellen eines Fahrwerks |
US9436880B2 (en) | 1999-08-12 | 2016-09-06 | Magna Electronics Inc. | Vehicle vision system |
US9900522B2 (en) | 2010-12-01 | 2018-02-20 | Magna Electronics Inc. | System and method of establishing a multi-camera image using pixel remapping |
DE10333670B4 (de) | 2003-07-18 | 2019-07-04 | Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr | Verfahren zum Ermitteln des Fahrbahnverlaufes aus Bilddaten |
CN110553853A (zh) * | 2019-08-06 | 2019-12-10 | 清华大学 | 基于场地下较差场景搜索的自动驾驶功能测试测评方法 |
US10793067B2 (en) | 2011-07-26 | 2020-10-06 | Magna Electronics Inc. | Imaging system for vehicle |
CN112824194A (zh) * | 2019-11-21 | 2021-05-21 | 通用汽车环球科技运作有限责任公司 | 基于相机的车辆运动状态估计的增强 |
DE102021208814A1 (de) | 2021-08-12 | 2023-02-16 | Continental Autonomous Mobility Germany GmbH | Verfahren und System zur Steuerung eines Fahrzeugs |
WO2023237421A1 (de) | 2022-06-08 | 2023-12-14 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und vorrichtung zum einstellen eines betriebszustands eines fahrassistenzsystems |
-
1991
- 1991-07-25 DE DE4124654A patent/DE4124654A1/de not_active Withdrawn
Cited By (89)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8917169B2 (en) | 1993-02-26 | 2014-12-23 | Magna Electronics Inc. | Vehicular vision system |
US8599001B2 (en) | 1993-02-26 | 2013-12-03 | Magna Electronics Inc. | Vehicular vision system |
DE19602772A1 (de) * | 1995-01-27 | 1996-08-08 | Fuji Heavy Ind Ltd | Warnsystem für ein Fahrzeug |
DE19602772C2 (de) * | 1995-01-27 | 1998-07-23 | Fuji Heavy Ind Ltd | Warnsystem für ein Fahrzeug |
DE19655384B4 (de) * | 1995-05-25 | 2009-07-09 | Hitachi, Ltd. | Verfahren und Vorrichtung zur Kraftübertragungssteuerung eines Motorfahrzeugs |
US8637801B2 (en) | 1996-03-25 | 2014-01-28 | Magna Electronics Inc. | Driver assistance system for a vehicle |
US8993951B2 (en) | 1996-03-25 | 2015-03-31 | Magna Electronics Inc. | Driver assistance system for a vehicle |
US8842176B2 (en) | 1996-05-22 | 2014-09-23 | Donnelly Corporation | Automatic vehicle exterior light control |
US9131120B2 (en) | 1996-05-22 | 2015-09-08 | Magna Electronics Inc. | Multi-camera vision system for a vehicle |
US9436880B2 (en) | 1999-08-12 | 2016-09-06 | Magna Electronics Inc. | Vehicle vision system |
US8164627B1 (en) | 1999-10-16 | 2012-04-24 | Bayerische Motoren Werke Aktiengesellschaft | Camera system for vehicles |
WO2001029513A1 (de) * | 1999-10-16 | 2001-04-26 | Bayerische Motoren Werke Aktiengesellschaft | Kameravorrichtung für fahrzeuge |
EP1170195A3 (de) * | 2000-07-07 | 2003-11-05 | Nissan Motor Company, Limited | Fahrzeugregelung zum Folgen einer Fahrspur |
US7324895B2 (en) | 2000-11-07 | 2008-01-29 | Harman Becker Automotive Systems Gmbh | Apparatus for creating a navigation map |
DE10055156A1 (de) * | 2000-11-07 | 2002-05-16 | Harman Becker Automotive Sys | Verfahren zur Erzeugung einer Navigationskarte und Navigationskarte |
DE10114412C5 (de) * | 2001-03-23 | 2006-07-06 | Audi Ag | Verfahren zur Erzeugung einer Straßennetzkarte sowie Verfahren und Vorrichtung zur Steuerung von Fahrzeugsystemen in einem Fahrzeug |
DE10133761A1 (de) * | 2001-07-11 | 2003-01-30 | Vitronic Dr Ing Stein Bildvera | Verfahren und Vorrichtung zur virtuellen Lagebestimmung eines Fahrzeugaufbaus |
US9834142B2 (en) | 2001-07-31 | 2017-12-05 | Magna Electronics Inc. | Driving assist system for vehicle |
US10611306B2 (en) | 2001-07-31 | 2020-04-07 | Magna Electronics Inc. | Video processor module for vehicle |
US9191574B2 (en) | 2001-07-31 | 2015-11-17 | Magna Electronics Inc. | Vehicular vision system |
US9376060B2 (en) | 2001-07-31 | 2016-06-28 | Magna Electronics Inc. | Driver assist system for vehicle |
US9656608B2 (en) | 2001-07-31 | 2017-05-23 | Magna Electronics Inc. | Driver assist system for vehicle |
US10046702B2 (en) | 2001-07-31 | 2018-08-14 | Magna Electronics Inc. | Control system for vehicle |
DE10143029A1 (de) * | 2001-09-01 | 2002-11-21 | Bayerische Motoren Werke Ag | Verfahren zur Vorgaberegelung eines Fahrzeugs |
US7089162B2 (en) | 2001-11-07 | 2006-08-08 | Harman International Industries, Incorporated | Navigation map creation system |
US10351135B2 (en) | 2002-05-03 | 2019-07-16 | Magna Electronics Inc. | Vehicular control system using cameras and radar sensor |
US8665079B2 (en) | 2002-05-03 | 2014-03-04 | Magna Electronics Inc. | Vision system for vehicle |
US9834216B2 (en) | 2002-05-03 | 2017-12-05 | Magna Electronics Inc. | Vehicular control system using cameras and radar sensor |
US10118618B2 (en) | 2002-05-03 | 2018-11-06 | Magna Electronics Inc. | Vehicular control system using cameras and radar sensor |
US10683008B2 (en) | 2002-05-03 | 2020-06-16 | Magna Electronics Inc. | Vehicular driving assist system using forward-viewing camera |
US9643605B2 (en) | 2002-05-03 | 2017-05-09 | Magna Electronics Inc. | Vision system for vehicle |
US9555803B2 (en) | 2002-05-03 | 2017-01-31 | Magna Electronics Inc. | Driver assistance system for vehicle |
US9171217B2 (en) | 2002-05-03 | 2015-10-27 | Magna Electronics Inc. | Vision system for vehicle |
US11203340B2 (en) | 2002-05-03 | 2021-12-21 | Magna Electronics Inc. | Vehicular vision system using side-viewing camera |
US7400950B2 (en) | 2002-09-23 | 2008-07-15 | Stefan Reich | Optical sensing system and system for stabilizing machine-controllable vehicles |
DE10258545B4 (de) * | 2002-09-23 | 2008-01-24 | Stefan Reich | Verfahren und System zur Stabilisierung einer Translationsbewegungsgröße eines Flugkörpers |
DE10258545A1 (de) * | 2002-09-23 | 2004-04-01 | Stefan Reich | Stabilisierungssystem für Flugkörper |
DE10333670B4 (de) | 2003-07-18 | 2019-07-04 | Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr | Verfahren zum Ermitteln des Fahrbahnverlaufes aus Bilddaten |
US8593521B2 (en) | 2004-04-15 | 2013-11-26 | Magna Electronics Inc. | Imaging system for vehicle |
US9609289B2 (en) | 2004-04-15 | 2017-03-28 | Magna Electronics Inc. | Vision system for vehicle |
US11847836B2 (en) | 2004-04-15 | 2023-12-19 | Magna Electronics Inc. | Vehicular control system with road curvature determination |
US11503253B2 (en) | 2004-04-15 | 2022-11-15 | Magna Electronics Inc. | Vehicular control system with traffic lane detection |
US9428192B2 (en) | 2004-04-15 | 2016-08-30 | Magna Electronics Inc. | Vision system for vehicle |
US9191634B2 (en) | 2004-04-15 | 2015-11-17 | Magna Electronics Inc. | Vision system for vehicle |
US10306190B1 (en) | 2004-04-15 | 2019-05-28 | Magna Electronics Inc. | Vehicular control system |
US10015452B1 (en) | 2004-04-15 | 2018-07-03 | Magna Electronics Inc. | Vehicular control system |
US9008369B2 (en) | 2004-04-15 | 2015-04-14 | Magna Electronics Inc. | Vision system for vehicle |
US8818042B2 (en) | 2004-04-15 | 2014-08-26 | Magna Electronics Inc. | Driver assistance system for vehicle |
US9736435B2 (en) | 2004-04-15 | 2017-08-15 | Magna Electronics Inc. | Vision system for vehicle |
US10187615B1 (en) | 2004-04-15 | 2019-01-22 | Magna Electronics Inc. | Vehicular control system |
US10110860B1 (en) | 2004-04-15 | 2018-10-23 | Magna Electronics Inc. | Vehicular control system |
US10462426B2 (en) | 2004-04-15 | 2019-10-29 | Magna Electronics Inc. | Vehicular control system |
US10735695B2 (en) | 2004-04-15 | 2020-08-04 | Magna Electronics Inc. | Vehicular control system with traffic lane detection |
US9948904B2 (en) | 2004-04-15 | 2018-04-17 | Magna Electronics Inc. | Vision system for vehicle |
US9014904B2 (en) | 2004-12-23 | 2015-04-21 | Magna Electronics Inc. | Driver assistance system for vehicle |
US9940528B2 (en) | 2004-12-23 | 2018-04-10 | Magna Electronics Inc. | Driver assistance system for vehicle |
US10509972B2 (en) | 2004-12-23 | 2019-12-17 | Magna Electronics Inc. | Vehicular vision system |
US9193303B2 (en) | 2004-12-23 | 2015-11-24 | Magna Electronics Inc. | Driver assistance system for vehicle |
US11308720B2 (en) | 2004-12-23 | 2022-04-19 | Magna Electronics Inc. | Vehicular imaging system |
WO2007065923A1 (de) * | 2005-12-09 | 2007-06-14 | Hella Kgaa Hueck & Co. | Bahnplanung |
US8428820B2 (en) | 2005-12-09 | 2013-04-23 | Hella KGAA Huek and Co. | Path planning |
US8636393B2 (en) | 2006-08-11 | 2014-01-28 | Magna Electronics Inc. | Driver assistance system for vehicle |
US11148583B2 (en) | 2006-08-11 | 2021-10-19 | Magna Electronics Inc. | Vehicular forward viewing image capture system |
US10071676B2 (en) | 2006-08-11 | 2018-09-11 | Magna Electronics Inc. | Vision system for vehicle |
US11951900B2 (en) | 2006-08-11 | 2024-04-09 | Magna Electronics Inc. | Vehicular forward viewing image capture system |
US11623559B2 (en) | 2006-08-11 | 2023-04-11 | Magna Electronics Inc. | Vehicular forward viewing image capture system |
US10787116B2 (en) | 2006-08-11 | 2020-09-29 | Magna Electronics Inc. | Adaptive forward lighting system for vehicle comprising a control that adjusts the headlamp beam in response to processing of image data captured by a camera |
US11396257B2 (en) | 2006-08-11 | 2022-07-26 | Magna Electronics Inc. | Vehicular forward viewing image capture system |
US8401737B2 (en) | 2006-12-07 | 2013-03-19 | Toyota Jidosha Kabushiki Kaisha | Vehicle control device |
DE112007002946B4 (de) * | 2006-12-07 | 2014-07-10 | Toyota Jidosha Kabushiki Kaisha | Fahrzeugsteuervorrichtung |
DE102008021381A1 (de) * | 2008-04-29 | 2009-11-05 | Continental Automotive Gmbh | Verfahren und Vorrichtung zum Vorhersagen eines Krümmungsverlaufs einer Fahrbahn und Fahrerassistenzsystem |
EP2449789A1 (de) * | 2009-06-30 | 2012-05-09 | Saab AB | Verfahren und anordnung zur schätzung von 3d-modellen in einer strassenumgebung |
EP2449789A4 (de) * | 2009-06-30 | 2013-11-13 | Saab Ab | Verfahren und anordnung zur schätzung von 3d-modellen in einer strassenumgebung |
US9191997B2 (en) | 2010-10-19 | 2015-11-17 | Gentherm Gmbh | Electrical conductor |
US10868974B2 (en) | 2010-12-01 | 2020-12-15 | Magna Electronics Inc. | Method for determining alignment of vehicular cameras |
US9900522B2 (en) | 2010-12-01 | 2018-02-20 | Magna Electronics Inc. | System and method of establishing a multi-camera image using pixel remapping |
US11553140B2 (en) | 2010-12-01 | 2023-01-10 | Magna Electronics Inc. | Vehicular vision system with multiple cameras |
US10793067B2 (en) | 2011-07-26 | 2020-10-06 | Magna Electronics Inc. | Imaging system for vehicle |
US11285873B2 (en) | 2011-07-26 | 2022-03-29 | Magna Electronics Inc. | Method for generating surround view images derived from image data captured by cameras of a vehicular surround view vision system |
DE102012008780A1 (de) * | 2012-04-28 | 2013-10-31 | Volkswagen Aktiengesellschaft | Verfahren und Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes und Kraftfahrzeug |
US10052927B2 (en) | 2014-06-03 | 2018-08-21 | Dr. Ing. H.C.F. Porsche Aktiengesellschaft | Method and device for automatically or semi-automatically adjusting a chassis |
DE102014107765A1 (de) * | 2014-06-03 | 2015-12-03 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren und Vorrichtung zum automatischen oder halbautomatischen Einstellen eines Fahrwerks |
CN110553853B (zh) * | 2019-08-06 | 2020-11-20 | 清华大学 | 基于场地下较差场景搜索的自动驾驶功能测试测评方法 |
CN110553853A (zh) * | 2019-08-06 | 2019-12-10 | 清华大学 | 基于场地下较差场景搜索的自动驾驶功能测试测评方法 |
CN112824194A (zh) * | 2019-11-21 | 2021-05-21 | 通用汽车环球科技运作有限责任公司 | 基于相机的车辆运动状态估计的增强 |
US11544858B2 (en) * | 2019-11-21 | 2023-01-03 | GM Global Technology Operations LLC | Camera-based enhancement of vehicle kinematic state estimation |
DE102021208814A1 (de) | 2021-08-12 | 2023-02-16 | Continental Autonomous Mobility Germany GmbH | Verfahren und System zur Steuerung eines Fahrzeugs |
WO2023237421A1 (de) | 2022-06-08 | 2023-12-14 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und vorrichtung zum einstellen eines betriebszustands eines fahrassistenzsystems |
DE102022114449A1 (de) | 2022-06-08 | 2023-12-14 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und vorrichtung zum einstellen eines betriebszustands eines fahrassistenzsystems |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE4124654A1 (de) | Verfahren zur kontinuierlichen und automatischen fahrzeugorientierung auf einer fahrbahn | |
DE102016107705B4 (de) | Verfahren zur adaptiven erzeugung eines geplanten pfads für ein manöver eines autonomen fahrens | |
DE102012219834B4 (de) | Spurverfolgungssystem | |
DE102019201124A1 (de) | Ein System für ein Fahrzeug | |
DE102018111778A1 (de) | Verfahren, Vorrichtung und System zur Steuerung eines Fahrzeugs, das eine Kreuzung passiert. | |
EP3765927B1 (de) | Verfahren zum erzeugen eines trainingsdatensatzes zum trainieren eines künstlichen-intelligenz-moduls für eine steuervorrichtung eines fahrzeugs | |
DE112019000873T5 (de) | System und Verfahren zum Erzeugen eines Zielpfades für ein Fahrzeug | |
EP2989421B1 (de) | Verfahren zum bestimmen eines fahrspurverlaufes einer fahrspur | |
DE10354209A1 (de) | System und Verfahren zum Verbessern der Fahrzeugfahrer-Fahrunterstützung eines Kraftfahrzeugs | |
DE102013226969A1 (de) | Head-up-Anzeigegerät für ein Fahrzeug, wobei Augmented Reality bzw. erweiterte Realität benutzt wird | |
DE112013004341T5 (de) | Fernbetätigungssystem | |
DE102018219773B4 (de) | Verfahren zum Kartographieren einer örtlichen Verteilung von Ereignissen eines vorbestimmten Ereignistyps in einem vorbestimmten Umgebungsbereich eines Kraftfahrzeugs sowie dazu ausgelegtes Steuergerät und Kraftfahrzeug | |
DE10138641A1 (de) | Verfahren zur Bestimmung einer Modellfahrbahn | |
DE112020007765T5 (de) | Computersystem und verfahren zur trajektorieplanung in einer simulierten strassenfahrumgebung | |
DE112018006015T5 (de) | Fahrzeug-steuervorrichtung | |
DE102018123896A1 (de) | Verfahren zum Betreiben eines wenigstens teilweise automatisierten Fahrzeugs | |
DE102021205154B4 (de) | Vorrichtung und verfahren zum erzeugen eines vogelperspektive-bilds | |
DE112022001133T5 (de) | Systeme und Verfahren zur Fahrzeugbewegungsplanung | |
DE102019132150A1 (de) | Verfahren zum automatischen Kalibrieren eines Umfeldsensors, insbesondere eines Lidar-Sensors, eines Fahrzeugs auf Grundlage von Belegungskarten sowie Recheneinrichtung | |
DE102017108107A1 (de) | Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur schätzung einer pose eines kraftfahrzeugs | |
DE102021214193A1 (de) | Fahrzeug und verfahren zur steuerung der reaktion auf einfädeln | |
EP3293971B1 (de) | Verfahren zur nachführung eines bildausschnitts | |
DE102021110099A1 (de) | Wegprädiktion für ein Fahrzeug | |
DE102018104310A1 (de) | Verfahren und System zum Nachverfolgen eines Objekts mittels Doppler-Messinformation | |
DE102017123226A1 (de) | Verfahren zum Bestimmen einer kritischen Höhe eines vorausliegenden Streckenabschnitts für ein Fahrzeug, das ein Zugfahrzeug und einen Anhänger umfasst |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8139 | Disposal/non-payment of the annual fee |