DE102005000651A1 - Verfahren zur Bestimmung der Eigenbewegung eines Fahrzeugs - Google Patents
Verfahren zur Bestimmung der Eigenbewegung eines Fahrzeugs Download PDFInfo
- Publication number
- DE102005000651A1 DE102005000651A1 DE102005000651A DE102005000651A DE102005000651A1 DE 102005000651 A1 DE102005000651 A1 DE 102005000651A1 DE 102005000651 A DE102005000651 A DE 102005000651A DE 102005000651 A DE102005000651 A DE 102005000651A DE 102005000651 A1 DE102005000651 A1 DE 102005000651A1
- Authority
- DE
- Germany
- Prior art keywords
- reference points
- vehicle
- optical
- determining
- algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000033001 locomotion Effects 0.000 title claims abstract description 40
- 230000003287 optical effect Effects 0.000 claims abstract description 52
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 27
- 238000003384 imaging method Methods 0.000 claims abstract description 20
- 230000004907 flux Effects 0.000 claims abstract description 18
- 238000011156 evaluation Methods 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 abstract description 4
- 238000003672 processing method Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000002238 attenuated effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 230000029305 taxis Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000002028 premature Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P3/00—Measuring linear or angular speed; Measuring differences of linear or angular speeds
- G01P3/36—Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Transportation (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Power Engineering (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Navigation (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Die
Erfindung betrifft ein Verfahren zur Bestimmung der Eigenbewegung
eines Fahrzeugs in einer Umgebung, wobei mittels einer am Fahrzeug
fixierten Bildgebungsvorrichtung zumindest ein Teil der Umgebung
mittels Momentaufnahmen erfasst wird, mindestens zwei Momentaufnahmen
zur Bestimmung der optischen Flüsse
von Bildpunkten ausgewertet werden, aus den optischen Flüssen Referenzpunkte
ermittelt werden, die aus Sicht der Bildgebungsvorrichtung stationär scheinen,
und die Referenzpunkte in einer Beobachtungsmenge gesammelt werden,
wobei anhand eines ersten Algorithmus neue Referenzpunkte der Beobachtungsmenge
dynamisch hinzugefügt
werden und anhand eines zweiten Algorithmus bestehende Referenzpunkte
aus der Beobachtungsmenge dynamisch entfernt werden. Ferner betrifft
die Erfindung eine Vorrichtung (30) zur Durchführung eines entsprechenden
Verfahrens.
Description
- Die Erfindung betrifft ein Verfahren zur Bestimmung der Eigenbewegung eines Fahrzeugs in einer Umgebung gemäß dem Oberbegriff des Anspruchs 1 sowie eine Vorrichtung zur Durchführung eines Verfahrens zur Bestimmung der Eigenbewegung eines Fahrzeugs in einer Umgebung gemäß dem Oberbegriff des Anspruchs 14.
- Verfahren zur Bestimmung der Eigenbewegung eines Fahrzeugs sind bekannt. Verfahren dieser Art sind dem Themengebiet des „sehenden Autos" zuzuordnen, wenngleich diese Verfahren prinzipiell bei den verschiedensten Fahrzeugtypen eingesetzt werden können. Grundlage dieser Verfahren ist es, die Umgebung, in der sich das Fahrzeug bewegt, mittels bildgebender Verfahren aufzunehmen und rechnerisch zu verarbeiten. Anhand der Auswertung der Bilddaten wird die Umgebung einschließlich der darin befindlichen Objekte ausgewertet und der Fahrer des Fahrzeugs mit zusätzlichen Daten versorgt, zum Beispiel bezüglich eines Auftretens von Hindernissen oder einer Annäherung von anderen Fahrzeugen. Um die Bilddaten hinsichtlich solcher Informationen auswerten zu können, die für den Fahrer und sein Fahrverhalten wichtig sind, ist es unter Anderem von Bedeutung die Bilddaten bezüglich einer momentanen Fahrtrichtung des Fahrzeugs auszuwerten. Dabei wird regelmäßig ein Punkt oder ein Bereich einer mittels einer Bildgebungsvorrichtung erzeugten Momentaufnahme ermittelt, auf den das Fahrzeug zuzusteuern scheint. Dieser Punkt beziehungsweise Bereich wird als Zentrum der Ausbreitung (Focus of Expansion, FOE) bezeichnet. Es handelt sich dabei um die Projektion der Bewegungsrichtung der Kamera auf die Bildebene. Da die Momentaufnahme nur einen Teil der Umgebung zeigt, muss das Zentrum der Ausbreitung nicht notwendigerweise innerhalb des Bildausschnitts der Momentaufnahme liegen. So liegt zum Beispiel bei einer rotatorischen Bewegung das Zentrum der Ausbreitung im Unendlichen in der entsprechenden Bewegungsrichtung der Rotation. Um das Zentrum der Ausbreitung zu ermitteln, wird unter anderem der optische Fluss von ausgewählten (oder allen) Bildpunkten der Momentaufnahmen zwischen zwei zeitlich voneinander beabstandet aufgenommenen Momentaufnahmen bestimmt. Vereinfacht gesagt bedeutet dies, dass ermittelt wird, in welche Richtung und um welchen Betrag sich Bildpunkte im Laufe der Zeit bewegen. Der optische Fluss eines Bildpunktes kann also im Sinne eines Bewegungsvektors verstanden werden. Bedeutsam für die Bestimmung des Zentrums der Ausbreitung sind dabei sogenannte stationäre Punkte, das heißt Punkte oder Strukturen (Bildmerkmale), die sich in aufeinanderfolgenden Momentaufnahmen nicht bewegen. Der optische Fluss solcher Punkte ist null, nahezu null oder liegt unterhalb eines definierten Schwellenwerts. Stationäre Punkte können dadurch entstehen, dass die beobachteten Strukturen so weit von der Bildgebungseinrichtung entfernt sind, dass die relative Bewegung vernachlässigbar ist (Hintergrundstrukturen). Ferner können sich stationäre Punkte dadurch ergeben, dass sich ein beobachtetes Objekt relativ zur Kamera nicht bewegt, wie dies beispielsweise bei Teilen des eigenen Fahrzeugs oder einem mit gleicher Fahrtrichtung und Geschwindigkeit vorausfahrendem Fahrzeug der Fall ist. Insbesondere im Straßenverkehr ist es selten gegeben, dass diese stationären Punkte über einen längeren Zeitraum auch tatsächlich als stationär gegeben sind, da beispielsweise das Fahrzeug abbiegt, das bislang konstant vorausgefahrene Fahrzeug beschleunigt oder bremst oder ein in der Ferne lokalisierter stationärer Punkt durch ein einscherendes Fahrzeug verdeckt wird. Verfahren gemäß dem Stand der Technik lassen hier den Wunsch offen, insbesondere in sich schnell verändernden Umgebungen, zuverlässig und schnell die Eigenbewegung des Fahrzeugs zu ermitteln.
- Vorteile der Erfindung
- Erfindungsgemäß wird der Stand der Technik dahingehend weitergebildet, dass anhand eines ersten Algorithmus neue Referenzpunkte (stationäre Punkte) der Beobachtungsmenge dynamisch hinzugefügt werden und anhand eines zweiten Algorithmus bestehende Referenzpunkte aus der Beobachtungsmenge dynamisch entfernt werden. Dies bedeutet, dass die Beobachtungsmenge hinsichtlich der enthaltenen Referenzpunkte ständig an die sich ändernden Umgebungsbedingungen angepasst wird. Anhand eines ersten Algorithmus werden Bildpunkte dahingehend untersucht, ob sie die Kriterien eines stationären Punktes erfüllen, das heißt ob sie als Referenzpunkt in die Beobachtungsmenge aufgenommen werden sollen. Anhand eines zweiten Algorithmus wird festgestellt, ob bestimmte Referenzpunkte die Kriterien eines stationären Punktes nicht mehr erfüllen und aus der Beobachtungsmenge entfernt werden sollen. Dabei handelt es sich um ein dynamisches Verfahren, das heißt die Überprüfung von Bildpunkten und Referenzpunkten sowie die Anpassung der Beobachtungsmenge kann kontinuierlich stattfinden, sodass auch in einer sich schnell ändernden Umgebung stets eine Beobachtungsmenge mit aktuellen Referenzpunkten zur Verfügung steht. In Hinblick auf die genannten Kriterien sei bereits an dieser Stelle darauf hingewiesen, dass eine Überprüfung der Kriterien regelmäßig unter Berücksichtigung statistischer Aspekte und/oder unter Einbeziehung von Schwellenwerten stattfinden wird.
- Vorteilhafterweise schließt der erste Algorithmus Schritte ein zur Ermittlung von Bildpunkten deren optischer Fluss null oder nahezu null ist. Dabei kann sich die Überprüfung des optischen Flusses auf alle Punkte oder lediglich auf ausgewählte Bildpunkte erstrecken. Wird ein Bildpunkt mit einem optischen Fluss ermittelt, der null oder nahezu null ist, so kann angenommen werden, dass es sich dabei um einen stationären Punkt handelt. Der Bildpunkt wird dann als Referenzpunkt in die Beobachtungsmenge aufgenommen. Bei der Bestimmung, ob ein Bildpunkt stationär ist oder nicht, wird bevorzugt ein Schwellenwert eingesetzt, damit nicht nur solche Bildpunkte erkannt werden, deren optischer Fluss exakt null ist, sondern auch Bildpunkte deren optischer Fluss in etwa null ist. Ein für die jeweilige Applikation geeigneter Schwellenwert ist für den Fachmann anhand von Versuchen leicht auffindbar.
- Bei einer vorteilhaften Ausgestaltung der Erfindung schließt der erste Algorithmus Schritte ein zur Ermittlung von Bildpunkten deren optischer Fluss dem optischen Fluss entspricht, der bei einer Mehrzahl von Referenzpunkten ermittelt wurde. Es wurde erkannt, dass ein Indiz für einen stationären Punkt auch dann vorliegt, wenn ein Bildpunkt einen optischen Fluss aufweist, der dem Fluss bei einer Mehrzahl von Referenzpunkten, also bereits ermittelten stationären Punkten, entspricht. Damit wird es auch möglich in schwierigen Situationen, in denen sich keine Bildpunkte mit einem optischen Fluss von null ergeben, neue Referenzpunkte zu ermitteln. Die Mehrzahl von Referenzpunkten, deren optischer Fluss mit dem des Bildpunktes verglichen wird, lässt sich auf verschiedene Arten realisieren. So wird erfindungsgemäß insbesondere vorgeschlagen, die größte Menge von örtlich zusammenhängend positionierten Referenzpunkten zu betrachten, die Anzahl der benötigten Referenzpunkte als Prozentsatz der Gesamtheit der Referenzpunkte zu beschreiben oder mittels mathematischer, insbesondere statistischer Verfahren signifikante Referenzpunkte oder Mengen von Referenzpunkten zu bestimmen. Auch hier ist es nicht erforderlich, dass der optische Fluss des betrachteten Bildpunktes mit dem optischen Fluss der gewählten Referenzpunkte exakt übereinstimmt. Vielmehr kann bereits eine statistisch signifikante Übereinstimmung oder ein Einfinden innerhalb vorgegebener Toleranzen ausreichend sein. Wiederum wird der Fachmann in Abhängigkeit von der geforderten Charakteristik den Bereich, in dem eine Übereinstimmung der optischen Flüsse bejaht wird, enger oder weiter festlegen.
- Mit Vorteil schließt der erste Algorithmus Schritte ein zur Durchführung einer Filterung der Bildpunkte mittels eines Kalman-Filters. Die Funktionsweise und die Realisierung eines Kalman-Filters ist aus dem Stand der Technik hinlänglich bekannt und soll daher nicht näher erläutert werden. Die Randbedingungen, die in den Kalman-Filter eingebracht werden, sind vorzugsweise ein maximaler optischer Fluss und, sofern mehrere Momentaufnahmen ausgewertet werden, eine minimale beziehungsweise maximale Beschleunigung von Bildpunkten. Bildpunkte, die die vorgegebenen Bedingungen nicht erfüllen, also wahrscheinlich die Umgebung – aus den unterschiedlichsten Gründen – nicht zutreffend repräsentieren, werden vom Kalman-Filter gedämpft oder unterdrückt. Dies verbessert das Ergebnis bezüglich der Aufnahme neuer Referenzpunkte in die Beobachtungsmenge.
- Bevorzugt schließt der erste Algorithmus Schritte ein zur Ermittlung mindestens einer Objektgruppe aus örtlich zusammenhängend positionierten Referenzpunkten. Dadurch lassen sich die Auswertungen, die Referenzpunkte einbeziehen, verbessern und erleichtern. Durch die Erzeugung von Objektgruppen ist es beispielsweise nicht mehr notwendig, viele einzelne Punkte zu vergleichen, sondern einen Formvergleich anzuwenden, wie er beispielsweise in Iterative Closest Point Algorithm, P. J. Besl and N. D. McKay (A method for registration of 3-D shapes. PAMI 14(2):239-256, February 1992) beschrieben ist. Auch bekannte Verfahren zum Vergleich von Mengen, wie zum Beispiel RANSAC (M. A. Fischler, R. C. Bolles. Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography. Comm. of the ACM, Vol 24, pp 381-395, 1981) lassen sich einsetzen.
- Mit Vorteil schließt der zweite Algorithmus Schritte ein zur Ermittlung permanent vorhandener, in ihrer Position unveränderter Referenzpunkte. Referenzpunkte, die über eine lange Zeit oder sogar immer gleich sind, haben nur eine geringe oder gar keine Aussagekraft, da es sich dabei regelmäßig um Teile des eigenen Fahrzeugs im Blickfeld der Bildgebungsvorrichtung oder aber um eine Verschmutzung im Bereich der Optik der Bildgebungsvorrichtung handelt. Sind bereits im Vorfeld Bildbereiche bekannt, die zu Referenzpunkten ohne Informationsgehalt führen können, so können diese Bereiche von der Bildauswertung grundsätzlich ausgenommen werden.
- Vorteilhafter Weise schließt der zweite Algorithmus Schritte ein zur Ermittlung eines ersten optischen Flusses einer Mehrheit von Referenzpunkten gegenüber mindestens einem zweiten optischen Fluss einer Minderheit von Referenzpunkten. Die Begriffe der Mehrheit und Minderheit sind dabei nicht allein in zahlenmäßiger Hinsicht zu verstehen. So ist es vielmehr auch möglich, dass anhand einer höheren Gewichtung von Bildpunkten in bestimmten Bereichen oder von Referenzpunkten, die einer Objektgruppe angehören, auch denkbar, dass eine zahlenmäßig geringere Anzahl von Referenzpunkten im Sinne einer Mehrheit zu verstehen ist. Die vorgeschlagene Auswertung ist besonders vorteilhaft. Stellt sich nämlich während der Auswertung der Momentaufnahme heraus, dass eine große Anzahl von Referenzpunkten (beziehungsweise eine Anzahl hoch gewichteter Referenzpunkte) sich gegenüber einem anderen Teil der Referenzpunkte unterschiedlich bewegt, beispielsweise wenn der erste optische Fluss in etwa null ist und der zweite optische Fluss deutlich größer null, so ist anzunehmen, dass die Referenzpunkte, die den zweiten optischen Fluss aufweisen, zu einem bisher relativ zur Bilderfassungseinrichtung unbewegten Objekt gehören und nicht tatsächlich stationär sind. Diese als eigenbewegt erkannten Referenzpunkte werden aus der Beobachtungsmenge entfernt, und nur die weiterhin stationären Referenzpunkte werden weiter verfolgt.
- Bei einer Weiterbildung der Erfindung schließt der zweite Algorithmus Schritte ein zur Durchführung einer Filterung der Referenzpunkte mittels einen Kalman-Filters. Hier können dem Kalman-Filter beispielsweise Randbedingungen zum Ausmaß tatsächlich zu erwartender Bewegungen von Referenzpunkten vorgegeben werden. Überschreitet beispielsweise die Bewegung eines Referenzpunktes einen vorgegebenen Schwellenwert nur einmalig oder lediglich kurzzeitig, so kann dies mittels des Kalman-Filters berücksichtigt und eine vorschnelle Entfernung des Referenzpunktes aus der Beobachtungsmenge verhindert werden.
- Mit Vorteil wird zumindest ein Teil der Referenzpunkte der Beobachtungsmenge zu verschiedenen Zeitpunkten gespeichert und wird aus den gespeicherten Daten ein Verlauf der Referenzpunkte bestimmt. Damit kann beispielsweise überprüft werden, ob sich ein bestimmter Punkt je nach seiner Klassifikation in einem zu erwartenden Rahmen hinsichtlich Betrag und Richtung des optischen Flusses entwickelt hat. Die Auswertung der gespeicherten Daten kann ebenfalls dazu verwendet werden, das Ausscheiden eines Punktes (zum Beispiel eines eigenbewegten Objekts) aus der Beobachtungsmenge auszulösen. Dabei ist es auch möglich die gesamten Bildpunkte oder eine Auswahl in einem Kalman-Filter zu geben und dann mit dem Ergebnis des Filters die bisherige Punktmenge zu korrigieren. Nachfolgend können dann alle konsistenten Bildpunkte, also die Bildpunkte, deren Fluss erwartete Werte innerhalb der gesetzten Rahmenbedingungen aufweist, weiterverarbeitet werden.
- Vorteilhafter Weise wird aus einem gleichen optischen Fluss einer Mehrheit der Referenzpunkte eine Winkeleigenbewegung der Bildgebungsvorrichtung beziehungsweise des Fahrzeugs errechnet. Findet eine kollektive Bewegung einer Mehrheit der Referenzpunkte in der Beobachtungsmenge statt, so lässt dies auf eine Winkeleigenbewegung der Bildgebungsvorrichtung beziehungsweise des Fahrzeugs schließen. Durch die Auswertung der kollektiven Bewegung können die Winkelanteile, Nick-, Gier- und Rollwinkel, ermittelt werden. Auch hier bieten sich die zuvor vorgeschlagenen Verfahren an, um eine Aussage treffen zu können, wann eine Mehrheit der Referenzpunkte sich gegenüber den anderen Referenzpunktes bewegt und den Schluss auf eine Winkeleigenbewegung zuzulassen. Prinzipbedingt sollte bei einer Winkeleigenbewegung der Bildgebungsvorrichtung eine gleichförmige Bewegung aller Referenzpunkte erfolgen, doch stellt sich dies aufgrund der hochdynamischen Rahmenbedingungen in der Praxis regelmäßig nicht ein. Es ist daher zweckmäßig und ausreichend für die jeweilige Applikation den geeigneten Schwellenwert und das geeignete Verfahren zur Ermittlung der Mehrheit zu bestimmen.
- Es ist vorteilhaft, wenn eine Winkelbewegung der Bildgebungsvorrichtung beziehungsweise des Fahrzeugs anhand eines mathematischen Gleichungssystems beschrieben wird und eine Filterung der ermittelten Beobachtungsmengen im Zeitbereich Koeffizienten zur Berechnung der Winkeleigenbewegung ermittelt werden. Dadurch kann auf eine Auswertung und/oder Gewichtung einzelner Punkte verzichtet werden. Eine derartige Bestimmung der Winkeleigenbewegung lässt sich insbesondere mittels einen Kalman-Fi1ters unterstützen.
- Gemäß einer bevorzugten Ausgestaltung der Erfindung wird eine ermittelte Winkeleigenbewegung an Steuerfunktionen des Fahrzeugs weitergeleitet und wird von diesen bei der Bestimmung und/oder Durchführung von Steuereingriffen berücksichtigt. Unter dem Begriff „Steuern" ist dabei sowohl das Steuern ohne Rückkopplung als auch das Regeln mit Rückkopplung zu verstehen. Zu den Steuerfunktionen des Fahrzeugs gehören insbesondere Bremsfunktionen, wie Anti-Blockier-System oder Bremsunterstützung, sowie Stabilisationsfunktionen, wie eine elektronische Stabilitätskontrolle. Durch eine Berücksichtigung der zur Eigenbewegung des Fahrzeugs ermittelten Daten lassen sich die das Fahrverhalten des Fahrzeugs betreffenden Steuer- und/oder Regeleingriffe zielgenauer einsetzen. Dabei ist es insbesondere vorteilhaft, wenn die Winkeleigenbewegung an die Steuerfunktionen weitergeleitet wird.
- Es ist vorteilhaft, wenn eine ermittelte Winkeleigenbewegung bei der Auswertung der optischen Flüsse dahingehend berücksichtigt wird, dass die optischen Flüsse um die auf der Winkeleigenbewegung beruhende Komponente bereinigt werden, um so im Wesentlichen rein translatorisch bedingte optische Flüsse zu erhalten. Abweichungen von diesen translatorischen Feld lassen auf eigenbewegte Objekte schließen. Zudem lassen sich anhand von Längenvergleichen im translatorischen Feld Tiefenstafflungen und/oder Objekte mit gleicher Bewegungsrichtung aber relativer Geschwindigkeit, wie dies beispielsweise bei einem überholenden Fahrzeug gegeben ist, ermitteln.
- Die Erfindung betrifft ferner eine Vorrichtung zur Durchführung eines Verfahrens zur Bestimmung der Eigenbewegung eines Fahrzeugs in einer Umgebung, mit einer der Erfassung der Umgebung mittels Momentaufnahmen dienenden Bildgebungseinrichtung, mit einer Ermittlungseinrichtung zur Bestimmung des optischen Flusses anhand der Momentaufnahmen, mit einer Speichereinrichtung zur Speicherung einer Beobachtungsmenge von Referenzpunkten, die aus Sicht der Bildgebungsvorrichtung stationär scheinen, mit einer einen ersten Algorithmus realisierenden ersten Logikschaltung zur Bestimmung von der Beobachtungsmenge hinzuzufügenden Referenzpunkten und mit einer einen zweiten Algorithmus realisierenden zweiten Logikschaltung zur Bestimmung von aus der Beobachtungsmenge zu entfernenden Referenzpunkten.
- Zeichnungen
- Die Erfindung wird nun anhand von Ausführungsbeispielen näher erläutert. Dabei zeigen
-
1 ein Verfahren zur Bestimmung der Eigenbewegung eines Fahrzeugs und -
2 eine Vorrichtung zur Durchführung eines Verfahrens zur Bestimmung der Eigenbewegung eines Fahrzeugs. - Beschreibung der Ausführungsbeispiele
-
1 zeigt ein Verfahren zur Bestimmung der Eigenbewegung eines Fahrzeugs, insbesondere der Winkeleigenbewegung des Fahrzeugs. Das Verfahren wird, beispielsweise bei der Inbetriebnahme des Fahrzeugs, am Punkt S gestartet. Zunächst kann in einem optionalen Initialisierungsschritt10 eine initiale Aufnahme der Umgebungsdaten erfolgen. Dazu zählt insbesondere die erste Berechnung eines optischen Flusses, das erste Erstellen von Referenzpunkten einer Beobachtungsmenge und die erste Bestimmung des kollektiven Flusses der Referenzpunkte. Unter dem Begriff des kollektiven Flusses ist eine gemittelte Betrachtung der einzelnen optischen Flüsse zu verstehen, mit der ein allgemeiner, gemeinsamer optischer Fluss von allen beziehungsweise zumindest einer Mehrzahl von Referenzpunkten beschrieben wird. In Abhängigkeit von der gewünschten Applikation, können verschieden Verfahren, wie zum Beispiel Mittelwert, Median, geometrisches Mittel, statistische und/oder stochastische Auswertungen, eingesetzt werden. Maßgeblich ist es dabei insbesondere, Aussagen ableiten zu können, welche Bildpunkte beziehungsweise Referenzpunkte tatsächlich stationär sind und welchen optischen Fluss diese stationären Punkte aufweisen. Der Initialisierungsschritt10 ist nicht zwingend erforderlich, da insbesondere das Aufnehmen und das Entfernen von Referenzpunkten ein dynamisches Verfahren ist, welches alleine mittels der nachfolgend beschriebenen Verfahrensschritte durchgeführt werden kann. - Im Schritt
12 wird aus zwei Momentaufnahmen ein optischer Fluss berechnet. Verfahren zur Bestimmung des optischen Flusses sind in vielen Varianten bekannt und im Stand der Technik detailliert beschrieben. Die im Schritt12 gewonnenen optischen Flussdaten können nun bevorzugt auf zwei verschiedene Weisen ausgewertet werden. Dabei können das erste Verarbeitungsverfahren mit den Schritten14 ,16 und20 sowie mit dem Vergleichsschritt18 und das zweite Verarbeitungsverfahren mit den Schritten22 ,24 und 26 sowohl einzeln als auch alternativ und bei entsprechenden Vorkehrungen auch kombiniert betrieben werden. - Im ersten Verarbeitungsverfahren wird im Kontrollschritt
14 zunächst eine Kontrolle bezüglich der Referenzpunkte (stationäre Punkte) durchgeführt. Das heißt, Bildpunkte, die als stationäre Punkte erkannt wurden, werden als Referenzpunkt in die Beobachtungsmenge aufgenommen; Referenzpunkte, die die Kriterien eines stationären Punktes nicht mehr erfüllen, werden aus der Beobachtungsmenge herausgenommen. In diesem Schritt kann auch die Ermittlung von örtlich zusammenhängend positionierten Referenzpunkten durchgeführt werden. Nach dem Kontrollschritt14 wird im Schritt16 der kollektive Fluss der Referenzpunkte ermittelt. Das Ergebnis des kollektiven Flusses wird im Vergleichsschritt18 mit einem vorher ermittelten kollektiven Fluss verglichen. Falls noch keine Daten zu einem zuvor ermittelten kollektiven Fluss vorliegen, wird der neu ermittelte kollektive Fluss gegen einen Standardwert, insbesondere mit null, verglichen. Wird keine Änderung des kollektiven Flusses festgestellt, so wird das Verfahren über den Abzweig N fortgesetzt und führt dann zum bekannten Schritt12 zurück. Wurde eine Änderung des kollektiven Flusses festgestellt, das heißt die Kamera und damit das Fahrzeug hat eine Winkeleigenbewegung durchgeführt, so zweigt das Verfahren über den Abzweig J zum Berechnungsschritt20 ab, in dem mittels einer direkten Rechnung oder eine Kalman-Filters eine neue Winkeleigenbewegung errechnet wird. Danach wird das Verfahren mit dem Schritt12 fortgesetzt. - Gemäß dem zweiten Verarbeitungsverfahren werden die aus dem Schritt
12 gewonnenen optischen Flüsse im Schritt22 mittels eines Kalman-Filters verarbeitet. In den Kalman-Filter sind dabei Daten eingegeben, die die reale Umgebung, aus der die Messwerte stammen, modellieren. Dies sei beispielhaft für die Nickbewegung eines Fahrzeugs erläutert. Für bestimmte Fahrzeuge in bestimmten Umgebungen kann beispielsweise angenommen werden, dass die Nickbewegung einen Wert von ± 2° und die Nickgeschwindigkeit einen Wert von ± 1°/Sekunde regelmäßig nicht überschreiten. Diese Information wird in den Kalman-Filter eingegeben, sodass bei darüber hinausgehenden Messwerten, insbesondere bei einer deutlichen Überschreitung, die Daten der entsprechenden Punkte gedämpft und/oder eliminiert werden. Die bereits aus dem ersten Verarbeitungsverfahren bekannte Kontrolle der Referenzpunkte wird im zweiten Verarbeitungsverfahren im Schritt24 nun aufgrund der Daten aus der Kalman-Filterung gemäß Schritt22 durchgeführt. Aus den Daten des Schrittes22 wird dann im Schritt26 die neue Winkeleigenbewegung errechnet, die bei fehlender Winkeleigenbewegung des Fahrzeugs gleich null ist. Die ermittelten neuen Winkeleigenbewegungen des ersten und/oder zweiten Verarbeitungsverfahrens werden an Steuereinheiten weitergeleitet, die im Fahrzeug angeordnet oder dem Fahrzeug zugeordnet sind. -
2 zeigt eine Vorrichtung30 zur Durchführung eines Verfahrens zur Bestimmung der Eigenbewegung eines Fahrzeugs32 . Die Vorrichtung weist eine Bildgebungseinrichtung34 auf, die mittels Momentaufnahmen zumindest einen Teil der Umgebung des Fahrzeugs32 erfasst. Die Bewegung des Fahrzeugs32 ist anhand der Pfeile angedeutet. Die Bilddaten werden über eine Datenleitung36 an eine Ermittlungseinrichtung38 weitergeleitet, in der aus den Bilddaten der Momentaufnahmen die optischen Flüsse zumindest von ausgewählten Bildpunkten ermittelt werden. In einer Speichereinrichtung40 können Daten gespeichert werden. Dabei wird es sich üblicherweise um eine temporäre Speicherung handeln, die sich auf Momentaufnahmen, einzelne Bildausschnitte, Bildpunkte, Referenzpunkte, Punktsgruppen, optische Flüsse oder auf sonstige Messdaten oder verarbeitete Daten beziehen kann. Der Ermittlungseinrichtung38 und der Speichereinrichtung40 sind eine erste Logikschaltung42 und eine zweite Logikschaltung44 zugeordnet. Mittels der ersten Logikschaltung42 werden die Bilddaten dahingehend ausgewertet, in den Bilddaten der Momentaufnahmen stationärer Punkte ausfindig zu machen. Die zweite Logikschaltung dient in erster Linie dazu die Beobachtungsmenge hinsichtlich möglicherweise zu entfernender Referenzpunkte zu untersuchen. In der nachgelagerten Auswertevorrichtung46 werden die gewonnenen Daten hinsichtlich einer Eigenbewegung, insbesondere einer Winkeleigenbewegung, ausgewertet. Bezüglich der Auswertung der Daten wird auf die vorstehenden Ausführungen verwiesen. Die von der Auswerteeinrichtung46 ermittelten Daten werden in diesem Beispiel einer Steuereinrichtung48 des Fahrzeugs32 , beispielsweise einer elektronischen Stabilitätskontrolle, zugeführt und von dieser bei der Berechnung von Regeleingriffen berücksichtigt.
Claims (14)
- Verfahren zur Bestimmung der Eigenbewegung eines Fahrzeugs in einer Umgebung, wobei mittels einer am Fahrzeug fixierten Bildgebungsvorrichtung zumindest ein Teil der Umgebung mittels Momentaufnahmen erfasst wird, mindestens zwei Momentaufnahmen zur Bestimmung der optischen Flüsse von Bildpunkten ausgewertet werden, aus den optischen Flüssen Referenzpunkte ermittelt werden, die aus Sicht der Bildgebungsvorrichtung stationär scheinen, und die Referenzpunkte in einer Beobachtungsmenge gesammelt werden, dadurch gekennzeichnet, dass anhand eines ersten Algorithmus neue Referenzpunkte der Beobachtungsmenge dynamisch hinzugefügt werden und anhand eines zweiten Algorithmus bestehende Referenzpunkte aus der Beobachtungsmenge dynamisch entfernt werden.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der erste Algorithmus Schritte einschließt zur Ermittlung von Bildpunkten deren optischer Fluss null oder nahezu null ist.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der erste Algorithmus Schritte einschließt zur Ermittlung von Bildpunkten deren optischer Fluss dem optischen Fluss entspricht, der bei einer Mehrzahl von Referenzpunkten ermittelt wurde.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der erste Algorithmus Schritte einschließt zur Durchführung einer Filterung der Bildpunkte mittels eines Kalman-Filters.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der erste Algorithmus Schritte einschließt zur Ermittlung mindestens einer Objektgruppe aus örtlich zusammenhängend positionierten Referenzpunkten.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der zweite Algorithmus Schritte einschließt zur Ermittlung permanent vorhandener, in ihrer Position unveränderter Referenzpunkte.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der zweite Algorithmus Schritte einschließt zur Ermittlung eines ersten optischen Flusses einer Mehrheit von Referenzpunkten gegenüber mindestens einem zweiten optischen Fluss einer Minderheit von Referenzpunkten.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der zweite Algorithmus Schritte einschließt zur Durchführung einer Filterung der Referenzpunkte mittels eines Kalman-Filters.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zumindest ein Teil der Referenzpunkte der Beobachtungsmenge zu verschiedenen Zeitpunkten gespeichert wird und aus den gespeicherten Daten ein Verlauf der Referenzpunkte bestimmt wird.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass aus einem gleichen optischen Fluss einer Mehrheit der Referenzpunkte eine Winkeleigenbewegung der Bildgebungsvorrichtung beziehungsweise des Fahrzeugs errechnet wird.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Winkeleigenbewegung der Bildgebungsvorrichtung beziehungsweise des Fahrzeugs anhand eines mathematischen Gleichungssystems beschrieben wird und durch eine Filterung der ermittelten Beobachtungsmengen im Zeitbereich Koeffizienten zur Berechnung der Winkeleigenbewegung ermittelt werden.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine ermittelte Eigenbewegung an Steuerfunktionen des Fahrzeugs weitergeleitet wird und von diesen bei der Bestimmung und/oder Durchführung von Steuereingriffen berücksichtigt wird.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine ermittelte Winkeleigenbewegung bei der Auswertung der optischen Flüsse dahingehend berücksichtigt wird, dass die optischen Flüsse um die auf der Winkeleigenbewegung beruhende Komponente bereinigt werden, um so im Wesentlichen rein translatorisch bedingte optische Flüsse zu erhalten.
- Vorrichtung (
30 ) zur Durchführung eines Verfahrens zur Bestimmung der Eigenbewegung eines Fahrzeugs (32 ) in einer Umgebung, insbesondere nach einem der vorhergehenden Ansprüche, mit einer der Erfassung der Umgebung mittels Momentaufnahmen dienenden Bildgebungseinrichtung (34 ), mit einer Ermittlungseinrichtung (38 ) zur Bestimmung des optischen Flusses anhand der Momentaufnahmen und mit einer Speichereinrichtung (40 ) zur Speicherung einer Beobachtungsmenge von Referenzpunkten, die aus Sicht der Bildgebungsvorrichtung stationär scheinen, gekennzeichnet durch eine einen ersten Algorithmus realisierende erste Logikschaltung (42 ) zur Bestimmung von der Beobachtungsmenge hinzuzufügenden Referenzpunkten und eine einen zweiten Algorithmus realisierende zweite Logikschaltung (44 ) zur Bestimmung von aus der Beobachtungsmenge zu entfernenden Referenzpunkten.
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005000651A DE102005000651A1 (de) | 2005-01-04 | 2005-01-04 | Verfahren zur Bestimmung der Eigenbewegung eines Fahrzeugs |
PCT/EP2005/057161 WO2006072555A1 (de) | 2005-01-04 | 2005-12-23 | Verfahren zur bestimmung der eigenbewegung eines fahrzeugs |
AT05823954T ATE429688T1 (de) | 2005-01-04 | 2005-12-23 | Verfahren zur bestimmung der eigenbewegung eines fahrzeugs |
DE502005007163T DE502005007163D1 (de) | 2005-01-04 | 2005-12-23 | Verfahren zur bestimmung der eigenbewegung eines fahrzeugs |
CNB2005800458752A CN100557636C (zh) | 2005-01-04 | 2005-12-23 | 用于确定机动车的自身运动的方法 |
US11/792,208 US8135176B2 (en) | 2005-01-04 | 2005-12-23 | Method for determining the self-motion of a vehicle |
EP05823954A EP1836681B1 (de) | 2005-01-04 | 2005-12-23 | Verfahren zur bestimmung der eigenbewegung eines fahrzeugs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005000651A DE102005000651A1 (de) | 2005-01-04 | 2005-01-04 | Verfahren zur Bestimmung der Eigenbewegung eines Fahrzeugs |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102005000651A1 true DE102005000651A1 (de) | 2006-07-13 |
Family
ID=35953921
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102005000651A Withdrawn DE102005000651A1 (de) | 2005-01-04 | 2005-01-04 | Verfahren zur Bestimmung der Eigenbewegung eines Fahrzeugs |
DE502005007163T Active DE502005007163D1 (de) | 2005-01-04 | 2005-12-23 | Verfahren zur bestimmung der eigenbewegung eines fahrzeugs |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE502005007163T Active DE502005007163D1 (de) | 2005-01-04 | 2005-12-23 | Verfahren zur bestimmung der eigenbewegung eines fahrzeugs |
Country Status (6)
Country | Link |
---|---|
US (1) | US8135176B2 (de) |
EP (1) | EP1836681B1 (de) |
CN (1) | CN100557636C (de) |
AT (1) | ATE429688T1 (de) |
DE (2) | DE102005000651A1 (de) |
WO (1) | WO2006072555A1 (de) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009049976A1 (de) * | 2007-10-17 | 2009-04-23 | Robert Bosch Gmbh | Verfahren zur schätzung der relativbewegung von video-objekten und fahrerassistenzsystem für kraftfahrzeuge |
DE102007058779A1 (de) | 2007-12-06 | 2009-06-10 | Robert Bosch Gmbh | Einrichtung eines Kraftfahrzeugs zur Erzeugung eines für eine Bildanalyse geeigneten Bildes |
DE102009003061A1 (de) * | 2009-05-13 | 2010-11-18 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Bahnregelung, insbesondere von mobilen Fahrzeugen |
WO2012080044A1 (de) * | 2010-12-15 | 2012-06-21 | Robert Bosch Gmbh | Verfahren und system zur bestimmung einer eigenbewegung eines fahrzeugs |
EP2312536B1 (de) * | 2009-10-15 | 2013-07-17 | Kapsch TrafficCom AG | Fahrzeuggerät für ein Strassenmautsystem |
DE102012217701A1 (de) | 2012-09-28 | 2014-04-03 | Robert Bosch Gmbh | Erfassung einer Eigenbewegung eines Fahrzeugs mittels Kamera nach Abschalten des Motors |
DE102013222268A1 (de) * | 2013-10-31 | 2015-04-30 | Continental Automotive Gmbh | Automatische Korrektur der Gierausrichtung eines Kamerasystems für ein Fahrzeug |
DE102014207897A1 (de) * | 2014-04-28 | 2015-10-29 | Robert Bosch Gmbh | Verfahren zum Erzeugen eines Anzeigebildes |
DE102015202230A1 (de) | 2015-02-09 | 2016-08-11 | Conti Temic Microelectronic Gmbh | Fusionierte Eigenbewegungsberechnung für ein Fahrzeug |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8041483B2 (en) * | 1994-05-23 | 2011-10-18 | Automotive Technologies International, Inc. | Exterior airbag deployment techniques |
US8686326B1 (en) * | 2008-03-26 | 2014-04-01 | Arete Associates | Optical-flow techniques for improved terminal homing and control |
DE102010038905A1 (de) * | 2010-08-04 | 2012-02-09 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Bestimmen von Rad- und Karosseriebewegungen eines Fahrzeuges |
FR2964774B1 (fr) * | 2010-09-14 | 2012-09-28 | Astrium Sas | Procede d'estimation du mouvement d'un porteur par rapport a un environnement et dispositif de calcul pour systeme de navigation |
WO2015183889A1 (en) * | 2014-05-27 | 2015-12-03 | Robert Bosch Gmbh | Detection, identification, and mitigation of lens contamination for vehicle mounted camera systems |
CN111882616B (zh) * | 2020-09-28 | 2021-06-18 | 李斯特技术中心(上海)有限公司 | 校正目标检测结果的方法及装置、系统、电子设备、存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7477758B2 (en) * | 1992-05-05 | 2009-01-13 | Automotive Technologies International, Inc. | System and method for detecting objects in vehicular compartments |
US8041483B2 (en) * | 1994-05-23 | 2011-10-18 | Automotive Technologies International, Inc. | Exterior airbag deployment techniques |
US7330784B2 (en) * | 1998-11-17 | 2008-02-12 | Automotive Technologies International, Inc. | Weight measuring systems and methods for vehicles |
US7786864B1 (en) * | 2000-09-08 | 2010-08-31 | Automotive Technologies International, Inc. | Vehicular RFID and sensor assemblies |
US7983802B2 (en) * | 1997-10-22 | 2011-07-19 | Intelligent Technologies International, Inc. | Vehicular environment scanning techniques |
US8035508B2 (en) * | 2002-06-11 | 2011-10-11 | Intelligent Technologies International, Inc. | Monitoring using cellular phones |
US7089099B2 (en) * | 2004-07-30 | 2006-08-08 | Automotive Technologies International, Inc. | Sensor assemblies |
-
2005
- 2005-01-04 DE DE102005000651A patent/DE102005000651A1/de not_active Withdrawn
- 2005-12-23 US US11/792,208 patent/US8135176B2/en active Active
- 2005-12-23 CN CNB2005800458752A patent/CN100557636C/zh active Active
- 2005-12-23 EP EP05823954A patent/EP1836681B1/de active Active
- 2005-12-23 WO PCT/EP2005/057161 patent/WO2006072555A1/de active Application Filing
- 2005-12-23 DE DE502005007163T patent/DE502005007163D1/de active Active
- 2005-12-23 AT AT05823954T patent/ATE429688T1/de not_active IP Right Cessation
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009049976A1 (de) * | 2007-10-17 | 2009-04-23 | Robert Bosch Gmbh | Verfahren zur schätzung der relativbewegung von video-objekten und fahrerassistenzsystem für kraftfahrzeuge |
DE102007058779A1 (de) | 2007-12-06 | 2009-06-10 | Robert Bosch Gmbh | Einrichtung eines Kraftfahrzeugs zur Erzeugung eines für eine Bildanalyse geeigneten Bildes |
DE102007058779B4 (de) * | 2007-12-06 | 2021-01-14 | Robert Bosch Gmbh | Einrichtung eines Kraftfahrzeugs zur Erzeugung eines für eine Bildanalyse geeigneten Bildes |
DE102009003061A1 (de) * | 2009-05-13 | 2010-11-18 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Bahnregelung, insbesondere von mobilen Fahrzeugen |
EP2312536B1 (de) * | 2009-10-15 | 2013-07-17 | Kapsch TrafficCom AG | Fahrzeuggerät für ein Strassenmautsystem |
WO2012080044A1 (de) * | 2010-12-15 | 2012-06-21 | Robert Bosch Gmbh | Verfahren und system zur bestimmung einer eigenbewegung eines fahrzeugs |
US9789816B2 (en) | 2010-12-15 | 2017-10-17 | Robert Bosch Gmbh | Method and system for determining an ego-motion of a vehicle |
DE102012217701A1 (de) | 2012-09-28 | 2014-04-03 | Robert Bosch Gmbh | Erfassung einer Eigenbewegung eines Fahrzeugs mittels Kamera nach Abschalten des Motors |
DE102013222268A1 (de) * | 2013-10-31 | 2015-04-30 | Continental Automotive Gmbh | Automatische Korrektur der Gierausrichtung eines Kamerasystems für ein Fahrzeug |
DE102014207897A1 (de) * | 2014-04-28 | 2015-10-29 | Robert Bosch Gmbh | Verfahren zum Erzeugen eines Anzeigebildes |
DE102015202230A1 (de) | 2015-02-09 | 2016-08-11 | Conti Temic Microelectronic Gmbh | Fusionierte Eigenbewegungsberechnung für ein Fahrzeug |
Also Published As
Publication number | Publication date |
---|---|
DE502005007163D1 (de) | 2009-06-04 |
CN100557636C (zh) | 2009-11-04 |
ATE429688T1 (de) | 2009-05-15 |
US20090214077A1 (en) | 2009-08-27 |
US8135176B2 (en) | 2012-03-13 |
WO2006072555A1 (de) | 2006-07-13 |
CN101095163A (zh) | 2007-12-26 |
EP1836681B1 (de) | 2009-04-22 |
EP1836681A1 (de) | 2007-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1836681B1 (de) | Verfahren zur bestimmung der eigenbewegung eines fahrzeugs | |
DE602004012962T2 (de) | Echtzeit-hinderniserkennung mit einer kalibrierten kamera und bekannter ego-bewegung | |
DE102015205244B3 (de) | Verfahren zum Bereitstellen von Hinderniskarten für Fahrzeuge | |
DE102016206117A1 (de) | Strassenoberflächenerfassungsvorrichtung und strassenoberflächenerfassungssystem | |
DE102013205882A1 (de) | Verfahren und Vorrichtung zum Führen eines Fahrzeugs im Umfeld eines Objekts | |
DE102014209137A1 (de) | Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs | |
EP1531342B1 (de) | Verfahren zur Erkennung von Fussgängern | |
EP2642425A1 (de) | Verfahren und Vorrichtung zum Auswerten von Ergebnissen einer Blickerfassung | |
DE102017109445A1 (de) | Kalibration einer Fahrzeug-Kameraeinrichtung in Fahrzeuglängsrichtung oder Fahrzeugquerrichtung | |
DE102012208188A1 (de) | Verfahren und Vorrichtung zum Darstellen einer Sollzeitlücke für ein Fahrzeug | |
DE102004009924A1 (de) | Verfahren und Warnvorrichtung zum grafischen Aufbereiten eines Bildes einer Kamera | |
AT521647A1 (de) | Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten | |
DE102012015282B4 (de) | Verfahren zur Detektion eines verdeckten Zustands einer Bilderfassungseinrichtung eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug | |
DE112015002764B4 (de) | Montagewinkeleinstellverfahren und Montagewinkelerfassungseinrichtung für bordeigene Kamera | |
DE102018122054A1 (de) | Querlenkverfahren und Querlenkvorrichtung für das Bewegen eines Fahrzeugs in eine Zielposition, und Fahrzeug dafür | |
EP3663881B1 (de) | Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren | |
DE102017123226A1 (de) | Verfahren zum Bestimmen einer kritischen Höhe eines vorausliegenden Streckenabschnitts für ein Fahrzeug, das ein Zugfahrzeug und einen Anhänger umfasst | |
DE102009007412B4 (de) | Verfahren zur Verfolgung wenigstens eines Objekts | |
DE102011118171A1 (de) | Verfahren und Vorrichtung zur Schätzung einer Fahrbahnebene und zur Klassifikation von 3D-Punkten | |
DE102014209863A1 (de) | Verfahren und Vorrichtung zum Betreiben einer Stereokamera für ein Fahrzeug sowie Stereokamera für ein Fahrzeug | |
DE102013220170A1 (de) | Verfahren zum Bestimmen einer kinematischen Zustandsgröße eines Objekts | |
DE102022212343A1 (de) | Autonom-fahrsystem | |
DE102010021221A1 (de) | Verfahren zur Bestimmung einer Ausrichtung einer an einem Fahrzeug angeordneten Kamera | |
DE102017217872A1 (de) | Verbesserte Ansicht eines Kraftfahrzeugumfelds | |
DE102021002011A1 (de) | Verfahren zur Annotation von Daten einer Umgebungserfassung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8127 | New person/name/address of the applicant |
Owner name: DAIMLERCHRYSLER AG, 70327 STUTTGART, DE Owner name: ROBERT BOSCH GMBH, 70469 STUTTGART, DE |
|
8127 | New person/name/address of the applicant |
Owner name: ROBERT BOSCH GMBH, 70469 STUTTGART, DE Owner name: DAIMLER AG, 70327 STUTTGART, DE |
|
8139 | Disposal/non-payment of the annual fee |