DE102010003850A1 - Verfahren und Vorrichtung zur Nachführung einer Position einer Objektmarkierung - Google Patents

Verfahren und Vorrichtung zur Nachführung einer Position einer Objektmarkierung Download PDF

Info

Publication number
DE102010003850A1
DE102010003850A1 DE102010003850A DE102010003850A DE102010003850A1 DE 102010003850 A1 DE102010003850 A1 DE 102010003850A1 DE 102010003850 A DE102010003850 A DE 102010003850A DE 102010003850 A DE102010003850 A DE 102010003850A DE 102010003850 A1 DE102010003850 A1 DE 102010003850A1
Authority
DE
Germany
Prior art keywords
vehicle
information
movement
detection device
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102010003850A
Other languages
English (en)
Inventor
Yiwen Yang
Mario Müller-Frahm
Gerrit De Boer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102010003850A priority Critical patent/DE102010003850A1/de
Priority to CN201110089560.5A priority patent/CN102211523B/zh
Priority to KR1020110033869A priority patent/KR101805377B1/ko
Publication of DE102010003850A1 publication Critical patent/DE102010003850A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/02Control of vehicle driving stability
    • B60W30/025Control of vehicle driving stability related to comfort of drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/64Imaging systems using optical elements for stabilisation of the lateral and angular position of the image
    • G02B27/644Imaging systems using optical elements for stabilisation of the lateral and angular position of the image compensating for large deviations, e.g. maintaining a fixed line of sight while a vehicle on which the system is mounted changes course

Abstract

Es wird ein Verfahren zur Nachführung einer Position einer Objektmarkierung (114) zum Markieren eines Objekts (106) auf einer Anzeigeeinrichtung (112) vorgeschlagen, wobei die Position der Objektmarkierung basierend auf einer Umfeldinformation ermittelt wird, die eine von einer Umfelderfassungseinrichtung (102) bereitgestellte Information über ein sich im Sichtbereich der Umfelderfassungseinrichtung befindliches Objekt repräsentiert, das einen Schritt des Bestimmens einer Nachführinformation zum Nachführen der Position der Objektmarkierung (114) auf der Anzeigeeinrichtung (112) basierend auf einer Bewegung des Fahrzeugs (100) umfasst, wobei die Bewegung eine Lageveränderung des Objekts (106) in Bezug auf die Umfelderfassungseinrichtung (102) bewirkt.

Description

  • Stand der Technik
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Nachführung einer Position einer Objektmarkierung, auf eine entsprechende Vorrichtung sowie auf ein entsprechendes Computerprogrammprodukt.
  • Die DE 10 2008 026 397 A1 beschreibt ein Verfahren zur Schätzung der Fahrzeugdynamik eines Fahrzeugs anhand eines stationären Objekts.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund wird mit der vorliegenden Erfindung ein Verfahren zur Nachführung einer Position einer Objektmarkierung, weiterhin eine Vorrichtung, die dieses Verfahren verwendet sowie schließlich ein entsprechendes Computerprogrammprodukt gemäß den unabhängigen Patentansprüchen vorgestellt. Vorteilhafte Ausgestaltungen ergeben sich aus den jeweiligen Unteransprüchen und der nachfolgenden Beschreibung.
  • Systeme zur Erfassung von Objekten in der Umgebung eines Ego-Fahrzeugs arbeiten in der Regel verzögerungsbehaftet, insbesondere wenn Videosignale ausgewertet müssen. Die entstehenden Latenzzeiten bis zur Ausgabe einer Objektinformation, wie beispielsweise eine Position oder Geschwindigkeit, können in Größenordnungen von einigen 100 ms liegen. Dies ist für die mit den Informationen arbeitenden Regelsysteme, z. B. ACC (Adaptive Cruise Control) nicht besonders kritisch. Sollen die Objektinformationen insbesondere die Position nun aber für eine ortsbezogene Visualisierung in einer Sichtfeldanzeige, einem sogenannten Head-up Display (HUD), genutzt werden, so wird hier die Latenzzeit sofort sichtbar. Das Auge registriert deutlich Latenzzeiten schon ab 50 ms. Sollen nun beispielsweise Symbole oder Markierungen an realen Objekten wie Fahrzeugen angelagert werden, und sind die Positionsinformation der Objekte schon 300 ms alt, so „ziehen” die Symbole aus Sicht des Fahrers „nach”. Insbesondere bei schnellen Relativbewegungen, das heißt die Bewegung ist innerhalb von 300 ms abgeschlossen, zwischen Ego-Fahrzeug und Objekt würde ein willkürlich Auf- und Abtanzen des Symbols sichtbar werden.
  • Die Erfindung basiert auf der Erkenntnis, dass eine Kompensation dieser Latenzzeit und eine Korrektur der veralteten Symbolposition für eine präzise Referenzierung durch die Sichtfeldanzeige (HUD) möglich sind. Dies kann durch eine Ausnutzung von Information über die Beschleunigungssensorik des Ego-Fahrzeugs erreicht werden. Das erfindungsgemäße Verfahren kommt ohne die Verwendung sogenannter „Prediktionsverfahren” aus, da die Beschleunigungssensordaten mit Latenzzeiten von wenigen 10 ms vorliegen und für eine direkte Kompensationsrechnung verwendet werden können.
  • Als Sichtfeldanzeige (Head-up Display, HUD) wird ein System bezeichnet, das Informationen direkt ins Sichtfeld des Fahrers einblendet. Hierzu wird eine spezielle Optik eingesetzt, die über Einspiegelung in die Windschutzscheibe dafür sorgt, dass für den Fahrer der Eindruck entsteht, als ob ein Bild vor dem Fahrzeug schweben würde. Im Gegensatz dazu muss der Fahrer bei einer konventionellen Anzeige (Head Down-Display) oder bei den Kombiinstrumenten im Fahrzeug seinen Blick senken, um wichtige Anzeigen wie etwa Geschwindigkeit oder Richtungsanweisungen zu sehen.
  • Gemäß einer Ausführungsform kann eine Sichtfeldanzeige eingesetzt werden, bei der Informationen gezielt dem realen Bild überlagert werden, um Punkte im Raum zu referenzieren. Diese Displays werden im allgemeinen Sprachgebrauch kontaktanaloge bzw. verbesserte Sichtfeldanzeigen (augmented Head-up Displays) genannt. Dem Fahrer können mit Hilfe dieser Technik z. B. Navigationshinweise in der Form gegeben werden, dass die von ihm zu verfolgende Straße farbig markiert wird. Auch Fahrspuren oder von einer adaptiven Geschwindigkeitsregelanlage (ACC-System, Adaptive Cruise Control) detektierte vorausfahrende Fahrzeuge können dem Fahrer direkt in das Blickfeld eingeblendet werden. Für die Erzeugung eines 3D-Effektes sind verschiedene Ansätze bekannt. Über autostereoskopische oder auch binokulare Systeme werden für beide Augen unterschiedliche Bilder erzeugt und über entsprechende Optiken dem Auge sichtbar gemacht. Andere Verfahren, genannt biokular, erzeugen nur ein einziges. Bild, dessen Bildentfernung aber so gewählt wird, dass die Augen diese nicht mehr erkennen kann, und das Gehirn automatisch eine Zuordnung zu den hinter den eingeblendeten Symbolen liegenden Objekten vornimmt. Die nach 2D wird durch einen Grafikprozessor (Renderer) durchgeführt, der das 2D-Bild auf die Szene aus der Perspektive des Fahrers und des 3D-Visualisierungsdaten errechnet. Hierzu ist in der Regel eine Fahrerkopfpositionsschätzung erforderlich.
  • Eine adaptive Geschwindigkeitsregelanlage (ACC) überwacht mit einem Funkmessgerät, beispielsweise einem Radar-Sensor, den Bereich vor dem Fahrzeug. Aus den reflektierten Signalen berechnet die adaptive Geschwindigkeitsregelanlage Richtung, Entfernung und Relativgeschwindigkeit vorausfahrender Fahrzeuge. Detektiert die adaptive Geschwindigkeitsregelanlage ein langsameres vorausfahrendes Fahrzeug in der eigenen Fahrspur, passt es die Geschwindigkeit so an, dass man im gewünschten Abstand folgt. Dazu reduziert die adaptive Geschwindigkeitsregelanlage je nach Fahrsituation das Motormoment oder bremst das Fahrzeug ab. Auch in Kurven kann die adaptive Geschwindigkeitsregelanlage erkennen, welches Fahrzeug für die Geschwindigkeitsregelung entscheidend ist. Sobald sich im Messbereich kein Fahrzeug mehr befindet, beschleunigt die adaptive Geschwindigkeitsregelanlage das Fahrzeug wieder automatisch auf die voreingestellte Geschwindigkeit.
  • Bilderkennungsalgorithmen können aus Videobildern Objekte detektieren und deren Positionsdaten z. B. über eine Hauptleitung (CAN-BUS, Controller Area Network Bus) anderen Systemen zur Verfügung stellen.
  • Die vorliegende Erfindung schafft ein Verfahren zur Nachführung einer Position einer Objektmarkierung zum Markieren eines Objekts auf einer Anzeigeeinrichtung eines Fahrzeugs, wobei die Position der Objektmarkierung basierend auf einer Umfeldinformation ermittelt wird, die eine von einer Umfelderfassungseinrichtung bereitgestellte Information über ein sich im Sichtbereich der Umfelderfassungseinrichtung befindliches Objekt repräsentiert, wobei das Verfahren den folgenden Schritt umfasst: Bestimmen einer Nachführinformation zum Nachführen der Position der Objektmarkierung auf der Anzeigeeinrichtung, basierend auf einer Bewegung des Fahrzeugs, wobei die Bewegung eine Lageveränderung des Objekts in Bezug auf die Umfelderfassungseinrichtung bewirkt.
  • Das erfindungsgemäße Verfahren kann in einem Informationssystem oder Navigationssystem eines Fahrzeugs umgesetzt werden. In diesem Fall kann sich das Objekt in einer Umgebung des Fahrzeugs befinden. Beispielsweise kann es sich bei dem Objekt um ein Verkehrsschild, eine Fahrbahnmarkierung oder Fahrbahnbegrenzung, ein weiteres Fahrzeug oder um einen Fußgänger handeln. Um das Objekt beispielsweise für einen Insassen des Fahrzeugs hervorzuheben, kann in ein Sichtfeld des Insassen die Objektmarkierung eingeblendet werden. Dabei kann die Objektmarkierung so eingeblendet werden, dass sich die Position der Objektmarkierung an der Position des real existierenden Objekts befindet. Die Objektmarkierung kann in Form eines Rahmens erfolgen, der das Objekt umgibt. Ebenso kann die Objektmarkierung durch eine Verdeutlichung der Umrisse des Objekts erfolgen. Die Objektmarkierung kann mittels der Anzeigeeinrichtung angezeigt werden. Die Anzeigeeinrichtung kann als eine Sichtfeldanzeige (HUD) oder als ein Bildschirm realisiert sein. Ist die Anzeigeeinrichtung als Sichtfeldanzeige realisiert, so kann die Objektmarkierung so angezeigt werden, dass sie aus einem Sichtwinkel des Insassens mit dem für den Insassen real sichtbaren Objekt überlagert ist. Ist die Anzeigeeinrichtung dagegen als Bildschirm realisiert, auf dem die reale Umgebung abgebildet wird, so kann die Objektmarkierung so angezeigt werden, dass sie dem auf dem Bildschirm angezeigten Objekt überlagert ist. Das Objekt selbst kann basierend auf einer Objekterkennung erkannt werden. Die Objekterkennung kann basierend auf der Umfeldinformation erfolgen. Die Umfeldinformation kann in Form einer Bildinformation vorliegen, auf der das Objekt abgebildet ist. Ebenfalls kann die Umfeldinformation in Form einer räumlichen Positionsinformation vorliegen, die beispielsweise eine Richtung und Entfernung sowie eine Ausdehnung des Objekts umfasst. Basierend auf der Umfeldinformation kann ferner eine Position des Objekts relativ zum Fahrzeug, dem Insassen oder der Anzeigeeinrichtung bestimmt werden. Die Umfelderfassungseinrichtung kann eine Bilderfassungseinrichtung für Stand- oder Bewegtbilder, beispielsweise in Form einer Kamera, eine Funkmesseinrichtung oder eine akustische Messeinrichtung darstellen. Die Nachführinformation kann eine bestehende Position der Objektmarkierung dergestalt verschieben, dass die Objektmarkierung auch nach der Bewegung des Fahrzeugs, und damit nach einer Bewegung der Umfelderfassungseinrichtung sowie der Anzeigeeinrichtung, auf der Anzeigeeinrichtung mit der Position des Objekts übereinstimmt. Sofern die Umfelderfassungseinrichtung und die Anzeigeeinrichtung starr mit dem Fahrzeug verbunden sind, kann sich die Bewegung des Fahrzeugs auf die Umfelderfassungseinrichtung und die Anzeigeeinrichtung übertragen. Die Lageveränderung des Objekts kann eine Winkeländerung eines Winkels zwischen einer Bezugsachse des Fahrzeugs, beispielsweise der Fahrzeuglängsachse, und einem Richtungsvektor vom Fahrzeug zum Objekt umfassen. Das bedeutet, dass sich das Objekt relativ zu einer Bezugsachse des Fahrzeugs in Bezug auf die Umfelderfassungseinrichtung bewirkt Zum Bestimmen der Nachführinformation können Informationen über die Art der Bewegung, die Anordnung der Umfelderfassungseinrichtung, der Anzeigeeinrichtung und einer Messeinrichtung zum Erfassen der Bewegung am Fahrzeug sowie eine Position und ein Blickwinkel eines Insassen des Fahrzeugs, der auf die Anzeigeeinrichtung blickt, berücksichtigt werden.
  • In einem Schritt des Bestimmens kann eine durch die Bewegung des Fahrzeugs bewirkte Auslenkung einer Bezugsachse der Umfelderfassungseinrichtung bestimmt werden. Die Nachführinformation kann basierend auf der Auslenkung der Bezugsachse bestimmt werden. Die Bezugsachse kann eine Hauptorientierungsrichtung der Umfelderfassungseinrichtung darstellen. Die Auslenkung der Bezugsachse kann basierend auf Informationen erfolgen, die von einer Beschleunigungserfassungseinrichtung und/oder Winkelerfassungseinrichtung und/oder Geschwindigkeitserfassungseinrichtung bereitgestellt werden. Die Auslenkung der Bezugsachse kann eine Drehung oder ein Kippen der Bezugsachse darstellen.
  • Bei der Bewegung des Fahrzeugs kann es sich um eine Drehbewegung handeln. In einem Schritt des Empfangens kann eine Information über die Drehbewegung des Fahrzeugs über eine Schnittstelle zu einem Drehratensensor des Fahrzeugs empfangen werden. Die Drehbewegung kann um eine Querachse des Fahrzeugs erfolgen. Bei der Schnittstelle kann es sich um eine Empfangsschnittstelle handeln, über die Sensordaten empfangen werden können. Die Drehbewegung des Fahrzeugs kann mittels einem oder mehrerer Beschleunigungssensoren oder Drehratensensoren erfasst werden. Auf diese Weise kann eine Winkelbeschleunigung oder einer Winkelgeschwindigkeit des Fahrzeugs um eine bekannte Fahrzeugachse erfasst werden. Daraus kann wiederum ermittelt werden, um welchen Winkel sich das Fahrzeug innerhalb einer bestimmten Zeitdauer gedreht hat. Auch kann die Drehbewegung des Fahrzeugs basierend auf einer erfassten Einfederung der Fahrzeugachsen bestimmt werden.
  • Gemäß einer Ausführungsform des erfindungsgemäßen Verfahrens kann in einem Schritt des Ermittelns ein Verlauf einer Winkelgeschwindigkeit der Bewegung des Fahrzeugs ermittelt werden. Die Nachführinformation kann basierend auf einer Aufsummierung des Verlaufs der Winkelgeschwindigkeit bestimmt werden. Der Verlauf der Winkelgeschwindigkeit kann basierend auf einer gemessenen Winkelbeschleunigung oder einer über die Zeit gemessenen Winkeländerung ermittelt werden.
  • Gemäß einer weiteren Ausführungsform kann in einem Schritt des Bestimmens eine Bewegung der Umfelderfassungseinrichtung basierend auf der Bewegung des Fahrzeugs bestimmt werden. Die Nachführinformation kann basierend auf der Bewegung der Umfelderfassungseinrichtung bestimmt werden. Die Drehbewegung des Fahrzeugs wird auf die Umfelderfassungseinrichtung übertragen und bewirkt somit eine Bewegung der Umfelderfassungseinrichtung. Je nach Anordnung der Umfelderfassungseinrichtung am Fahrzeug kann die Drehbewegung des Fahrzeugs der durch die Bewegung des Fahrzeugs hervorgerufenen Drehbewegung der Umfelderfassungseinrichtung entsprechen.
  • Die Umfelderfassungseinrichtung kann ausgebildet sein, um die Umfeldinformation zu einem Erfassungszeitpunkt zu erfassen. Die Bewegung der Umfelderfassungseinrichtung kann innerhalb einer Zeitspanne erfolgen, die zeitlich nach dem Erfassungszeitpunkt liegt. Die Zeitspanne kann einer Latenzzeit oder Totzeit entsprechen, die zwischen einem Erfassen der Umfeldinformation und einer darauf basierenden Anzeige der Objektmarkierung liegt.
  • Somit kann die Zeitspanne zeitlich an den Erfassungszeitpunkt anschließen und einer Ermittlungsdauer der Position der Objektmarkierung aus der Umfeldinformation entsprechen.
  • Das erfindungsgemäße Verfahren kann einen Schritt des Bestimmens einer korrigierten Position der Objektmarkierung basierend auf der Nachführinformation und der Position der Objektmarkierung umfassen. Durch die korrigierte Position kann die durch die Bewegung der Umfelderfassungseinrichtung hervorgerufene Verschiebung zwischen dem Objekt und der Objektmarkierung sehr schnell ausgleichen. Demnach kann die korrigierte Position einer tatsächlichen Position des Objekts auf dem Anzeigegerät zu einem aktuellen Zeitpunkt entsprechen. Die korrigierte Position kann für eine Anzeige auf einem Anzeigegerät optimiert sein.
  • Die Anzeigeeinrichtung kann als eine Sichtfeldanzeige eines Fahrzeugs oder als ein Bildschirm ausgebildet sein. In einem Schritt des Bereitstellens kann die korrigierte Position der Objektmarkierung an einer Schnittstelle zu der Sichtfeldanzeige oder dem Bildschirm bereitgestellt werden. Die korrigierte Position der Objektmarkierung kann als Steuersignal für die Anzeigeeinrichtung ausgebildet sein. Ansprechend auf ein Empfangen der korrigierten Position der Objektmarkierung kann die Anzeigeeinrichtung die Objektmarkierung an der entsprechenden korrigierten Position anzeigen.
  • Die vorliegende Erfindung schafft ferner eine Vorrichtung zur Nachführung einer Position einer Objektmarkierung zum Markieren eines Objekts auf einer Anzeigeeinrichtung, wobei die Position der Objektmarkierung basierend auf einer Umfeldinformation ermittelt wird, die eine von einer Umfelderfassungseinrichtung bereitgestellte Information über ein sich im Sichtbereich der Umfelderfassungseinrichtung befindliches Objekt repräsentiert, wobei die Vorrichtung das folgende Merkmal aufweist: eine Einrichtung zum Bestimmen einer Nachführinformation zum Nachführen der Position der Objektmarkierung auf der Anzeigeeinrichtung, basierend auf einer Bewegung des Fahrzeugs, wobei die Bewegung eine Lageveränderung des Objekts in Bezug auf die Umfelderfassungseinrichtung bewirkt.
  • Die Vorrichtung zur Nachführung kann eine Einrichtung zum Ermitteln der Position der Objektmarkierung, basierend auf der Umfeldinformation, und eine Einrichtung zum Ermitteln der Bewegung der Umfelderfassungseinrichtung aufweisen. Zum Ermitteln der Position der Objektmarkierung können bekannte Objekterkennungsalgorithmen eingesetzt werden. Die Einrichtung zum Ermitteln der Bewegung der Umfelderfassungseinrichtung kann Bewegungssensoren und eine Auswerteeinrichtung umfassen, die ausgebildet ist, um aus den von den Bewegungssensoren ausgegebenen Daten die Bewegung der Umfelderfassungseinrichtung zu ermitteln.
  • Die Vorrichtung zur Nachführung kann Teil eines Informationssystems oder Fahrerinformationssystems und insbesondere eines Navigationssystems sein, das ausgebildet ist, um die Schritte des erfindungsgemäßen Verfahrens durchzuführen bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden. Bei der Vorrichtung kann es sich um ein Gerät handeln, das beispielsweise einem Fahrer eines Fahrzeugs Informationen anzeigt, die bezüglich einer gewählten Fahrstrecke relevant sein können. Die Vorrichtung kann eine Ausgabeeinrichtung, beispielsweise in Form einer Sichtfeldanzeige oder eines Displays aufweisen, über die dem Benutzer Informationen angezeigt werden können.
  • Von Vorteil ist auch ein Computerprogrammprodukt mit Programmcode zur Durchführung des erfindungsgemäßen Verfahrens, wenn das Programm auf einem Fahrerinformationssystem ausgeführt wird. Der Programmcode kann auf einem maschinenlesbaren Träger wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert ist und zur Durchführung des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet werden, wenn das Programm ausgeführt wird.
  • Die Erfindung wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
  • 1a eine Darstellung eines Ausführungsbeispiels der Erfindung mit einem Fahrzeug in Ruhelage;
  • 1b eine Darstellung einer erfindungsgemäßen Anzeige mit einem Fahrzeug in Ruhelage;
  • 1c eine Darstellung eines Ausführungsbeispiels der Erfindung mit einem Fahrzeug in ausgelenkter Lage;
  • 1d eine Darstellung einer Anzeige mit einem Fahrzeug in ausgelenkter Lage;
  • 1e eine Darstellung einer erfindungsgemäßen Anzeige mit einem Fahrzeug in ausgelenkter Lage;
  • 2 zwei Diagramme eines Ausführungsbeispiels der vorliegenden Erfindung;
  • 3 ein Blockschaltbild eines Ausführungsbeispiels der vorliegenden Erfindung; und
  • 4 ein Ablaufdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung.
  • In der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
  • Anhand der Figuren 1a bis 1e wird das erfindungsgemäße Verfahren zur Nachführung einer Position einer Objektmarkierung zum Markieren eines Objekts auf einer Anzeigeeinrichtung eines Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung erläutert. Gemäß diesem Ausführungsbeispiel wird eine Kompensation von Latenzzeiten aus einer Videosensorik mittels einer Drehrateninformation ermöglicht.
  • 1a zeigt eine schematische Darstellung eines Fahrzeugs 100 mit einer Umfelderfassungseinrichtung 102. Das Fahrzeug 100 bewegt sich auf einer Fahrbahn 104 auf ein Objekt 106 zu. In diesem Beispiel ist die Umfelderfassungseinrichtung 102 eine Videokamera 102, die im Wesentlichen entlang einer Hauptachse 108 des Fahrzeugs 100 ausgerichtet ist. Vor dem Fahrzeug 100 befindet sich ein Hindernis 110 in Form einer Fahrbahnerhebung.
  • Die Umfelderfassungseinrichtung 102 ist ausgebildet, um ein Umfeld des Fahrzeugs zu erfassen. Gemäß diesem Ausführungsbeispiel ist die Umfelderfassungseinrichtung 102 ausgebildet, um einen in Fahrtrichtung vor dem Fahrzeug 100 liegenden Bereich zu erfassen. Das vor dem Fahrzeug 100 angeordnete Objekt 106 wird von der Umfelderfassungseinrichtung 102 erfasst. Bei dem Objekt 106 kann es sich um ein Verkehrsschild handeln. Die Umfelderfassungseinrichtung 102 kann Umfeldinformationen bereitstellen, die Informationen über das Objekt 106 umfassen. Die Umfeldinformationen können von einer Objekterkennung genutzt werden, um Informationen über das Objekt 106 zu bestimmen. Beispielsweise können die Art und die Position des Objekts 106 bestimmt werden.
  • 1b zeigt eine Sichtfeldanzeige 112, in Form eines Head-up Displays, die in dem in 1a gezeigten Fahrzeug realisiert sein kann. Mittels der Sichtfeldanzeige 112 können Informationen an einen Insassen des Fahrzeugs, beispielsweise an den Fahrzeuglenker übermittelt werden. Gemäß diesem Ausführungsbeispiel wird mittels der Sichtfeldanzeige 112 eine Objektmarkierung 114 angezeigt, die aus einem Blickwinkel des Insassens des in 1a gezeigten Fahrzeugs dem Objekt 106 überlagert ist. Somit wird die Objektmarkierung 114 an einer Position angezeigt, die der für den Insassen ersichtlichen Position des realen Objekts 106 entspricht. Die Markierung 114 soll dem Fahrzeuglenker das Objekt 106 besonders verdeutlichen.
  • Gemäß diesem Ausführungsbeispiel befindet sich das Objekt 106 im Erfassungsbereich der in 1a gezeigten Videokamera. Die Markierung 114 wird durch eine Bildauswertung des Bildes der Videokamera erzeugt und soll dem Fahrzeuglenker das Objekt 106 besonders verdeutlichen. Die Objektmarkierung 114 befindet sich auf der Sichtfeldanzeige 112 passend über dem Objekt 106. Da sich das Fahrzeug auf einer ebenen Straße bewegt, verändert sich ein Relativwinkel zwischen dem Fahrzeug und dem Objekt 106 nur sehr langsam. Durch die langsame Winkelveränderung kann die Bildauswertung die Objektmarkierung 114 ohne große Abweichungen deckungsgleich mit dem Objekt 106 halten.
  • 1c zeigt eine schematische Darstellung, bei der das Fahrzeug 100 das Hindernis 110 auf der Fahrbahn 104 überfährt. Durch das Hindernis 110 wird das Fahrzeug 100 ausgelenkt. Das Fahrzeug 100 erfährt eine schnelle Drehung um seine Querachse. Mit der Drehung verändert sich auch die Hauptachse 108 der Umfelderfassungseinrichtung 102. Das Objekt 106 vollzieht für die Videokamera 102 eine schnelle Bewegung. Tatsächlich verbleibt das Objekt 106 jedoch in seiner Ausgangslage und die Bewegung ist nur eine Relativbewegung des Objekts gegenüber der Umfelderfassungseinrichtung 102.
  • 1d zeigt eine Darstellung der aus 1b bekannten Sichtfeldanzeige 112, bezogen auf die in 1c gezeigte Auslenkung des Fahrzeugs. Aufgrund der schnellen Relativbewegung zwischen dem Fahrzeug und dem Objekt 106 verbleibt die Objektmarkierung 114 zunächst auf der in 1b gezeigten Position auf der Sichtfeldanzeige 112. Die Objektmarkierung 114 stimmt dadurch aus Sicht des Insassens nicht mehr mit der Position des Objekts 106 überein. Die Lageverschiebung ist durch eine Latenzzeit der Videokamera und der Bildauswertung bedingt.
  • 1e zeigt eine Darstellung der aus 1b bekannten Sichtfeldanzeige 112, bezogen auf die in 1c gezeigte Auslenkung des Fahrzeugs, wobei die Objektmarkierung 114 im Unterschied zu der in 1d gezeigten Darstellung, gemäß dem erfindungsgemäßen Verfahren, nachgeführt wird. Der erfindungsgemäße Ansatz ermöglicht ein schnelles Nachführen der Objektmarkierung 114. Dazu werden Bewegungsinformationen über eine Winkelgeschwindigkeit oder Winkelbeschleunigung des Fahrzeugs ausgewertet und es wird eine Nachführinformation für die Objektmarkierung 114 aus den Bewegungsinformationen bestimmt. Die Bewegungsinformationen können von einer Bewegungssensorik des Fahrzeugs empfangen werden. Beispielsweise kann durch eine Integration der Winkelgeschwindigkeit über die Latenzzeit der Videokamera und der Bildauswertung die Nachführinformation bestimmt werden. Gemäß diesem Ausführungsbeispiel ist die Nachführinformation geeignet, die Relativbewegung des Objekts 106 zu kompensieren die durch die in 1c gezeigte Auslenkung des Fahrzeugs hervorgerufen wird. Auf diese Weise kann die Position der Objektmarkierung 114 korrigiert werden. Damit ist eine Art von Verwackelungsschutz für verzögerungsbehaftete Prozesse möglich. Die Objektmarkierung 114 stimmt dadurch aus Sicht des Insassens trotz der Auslenkung des Fahrzeugs mit der Position des Objekts 106 überein.
  • Der anhand der 1a bis 1e beschriebene erfindungsgemäße Ansatz basiert auf den Annahmen, dass die Relativbewegungen von Objekten, wie Fahrzeuge, Fußgänger oder Straßen, in der Umgebung des Ego-Fahrzeugs durch die Eigenbewegung des Ego-Fahrzeugs dominiert werden. Dies gilt insbesondere für die schnellen Relativbewegungen. Beispielsweise erscheint ein von einer adaptiven Geschwindigkeitsregelanlage (ACC) erfasstes Fahrzeug relativ zum Ego-Fahrzeug bei gerader und ebener Straße und konstanten Geschwindigkeiten beider Fahrzeuge aus Sicht des Ego-Fahrzeugs vor diesem still zu stehen. Fährt nun das Ego-Fahrzeug über eine Bodenwelle und erfährt ein Aufwärtsnicken, so scheint das fremde Fahrzeug eine schnelle Abwärts-/Aufwärtsbewegung auszuführen. Über die Drehratensensorik des Ego-Fahrzeugs wird mit vernachlässigbar kurzer Latenzzeit die Drehgeschwindigkeit des Ego-Fahrzeugs so gemessen und bereitgestellt, dass aus ihr Rückschlüsse über die Relativbewegungen der Außenwelt in Grad relativ zur Geradeaussicht-Richtungsachse des Fahrers gezogen werden können.
  • Erfindungsgemäß können somit die in der Totzeit des Messsystems auftretenden relativen Objektbewegungen geschätzt werden. Darauf basierend kann der in der Vergangenheit gemessene Positionswert eines Objektes entsprechend korrigiert werden.
  • 2 zeigt zwei Diagramme eines Ausführungsbeispiels der vorliegenden Erfindung. In dem unteren Diagramm ist ein Verlauf 221 einer Bewegung des Fahrzeugs oder der Umfelderfassungseinrichtung gezeigt. In dem oberen Diagramm ist ein Verlauf 223 einer aus der Bewegung resultierenden relativen Positionsänderung des Objekts gezeigt.
  • In dem unteren Diagramm ist auf der Abszisse die Zeit t und auf der Ordinate die Winkelgeschwindigkeit oder Drehrate w(t) in °/s angetragen. Die Winkelgeschwindigkeit kann auf eine Bewegung des Fahrzeugs oder auf die Umfelderfassungseinrichtung bezogen sein. Ein Verlauf der Winkelgeschwindigkeit über die Zeit ist anhand der Kurve 221 gezeigt. Die Kurve 221 kann den von einer Drehratensensorik erfassten Verlauf der Drehrate oder Winkelgeschwindigkeit w über die Zeit t darstellen. Die Kurve 221 weist ausgehend von einer Nulllage zum Zeitpunkt tA einen sprunghaften Anstieg auf und bleibt anschließend bis zum Zeitpunkt to auf einem konstanten Winkelgeschwindigkeitswert. Somit ist die Umfelderfassungseinrichtung bis zum Zeitpunkt tA in Ruhe und bewegt sich anschließend mit einer konstanten Winkelgeschwindigkeit.
  • In dem oberen Diagramm ist auf der Abszisse die Zeit t und auf der Ordinate die Position S(t) des Objekts im Erfassungsbereich der Umfelderfassungseinrichtung in ° angetragen. Die Position des Objekts ist dabei in Grad angegeben. Ein Verlauf der Position des Objekts über die Zeit ist anhand der Kurve 223 gezeigt. Solange die Umfelderfassungseinrichtung in Ruhe ist, bleibt die Position des Objekts gleich. Ab dem Zeitpunkt tA verändert sich die Position des Objekts. Somit weist die Kurve 223 in einem ersten Abschnitt bis zu dem Zeitpunkt tA einen geradlinigen Verlauf parallel zur Abszissenachse und ab dem Zeitpunkt tA einen geradlinig ansteigenden Verlauf auf.
  • Der Zeitpunkt t0 stellt den aktuellen Zeitpunkt dar. Ein Zeitpunkt t0 – T ist zwischen den Zeitpunkten t0 und tA angeordnet.
  • Auf der Kurve 223 sind eine aktuelle Position S(t0) des Objekts zum Zeitpunkt t0 und eine zeitlich vorrangegangene Position S(t0 – T) des Objekts zum Zeitpunkt t0 – T aufgetragen. Die Positionen S(t0) und S(t0 – T) unterscheiden sich um einen Winkel Δρ0 Die Position S(t0 – T) des Objekts entspricht einer von einer Bildverarbeitung berechneten Position des Objekts, die die Bildbearbeitung aufgrund einer internen Bearbeitungszeitoder Totzeit T zum Zeitpunkt t0 ausgibt.
  • Die Position S(t0 – T) ist bekannt, gesucht ist die Position S(t0) bzw. der Drehwinkel Δφ0 während der Totzeit T. Dabei gilt der Zusammenhang S(t0) = S(t0 – T) + Δφ0 ergibt. Der Verlauf von w(t) ist bis zum aktuellen Zeitpunkt t0 bekannt. Wenn S(t) nur durch Rotation des Ego-Fahrzeugs verursacht wird, gilt w(t) = S .(t) + n(t). Dabei ist S .(t) die Ableitung der Position nach der Zeit und n(t) kann ein Sensorrauschen oder eine Drift berücksichtigen. Daher kann der Wert Δφ ⌢0 als ein Schätzwert für den Drehwinkel Δφ0 während der Totzeit T durch Integration der Drehrateermittelt werden. Es gilt:
    Figure 00130001
    wobei
    Figure 00130002
    ist.
  • Anhand von 2 wird anhand eines Ausführungsbeispiels eine Situation illustriert, in der das vorausfahrende Fahrzeug durch ein Nicken des Ego-Fahrzeugs nach oben zu wandern scheint. Die von der Videosensorik geschätzte vertikale Objektposition sei dabei in Grad relativ zu einer Achse, die von der Drehratensensorik erfasst wird, angegeben. Das Nicken des Ego-Fahrzeugs führt zu einem Ansteigen des (ACC) vorausfahrenden Fahrzeugs. Gleichzeitig erzeugt die Bewegung eine entsprechende Drehrate. Die zum aktuellen Zeitpunkt gesuchte Objektposition, beispielsweise in Form eines Höhenwinkels, kann errechnet werden, indem die während der Totzeit zurückgelegte Winkelstrecke über Integration der Drehrate errechnet und zum veralteten bekannten Wert addiert wird.
  • Gemäß diesem Ausführungsbeispiel wird zur Vereinfachung die Situation für eine Rotation um eine Achse betrachtet. Prinzipiell lässt sich das Verfahren für alle Rotationsachsen, Wanken, Nicken und sogar Rollen anwenden.
  • Das Verfahren kann die tatsächliche Lage der Drehachsen des Fahrzeugs vernachlässigen. Beispielsweise kann die gemessene Drehung mit dem Fahrer als Mittelpunkt erfolgen.
  • Die Genauigkeit des Verfahrens lässt sich durch den Einsatz von Fahrzeugbewegungsmodellen noch steigern. Dazu kann die Eigenbewegung unter Berücksichtigung von Fahrzeugmasse, Federung, Einbaulage der Drehratensensorik und anderen Faktoren vollständig geschätzt und auf die Perspektive des Fahrers umgerechnet werden. Zur beschriebenen Rotation würde in der Regel eine geringe Translation hinzukommen.
  • Die Berechnung kann in zeit- und wertkontinuierlicher Form durchgeführt werden. Die Signalverarbeitung im Fahrzeug ist dagegen zeit- und wertdiskret, so dass bei der Umsetzung in einem Steuergerät die Integrale durch entsprechende Produktsummen aus gemessener Drehrate multipliziert mit dem Abtastintervall ersetzt werden müssen.
  • Es wurde unterstellt, dass die Signale der Drehratensensoren verzögerungsfrei vorliegen. In der Praxis liegt hier natürlich auch eine Latenzzeit vor, die allerdings deutlich unter der Latenzzeit der Videosignalverarbeitung liegt. In Folge weist das Gesamtsystem damit weiterhin eine Gesamtverzögerung auf, die aber in der Regel nicht oder nur schwach wahrnehmbar ist. Hier kann zur Verschleierung der restlichen Latenzzeit zusätzlich ein Prediktionsverfahren zum Einsatz kommen.
  • Als Beispiel wurde oft die Visualisierung von (ACC) Objekten, die von einer adaptiven Geschwindigkeitsregelanlage erfasst sind, genannt. Das Verfahren lässt sich für alle Objekte außerhalb des Fahrzeugs anwenden, wie Fahrzeuge, Personen, Spurlinien, Gebäude und ähnliches für die eine Referenzierung durch eine kontaktanaloge Sichtfeldanzeige (HUD) erzielt werden soll.
  • Zur Parametrisierung des Systems wird vorab die Totzeit T gemessen.
  • Der dargestellte Verlauf des Höhenwinkels in 2 zeigt beispielhaft ein lineares Ansteigen. Das Verfahren funktioniert natürlich für alle möglichen Verläufe, die durch die Drehratensensorik erfasst werden.
  • Die Latenzzeit der Videosensorik inkl. der weiteren Signalverarbeitung bis hin zur Bilderzeugung kann bekannt sein oder kann gemessen werden, indem die Latenzzeit zwischen detektierten Objekten und der Positionierung zugeordneter Symbole (z. B. ACC) in der Sichtfeldanzeige (HUD) in Ruhelage des untersuchten Fahrzeugs durch Bewegung der Objekte gemessen wird. Die Messung kann wiederholt werden, wobei die Relativbewegung der Objekte nun durch Aufprägung von z. B. Nicken des untersuchten Fahrzeugs erzeugt wird. Erfindungsgemäß ergibt sich hier eine geringere Totzeit, da für die Berechnung der Objektposition auf die Drehratensensorik zurückgegriffen wird.
  • 3 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung. In einem Schritt 300 werden Informationen über eine Objektmarkierung zum Markieren einer Position eines Objekts auf einer Anzeigeeinrichtung empfangen. Die Informationen über die Objektmarkierung können von einer Bildverarbeitungseinrichtung ausgegeben werden. Die Bildverarbeitungseinrichtung kann die Objektmarkierung basierend auf einer Umeldinformation ermitteln, die von einer Umfelderfassungseinrichtung ausgegeben werden, in deren Erfassungsbereich sich das reale Objekt befindet. Die Informationen über die Objektmarkierung sind mit einer prädeterminierten, also vorab feststehenden Latenzzeit durch eine Verarbeitungsdauer in der Bildverarbeitungseinrichtung beaufschlagt. Ändert sich während der Latenzzeit eine Lage oder Ausrichtung der Umfelderfassungseinrichtung oder der Anzeigeeinrichtung relativ zum realen Objekt geändert, so wird die Position der Objektmarkierung fehlerhaft.
  • In einem Schritt 302 werden daher eine aktuelle Lageinformation der Umfelderfassungseinrichtung oder der Anzeigeeinrichtung empfangen. Die Lageinformation kann von einer Beschleunigungssensorik und einer entsprechenden Auswerteinrichtung bereitgestellt werden. In einem Schritt 304 wird eine Nachführinformation zum Nachführen der Position der Objektmarkierung basierend auf der aktuellen Lageinformation bestimmt. In einem Schritt 306 wird eine korrigierte Position der Objektmarkierung basierend auf der Nachführinformation und der Informationen über die Objektmarkierung bestimmt. In einem Schritt 308 wird die korrigierte Position der Objektmarkierung an die Anzeigeeinrichtung bereitgestellt.
  • 4 zeigt ein Blockschaltbild eines Ausführungsbeispiels der vorliegenden Erfindung. Es zeigt einen Verzögerungsblock T, einen Integrationsblock ∫ t / t-T...dt und ein Additionselement +. Der Verzögerungsblock T ist ausgebildet, um eine Information S(t) zu empfangen und eine Information S(t – T) auszugeben. Der Integrationsblock ∫ t / t-T...dt ist ausgebildet, um eine Information w(t) = S .(t) + n(t) zu empfangen und eine Information S(t) – S(t – T) + n(t) auszugeben. Das Additionselement + ist ausgebildet, um die Informationen S(t – T) und S(t) – S(t – T)+ n(t) zu addieren und eine Information S(t) + n(t) auszugeben.
  • Mittels des Verzögerungsblocks T wird eine aktuelle Position S(t) eines Objekts mit einer Latenzzeit T beaufschlagt und wird dadurch zu einer veralteten Position St – T). Eine aktuelle Winkelgeschwindigkeit w(t), die einer Ableitung der Position S .(t) + n(t) mit einer Ungenauigkeit n(t) entspricht wird mittels des Integrationsblock ∫ t / t-T...dt über eine Zeitdauer t – (t – T) integriert oder aufsummiert und ergibt damit eine Position S(t) – S(t – T) + n(t), die dem zurückgelegten Weg S, in diesem Beispiel dem Drehwinkel während der Zeitdauer t – (t – T) entspricht. Die mit der Latenzzeit T beaufschlagte Position S(t – T) wird mit dem zurückgelegten Weg S(t) – S(t – T) + n(t) addiert und ergibt die aktuelle Position S(t) + n(t) mit einer Ungenauigkeit n(t)
  • Dabei steht der Block „T” stellvertretend für die Totzeit der gesamten Signalverarbeitungskette im Videosignalzweig inklusive der Bilddarstellung. Integralblock oder Summierer und Addierer sind die Komponenten des erfindungsgemäßen Verfahrens.
  • Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden. Ferner können erfindungsgemäße Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102008026397 A1 [0002]

Claims (11)

  1. Verfahren zur Nachführung einer Position einer Objektmarkierung (114) zum Markieren eines Objekts (106) auf einer Anzeigeeinrichtung (112) eines Fahrzeugs (100), wobei die Position der Objektmarkierung basierend auf einer Umfeldinformation ermittelt wird, die eine von einer Umfelderfassungseinrichtung (102) des Fahrzeugs bereitgestellte Information über ein sich im Sichtbereich der Umfelderfassungseinrichtung befindliches Objekt repräsentiert, wobei das Verfahren den folgenden Schritt umfasst: Bestimmen (304) einer Nachführinformation zum Nachführen der Position der Objektmarkierung (114) auf der Anzeigeeinrichtung (112), basierend auf einer Bewegung des Fahrzeugs (100), wobei die Bewegung eine Lageveränderung des Objekts (106) in Bezug auf die Umfelderfassungseinrichtung (102) bewirkt.
  2. Verfahren gemäß Anspruch 1, mit einem Schritt des Bestimmens einer durch die Bewegung des Fahrzeugs (100) bewirkten Auslenkung einer Bezugsachse (108) der Umfelderfassungseinrichtung, und bei dem die Nachführinformation basierend auf der Auslenkung der Bezugsachse bestimmt wird.
  3. Verfahren gemäß einem der vorangegangenen Ansprüche, wobei es sich bei der Bewegung des Fahrzeugs (100) um eine Drehbewegung handelt und mit einem Schritt des Empfangens (302) einer Information über die Drehbewegung des Fahrzeugs (100) über eine Schnittstelle zu einem Drehratensensor des Fahrzeugs.
  4. Verfahren gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Ermittelns eines Verlaufs einer Winkelgeschwindigkeit der Bewegung des Fahrzeugs (100) und bei dem die Nachführinformation basierend auf einer Aufsummierung des Verlaufs der Winkelgeschwindigkeit bestimmt wird.
  5. Verfahren gemäß einem der vorangegangenen Ansprüche, wobei die Umfelderfassungseinrichtung (102) ausgebildet ist, um die Umfeldinformation zu einem Erfassungszeitpunkt zu erfassen und bei dem die Bewegung der Umfelderfassungseinrichtung innerhalb einer Zeitspanne erfolgt, die zeitlich nach dem Erfassungszeitpunkt liegt.
  6. Verfahren gemäß Anspruch 5, bei dem die Zeitspanne zeitlich an den Erfassungszeitpunkt anschließt und einer Ermittlungsdauer der Position der Objektmarkierung (114) aus der Umfeldinformation entspricht.
  7. Verfahren gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Bestimmens (306) einer korrigierten Position der Objektmarkierung (114) basierend auf der Nachführinformation und der Position der Objektmarkierung.
  8. Verfahren gemäß Anspruch 7, bei dem die Anzeigeeinrichtung (112) als eine Sichtfeldanzeige eines Fahrzeugs (100) oder als ein Bildschirm ausgebildet ist, und mit einem Schritt des Ausgebens (308) der korrigierten Position der Objektmarkierung (114) an einer Schnittstelle zu der Sichtfeldanzeige oder dem Bildschirm.
  9. Vorrichtung zur Nachführung einer Position einer Objektmarkierung (114) zum Markieren eines Objekts (106) auf einer Anzeigeeinrichtung (112), wobei die Position der Objektmarkierung basierend auf einer Umfeldinformation ermittelt wird, die eine von einer Umfelderfassungseinrichtung (102) bereitgestellte Information über ein sich im Sichtbereich der Umfelderfassungseinrichtung befindliches Objekt repräsentiert, wobei die Vorrichtung das folgende Merkmal aufweist: eine Einrichtung zum Bestimmen einer Nachführinformation zum Nachführen der Position der Objektmarkierung auf der Anzeigeeinrichtung, basierend auf einer Bewegung des Fahrzeugs (100), wobei die Bewegung eine Lageveränderung des Objekts (106) in Bezug auf die Umfelderfassungseinrichtung (102) bewirkt.
  10. Vorrichtung gemäß Anspruch 9, mit einer Einrichtung zum Ermitteln der Position der Objektmarkierung, basierend auf der Umfeldinformation, und einer Einrichtung zum Ermitteln der Bewegung der Umfelderfassungseinrichtung (102).
  11. Computerprogrammprodukt mit Programmcode zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 8, wenn das Programm auf einer Vorrichtung ausgeführt wird.
DE102010003850A 2010-04-12 2010-04-12 Verfahren und Vorrichtung zur Nachführung einer Position einer Objektmarkierung Ceased DE102010003850A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102010003850A DE102010003850A1 (de) 2010-04-12 2010-04-12 Verfahren und Vorrichtung zur Nachführung einer Position einer Objektmarkierung
CN201110089560.5A CN102211523B (zh) 2010-04-12 2011-04-11 用于跟踪对象标记位置的方法和装置
KR1020110033869A KR101805377B1 (ko) 2010-04-12 2011-04-12 대상물 마킹의 위치를 트래킹하기 위한 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010003850A DE102010003850A1 (de) 2010-04-12 2010-04-12 Verfahren und Vorrichtung zur Nachführung einer Position einer Objektmarkierung

Publications (1)

Publication Number Publication Date
DE102010003850A1 true DE102010003850A1 (de) 2011-10-13

Family

ID=44657956

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010003850A Ceased DE102010003850A1 (de) 2010-04-12 2010-04-12 Verfahren und Vorrichtung zur Nachführung einer Position einer Objektmarkierung

Country Status (3)

Country Link
KR (1) KR101805377B1 (de)
CN (1) CN102211523B (de)
DE (1) DE102010003850A1 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012212015A1 (de) * 2012-07-10 2014-05-22 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zum Betreiben einer oder mehrerer optischer Anzeigevorrichtungen eines Fahrzeugs
DE102012214903A1 (de) * 2012-08-22 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Head-up-Displays eines Fahrzeugs und Bildermittlungssystem für das Head-up-Display
US9377322B2 (en) 2012-07-10 2016-06-28 Bayerische Motoren Werke Aktiengesellschaft Method for operating an optical display device of a vehicle
DE102015208738A1 (de) * 2015-05-12 2016-11-17 Volkswagen Aktiengesellschaft Head-up-Display für ein Fahrzeug
DE102015109027A1 (de) * 2015-06-08 2016-12-08 Denso Corporation Head-Up Display mit situationsbasierter Anpassung der Darstellung von virtuellen Bildinhalten
DE102015116160A1 (de) 2015-09-24 2017-03-30 Denso Corporation Head-Up Display mit situationsbasierter Anpassung der Darstellung von virtuellen Bildinhalten
DE102017216897A1 (de) * 2017-09-25 2019-03-28 Continental Automotive Gmbh Head-Up-Display
DE102018201769A1 (de) * 2018-02-06 2019-08-08 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-up-Display-Vorrichtung für ein Kraftfahrzeug
US11112604B2 (en) 2017-09-25 2021-09-07 Continental Automotive Gmbh Head-up display

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202020103679U1 (de) * 2020-06-25 2020-07-06 Soft2Tec Gmbh Vorrichtung zur Lage- und Positionserkennung von Markierungen und Computerprogrammprodukt
CN113119975B (zh) * 2021-04-29 2023-03-24 东风汽车集团股份有限公司 距离标识显示方法、装置、设备及可读存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008026397A1 (de) 2007-06-05 2009-01-29 GM Global Technology Operations, Inc., Detroit Radar-, Lidar- und Kamera-unterstützte Verfahren zur Schätzung der Fahrzeugdynamik

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0894756A (ja) * 1994-09-21 1996-04-12 Nippondenso Co Ltd 車間距離表示装置及びターゲットクルーズ
JP4334686B2 (ja) * 1999-07-07 2009-09-30 本田技研工業株式会社 車両の画像表示装置
US6535114B1 (en) * 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
JP4134785B2 (ja) * 2003-03-28 2008-08-20 株式会社デンソー 表示装置
JP2008034981A (ja) * 2006-07-26 2008-02-14 Fujitsu Ten Ltd 画像認識装置、画像認識方法、歩行者認識装置および車両制御装置
JP5008611B2 (ja) * 2008-06-27 2012-08-22 カルソニックカンセイ株式会社 車両用表示装置
JP5062088B2 (ja) * 2008-08-01 2012-10-31 株式会社デンソー 車両用表示装置
JP5458764B2 (ja) * 2008-09-29 2014-04-02 日産自動車株式会社 情報提示装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008026397A1 (de) 2007-06-05 2009-01-29 GM Global Technology Operations, Inc., Detroit Radar-, Lidar- und Kamera-unterstützte Verfahren zur Schätzung der Fahrzeugdynamik

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2872943B1 (de) * 2012-07-10 2019-10-02 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zum betreiben mehrerer optischer anzeigevorrichtungen eines fahrzeugs
US9377322B2 (en) 2012-07-10 2016-06-28 Bayerische Motoren Werke Aktiengesellschaft Method for operating an optical display device of a vehicle
US9529193B2 (en) 2012-07-10 2016-12-27 Bayerische Motoren Werke Aktiengesellschaft Device for operating one or more optical display devices of a vehicle
DE102012212015A1 (de) * 2012-07-10 2014-05-22 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zum Betreiben einer oder mehrerer optischer Anzeigevorrichtungen eines Fahrzeugs
DE102012214903A1 (de) * 2012-08-22 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Head-up-Displays eines Fahrzeugs und Bildermittlungssystem für das Head-up-Display
US9849835B2 (en) 2012-08-22 2017-12-26 Bayerische Motoren Werke Aktiengesellschaft Operating a head-up display of a vehicle and image determining system for the head-up display
DE102015208738A1 (de) * 2015-05-12 2016-11-17 Volkswagen Aktiengesellschaft Head-up-Display für ein Fahrzeug
DE102015208738B4 (de) * 2015-05-12 2018-11-08 Volkswagen Aktiengesellschaft Head-up-Display für ein Fahrzeug
DE102015109027A1 (de) * 2015-06-08 2016-12-08 Denso Corporation Head-Up Display mit situationsbasierter Anpassung der Darstellung von virtuellen Bildinhalten
DE102015116160A1 (de) 2015-09-24 2017-03-30 Denso Corporation Head-Up Display mit situationsbasierter Anpassung der Darstellung von virtuellen Bildinhalten
DE102015116160B4 (de) 2015-09-24 2022-10-13 Denso Corporation Head-Up Display mit situationsbasierter Anpassung der Darstellung von virtuellen Bildinhalten
DE102017216897A1 (de) * 2017-09-25 2019-03-28 Continental Automotive Gmbh Head-Up-Display
US11112604B2 (en) 2017-09-25 2021-09-07 Continental Automotive Gmbh Head-up display
DE102018201769A1 (de) * 2018-02-06 2019-08-08 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-up-Display-Vorrichtung für ein Kraftfahrzeug
DE102018201769B4 (de) 2018-02-06 2023-08-24 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-up-Display-Vorrichtung für ein Kraftfahrzeug sowie Kraftfahrzeug

Also Published As

Publication number Publication date
KR20110114485A (ko) 2011-10-19
KR101805377B1 (ko) 2017-12-06
CN102211523A (zh) 2011-10-12
CN102211523B (zh) 2016-03-16

Similar Documents

Publication Publication Date Title
DE102010003850A1 (de) Verfahren und Vorrichtung zur Nachführung einer Position einer Objektmarkierung
DE102015111535B4 (de) Algorithmus zur genauen Krümmungsschätzung für die Bahnplanung von autonom fahrenden Fahrzeugen
DE102012219834B4 (de) Spurverfolgungssystem
DE112017003916T5 (de) Head-Up-Display-Vorrichtung, Anzeigesteuerverfahren und Steuerprogramm
DE102013221696A1 (de) Verfahren und Vorrichtung zum Ermitteln eines Höhenverlaufes einer vor einem Fahrzeug liegenden Straße
DE102017107396A1 (de) Testverfahren und Testvorrichtung für Fahrerassistenzsysteme
EP3129820A1 (de) Lokalisierung eines head-mounted displays (hmd) im fahrzeug
DE102004057947B4 (de) Verfahren zur Funktionsprüfung eines kraftfahrzeugseitig integrierten Fahrerassistenzsystems
WO2012152475A1 (de) Verfahren und vorrichtung zur kalibrierung einer projektionseinrichtung eines fahrzeugs
DE102018201509A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102014008152A1 (de) Verfahren und Vorrichtung zur augmentierten Darstellung mindstens einer Zusatzinformation in mindestens einem Bild einer Umgebung
DE102011055795A1 (de) Verfahren zur Ermittlung eines drohenden Überschlags eines Fahrzeugs
WO2014008968A1 (de) Verfahren zum ermitteln einer position eines fahrzeugs und fahrzeug
DE112017007019T5 (de) Fahrzeuganzeigesteuervorrichtung
DE102014200407A1 (de) Verfahren und Vorrichtung zum Betreiben eines Sichtfeldanzeigegeräts
DE102013010818A1 (de) Verfahren und Fahrerassistenzsystem zur Einblendung von Texturen in eine Abbildung eines sich vor einem Fahrzeug befindlichen Straßenverlaufs und/oder in ein Sichtfeld eines Fahrers eines Fahrzeugs
DE112017007631T5 (de) Anzeigesystem und Anzeigeverfahren
DE102015212664A1 (de) Kraftfahrzeug mit einem automatischen Fahrsystem
DE112014007007T5 (de) Informationsanzeige-Steuersystem und Verfahren zum Steuern einer Anzeige einer Information
DE102010003851A1 (de) Verfahren und Informationssystem zum Markieren eines Zielorts für ein Fahrzeug
EP2888623B1 (de) Betreiben eines head-up-displays eines fahrzeugs und bildermittlungssystem für das head-up-display
DE10359241A1 (de) Fahrunterstützungssystem, Fahrunterstützungsvorrichtung und Fahrunterstützungsverfahren für ein Fahrzeug
EP3685123A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug
DE102008025773A1 (de) Verfahren zur Schätzung eines Orts- und Bewegungszustands eines beobachteten Objekts
DE102014207398A1 (de) Objektassoziation zur kontaktanalogen Anzeige auf einem HMD

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B60K0035000000

Ipc: B60R0016020000

R002 Refusal decision in examination/registration proceedings
R016 Response to examination communication
R003 Refusal decision now final