DE102021110477A1 - Dynamische anpassung eines bildes mit erweiterter realität - Google Patents

Dynamische anpassung eines bildes mit erweiterter realität Download PDF

Info

Publication number
DE102021110477A1
DE102021110477A1 DE102021110477.7A DE102021110477A DE102021110477A1 DE 102021110477 A1 DE102021110477 A1 DE 102021110477A1 DE 102021110477 A DE102021110477 A DE 102021110477A DE 102021110477 A1 DE102021110477 A1 DE 102021110477A1
Authority
DE
Germany
Prior art keywords
image
vehicle
processor
road surface
adjusted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021110477.7A
Other languages
English (en)
Inventor
Michael Baltaxe
Dan Levi
Omer Tsimhoni
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102021110477A1 publication Critical patent/DE102021110477A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/166Navigation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • Traffic Control Systems (AREA)
  • Instrument Panels (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Ein System und ein Verfahren zum Anpassen eines Bildes mit erweiterter Realität (AR-Bild) umfassen eine nach vorne gerichtete Kamera in einem Fahrzeug. Die Kamera nimmt ein Bild auf, das die Fahrbahnoberfläche vor dem Fahrzeug umfasst. Das System umfasst außerdem einen Prozessor, um Fahrspurlinien der Fahrbahnoberfläche in drei Dimensionen zu erkennen und eine Interpolation zur Bestimmung einer Geländeebene der Fahrbahnoberfläche unter Verwendung der Fahrspurlinien durchzuführen und um das AR-Bild zum Erhalten eines angepassten AR-Bildes so anzupassen, dass alle Punkte des angepassten AR-Bildes mit Punkten auf der Geländeebene übereinstimmen.

Description

  • EINLEITUNG
  • Der Gegenstand der Offenbarung bezieht sich auf die dynamische Anpassung eines Bildes mit erweiterter Realität.
  • Fahrzeuge (z. B. Personenkraftwagen, Lastkraftwagen, Baumaschinen, landwirtschaftliche Geräte) sind zunehmend so ausgestattet, dass sie Informationen über das Fahrzeug und seine Umgebung erhalten und einer Person im Fahrzeug Informationen bereitstellen. Beispielhafte Schnittstellen umfassen ein Infotainmentsystem und ein Head-up-Display (HUD). Das Infotainmentsystem kann einen Bildschirm umfassen, um eine Karte oder ein von einer Kamera des Fahrzeugs aufgenommenes Bild anzuzeigen. Beim HUD handelt es sich um eine Projektion eines Bildes z. B. auf die Windschutzscheibe des Fahrzeugs. Ein Bild mit erweiterter Realität (AR-Bild) ist ein Bild, das ein Bild der realen Welt weiterentwickelt. Zum Beispiel kann das Bild der vorausliegenden Straße, das von einer Kamera vorne im Fahrzeug aufgenommen wird, mit einem AR-Bild eines Pfeils ergänzt werden, um eine bevorstehende Kurve anzuzeigen. Als weiteres Beispiel kann das HUD, anstatt die Geschwindigkeit oder andere Daten anzuzeigen, ein AR-Bild projizieren, das das, was der Fahrer durch die Windschutzscheibe sieh, erweitert. Straßendynamik oder andere Quellen von Änderungen der relativen Ausrichtung des Fahrzeugs zur Außenwelt können dazu führen, dass das AR-Bild an der falschen Stelle angezeigt wird (z. B. wird der die Richtung anzeigende Pfeil im Kamerabild auf die Seite der Straße projiziert, anstatt auf die Straße). Dementsprechend ist es wünschenswert, eine dynamische Anpassung eines AR-Bildes bereitzustellen.
  • ZUSAMMENFASSUNG
  • Bei einer beispielhaften Ausgestaltung umfasst ein System zur Anpassung eines Bildes mit erweiterter Realität (AR-Bild) eine nach vorne gerichtete Kamera in einem Fahrzeug, um ein Bild zu erhalten, das eine Fahrbahnoberfläche vor dem Fahrzeug umfasst. Das System umfasst außerdem einen Prozessor, um Fahrspurlinien der Fahrbahnoberfläche in drei Dimensionen zu erkennen und eine Interpolation zur Bestimmung einer Geländeebene der Fahrbahnoberfläche unter Verwendung der Fahrspurlinien durchzuführen und um das AR-Bild zum Erhalten eines angepassten AR-Bildes so anzupassen, dass alle Punkte des angepassten AR-Bildes mit Punkten auf der Geländeebene übereinstimmen.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale erhält der Prozessor ein Basisbild, das die Fahrbahnoberfläche zeigt.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale fügt der Prozessor das angepasste AR-Bild dem Basisbild zur Anzeige für einen Fahrer des Fahrzeugs hinzu.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale erhält der Prozessor das Basisbild von der Kamera oder einer zweiten nach vorne gerichteten Kamera im Fahrzeug.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale überwacht der Prozessor die Augenposition eines Fahrers des Fahrzeugs.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale bestimmt der Prozessor einen Bereich des Head-up-Displays auf einer Windschutzscheibe des Fahrzeugs, der der Augenposition des Fahrers entspricht.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale projiziert der Prozessor das angepasste AR-Bild in den Bereich des Head-up-Displays.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale passt der Prozessor das AR-Bild auf Grundlage einer Rotation und einer Translation der Punkte auf der Geländeebene an.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale erkennt der Prozessor aus dem Bild ein Objekt auf der Fahrbahnoberfläche direkt vor dem Fahrzeug.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale wählt oder erzeugt der Prozessor die Größe des angepassten AR-Bildes auf Grundlage der Fahrbahnoberfläche zwischen dem Fahrzeug und einer Position des Objekts.
  • Bei einer weiteren beispielhaften Ausgestaltung umfasst ein Verfahren zum Anpassen eines Bildes mit erweiterter Realität (AR-Bild) das Aufnehmen eines Bildes durch eine nach vorne gerichtete Kamera in einem Fahrzeug, wobei das Bild eine Fahrbahnoberfläche vor dem Fahrzeug umfasst. Das Verfahren umfasst außerdem das Erfassen von Fahrspurlinien der Fahrbahnoberfläche in drei Dimensionen und das Durchführen einer Interpolation unter Verwendung der Fahrspurlinien, um eine Geländeebene der Fahrbahnoberfläche zu bestimmen. Das AR-Bild wird angepasst, um ein angepasstes AR-Bild zu erhalten, so dass alle Punkte des angepassten AR-Bildes mit Punkten auf der Geländeebene übereinstimmen.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale umfasst das Verfahren außerdem das Erhalten eines Basisbildes, das die Fahrbahnoberfläche zeigt.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale umfasst das Verfahren außerdem, dass der Prozessor das angepasste AR-Bild zum Basisbild hinzufügt, um es einem Fahrer des Fahrzeugs anzuzeigen.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale erfolgt das Aufnehmen des Basisbildes durch die Kamera oder eine zweite nach vorne gerichtete Kamera im Fahrzeug.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale umfasst das Verfahren außerdem, dass der Prozessor die Augenposition eines Fahrers des Fahrzeugs überwacht.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale umfasst das Verfahren, dass der Prozessor einen Bereich des Head-up-Displays auf einer Windschutzscheibe des Fahrzeugs bestimmt, der der Augenposition des Fahrers entspricht.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale umfasst das Verfahren außerdem, dass der Prozessor das angepasste AR-Bild in den Bereich des Head-up-Displays projiziert.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale beruht das Anpassen des AR-Bildes auf einer Rotation und einer Translation der Punkte auf der Geländeebene.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale umfasst das Verfahren außerdem, dass der Prozessor aus dem Bild ein Objekt auf der Fahrbahnoberfläche direkt vor dem Fahrzeug erkennt.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale umfasst das Verfahren außerdem, dass der Prozessor die Größe des angepassten AR-Bildes auf Grundlage der Fahrbahnoberfläche zwischen dem Fahrzeug und einer Position des Objekts auswählt oder erzeugt.
  • Die obigen Merkmale und Vorteile sowie weitere Merkmale und Vorteile der Offenbarung sind aus der folgenden detaillierten Beschreibung leicht ersichtlich, wenn sie in Verbindung mit den beigefügten Zeichnungen betrachtet werden.
  • Figurenliste
  • Weitere Merkmale, Vorteile und Details sind nur beispielhaft in der folgenden ausführlichen Beschreibung aufgeführt, wobei sich die ausführliche Beschreibung auf die Zeichnungen bezieht, in denen:
    • 1 ein Blockdiagramm eines Fahrzeugs zeigt, das eine dynamische Anpassung eines Bildes mit erweiterter Realität (AR-Bild) gemäß einer oder mehrerer Ausgestaltungen durchführt,
    • 2 die Anpassung eines AR-Bildes gemäß einer oder mehrerer Ausgestaltungen veranschaulicht,
    • 3 ein Fahrzeug zeigt, das eine dynamische Anpassung eines AR-Bildes gemäß einer oder mehrerer Ausgestaltungen durchführt,
    • 4 einen Ablauf eines Verfahrens zur Durchführung einer dynamischen Anpassung eines AR-Bildes gemäß verschiedener Ausgestaltungen zeigt,
    • 5 Aspekte der Extraktion der Fahrbahngeometrie zur dynamischen Anpassung eines AR-Bildes gemäß einer oder mehrerer Ausgestaltungen zeigt,
    • 6 Vorgänge veranschaulicht, die beim Anpassen eines als Head-up-Display angezeigten AR-Bildes stattfinden,
    • 7 Vorgänge veranschaulicht, die beim Anpassen eines auf einem Basisbild angezeigten AR-Bildes stattfinden, und
    • 8 die Aufteilung einer Geländeebene in Teilebenen zur Verbesserung der Funktion der Anpassung des AR-Bildes gemäß einer oder mehrerer Ausgestaltungen veranschaulicht.
  • DETAILLIERTE BESCHREIBUNG
  • Die folgende Beschreibung hat lediglich beispielhaften Charakter und ist nicht dazu bestimmt, die vorliegende Offenbarung, ihre Anwendung oder ihren Gebrauch einzuschränken. Es versteht sich, dass in den Zeichnungen entsprechende Bezugszeichen gleiche oder entsprechende Teile und Merkmale bezeichnen.
  • Wie bereits erwähnt, kann ein AR-Bild zu einem Bild der realen Welt hinzugefügt werden (das z. B. von einer Fahrzeugkamera aufgenommen und von dem Infotainmentsystem angezeigt wird) oder auf eine Ansicht der realen Welt projiziert werden (z. B. in Form eines HUD). Ausgestaltungen der hierin beschriebenen Systeme und Verfahren umfassen eine dynamische Anpassung des AR-Bildes. Während der Fahrt können AR-Bilder auf einer Fahrbahnoberfläche oder einem anderen Straßenmerkmal angezeigt werden. Wie ebenfalls bereits erwähnt, wird ein AR-Bild aufgrund von Änderungen der relativen Ausrichtung des Fahrzeugs zur Fahrbahnoberfläche möglicherweise an der falschen Stelle auf dem Bild der realen Welt oder in der Ansicht der realen Welt dargestellt. Dies kann passieren, wenn die vorausliegende Straße nicht eben ist. Die relative Ausrichtung kann sich auch ändern, wenn das Fahrzeug einen Neigungswinkel aufweist (z. B. durch eine schwere Ladung im Kofferraum), selbst wenn die Straße eben ist. Auch eine Änderung der Position des Fahrzeugs relativ zur Straße kann zu dem Problem führen. Schließlich können andere Fahrzeuge oder Objekte, die sich im Sichtfeld befinden, eine Änderung der Position oder anderer Aspekte des AR-Symbols erfordern.
  • Ein früherer Ansatz zur Lösung des Problems der relativen Orientierung umfasst die vorherige Erstellung einer genauen Geländekarte. Dann ist bei genauer Ortsbestimmung und Neigung des Fahrzeugs die Ausrichtung des Fahrzeugs zur Fahrbahnoberfläche an einer bestimmten Position bekannt. Dies erfordert jedoch das Überfahren aller möglichen Geländeformen, um die Geländekarte zu erhalten. Außerdem sind Sensoren für die Informationen über die Ortsbestimmung und Neigung erforderlich. Ferner kann die Anwesenheit anderer Fahrzeuge oder Objekte in Echtzeit bei diesem Ansatz nicht berücksichtigt werden. Ein anderer früherer Ansatz umfasst die Verwendung eines dreidimensionalen Sensors, wie z. B. eines Lidar-Systems (Light Detection and Ranging). Allerdings sind Lidar-Systeme nicht generell in Fahrzeugen verfügbar und die Verarbeitung der vom Lidar-System gewonnenen Daten ist in der Regel prozessorintensiver als die Verarbeitung der von anderen Sensoren (z. B. Kamera, Radarsystem) gewonnenen Daten.
  • Gemäß einer oder mehrerer hierin beschriebener Ausgestaltungen wird ein einzelnes Bild von einer einzelnen Kamera verwendet, um Informationen über die Fahrbahngeometrie oder -struktur für einen Abschnitt der Fahrbahn zu erhalten. Bei der Kamera kann es sich um eine nach vorne gerichtete Kamera handeln, die bereits allgemein in Fahrzeugen zur Verfügung steht. Zusätzliche Techniken zur Reduzierung der Verzögerung und Verbesserung der Genauigkeit werden ebenfalls vorgestellt. Gemäß einer beispielhaften Ausgestaltung wird die Fahrbahngeometrie für anstehende Straßenabschnitte bestimmt, die von der Kamera erfasst werden. Gemäß einer weiteren beispielhaften Ausgestaltung kann ein großer Straßenabschnitt in Teilabschnitte unterteilt werden, so dass die Fahrbahngeometrie jedes Teilabschnitts genauer bestimmt werden kann.
  • Gemäß einer beispielhaften Ausgestaltung zeigt 1 ein Blockdiagramm eines Fahrzeugs 100, das eine dynamische Anpassung eines AR-Bildes 210 durchführt (2). Das in 1 gezeigte beispielhafte Fahrzeug 100 ist ein Automobil 101. Auf der Fahrbahn 160, auf der das Fahrzeug 100 gezeigt ist, sind Fahrspurlinien 150 angegeben. Das Fahrzeug 100 umfasst eine Steuerung 110, die die dynamische Anpassung des AR-Bildes 210 durchführt, wie hierin beschrieben. Die Steuerung 110 kann außerdem Funktionen des elektronischen Steuergeräts (ECU) des Fahrzeugs 100 ausführen oder mit dem elektronischen Steuergerät kommunizieren. Beispielhafte Funktionen des elektronischen Steuergeräts können halbautonome Aktionen wie automatisches Bremsen und adaptive Geschwindigkeitsregelung umfassen. Die Steuerung 110 umfasst Verarbeitungsschaltungen, die eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor (gemeinsam, dediziert oder Gruppe) und einen Speicher, der ein oder mehrere Software- oder Firmwareprogramme ausführt, eine kombinatorische Logikschaltung und/oder andere geeignete Komponenten umfassen können, die die beschriebene Funktionalität bereitstellen. Es sind drei beispielhafte (nicht einschränkend) nach vorne gerichtete Kameras 120a, 120b, 120c (allgemein als 120 bezeichnet) gezeigt.
  • Die Steuerung 110 kann ein Bild 220 (2) der Fahrbahn 160 vor dem Fahrzeug 100 erhalten, z. B. von der Kamera 120b, um die dynamische Anpassung des AR-Bildes 210 durchzuführen. Eine der anderen Kameras 120a, 120c oder die Kamera 120b selbst kann ein Bild 220 (zu Erläuterungszwecken als Basisbild 225 (2) bezeichnet) bereitstellen, zu dem das AR-Bild 210 hinzugefügt wird, um ein Gesamtbild 230 zu erzeugen (2). Das heißt, die Kamera 120, die das Bild 220 aufnimmt, das zur Bestimmung der Geometrie der Fahrbahn 160 verwendet wird, um die Anpassung des AR-Bildes 210 zu ermöglichen, kann, muss aber nicht dieselbe Kamera 120 sein, die das Basisbild 225 aufnimmt, das durch das AR-Bild 210 ergänzt wird, um das Gesamtbild 230 zu erzeugen. Bei der Verwendung unterschiedlicher Kameras 120 müssen die relativen Positionen der beiden Kameras 120 im Fahrzeug 100 berücksichtigt werden, um sicherzustellen, dass das AR-Bild 210, das auf Grundlage eines Bildes 220 der einen Kamera 120 angepasst wird, an der richtigen Stelle in das von einer anderen Kamera 120 gewonnene Basisbild 225 eingefügt wird. Die Nummern und Positionen der in 1 gezeigten Kameras 120 sind lediglich beispielhaft. Bei alternativen Ausgestaltungen kann eine andere Kamera 120, die sich an einer anderen Stelle befindet und ein Bild 220 der Fahrbahn 160 vor dem Fahrzeug 100 aufnimmt, verwendet werden, um die dynamische Anpassung des AR-Bildes 210 durchzuführen.
  • Auf der Windschutzscheibe 135 des Fahrzeugs 100 ist ein HUD-Bereich 130 gezeigt. Der HUD-Bereich 130 entspricht der Position des Auges 310 (3) des Fahrers 330 (3), so dass die im HUD-Bereich 130 projizierten Bilder für den Fahrer 330 sichtbar sind. Da sich die Position des Auges 310 bewegt, bewegt sich die Position des HUD-Bereichs 130 auf der Windschutzscheibe 135 auf Grundlage der Überwachung des Auges 310. Ein Infotainmentsystem 140 ist im Armaturenbrett des Fahrzeugs 100 unterhalb der Windschutzscheibe 135 gemäß der Ansicht in 1 gezeigt. Das Infotainmentsystem 140 umfasst ein Display 145, das ein von einer der Kameras 120 aufgenommenes Basisbild 225 zusammen mit einem AR-Bild 210 anzeigen kann, das gemäß einer oder mehrerer Ausgestaltungen angepasst ist. Das Basisbild 225 und das angepasste AR-Bild 210 (d. h. das Gesamtbild 230) können gemäß alternativer Ausgestaltungen auf einem Tablet oder Telefon oder einem beliebigen Gerät 115 angezeigt werden, das kabelgebunden oder drahtlos mit der Steuerung 110 verbunden ist. Das Gerät 115 kann sich, wie gezeigt, innerhalb des Fahrzeugs 100 oder außerhalb des Fahrzeugs 100 befinden. Eine beispielhafte Anpassung eines AR-Bildes 210 ist in 2 veranschaulicht.
  • 2 veranschaulicht die Anpassung eines AR-Bildes gemäß einer oder mehrerer Ausgestaltungen. Es wird weiterhin Bezug auf 1 genommen. Es sind zwei Gesamtbilder 230a, 230b (allgemein als 230 bezeichnet) gezeigt. Ein Gesamtbild 230 kann sich auf eine reale Ansicht einer Fahrbahn 160 mit einem darauf projizierten AR-Bild 210 in einem HUD-Bereich 130 beziehen. Gemäß dem in 2 gezeigten beispielhaften Fall kann sich ein Gesamtbild 230 stattdessen auf ein Basisbild 225 der Fahrbahn 160 beziehen, wobei das AR-Bild 210 auf dem Display 145 des Infotainmentsystems 140 oder einem Bildschirm eines anderen Geräts (z. B. Tablet, Telefon) hinzugefügt und angezeigt wird. Wie bereits erwähnt, kann ein Bild 220, das mit einer der Kameras 120 aufgenommen wurde, zur Bestimmung der Fahrbahngeometrie verwendet werden. Wie außerdem bereits erwähnt, kann ein mit einer der Kameras 120 aufgenommenes Bild 220 als Basisbild 225 verwendet werden, zu dem das AR-Bild 210 hinzugefügt wird, um ein Gesamtbild 230 zu erzeugen. Das Gesamtbild 230a zeigt, dass die Fahrbahn 160 ansteigt (d. h. die Steigung der Fahrbahn 160 nimmt vor dem Fahrzeug 100 zu) und sich dann abflacht und dass das AR-Bild 210a ohne Anpassung, die diese Steigungsänderung berücksichtigt, falsch positioniert ist. Wie das Gesamtbild 230a zeigt, scheint sich das AR-Bild 210a des Pfeils über die Fahrbahn 160 zu erheben, anstatt vollständig auf die Oberfläche der Fahrbahn 160 projiziert zu werden.
  • Das Gesamtbild 230b zeigt die gleiche Fahrbahn 160 vor dem Fahrzeug 100. Wie 2 zeigt, wird das AR-Bild 210b jedoch aus dem AR-Bild 210a so angepasst, dass es vollständig auf der Oberfläche der Fahrbahn 160 erscheint. Die Oberfläche der Fahrbahn 160 wird als Ziel für die Projektion des AR-Bildes 210 zu Erläuterungszwecken besonders erörtert. Eine Änderung der Ausrichtung des Fahrzeugs 100 zur Fahrbahn 160 kann sich auch auf die Platzierung eines AR-Bildes 210 z. B. auf einem Wegweiser neben der Fahrbahn 160 oder an einer anderen Stelle auswirken. Wie unter Bezugnahme auf 4 weiter erörtert, umfasst die Bestimmung der relativen Orientierung das Bestimmen der Geometrie der Fahrbahn 160.
  • 3 zeigt ein Fahrzeug 100, das eine dynamische Anpassung eines AR-Bildes 210 gemäß einer oder mehrerer Ausgestaltungen durchführt. Das Fahrzeug 100 ist in einer Seitenansicht zwischen den Fahrspurlinien 150 gezeigt. In dem in 3 gezeigten beispielhaften Fall wird das AR-Bild 210 in dem HUD-Bereich 130 der Windschutzscheibe 135 angezeigt. In diesem Fall gibt es also kein Basisbild 225, zu dem das AR-Bild 210 hinzugefügt wird. Stattdessen erscheint das AR-Bild 210 in dem HUD-Bereich 130 der Windschutzscheibe 135 direkt auf der realen Ansicht der Fahrbahn 160. 3 zeigt ein Objekt 320 (z. B. ein anderes Fahrzeug 100) auf der vorausliegenden Fahrbahn 160. Neben der Fahrbahngeometrie muss auch dieses andere Objekt 320 bei der Anpassung des AR-Bildes 210 berücksichtigt werden, wie unter Bezugnahme auf 4 weiter erörtert wird. Damit das AR-Bild 210 an der richtigen Stelle erscheint, wird der HUD-Bereich 130 der Windschutzscheibe 135, der der Position der Augen 310 des Fahrers entspricht, bestimmt, indem die Augenposition des Fahrers durch Verfolgung der Position eines oder beider Augen 310 des Fahrers 330 mit einem bekannten Kopf- und Augen-Tracking-Verfahren ermittelt wird. Im Gegensatz zu einer Kamera 120, die Bilder 220 aufnimmt, ist es unwahrscheinlich, dass das Auge 310 in einer Position in Bezug auf das Fahrzeug 100 bleibt. Die Anpassung des AR-Bildes 210 auf Grundlage der Geometrie der Fahrbahn 160 umfasst somit zusätzlich die Echtzeiterfassung der Bewegung des Auges 310, wie es unter Bezugnahme auf 4 und 6 erörtert wird.
  • 4 zeigt den Ablauf eines Verfahrens 400 zur Durchführung einer dynamischen Anpassung eines AR-Bildes 210 gemäß verschiedener Ausgestaltungen. Der Ablauf kann z. B. von der Steuerung 110 durchgeführt werden. In Block 410 bezieht sich das Aufnehmen eines Bildes 220 auf das Aufnehmen eines Bildes der Fahrbahn 160 vor dem Fahrzeug 100 durch eine der nach vorne gerichteten Kameras 120, die zum Beispiel in 1 gezeigt sind. In Block 420 wird das Extrahieren der Fahrbahngeometrie unter Bezugnahme auf 5 weiter erörtert. Es wird das Koordinatensystem N G
    Figure DE102021110477A1_0001
    der Geländeebene PG ermittelt. In Block 420 werden zusätzlich zur Fahrbahngeometrie auch Informationen über Objekte 320 (z. B. andere Fahrzeuge 100) auf der Fahrbahn 160 gewonnen. Diese Informationen werden verwendet, um zu vermeiden, dass ein AR-Bild 210 auf das Objekt 320 projiziert wird, wenn es eigentlich auf eine Oberfläche der Fahrbahn 160 projiziert werden soll.
  • In Block 430 kann sich das Auswählen des AR-Bildes 210 auf das Erzeugen des Bildes oder das Auswählen des Bildes aus vordefinierten Bildern beziehen. Die extrahierten Informationen über die Fahrbahngeometrie und die in Block 420 gewonnenen Informationen über das Objekt 320 können das Erzeugen oder Auswählen des AR-Bildes 210 beeinflussen. Befindet sich beispielsweise ein Objekt 320 (z. B. ein anderes Fahrzeug 100) direkt vor dem Fahrzeug 100, können die Dimensionen der Oberfläche der Fahrbahn 160, auf die das AR-Bild 210 projiziert wird, reduziert werden und somit die Größe des AR-Bildes 210, das erzeugt oder ausgewählt wird, einschränken.
  • In Block 440 wird eine Homographie verwendet, um das in Block 430 ausgewählte AR-Bild 210 auf eine korrekte Position eines Basisbildes 225 oder des HUD-Bereichs 130 zu projizieren. Eine Homographie setzt Pixelkoordinaten in zwei Bildern zueinander in Beziehung. Somit stehen zwei beliebige Bilder der gleichen ebenen Fläche durch eine Homographie zueinander in Beziehung. Insbesondere werden in Block 440 die Rotation und die Translation zwischen zwei Perspektiven - von denen eine senkrecht zu der Geländeebene PG steht (d. h. aus der Vogelperspektive) und die andere entweder die Perspektive der Kamera, die das Basisbild 225 erzeugt, oder die Perspektive des Fahrers ist - bestimmt, wie weiter unten beschrieben wird. Der Vorgang in Block 440 erfordert die Gewinnung von Informationen aus Block 450, die aus der Überwachung des Auges 310 oder der Gewinnung eines Basisbildes 225 resultieren. Dann wird ein Punkt Q in der realen Welt auf den HUD-Bereich 130 projiziert oder ein Punkt Q in der realen Welt wird auf das Koordinatensystem der Kamera 120 projiziert, die das Basisbild 225 aufgenommen hat. Dieser Vorgang in Block 440 ist die Anpassung des AR-Bildes 210, die die relative Ausrichtung des Fahrzeugs 100 zur Fahrbahn 160 berücksichtigt und unter Bezugnahme auf 6 und 7 näher beschrieben wird. In Block 460 umfasst das Anzeigen des Gesamtbildes 230 das Projizieren des angepassten AR-Bildes 210 in den HUD-Bereich 130 oder das Bereitstellen des angepassten AR-Bildes 210 mit dem Basisbild 225 im Display 145 oder auf einem Bildschirm eines Gerätes 115.
  • 5 zeigt Aspekte des Extrahierens der Fahrbahngeometrie in Block 420 ( 4) zur dynamischen Anpassung eines AR-Bildes in Block 440 gemäß einer oder mehrerer Ausgestaltungen. Das in Block 410 von einer der nach vorne gerichteten Kameras 120 aufgenommene Einzelbild 220 wird verwendet, um die Fahrspurlinien 150 in dem Bild 220 dreidimensional zu erkennen. Die dreidimensionale Fahrspurerkennung im Koordinatensystem der Kamera 120, mit der das Bild 220 aufgenommen wurde, ist bekannt und wird hier nicht näher erläutert. Das Verfahren ist gemäß einem Beispiel in der US-Anmeldung Nr. 16/807,735 beschrieben. Auf Grundlage des Gewinnens der dreidimensionalen Punkte, die den Fahrspurlinien 150 entsprechen, wird durch Interpolation ein dreidimensionaler Punkt Q
    Figure DE102021110477A1_0002
    (Qx, Qy, Qz) auf der durch die Fahrspurlinien 150 definierten Fahrbahn 160 bestimmt (siehe z. B. 1). Insbesondere wird aus zwei Dimensionen des Punktes Q ( Q x , Q y )
    Figure DE102021110477A1_0003
    im Koordinatensystem der Kamera 120 durch Interpolation die dritte Dimension des Punktes Q ( Q z )
    Figure DE102021110477A1_0004
    gewonnen, um die Steigung der Fahrbahn 160 zu berücksichtigen. Bei einem zweidimensionalen Punkt Q
    Figure DE102021110477A1_0005
    (z. B. einem Punkt auf der Fahrbahnoberfläche 160 zwischen den Fahrspurlinien 150) werden die nächstgelegenen Punkte in einer Fahrspurlinie 150 gesucht und ein gewichteter, interpolierter Höhenwert Qz errechnet. Mit {P} als eine Menge der nächstgelegenen Punkte der Fahrspurlinien 150 bis zu Q
    Figure DE102021110477A1_0006
    in der X-Y-Ebene (in 5 gezeigt), ist die Steigung von Q
    Figure DE102021110477A1_0007
    gegeben durch: Q z = p P ( 1 d ( p , Q x , Q y ) ) p z / p P ( 1 d ( p , Q x , Q y ) )
    Figure DE102021110477A1_0008
  • In Gleichung 1 ist, wie gezeigt, p
    Figure DE102021110477A1_0009
    ein Punkt in der Menge {P}, und die Funktion d gibt den euklidischen Abstand zwischen zwei Dimensionen des Punktes p
    Figure DE102021110477A1_0010
    und des Punktes Q
    Figure DE102021110477A1_0011
    an. Die Funktion d ist gegeben durch: d ( p , Q x , Q y ) = ( p x Q x ) 2 + ( p y Q y ) 2
    Figure DE102021110477A1_0012
  • 6 und 7 veranschaulichen die Faktoren, die bei der Anpassung des AR-Bildes 210 auf Grundlage der relativen Ausrichtung des Fahrzeugs 100 zur Fahrbahn 160 verwendet werden (unter der Annahme, dass das AR-Bild 210 auf die Fahrbahn 160 oder ein Basisbild 225 der Fahrbahn 160 projiziert wird). Insbesondere umfasst die Anpassung des AR-Bildes 210 das Projizieren eines Punktes Q
    Figure DE102021110477A1_0013
    in der realen Welt (d. h. auf der Fahrbahn 160) auf einen Punkt q
    Figure DE102021110477A1_0014
    in dem HUD-Bereich 130, wie in 6 gezeigt, oder auf einen Punkt q
    Figure DE102021110477A1_0015
    im Koordinatensystem der Kamera 120, die das Basisbild 225 aufnimmt, wie in 7 gezeigt. In 6 und 7 sind die Fahrspurlinien 150 gezeigt und sowohl die Geländeebene PG als auch das Koordinatensystem N G
    Figure DE102021110477A1_0016
    des Geländes (d. h. der Fahrbahn 160) sind durch einen Pfeil gezeigt, der als beispielhaftes angepasstes AR-Bild 210 projiziert ist. Auf der Geländeebene PG ist ein beispielhafter Punkt Q
    Figure DE102021110477A1_0017
    gezeigt.
  • In 6 ist die Position e
    Figure DE102021110477A1_0018
    eines Auges 310 des Fahrers 330 in dem Fahrzeug 100 gezeigt, ebenso wie der HUD-Bereich 130. Die Ebene PH des HUD-Bereichs und das Koordinatensystem N H
    Figure DE102021110477A1_0019
    sind zusammen mit einem beispielhaften Punkt q
    Figure DE102021110477A1_0020
    in dem HUD-Bereich 130 gezeigt. Der Abstand von der Position e
    Figure DE102021110477A1_0021
    eines Auges 310 des Fahrers 330 zu dem Punkt Q
    Figure DE102021110477A1_0022
    ist ebenfalls mit e Q
    Figure DE102021110477A1_0023
    gezeigt. Die Rotation R und die Translation t
    Figure DE102021110477A1_0024
    des Punktes Q
    Figure DE102021110477A1_0025
    in der realen Welt (d. h. auf der Fahrbahn 160) ergeben einen entsprechenden Punkt q
    Figure DE102021110477A1_0026
    in dem HUD-Bereich 130. Insbesondere gilt: q = [ f x 0 c x 0 f y c y 0 0 1 ] [ R t ] Q
    Figure DE102021110477A1_0027
  • Bei Verwendung der Gleichung 3 zum Anpassen eines AR-Bildes 210, das in dem HUD-Bereich 130 angezeigt wird, ist fein ebener Abstand oder zweidimensionaler Abstand, der durch fx und fy zwischen der Ebene PH des HUD-Bereichs und der Position e
    Figure DE102021110477A1_0028
    eines Auges 310 des Fahrers 330 gegeben ist, wie in 6 gezeigt. Außerdem ist c mit den Komponenten cx und cy der zweidimensionale Abstand zwischen dem Auge 310 und dem Mittelpunkt des HUD-Bereichs 130, wie ebenfalls in 6 gezeigt.
  • In 7 ist die Stelle e
    Figure DE102021110477A1_0029
    des Brennpunkts 120-fp der Kamera 120, die das Basisbild 225 aufnimmt, gezeigt. Gezeigt sind außerdem die Kameraebene Pc und das Koordinatensystem N C
    Figure DE102021110477A1_0030
    sowie ein beispielhafter Punkt q
    Figure DE102021110477A1_0031
    im Koordinatensystem N C
    Figure DE102021110477A1_0032
    der Kamera 120. Die Brennweite f mit den Komponenten fx und fy und der Hauptpunkt c mit den Komponenten cx und cy sind ebenfalls gezeigt. Mit Gleichung 3 können dann die Punkte q
    Figure DE102021110477A1_0033
    für das angepasste AR-Bild 210 im Koordinatensystem N C
    Figure DE102021110477A1_0034
    der Kamera 120 bestimmt werden, um das AR-Bild 210 in den richtigen Teil des Basisbildes 225 einzufügen.
  • Der Vorgang des Anpassens des AR-Bildes 210 kann gemäß beispielhafter Ausgestaltungen effizienter gestaltet werden. Als ein Beispiel für die Effizienz kann der Vorgang in Block 420 vor dem Vorgang in Block 440 durchgeführt werden, wenn ein Bild 220 noch weiter vor dem Fahrzeug 100 aufgenommen wird. Insbesondere kann die folgende Vorberechnung durchgeführt werden: A = [ R t ] Q
    Figure DE102021110477A1_0035
  • A umfasst die geschätzte Rotation R und Translation t
    Figure DE102021110477A1_0036
    der Fahrbahn 160 in Bezug auf die Perspektive, von der aus das Basisbild 225 der Fahrbahn 160 aufgenommen wird (wenn sich das Fahrzeug 100 näher an dem durch das Bild 220 gewonnenen Bereich befindet) und aus der das AR-Bild 210 gezeigt werden soll, in dem beispielhaften Fall z. B. auf einem Display 145. Dann kann zum Zeitpunkt der Anzeige des AR-Bildes 210 bestätigt werden, ob die geschätzte Stellung A innerhalb eines vorgegebenen Schwellenwertes mit der Stellung vor dem Fahrzeug 100 übereinstimmt. Wenn ja, kann der zweite Teil der Berechnung wie folgt durchgeführt werden: q = [ f x 0 c x 0 f y c y 0 0 1 ] A
    Figure DE102021110477A1_0037
  • Auf diese Weise kann die Verzögerungszeit, die mit den Vorgängen des Verfahrens 400 verbunden ist, reduziert werden. 8 veranschaulicht eine weitere Effizienz, die allein oder in Kombination mit der Verwendung von GI. 4 und 5 in die Implementierung des in 4 gezeigten Verfahrens eingebracht werden kann.
  • 8 veranschaulicht die Aufteilung einer Geländeebene PG in Teilebenen 810 zur Verbesserung der Effizienz der Anpassung des AR-Bildes 210 gemäß einer oder mehrerer Ausgestaltungen. Wie 8 zeigt, umfasst die beispielhafte Geländeebene PG drei Änderungen der Steigung, die zu den vier Teilebenen 810-1, 810-2, 810-3, 810-4 (allgemein als 810 bezeichnet) führen. In 8 sind drei Bereiche 820 als Übergangspunkte für die Teilebenen 810 gezeigt. Jeder dieser Bereiche 820 weist in der dreidimensionalen Darstellung der Fahrspurlinien 150, wie in Block 420 ermittelt, eine Krümmung oder Änderung des Steigungsgradienten auf, die einen Schwellenwert überschreitet. Durch die Verwendung der Teilebenen 810 anstelle der gesamten Geländeebene PG wird in Block 440 eine kleine Menge von Homographien (eine für jede Teilebene 810) berechnet und zur Anpassung des AR-Bildes 210 verwendet. Daraus resultiert ein reduzierter Projektionsfehler und ein vertretbarer Rechenaufwand im Vergleich zu einer einzelnen Homographie für die gesamte Geländeebene PG. Die Berechnung einer individuellen Projektion für jeden Punkt bei Verwendung der vollständigen Geländeebene PG wäre zwar genau, ist aber rechnerisch nicht machbar.
  • Während die obige Offenbarung unter Bezugnahme auf beispielhafte Ausgestaltungen beschrieben wurde, ist es unter Fachleuten bekannt, dass verschiedene Änderungen vorgenommen und gleichwertige Elemente ersetzt werden können, ohne vom Anwendungsbereich abzuweichen. Darüber hinaus können viele Modifikationen vorgenommen werden, um eine bestimmte Situation oder ein bestimmtes Material an die Lehren der Offenbarung anzupassen, ohne vom wesentlichen Umfang der Offenbarung abzuweichen. Daher soll die vorliegende Offenbarung nicht auf die besonderen Ausgestaltungen beschränkt sein, sondern alle Ausgestaltungen umfassen, die in ihren Umfang fallen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 16807735 [0038]

Claims (10)

  1. System zum Anpassen eines Bildes mit erweiterter Realität (AR-Bild), wobei das System umfasst: eine nach vorne gerichtete Kamera in einem Fahrzeug, wobei die Kamera dazu ausgelegt ist, ein Bild aufzunehmen, das eine Fahrbahnoberfläche vor dem Fahrzeug umfasst, und einen Prozessor, der dazu ausgelegt ist, Fahrspurlinien der Fahrbahnoberfläche in drei Dimensionen zu erkennen und eine Interpolation zur Bestimmung einer Geländeebene der Fahrbahnoberfläche unter Verwendung der Fahrspurlinien durchzuführen, und um das AR-Bild zum Erhalten eines angepassten AR-Bildes so anzupassen, dass alle Punkte des angepassten AR-Bildes mit Punkten auf der Geländeebene übereinstimmen.
  2. System nach Anspruch 1, wobei der Prozessor ferner dazu ausgelegt ist, ein Basisbild zu erhalten, das die Fahrbahnoberfläche zeigt, wobei der Prozessor ferner dazu ausgelegt ist, das angepasste AR-Bild zum Basisbild hinzuzufügen, um es einem Fahrer des Fahrzeugs anzuzeigen, wobei der Prozessor das Basisbild von der Kamera oder einer zweiten nach vorne gerichteten Kamera im Fahrzeug erhält.
  3. System nach Anspruch 1, wobei der Prozessor ferner dazu ausgelegt ist, die Augenposition eines Fahrers des Fahrzeugs zu überwachen, der Prozessor ferner dazu ausgelegt ist, einen Bereich eines Head-up-Displays auf einer Windschutzscheibe des Fahrzeugs zu bestimmen, der der Augenposition des Fahrers entspricht, und der Prozessor ferner dazu ausgelegt ist, das angepasste AR-Bild in den Bereich des Head-up-Displays zu projizieren.
  4. System nach Anspruch 1, wobei der Prozessor dazu ausgelegt ist, das AR-Bild auf Grundlage einer Rotation und einer Translation der Punkte auf der Geländeebene anzupassen.
  5. Das System nach Anspruch 1, wobei der Prozessor ferner dazu ausgelegt ist, ein Objekt auf der Fahrbahnoberfläche direkt vor dem Fahrzeug aus dem Bild zu erkennen, und der Prozessor dazu ausgelegt ist, die Größe des angepassten AR-Bildes auf Grundlage der Fahrbahnoberfläche zwischen dem Fahrzeug und einer Position des Objekts auszuwählen oder zu erzeugen.
  6. Verfahren zum Anpassen eines Bildes mit erweiterter Realität (AR-Bild), wobei das Verfahren umfasst: durch einen Prozessor Erhalten eines Bildes durch eine nach vorne gerichtete Kamera in einem Fahrzeug, wobei das Bild eine Fahrbahnoberfläche vor dem Fahrzeug umfasst, durch den Prozessor Erkennen von Fahrspurlinien der Fahrbahnoberfläche in drei Dimensionen, durch den Prozessor Ausführen einer Interpolation unter Verwendung der Fahrspurlinien, um eine Geländeebene der Fahrbahnoberfläche zu bestimmen, und durch den Prozessor Anpassen des AR-Bildes, um ein angepasstes AR-Bild zu erhalten, so dass alle Punkte des angepassten AR-Bildes mit Punkten auf der Geländeebene übereinstimmen.
  7. Verfahren nach Anspruch 6, ferner umfassend das Erhalten eines Basisbildes durch den Prozessor, das die Fahrbahnoberfläche zeigt, und das Hinzufügen des angepassten AR-Bildes zu dem Basisbild durch den Prozessor, um es einem Fahrer des Fahrzeugs anzuzeigen, wobei das Aufnehmen des Basisbildes durch die Kamera oder eine zweite nach vorne gerichtete Kamera im Fahrzeug erfolgt.
  8. Verfahren nach Anspruch 6, wobei der Prozessor ferner das Überwachen der Augenposition eines Fahrers des Fahrzeugs, das Bestimmen eines Bereichs des Head-up-Displays auf einer Windschutzscheibe des Fahrzeugs, der der Augenposition des Fahrers entspricht, und das Projizieren des angepassten AR-Bildes in den Bereich des Head-up-Displays umfasst.
  9. Verfahren nach Anspruch 6, wobei das Anpassen des AR-Bildes auf einer Rotation und einer Translation der Punkte auf der Geländeebene beruht.
  10. Verfahren nach Anspruch 6, ferner umfassend, dass der Prozessor ein Objekt auf der Fahrbahnoberfläche direkt vor dem Fahrzeug aus dem Bild erkennt und die Größe des angepassten AR-Bildes auf Grundlage der Fahrbahnoberfläche zwischen dem Fahrzeug und einer Position des Objekts auswählt oder erzeugt.
DE102021110477.7A 2020-08-05 2021-04-23 Dynamische anpassung eines bildes mit erweiterter realität Pending DE102021110477A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/985,377 2020-08-05
US16/985,377 US11562576B2 (en) 2020-08-05 2020-08-05 Dynamic adjustment of augmented reality image

Publications (1)

Publication Number Publication Date
DE102021110477A1 true DE102021110477A1 (de) 2022-02-10

Family

ID=79686131

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021110477.7A Pending DE102021110477A1 (de) 2020-08-05 2021-04-23 Dynamische anpassung eines bildes mit erweiterter realität

Country Status (3)

Country Link
US (1) US11562576B2 (de)
CN (1) CN114063295A (de)
DE (1) DE102021110477A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11630302B1 (en) 2022-04-06 2023-04-18 GM Global Technology Operations LLC Driving guidance system for a motor vehicle having an augmented reality head up display
US11915395B2 (en) 2022-07-20 2024-02-27 GM Global Technology Operations LLC Holographic display system for a motor vehicle with real-time reduction of graphics speckle noise
US11654771B1 (en) 2022-07-20 2023-05-23 GM Global Technology Operations LLC Multi-view display device for a co-pilot application of a motor vehicle

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110301813A1 (en) * 2010-06-07 2011-12-08 Denso International America, Inc. Customizable virtual lane mark display
US20120224060A1 (en) * 2011-02-10 2012-09-06 Integrated Night Vision Systems Inc. Reducing Driver Distraction Using a Heads-Up Display
KR101359660B1 (ko) * 2011-07-26 2014-02-07 한국과학기술원 헤드업 디스플레이를 위한 증강현실 시스템
JP5920647B2 (ja) * 2011-10-26 2016-05-18 いすゞ自動車株式会社 車線判別装置
DE102013220303A1 (de) * 2013-10-08 2015-04-09 Ford Global Technologies, Llc Verfahren zum Ermitteln einer relativen Fahrbahnsteigung
JP6123761B2 (ja) * 2014-09-05 2017-05-10 トヨタ自動車株式会社 車両用表示装置
US20160084661A1 (en) * 2014-09-23 2016-03-24 GM Global Technology Operations LLC Performance driving system and method
KR101750876B1 (ko) * 2015-05-28 2017-06-26 엘지전자 주식회사 차량용 디스플레이 장치 및 차량
KR20180022374A (ko) * 2016-08-24 2018-03-06 주식회사 티노스 운전석과 보조석의 차선표시 hud와 그 방법
US11241960B2 (en) * 2017-04-19 2022-02-08 Maxell, Ltd. Head up display apparatus and display control method thereof
US10168174B2 (en) * 2017-05-09 2019-01-01 Toyota Jidosha Kabushiki Kaisha Augmented reality for vehicle lane guidance
WO2018211591A1 (ja) * 2017-05-16 2018-11-22 三菱電機株式会社 表示制御装置および表示制御方法
JP6991794B2 (ja) * 2017-08-29 2022-01-13 矢崎総業株式会社 車両用表示装置および表示制御方法
JP6626069B2 (ja) * 2017-11-10 2019-12-25 矢崎総業株式会社 車両用表示装置
US10410426B2 (en) * 2017-12-19 2019-09-10 GM Global Technology Operations LLC Augmented reality vehicle user interface
DE102018203462A1 (de) * 2018-03-07 2019-09-12 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
US10854011B2 (en) * 2018-04-09 2020-12-01 Direct Current Capital LLC Method for rendering 2D and 3D data within a 3D virtual environment
KR102675523B1 (ko) * 2018-09-28 2024-06-14 삼성전자주식회사 차로를 결정하는 방법 및 장치
CN109624851B (zh) * 2018-11-23 2022-04-19 深圳市航盛电子股份有限公司 基于增强现实的辅助驾驶方法、系统及可读存储介质
US11518384B2 (en) * 2018-12-07 2022-12-06 Thinkware Corporation Method for displaying lane information and apparatus for executing the method

Also Published As

Publication number Publication date
US11562576B2 (en) 2023-01-24
CN114063295A (zh) 2022-02-18
US20220044032A1 (en) 2022-02-10

Similar Documents

Publication Publication Date Title
DE102013209415B4 (de) Dynamische Hinweisüberlagerung mit Bildbeschneidung
DE102021110477A1 (de) Dynamische anpassung eines bildes mit erweiterter realität
EP2805183B1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
DE102013223039B4 (de) Vorrichtung und Verfahren zum Bereitstellen eines AVM-Bildes
DE112009004768B4 (de) Abschätzvorrichtung für den visuellen erkennungsbereich und antriebsunterstützungsvorrichtung
DE112016003546B4 (de) Vorrichtung zum Darstellen von Unterstützungsbildern für einen Fahrer und Verfahren dazu
DE112018000786T5 (de) EINE VORRICHTUNG UND EIN VERFAHREN ZUM STEUERN EINER HEAD-UP-vvANZEIGE EINES FAHRZEUGS
DE10323915A1 (de) Kamerabasierte Positionserkennung für ein Straßenfahrzeug
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
DE112017001545T5 (de) Virtuelles überlagerungssystem und verfahren für verdeckte objekte
DE102007019491A1 (de) Fahrzeugumgebungs-Überwachungsvorrichtung, Fahrzeug, Fahrzeugumgebungs-Überwachungsverfahren und Fahrzeugumgebungs-Überwachungsprogramm
DE102015115012A1 (de) Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
DE112016000689T5 (de) Kameraparametereinstellvorrichtung
EP3685123A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug
DE102021132949A1 (de) Umgebungsbild-Anzeigevorrichtung und Anzeigesteuerverfahren
DE102018108751B4 (de) Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten
DE102015202863A1 (de) Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges
EP3815044B1 (de) Verfahren zu einer sensor- und speicherbasierten darstellung einer umgebung, anzeigevorrichtung und fahrzeug mit der anzeigevorrichtung
DE102017123982A1 (de) Fahrerassistenzsystem zur Bestimmung einer Entfernung zwischen zwei Fahrzeugen mit einer Kamera
DE102022109370A1 (de) Auf Betrachter-Eingaben basierende Steuerung in einem Multibild-Head-up-Display mit erweiterter Realität in einem Fahrzeug
WO2017198429A1 (de) Ermittlung von fahrzeugumgebungsdaten
DE102011118171A1 (de) Verfahren und Vorrichtung zur Schätzung einer Fahrbahnebene und zur Klassifikation von 3D-Punkten
DE102014226448B4 (de) Fahrzeug zum Errechnen einer Sicht einer Fahrzeugumgebung
DE102020107949A1 (de) Sichtfeldunterstützungsbild-Erzeugungsvorrichtung und Bildumwandlungsverfahren
DE102017214973A1 (de) Verfahren und Vorrichtung zur bildbasierenden Objektidentifikation für ein Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed