DE112013002354T5 - Verfahren zum Erzeugen virtueller Anzeigeflächen aus Videobildern einer straßenbasierten Landschaft - Google Patents

Verfahren zum Erzeugen virtueller Anzeigeflächen aus Videobildern einer straßenbasierten Landschaft Download PDF

Info

Publication number
DE112013002354T5
DE112013002354T5 DE112013002354.7T DE112013002354T DE112013002354T5 DE 112013002354 T5 DE112013002354 T5 DE 112013002354T5 DE 112013002354 T DE112013002354 T DE 112013002354T DE 112013002354 T5 DE112013002354 T5 DE 112013002354T5
Authority
DE
Germany
Prior art keywords
image
vehicle
graphical elements
road
virtual model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112013002354.7T
Other languages
English (en)
Inventor
c/o Honda Patents & Tech Ng-Thow-Hing Victor
c/o Honda Patents & Tec Sridhar Srinath
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE112013002354T5 publication Critical patent/DE112013002354T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

Erzeugen eines virtuellen Modells von einer Umgebung vor einem Fahrzeug auf Basis von Bildern, die unter Verwendung einer Bilderfassung erfasst werden. Die auf einer Bilderfassungseinrichtung eines Fahrzeugs erfassten Bilder werden bearbeitet, um interessante Merkmale zu extrahieren. Auf Basis der extrahierten Merkmale wird ein virtuelles Modell der Umgebung konstruiert. Das virtuelle Modell umfasst eine oder mehrere Flächen. Jede der Flächen kann als eine Referenzfläche verwendet werden, um grafische Elemente zu befestigen und zu bewegen, die erzeugt werden, um eine erweiterte Realität (AR) zu implementieren. Wenn sich das Fahrzeug bewegt, bewegen sich die grafischen Elemente so, als ob die grafischen Elemente an der einen der Flächen fixiert wären. Durch Darstellen der grafischen Elemente, so dass sie sich zusammen mit realen Objekten vor dem Fahrzeug bewegen, nimmt ein Fahrer die grafischen Elemente als Teil der tatsächlichen Umgebung wahr, und eine Ablenkung oder Verwirrung im Zusammenhang mit den grafischen Elementen wird reduziert.

Description

  • Querverweis auf eine verwandte Anmeldung
  • Diese Anmeldung nimmt die Priorität unter 35 U.S.C. § 119(e) der am 7. Mai 2012 eingereichten, ebenfalls anhängigen provisorischen US-Patentanmeldung Nummer 61/643,792 in Anspruch, welche durch Bezugnahme hierin in ihrer Gesamtheit einbezogen ist.
  • Gebiet der Offenbarung
  • Die vorliegende Offenbarung bezieht sich auf eine Darstellung grafischer Elemente auf einer Anzeige-Einrichtung eines Fahrzeugs, um eine erweiterte Realität zu implementieren.
  • Hintergrund der Offenbarung
  • Ein Fahrer eines Fahrzeugs wird mit Informationen von verschiedenen Sinnesorganen überschwemmt, wenn er ein Fahrzeug fährt. Zusätzlich zu Geräuschen und Vibrationen von verschiedenen Quellen empfängt der Fahrer auch eine große Menge visueller Informationen, während er das Fahrzeug fährt. Quellen solcher visuellen Informationen können externe Stimuli, beispielsweise Menschen und Gebäude auf den Seiten der Straße, Werbung und Infotainment-Anwendungen in den Armaturenbrett-Anzeigen umfassen. Solche Quellen visueller Informationen können den Fahrer häufig ablenken und bewirken, dass der Fahrer seine Aufmerksamkeit weg von der Fahrtrichtung des Fahrzeugs richtet.
  • Erweiterte-Realität-Systeme in Fahrzeugen werden entwickelt, um Ablenkungen für den Fahrer zu reduzieren, während sie visuelle Informationen liefern, um bei verschiedenen Aktivitäten in den Fahrzeugen Unterstützung zu leisten. Erweiterte-Realität-Systeme in Fahrzeugen können Flachbildschirm-Anzeige-Einrichtungen (etwa eine Flüssigkristall-Anzeige (LCD)) umfassen, die in einem Armaturenbrett oder einer Konsole von einem Fahrzeug installiert sind, oder ein Head-up-Display (HUD), welches grafische Elemente auf einer Windschutzscheibe eines Fahrzeugs anzeigt. Die erweiterte-Realität-Systeme können ebenfalls die Sicherheit vergrößern, indem sie die Auffälligkeit von Verkehrsrisiken vergrößern oder Sicherheitsmaßnahmen für einen bestimmten Fahr-Kontext vorschlagen.
  • Erweiterte-Realität-Systeme können jedoch selbst eine Ursache von Ablenkung werden, wenn die Informationen dem Fahrer nicht auf angemessene Weise präsentiert werden. Wenn die grafischen Elemente zu lebhaft sind, unangemessen animiert oder plötzlich zu kritischen Momenten auftauchen, können auf den Anzeige-Einrichtungen in dem Fahrzeug präsentierte Bilder zu Unfällen oder unsicherem Fahren beitragen, statt die Sicherheit zu vergrößern. Daher sollten die auf dem Fahrzeug präsentierten grafischen Elemente so ausgelegt sein, dass sie die Ablenkung des Fahrers reduzieren, während sie verschiedene Arten von hilfreichen visuellen Informationen an den Fahrer liefern.
  • Überblick über die Offenbarung
  • Ausführungsbeispiele beziehen sich auf ein Konstruieren eines virtuellen Modells unter Verwendung visueller Merkmale, die aus einem Bild extrahiert werden, welches durch eine in einem Fahrzeug installierte Bilderfassungseinrichtung (etwa eine Kamera) erfasst wird. Die visuellen Merkmale können dazu verwendet werden, die Position einer Straße relativ zu dem Fahrzeug zu bestimmen. Das virtuelle Modell umfasst wenigstens eine Fläche, auf die Bezug genommen wird, um grafische Elemente auf einer Anzeige-Einrichtung zu konfigurieren und zu positionieren. Die grafischen Elemente übermitteln Informationen an den Fahrer.
  • In einem Ausführungsbeispiel ist die Anzeige-Einrichtung ein Head-up-Display, welches die grafischen Elemente auf eine Windschutzscheibe des Fahrzeugs projiziert.
  • In einem Ausführungsbeispiel repräsentiert das virtuelle Modell einen Graben, der eine linke Wand, eine rechte Wand, eine Boden-Ebene und eine Himmel-Ebene parallel zu der Boden-Ebene umfasst.
  • In einem Ausführungsbeispiel bewegen sich die konfigurierten grafischen Elemente verknüpft mit der wenigstens einen Fläche, um einen Eindruck zu erzeugen, dass die konfigurierten grafischen Elemente an der wenigstens einen Fläche fixiert sind.
  • In einem Ausführungsbeispiel werden die visuellen Merkmale detektiert, indem das erfasste Bild zugeschnitten wird, um einen Bildabschnitt zu extrahieren, der einen Umriss einer Straße umfasst, und indem Linien-Merkmale, welche Ränder der Straße repräsentieren, aus dem zugeschnittenen Bild detektiert werden.
  • In einem Ausführungsbeispiel wird eine inverse perspektivische Abbildung an dem zugeschnittenen Bild durchgeführt, um ein Bild in Vogelperspektive zu erzeugen. Ein separierbarer Filter wird auf das Bild in Vogelperspektive angewendet, um ein gefiltertes Bild zu erzeugen. Die Linien-Merkmale werden aus dem gefilterten Bild detektiert. Eine Kurvenanpassung wird an den detektierten Linien-Merkmalen durchgeführt.
  • In einem Ausführungsbeispiel werden die Position und der Kurs (die Richtung) des Fahrzeugs bestimmt. Dann werden Informationen von einer Informationsquelle auf Basis der Position oder des Kurses des Fahrzeugs erhalten.
  • In einem Ausführungsbeispiel werden ein Profil eines Benutzers und die Position oder der Kurs des Fahrzeugs verwendet, um die grafischen Elemente zu erzeugen.
  • In einem Ausführungsbeispiel wird die Position der Sonne relativ zu dem Fahrzeug bestimmt, auf Basis einer aktuellen Zeit, dem Kurs des Fahrzeugs und der Position des Fahrzeugs. Schatten von wenigstens einem der konfigurierten grafischen Elemente werden auf Basis der Position der Sonne relativ zu einer Position des Fahrzeugs auf der Erdoberfläche und der Tageszeit erzeugt. Die erzeugten Schatten werden auf der Anzeige-Einrichtung angezeigt.
  • In einem Ausführungsbeispiel wird ein Fußgänger detektiert, der wahrscheinlich die Straße vor dem Fahrzeug überqueren wird. Ein grafisches Element, welches einen Überweg an einem Abschnitt der Straße repräsentiert, über welchen der Fußgänger wahrscheinlich die Straße überqueren wird, wird dann erzeugt.
  • Die in der Beschreibung beschriebenen Merkmale und Vorteile sind nicht alle inbegriffen, und insbesondere werden einem normalen Fachmann viele zusätzlichen Merkmale und Vorteile im Hinblick auf die Figuren, Beschreibung und Ansprüche offensichtlich werden. Weiterhin sollte festgehalten werden, dass die in. der Beschreibung verwendete Sprache im Wesentlichen zu Zwecken der Verständlichkeit und Instruktion ausgewählt wurde, und nicht unbedingt ausgewählt wurde, um den Gegenstand ab- oder einzugrenzen.
  • Kurzbeschreibung der Figuren
  • Die Lehren der vorliegenden Offenbarung können durch Berücksichtigung der folgenden detaillierten Beschreibung zusammen mit den begleitenden Figuren einfach verstanden werden.
  • 1 ist ein Blockdiagramm eines erweiterte-Realität-Systems gemäß einem Ausführungsbeispiel.
  • 2 ist ein Blockdiagramm eines erweiterte-Realität-Prozessors gemäß einem Ausführungsbeispiel.
  • 3 ist eine bearbeitete Version von einem durch eine Bilderfassungseinrichtung des erweiterte-Realität-Systems erfassten Bildes gemäß einem Ausführungsbeispiel.
  • 4A ist ein bearbeitetes Bild, welches einen Abschnitt des Bilds illustriert, das durch eine Bilderfassungseinrichtung erfasst wurde, bearbeitet durch inverse perspektivische Abbildung gemäß einem Ausführungsbeispiel.
  • 4B ist ein gefiltertes Bild, welches unter Verwendung eines separierbaren Filters gemäß einem Ausführungsbeispiel bearbeitet wurde.
  • 4C ist ein Diagramm, welches eine Segmentierung von einem als Straße detektierten Bildabschnitt in mehrere Segmente zum Modellieren gemäß einem Ausführungsbeispiel illustriert.
  • 5 ist ein konzeptuelles Diagramm eines virtuellen Modells für ein Segment einer Straße gemäß einem Ausführungsbeispiel.
  • 6 ist ein Bild einer erweiterten Realität, einschließlich grafischer Elemente, die auf einer Anzeige-Einrichtung in einem Fahrzeug gemäß einem Ausführungsbeispiel angezeigt werden
  • 7 ist ein Bild einer erweiterten Realität, einschließlich grafischer Elemente, die angezeigt werden, wenn das Fahrzeug an einer Kreuzung gestoppt wird, gemäß einem Ausführungsbeispiel.
  • 8A ist ein Bild einer erweiterten Realität, welches einen virtuellen Überweg in einem ersten Abstand von einem Fußgänger gemäß einem Ausführungsbeispiel zeigt.
  • 8B ist ein Bild einer erweiterten Realität, welches einen virtuellen Überweg in einem zweiten Abstand von dem Fußgänger gemäß einem Ausführungsbeispiel zeigt.
  • 9 ist ein Flussdiagramm, welches ein Verfahren zum Erzeugen grafischer Elemente für eine erweiterte Realität gemäß einem Ausführungsbeispiel illustriert.
  • Detaillierte Beschreibung der Offenbarung
  • Nun wird ein bevorzugtes Ausführungsbeispiel unter Bezugnahme auf die Figuren beschrieben, wobei gleiche Referenz-Zahlen gleiche oder funktional ähnliche Elemente angeben.
  • Wird in der Beschreibung auf „ein Ausführungsbeispiel” Bezug genommen, so bedeutet dies, dass ein bestimmtes Merkmal, eine Struktur oder Charakteristik, das oder die in Verbindung mit den Ausführungsbeispielen beschrieben wird, in wenigstens einem Ausführungsbeispiel enthalten ist. Das Erscheinen des Ausdrucks „in einem Ausführungsbeispiel” an verschiedenen Stellen in der Beschreibung bedeutet nicht notwendigerweise, dass diese sich alle auf das gleiche Ausführungsbeispiel beziehen.
  • Einige Abschnitte der folgenden detaillierten Beschreibung werden in der Form von Algorithmen und symbolischen Darstellungen von Operationen an Daten-Bits innerhalb von einem Computerspeicher präsentiert. Diese algorithmischen Beschreibungen und Darstellungen sind die Mittel, die von Fachleuten der Datenverarbeitung verwendet werden, um den Inhalt ihrer Arbeit am effizientesten an andere Fachleute zu übermitteln. Ein Algorithmus ist hierbei und im Allgemeinen als selbst-konsistente Abfolge von Schritten (Anweisungen) zu verstehen, die zu einem gewünschten Resultat führen. Die Schritte sind diejenigen, die physische Manipulationen physischer Größen erfordern. Üblicherweise, jedoch nicht notwendigerweise, nehmen diese Größen die Form von elektrischen, magnetischen oder optischen Signalen an, die dazu in der Lage sind, gespeichert, übertragen, kombiniert, verglichen und auf andere Weise manipuliert zu werden. Es ist gelegentlich zweckmäßig, prinzipiell aus Gründen der Verkehrssitte, auf diese Signale als Bits, Werte, Elemente, Symbole, Zeichen, Ausdrücke, Zahlen oder dergleichen Bezug zu nehmen. Weiterhin ist es auch gelegentlich zweckmäßig, ohne Beschränkung der Allgemeinheit auf bestimmte Anordnungen von Schritten, die physische Manipulationen physischer Größen erfordern, als Module oder Code-Einrichtungen Bezug zu nehmen.
  • Jedoch sollen all diese und ähnliche Ausdrücke den geeigneten physischen Größen zugeordnet werden und sind nur zweckmäßige Bezeichnungen, die auf diese Größen angewendet werden. Sofern nicht ausdrücklich anderweitig festgelegt, wie aus der folgenden Beschreibung ersichtlich, wird anerkannt, dass durch die Beschreibung hindurch Diskussionen unter Verwendung von Ausdrücken wie „verarbeiten” oder „rechnen” oder „berechnen” oder „bestimmen” oder „anzeigen” oder „bestimmen” oder dergleichen sich auf das Vorgehen und die Prozesse eines Computersystems oder einer ähnlichen elektronischen Recheneinrichtung beziehen, die Daten manipuliert und transformiert, die als physische (elektronische) Größen innerhalb der Computersystem-Speicher oder Register oder anderer solcher Informationsspeicher-, Übertragungs- oder Anzeige-Einrichtungen dargestellt werden.
  • Bestimmte Aspekte der Ausführungsbeispiele umfassen Prozessschritte und Anweisungen, die hierbei in der Form eines Algorithmus beschrieben sind. Es sollte festgehalten werden, dass die Prozessschritte und Anweisungen als Software, Firmware oder Hardware verkörpert werden könnten und, bei Verkörperung als Software, herunter geladen werden könnten, um auf verschiedenen Plattformen vorzuliegen und betrieben zu werden, die von einer Vielzahl von Betriebssystemen verwendet werden.
  • Ausführungsbeispiele beziehen sich auch auf eine Einrichtung, um die Vorgänge darin durchzuführen. Diese Einrichtung kann speziell für die erforderlichen Zwecke konstruiert sein, oder sie kann einen Mehrzweck-Computer umfassen, der selektiv aktiviert oder durch ein Computerprogramm rekonfiguriert wird, das in dem Computer gespeichert ist. Solch ein Computerprogramm kann auf einem computerlesbaren Speichermedium gespeichert sein, beispielsweise aber nicht beschränkt auf jede Art von Platte bzw. Scheibe, einschließlich Disketten, optischer Platten, CD-ROMs, magneto-optischer Platten, Festwertspeicher (ROMs), Direktzugriffsspeicher (RAMs), EPROMs, EEPROMs, magnetischer oder optischer Karten, anwendungsspezifischer integrierter Schaltungen (ASICs) oder jedem beliebigen Medien-Typ, der dazu geeignet ist, elektronische Informationen zu speichern, und wobei jedes an einen Computersystem-Bus gekoppelt ist. Weiterhin können die Computer, auf die in der Beschreibung Bezug genommen wird, einen einzelnen Prozessor umfassen, oder sie können Architekturen sein, die verschiedene Prozessor-Designs für eine erhöhte Rechenleistung verwenden.
  • Die hierin präsentierten Algorithmen und Anzeigen beziehen sich nicht inhärent auf irgendeinen speziellen Computer oder andere Einrichtung. Verschiedene Mehrzweck-Systeme können auch verwendet werden, mit Programmen in Übereinstimmung mit der Lehre hierin, oder es kann sich als zweckmäßig herausstellen, eine stärker spezialisierte Vorrichtung zu konstruieren, um die erforderlichen Verfahrensschritte durchzuführen. Die erforderliche Struktur für eine Vielzahl dieser Systeme wird aus der unten stehenden Beschreibung deutlich. Zusätzlich werden die Ausführungsbeispiele nicht unter Bezugnahme auf irgend eine spezielle Programmiersprache beschrieben. Es ist klar, dass eine Vielzahl von Programmiersprachen verwendet werden können, um die hierin beschriebenen Lehren zu implementieren, und alle unten stehenden Bezugnahmen auf spezifische Sprachen werden zur ausreichenden Offenbarung und zur Offenbarung der besten Art der Ausführung geliefert.
  • Zusätzlich wurde die in der Beschreibung verwendete Sprache im Wesentlichen zu Zwecken der Lesbarkeit und der Instruktion ausgewählt und wurde nicht unbedingt dazu ausgewählt, den Gegenstand ab- oder einzugrenzen. Entsprechend soll die Offenbarung illustrativ aber nicht beschränkend für den Umfang sein, der in den folgenden Ansprüchen dargelegt wird.
  • Ausführungsbeispiele beziehen sich auf ein Erzeugen eines virtuellen Modells einer Umgebung vor einem Fahrzeug auf Basis von Bildern, die unter Verwendung einer Bilderfassungseinrichtung (etwa einer Kamera) erfasst werden. Die auf der Bilderfassungseinrichtung erfassten Bilder werden bearbeitet, um interessante Merkmale (etwa einen Umriss einer Straße) zu extrahieren. Auf Basis der extrahierten Merkmale wird ein virtuelles Modell der Umgebung konstruiert. Das virtuelle Modell umfasst eine oder mehrere Flächen. Jede der Flächen kann als eine Referenzfläche verwendet werden, um grafische Elemente zu befestigen und zu bewegen, die erzeugt werden, um eine erweiterte Realität (AR) zu implementieren. Wenn sich das Fahrzeug bewegt, bewegen sich die grafischen Elemente so, als ob die grafischen Elemente an einer der Flächen in dem virtuellen Modell befestigt wären. Durch Darstellen der grafischen Elemente, so dass sich diese zusammen mit realen Objekten vor dem Fahrzeug bewegen, nimmt ein Fahrer die grafischen Elemente als Teil der tatsächlichen Umgebung wahr, und dies reduziert eine Ablenkung oder Verwirrung im Zusammenhang mit den grafischen Elementen.
  • Die hierin beschriebenen grafischen Elemente beziehen sich auf visuelle Bildkomponenten, die auf einer Anzeige-Einrichtung angezeigt werden. Die grafischen Elemente können umfassen, aber sind nicht beschränkt auf Textnachrichten, Pfeile, Icons, animierte Objekte, dreidimensionale Modelle und statische oder dynamische Bilder. Die grafischen Elemente können auch statische oder dynamische Werbung umfassen.
  • Überblick über ein erweiterte-Realität-System
  • (FIGS.) 1 ist ein Blockdiagramm, welches ein erweiterte-Realität-System 100 gemäß einem Ausführungsbeispiel illustriert. Das erweiterte-Realität-System 100 detektiert eine Umgebung vor einem Fahrzeug und eine Positionierung des Fahrzeugs in der Umgebung, und zeigt virtuelle Objekte in einer Anzeige-Einrichtung des Fahrzeugs auf nicht ablenkende Weise an. Das erweiterte-Realität-System 100 kann unter anderen Komponenten eine Bilderfassungseinrichtung 110, ein Bildbearbeitungsmodul 122, eine Positionierungseinrichtung 114, eine Uhr 118, eine Informationsquelle 130, einen erweiterte-Realität-Prozessor 140 und ein Head-up-Display (HUD) System 150 umfassen.
  • Die Bilderfassungseinrichtung 110 ist eine Einrichtung zum Erfassen eines Bilds einer Umgebung vor dem Fahrzeug. Bevorzugt ähneln die durch die Bilderfassungseinrichtung erfassten Bilder stark den Bildern, die von einem Fahrer durch eine Windschutzscheibe gesehen werden. Die Bilderfassungseinrichtung 110 kann an einer Stelle nahe an dem Fahrer angeordnet sein, um solche Bilder zu erzeugen. Die Bilderfassungseinrichtung 110 kann eine RGB-Kamera, eine Graustufenkamera, eine stereoroskopische Kamera, eine Tiefen-Kamera oder eine Kombination davon sein. Die Bilderfassungseinrichtung 110 produziert bearbeitete Bilder 124, die zu dem Bildbearbeitungsmodul 122 für eine Vorbearbeitung gesendet werden.
  • Das Bildbearbeitungsmodul 122 führt eine Vorbearbeitung an den erfassten Bildern 112 durch, um eine Extraktion von Merkmalen bei dem erweiterte-Realität-Prozessor 140 zu erleichtern. Die Vorbearbeitung, die an dem Bildbearbeitungsmodul 122 durchgeführt wird, kann unter anderem Kanten-Detektion und Rausch-Filterung umfassen.
  • Die Positionierungseinrichtung 114 ist Hardware, Software, Firmware oder eine Kombination davon, um die Position und den Kurs des Fahrzeugs zu detektieren. Die Positionierungseinrichtung 114 kann beispielsweise einen Globales-Positionsbestimmungssystem (GPS) Empfänger, einen Kompass und einen Trägheitssensor umfassen. Die Positionierungseinrichtung 114 kann mit anderen Sensoren (beispielsweise einem Kilometerzähler und einem Fahrzeugrichtungssensor) kommunizieren, um eine Überwachung der Position und des Kurses des Fahrzeugs auch dann fortzusetzen, wenn GPS-Signale nicht verfügbar sind. Die Positionierungseinrichtung 114 erzeugt Positionierungsinformationen 116, welche die Position und den Kurs des Fahrzeugs umfassen, für den erweiterte-Realität-Prozessor 140.
  • Eine Uhr 118 liefert Zeit-Informationen 148 an den erweiterte-Realität-Prozessor 140. Die Zeit-Informationen 148 geben die aktuelle Zeit an und können verwendet werden, um Schatten grafischer Elemente zu erzeugen, wie unten im Detail unter Bezugnahme auf 6 beschrieben wird.
  • Die Informationsquelle 130 ist eine Einrichtung zum Speichern von Informationen, die auf dem HUD-System 150 angezeigt werden sollen. Die Informationsquelle 130 kann mehr als eine Fahrzeugkomponente umfassen, die verschiedene Informationen an die HUD-Systeme 150 liefern. Die Informationsquelle 130 kann beispielsweise ein On-Board-Navigationssystem, ein Telematik-System, ein drahtloses Kommunikationssystem mit Internet-Verbindung und ein Unterhaltungssystem in dem Fahrzeug umfassen. Die Informationsquelle 130 sendet Daten 132 zu dem erweiterte-Realität-Prozessor 140, zum Verarbeiten und zum Erzeugen grafischer Elemente.
  • Der erweiterte-Realität-Prozessor 140 verarbeitet verschiedene Typen von Informationen und erzeugt grafische Elemente zur Anzeige auf dem HUD-System 150. Um dem Fahrer Informationen in einer nahtlosen und nicht aufdringlichen Weise zu liefern, erzeugt der erweiterte-Realität-Prozessor 140 ein virtuelles Modell der Umgebung und platziert die grafischen Elemente auf einer virtuelle Fläche des virtuellen. Modells, wie unten im Detail unter Bezugnahme auf 5 beschrieben. Die grafischen Elemente, die durch den erweiterte-Realität-Prozessor 140 erzeugt werden, werden an das HUD-System 150 als grafische Daten 144 gesendet. Beispielhafte Komponenten und Funktionen der Komponenten in dem erweiterte-Realität-Prozessor 140 werden unten im Detail unter Bezugnahme auf 2 beschrieben.
  • Das HUD-System 150 empfängt die grafischen Daten 144 von dem erweiterte-Realität-Prozessor 140 und projiziert die grafischen Elemente, die durch die grafischen Daten 144 angegeben werden, auf die Windschutzscheibe des Fahrzeugs. In einem Ausführungsbeispiel ist das HUD-System 150 als ein volumetrisches HUD implementiert, das grafische Elemente bei verschiedenen Brennweiten anzeigt. Das HUD-System 150 kann unter anderen Komponenten einen Projektor zum Projizieren gerenderter Bilder und eine Windschutzscheibe zum Reflektieren der projizierten Bilder zu dem Fahrer hin umfassen.
  • Obwohl die Ausführungsbeispiele hierin in erster Linie unter Bezugnahme auf ein HUD-System beschrieben werden, können auch Anzeige-Einrichtungen wie eine Flüssigkristal-Anzeige-Einrichtung (LCD), eine organische-Leuchtdioden-Einrichtung (OLED), eine Plasma-Anzeige-Einrichtung oder andere Einrichtungen verwendet werden. Diese Anzeige-Einrichtungen können an einem Armaturenbrett eines Fahrzeugs oder in einem Mittelkonsolen-Bereich eines Fahrzeugs installiert sein, um visuelle Informationen an den Fahrer zu liefern. Auch kann eine Anzeige-Einrichtung verwendet werden, die ein Bild auf eine transparente reflektierende Fläche projiziert, um ein Bild auf einer transparenten Fläche wiederzugeben.
  • Beispiel eines erweiterte-Realität-Prozessors
  • 2 ist ein Blockdiagramm, welches den erweiterte-Realität-Prozessor 140 gemäß einem Ausführungsbeispiel illustriert. Der erweiterte-Realität-Prozessor 140 verarbeitet Informationen und erzeugt grafische Benutzerelemente, die auf dem System 150 dargestellt werden sollen. Der erweiterte-Realität-Prozessor 140 kann unter anderen Komponenten einen Prozessor 212, ein Eingabe-Modul 218, ein Ausgabe-Modul 224, ein Netzwerk-Modul 228, einen Speicher 232 und einen Bus 230 umfassen, der diese Komponenten verbindet. Der erweiterte-Realität-Prozessor 140 kann andere, nicht in 2 illustrierte Komponenten umfassen, etwa ein Benutzerschnittstellen-Modul, um Benutzereingaben von einem Benutzer zu empfangen. Der erweiterte-Realität-Prozessor 140 kann eine separate, eigenständige Einrichtung oder Teil eines größeren Systems sein, welches auch andere Vorgänge als die Erzeugung grafischer Elemente für erweiterte Realität durchführt.
  • Der Prozessor 212 ist eine Hardware-Komponente, die in dem Speicher 232 gespeicherte Anweisungen durchführt. Das Eingabe-Modul 218 ist eine Hardwarekomponente zum Empfangen von Informationen oder Daten von anderen Komponenten (etwa dem Eingabe-Verarbeitungsmodul 122) von dem erweiterte-Realität-System 100. Das Eingabe-Modul 218 kann Kommunikationsprotokolle implementieren, um eine geeignete Übertragung von Daten von anderen Komponenten des erweiterte-Realität-Systems 100 sicherzustellen. Das Ausgabe-Modul 326 ist eine Komponente, um die grafischen Daten 144 an das HUD-System 150 zu senden. Diese Komponenten können auf einem einzelnen Chip mit integrierter Schaltung (IC) oder mehreren IC-Chips verkörpert sein.
  • Der Speicher 232 ist ein nichtflüchtiges, computerlesbares Speichermedium, welches Softwarekomponenten speichert. Die in dem Speicher 232 gespeicherten Softwarekomponenten können unter anderen Komponenten einen Informationsprozessor 231, Bildmerkmal-Detektoren 238, einen erweiterte-Realität (AR) Modell-Generator 234, einen Fußgänger-Detektor 242, eine Umgebungszustand-Analyseeinrichtung 248, einen Grafikelement-Generator 252 und eine Grafikbild-Rendereinrichtung 256 umfassen. Die Komponenten können in weitere Softwarekomponenten unterteilt sein, oder mehr als eine dieser Komponenten können zu einem einzelnen, größeren Software-Modul kombiniert sein.
  • Der Informationsprozessor 231 bestimmt Informationen oder Nachrichten, die dem Fahrer gezeigt werden sollen, in der Form von grafischen Elementen. Um Informationen zu liefern, die relevant für den Fahrer sind, kann der Informationsprozessor 231 ein Profil des Fahrers, GPS-Informationen des Fahrzeugs, Informationen von sozialen Netzwerkdiensten (etwa FACEBOOK) oder anderen online-Diensten und der Informationsquelle 130 empfangen. Das Profil des Fahrers kann beispielsweise Alter, Geschlecht, Wohnsitz, Anmelde-Informationen für soziale Netzwerkdienste und eine Büro-Adresse umfassen. Die Informationen oder Nachrichten, die gezeigt werden sollen, können zielgerichtete Werbung, Straßennamen, Namen von interessanten Punkten (POI), Wetterbedingungen, Status von Telefongesprächen, Kontaktinformationen, Werbenachrichten und SMS-Nachrichten oder E-Mails umfassen, die über eine Kommunikationseinrichtung empfangen werden. Der Informationsprozessor 231 sendet Präsentation-Informationen 262, welche Informationen oder Nachrichten angeben, an den Grafikelement-Generator 252.
  • In einem Ausführungsbeispiel bestimmt der Informationsprozessor 231 Verkehrsregeln, die mit Verkehrssignalen oder Verkehrszeichen in Verbindung stehen, welche durch das Fahrzeug erfasst werden. Der Informationsprozessor 231 kann grafische Elemente erzeugen und senden, um Warnungen an den Fahrer auszugeben, auf Basis von Verkehrssignalen oder Verkehrszeichen, welche durch Verarbeitung des erfassten Bildes 112 detektiert wurden.
  • Die Bildmerkmal-Detektoren 238 detektieren vorbestimmte Merkmale in den bearbeiteten Bildern 124. Die detektierten Merkmale können visuellen Merkmale wie Linien, Kanten, Ränder und Klumpen (blobs) von Bildpixeln umfassen. Verschiedene Bildverabeitungsalgorithmen können verwendet werden, um solche Merkmale zu detektieren und zu extrahieren. Beispielhafte Algorithmen zu einem solchen Zweck umfassen separierbare Filteralgorithmen und Hough-Transformation-Algorithmen. Umgebung-Bildinformationen 236 einschließlich extrahierter visueller Merkmale in Bezug auf eine Straße werden an einen AR-Modell-Generator 234 gesendet, ein Fußgänger-Bild 240 einschließlich visueller Merkmale, die sich auf Fußgänger beziehen, wird an den Fußgänger-Detektor 242 gesendet, und Verkehrsinformationen 239 einschließlich visueller Merkmale, die sich auf Verkehrssignale beziehen, können an den Informationsprozessor 231 gesendet werden.
  • In einem Ausführungsbeispiel detektieren die Bildmerkmal-Detektoren 238 visuelle Merkmale, die für verschiedene Ziele in der Umgebung relevant sind, einschließlich aber nicht beschränkt auf eine Straße, einen Fußgänger, Verkehrszeichen und Verkehrssignale. Visuelle Merkmale, die sich auf die Straße beziehen können, beispielsweise Linien umfassen, die Ränder der Straße repräsentieren, Klumpen von zusammenhängenden Pixeln in einem bestimmten Farbraum, Straßenmarkierungen oder irgendwelche festen sichtbaren Merkmale auf der Straße. Visuelle Merkmale, die sich auf einen Fußgänger beziehen können Klumpen von Pixeln umfassen, die bestimmte Kriterien erfüllen. Visuelle Merkmale, die sich auf die Verkehrszeichen und Verkehrssignale beziehen, können Farbinformationen von Pixeln umfassen, die an bestimmten Stellen des erfassten Bildes erscheinen.
  • Der AR-Modell-Generator 234 empfängt die Umgebung-Bildinformationen 236, um ein virtuelles Modell zu konstruieren, welches die Umgebung vor dem Fahrzeug repräsentiert. Linien-Merkmale in den bearbeiteten Bildern 124 können verwendet werden, um die Konfiguration der Straße zu bestimmen, wie im Detail unten unter Bezugnahme auf 3 bis 4C beschrieben ist. Die Konfiguration der Straße kann beispielsweise die Orientierung und Position der Straße relativ zu dem Fahrzeug angeben, die Breite der Straße und die Tiefe der Straße. In einem Ausführungsbeispiel erzeugt der AR-Modell-Generator 234 ein virtuelles Modell in der Form eines Grabens, wie unten im Detail unter Bezugnahme auf 5 beschrieben. Der AR-Modell-Generator 234 sendet Modell-Informationen 244, welche die Konfiguration des virtuellen Modells angeben, an die Grafikbild-Rendereinrichtung 256.
  • Der Fußgänger-Detektor 242 empfängt das Fußgänger-Bild 240 von den Bildmerkmal-Detektoren 238, um Fußgänger in dem bearbeiteten Bild 124 zu identifizieren. Der Fußgänger-Detektor 242 wählt auch Fußgänger aus, die bestimmte Kriterien erfüllen. Die Kriterien können irgendwelche Risiken für den Fußgänger oder das Fahrzeug angeben, etwa eine Wahrscheinlichkeit einer Kollision mit dem Fußgänger, und Hinweise darauf, ob ein Fußgänger wahrscheinlich beginnen wird, die Straße zu überqueren (etwa ein Fußgänger, der zu der Straße hin gewandt ist oder sich zu der Straße hin bewegt). Die Position und andere Informationen über solche ausgewählten Fußgänger werden an den Grafikelement-Generator 252 als Fußgänger-Informationen 246 gesendet.
  • Die Umgebungszustand-Analyseeinrichtung 248 empfängt die Zeit-Informationen 148 und die Positionierungsinformationen 116, um die Orientierung der Sonne relativ zu dem Fahrzeug zu bestimmen. Die Umgebungszustand-Analyseeinrichtung 248 analysiert die Zeit-Informationen 148 und den Kurs des Fahrzeugs, um die Position der Sonne relativ zu dem Fahrzeug zu bestimmen. Dann können die Orientierung und Länge von einem Schatten bestimmt werden, der in den grafischen Elementen enthalten sein soll, um eine realistischere Erscheinung der grafischen Elemente zu liefern. Die Umgebungszustand-Analyseeinrichtung 248 erzeugt Zustand-Informationen 250 als Ergebnis der Analyse und sendet die Zustand-Informationen 250 an den Grafikelement-Generator 252.
  • Der Grafikelement-Generator 252 erzeugt grafische Elemente 254 auf Basis der Fußgänger-Informationen 246, der Zustand-Informationen 250, der Präsentation-Informationen 262 oder/und anderer Informationen und Daten, die von anderen Komponenten des erweiterte-Realität-Systems 100 empfangen werden. Die grafischen Elemente können beispielsweise Icons umfassen, die Warnsignale angeben, statische oder dynamische Bilder und Text-Nachrichten. Die erzeugten grafischen Elemente können auch einen virtuellen Überweg umfassen, wie unten im Detail unter Bezugnahme auf 8A und 8B beschrieben ist. In einem Ausführungsbeispiel können die grafischen Elemente Schatten der grafischen Elemente auf Basis der Tageszeit und dem Kurs des Fahrzeugs umfassen. Die erzeugten grafischen Elemente 254 werden an die Grafikbild-Rendereinrichtung 256 gesendet.
  • Die Grafikbild-Rendereinrichtung 256 konfiguriert die empfangenen grafischen Elemente 254, die auf dem HUD-Einrichtung-System (oder anderen Anzeige-Einrichtungen) angezeigt werden sollen, auf Basis der Modell-Informationen 244. Wenigstens einige der grafischen Elemente sind dazu konfiguriert, auf virtuellen Fläche des virtuellen Modells platziert zu werden. Insbesondere können wenigstens einige der grafischen Elemente dynamisch positioniert und konfiguriert sein, so dass diese grafischen Elemente auf den Anzeige-Einrichtungen so angezeigt werden, als ob diese grafischen Elemente Teil der realen Umgebung wären. Die Grafikbild-Rendereinrichtung 256 schließt die grafischen Elemente und deren Konfiguration in die Grafikdaten 144 ein und sendet die Grafikdaten 144 an das HUD-System 150 über den Bus 230 und das Ausgabe-Modul 224.
  • Konstruktion eines virtuellen Modells auf Basis visueller Informationen
  • Eine Verwendung visueller Informationen, die aus Bildern verfügbar sind, welche von einer Bilderfassungseinrichtung erfasst werden (etwa einer RGB-Kamera, stereoskopischen Kamera oder Tiefen-Kamera), ermöglicht eine rasche Konstruktion eines virtuellen Modells der Umgebung. Die visuellen Informationen können von einer an einem Fahrzeug installierten Bilderfassungseinrichtung verfügbar sein. Solche visuellen Informationen können unter Verwendung von Bildbearbeitungsalgorithmen zum Extrahieren von Merkmalen bearbeitet werden, die relevant für eine Konstruktion eines virtuellen Bildes sind, ohne übermäßige Berechnung, Zeitverzögerung oder übermäßige Datenmenge von einer externen Quelle, im Vergleich zu einer Konstruktion eines virtuellen Modells, die stark auf Karten-Daten beruht.
  • 3 ist eine bearbeitete Version 300 von einem Bild, das durch eine Bilderfassungseinrichtung des erweiterte-Realität-Systems gemäß einem Ausführungsbeispiel erfasst wurde. Das Bild 300 wird durch die Bilderfassungseinrichtung erfasst, welche zu der Vorderseite des Fahrzeugs zeigt. Das Bild 300 umfasst Linien 314, 316, welche Ränder der Straße 318 angeben, ein Gebäude 344 und andere Objekte, welche die Umgebung vor dem Fahrzeug bilden. Andere bearbeitete Bilder umfassen wahrscheinlich Fahrbahn-Linien, die auch für eine Bearbeitung verwendet werden können.
  • Die Bildmerkmal-Detektoren 238 wählen zunächst den Abschnitt 320 des bearbeiteten Bildes 300 zur weiteren Bearbeitung aus und schneiden diesen zu. Der Bildabschnitt 300 für die weitere Verarbeitung wird auch als interessante Region (ROI) bezeichnet. Der ausgewählte Abschnitt 320 kann sich vertikal herunter bis zu einer gewissen Distanz von einer vertikalen Position nahe dem Horizont erstrecken. Der ausgewählte Abschnitt schließt bevorzugt Abschnitte des Bilds aus, die bei einer genauen Erfassung von Merkmalen stören können, die relevant für die Straße sind, beispielsweise eine Motorhaube 310 des Fahrzeugs. Die vertikale Position und der Abstand des Abschnitts 320 können voreingestellt sein, oder sie können dynamisch mit der Änderung der Landschaft wechseln.
  • 4A ist ein bearbeitetes Bild, welches einen Abschnitt 320 von dem bearbeiteten Bild 300 illustriert, der durch eine inverse perspektivische Abbildung (IPM) gemäß einem Ausführungsbeispiel bearbeitet wurde. Durch Durchführen einer IPM-Bearbeitung wird die perspektivische Ansicht des bearbeiteten Bildes 300 in eine zweidimensionale Vogelperspektiven-Ansicht umgewandelt, wie beispielsweise beschrieben in „Real-time lane and obstacle detection on the gold system” von M. Bertozzi et al. in „Intelligent Vehicle Symposium, Proceedings for the 1996 IEEE”, Seiten 213–218 (1996), was durch Bezugnahme hierin in seiner Gesamtheit einbezogen ist. Verschiedene Bild-Artefakte 418, gezeigt durch gestrichelte Linien, und die Ränder 416, 414 der Straße 318 sind in 4A enthalten. Die IPM entfernt die perspektivische Verzerrung von dem Bild, so dass Straßenränder und Fahrbahnen, die auf dem Original-Bild zu konvergieren scheinen, in dem transformierten Bild parallel werden.
  • 4B ist ein gefiltertes Bild, das erhalten wird, indem ein separierbarer Filter auf das Bild von 4A angewendet wird, gemäß einem Ausführungsbeispiel. Der separierbare Filter kann dazu konfiguriert sein, Linien-Merkmale zu detektieren, die vertikal orientiert sind, mit einer tolerierbaren horizontalen Abweichung. Durch Anwenden des separierbaren Filters werden Artefakte oder Merkmale 418 in 4A, die irrelevant für die Konstruktion eines virtuellen Modells sind, entfernt, wobei die Ränder 414, 416 der Straße 138 belassen werden. Ein Verwenden des separierbaren Filters zur Entfernung von Artefakten oder irrelevanten Merkmalen ist unter anderen Gründen deswegen vorteilhaft, da die Verarbeitung im Vergleich zu anderen Algorithmen rasch durchgeführt werden kann. In anderen Ausführungsformen können andere Bildbearbeitungsalgorithmen als der separierbare Filter verwendet werden, beispielsweise eine Hough-Transformation, um Merkmale der Straße zu extrahieren.
  • Nachdem die Ränder 414, 416 der Straße erhalten wurden, kann eine Kurvenanpassung durchgeführt werden, um die Ränder der Straße zu repräsentieren. Um ein virtuelles Modell zu bilden, werden an die Ränder 414, 416 Spline-Kurven angepasst. Andere Anpassungsmechanismen können auch verwendet werden. Der Bereich zwischen den zwei angepassten Spline-Kurven repräsentiert die Straße 318, die vor dem Fahrzeug liegt.
  • 4C ist ein Diagramm, welches eine Segmentierung eines als eine Straße erfassten Bildabschnitts in mehrere Segmente 420, 422, 424, 428 zur Modellierung gemäß einem Ausführungsbeispiel illustriert. Für jedes der Segmente 420, 422, 424, 428 wird ein separates virtuelles Modell der Umgebung erzeugt. Jedes virtuelle Modell kann eine unterschiedliche Konfiguration (etwa Orientierung und Breite) aufweisen. In einem Ausführungsbeispiel wird die Straße durch ein vorbestimmtes Intervall segmentiert. In anderen Ausführungsbeispielen kann die Straße auf Basis von Änderungen in der Krümmung oder Orientierung von Kurven 414, 416 oder anderer Faktoren segmentiert werden.
  • Indem die Straße in mehrere Segmente segmentiert wird und ein virtuelles Modell für jedes Segment konstruiert wird, können die virtuellen Modelle eine realistischere Version der Umgebung repräsentieren. Wenn sich das Fahrzeug vorwärts bewegt, bewegen sich Segmente 420, 422, 424, 428 nach unten, wodurch bewirkt wird, dass ein neues Segment oben an dem Bild erscheint, und das Segment, das am weitesten unten liegt (etwa Segment 426) verschwindet unten aus dem Bild. Die Segmente können mit den neuen Konfigurationen aktualisiert werden, wenn neue erfasste Bilder der Straße empfangen und bearbeitet werden. Nachdem die Konfigurationen von allen Segmenten bestimmt sind, versenden die Bildmerkmal-Detektoren 238 die Informationen über die Konfigurationen in den Umgebung-Bildinformationen 236 und senden sie an den AR-Modell-Generator 234.
  • 5 ist ein konzeptuelles Diagramm eines virtuellen Modells 500 für ein Segment der Straße gemäß einem Ausführungsbeispiel. Das virtuelle Modell 500 liegt in der Form von einem Graben mit vier Flächen vor: einem Boden 504, einer linken Wand 510, einer rechten Wand 514 und einer Decke 506. Bei dem Beispiel des Segments 426 aus 4 entspricht die Breite Wd des virtuellen Modells 500 der horizontalen Entfernung zwischen Kurven 414, 416 in dem Segment 426, und die Länge Ld des virtuellen Modells 500 entspricht der vertikalen Länge des Segments 426. Wenn das Fahrzeug sich weiter nach vorne bewegt, bewegt sich das virtuelle Modell 500 zu dem Fahrzeug hin und wird durch ein anderes virtuelles Modell ersetzt, welches dem nächsten Segment (etwa Segment 424) entspricht, wenn das virtuelle Modell 500 zu einem Ende kommt.
  • In einem Ausführungsbeispiel wird ein Kalman-Filter auf die Parameter (etwa die Breite, die Orientierung und die Koordinaten) des virtuellen Modells angewendet, um einen sanften Übergang zu erreichen, oder eine sanfte Bewegung virtueller Modelle wenn nachfolgende bearbeitete Bilder 124 empfangen und durch den erweiterte Realität-Prozessor 140 bearbeitet werden.
  • In einem Ausführungsbeispiel kann auf Basis von dem erfassten Bild 112 die folgende Annahme verwendet werden, um ein virtuelles Modell robuster zu machen: (i) die Straße vor dem Fahrzeug ist flach, (ii) es gibt kein Rollen der Kamera im oder gegen den Uhrzeigersinn, und (iii) die Bilderfassungseinrichtung 110 ist an einer festen Höhe vom Boden aus platziert. Zusätzliche Annahmen können hinzugefügt werden, um die Erzeugung des virtuellen Bildes auf Basis von dem erfassten Bild 112 zu erleichtern.
  • Grafische Elemente zur Anzeige können auf verschiedene Weisen in Bezug auf die Flächen des virtuellen Modells 500 präsentiert werden. Beispiele einer Verwendung der Seitenflächen als Referenzflächen umfassen: (i) Verwendung von Seitenwänden 510, 514, auf welche die grafischen Elemente geklebt werden, wie illustriert durch Boxen 524, 528, (ii) Aufhängen eines Schilds 526, das sich nach innen (oder nach außen) von einer Seitenwand 510, 514 erstreckt und (iii) Platzieren eines Banners 518, das sich zwischen den zwei Seitenwänden 510, 514 erstreckt. Die Decke 506 kann auch als eine Referenzfläche zur Platzierung eines Etiketts 520 oder zum Aufhängen eines Schilds 527 verwendet werden. Ein Beispiel einer Verwendung des Bodens 504 als eine Referenzfläche für die grafischen Elemente umfasst eine Platzierung eines Boden-Etiketts 522 auf dem Boden 504. Andere grafische Elemente, beispielsweise eine Anschlagtafel oder ein virtueller Charakter (etwa ein dreidimensionaler animierter Charakter 724, wie illustriert in 7) können ebenfalls den Boden 504 als die Referenzfläche für die Platzierung verwenden.
  • Die grafischen Elemente bewegen sich in die gleiche Richtung und mit der gleichen Geschwindigkeit wie die Referenzflächen, die den grafischen Elementen zugeordnet sind, um einen Eindruck zu vermitteln, dass die grafischen Elemente Teil einer tatsächlichen Umgebung sind. In einem Ausführungsbeispiel werden grafische Elemente nur für ein virtuelles Modell angezeigt, das einem Segment der Straße entspricht, das dem Fahrzeug am nächsten ist. In anderen Ausführungsbeispielen werden die grafischen Elemente für virtuelle Modelle entsprechend zwei oder mehr Segmenten der Straße angezeigt.
  • In einem Ausführungsbeispiel werden mehrere virtuelle Modelle auf Basis der Konfiguration der Straße konstruiert. Für ein gerades Straßensegment kann ein gerades virtuelles Graben-Modell verwendet werden, wie es oben unter Bezugnahme auf 5 beschrieben ist. Für ein Segment einer Straße, das eine Kreuzung umfasst, kann ein virtuelles Modell verwendet werden, welches zwei sich kreuzende Gräben repräsentiert. Durch Verwendung von mehr als einem virtuellen Modell kann ein realistischeres virtuelles Modell erzeugt werden, welches der tatsächlichen realen Umgebung ähnelt.
  • Rendern grafischer Elemente
  • Nachdem ein virtuelles Modell erzeugt wird, werden Parameter des virtuellen Modells als die Modell-Informationen 244 an die Grafikbild-Rendereinrichtung 256 gesendet. Die Grafikbild-Rendereinrichtung 256 empfängt die grafischen Elemente 254 und deren Konfigurationen zur Darstellung von dem Grafikelement-Generator 252. Auf Basis des virtuellen Modells erzeugt die Grafikbild-Rendereinrichtung 256 Bilddaten mit grafischen Elementen, die so platziert und konfiguriert sind, dass sie mit dem virtuellen Modell konsistent sind.
  • In Ausführungsbeispielen, in welchen die grafischen Elemente auf dem HUD-System 150 angezeigt werden sollen, müssen die Konfigurationen der grafischen Elemente angepasst werden, um den Unterschied in der Position oder Perspektive des Fahrers und der Bilderfassungseinrichtung 110 zu berücksichtigen. Da die Position der Bilderfassungseinrichtung 110 und die Position der Augen des Fahrers bekannt sind, können Koordinaten-Anpassungen und eine Änderung in der Perspektive unter Verwendung beispielsweise einer OpenGL Anwendungsprogrammierung-Schnittstelle (API) durchgeführt werden.
  • In einem anderen Ausführungsbeispiel, in welchem die Bilder auf eine Anzeige-Einrichtung angezeigt werden, die in dem Armaturenbrett oder einer Mittelkonsole des Fahrzeugs installiert ist, oder die Differenz in der Position des Fahrers und der Bilderfassungseinrichtung 110 ignoriert werden kann, können die grafischen Elemente auch direkt dem durch die Bilderfassungseinrichtung 110 erfassten Bild zur Anzeige überlagert werden, ohne eine Anpassung wegen der Differenz in den Positionen der Bilderfassungseinrichtung 110 und des Fahrers.
  • 6 ist ein Bild von einer erweiterten Realität einschließlich grafischer Elemente 610, 614, 616, 618, die auf einer Anzeige-Einrichtung in einem Fahrzeug angezeigt werden. Das Bild in 6 kann von einer Windschutzscheibe des Fahrzeugs gesehen werden, wo die grafischen Elemente 614, 610, 616, 618 von einem Projektor des HUD-Systems 150 projiziert werden. Alternativ kann das Bild in 6 auf einer Anzeige-Einrichtung auf einem Armaturenbrett oder einer Mittelkonsole des Fahrzeugs gezeigt werden.
  • Jede der Boxen 614, 618 ist an einer linken Seitenwand bzw. einer rechten Seitenwand des virtuellen Modells fixiert, um Werbung oder andere Informationen anzuzeigen. Die Werbenachrichten können statische Bilder oder dynamische, sich bewegende Bilder sein. Eine Nachricht 610 und deren Schatten 616 können auch auf der Straße 318 angezeigt werden. Die Nachricht 610 ist für eine Platzierung auf dem Boden des virtuellen Modells entsprechend der Umgebung vor dem Fahrzeug konfiguriert. Die Nachricht 610 kann beispielsweise den Namen von einem interessanten Punkt (POI) und Warnsignale zu Fahrbedingungen angeben. Schatten (beispielsweise der Schatten 161) werden ebenfalls angezeigt, um den Realismus der erweiterten Realität zu erhöhen. Die Konfiguration von Schatten kann unter Verwendung der Positionierungsinformationen 116 und der Zeit-Informationen 148 bestimmt werden, wie unten im Detail beschrieben ist.
  • Wie oben unter Bezugnahme auf 5 beschrieben, bewegen und ändern sich die grafischen Elemente 610, 614, 616, 618 mit der Bewegung des Fahrzeugs. Insbesondere bewegen die Boxen 614, 618 sich und ändern ihre Abmessungen, so als ob die Boxen 614, 618 an festen Stellen von Seitenwänden des virtuellen Modells gesichert wären. Andererseits bewegen sich die Nachricht 610 und ihr Schatten 616 und ändern ihre Abmessung so, als ob sie am Boden des virtuellen Modells gesichert wären.
  • 7 ist ein Bild einer erweiterten Realität, einschließlich grafischer Elemente 712, 716, 720, 724, die angezeigt werden, während das Fahrzeug an einer Kreuzung anhält, gemäß einem Ausführungsbeispiel. An der Kreuzung kann ein virtuelles Graben-Modell, das unmittelbar vor dem Erreichen der Kreuzung erzeugt wurde, die grafischen Elemente 712, 716, 720, 724 platzieren. Alternativ kann ein neues virtuelles Modell erzeugt werden, welches eine Kreuzung repräsentiert, um die grafischen Elemente 712, 716, 720, 724 zu platzieren.
  • In dem Beispiel von 7 detektierte das Fahrzeug ein Stoppsignal unter Verwendung erfasster Bilder, einschließlich einem Verkehrssignal 752, oder durch Empfangen von Informationen über eine Fahrzeug-zu-Infrastruktur-Kommunikation (V2I). In Reaktion auf eine Detektion von einem „Stopp”-Signal durch das Fahrzeug wird ein Stoppschild 716 zur Anzeige auf dem HUD-System 150 oder anderen Anzeige-Einrichtungen in dem Fahrzeug erzeugt. Das Stoppschild 716 ist ein grafisches Element und wirkt so, als ob es an einer Decke des virtuellen Modells fixiert wäre. Das Stoppschild 716 kann in ein (nicht gezeiges) „Fahren”-Schild geändert werden, wenn das Verkehrssignal 752 sich ändert. Solch eine Änderung kann dadurch veranlasst werden, dass das erfasste Bild (durch Bildbearbeitung) eine Änderung von dem Verkehrssignal angibt, oder durch Informationen, welche über V2I-Kommunikation empfangen werden.
  • Während das Fahrzeug gestoppt ist, können grafische Elemente wie Werbung 712 erzeugt werden, um dem Fahrer gezeigt zu werden. Die Werbung 712 ist so konfiguriert, dass sie so wirkt, als ob sie auf einer Anzeigetafel angezeigt wird, die auf dem Boden des virtuellen Modells gesichert ist. Die Werbung 712 kann verschwinden, sobald das Fahrzeug beginnt, sich zu bewegen, oder sobald das Verkehrssignal 752 sich ändert. Ein Schatten 714 der Anzeigetafel kann auch erzeugt werden, um der Werbung 712 mehr Realismus zu verleihen. Indem die Werbung 712 gezeigt wird, während das Fahrzeug durch ein Verkehrssignal angehalten wird, wird eine Ablenkung des Fahrers reduziert, während der Fahrer unterhalten oder informiert wird.
  • 7 illustriert auch ein virtuelles dreidimensionales grafisches Element 724, das auf der Straße angezeigt wird. Das grafische Element 724 liegt in der Form eines Roboters vor, aber ein grafisches Element 724 in verschiedenen anderen Formen kann auch verwendet werden. In diesem Beispiel unterstützt das grafische Element 724 den Fahrer dabei, zu einem Ziel zu navigieren, indem es mit einem Finger anzeigt, dass an der Kreuzung rechts abgebogen wird. Das grafische Element 724 ist an dem Boden des virtuellen Modells befestigt. Ein Adressen-Schild 720 wird auch angezeigt, um den Fahrer dabei zu unterstützen, zu dem Ziel zu navigieren. Das Schild 720 kann an einer Seitenwand oder der Decke des virtuellen Modells befestigt sein.
  • Schatten von grafischen Elementen können dadurch erzeugt werden, dass die geographische Position des Fahrzeugs unter Verwendung von Echtzeit-GPS-Informationen detektiert wird, die als Teil der Positionierung-Informationen 116 empfangen werden. Unter Verwendung der GPS-Informationen und Zeit-Informationen 148 kann die Position der Sonne relativ zu dem Fahrzeug in Echtzeit bestimmt werden. Dadurch, dass die Sonne als eine Richtung-Lichtquelle verwendet wird und Flächen des virtuellen Modells als Ebenen verwendet werden, auf welche Schatten der grafischen Elemente projiziert werden, können die Schatten auf rasche Weise erzeugt werden.
  • Grafische Elemente und deren Konfigurationen in 6 und 7 sind nur illustrativ. Verschiedene andere grafische Elemente verschiedener Konfiguration können verwendet werden, um verschiedene Typen von visuellen Informationen an den Fahrer zu liefern.
  • Virtueller Überweg
  • Verschiedene Sicherheitsmerkmale können unter Verwendung des aus den erfassten Bildern erzeugten virtuellen Modells implementiert werden. Eines von vielen solcher Merkmale ist ein virtueller Überweg, der erzeugt wird, um einen Pfad anzugeben, den ein Fußgänger nehmen kann, um eine Straße zu überqueren. Fußgänger können manchmal unachtsam eine Straße überqueren, was ein Sicherheitsrisiko für Fahrzeuge erzeugt. In einem Ausführungsbeispiel wird ein Fußgänger, der wahrscheinlich unachtsam eine Straße überqueren wird, automatisch auf Basis von erfassten Bildern detektiert, und dann wird ein grafisches Element ähnlich zu einem Überweg angezeigt, um den Fahrer zu warnen.
  • In einem Ausführungsbeispiel umfasst die Bilderfassungseinrichtung 110 eine stereoskopische Kamera. Durch Bearbeitung von Bildern, die durch die stereoskopische Kamera erfasst werden, können die Haltung eines Fußgängers und die Distanz zu dem Fußgänger bestimmt werden. Der Fußgänger-Detektor 242 bestimmt, ob ein Fußgänger wahrscheinlich die Straße überqueren wird, auf Basis von Aktionen wie dem Hinwenden zu der Straße, dem Gehen zu der Straße, dem Hochhalten seines Arms oder einer Kombination dieser Aktionen. Nachdem der Fußgänger-Detektor 242 bestimmt, dass ein Fußgänger wahrscheinlich die Straße überqueren wird, sendet der Fußgänger-Detektor 242 die Fußgänger-Informationen 246, welche die Position des Fußgängers angeben, an den Grafikelement-Generator 252.
  • Auf Basis der Fußgänger-Informationen 246 erzeugt der Grafikelement-Generator 252 ein Grafikelement, das einen Überweg 810 für einen Fußgänger 818 repräsentiert, wie illustriert in 8A. Der Überweg 810 erstreckt sich über eine Straße 820 von dem Teil der Straße aus, der am nächsten an dem Fußgänger 818 ist. Zusätzlich kann der Grafikelement-Generator 852 ein grafisches Element 814 erzeugen, das ein Warnsignal repräsentiert, um anzugeben, dass der Fußgänger 818 wahrscheinlich damit beginnen wird, die Straße 820 zu überqueren.
  • Die Distanz zu dem Fußgänger 818 kann bestimmt werden, indem das durch die Bilderfassungseinrichtung 110 erfasste stereoskopische Bild bearbeitet wird. Wenn das Fahrzeug näher an den Fußgänger 818 kommt, ändert sich das grafische Element 814 zu einem Stoppsignal 818, wie illustriert in 8A, um eine stärkere Vorsichtsmaßnahme des Fahrers zu veranlassen.
  • Der Überweg 810 ist ein grafisches Element, das an dem Boden des virtuellen Modells fixiert ist, während die grafischen Elemente 814, 818 grafische Elemente sind, die an der rechten Seitenwand des virtuellen Modells fixiert sind. Da diese grafischen Elemente sich verknüpft mit der Änderung in der Szenerie bewegen, erzeugen die grafischen Elemente weniger Ablenkung für den Fahrer, während Sie den Fahrer auf die möglichen Risiko-Faktoren aufmerksam machen.
  • Beispielhaftes Verfahren zum Anzeigen grafischer Elemente
  • 9 ist ein Flussdiagramm, das ein Verfahren illustriert, um grafische Elemente für eine erweiterte Realität gemäß einem Ausführungsbeispiel zu erzeugen. Zunächst wird ein Bild der Umgebung vor dem Fahrzeug erfasst 910 unter Verwendung einer Bilderfassungseinrichtung 110. Das erfasste Bild 112 wird dann vorbearbeitet und an den erweiterte-Realität-Prozessor 140 gesendet.
  • Der erweiterte-Realität-Prozessor 140 extrahiert 920 Merkmale, die relevant für eine Straße sind, aus dem erfassten Bild (oder dem vorbearbeiteten Bild). Zu diesem Zweck, kann der erweiterte-Realität-Prozessor 140 Bilder zuschneiden und einen Abschnitt des erfassten Bildes zurückhalten, der geeignet ist, um die Merkmale zu extrahieren. Weiterhin kann ein IPM-Algorithmus auf das zugeschnittene Bild angewendet werden, um eine Extraktion relevanter Merkmale zu erleichtern. Die Merkmale können beispielsweise unter Verwendung eines separierbaren Filters, einer Hough-Transformation oder anderer anwendbarer Filter extrahiert werden. In einem Ausführungsbeispiel umfassen die extrahierten Merkmale Linien, die Rändern der Straße entsprechen.
  • Auf Basis der extrahierten Merkmale wird ein virtuelles Modell der Umgebung vor dem Fahrzeug konstruiert 936. Das virtuelle Modell umfasst eine oder mehrere Flächen, auf welchen die Position und Konfiguration der grafischen Elemente Bezug nehmen können. Beispielsweise können die grafischen Elemente auf die Fläche platziert werden, sich von der Fläche erstreckend, oder können auf der Fläche platziert werden.
  • Die grafischen Elemente werden dann erzeugt 940, zur Platzierung gemäß dem virtuellen Modell. Die grafischen Elemente können auf Basis von Informationen von externen Quellen erzeugt werden, oder von Informationen, die in dem Fahrzeug erzeugt werden (etwa Fußgänger-Informationen 246). Nachdem die grafischen Elemente erzeugt wurden, werden die Konfigurationen der grafischen Elemente zur Platzierung mit Bezugnahme auf Flächen in dem virtuellen Modell angepasst. Die Konfigurationen der grafischen Elemente können Neigungswinkel, Größen und Orientierungen der grafischen Elemente umfassen.
  • Die erzeugten grafischen Elemente werden dann auf der Anzeige-Einrichtung (etwa dem HUD-System 150) angezeigt 950. Dann kehrt das Verfahren dazu zurück, ein nachfolgendes Bild zu erfassen 910 und wiederholt die nachfolgenden Prozesse.
  • Die Schritte und ihre Abfolgen in 9 sind nur illustrativ. Beispielsweise kann ein Schritt einer Erfassung der Position des Fahrzeugs hinzugefügt werden, um Schatten von grafischen Elementen zu erzeugen.
  • Alternative oder zusätzliche Ausführungsbeispiele
  • In einem Ausführungsbeispiel, können die Positionierungsinformationen 160 einschließlich GPS-Informationen und dem Kurs des Fahrzeugs verwendet werden, um bei einer Erzeugung des virtuellen Modells zu helfen. Die GPS-Informationen und der Kurs des Fahrzeugs können dazu verwendet werden, den Abschnitt einer Straße zu bestimmen, auf welchem das Fahrzeug fährt, auf einer Karte oder einem Satellitenbild. Auf Basis der Karte oder des Satellitenbilds, können die Orientierung und Breite der Straße gegen die Vogelperspektiven-Ansicht verifiziert werden (vgl. 4A oder 4B). Anpassungen können an der Vogelperspektiven-Ansicht vorgenommen werden, bevor ein virtuelles Modell der Umgebung konstruiert wird.
  • In einem Ausführungsbeispiel kann anstelle davon, virtuelle Modelle für die gesamte Länge der Straße zu erzeugen, die in dem erfassten Bild sichtbar ist, nur ein Abschnitt der Straße nahe an dem Fahrzeug verwendet werden, um ein virtuelles Modell zu erzeugen. Bei dem Beispiel von 4C wird ein virtuelles Modell nur für Segment 426 erzeugt. Das Segment 426 kann kontinuierlich mit dem Fortschreiten der Zeit und des Fahrzeugs aktualisiert werden.
  • In einem Ausführungsbeispiel, werden Farbinformationen von Straßen alternativ oder zusätzlich dazu verwendet, Linien-Merkmale in dem erfassten Bild zu extrahieren. Straßen haben im Allgemeinen eine gräuliche bis schwarze Farbe. Unter Verwendung solcher Charakteristika der Straße, können Pixel einem Bild, die Farbwerte innerhalb von einem vorbestimmten Farbraum aufweisen, und eine zusammenhängende Region des Bildes ausgewählt werden, um die Straße zu repräsentieren. Ein Detektion von Straßen unter Verwendung von Farbinformationen kann besonders bei Kreuzungen nützlich sein. Die Anordnung von Pixeln kann dann analysiert werden, um die Konfiguration der Straße vor dem Fahrzeug zu bestimmen.
  • Obwohl oben verschiedene Ausführungsbeispiele beschrieben wurden, können verschiedene Modifikationen innerhalb des Umfangs der vorliegenden Offenbarung durchgeführt werden.

Claims (20)

  1. Ein Verfahren, umfassend: Erfassen eines Bildes durch eine Bilderfassungseinrichtung in einem Fahrzeug, Erfassen visueller Merkmale in dem Bild, die eine Position einer Straße relativ zu dem Fahrzeug angeben, Konstruieren eines virtuellen Modells einer Umgebung vor dem Fahrzeug auf Basis der erfassten visuellen Merkmale, wobei das virtuelle Modell wenigstens eine Fläche umfasst, Erzeugen grafischer Elemente, um Informationen auf eine Anzeige-Einrichtung in dem Fahrzeug zu übermitteln, Konfigurieren der erzeugten grafischen Elemente in Bezug zu der wenigstens einen Fläche des virtuellen Modells, und Anzeigen der konfigurierten grafischen Elemente auf der Anzeige-Einrichtung.
  2. Das Verfahren nach Anspruch 1, wobei die Anzeige-Einrichtung eine Head-up-Display-Einrichtung ist, welche die grafischen Elemente auf eine Windschutzscheibe des Fahrzeugs projiziert.
  3. Das Verfahren nach Anspruch 1, wobei das virtuelle Modell einen Graben repräsentiert, der eine linke Wand, eine rechte Wand, einen Boden und eine Decke umfasst.
  4. Das Verfahren nach Anspruch 1, wobei die konfigurierten grafischen Elemente sich verknüpft mit der wenigstens einen Fläche bewegen, um einen Eindruck zu erzeugen, dass die konfigurierten grafischen Elemente an der wenigstens einen Fläche fixiert sind.
  5. Das Verfahren nach Anspruch 1, wobei ein Detektieren der visuellen Merkmale umfasst: Zuschneiden des erfassten Bildes, um einen Bildabschnitt zu extrahieren, der einen Umriss einer Straße umfasst, und Detektieren von Linien-Merkmalen aus dem zugeschnittenen Bild, welche Ränder der Straße repräsentieren.
  6. Das Verfahren nach Anspruch 5, wobei ein Detektieren der visuellen Merkmale weiter umfasst: Durchführen einer inversen perspektivischen Abbildung an dem zugeschnittenen Bild, um ein Bild aus einer Vogelperspektive zu erzeugen, Verwenden eines separierbaren Filters an dem Bild in Vogelperspektive, um ein gefiltertes Bild zu erzeugen, wobei die Linien-Merkmale aus dem gefilterten Bild detektiert werden, und Anpassen von Kurven an die erfassten Linien-Merkmale.
  7. Verfahren nach Anspruch 1, wobei ein Erzeugen der grafischen Elemente umfasst: Bestimmen einer Position und eines Kurses des Fahrzeugs, und Beschaffen von Informationen von einer Informationsquelle auf Basis der Position oder des Kurses des Fahrzeugs.
  8. Das Verfahren nach Anspruch 7, wobei ein Erzeugen der grafischen Elemente weiter umfasst, ein Profil eines Benutzers und die Position oder den Kurs des Fahrzeugs zu verwenden, um die grafischen Elemente zu erzeugen.
  9. Das Verfahren nach Anspruch 1, weiter umfassend: Bestimmen eines Kurses und einer Position des Fahrzeugs, Bestimmen einer aktuellen Zeit, Bestimmen einer Position der Sonne relativ zu dem Fahrzeug auf Basis der bestimmten aktuellen Zeit, des bestimmten Kurses und der bestimmten Position, Erzeugen von Schatten von wenigstens einem der konfigurierten grafischen Elemente auf Basis der Position der Sonne, und Anzeigen der Schatten auf der Anzeige-Einrichtung.
  10. Das Verfahren nach Anspruch 1, weiter umfassend: Detektieren eines Fußgängers, der wahrscheinlich die Straße vor dem Fahrzeug überqueren wird, und Erzeugen eines grafischen Elements, welches einen Überweg an einem Abschnitt der Straße repräsentiert, über welchen der Fußgänger wahrscheinlich die Straße überqueren wird.
  11. Ein erweiterte-Realität-System, umfassend: eine Bilderfassungseinrichtung, die in einem Fahrzeug installiert ist, um ein Bild zu erfassen, welches eine Straße vor dem Fahrzeug umfasst, einen Bild-Merkmal-Detektor, der mit der Bilderfassungseinrichtung gekoppelt und dazu konfiguriert ist, visuelle Merkmale in dem Bild zu detektieren, die eine Position einer Straße relativ zu dem Fahrzeug angeben, einen Modell-Generator, der mit dem Bild-Merkmal-Detektor gekoppelt und dazu konfiguriert ist, ein virtuelles Modell einer Umgebung vor dem Fahrzeug auf Basis der visuellen Merkmale zu konstruieren, wobei das virtuelle Modell wenigstens eine Fläche umfasst, einen Grafikelement-Generator, der dazu konfiguriert ist, dass grafische Elemente Informationen übertragen, eine Grafikbild-Rendereinrichtung, die dazu konfiguriert ist, Konfigurationen der erzeugten grafischen Elemente einzustellen, in Bezug auf die wenigstens eine Fläche des virtuellen Modells, und eine Anzeige-Einrichtung, die mit der Grafikbild-Rendereinrichtung gekoppelt und dazu konfiguriert ist, die erzeugten grafischen Elemente gemäß den eingestellten Konfigurationen anzuzeigen.
  12. System nach Anspruch 11, wobei die Anzeige-Einrichtung eine Head-up-Display-Einrichtung ist, welche die grafischen Elemente auf eine Windschutzscheibe des Fahrzeugs projiziert.
  13. Das System nach Anspruch 11, wobei das virtuelle Modell einen Graben repräsentiert, der eine linke Wand, eine rechte Wand, einen Boden und eine Decke umfasst.
  14. Das System nach Anspruch 11, wobei die Konfigurationen der grafischen Elemente dazu eingestellt sind, die grafischen Elemente verknüpft mit der wenigstens einen Fläche zu bewegen, um einen Eindruck zu erzeugen, dass die grafischen Elemente an der wenigstens einen Fläche fixiert sind.
  15. Das System nach Anspruch 11, wobei der Bildmerkmal-Detektor dazu konfiguriert ist: das erfasste Bild zuzuschneiden, um einen Bildabschnitt zu extrahieren, der einen Umriss einer Straße umfasst, und Linien-Merkmale an dem zugeschnittenen Bild zu detektieren, welche Ränder der Straße repräsentieren.
  16. Das System nach Anspruch 15, wobei der Bildmerkmal-Detektor weiter dazu konfiguriert ist, eine inverse perspektivische Abbildung an dem zugeschnittenen Bild durchzuführen, um ein Bild in Vogelperspektive zu erzeugen, eine separierbare Filterung an dem Bild in Vogelperspektive anzuwenden, um ein gefiltertes Bild zu erzeugen, wobei die Linien-Merkmale aus dem gefilterten Bild detektiert werden, und Kurven an die detektierten Linien-Merkmale anzupassen.
  17. Das System nach Anspruch 15, wobei der Grafikelement-Generator dazu konfiguriert ist: Position und Kurs des Fahrzeugs zu bestimmen, und Informationen von einer Informationsquelle auf Basis der Position oder des Kurses des Fahrzeugs zu beschaffen.
  18. Das System nach Anspruch 11, weiter umfassend eine Umgebungszustand-Analyseeinrichtung, die dazu konfiguriert ist: eine Position der Sonne auf Basis der bestimmten aktuellen Zeit, des bestimmten Kurses und der bestimmten Position zu bestimmen, und Schatten von wenigstens einem der konfigurierten grafischen Elemente auf Basis der Position der Sonne zur Anzeige auf der Anzeige-Einrichtung zu erzeugen.
  19. Das System nach Anspruch 11, weiterhin umfassend einen Fußgänger-Detektor, der dazu konfiguriert ist, einen Fußgänger zu detektieren, der wahrscheinlich die Straße vor dem Fahrzeug überqueren wird, und wobei der Grafikelemente-Generator weiter dazu konfiguriert ist, ein grafisches Element zu erzeugen, das einen Überweg an einem Abschnitt der Straße repräsentiert, über welchen der Fußgänger wahrscheinlich die Straße überqueren wird.
  20. Ein nichtflüchtiges, computerlesbares Speichermedium, welches Anweisungen darauf speichert, wobei die Anweisungen bei Ausführung durch einen Prozessor bewirken, dass der Prozessor: visuelle Merkmale in einem Bild detektiert, die eine Position einer Straße relativ zu dem Fahrzeug angeben, wobei das Bild durch eine Bilderfassungseinrichtung in dem Fahrzeug erfasst wird, ein virtuelles Modell einer Umgebung vor dem Fahrzeug auf Basis der visuellen Merkmale konstruiert, wobei das virtuelle Modell wenigstens eine Fläche umfasst, grafische Elemente erzeugt, um Informationen auf eine Anzeige-Einrichtung in dem Fahrzeug zu übermitteln, die erzeugten grafischen Elemente in Bezug auf die wenigstens eine Fläche des virtuellen Modells konfiguriert und die konfigurierten grafischen Elemente auf der Anzeige-Einrichtung anzeigt.
DE112013002354.7T 2012-05-07 2013-05-03 Verfahren zum Erzeugen virtueller Anzeigeflächen aus Videobildern einer straßenbasierten Landschaft Withdrawn DE112013002354T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261643792P 2012-05-07 2012-05-07
US61/643,792 2012-05-07
PCT/US2013/039557 WO2013169601A2 (en) 2012-05-07 2013-05-03 Method to generate virtual display surfaces from video imagery of road based scenery

Publications (1)

Publication Number Publication Date
DE112013002354T5 true DE112013002354T5 (de) 2015-04-16

Family

ID=49512199

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112013002354.7T Withdrawn DE112013002354T5 (de) 2012-05-07 2013-05-03 Verfahren zum Erzeugen virtueller Anzeigeflächen aus Videobildern einer straßenbasierten Landschaft

Country Status (4)

Country Link
US (1) US9135754B2 (de)
JP (1) JP6062041B2 (de)
DE (1) DE112013002354T5 (de)
WO (1) WO2013169601A2 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014114629A1 (de) * 2014-10-09 2016-04-14 Connaught Electronics Ltd. Prüfen eines Kamerasystems eines Kraftfahrzeugs
WO2017102136A1 (de) 2015-12-15 2017-06-22 Volkswagen Aktiengesellschaft Fortbewegungsmittel und anordnung für ein fortbewegungsmittel zur ausgabe richtungsanaloger hinweise auf umgebungsdetails
DE102015121952A1 (de) * 2015-12-16 2017-06-22 Valeo Schalter Und Sensoren Gmbh Verfahren zum Identifizieren eines Objektes in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
WO2019166222A1 (de) * 2018-03-02 2019-09-06 Volkswagen Aktiengesellschaft Verfahren zur berechnung einer ar-einblendung von zusatzinformationen für eine anzeige auf einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
DE102018213634A1 (de) * 2018-08-13 2020-02-13 Audi Ag Verfahren zum Betreiben einer in einem Kraftfahrzeug angeordneten Anzeigeeinrichtung und Anzeigeeinrichtung zum Verwenden in einem Kraftfahrzeug

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140240313A1 (en) * 2009-03-19 2014-08-28 Real Time Companies Computer-aided system for 360° heads up display of safety/mission critical data
US20140095294A1 (en) * 2012-09-28 2014-04-03 Cornelius V. Vick Mechanism for facilitating context-aware broadcast and virtual visualization of advertisements
US9514650B2 (en) 2013-03-13 2016-12-06 Honda Motor Co., Ltd. System and method for warning a driver of pedestrians and other obstacles when turning
US10319145B2 (en) * 2013-03-14 2019-06-11 Intel Corporation Asynchronous representation of alternate reality characters
US9064420B2 (en) * 2013-03-14 2015-06-23 Honda Motor Co., Ltd. Augmented reality heads up display (HUD) for yield to pedestrian safety cues
US9747898B2 (en) 2013-03-15 2017-08-29 Honda Motor Co., Ltd. Interpretation of ambiguous vehicle instructions
US20140362195A1 (en) * 2013-03-15 2014-12-11 Honda Motor, Co., Ltd. Enhanced 3-dimensional (3-d) navigation
US10339711B2 (en) 2013-03-15 2019-07-02 Honda Motor Co., Ltd. System and method for providing augmented reality based directions based on verbal and gestural cues
US10215583B2 (en) 2013-03-15 2019-02-26 Honda Motor Co., Ltd. Multi-level navigation monitoring and control
JP6094399B2 (ja) * 2013-06-24 2017-03-15 株式会社デンソー ヘッドアップディスプレイ、及びプログラム
US9715764B2 (en) * 2013-10-03 2017-07-25 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US9630631B2 (en) 2013-10-03 2017-04-25 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US9536353B2 (en) 2013-10-03 2017-01-03 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US9547173B2 (en) 2013-10-03 2017-01-17 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US9598012B2 (en) * 2014-03-11 2017-03-21 Toyota Motor Engineering & Manufacturing North America, Inc. Surroundings monitoring system for a vehicle
GB201406405D0 (en) * 2014-04-09 2014-05-21 Jaguar Land Rover Ltd Apparatus and method for displaying information
KR102233391B1 (ko) * 2014-06-16 2021-03-29 팅크웨어(주) 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체
KR102299487B1 (ko) * 2014-07-17 2021-09-08 현대자동차주식회사 증강 현실 알림 제공 시스템 및 방법
US10539791B2 (en) 2014-09-02 2020-01-21 Ostendo Technologies, Inc. Split exit pupil multiple virtual image heads-up display systems and methods
KR102383425B1 (ko) * 2014-12-01 2022-04-07 현대자동차주식회사 전자 장치, 전자 장치의 제어 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
US9846969B2 (en) * 2014-12-01 2017-12-19 Thinkware Corporation Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
US10127726B2 (en) 2014-12-01 2018-11-13 Thinkware Corporation Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
US9625270B2 (en) 2014-12-01 2017-04-18 Thinkware Corporation Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
JP6485732B2 (ja) * 2014-12-10 2019-03-20 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム
DE102014119317A1 (de) * 2014-12-22 2016-06-23 Connaught Electronics Ltd. Verfahren zur Darstellung eines Bildüberlagerungselements in einem Bild mit 3D-Information, Fahrerassistenzsystem und Kraftfahrzeug
US20160210775A1 (en) * 2015-01-21 2016-07-21 Ford Global Technologies, Llc Virtual sensor testbed
KR20180019067A (ko) * 2015-03-20 2018-02-23 유니버시티 오브 메릴랜드 소셜 스트리트 뷰 생성을 위한 시스템, 장치 및 방법
US9505346B1 (en) * 2015-05-08 2016-11-29 Honda Motor Co., Ltd. System and method for warning a driver of pedestrians and other obstacles
KR102309316B1 (ko) * 2015-06-02 2021-10-05 엘지전자 주식회사 차량용 디스플레이 장치 및 이를 구비한 차량
EP4246094A3 (de) 2015-09-25 2023-12-27 Apple Inc. Anzeigesystem für erweiterte realität
US10019054B2 (en) * 2015-12-30 2018-07-10 Thunder Power New Energy Vehicle Development Company Limited Remote driving with a virtual reality system
US9568995B1 (en) * 2015-12-30 2017-02-14 Thunder Power Hong Kong Ltd. Remote driving with a virtual reality system
US10712556B2 (en) * 2015-12-31 2020-07-14 Huawei Technologies Co., Ltd. Image information processing method and augmented reality AR device
US9836652B2 (en) 2016-02-02 2017-12-05 International Business Machines Corporation Showing danger areas associated with objects using augmented-reality display techniques
US10002226B1 (en) * 2016-02-02 2018-06-19 Toyota Jidosha Kabushiki Kaisha Realistic roadway virtualization system
US10325405B1 (en) 2016-04-08 2019-06-18 Relay Cars LLC Social media sharing in a virtual reality application
US20170293140A1 (en) * 2016-04-12 2017-10-12 Ostendo Technologies, Inc. Split Exit Pupil Heads-Up Display Systems and Methods
US10845591B2 (en) 2016-04-12 2020-11-24 Ostendo Technologies, Inc. Split exit pupil heads-up display systems and methods
US11248925B2 (en) 2016-07-28 2022-02-15 Toyota Motor Engineering & Manufacturing North America, Inc. Augmented road line detection and display system
KR102581359B1 (ko) * 2016-09-02 2023-09-20 엘지전자 주식회사 차량용 사용자 인터페이스 장치 및 차량
DE102016222556A1 (de) * 2016-11-16 2018-05-17 Bayerische Motoren Werke Aktiengesellschaft Verkehrssignaleinrichtung und Verfahren zum Betreiben eines Plasmaobjekts
JP6497818B2 (ja) 2017-03-10 2019-04-10 株式会社Subaru 画像表示装置
JP6593803B2 (ja) 2017-03-10 2019-10-23 株式会社Subaru 画像表示装置
JP6429413B2 (ja) 2017-03-10 2018-11-28 株式会社Subaru 画像表示装置
JP6465317B2 (ja) 2017-03-10 2019-02-06 株式会社Subaru 画像表示装置
JP6515125B2 (ja) 2017-03-10 2019-05-15 株式会社Subaru 画像表示装置
US20180260638A1 (en) * 2017-03-10 2018-09-13 Toyota Research Institute, Inc. Systems and methods for providing updatable roadway codes
JP6465318B2 (ja) 2017-03-10 2019-02-06 株式会社Subaru 画像表示装置
JP6497819B2 (ja) * 2017-03-10 2019-04-10 株式会社Subaru 画像表示装置
JP6947873B2 (ja) * 2017-03-17 2021-10-13 マクセル株式会社 Ar表示装置、ar表示方法、およびプログラム
CN110419063A (zh) 2017-03-17 2019-11-05 麦克赛尔株式会社 Ar显示装置和ar显示方法
CN115620545A (zh) * 2017-08-24 2023-01-17 北京三星通信技术研究有限公司 用于辅助驾驶的增强现实的方法及装置
WO2019058492A1 (ja) * 2017-09-22 2019-03-28 マクセル株式会社 表示システム及び表示方法
JP6543313B2 (ja) * 2017-10-02 2019-07-10 株式会社エイチアイ 移動体用画像生成記録表示装置及びプログラム
US10417911B2 (en) 2017-12-18 2019-09-17 Ford Global Technologies, Llc Inter-vehicle cooperation for physical exterior damage detection
US10600234B2 (en) 2017-12-18 2020-03-24 Ford Global Technologies, Llc Inter-vehicle cooperation for vehicle self imaging
JP2019117432A (ja) * 2017-12-26 2019-07-18 パイオニア株式会社 表示制御装置
TWI657409B (zh) 2017-12-27 2019-04-21 財團法人工業技術研究院 虛擬導引圖示與真實影像之疊合裝置及其相關疊合方法
US10745005B2 (en) 2018-01-24 2020-08-18 Ford Global Technologies, Llc Inter-vehicle cooperation for vehicle self height estimation
US11354864B2 (en) * 2018-02-21 2022-06-07 Raziq Yaqub System and method for presenting location based augmented reality road signs on or in a vehicle
US10726597B1 (en) 2018-02-22 2020-07-28 A9.Com, Inc. Optically challenging surface detection for augmented reality
US10628690B2 (en) 2018-05-09 2020-04-21 Ford Global Technologies, Llc Systems and methods for automated detection of trailer properties
USD933672S1 (en) * 2018-06-03 2021-10-19 Apple Inc. Display screen or portion thereof with animated graphical user interface
CN108995590A (zh) * 2018-07-26 2018-12-14 广州小鹏汽车科技有限公司 一种人车互动方法、系统及装置
US10810621B2 (en) 2018-09-17 2020-10-20 Ford Global Technologies, Llc Vehicle advertisement
CN113170016A (zh) * 2018-09-21 2021-07-23 Lg电子株式会社 移动终端及其控制方法
US11767024B2 (en) 2018-10-25 2023-09-26 Samsung Electronics Co., Ltd. Augmented reality method and apparatus for driving assistance
US10969595B2 (en) 2018-11-30 2021-04-06 International Business Machines Corporation In-vehicle content display apparatus
JP7296406B2 (ja) 2019-01-28 2023-06-22 株式会社メルカリ プログラム、情報処理方法、及び情報処理端末
US11351917B2 (en) 2019-02-13 2022-06-07 Ford Global Technologies, Llc Vehicle-rendering generation for vehicle display based on short-range communication
USD931298S1 (en) 2019-05-30 2021-09-21 Apple Inc. Display screen or portion thereof with graphical user interface
USD987652S1 (en) 2019-09-11 2023-05-30 Ford Global Technologies, Llc Display screen with graphical user interface
GB2588838B (en) * 2020-07-07 2022-04-20 Rhizomenet Pty Ltd Augmented reality messaging system
KR20210131129A (ko) * 2020-04-23 2021-11-02 현대자동차주식회사 이동 수단용 ui 생성 장치 및 ui 생성 방법
KR20220022340A (ko) * 2020-08-18 2022-02-25 삼성전자주식회사 컨텐츠를 시각화하는 장치 및 방법
CN113260430B (zh) * 2021-03-31 2022-07-22 华为技术有限公司 一种场景处理方法、装置、系统及相关设备
CN113610860B (zh) 2021-06-17 2023-12-15 阿波罗智能技术(北京)有限公司 高精地图斑马线生成方法、装置及电子设备
GB2613004A (en) * 2021-11-19 2023-05-24 Wayray Ag System and method
CN114120642B (zh) * 2021-11-23 2022-12-06 深圳大学 一种道路车流三维重建方法、计算机设备及存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6195099B1 (en) * 1998-12-03 2001-02-27 Evans & Sutherland Computer Corporation Method for time based shadow rendering
JP2003287434A (ja) * 2002-01-25 2003-10-10 Iwane Kenkyusho:Kk 画像情報検索システム
JP2003264740A (ja) * 2002-03-08 2003-09-19 Cad Center:Kk 展望鏡
JP4134785B2 (ja) 2003-03-28 2008-08-20 株式会社デンソー 表示装置
JP2004302903A (ja) * 2003-03-31 2004-10-28 Fuji Photo Film Co Ltd 車両表示装置
US8521411B2 (en) 2004-06-03 2013-08-27 Making Virtual Solid, L.L.C. En-route navigation display method and apparatus using head-up display
JP2006105640A (ja) * 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置
US8108142B2 (en) 2005-01-26 2012-01-31 Volkswagen Ag 3D navigation system for motor vehicles
US8843309B2 (en) * 2005-04-21 2014-09-23 Microsoft Corporation Virtual earth mapping
KR20080048786A (ko) * 2006-11-29 2008-06-03 팅크웨어(주) 목적지 주변의 관심지점 제공 방법 및 시스템
DE102006062061B4 (de) * 2006-12-29 2010-06-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera
JP2011242816A (ja) * 2008-09-09 2011-12-01 Tonchidot Corp 視界情報に仮想情報を付加して表示できるシステム
US8358224B2 (en) * 2009-04-02 2013-01-22 GM Global Technology Operations LLC Point of interest location marking on full windshield head-up display
US8164543B2 (en) 2009-05-18 2012-04-24 GM Global Technology Operations LLC Night vision on full windshield head-up display
US8977489B2 (en) 2009-05-18 2015-03-10 GM Global Technology Operations LLC Turn by turn graphical navigation on full windshield head-up display
TW201103787A (en) * 2009-07-31 2011-02-01 Automotive Res & Testing Ct Obstacle determination system and method utilizing bird's-eye images
DE102009037835B4 (de) * 2009-08-18 2012-12-06 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
US8503762B2 (en) * 2009-08-26 2013-08-06 Jacob Ben Tzvi Projecting location based elements over a heads up display
JP5654269B2 (ja) 2010-06-24 2015-01-14 東芝アルパイン・オートモティブテクノロジー株式会社 車両用ディスプレイ装置及び車両用ディスプレイの表示方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014114629A1 (de) * 2014-10-09 2016-04-14 Connaught Electronics Ltd. Prüfen eines Kamerasystems eines Kraftfahrzeugs
WO2017102136A1 (de) 2015-12-15 2017-06-22 Volkswagen Aktiengesellschaft Fortbewegungsmittel und anordnung für ein fortbewegungsmittel zur ausgabe richtungsanaloger hinweise auf umgebungsdetails
DE102015225343A1 (de) 2015-12-15 2017-06-22 Volkswagen Aktiengesellschaft Fortbewegungsmittel und Anordnung für ein Fortbewegungsmittel zur Ausgabe richtungsanaloger Hinweise auf Umgebungsdetails
DE102015225343B4 (de) 2015-12-15 2022-07-07 Volkswagen Aktiengesellschaft Fortbewegungsmittel und Anordnung für ein Fortbewegungsmittel zur Ausgabe richtungsanaloger Hinweise auf Umgebungsdetails
DE102015121952A1 (de) * 2015-12-16 2017-06-22 Valeo Schalter Und Sensoren Gmbh Verfahren zum Identifizieren eines Objektes in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
US10635896B2 (en) 2015-12-16 2020-04-28 Valeo Schalter Und Sensoren Gmbh Method for identifying an object in a surrounding region of a motor vehicle, driver assistance system and motor vehicle
WO2019166222A1 (de) * 2018-03-02 2019-09-06 Volkswagen Aktiengesellschaft Verfahren zur berechnung einer ar-einblendung von zusatzinformationen für eine anzeige auf einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
US11904688B2 (en) 2018-03-02 2024-02-20 Volkswagen Aktiengesellschaft Method for calculating an AR-overlay of additional information for a display on a display unit, device for carrying out the method, as well as motor vehicle and computer program
DE102018213634A1 (de) * 2018-08-13 2020-02-13 Audi Ag Verfahren zum Betreiben einer in einem Kraftfahrzeug angeordneten Anzeigeeinrichtung und Anzeigeeinrichtung zum Verwenden in einem Kraftfahrzeug
US11865916B2 (en) 2018-08-13 2024-01-09 Audi Ag Method for operating a display device arranged in a motor vehicle and display device for use in a motor vehicle

Also Published As

Publication number Publication date
JP6062041B2 (ja) 2017-01-18
US20130293582A1 (en) 2013-11-07
WO2013169601A3 (en) 2014-01-16
US9135754B2 (en) 2015-09-15
WO2013169601A2 (en) 2013-11-14
JP2015523624A (ja) 2015-08-13

Similar Documents

Publication Publication Date Title
DE112013002354T5 (de) Verfahren zum Erzeugen virtueller Anzeigeflächen aus Videobildern einer straßenbasierten Landschaft
DE102017100198A1 (de) Fixierungserzeugung für maschinenlernen
DE102008034594B4 (de) Verfahren sowie Informationssystem zur Information eines Insassen eines Fahrzeuges
DE102018121018A1 (de) Erweitern von realen sensoraufnahmen mit simuliertem sensordatenhintergrund
DE102018121019A1 (de) Erweitern von realen sensoraufzeichnungen mit simulierten sensordaten
DE112018000786T5 (de) EINE VORRICHTUNG UND EIN VERFAHREN ZUM STEUERN EINER HEAD-UP-vvANZEIGE EINES FAHRZEUGS
DE112018004521T5 (de) Anzeigevorrichtung eines überlagerten Bildes und Computerprogramm
DE102017115197A1 (de) Erzeugung von virtuellen sensordaten für die erfassung von polleraufnahmen
DE112018004561T5 (de) Fahrzeugfahrunterstützungssystem, fahrzeugfahrunterstützungsverfharen und fahrzeugfahrunterstützungsprogramm
DE102019118999A1 (de) Lidar-basierte objektdetektion und -klassifikation
DE112018003314B4 (de) Anzeigesystem, Informationsdarstellungssystem, Verfahren zum Steuern eines Anzeigesystems, Programm und Aufzeichnungsmedium für ein Anzeigesystem und mobiler Körper
DE202012013426U1 (de) Integrieren von Karten und Straßenansichten
DE102004057188A1 (de) Fahrzeug-Fahrunterstützungsvorrichtung
DE112017001545T5 (de) Virtuelles überlagerungssystem und verfahren für verdeckte objekte
DE102018112233B4 (de) Bereitstellung eines verkehrsspiegelinhalts für einen fahrer
DE112020001103T5 (de) Multitasking-Wahrnehmungsnetzwerk mit Anwendungen für ein Szenenverständnis und ein fortschrittliches Fahrerassistenzsystem
US8773458B2 (en) Method of and computer implemented system for generating a junction view image
DE112018002419T5 (de) Anzeigevorrichtung und Anzeigesteuerverfahren
DE112013007590T5 (de) Fahrunterstützungsbild-Erzeugungsvorrichtung, Fahrunterstützungsbild-Anzeigevorrichtung, Fahrunterstützungsbild-Anzeigesystem und Fahrunter-stützungsbild-Erzeugungsprogramm
DE112014007007T5 (de) Informationsanzeige-Steuersystem und Verfahren zum Steuern einer Anzeige einer Information
DE112020000590T5 (de) Karte und verfahren zum erstellen einer karte
EP3955046A1 (de) Verfahren zum betrieb einer anzeigeeinrichtung in einem kraftfahrzeug
DE112021006402T5 (de) Schätzung von Automatikbelichtungswerten einer Kamera durch Priorisieren eines Objekts von Interesse auf Basis von kontextuellen Eingaben aus 3D-Karten
DE102020100230A1 (de) Rekonstruktion von landmarkenpositionen in autonomen maschinenanwendungen
DE102012213768A1 (de) Bildanzeigesteuersystem, bildanzeigesteuerverfahren und bildanzeigesteuerprogramm

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009360000

Ipc: G06V0030160000

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06V0030160000

Ipc: G06V0020560000

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R002 Refusal decision in examination/registration proceedings