DE102008042397A1 - Navigationssystem mit kontaktanaloger Anzeige - Google Patents
Navigationssystem mit kontaktanaloger Anzeige Download PDFInfo
- Publication number
- DE102008042397A1 DE102008042397A1 DE102008042397A DE102008042397A DE102008042397A1 DE 102008042397 A1 DE102008042397 A1 DE 102008042397A1 DE 102008042397 A DE102008042397 A DE 102008042397A DE 102008042397 A DE102008042397 A DE 102008042397A DE 102008042397 A1 DE102008042397 A1 DE 102008042397A1
- Authority
- DE
- Germany
- Prior art keywords
- user
- navigation system
- display
- head
- display elements
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/365—Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
Abstract
Vorgeschlagen wird ein Navigationssystem mit kontaktanaloger, ortskorrekter Anzeige für einen Nutzer, das tragbar ausgebildet ist, wobei ein Head-Up Display System ein auf dem Kopf des Nutzers getragenes Head-Mounted Display (4) umfasst und wobei eine Einrichtung zur Bestimmung der Blickrichtung des Nutzers (1) vorgesehen ist. Die im Display (4) dargestellten Anzeigeelemente umfassen eine menschenähnliche digitale Figur oder eine Teilfigur, die sich im Sichtfeld des Nutzers (1) derart bewegt, dass sie die vom Nutzer zu unternehmenden Handlungen in der Art eines virtuellen Führers (Avatar) (3) vorgibt.
Description
- Stand der Technik
- Die Erfindung betrifft ein Navigationssystem für einen Nutzer, mit Mitteln zur Erfassung einer Position des Nutzers und mit einem Head-Up Display System zur kontaktanalogen, ortskorrekten Darstellung von Anzeigeelementen, die einen Bezug zu den vom Nutzer zu unternehmenden Handlungen haben.
- Ein derartiges Navigationssystem ist z. B. aus der
DE 101 31 720 A1 bekannt. - Es sind tragbare Navigationsgeräte bekannt, die einen Fußgänger bei der Navigation z. B. in Innenstadtbereichen oder auch in Gebäuden unterstützen sollen. Derartige Geräte verfügen über eine auf GPS und einer digitalen Karte basierende Ortungseinrichtung sowie über eine Einheit, die die Route zu einem vom Nutzer gewählten Zielort berechnet. Die Route wird über eine Nutzerschnittstelle (z. B. visuell über den Bildschirm und/oder akustisch über Sprachausgabe) ausgegeben. Nachteilig hierbei ist, dass der Nutzer seinen Blick beziehungsweise seine Aufmerksamkeit kurzfristig von der realen Umgebung abwenden muss, um die entsprechenden Informationen aufzunehmen. Ferner müssen die Informationen, z. B. ein Abbiegepfeil und eine Entfernungsangabe, interpretiert werden, das heißt, der Nutzer muss einen Zusammenhang der Navigationsvorgaben mit der realen Umgebung herstellen.
- Aus der
DE 100 36 440 C2 ist ein tragbares Navigationsgerät bekannt, das eine Ausrichtungsermittlungseinrichtung zum Ermitteln der Ausrichtung des Gerätes relativ zu einer bekannten geographischen Richtung aufweist, so dass auf einem Bild schirm ein Pfeil erzeugt wird, der von der Position des Gerätes zum Zielort zeigt und somit leicht interpretierbar ist. - Bekannt sind außerdem Head-Up Displays (HUDs), bei denen insbesondere im Automobilbereich Informationen (z. B. Tachometer, Navigationshinweise), über einen geeigneten durchlässigen Spiegel (dem so genannten Combiner, das kann z. B. auch die Windschutzscheibe sein) ins Sichtfeld projiziert werden. Ein geeigneter Combiner kann aber auch durch das Glas einer Brille, die vom Nutzer getragen wird, realisiert werden. Solche Einrichtungen findet man z. B. bei Jetpiloten (auch Helmet Mounted Display genannt). In einfachen Ausführungen ist das Display selbst in das Brillenglas integriert. Solche sogenannten AR (Augmented Reality-) oder HUD-Brillen sind z. B. für Computerspiele erhältlich. Wird für beide Augen ein unterschiedliches Bild erzeugt, so kann man ein stereoskopisches Bild darstellen.
- Die im HUD darzustellenden Informationen werden meist alphanumerisch oder durch Symbole dargestellt. Eine räumliche Beziehung zur im Sichtfeld liegenden Szene wird erst durch sogenannte „kontaktanaloge” Darstellungen, wie sie beim oben genannten gattungsgemäßen Stand der Technik realisiert sind, erreicht. Das aus der
DE 101 31 720 A1 bekannte Navigationssystem ist in einem Fahrzeug eingebaut und blendet als Anzeigeelemente beispielsweise eine Markierung für eine Straße, in die abgebogen werden soll, so in die Windschutzscheibe ein, dass die Markierung ortskorrekt mit eben der Straße überlagert wird. Als ortskorrekte Darstellung wird demnach die korrekte Überlagerung der projizierten Objekte mit der realen Umgebung (Fahrzeugaußenraum) bezeichnet, d. h. die Darstellungen der Objekte werden genau an den Orten in das Blickfeld des Fahrers eingeblendet, wo das jeweilige reale Objekt zu sehen ist. Dabei ist es auch bekannt, die jeweilige Position des Fahrers, die jeweilige Kopfposition und/oder die Position der Augen und der Blickrichtung zu erfassen, um eine ortskor rekte Darstellung auch dann liefern zu können, wenn der Fahrer die Kopfposition ändert. - Offenbarung der Erfindung
- Das erfindungsgemäße Navigationssystem für einen Nutzer ist in Anspruch 1 gekennzeichnet. Weiterbildungen und bevorzugte Maßnahmen ergeben sich aus den Unteransprüchen.
- Bei dem erfindungsgemäßen Navigationssystem ist, über die gattungsgemäßen Merkmale hinaus, vorgesehen, dass das Navigationssystem tragbar ausgebildet ist, wobei das Head-Up Display System ein auf dem Kopf des Nutzers getragenes Head-Mounted Display aufweist, und wobei eine Einrichtung zur Bestimmung der Blickrichtung des Nutzers vorgesehen ist. Weiterhin erfindungsgemäß ist vorgesehen, dass die Anzeigeelemente eine menschenähnliche digitale Figur oder eine Teilfigur umfassen, die sich im Sichtfeld des Nutzers derart bewegt, dass sie die vom Nutzer zu unternehmenden Handlungen in der Art eines virtuellen Führers (Avatar) vorgibt. Der virtuelle Führer wird dem Nutzer also als Augmented Reality-Einblendung in die reale Welt projiziert.
- Der Vorteil der Erfindung besteht zunächst darin, dass der Nutzer nicht auf das Display eines Navigationsgerätes schauen muss, um sich zu orientieren, beziehungsweise, dass der Nutzer in lauten Umgebungen nicht auf akustische Hinweise angewiesen ist. Der Nutzer sieht und versteht vielmehr unmittelbar, in welche Richtung er gehen, beziehungsweise welche Handlungen er zum Erreichen seines Zieles unternehmen muss. Die Interpretation eines akustischen Hinweises (z. B. ”Demnächst rechts abbiegen”) oder eines grafischen Symbols (z. B. Abbiegepfeil mit Entfernungsangabe) entfällt.
- Gemäß einer vorteilhaften Ausführungsform der Erfindung zeigt der Avatar die Navigationsvorgaben mittels zielführender Ges ten an, beispielsweise durch Winken, oder durch das Ausstrecken eines Arms.
- Gemäß einer als besonders vorteilhaft angesehenen Ausführungsform der Erfindung bewegt sich der Avatar vor dem Nutzer derart, beispielsweise einige Schritte weit, durch das Sichtfeld des Nutzers, dass er den Weg zu einem Ziel vorgibt.
- Bei einer vereinfachten Ausführungsform ist der Avatar als Hand, also als menschenähnliche digitale Teilfigur, ausgebildet.
- Die Einrichtung zur Bestimmung der Blickrichtung des Nutzers kann gemäß einer vorteilhaften Ausführungsform der Erfindung eine am Head-Mounted Display angeordnete Kamera, eine Speichereinheit, in der georeferenzierte Merkmale in Form von Bilddaten gespeichert sind, sowie eine Recheneinheit zur Orientierungsschätzung umfassen, wobei die Recheneinheit aus den Bildern der Kamera Bildmerkmale extrahiert und mit den gespeicherten georeferenzierten Merkmalen vergleicht und daraus die Blickrichtung des Nutzers ermittelt. Gemäß einer Weiterbildung dieser Ausführungsformen kann die Einrichtung zur Bestimmung der Blickrichtung zusätzlich wenigstens jeweils einen Beschleunigungs- und Neigungssensor aufweisen. Dadurch wird erreicht, dass der Avatar unabhängig von einer Veränderung der Blickrichtung nach vorheriger Blickrichtungsbestimmung mittels Kamera lagerichtig projiziert wird.
- Es ist vorteilhaft, dass in Blickrichtung des Nutzers ein Hinweis eingeblendet wird, falls der Avatar in dieser Blickrichtung nicht kontaktanalog in das Sichtfeld hineinpassend darstellbar ist.
- Kurze Beschreibung der Zeichnungen
-
1 zeigt eine Darstellung eines virtuellen Führers aus Sicht des Nutzers, -
2 zeigt in einem Blockdiagramm den Aufbau des erfindungsgemäßen Navigationssystems. -
1 zeigt eine Ausführungsform der Erfindung, bei der ein Nutzer1 (Fußgänger), der eine auf seinem Kopf angeordnete HUD-Brille4 trägt, in Richtung einer Straße5 blickt, die eine Abzweigung nach rechts aufweist. Die Abzweigung führt zum in das Navigationssystem eingegebenen Zielort führt. Durch die HUD-Brille4 hindurch blickend sieht der Nutzer1 zum einen die vor ihm liegende reale Szene mit der Straße5 und zum anderen, im aktiven Bereich des HUD4 , ein virtuelles Bild2 , in dem als Anzeigeelement ein virtueller Führer beziehungsweise Avatar3 auftaucht. Wie in1 erkennbar, wird der virtuelle Führer3 der realen Szene derart überlagert, dass sich die richtige räumliche Beziehung zwischen dem Erscheinungsort des Avatars3 im Blickfeld und der intendierten Navigationsvorgabe ergibt. Im gezeigten Beispiel scheint der Avatar3 an der vom Nutzer1 demnächst zu nehmenden Abzweigung zu stehen. Erkennbar ist außerdem die in die abzweigende Straße hinein weisende Geste, die der Avatar3 mit seinem linken Arm ausführt. -
2 zeigt in einem Blockdiagramm den Aufbau des erfindungsgemäßen Navigationssystems, das im Wesentlichen aus einem tragbaren Navigationsgerät19 und einer HUD-Brille4 besteht, die ein stereoskopisches Bild in der vom Nutzer1 wahrgenommenen realen Szene anzeigen kann. - Über die Eingabeeinheit
14 gibt der Nutzer sein Ziel ein. Über einen Bildschirm beziehungsweise eine Sprachausgabe11 können Informationen in konventioneller Weise ausgegeben werden. Mit Hilfe einer Ortungseinheit6 wird aus GPS17 und den Informationen weiterer Sensoren (Koppelnavigation, gegebenenfalls auch Mapmatching) die Position des Nutzers1 geschätzt. Zusammen mit dem gewünschten Ziel kann nun in der Einheit10 anhand digitaler Kartendaten12 die Route in an sich bekannter Weise berechnet werden. - Aus den Routeninformationen wird berechnet, wie der virtuelle Führer
3 sich in der Szene bewegen soll. Der virtuelle Führer3 ist eine menschenähnliche digitale Figur (Avatar), die nach Nutzergeschmack auch vom Nutzer1 zu gestalten sein kann. Dieser Avatar3 zeigt mit Gesten an, wenn der Nutzer z. B. abbiegen soll oder ein sonstiges Manöver durchführen soll (umkehren, einen Lift oder anderes Fortbewegungsmittel benutzen, „Ziel erreicht”, usw.). Der Avatar3 kann auch virtuell, ein paar Schritte vor dem Nutzer1 , durch die Szene schreiten und so ebenfalls den Weg vorgeben. - Damit der Avatar
3 dem Nutzer1 an der richtigen Position in der realen Welt erscheint, muss bekannt sein, in welche Richtung der Nutzer1 blickt. Diese Orientierungsschätzung18 geschieht gemäß dem hier dargestellten Ausführungsbeispiel auf der Basis eines an sich bekannten Bilderkennungsverfahrens, das zyklisch durchgeführt wird und mindestens eine robuste Schätzung der Blickrichtung liefert. Aus den Bildern einer in die HUD-Brille4 integrierten Kamera8 werden Bildmerkmale der Umgebung extrahiert. Geeignete Merkmale sind z. B. Ecken und Kanten statischer Objekte wie z. B. Häuser. Diese Bildmerkmale werden mit georeferenzierten Merkmalen, die in einer Datenbank13 abgelegt sind, verglichen. Werden identische Merkmale gefunden, so kann daraus die Blickrichtung bestimmt werden. Zur Anpassung der projizierten Anzeigeelemente an die momentane, geänderte Blickrichtung können von Beschleunigungs- und Neigungssensoren9 gelieferte Daten dienen. - Mit der so in der Ortungseinheit
6 ermittelten Position und Orientierung des Nutzers1 kann nun der Avatar3 vom Renderer (Zeicheneinheit)16 lagerichtig in den Projektionseinheiten (Displays)7 der AR-Brille4 gezeichnet werden. Die Zeicheneinheit16 ist des Weiteren mit einer Einheit15 verbunden, die, in Abhängigkeit von der Routenberechnung10 , für die Animation des Avatars3 sorgt. - Zusätzlich zum Avatar
3 können auch Symbole für die anstehenden Manöver kontaktanalog angezeigt werden, z. B. Richtungspfeile. Alternativ oder zusätzlich zu Symbolen kann auch die Route farblich markiert werden, so dass z. B. die Straßenoberfläche in einer markanten Farbe erscheint oder mit einer virtuellen Textur belegt wird. - Zusätzlich zu den genannten kontaktanalogen Anzeigeelementen können textuelle oder symbolische Informationen in die AR-Brille
4 eingeblendet werden. Die Informationen können sich auf die Route oder auch auf Objekte in der Szene beziehen, z. B. Hindernisse, Sehenswürdigkeiten, Zeit- und Entfernungsangaben, Straßennamen und so weiter. - ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- - DE 10131720 A1 [0002, 0006]
- - DE 10036440 C2 [0004]
Claims (10)
- Navigationssystem für einen Nutzer, mit Mitteln (
17 ) zur Erfassung einer Position des Nutzers (1 ) und mit einem Head-Up Display System zur kontaktanalogen, ortskorrekten Darstellung von Anzeigeelementen, die einen Bezug zu den vom Nutzer (1 ) zu unternehmenden Handlungen haben, dadurch gekennzeichnet, – dass das Navigationssystem tragbar ausgebildet ist, wobei das Head-Up Display System ein auf dem Kopf des Nutzers getragenes Head-Mounted Display (4 ) aufweist, und wobei eine Einrichtung zur Bestimmung der Blickrichtung des Nutzers (1 ) vorgesehen ist, – dass die Anzeigeelemente eine menschenähnliche digitale Figur oder eine Teilfigur umfassen, die sich im Sichtfeld des Nutzers (1 ) derart bewegt, dass sie die vom Nutzer zu unternehmenden Handlungen in der Art eines virtuellen Führers (Avatar) (3 ) vorgibt. - Navigationssystem nach Anspruch 1, dadurch gekennzeichnet, dass der Avatar (
3 ) die Navigationsvorgaben mittels Gesten anzeigt. - Navigationssystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Avatar (
3 ) sich derart durch das Sichtfeld des Nutzers (1 ) bewegt, dass er den Weg zu einem Ziel vorgibt. - Navigationssystem nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Einrichtung zur Bestimmung der Blickrichtung des Nutzers eine am Head-Mounted Display (
4 ) angeordnete Kamera (8 ), eine Speichereinheit (13 ), in der georeferenzierte Merkmale in Form von Bilddaten gespeichert sind, sowie eine Recheneinheit (18 ) zur Orientierungsschätzung umfasst, wobei die Recheneinheit (18 ) aus den Bildern der Kamera (8 ) Bildmerkmale extrahiert und mit den gespeicherten georeferenzierten Merkmalen vergleicht und daraus die Blickrichtung des Nutzers (1 ) ermittelt. - Navigationssystem nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Einrichtung zur Bestimmung der Blickrichtung wenigstens jeweils einen Beschleunigungs- und Neigungssensor (
9 ) aufweist. - Navigationssystem nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass in Blickrichtung des Nutzers (
1 ) ein Hinweis eingeblendet wird, falls der Avatar (3 ) in dieser Blickrichtung nicht kontaktanalog in das Sichtfeld hineinpassend darstellbar ist. - Navigationssystem nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Anzeigeelemente zusätzlich wenigstens ein kontaktanalog dargestelltes Symbol umfassen, das einen Bezug zu den vom Nutzer (
1 ) zu unternehmenden Handlungen hat. - Navigationssystem nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Anzeigeelemente zusätzlich wenigstens eine kontaktanalog mit dem Sichtfeld synchronisierte Einblendung umfassen, die den Nutzer (
1 ) bei der Ausführung der Navigationsvorgaben unterstützt. - Navigationssystem nach der Anspruch 8, dadurch gekennzeichnet, dass die Einblendung in einer flächigen Markierung eines vom Nutzer (
1 ) zu beschreitenden Weges besteht. - Navigationssystem nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass weitere Informationen über die Route oder besondere Objekte in der Umgebung der Route in textueller oder symbolischer Form in das Head-Mounted Display (
4 ) eingeblendet werden.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102008042397A DE102008042397A1 (de) | 2008-09-26 | 2008-09-26 | Navigationssystem mit kontaktanaloger Anzeige |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102008042397A DE102008042397A1 (de) | 2008-09-26 | 2008-09-26 | Navigationssystem mit kontaktanaloger Anzeige |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102008042397A1 true DE102008042397A1 (de) | 2010-04-01 |
Family
ID=41719639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102008042397A Withdrawn DE102008042397A1 (de) | 2008-09-26 | 2008-09-26 | Navigationssystem mit kontaktanaloger Anzeige |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102008042397A1 (de) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010041344A1 (de) * | 2010-09-24 | 2012-03-29 | Carl Zeiss Ag | Anzeigevorrichtung |
DE102012216057A1 (de) * | 2012-09-11 | 2014-05-28 | Bayerische Motoren Werke Aktiengesellschaft | Anordnen von Anzeigen in einem Head-mounted Display |
WO2014079567A1 (de) * | 2012-11-20 | 2014-05-30 | Daimler Ag | Objekt-darstellung auf headup-displays in abhängigkeit eines nutzerblicks |
FR3003941A1 (fr) * | 2013-03-29 | 2014-10-03 | Ivo Hannes Flammer | Methode et dispositif d'aide a la navigation cartographique pour un utilisateur equipe d'un dispositif nomade |
WO2015032833A1 (en) * | 2013-09-04 | 2015-03-12 | Essilor International (Compagnie Generale D'optique) | Navigation method based on a see-through head-mounted device |
DE102013021854A1 (de) * | 2013-12-21 | 2015-06-25 | Audi Ag | Sicht- und Bedienvorrichtung zur Durchführung eines Verfahrens zum Ermitteln eines Gefahrenpotentials in einem Fahrzeug |
CN105278670A (zh) * | 2014-06-26 | 2016-01-27 | Lg电子株式会社 | 眼佩戴型终端及控制眼佩戴型终端的方法 |
DE102014214516A1 (de) * | 2014-07-24 | 2016-01-28 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung und Verfahren zur Wiedergabe von Daten in einer erweiterten Realität für einen Insassen eines Fahrzeugs |
US9494797B2 (en) | 2012-07-02 | 2016-11-15 | Nvidia Corporation | Near-eye parallax barrier displays |
US9557565B2 (en) | 2012-07-02 | 2017-01-31 | Nvidia Corporation | Near-eye optical deconvolution displays |
US9582075B2 (en) | 2013-07-19 | 2017-02-28 | Nvidia Corporation | Gaze-tracking eye illumination from display |
US9829715B2 (en) | 2012-01-23 | 2017-11-28 | Nvidia Corporation | Eyewear device for transmitting signal and communication method thereof |
US9841537B2 (en) | 2012-07-02 | 2017-12-12 | Nvidia Corporation | Near-eye microlens array displays |
USRE47984E1 (en) | 2012-07-02 | 2020-05-12 | Nvidia Corporation | Near-eye optical deconvolution displays |
DE102018219812A1 (de) * | 2018-11-19 | 2020-05-20 | Volkswagen Aktiengesellschaft | Konzept für die Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes |
US10838459B2 (en) | 2013-08-14 | 2020-11-17 | Nvidia Corporation | Hybrid optics for near-eye displays |
US11486726B2 (en) | 2018-03-07 | 2022-11-01 | Volkswagen Aktiengesellschaft | Overlaying additional information on a display unit |
WO2024068367A1 (de) * | 2022-09-26 | 2024-04-04 | Bayerische Motoren Werke Aktiengesellschaft | Fahren eines kraftfahrzeugs in einer virtuellen umgebung |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10036440C2 (de) | 2000-07-26 | 2002-08-01 | Heiko Barske | Tragbares Navigationsgerät |
DE10131720A1 (de) | 2001-06-30 | 2003-01-16 | Bosch Gmbh Robert | Head-Up Display System und Verfahren |
-
2008
- 2008-09-26 DE DE102008042397A patent/DE102008042397A1/de not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10036440C2 (de) | 2000-07-26 | 2002-08-01 | Heiko Barske | Tragbares Navigationsgerät |
DE10131720A1 (de) | 2001-06-30 | 2003-01-16 | Bosch Gmbh Robert | Head-Up Display System und Verfahren |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010041344B4 (de) * | 2010-09-24 | 2020-10-29 | tooz technologies GmbH | Anzeigevorrichtung mit augengesteuerter Eingabeschnittstelle |
DE102010041344A1 (de) * | 2010-09-24 | 2012-03-29 | Carl Zeiss Ag | Anzeigevorrichtung |
US9829715B2 (en) | 2012-01-23 | 2017-11-28 | Nvidia Corporation | Eyewear device for transmitting signal and communication method thereof |
US10395432B2 (en) | 2012-07-02 | 2019-08-27 | Nvidia Corporation | Near-eye parallax barrier displays |
US10008043B2 (en) | 2012-07-02 | 2018-06-26 | Nvidia Corporation | Near-eye parallax barrier displays |
US9841537B2 (en) | 2012-07-02 | 2017-12-12 | Nvidia Corporation | Near-eye microlens array displays |
USRE48876E1 (en) | 2012-07-02 | 2022-01-04 | Nvidia Corporation | Near-eye parallax barrier displays |
USRE47984E1 (en) | 2012-07-02 | 2020-05-12 | Nvidia Corporation | Near-eye optical deconvolution displays |
US9494797B2 (en) | 2012-07-02 | 2016-11-15 | Nvidia Corporation | Near-eye parallax barrier displays |
US9557565B2 (en) | 2012-07-02 | 2017-01-31 | Nvidia Corporation | Near-eye optical deconvolution displays |
DE102012216057A1 (de) * | 2012-09-11 | 2014-05-28 | Bayerische Motoren Werke Aktiengesellschaft | Anordnen von Anzeigen in einem Head-mounted Display |
WO2014079567A1 (de) * | 2012-11-20 | 2014-05-30 | Daimler Ag | Objekt-darstellung auf headup-displays in abhängigkeit eines nutzerblicks |
DE102013114542B4 (de) | 2012-12-19 | 2021-07-22 | Nvidia Corporation | Augennahe Anzeige mit Parallaxen-Sperre |
DE102013114527B4 (de) | 2012-12-19 | 2021-07-22 | Nvidia Corporation | Augennahe Anzeige mit Mikrolinsen-Array |
DE102013114518B4 (de) | 2012-12-19 | 2021-07-15 | Nvidia Corporation | Augennahe Anzeigen mit optischer Dekonvolution |
FR3003941A1 (fr) * | 2013-03-29 | 2014-10-03 | Ivo Hannes Flammer | Methode et dispositif d'aide a la navigation cartographique pour un utilisateur equipe d'un dispositif nomade |
US9582075B2 (en) | 2013-07-19 | 2017-02-28 | Nvidia Corporation | Gaze-tracking eye illumination from display |
US10838459B2 (en) | 2013-08-14 | 2020-11-17 | Nvidia Corporation | Hybrid optics for near-eye displays |
US9976867B2 (en) | 2013-09-04 | 2018-05-22 | Essilor International | Navigation method based on a see-through head-mounted device |
CN105518416A (zh) * | 2013-09-04 | 2016-04-20 | 埃西勒国际通用光学公司 | 基于透视头戴式设备的导航方法 |
WO2015032833A1 (en) * | 2013-09-04 | 2015-03-12 | Essilor International (Compagnie Generale D'optique) | Navigation method based on a see-through head-mounted device |
DE102013021854B4 (de) * | 2013-12-21 | 2017-12-14 | Audi Ag | Sicht- und Bedienvorrichtung zur Durchführung eines Verfahrens zum Ermitteln eines Gefahrenpotentials in einem Fahrzeug |
DE102013021854A1 (de) * | 2013-12-21 | 2015-06-25 | Audi Ag | Sicht- und Bedienvorrichtung zur Durchführung eines Verfahrens zum Ermitteln eines Gefahrenpotentials in einem Fahrzeug |
US9921073B2 (en) | 2014-06-26 | 2018-03-20 | Lg Electronics Inc. | Eyewear-type terminal and method for controlling the same |
EP2960630A3 (de) * | 2014-06-26 | 2016-03-23 | LG Electronics Inc. | Brillenartiges Endgerät und Verfahren zur Steuerung davon |
CN105278670A (zh) * | 2014-06-26 | 2016-01-27 | Lg电子株式会社 | 眼佩戴型终端及控制眼佩戴型终端的方法 |
DE102014214516A1 (de) * | 2014-07-24 | 2016-01-28 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung und Verfahren zur Wiedergabe von Daten in einer erweiterten Realität für einen Insassen eines Fahrzeugs |
US11486726B2 (en) | 2018-03-07 | 2022-11-01 | Volkswagen Aktiengesellschaft | Overlaying additional information on a display unit |
DE102018219812A1 (de) * | 2018-11-19 | 2020-05-20 | Volkswagen Aktiengesellschaft | Konzept für die Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes |
WO2024068367A1 (de) * | 2022-09-26 | 2024-04-04 | Bayerische Motoren Werke Aktiengesellschaft | Fahren eines kraftfahrzeugs in einer virtuellen umgebung |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102008042397A1 (de) | Navigationssystem mit kontaktanaloger Anzeige | |
EP3765324B1 (de) | Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-display-vorrichtung für ein kraftfahrzeug | |
EP2899506B1 (de) | Verfahren und Vorrichtung zum Betreiben eines Sichtfeldanzeigegeräts | |
DE112008003424B4 (de) | Navigationsgerät, das Videobilder einer Kamera verwendet | |
DE102017216774B4 (de) | Verfahren, Vorrichtung, computerlesbares Speichermedium und Kraftfahrzeug mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-up-Display-Vorrichtung für ein Kraftfahrzeug | |
DE202005021607U1 (de) | Navigationsvorrichtung mit Kamerainformation | |
EP1527322A1 (de) | Verfahren und vorrichtung zur anzeige von navigationsinformationen für ein fahrzeug | |
DE102014206623A1 (de) | Lokalisierung eines Head-mounted Displays (HMD) im Fahrzeug | |
DE102007014674A1 (de) | Navigationsvorrichtung und Verfahren zum Navigieren eines Fahrzeugs | |
DE102010003851A1 (de) | Verfahren und Informationssystem zum Markieren eines Zielorts für ein Fahrzeug | |
DE102017220268B4 (de) | Erkennung und Visualisierung von Systemunsicherheit bei der Darstellung augmentierter Bildinhalte in Head-Up-Displays | |
DE102017217923A1 (de) | Verfahren zum Betrieb einer Anzeigeeinrichtung in einem Kraftfahrzeug | |
DE102017216775A1 (de) | Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-Up-Display-Vorrichtung für ein Kraftfahrzeug | |
DE102017215161A1 (de) | Verfahren und Vorrichtung zur Anwahl von einem Umgebungsobjekt im Umfeld eines Fahrzeugs | |
DE102017215163A1 (de) | System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs | |
DE102015003948B4 (de) | Verfahren zum Betreiben einer in einem Kraftfahrzeug angeordneten Virtual-Reality-Brille und Virtual-Reality-System | |
DE102015222844A1 (de) | Verfahren und Steuergerät zum Betreiben eines Sichtfeldanzeigegeräts für ein Fahrzeug | |
EP1586861B1 (de) | Verfahren und Vorrichtung zur Darstellung von Fahrerinformationen unter Berücksichtigung anderer beweglicher Objekte | |
DE10013478A1 (de) | Fahrerassistenzsystem mit einer durchsichtigen Anzeigenfläche | |
DE102019212601A1 (de) | Generieren einer Anzeige eines Augmented-Reality-Head-up-Displays für ein Kraftfahrzeug | |
JP5007059B2 (ja) | 立体視車載表示装置 | |
EP3978294A1 (de) | Betreiben einer head-up-displayeinrichtung bei ausserhalb eines sichtfelds positionierten einblendbaren objekten | |
DE102013016249A1 (de) | Verfahren und Vorrichtung zur Darstellung von Navigationshinweisen | |
DE102018203865A1 (de) | Verfahren und Vorrichtung zum Bereitstellen von Informationen durch ein Augmented-Reality-Gerät, Verfahren und Vorrichtung zum Bereitstellen von Informationen zur Steuerung einer Anzeige eines Augmented-Reality-Gerätes, Verfahren und Vorrichtung zur Steuerung einer Anzeige eines Augmented-Reality-Gerätes, computerlesbares Speichermedium mit Instruktionen zur Durchführung der Verfahren | |
EP3361355A1 (de) | Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20110401 |