-
Querverweis auf verwandte Anmeldungen
-
Diese Anmeldung beansprucht Priorität der und Nutzen der
koreanischen Patentanmeldung Nr. 10-2014-0175097 , eingereicht beim Koreanischen Amt für Gewerblichen Rechtsschutz am 8. Dezember 2014, sowie
koreanische Patentanmeldung Nr. 10-2015-0065842 , eingereicht beim Koreanischen Amt für Gewerblichen Rechtsschutz am 12. Mai 2015, deren gesamte Inhalte hiermit unter Bezugnahme inkorporiert seien.
-
HINTERGRUND DER OFFENBARUNG
-
(a) Technisches Gebiet
-
Die vorliegende Erfindung bezieht sich auf eine augmentierte Realitäts-Head-up-Anzeige(HUD)-bezogene Technologie für Fahrzeuge und genauer gesagt auf ein HUD-Anzeigeverfahren und eine HUD-Vorrichtung für augmentierte bzw. erweiterte Realität (Augmentiert-Realität) für ein Fahrzeug, die Wahrnehmungsfehler bei Augmentiert-Realitäts-HUD-Graphik auf einen HUD minimieren können.
-
(b) Beschreibung verwandten Stands der Technik
-
Head-up-Displays (HUDs) werden oft in Automobilen zum Projizieren von Informationen zu den Augen eines Fahrers hin verwendet. Ein HUD ist eine Front-Anzeigevorrichtung, die ausgelegt ist, Fahrzeugfahr-Information auf einer Frontscheibe (Windschutzscheibe) eines Fahrzeugs zu präsentieren. Mit anderen Worten erzeugt und zeigt eine HUD-Einheit virtuelle Bilder an, um dem Fahrer zu gestatten, verschiedene Arten von Informationen zu sehen, wie etwa Geschwindigkeit, Kraftstoffpegel, Temperatur, Warnungen, Richtungen etc., die konventioneller Weise in einem Instrumentencluster des Fahrzeugs angezeigt wurden.
-
HUDs wurden ursprünglich eingeführt, um einem Piloten ein verbessertes Sichtfeld in einem Flugzeug bereitzustellen. Nun wird begonnen, HUDs in Fahrzeugen zu implementieren, zum Zwecke der Anzeige von Fahrinformation und der Verminderung von Unfällen, die durch Fahrer verursacht werden, die während des Fahrens von der Straße wegblicken. Beispielsweise kann durch die Verwendung einer Head-up-Display-Anzeige ein Fahrer seine Aufmerksamkeit nach vorne (d.h. zur Straße hin) fokussiert halten, wodurch das Risiko für Unfälle sinkt. Gewisse HUD-Einheiten bieten auch ein Nachtsichtmerkmal, das Fahrern gestattet, Objekte voraus in der Dunkelheit zu identifizieren, wie auch Information anzuzeigen, die vom Instrumentencluster abgeleitet ist.
-
Entsprechend kann ein HUD eine Vorrichtung sein, die Information präsentiert, ohne vom Fahrer zu verlangen, seine Aufmerksamkeit von der Straße voraus während des Fahrens abzulenken, indem Bilder von Information zu der Operation eines Fahrzeugs angezeigt werden. Oft wird das HUD über einen Bildschirmfilm implementiert, welcher in die Windschutzscheibe an der Front eingefügt ist, um die Augenbewegungen des Fahrers zu minimieren. Solch ein HUD kann aus einer Bildquelle (beispielsweise einer Flüssigkristallanzeige (LCD)) zum Erzeugen von Bildern, einem optischen System zum Ausbilden eines Bildes, das durch die Bildquelle erzeugt und daraus projiziert wird, und einer Schnittstelle für die Fahrersteuerung bestehen. Das Bild sollte von der Bildquelle bei einer optimalen Distanz ab der Windschutzscheibe und einer effektiven Brennweite projiziert werden.
-
Ein HUD für Fahrzeuge kann Information, die vom Instrumentenpaneel-Cluster herrührt, wie etwa Fahrzeuggeschwindigkeit, Verbrauch, Drehzahl (UPM) etc. auf der Front-Windschutzscheibe anzeigen, so dass der Fahrer in der Lage ist, Fahr-Informationen leicht während der Fahrt zu bekommen. Auch zeigt das HUD virtuelle Bilder auf der Windschutzscheibe an, indem Information zu einer Vielzahl von internen Systemen des Fahrzeugs in Bilder gerändert werden, wenn das Fahrzeug zu einem Halt gebracht wird, oder wenn der Fahrer das Fahrzeug vom Parken verschiebt.
-
Die obige, in diesem Hintergrundabschnitt offenbarte Information dient nur der Verbesserung des Verständnisses des Hintergrunds der Offenbarung und kann daher Informationen enthalten, die nicht Stand der Technik bilden, der bereits in diesem Land einem Durchschnittsfachmann bekannt ist.
-
ZUSAMMENFASSUNG DER ERFINDUNG
-
Die vorliegende Offenbarung ist in einer Bemühung unternommen worden, ein augmentiertes Realitäts-Anzeigeverfahren und eine Vorrichtung für ein Fahrzeug bereitzustellen, das Wahrnehmungsfehler bei Augmentiert-Realitäts-HUD-Graphiken minimieren kann, die durch den Fahrzeugfahrer oder Anwender wahrgenommen werden.
-
Ausführungsformen der vorliegenden Offenbarung stellen ein Augmentiert-Realitäts-HUD-Anzeigeverfahren für ein Fahrzeug bereit, das beinhaltet: Detektieren einer Position eines Objekts außerhalb des Fahrzeugs, auf welches ein Fahrer des Fahrzeugs blickt; Detektieren einer Position eines Auges des Fahrers, während der Fahrer auf einer Windschutzscheibe des Fahrzeugs angezeigte Extern-Objekt-Information betrachtet; Extrahieren von auf der detektierten Objektposition basierenden Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Objekts, und den auf der detektierten Augenposition basierenden Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Auges; Korrigieren eines oder mehrerer Fehler in den Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Objektes und eines oder mehrerer Fehler in den Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Auges unter Verwendung eines Fehlerkorrektur-Parameters für die Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Objekts und eines Fehlerkorrektur-Parameters für die Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Auges; wobei die Fehlerkorrektur-Parameter voneinander variieren; Empfangen der korrigierten Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Objekts und der korrigierten Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Auges; und Anzeigen von Augmentiert-Realitäts-HUD-Graphik der externen Objektinformation auf der Windschutzscheibe, basierend auf den empfangenen, korrigierten Augmentiert-Realitäts-HUD-Anzeigekoordinaten.
-
Die Korrektur des einen oder mehrerer Fehler kann enthalten:
Detektieren einer Position einer Mehrzahl von Objekten außerhalb des Fahrzeugs; Einstellen eines ersten Korrekturparameters zum Korrigieren eines oder mehrerer Fehler bei Augmentiert-Realitäts-HUD-Anzeigekoordinaten eines ersten Objektes der Mehrzahl von Objekten und eines oder mehrerer Fehler bei den Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Auges, während der Fahrer das erste Objekt betrachtet; und Einstellen eines zweiten Korrekturparameters zum Korrigieren eines oder mehrerer Fehler in Augmentiert-Realitäts-HUD-Anzeigekoordinaten eines zweiten Objektes der Mehrzahl von Objekten und der Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Auges, während der Fahrer das zweite Objekt betrachtet. Das erste Objekt kann ein externes Objekt sein, das eine erste Distanz vom Auge des Fahrers entfernt ist, das zweite Objekt kann ein externes Objekt sein, das vom Auge des Fahrers eine zweite Distanz entfernt ist, welche kürzer als die erste Distanz ist, und der zweite Korrekturparameter kann auf einen niedrigeren Fehlerkorrekturwert als der erste Korrekturparameter eingestellt sein.
-
Das Verfahren kann weiter das Detektieren der Position des Objektes unter Verwendung eines Radarsensors oder eines Lidar-Sensors enthalten. Das Verfahren kann auch weiterhin das Detektieren der Position des Auges unter Verwendung einer Kamera beinhalten.
-
Das Korrigieren des einen oder der mehreren Fehler kann enthalten: eine Tiefpassfilterung des einen oder der mehreren Fehler in den Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Objektes und des einen oder der mehreren Fehler in den Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Auges. Eine als ein erster Korrekturparameter für die Tiefpassfilterung gegebene Grenzfrequenz kann niedriger als eine als ein zweiter Korrekturparameter für die Tiefpassfilterung gegebene Grenzfrequenz sein.
-
HUD-Anzeigeinformation entsprechend der externen Objektinformation kann Geschwindigkeitsinformationen des Objekts oder Navigationsinformationen des Objekts enthalten. Die Navigationsinformation kann Abbiege-(turn-by-turn, TBT)Information enthalten.
-
Weiter beinhaltet gemäß Ausführungsformen der vorliegenden Offenbarung eine Augmentiert-Realitäts-HUD-Anzeigevorrichtung für ein Fahrzeug: einen Objekt-Detektionssensor, der eine Position eines Objekts außerhalb des Fahrzeugs detektiert, auf welches ein Fahrer des Fahrzeugs blickt; einen Augenpositionsdetektor, der eine Position eines Auges des Fahrers detektiert, während der Fahrer externe Objektinformation betrachtet, die auf einer Windschutzscheibe des Fahrzeugs angezeigt wird; einen Augmentiert-Realitäts-HUD-Anzeigekoordinaten-Extraktor, der Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Objektes, basierend auf der detektierten Objektposition und Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Auges, basierend auf der detektieren Augenposition extrahiert; ein Fehlerkorrekturmodul, das einen oder mehrere Fehler in den Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Objektes und einen oder mehrere Fehler in den Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Auges unter Verwendung eines Fehlerkorrektur-Parameters für die Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Objektes und eines Fehlerkorrektur-Parameters für die Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Auges korrigiert, wobei die Fehlerkorrektur-Parameter voneinander variieren; und eine Graphik-Anzeigeeinheit, die aus dem Fehlerkorrekturmodul die korrigierten Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Objektes und die korrigierten Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Auges empfängt und Augmentiert-Realitäts-HUD-Graphik der externen Objektinformation auf der Windschutzscheibe anzeigt, basierend auf den empfangenen, korrigierten Augmentiert-Realitäts-HUD-Anzeigekoordinaten.
-
Der Objektdetektionssensor kann eine Position einer Mehrzahl von Objekten außerhalb des Fahrzeugs detektieren; und das Fehlerkorrekturmodul kann einen ersten Korrekturparameter zum Korrigieren eines oder mehrerer Fehler in Augmentiert-Realitäts-HUD-Anzeigekoordinaten eines ersten Objektes der Mehrzahl von Objekten und eines oder mehrerer Fehler bei Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Auges, während der Fahrer das erste Objekt betrachtet, und einen zweiten Korrekturparameter zum Korrigieren eines oder mehrerer Fehler bei Augmentiert-Realitäts-HUD-Anzeigekoordinaten eines zweiten Objekts der Mehrzahl von Objekten und Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Auges, während der Fahrer das zweite Objekt anblickt, einstellen. Das erste Objekt kann ein externes Objekt sein, das eine erste Distanz vom Auge des Fahrers entfernt ist, das zweite Objekt kann ein externes Objekt sein, das eine zweite Distanz vom Auge des Fahrers entfernt ist, die kürzer ist als die erste Distanz, und der zweite Korrekturparameter kann auf einen niedrigeren Fehlerkorrekturwert als der erste Korrekturparameter eingestellt sein.
-
Der Objektdetektionssensor kann einen Radarsensor oder einen Lidar-Sensor beinhalten. Der Augenpositionsdetektor kann eine Kamera beinhalten.
-
Das Fehlerkorrekturmodul kann einen Tiefpassfilter beinhalten, und eine als ein erster Korrekturparameter für den Tiefpassfilter gegebene Grenzfrequenz kann niedriger als eine als ein zweiter Korrekturparameter für den Tiefpassfilter gegebene Grenzfrequenz sein.
-
Der externen Objektinformation entsprechende HUD-Anzeigeninformation kann Geschwindigkeitsinformation des Objekts oder Navigationsinformation des Objekts enthalten. Die Navigationsinformation kann TBT-Information enthalten.
-
Weiterhin beinhaltet gemäß Ausführungsformen der vorliegenden Offenbarung ein nicht transistorisches Computer-lesbares Medium, das Programmanweisungen für ein Augmentiert-Realitäts-HUD-Anzeigeverfahren für ein Fahrzeug enthält:
Programmanweisungen, die eine Position eines Objekts außerhalb des Fahrzeugs detektieren, auf welches ein Fahrer des Fahrzeugs blickt; Programmanweisungen, die eine Position eines Auges des Fahrers detektieren, während der Fahrer externe Objektinformationen anblickt, die auf einer Windschutzscheibe des Fahrzeugs angezeigt werden; Programmanweisungen, die auf der detektieren Objektposition basierende Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Objektes und auf der detektierten Augenposition basierende Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Auges extrahieren; Programmanweisungen, die ein oder mehrere Fehler bei den Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Objektes und einen oder mehrere Fehler bei den Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Auges unter Verwendung eines Fehlerkorrektur-Parameters für die Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Objektes und eines Fehlerkorrektur-Parameters für die Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Auges korrigieren, wobei die Korrekturparameter voneinander variieren; Programmanweisungen, welche die korrigierten Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Objektes und die korrigierten Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Auges empfangen; und Programmanweisungen, die Augmentiert-Realitäts-HUD-Graphiken der externen Objektinformation auf der Windschutzscheibe anzeigen, basierend auf den empfangenen korrigierten Augmentiert-Realitäts-HUD-Anzeigekoordinaten.
-
Entsprechend gestatten eine Augmentiert-Realitäts-HUD-Anzeigevorrichtung und ein Verfahren für ein Fahrzeug dem Fahrer eines Fahrzeugs, intuitiv die Echtwelt-Fahrumgebung auf einem Augmentiert-Realitäts-HUD-System (d.h. Augmentiert-Realitäts-HUD-Vorrichtung) für das Fahrzeug wahrzunehmen, indem vom Fahrer wahrgenommene Graphikfehler in einer Weise korrigiert werden, die mit der Distanz zu einem Objekt, auf das der Fahrer blickt, variiert. Weiterhin kann die vorliegende Offenbarung einen Algorithmus realisieren, dessen Implementierungskosten für ein Augmentiert-Realitäts-HUD-Anzeigeverfahren für ein Fahrzeug klein sind, indem ein Kompromiss zwischen Sensorkosten und Sensorleistung gemacht wird, selbst falls zu erwarten ist, dass die Sensor-Technologie starke Fortschritte macht.
-
KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
Um die in der detaillierten Beschreibung der vorliegenden Offenbarung verwendeten Zeichnungen voll zu verstehen, werden die entsprechenden Zeichnungen kurz beschrieben.
-
1 und 2 sind Ansichten, die Beispiele eines Augmentiert-Realitäts-HUD-Anzeigeverfahrens zeigen.
-
3 ist eine Ansicht, die ein Beispiel der technischen Konstruktion eines Augmentiert-Realitäts-HUDs zeigt.
-
4 ist eine Ansicht zum Erläutern eines Augenpositions-Detektionsfehlers und eines Fahrersichtwinkels auf ein Augmentiert-Realitäts-HUD.
-
5 ist eine Ansicht zum Erläutern eines Fehlers bei der Messung der Distanz zu einem Objekt unter Verwendung eines Fahrzeugsensors.
-
6 ist ein Blockdiagramm zum Erläutern einer Augmentiert-Realitäts-HUD-Anzeigevorrichtung für ein Fahrzeug gemäß Ausführungsformen der vorliegenden Offenbarung.
-
7 ist ein Graph zum Erläutern eines Beispiels des Fehlerkorrekturmoduls von 6.
-
8 ist eine Ansicht zum Erläutern eines Beispiels von Augmentiert-Realitäts-HUD-Graphiken, welche durch die in 6 gezeigte Augmentiert-Realitäts-HUD-Anzeigevorrichtung für ein Fahrzeug angezeigt werden.
-
9 ist eine Ansicht zum Erläutern eines anderen Beispiels für die durch die in 6 gezeigte Augmentiert-Realitäts-HUD-Anzeigevorrichtung für ein Fahrzeug angezeigte Augmentiert-Realitäts-HUD-Graphik.
-
10 ist eine Ansicht zum Erläutern noch eines anderen Beispiels einer durch die in 6 gezeigte Augmentiert-Realitäts-HUD-Anzeigevorrichtung für ein Fahrzeug angezeigte Augmentiert-Realitäts-HUD-Graphik.
-
11 ist eine Ansicht zum Erläutern eines weiteren Beispiels der durch die in 6 gezeigte Augmentiert-Realitäts-HUD-Anzeigevorrichtung für ein Fahrzeug angezeigte Augmentiert-Realitäts-HUD-Graphik.
-
DETAILLIERTE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
-
Für das bessere Verständnis der vorliegenden Offenbarung, und um klarer zu zeigen, wie sie ausgeübt werden kann, wird nunmehr Bezug genommen, mittels Beispielen, auf die beigefügten Zeichnungen, welche Ausführungsformen der vorliegenden Offenbarung zeigen.
-
Nachfolgend werden Ausführungsformen der vorliegenden Offenbarung im Detail unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. Beim Beschreiben der Ausführungsformen der vorliegenden Offenbarung wird eine detaillierte Beschreibung von allgemein bekannten Konstruktionen oder Funktionen weggelassen, da angenommen wird, dass dies den Geist der vorliegenden Offenbarung unnötiger Weise schwammig machen würde. Wann immer möglich, werden dieselben Bezugszeichen in den Zeichnungen verwendet, um sich auf dieselben oder gleiche Teile zu beziehen.
-
Die in der Spezifikation verwendeten Ausdrücke werden benutzt, um nur spezifische Ausführungsformen zu beschreiben, und sollen nicht die vorliegende Offenbarung beschränken. Singularformen sollen Pluralformen beinhalten, wenn nicht der Kontext klar Anderes angibt. Es versteht sich weiter, dass die Ausdrücke "beinhalten", "umfassen" oder "aufweisen", die in dieser Beschreibung verwendet werden, die Anwesenheit von genannten Merkmalen, Schritten, Operationen, Komponenten, Teilen oder einer Kombination derselben spezifizieren, aber nicht Anwesenheit oder Hinzufügung eines oder mehrerer Merkmale, Ziffern, Schritte, Operationen, Komponenten, Teile oder eine Kombination derselben ausschließen.
-
Wenn nicht anders angegeben, versteht es sich, dass alle in der Spezifikation verwendeten Ausdrücke, einschließlich technischer und wissenschaftlicher Ausdrücke, dieselbe Bedeutung haben wie jene, die von Fachleuten verstanden werden. Es versteht sich, dass die im Wörterbuch definierten Ausdrücke identisch mit den Bedeutungen innerhalb des Kontexts des Stands der Technik sind und sie nicht ideal oder exzessiv formal definiert sein sollen, wenn nicht der Kontext klar Anderes angibt.
-
Es versteht sich, dass der Ausdruck "Fahrzeug" oder "Fahrzeug-" oder andere ähnlicher Ausdruck, wie hierin verwendet, Motorfahrzeuge im Allgemeinen einschließt, wie etwa Passagier-Automobile einschließlich Sports Utility Vehicles (SUV), Busse, Lastwagen, verschiedene kommerzielle Fahrzeuge, Wasserfahrzeuge einschließlich einer Vielzahl von Booten und Schiffen, Luftfahrzeuge und dergleichen, und Hybridfahrzeuge, Elektrofahrzeuge, Plug-in-Hybrid-Elektrofahrzeuge, wasserstoffbetriebene Fahrzeuge und andere Alternativ-Kraftstoff-Fahrzeuge (z.B. von anderen Ressourcen als Mineralöl abgeleiteten Kraftstoffen) beinhaltet. Wie hierin referenziert, ist ein Hybridfahrzeug ein Fahrzeug, das zwei oder mehr Kraftquellen aufweist, beispielsweise Fahrzeuge, die sowohl mit Benzin betrieben als auch elektrisch betrieben werden.
-
Zusätzlich versteht sich, dass ein oder mehrere der untenstehenden Verfahren oder Aspekte derselben durch zumindest eine Steuerung ausgeführt werden können. Der Ausdruck "Steuerung" kann sich auf eine Hardware-Vorrichtung beziehen, die einen Speicher und einen Prozessor enthält. Der Speicher ist konfiguriert, Programmanweisungen zu speichern und der Prozessor ist spezifisch programmiert, die Programmanweisungen auszuführen, um ein oder mehrere Prozesse durchzuführen, die weiter unten beschrieben sind. Darüber hinaus versteht sich, dass die Verfahren unten durch eine Vorrichtung ausgeführt werden können, die eine Steuerung zusammen mit einer oder mehreren Komponenten umfasst, wie es durch einen Durchschnittsfachmann erkannt würde.
-
Weiterhin kann die Steuerung der vorliegenden Offenbarung als nicht-transitorisches Computer-lesbares Medium auf einem Computer-lesbaren Medium ausgeführt sein, das durch einen Prozessor, eine Steuerung oder dergleichen ausgeführte, ausführbare Programmanweisungen enthält,. Beispiele des Computer-lesbaren Mediums beinhalten, sind aber nicht beschränkt auf ROM, RAM, Compact-Disc(CD)-ROMs, Magnetbänder, Floppy-Disks, Flash-Laufwerke, Smartcards und optische Datenspeichervorrichtungen. Das Computer-lesbare Aufzeichnungsmedium kann auch in Netzwerk-gekoppelten Computersystemen distributiert sein, so dass die Computer-lesbaren Medien in einer verteilten Weise gespeichert und ausgeführt sind, zum Beispiel durch einen Telematikserver oder ein Controller Area Network (CAN).
-
Im Allgemeinen, um ein Augmentiert-Realitäts-HUD zu realisieren, wie in den 1 und 2 gezeigt, ist es notwendig, die Fahrzeugfahrer-Augenposition und die Koordinaten eines Ziels, das der Fahrer beabsichtigt zu sehen, zu detektieren. 1 und 2 sind Ansichten, die Beispiele eines Augmentiert-Realitäts-HUD-Anzeigeverfahrens zeigen.
-
Sensordaten aus einem Kamerasensor zum Detektieren der Augenposition, einem Lidar-(light detection and ranging)Sensor, und/oder einem Radarsensor zum Detektieren von Objekten außerhalb des Fahrzeugs weisen einen gewissen Fehlerwinkel auf, aufgrund von Sensorvibration oder Augenblinken. Ein solcher Fehler involviert einen Wahrnehmungsfehler, welcher mit der Distanz zu einem Zielobjekt, das anzuzeigen ist, auf dem Augmentiert-Realitäts-HUD variiert, was eine Verwirrung für den Fahrzeugfahrer oder Anwender verursacht. Insbesondere kann die Verwendung eines distanzabhängigen Wahrnehmungsfehler-Reduktions-Algorithmus zu Schwierigkeit beim aufrecht Erhalten der Leistungsfähigkeit von Augmentiert-Realitäts-HUD-Graphiken konsistent führen.
-
Weiterhin, um ein Augmentiert-Realitäts-HUD in einem Fahrzeug, wie in 3 gezeigt, zu realisieren, wird ein Bild auf das Windschutzscheibenglas projiziert und kann der Anwender das projizierte Bild als ein virtuelles Bild sehen, welches der realen Welt jenseits der Windschutzscheibe überlagert ist. 3 ist eine Ansicht, die ein Beispiel der technischen Konstruktion eines Augmentiert-Realitäts-HUDs zeigt.
-
Um ein Hindernis oder einen Indikator (Markierung) vor dem Fahrzeug exakt abzugleichen, muss die Augenposition des Fahrers des Fahrzeugs detektiert werden und die Augenposition wird üblicher Weise durch eine im Fahrzeug installierte Kamera detektiert. Die Augen-Verfolgungs-Koordinaten haben ein gewisses Rauschen, aufgrund der Kameraauflösung, Augenzwinkern etc., und ein Sensor zum Erfassen externer Objekte weist aufgrund von Auflösungsproblemen auch einen gewissen Koordinatenfehler auf.
-
4 ist eine Ansicht zum Erläutern eines Augenpositions-Detektionsfehlers und eines Fahrersichtwinkels auf einem Augmentiert-Realitäts-HUD. Spezifisch erläutert 4 einen Anzeigenfehler auf einem Objekt außerhalb des Fahrzeugs, auf das der Fahrer blickt, verursacht durch Augenrauschen.
-
Wie in 4 gezeigt, können die technischen Komponenten eines Augmentiert-Realitäts-HUDs eine Augenpositions-Detektionskamera 120 zum Detektieren des Fahrerauges und ein Radar (radio detecting and ranging) Sensor 205 und/oder Lidar-(light detecting and ranging) Sensor zum Detektieren (d.h. Messen) der Position eines externen Objekts beinhalten.
-
Ein Augenvektor kann durch eine Linie angezeigt werden, welche das Zentrum des Fahrerauges 125 mit dem Zentrum der Pupille verbindet. Somit weist eine Sichtlinie (das heißt Winkel einer Sicht eines Augenpositions-Detektionssystems) einen Vektor auf, der vom Zentrum des Auges radiiert, wie in 4 gezeigt. Als solches radiiert (bei einem gewissen Winkel) Augenrauschen (das heißt Augenpositions-Detektionsfehler) und wie in 4 gezeigt, je weiter vom Auge, desto größer ist der Fehlerbereich in orthogonalen Koordinaten in einer transversen Ebene.
-
Wie weiter in 4 gezeigt, variiert die Marge des orthogonalen Fehlers (d.h. Koordinatenfehler) bei der Augenposition in Bezug auf die Distanz (d.h. die Distanz vom Fahrerauge zu einem Objekt, das der Fahrer anblickt), selbst bei einem Objekt der gleichen Größe. Somit weist eine Augmentiert-Realitäts-HUD-Graphikanzeige eines weit entfernten Objekts 105 auf dem Fahrzeug-Windschutzscheibenglas 115 eine größere Fehlermarge auf als eine Augmentiert-Realitäts-HUD-Graphikanzeige eines nahbei befindlichen Objekts 110 auf ihm, was zu einem höheren Niveau an wahrgenommenem Rauschen (d.h. Perzeptionsfehler) an einem entfernten Objekt führt.
-
5 ist eine Ansicht zum Erläutern eines Fehlers bei der Messung der Distanz zu einem Objekt unter Verwendung eines Fahrzeugsensors.
-
Wie in 5 gezeigt, kann dasselbe Prinzip wie unter Bezugnahme auf 4 erläutert, auf einen Sensor wie etwa einen Radarsensor oder Lidar-Sensor 215 angewendet werden, der an der Front des Fahrzeugs 220 installiert ist. Funkwellen oder Licht-(oder Laserlicht)Strahlung vom Sensor 215 geht von einem Punkt auf dem Fahrzeug 220 aus und tastet den Bereich vor dem Fahrzeug ab. Entsprechend strahlt auch Erfassungsrauschen wie das vorgenannte Augenrauschen bei einem gewissen Winkel (d.h. einem Fehlerwinkel von einem Distanz-Messsensor) ab.
-
Daher, wie in 5 gezeigt, variiert das Erfassungsrauschen mit der Distanz zwischen dem Fahrzeug 220 und dem entfernten Objekt 205 oder nahen Objekt 210 außerhalb des Fahrzeugs 220. In einer Augmentiert-Realitäts-HUD-Graphik-Repräsentation der Variation von Erfassungsrauschen mit der Distanz wird das weite Objekt 205 derselben Größe wie das nahe Objekt 210 mit einem unterschiedlichen Niveau von Graphikrauschen angezeigt, was den Fahrer veranlasst, Rauschen bei unterschiedlichen Niveaus für das weite Objekt 205 und das nahe Objekt 210 wahrzunehmen.
-
Nunmehr Bezug nehmend auf die offenbarten Ausführungsformen, ist 6 ein Blockdiagramm zum Erläutern einer Augmentiert-Realitäts-HUD-Anzeigevorrichtung für ein Fahrzeug gemäß Ausführungsformen der vorliegenden Offenbarung.
-
Wie in 6 gezeigt, kann eine Augmentiert-Realitäts-HUD-Anzeigevorrichtung 300 für ein Fahrzeug einen Objekt-Detektionssensor 305, einen Augenpositionssensor 310, einen Augmentiert-Realitäts-Anzeigekoordinaten-Extraktor 315, ein Fehlerkorrekturmodul 320 und eine Graphik-Anzeigeeinheit 325 enthalten.
-
Wie im Stand der Technik bekannt, kann sich Augmentiert-Realität auf Computergraphik-Technologie beziehen, die ein virtuelles Objekt oder virtuelle Information innerhalb der Realwelt synthetisiert, um es/sie wie ein Realweltobjekt aussehen zu lassen. Mit anderen Worten kann sich Augmentiert-Realität auf virtuelle Realitätstechnologie beziehen, welche virtuelle Information mit der Realwelt bei Sicht durch das Auge zum Erzeugen eines Bildes kombiniert. Die Augmentiert-Realitäts-Technologie ist im Stand der Technik bekannt, so dass eine detaillierte Beschreibung derselben in dieser Spezifikation weggelassen wird.
-
Eine Head-up-Display-(HUD)Vorrichtung, wie etwa die Augmentiert-Realitäts-HUD-Anzeigevorrichtung 300 für ein Fahrzeug, kann eine Vorrichtung sein, die ein Bild auf eine Windschutzscheibe des Fahrzeugs oder einen Kombinierer (d.h. transparentes Paneel) reflektiert, um einem Fahrzeugfahrer Information wie etwa Fahrzeuggeschwindigkeit, Verbrauch oder Umdrehungen pro Minute (UPM) oder Navigationsinformation bereitzustellen. Da Augmentiert-Realitäts-HUDs das Abgleichen eines Echtweltobjektes mit der Augenposition erfordern, kann es abhängig von der Augenposition nötig sein, die Fahreraugenposition mit einem HUD-Bildschirm (HUD-Bereich) abzugleichen. Der HUD-Bereich (d.h. HUD-Anzeigebereich oder HUD-Bildschirmbereich) kann einen Fahrzeuginformations-Bildbereich angeben, der dem Fahrzeugfahrerauge zuzuführen ist, durch Präsentieren von Fahrzeuginformation, wie etwa Fahrzeugfahr-Information auf der Windschutzscheibe des Fahrzeugs. Der HUD-Bereich kann einen virtuellen Bereich angeben, bei dem ein HUD-Bild angezeigt wird. Der HUD-Bereich kann sich auf einen Bereich beziehen, der innerhalb eines Anzeigebildschirms ist, auf dem das Fahrerauge ruht, und der ein Bild präsentiert, wenn der Fahrer nach vorne blickt.
-
Die Augmentiert-Realitäts-HUD-Anzeigevorrichtung 300 für ein Fahrzeug kann einen Prozess des Korrigierens von Augmentiert-Realitätsgraphik-Koordinaten (d.h. Augmentiert-Realitäts-HUD-Graphik-Koordinaten) durchführen und kann ein Verfahren des Minimierens von Graphikfehlern durchführen, die durch den Fahrzeugfahrer oder Anwender verursacht werden, die ihre Augen Verschieben (das heißt durch Augenbewegungen verursachte Graphikfehler) im Design einer Augmentiert-Realitäts-HUD-Graphik-Schnittstelle. Spezifischer kann die Augmentiert-Realitäts-HUD-Anzeigevorrichtung 300 für ein Fahrzeug einen Algorithmus ausführen, der der Antwortrate mehr Priorität als der Genauigkeit für ein Objekt nahe dem Fahrzeug und umgekehrt für ein Objekt, wie etwa ein Gebäude, weit weg vom Fahrzeug, gibt.
-
Darüber hinaus kann die Augmentiert-Realitäts-HUD-Anzeigevorrichtung 300 für ein Fahrzeug Fehlerkorrektur-Parameter, die mit der Distanz zwischen dem Fahrer und dem anzuzeigenden Objekt durch das Augmentiert-Realitäts-HUD (d.h. die Distanz zwischen dem Fahrerauge und dem Objekt, auf welches der Fahrer blickt) variieren, verwenden, um dem Fahrer konsistente Wahrnehmungsfehler zu geben. Im Grunde ist es besser, Fehler in allen Sensordaten zu reduzieren, aber dies kann eine Degradierung anderer Eigenschaften involvieren.
-
Beispielsweise kann eine Tiefpassfilterung, eines der typischsten Verfahren der Fehlerreduktion, Rauschen reduzieren, kann aber zu einer niedrigen Antwortgeschwindigkeit führen.
-
Entsprechend, um gleiche Wahrnehmungsfehler zu ergeben, unabhängig von der Distanz zwischen dem Fahrer und einem Objekt, werden Fehlerkorrektur-Parameter auf solche Weise eingestellt, welche die Fehlermarge am in 4 gezeigten fernen Objekt oder 5 in größerem Ausmaß reduziert und die Fehlerrate am nahen Objekt in einem geringeren Grad reduziert. Dies liegt daran, dass, während eine niedrige Antwortgeschwindigkeit am entfernten Objekt kein Problem bei der Leistungsfähigkeit (d.h. Anzeigegenauigkeit) der Augmentiert-Realitäts-HUD-Anzeigevorrichtung 300 verursacht, da eine Langdistanzbewegung des entfernten Objektes dem Fahrer nicht präsentiert wird, das nahe Objekt weniger Rauschen für seine Größe auf weist und die Antwortgeschwindigkeit für das nahe Objekt kritischer ist.
-
Der Objekt-Detektionssensor 305 kann die Position eines Objektes außerhalb des Fahrzeugs, das der Fahrer anblickt, detektieren. Der Objekt-Detektionssensor 305 kann die Distanz ab dem Fahrzeug zum externen Objekt messen. Darüber hinaus kann der Objekt-Detektionssensor 305 Distanzinformation zum Fehlerkorrekturmodul 320 liefern, der Sensordatenfehler-Korrekturparameter verwendet, um so diese Information als eine Referenz bei der Fehlerkorrektur des Fehlerkorrekturmoduls 320 zu verwenden.
-
Der Objekt-Detektionssensor 305 kann einen Radarsensor und/oder einen Lidar-(Light Detection and Ranging)Sensor beinhalten. Der Lidar-Sensor, ein Typ von Laser-Radar-Sensor, kann ein Radarsystem sein, das die Koordinaten der Position eines reflektierenden Objektes misst, indem die Zeit gemessen wird, die ein Laserimpuls braucht, um abgestrahlt und reflektiert zu werden und rückzukehren.
-
Der Augenpositions-Detektor 310 kann die Augenposition des Fahrers detektieren, der externe Objektinformation oder Augmentiert-Realitäts-HUD-Anzeigeinformation entsprechend der externen Objektinformation betrachtet, die auf der Windschutzscheibe des Fahrzeugs angezeigt wird. Der Augenpositions-Detektor 310 kann eine Kamera beinhalten.
-
Der Augmentiert-Realitätsanzeige-Koordinaten-Extraktor (d.h. Augmentiert-Realitäts-HUD-Anzeigekoordinaten-Extraktor) 315 kann die Augmentiert-Realitäts-HUD-Anzeigekoordinaten eines durch den Objektdetektionssensor 305 detektierten externen Objektes und die durch den Augenpositions-Detektor 310 detektierten Augmentiert-Realitäts-HUD-Anzeigekoordinaten (oder Augenverfolgungs-Koordinaten) der Augenposition extrahieren.
-
Das Fehlerkorrekturmodul 320 kann Fehler bei den Augmentiert-Realitäts-HUD-Anzeigekoordinaten des externen Objekts und Fehler bei den Augmentiert-Realitäts-HUD-Anzeigekoordinaten der Augenposition unter Verwendung eines Fehlerkorrektur-Parameters für die Augmentiert-Realitäts-HUD-Anzeigekoordinaten des externen Objektes und eines Fehlerkorrektur-Parameters für die Augmentiert-Realitäts-HUD-Anzeigekoordinaten der Augenposition korrigieren, wobei die Fehlerkorrektur-Parameter mit der Distanzinformation zwischen Fahrerauge und dem externen Objekt variieren. Die Distanzinformation kann aus dem Objekt-Detektionssensor 305 zum Fehlerkorrekturmodul 320 geliefert werden.
-
Das Fehlerkorrekturmodul 320 kann auch einen ersten Korrekturparameter zum Korrigieren von Fehlern in den Augmentiert-Realitäts-HUD-Anzeigekoordinaten des ersten Objektes und Fehlern in den Augmentiert-Realitäts-HUD-Anzeigekoordinaten der Augenposition des das erste Projekt ansehenden Fahrzeugfahrers und einen zweiten Korrekturparameter zum Korrigieren von Fehlern in den Augmentiert-Realitäts-HUD-Anzeigekoordinaten des zweiten Objekts und den Augmentiert-Realitäts-HUD-Anzeigekoordinaten der Position des das zweite Objekt ansehenden Auges einstellen. Das erste Objekt ist das externe Objekt, das bei einer ersten Distanz ab dem Fahrerauge ist, das zweite Objekt ist das externe Objekt, das sich bei einer zweiten Distanz ab dem Fahrerauge befindet, welche kürzer als die erste Distanz ist, und der weiten Korrekturparameter wird auf einen niedrigeren Fehlerkorrekturwert als der erste Korrekturparameter eingestellt.
-
Die Augmentiert-Realitäts-HUD-Anzeigevorrichtung 300 für ein Fahrzeug kann weiterhin eine Kamera enthalten, die ein Bild der Straße vor dem Fahrzeug aufnimmt, das mit der externen Objektinformation oder der HUD-Anzeigeinformation (d.h. virtueller Bildinformation) abgeglichen wird. Das Bild der Straße voraus kann eine Szene sein, welche der Fahrer durch die Windschutzscheibe sieht.
-
Zusätzlich kann das Fehlerkorrekturmodul 320 einen Tiefpassfilter (LPF) beinhalten. Eine Grenzfrequenz, die als ein erster Korrekturparameter für den Tiefpassfilter gegeben wird, kann niedriger als eine Grenzfrequenz sein, die als ein zweiter Korrekturparameter für den Tiefpassfilter gegeben wird.
-
Die Graphik-Anzeigeeinheit 325 kann aus dem Fehlerkorrekturmodul 320 die korrigierten Augmentiert-Realitäts-HUD-Anzeigekoordinaten des externen Objektes und die korrigierten Augmentiert-Realitäts-HUD-Anzeigekoordinaten der Augenposition empfangen und die Augmentiert-Realitäts-HUD-Graphik der externen Objektinformation auf der Windschutzscheibe anzeigen. Der externen Objektinformation entsprechende HUD-Anzeigeinformation kann Geschwindigkeitsinformation des in 10 gezeigten externen Objektes oder sich auf das externe Objekt beziehende Navigationsinformation beinhalten. Die Navigationsinformation kann Abbiege-(turn-by-turn, TBT)Information sein, die in 11 gezeigt ist. Die TBT-Information kann ein Richtungsänderungs-Icon enthalten.
-
Zusätzlich kann die Augmentiert-Realitäts-HUD-Anzeigevorrichtung 300 für ein Fahrzeug weiter eine Steuerung (nicht gezeigt) beinhalten. Die Steuerung kann die Funktion einer Zentralverarbeitungseinheit (CPU) oder eines Prozessors durchführen und den Gesamtbetrieb des Objekt-Detektionssensors 305, Augenpositions-Detektors 310, Augmentiert-Realitäts-Anzeigekoordinaten-Extraktors 315, Fehlerkorrekturmoduls 320 und Graphikanzeigeneinheit 325 steuern. Die Steuerung kann ein Programm beinhalten, das eine Reihe von Befehlen zum Durchführen eines Augmentiert-Realitäts-HUD-Anzeigeverfahrens für ein Fahrzeug gemäß der später zu beschreibenden vorliegenden Offenbarung enthält.
-
Ein Augmentiert-Realitäts-HUD-Anzeigeverfahren für ein Fahrzeug gemäß Ausführungsformen der vorliegenden Offenbarung wird nunmehr unten unter Bezugnahme auf 6 beschrieben. Das Augmentiert-Realitäts-HUD-Anzeigeverfahren für ein Fahrzeug kann auf die Augmentiert-Realitäts-HUD-Anzeigevorrichtung 300 für ein Fahrzeug, gezeigt in 6, angewendet werden und kann auch als ein Verfahren des Anzeigens von variablen Fehlern auf einem Augmentiert-Realitäts-HUD für ein Fahrzeug bezeichnet werden.
-
Das Augmentiert-Realitäts-HUD-Anzeigeverfahren für ein Fahrzeug kann beispielsweise einen ersten Detektionsschritt, einen zweiten Detektionsschritt, einen Extraktionsschritt, einen Korrekturschritt und einen Anzeigeschritt beinhalten.
-
Im ersten Detektionsschritt kann die Position eines Objekts außerhalb des Fahrzeugs, auf das der Fahrzeugfahrer blickt, durch den Objekt-Detektionssensor 305 detektiert werden. Der Sensor zum Detektieren der Position des externen Objekts kann einen Radarsensor oder einen Lidar-Sensor enthalten.
-
Im zweiten Detektionsschritt kann die Augenposition des Fahrzeugfahrers, der auf der Windschutzscheibe des Fahrzeugs angezeigte externe Objektinformation ansieht, durch den Augenpositionsdetektor 310 detektiert werden. Der Sensor zum Detektieren der Augenposition kann eine Kamera beinhalten. Der externen Objektinformation entsprechende HUD-Anzeigeinformation kann Geschwindigkeitsinformation des in 10 gezeigten externen Objektes beinhalten, oder Navigationsinformation bezüglich dem externen Objekt. Die Navigationsinformation kann in 11 gezeigte TBT-Information enthalten.
-
Im Extraktionsschritt können die Augmentiert-Realitäts-HUD-Anzeigekoordinaten des detektierten externen Objektes oder die Augmentiert-Realitäts-HUD-Anzeigekoordinaten (oder Augenverfolgungs-Koordinaten) des detektierten Auges durch den Augmentiert-Realitäts-Anzeigekoordinaten-Extraktor 315 extrahiert werden.
-
Im Korrekturschritt können Fehler in den Augmentiert-Realitäts-HUD-Anzeigekoordinaten des externen Objektes und Fehler in den Augmentiert-Realitäts-HUD-Anzeigekoordinaten der Augenposition durch das Fehlerkorrekturmodul 320 korrigiert werden, indem ein Fehlerkorrektur-Parameter für die Augmentiert-Realitäts-HUD-Anzeigekoordinaten des externen Objektes und ein Fehlerkorrektur-Parameter für die Augmentiert-Realitäts-HUD-Anzeigekoordinaten der Augenposition verwendet werden, wobei die Fehlerkorrektur-Parameter mit der Distanzinformation (d.h. Augendistanz-Information) zwischen dem Fahrerauge und dem externen Objekt variieren (d.h. sich ändern).
-
Im Korrekturschritt können ein erster Korrekturparameter zum Korrigieren von Fehlern in den Augmentiert-Realitäts-HUD-Anzeigekoordinaten des ersten Objekts und Fehler in den Augmentiert-Realitäts-HUD-Anzeigekoordinaten der Augenposition des Fahrzeugfahrers, der das erste Objekt anblickt, und ein zweiter Korrekturparameter zum Korrigieren von Fehlern in den Augmentiert-Realitäts-HUD-Anzeigekoordinaten des zweiten Objektes und den Augmentiert-Realitäts-HUD-Anzeigekoordinaten der Position des Auges, das das zweite Objekt ansieht, durch das Fehlerkorrekturmodul 320 eingestellt werden. Das erste Objekt ist das externe Objekt, das bei einer ersten Distanz ab dem Fahrerauge liegt, und das zweite Objekt ist das externe Objekt, das bei einer zweiten Distanz ab dem Fahrerauge ist, die kürzer als die erste Distanz ist, und der zweiten Korrekturparameter wird auf einen niedriger Fehlerkorrekturwert als der erste Korrekturparameter eingestellt.
-
Zusätzlich können Fehler in den Augmentiert-Realitäts-HUD-Anzeigekoordinaten des externen Objekts und Fehler in den Augmentiert-Realitäts-HUD-Anzeigekoordinaten der Augenposition tiefpassgefiltert werden. Eine als ein erster Korrekturparameter für das Tiefpassfiltern gegebene Grenzfrequenz kann niedriger als eine, als ein zweiter Korrekturparameter für das Tiefpassfiltern gegebene Grenzfrequenz sein.
-
Im Anzeigeschritt können die korrigierten Augmentiert-Realitäts-HUD-Anzeigekoordinaten des externen Objektes und die korrigierten Augmentiert-Realitäts-HUD-Anzeigekoordinaten der Augenposition empfangen werden, und können Augmentiert-Realitäts-HUD-Graphiken der externen Objektinformation auf der Windschutzscheibe durch die Graphik-Anzeigeeinheit 325 angezeigt werden.
-
7 ist ein Graph zum Erläutern eines Beispiels des Fehlerkorrekturmoduls von 6.
-
Wie in 7 gezeigt, falls ein Tiefpassfilter (LPF) auf das Fehlerkorrekturmodul 320 von 6 angewendet wird, kann eine Grenzfrequenz als ein Korrekturparameter angegeben sein. Hier, wenn sich ein Objekt weit vom Fahrer (oder dem Fahrzeug) entfernt befindet, kann die Grenzfrequenz des LPF sinken, und wenn das Objekt nahe dem Fahrer (oder Fahrzeug) ist, kann die Grenzfrequenz des LPFs ansteigen. Die Genauigkeit und Antwortgeschwindigkeit der Sensordaten kann durch eine Grenzfrequenzjustierung eingestellt werden.
-
Spezifischer, wie in 7 gezeigt, können Fehler in den Augmentiert-Realitäts-HUD-Anzeigekoordinaten des externen Objekts und Fehler in den Augmentiert-Realitäts-HUD-Anzeigekoordinaten des Auges durch ein Tiefpassfiltern des Bereichs von Koordinate der Augenposition und des Bereichs von Koordinaten der Position eines detektierten Objekts (nicht gezeigt), das durch den Augmentiert-Realitäts-Anzeigekoordinaten-Extraktor (d.h. 315 von 6) extrahiert wird, korrigiert werden.
-
Wie oben beschrieben, kann in den Ausführungsformen der vorliegenden Offenbarung die Grenzfrequenz des LPF als ein Fehlerkorrektur-Parameter verwendet werden und kann die Grenzfrequenz abhängig von der Distanz zwischen dem Fahrer (oder Fahrzeug) und einem externen Objekt eingestellt werden. Als Ergebnis kann die vorliegende Offenbarung Wahrnehmungsfehler in Augmentiert-Realitäts-HUD-Graphiken in einer HUD-Vorrichtung minimieren, die vom Fahrer wahrgenommen werden.
-
8 ist eine Ansicht zum Erläutern eines Beispiels von durch die Augmentiert-Realitäts-HUD-Anzeigevorrichtung für ein in 6 gezeigtes Fahrzeug angezeigten Augmentiert-Realitäts-HUD-Graphiken. 8 kann eine graphische Repräsentation von Wahrnehmungsfehlern an Objekten zeigen, welche mit der Distanz ab dem Fahrersichtpunkt in einer realen Situation variiert.
-
Wie in 8 gezeigt, kann ein Fahrzeugfahrer 405 ein erstes Objekt 415 auf weite Distanz und ein zweites Objekt 410 auf kurze Distanz auf der Windschutzscheibe 420 sehen, wobei variable Fehler durch Korrigieren von Fehlern bei Graphik-Koordinaten ermittelt werden. Das erste Objekt 415 entspricht der ersten HUD-Anzeigeinformation, und das zweite Objekt 410 entspricht der zweiten HUD-Anzeigeinformation.
-
Fehlerkorrektur großen Maßstabs kann am ersten Objekt 415 durchgeführt werden, wie durch den größeren Doppelkopfpfeil von 8 angezeigt, und eine Fehlerkorrektur kleineren Maßstabs kann am zweiten Objekt 410 durchgeführt werden, wie durch den kleineren Doppelkopfpfeil von 8 angezeigt. Als Ergebnis können Wahrnehmungsfehler in den Graphiken gleich gemacht werden, unabhängig von der Distanz zwischen dem Fahrer (oder Fahrzeug) und den Objekten, wodurch distanzabhängiges Cursorblinken auf den angezeigten Objekten 410 und 415 minimiert wird.
-
9 ist eine Ansicht zum Erläutern eines anderen Beispiels von durch die Augmentiert-Realitäts-HUD-Anzeigevorrichtung für ein in 6 gezeigtes Fahrzeug angezeigter Augmentiert-Realitäts-HUD-Graphik. Das heißt, dass 9 eine Anwendung der vorliegenden Offenbarung, welche die Distanz zu einem Fahrzeug voraus auf einem Augmentiert-Realitäts-HUD anzeigt, zeigt.
-
Wie in 9 gezeigt, können Graphiken eines nahen Objekts 510, das heißt eines zweiten Objektes, angezeigt werden, wobei der Anzeigefehlerparameter entsprechend der Antwortgeschwindigkeit eher als Genauigkeit eingestellt wird, und Graphiken eines weit entfernten Objektes 515, das heißt eines ersten Objektes, kann angezeigt werden, wobei der Anzeigefehlerparameter eingestellt ist, eher zur Genauigkeit als zur Antwortgeschwindigkeit zu korrespondieren.
-
Entsprechend ist der Fahrzeugfahrer 505 in der Lage, auf der Windschutzscheibe 520 eine Graphikanzeige des nahen Fahrzeugs 510 und eine Graphikanzeige des weiten Fahrzeugs 515 zu sehen, wobei Wahrnehmungsfehler bei den Graphiken gleich sind, unabhängig von der Distanz zwischen dem Fahrer (oder Fahrzeug) und den Objekten.
-
10 ist eine Ansicht zum Erläutern noch eines weiteren Beispiels von durch die in 6 gezeigte Augmentiert-Realitäts-HUD-Anzeigevorrichtung für ein Fahrzeug angezeigten Augmentiert-Realitäts-HUD-Graphiken. Anders ausgedrückt, zeigt 10 eine Anwendung der vorliegenden Offenbarung, welche die Geschwindigkeit des Fahrzeugs voraus auf einem Augmentiert-Realitäts-HUD anzeigt.
-
Wie in 10 gezeigt, kann Graphik eines nahen Objekts 610, d.h. eines zweiten Objekts, angezeigt werden, wobei der Anzeigefehlerparameter eher eingestellt ist, zu Antwortgeschwindigkeit zu korrespondieren als zu Genauigkeit, und kann Graphik eines fernen Objekts 615, d.h. eines ersten Objekts, angezeigt werden, wobei der Anzeigefehlerparameter eher eingestellt ist, zu Genauigkeit zu korrespondieren als zu Antwortgeschwindigkeit. Entsprechend ist der Fahrzeugfahrer 605 in der Lage, auf der Windschutzscheibe 620 eine Graphikanzeige des nahen Objekts 610 und eine Graphikanzeige des fernen Objekts 615 zu sehen, wo der Wahrnehmungsfehler in den Graphiken gleich sind, unabhängig von der Distanz zwischen dem Fahrer (oder Fahrzeug) und den Objekten.
-
11 ist eine Ansicht zum Erläutern eines weiteren Beispiels von durch die in 6 gezeigte Augmentiert-Realitäts-HUD-Anzeigevorrichtung für ein Fahrzeug angezeigten Augmentiert-Realitäts-HUD-Graphiken. Das heißt, dass 11 eine Anwendung der vorliegenden Offenbarung zeigt, welche TBT-Information auf einem Augmentiert-Realitäts-HUD anzeigt.
-
Wie in 11 gezeigt, kann TBT-Information für eine kurze Distanz (z.B. 50 m) angezeigt werden, wobei der Koordinatenfehler-Parameter eingestellt ist, eher zur Antwortgeschwindigkeit als zur Genauigkeit zu korrespondieren, und kann TBT-Information für eine lange Distanz (z.B. 150 m) angezeigt werden, wobei der Koordinatenfehler-Parameter eingestellt ist, eher zur Genauigkeit als der Antwortgeschwindigkeit zu korrespondieren.
-
Die Komponenten, Einheiten, Blöcke oder Module, die in der vorliegenden Offenbarung verwendet werden, können durch Software-Komponenten, wie etwa Aufgaben, Klassen, Unterroutinen, Prozesse, Objekte, Ausführungs-Threads oder Programme oder durch Hardware-Komponenten, wie etwa ein Field-Programmable Gate Array (FPGA) oder einen Application Specific Integrated Circuit, ASIC, oder durch Kombinationen der Software- und Hardware-Komponenten implementiert werden. Die Komponenten können auf einem Computer-lesbaren Speichermedium enthalten sein oder einige der Komponenten können in eine Mehrzahl von Computern verteilt sein.
-
Entsprechend sind hierin Ausführungsformen offenbart worden (d.h. in den Zeichnungen und der Spezifikation). Obwohl spezifische Ausdrücke hier verwendet worden sind, sind sie lediglich für den Zweck des Beschreibens der vorliegenden Ausführungsform verwendet worden und sind nicht verwendet worden, um deren Bedeutungen und den Schutzumfang der in den Ansprüchen dargestellten vorliegenden Offenbarung zu beschränken. Daher versteht sich, durch Jene mit Durchschnittswissen im Stand der Technik, dass verschiedene Modifikationen und andere äquivalente Ausführungsformen gemacht werden können. Entsprechend sollte der wahre technische Schutzbereich dieser Offenbarung durch den technischen Geist der beigefügten Ansprüche definiert sein.
-
Bezugszeichenliste
-
- 305
- Objektdetektionssensor
- 310
- Augenpositions-Detektor
- 315
- Augmentiert-Realitäts-Anzeigekoordinaten-Extraktor
- 320
- Fehlerkorrekturmodul
- 325
- Graphik-Anzeigeeinheit
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- KR 10-2014-0175097 [0001]
- KR 10-2015-0065842 [0001]