DE102011122552A1 - Graphisches fahrzeugbefehlssystem für autonome fahrzeuge auf einer headup-anzeige für die volle windschutzscheibe - Google Patents

Graphisches fahrzeugbefehlssystem für autonome fahrzeuge auf einer headup-anzeige für die volle windschutzscheibe Download PDF

Info

Publication number
DE102011122552A1
DE102011122552A1 DE201110122552 DE102011122552A DE102011122552A1 DE 102011122552 A1 DE102011122552 A1 DE 102011122552A1 DE 201110122552 DE201110122552 DE 201110122552 DE 102011122552 A DE102011122552 A DE 102011122552A DE 102011122552 A1 DE102011122552 A1 DE 102011122552A1
Authority
DE
Germany
Prior art keywords
vehicle
user
graphic
projection display
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE201110122552
Other languages
English (en)
Inventor
Joseph F. Szczerba
Thomas A. Seder
Dehua Cui
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102011122552A1 publication Critical patent/DE102011122552A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/141Activation of instrument input devices by approaching fingers or pens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/785Instrument locations other than the dashboard on or in relation to the windshield or windows
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/045Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using resistive elements, e.g. a single continuous surface or two parallel surfaces put in contact

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Instrument Panels (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Navigation (AREA)

Abstract

Ein Verfahren zum Steuern des Betriebs eines Fahrzeugs auf der Grundlage einer Nutzereingabe von einem Nutzer des Fahrzeugs in eine Graphikprojektionsanzeige, die eine ausgerichtete Graphik auf einer Ansicht vor dem Fahrzeug darstellt, umfasst das Projizieren der ausgerichteten Graphik auf die Ansicht vor dem Fahrzeug auf der Graphikprojektionsanzeige, das Überwachen der Nutzereingabe in die Graphikprojektionsanzeige und das Steuern des Betriebs des Fahrzeugs auf der Grundlage der Nutzereingabe in die Graphikprojektionsanzeige.

Description

  • TECHNISCHES GEBIET
  • Diese Offenbarung bezieht sich auf eine mit einer Graphikanzeigevorrichtung koordinierte Nutzereingabe.
  • HINTERGRUND
  • Die Aussagen in diesem Abschnitt stellen lediglich Hintergrundinformationen in Bezug auf die vorliegende Offenbarung dar und können, müssen jedoch nicht Stand der Technik bilden.
  • Die Darstellung von Informationen für den Betreiber eines Fahrzeugs auf effektive Weise ist erwünscht und verringert die Belastung des Betreibers. Headup-Anzeigen projizieren Licht auf einen Bildschirm, wobei das Licht in eine sichtbare Darstellung auf dem Bildschirm umgesetzt wird. Es ist bekannt, dass Headup-Anzeigen dem Betreiber des Fahrzeugs Informationen auf effektive Weise darstellen, indem sie die Belastung des Betreibers verringern, während sie ermöglichen, dass der Betreiber auf das Fahren konzentriert bleibt.
  • Fahrzeugsysteme, die Fahrhilfsmittel wie etwa adaptiven Tempomat (ACC), automatische Quersteuerung, Kollisionsvermeidungs- oder Kollisionsvorbereitungssysteme und Fahrspureinhaltungshilfen nutzen, überwachen und verarbeiten Informationen hinsichtlich der Betriebsumgebung, die das Fahrzeug umgibt. Es stehen Informationen aus einer Vielzahl von Quellen zur Verfügung, um das Fahrzeug in Bezug auf eine 3D-Kartendatenbank zu lokalisieren, eine Reisestrecke für das Fahrzeug zu einem Ziel zu planen und diese Reisestrecke mit verfügbaren Informationen hinsichtlich der Strecke zu korrelieren. Bordfahrzeugsysteme stellen eine breite Vielfalt von Informationen bereit, die verwendet werden können, um die Steuerung des Fahrzeugs zu verbessern. Es ist bekannt, dass Fahrzeug-zu-Fahrzeug-Kommunikationen Daten, die in einem Fahrzeug erhoben werden, bei der Kommunikation mit Fahrzeugen an anderer Stelle auf der Straße nutzen. Es ist bekannt, dass Infrarotsensoren Merkmale in einer Ansicht, die auf dem Unterschied der Infrarotlichtemissionen beruht, detektieren.
  • Die Eingabe von einem Fahrzeugbetreiber oder -insassen kann von einer Anzahl von Quellen überwacht oder empfangen werden. Tasten, Hebel, Lenkräder, Pedale und andere ähnliche Eingabevorrichtungen ermöglichen, dass eine Person Steuereinstellungen in ein Fahrzeug eingibt. Es sind Eingaben in eine graphische Vorrichtung wie etwa in eine Touchscreenanzeige bekannt.
  • ZUSAMMENFASSUNG
  • Ein Verfahren zum Steuern des Betriebs eines Fahrzeugs auf der Grundlage einer Nutzereingabe von einem Nutzer des Fahrzeugs in eine Graphikprojektionsanzeige, die eine ausgerichtete Graphik auf einer Ansicht vor dem Fahrzeug darstellt, enthält das Projizieren der ausgerichteten Graphik auf die Ansicht vor dem Fahrzeug auf der Graphikprojektionsanzeige, das Überwachen der Nutzereingabe in die Graphikprojektionsanzeige und das Steuern des Betriebs des Fahrzeugs auf der Grundlage der Nutzereingabe in die Graphikprojektionsanzeige.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Es werden eine oder mehrere Ausführungsformen beispielhaft anhand der beigefügten Zeichnungen beschrieben, in denen:
  • 1 ein beispielhaftes Fahrzeug darstellt, das mit einem System zur verbesserten Bilderkennung gemäß der vorliegenden Offenbarung ausgestattet ist;
  • 2 beispielhafte Ausführungsformen der Graphikprojektionsanzeige gemäß der vorliegenden Offenbarung darstellt;
  • 3 eine im Wesentlichen durchsichtige Anzeige gemäß der vorliegenden Offenbarung darstellt;
  • 4 ein beispielhaftes Nutzereingabemodul zum Empfangen von Nutzereingaben, die für einen Abschnitt der Graphikprojektionsanzeige angegeben werden, gemäß der vorliegenden Offenbarung darstellt;
  • 5 einen beispielhaften Informationsfluss zum dynamischen Ausrichten einer Graphik auf eine Fahrszene unter Nutzung der Graphikprojektionsanzeige, die einen EVS-Systemmanager enthält, der Eingaben überwacht, um Anzeigeanforderungen zu erzeugen, gemäß der vorliegenden Offenbarung darstellt;
  • 6 einen beispielhaften Informationsfluss zur Bestimmung einer Graphik auf der Grundlage von Eingaben in einen EVS-Systemmanager gemäß der vorliegenden Offenbarung darstellt;
  • 7 eine beispielhafte Strahlungsquelle, die Licht in ein begrenztes Sehfeld emittieren kann, gemäß der vorliegenden Offenbarung darstellt;
  • 8 einen beispielhaften Prozess zum Erzeugen der notwendigen Struktur von Strahlungsquellen, die auf ein Polymersubstrat ausgerichtet sind, um das Sehen in einem begrenzten Sehfeld zu ermöglichen, gemäß der vorliegenden Offenbarung darstellt;
  • 9 einen beispielhaften Prozess zum Betreiben der hier offenbarten Verfahren gemäß der vorliegenden Offenbarung darstellt; und
  • 10 eine beispielhafte Ansicht durch eine durchsichtige Windschutzscheiben-Graphikprojektionsanzeige und die Nutzereingabe in ausgerichtete Graphiken auf der Anzeige gemäß der vorliegenden Offenbarung darstellt.
  • AUSFÜHRLICHE BESCHREIBUNG
  • In den Zeichnungen, in denen die Darstellungen nur zur Veranschaulichung bestimmter beispielhafter Ausführungsformen und nicht zu deren Beschränkung dienen, veranschaulicht 1 ein beispielhaftes Fahrzeug, das mit einem System zur verbesserten Bilderkennung ausgestattet ist. Ein beispielhaftes EVS-System ist in der gleichzeitig anhängigen US-Anmeldung Nr. 12/417,077 offenbart, die hier durch Bezugnahme mit aufgenommen ist. Das beispielhafte Fahrzeug 100 enthält einen EVS-Systemmanager 110, ein Nutzereingabemodul (UIM) 515, Fahrzeugsensorsysteme (einschließlich eines Kamerasystems 120 und eines Radarsystems 125), Fahrzeugbetriebssensoren (einschließlich eines Fahrzeuggeschwindigkeitssensors 130), Informationssysteme (einschließlich GPS-Vorrichtung 140 und drahtlosem Kommunikationssystem 145); eine Headup-Anzeige (HUD) 150, ein EVS-Graphiksystem 155, ein Graphikprojektionssystem 158 und ein System 160 zum Erfassen des Orts der Augen eines Insassen. Der EVS-Systemmanager 110 kann direkt mit verschiedenen Systemen und Komponenten kommunizieren oder der EVS-Systemmanager kann alternativ oder zusätzlich über ein LAN/CAN-System 115 kommunizieren. Der EVS-Systemmanager 110 kommuniziert mit dem EVS-Graphiksystem 155, um Graphiken auf die HUD 150 zu projizieren. Allerdings kann der EVS-Systemmanager 110 mit dem EVS-Graphiksystem 155 kommunizieren, um stattdessen oder zusätzlich Graphiken auf andere Oberflächen innerhalb des Fahrzeugs zu projizieren, um hier offenbarte Verfahren auszuführen. Wie ausführlicher anhand von 4 diskutiert ist, kann der UIM 515 für einen Abschnitt einer Anzeigevorrichtung angegebene Nutzereingaben empfangen, wobei die Nutzereingaben durch den EVS-Systemmanager 110 überwacht werden. Ein Kamerasystem 120 enthält eine Kamera oder eine Bilderfassungsvorrichtung, die periodisch oder aufeinanderfolgend Bilder aufnimmt, die eine Ansicht aus dem Fahrzeug repräsentieren. Ein Radarsystem 125 enthält eine in der Technik bekannte Vorrichtung, die elektromagnetische Strahlung nutzt, um andere Fahrzeuge oder Objekte zu detektieren, die sich in der Nähe des Fahrzeugs befinden. Innerhalb eines Fahrzeugs werden umfassend eine Anzahl bekannter fahrzeugintegrierter Sensoren zum Überwachen der Fahrzeuggeschwindigkeit, der Motordrehzahl, des Radschlupfs und anderer Parameter, die den Betrieb des Fahrzeugs beschreiben, verwendet. Der Fahrzeuggeschwindigkeitssensor 130 repräsentiert einen solchen fahrzeugintegrierten Sensor, wobei aber der Umfang der Offenbarung irgendwelche solche Sensoren zur Verwendung durch das EVS enthält. Eine GPS-Vorrichtung 140 und ein drahtloses Kommunikationssystem 145 kommunizieren mit Betriebsmitteln außerhalb des Fahrzeugs, z. B. mit einem Satellitensystem 180 und mit einem Zellentelekommunikationsturm 190. Die GPS-Vorrichtung 140 kann in Verbindung mit einer 3D-Kartendatendatenbank genutzt werden, die ausführliche Informationen hinsichtlich einer von der GPS-Vorrichtung 140 empfangenen globalen Koordinate hinsichtlich des gegenwärtigen Orts des Fahrzeugs enthält. Informationen von den Fahrzeugsensorsystemen und von den Fahrzeugbetriebssensoren können von dem EVS-Systemmanager 110 genutzt werden, um die gegenwärtige Orientierung des Fahrzeugs zu überwachen. Die HUD 150 enthält eine Windschutzscheibe, die mit Merkmalen ausgestattet ist, die ein darauf projiziertes Bild anzeigen können, während sie durchsichtig oder im Wesentlichen durchsichtig bleibt, so dass Insassen des Fahrzeugs die Außenumgebung des Fahrzeugs durch die Windschutzscheibe deutlich beobachten können. Die HUD 150 kann einen Abschnitt der Windschutzscheibe, z. B. einen Abschnitt, der die Fahrerseitenhälfte der Windschutzscheibe enthält, enthalten, oder die HUD 150 kann im Wesentlichen die volle Windschutzscheibe enthalten. Es ist einzusehen, dass, während das HUD 150 die Windschutzscheibe vorn in dem Fahrzeug enthält, andere Oberflächen innerhalb des Fahrzeugs einschließlich Seitenfenstern und einer Heckscheibe für die Projektion verwendet werden könnten. Außerdem könnte die Ansicht auf der vorderen Windschutzscheibe als ein ununterbrochenes Bild auf den vorderen ”A-Säulen” des Fahrzeugs und auf den Seitenfenstern fortgesetzt werden. Die EVS-Graphikmaschine 155 enthält Anzeigesoftware oder Programmierung, die Anforderungen zum Anzeigen von Informationen von dem EVS-Systemmanager 110 in graphische Darstellungen der Informationen übersetzt. Die EVS-Graphikmaschine 155 enthält Programmierung zum Kompensieren der gekrümmten und geneigten Oberfläche der Windschutzscheibe und irgendwelcher anderer Oberflächen (z. B. der in 2 gezeigten nicht durchsichtigen Komponente 280), auf die die Graphiken projiziert werden sollen. Die EVS-Graphikmaschine 155 steuert das Graphikprojektionssystem 158 einschließlich einer Laser- oder Projektorvorrichtung, die ein Erregungslicht zum Projizieren der Graphikdarstellungen erzeugt. Ein beispielhaftes System 160 zum Erfassen des Orts der Augen eines Insassen enthält in der Technik bekannte Sensoren zum Annähern eines Orts des Kopfs eines Insassen und ferner der Orientierung oder eines Orts, auf den die Augen des Insassen blicken. Auf der Grundlage der Ausgabe des Systems 160 zum Erfassen des Orts der Augen eines Insassen, des gegenwärtigen Orts und der gegenwärtigen Orientierung des Fahrzeugs 100 und eines Nutzereingabeorts kann der EVS-Systemmanager 110 die Graphikdarstellungen dynamisch genau auf die HUD 150 ausrichten, so dass der Insasse die Bilder mit visuellen Bildern durch die Windschutzscheibe überlagert sieht. Die dynamische Ausrichtung von Graphiken wird anhand von 5 ausführlicher diskutiert.
  • Informationen können einem Nutzer eines Fahrzeugs gemäß einer Anzahl beispielhafter Ausführungsformen dargestellt werden. Um dem Nutzer Informationen darzustellen, können eine Anzahl von Videovorrichtungen genutzt werden. Allerdings verringert die Darstellung der Informationen innerhalb eines Kontexts für den Nutzer einer Ansicht der Betriebsumgebung des Fahrzeugs die visuelle Komplexität für die Steuerung des Fahrzeugs. Um Graphiken im Kontext einer Ansicht vor dem Fahrzeug anzuzeigen, kann eine Graphikprojektionsanzeige genutzt werden. Eine Graphikprojektionsanzeige 250 und die zugeordneten Graphiken können gemäß einer Anzahl beispielhafter Ausführungsformen genutzt werden. 2 veranschaulicht beispielhafte Ausführungsformen der Graphikprojektionsanzeige, die eine im Wesentlichen durchsichtige Windschutzscheiben-HUD 150, eine Touchscreenanzeige 260, eine Mensch-Maschine-Schnittstelle (HMI) 151, die eine Anzeige enthält, nicht durchsichtige Komponenten 280 und einen Anzeigemonitor 270, der in das Innere des Fahrzeugs eingebaut ist, enthält. Es ist festzustellen, dass irgendeine der gezeigten Ausführungsformen, die bei der Graphikprojektionsanzeige 250 enthalten ist, Graphiken entsprechend einer und ausgerichtet auf eine Ansicht der Fahrszene des Fahrzeugs auf die Anzeige projizieren kann.
  • Gemäß einer Ausführungsform kann die Graphikprojektionsanzeige 250 eine HUD 150 enthalten, die für den Nutzer Informationen im Kontext der Ansicht durch die HUD darstellt. Die HUD ist eine durchsichtige Windschutzscheibe mit kleinen Leuchtpartikeln oder -strukturen, die innerhalb der Windschutzscheibe eingebettet sind. Im Ergebnis kann der Nutzer immer noch durch die Windschutzscheibe sehen und z. B. ein anderes Fahrzeug im Verkehr vor dem Fahrzeug des Nutzers beobachten. Wenn das Lasererregungslicht auf die Windschutzscheibe projiziert wird, emittieren die Leuchtpartikel oder -strukturen sichtbares Licht nach hinten zu dem Nutzer. Allerdings stört dieses emittierte Licht nicht die Sicht des Nutzers durch die Windschutzscheibe. Zum Beispiel kann der Nutzer weiter das Fahrzeug vor dem Fahrzeug des Nutzers sehen und kann der EVS-Systemmanager anweisen, dass auf einen Ort der Windschutzscheibe und mit einer richtigen Größe eine Graphik gezeichnet wird, die einen Kasten enthält, so dass der Nutzer einen dynamisch ausgerichteten Kasten sieht, der um das Fahrzeug vor dem Fahrzeug des Nutzers gezeichnet ist. Im Ergebnis kann die HUD 150 als Graphikprojektionsanzeige 250 wirken, die Graphiken projiziert, die einer Ansicht der Fahrszene des Fahrzeugs überlagert sind oder entsprechen.
  • 3 veranschaulicht eine im Wesentlichen durchsichtige Anzeige. Der Betrachter 10 kann durch ein Substrat 14 ein beliebiges Objekt (z. B. einen Würfel 12) sehen. Das Substrat 14 kann durchsichtig oder im Wesentlichen durchsichtig sein. Während der Betrachter 10 durch das Substrat 14 ein beliebiges Objekt 12 sieht, kann der Betrachter ebenfalls Bilder (z. B. einen Kreis 15 und ein Dreieck 16) sehen, die an dem Substrat 14 erzeugt werden. Das Substrat 14 kann Teil einer Fahrzeugwindschutzscheibe, ein Glassubstrat, ein Kunststoffsubstrat, ein Polymersubstrat oder ein anderes durchsichtiges (oder im Wesentlichen durchsichtiges) Medium sein, das der Durchschnittsfachmann auf dem Gebiet erkennen wird. Andere Substrate können das Substrat 14 ergänzen, um eine Tönung, einen Substratschutz, eine Lichtfilterung (z. B. eine Filterung von äußerem Ultraviolettlicht) und andere Funktionen bereitzustellen.
  • 3 veranschaulicht eine Beleuchtung des Substrats 14, das mit Erregungslicht (z. B. mit Ultraviolettlicht oder mit Infrarotlicht) von Lichtquellen (z. B. einem Projektor oder Laser), die durch die Vorrichtung 20 repräsentiert sind, beleuchtet wird. Das empfangene Erregungslicht kann durch Lichtemissionsmaterial an dem Substrat 14 absorbiert werden. Wenn das Lichtemissionsmaterial das Erregungslicht empfängt, kann das Lichtemissionsmaterial sichtbares Licht emittieren. Dementsprechend können durch wahlweises Beleuchten des Substrats 14 mit Erregungslicht an dem Substrat 14 Bilder (z. B. ein Kreis 15 und ein Dreieck 16) erzeugt werden.
  • In einer Ausführungsform wird das Erregungslicht von einer Vorrichtung 20 einschließlich eines Projektors ausgegeben. Der Projektor kann ein Digitalprojektor sein. Der Projektor kann ein Mikrospiegelanordnungsprojektor (MMA-Projektor) (z. B. ein Projektor für digitale Lichtverarbeitung (DLP-Projektor)) sein. Ein MMA-Projektor, der Ultraviolettlicht ausgibt, kann, abgesehen davon, dass das Farbrad Lichtfilter aufweist, die an das Ultraviolettlichtspektrum angepasst sind, ähnlich einem MMA-Projektor sein, der sichtbares Licht ausgibt. Der Projektor kann ein Flüssigkristallanzeigeprojektor (LCD-Projektor) sein. Der Projektor kann ein Flüssigkristall-auf-Silicium-Projektor (LCOS-Projektor) sein. Der Projektor kann ein Analogprojektor (z. B. ein Diafilmprojektor oder ein Filmprojektor) sein. Der Durchschnittsfachmann auf dem Gebiet wird andere Typen von Projektoren erkennen, die zum Projizieren von Ultraviolettlicht auf das Substrat 14 verwendet werden können.
  • In einer anderen Ausführungsform wird ein Erregungslicht von der Vorrichtung 20, die einen Laser enthält, ausgegeben. Die Intensität und/oder die Bewegung eines von der Vorrichtung 20 ausgegebenen Laserstrahls kann moduliert werden, um in dem Substrat 14 ein Bild zu erzeugen. In Ausführungsformen mit Abwärtsumsetzung kann die Ausgabe von dem Laser Ultraviolettlicht sein. In Ausführungsformen mit Aufwärtsumsetzung kann die Ausgabe von dem Laser Infrarotlicht sein.
  • 3 veranschaulicht lichtemittierendes Material (z. B. lichtemittierende Partikel 22), das in einem im Wesentlichen durchsichtigen Substrat dispergiert ist. Wenn von den lichtemittierenden Partikeln 22 Erregungslicht absorbiert wird, emittieren die lichtemittierenden Partikel sichtbares Licht. Dementsprechend wird von den lichtemittierenden Partikeln in Ausführungsformen mit Abwärtsumsetzung sichtbares Licht emittiert, wenn von den lichtemittierenden Partikeln 22 Ultraviolettlicht absorbiert wird. Gleichfalls wird von den lichtemittierenden Partikeln in Ausführungsformen mit Aufwärtsumsetzung sichtbares Licht emittiert, wenn von den lichtemittierenden Partikeln 22 Infrarotlicht absorbiert wird.
  • 3 veranschaulicht lichtemittierendes Material, das lichtemittierende Partikel 22 enthält, die in einem im Wesentlichen durchsichtigen Substrat dispergiert sind. Diese lichtemittierenden Partikel 22 können überall im Wesentlichen ähnliche Partikel sein oder die Zusammensetzung der Partikel kann wie in 3 dargestellt variieren. Wenn von den lichtemittierenden Partikeln 22 Erregungslicht absorbiert wird, emittieren die Partikel sichtbares Licht. Dementsprechend wird von den lichtemittierenden Partikeln in Ausführungsformen mit Abwärtsumsetzung sichtbares Licht emittiert, wenn von den lichtemittierenden Partikeln Ultraviolettlicht absorbiert wird. Gleichfalls wird von den lichtemittierenden Partikeln in Ausführungsformen mit Aufwärtsumsetzung sichtbares Licht emittiert, wenn von den lichtemittierenden Partikeln Infrarotlicht absorbiert wird. Jedes lichtemittierende Partikel kann ein anderer Typ eines lichtemittierenden Materials sein, das in Ansprechen auf einen unterschiedlichen Bereich von Wellenlängen des Erregungslichts (z. B. Ultraviolett- oder Infrarotlicht) einen unterschiedlichen Bereich von Wellenlängen sichtbaren Lichts emittiert.
  • Die lichtemittierenden Partikel 22 können über das gesamte Substrat 14 dispergiert sein. Wie in 3 dargestellt ist, können die Partikel alternativ auf einer Oberfläche des Substrats 14 angeordnet sein. Lichtemittierende Partikel 22 können in das Substrat 14 integriert sein, indem sie auf dem Substrat 14 beschichtet sind. Lichtemittierendes Material kann fluoreszierendes Material sein, das in Ansprechen auf die Absorption elektromagnetischer Strahlung (z. B. von sichtbarem Licht, Ultraviolettlicht oder Infrarotlicht) mit einer anderen Wellenlänge als das emittierte sichtbare Licht sichtbares Licht emittiert. Die Größe der Partikel kann kleiner als die Wellenlänge des sichtbaren Lichts sein, was die Streuung von sichtbarem Licht durch die Partikel verringern oder beseitigen kann. Beispiele für Partikel, die kleiner als die Wellenlänge von sichtbarem Licht sind, sind Nanopartikel oder Moleküle. Jedes der lichtemittierenden Partikel kann einen Durchmesser aufweisen, der kleiner als etwa 400 Nanometer ist. Gemäß Ausführungsformen kann jedes der lichtemittierenden Partikel einen Durchmesser aufweisen, der kleiner als etwa 300 Nanometer, kleiner als etwa 200 Nanometer, kleiner als etwa 100 Nanometer oder kleiner als etwa 50 Nanometer ist. Die lichtemittierenden Partikel können einzelne Moleküle sein.
  • Gemäß einer anderen Ausführungsform der Graphikprojektionsanzeige 250 kann ein Bildschirm genutzt werden, um dem Nutzer Informationen im Kontext der Ansicht darzustellen. Eine beispielhafte HMI-Vorrichtung 151 enthält eine damit zugeordnete Anzeige zum Empfangen eines projizierten Bilds einer Ansicht, die der Ansicht einer Fahrszene des Fahrzeugs entspricht und Informationen für den Nutzer überlagert oder koordiniert mit der Ansicht anzeigt. Die HMI 151 enthält eine Computervorrichtung, bei der der Betreiber des Fahrzeugs Befehle zum Steuern verschiedener Systeme des Fahrzeugs in Signalkommunikation mit der HMI 151 und zum Empfangen gewünschter Informationen eingeben kann. Zum Beispiel kann der Nutzer unter Nutzung der HMI 151 auf der Grundlage der durch die oder auf der Anzeige sichtbaren Szene eine Eingabe bereitstellen. Verfahren zur Projektion auf HMI-Anzeigen sind in der Technik bekannt, und diese Offenbarung soll nicht auf irgendein Projektionsverfahren beschränkt sein. Die HMI 151 kann als Graphikprojektionsanzeige 250 wirken, die Graphiken einer Ansicht der Fahrszene des Fahrzeugs überlagert oder entsprechend projiziert.
  • Gemäß einer anderen Ausführungsform der Graphikprojektionsanzeige 250 kann eine Touchscreenvorrichtung 260 genutzt werden. Touchscreenvorrichtungen sind in der Technik gut bekannt und werden hier nicht ausführlich diskutiert. Eine Touchscreenvorrichtung 260 kann als Graphikprojektionsanzeige 250 wirken, die Graphiken einer Ansicht der Fahrszene des Fahrzeugs überlagert oder entsprechend projiziert.
  • Gemäß einer anderen Ausführungsform der Graphikprojektionsanzeige 250 kann die Graphikprojektionsanzeige die nicht durchsichtigen Komponenten 280 zum Empfangen eines projizierten Bilds einer Ansicht, die der Fahrszene des Fahrzeugs entspricht, und zum Anzeigen einer der Ansicht überlagerten oder entsprechenden Graphik enthalten. Die nicht durchsichtigen Komponenten 250 können ein Armaturenbrett, Sitze, Kopfstützen, Struktursäulen, Dächer, Sonnenblenden und Lenkräder enthalten. Die nicht durchsichtigen Komponenten 250 können eine durchsichtige Phosphorlage enthalten, die in Ansprechen auf einen Erregungsprojektor zum Anzeigen von Graphiken reagiert. Projektionsverfahren sind oben anhand des im Wesentlichen durchsichtigen Windschutzscheiben-HUD 150 diskutiert und werden in Bezug auf die nicht durchsichtige Komponente 280 nicht diskutiert. Die gleichzeitig anhängige US-Anmeldung Nr. 12/563,407 ist hier durch Bezugnahme mit aufgenommen und offenbart das Projizieren von Bildern und Graphiken auf nicht durchsichtige Komponenten. In alternativen Ausführungsformen kann die nicht durchsichtige Komponente 250 die im Folgenden anhand von 7 und 8 diskutierte Architektur mit begrenztem gepixeltem Sehfeld enthalten, wenn die Projektion dynamisch ausgerichteter Graphiken auf die HUD 150 und alternativ auf die nicht durchsichtigen Komponenten 280 diskutiert ist.
  • Verfahren zum Anzeigen von Informationen für einen Nutzer eines Fahrzeugs über eine Graphikprojektionsanzeige 250 können für den Nutzer Einzelheiten hinsichtlich der Betriebsumgebung des Fahrzeugs und des Betriebs des Fahrzeugs bereitstellen. Zum Beispiel kann die Graphikprojektionsanzeige 250 Navigationseinzelheiten für den Nutzer hinsichtlich einer geplanten Strecke darstellen. Falls das Fahrzeug auf einer Autobahn fährt und die geplante Strecke enthält, dass das Fahrzeug eine bevorstehende Ausfädelspur nutzt, kann auf der Graphikprojektionsanzeige 250 eine Graphik angezeigt werden, die Zeichen für die Ausfädelspur hervorhebt, die Fahrbahnmarkierungen für die Ausfädelspur hervorhebt, die zum Fahrbahnwechsel in Vorbereitung auf die Verwendung der Ausfädelspur auffordert, wobei eine Graphik wie etwa ein auf die Oberfläche der Ausfädelspur ausgerichteter Pfeilanzeiger genutzt wird, um für den Nutzer anzugeben, wo zu fahren ist. Falls in einem anderen Beispiel Informationen von einer drahtlosen Verbindung zu dem Internet starken oder angehaltenen Verkehr entlang einer geplanten Strecke enthalten, können mehrere Optionen, die z. B. Textinformationen, hervorgehobene Zeichen und eine Nebenkarte in der Graphikprojektionsanzeige 250 enthalten, angezeigt werden. In einem anderen Beispiel kann der Nutzer eine Anfrage hinsichtlich potentieller interessierender Punkte, z. B. einschließlich Tankstellen, Restaurants, Einkaufsplätzen oder anderer ähnlicher Ziele, initiieren. Wenn das Fahrzeug in eine bestimmte Entfernung gelangt, können Informationen hinsichtlich dieser Punkte einschließlich Preisen, Rezensionen oder Bewertungen durch andere Kunden von Werbestellen (die z. B. durchschnittliche Sterne von fünft anzeigen), ausgerichtete Graphiken, die den Ort oder wo sich der Parkplatz befindet darstellen, oder andere Informationen angezeigt werden. In einem anderen Beispiel können Einzelheiten hinsichtlich des Betriebs des Fahrzeugs, z. B. Informationen hinsichtlich des Betriebs mit einer gegenwärtigen Geschwindigkeit einschließlich der Zeit, bis ein geplantes Ziel erreicht ist, und des spezifischen Kraftstoffverbrauchs und des geschätzten optimalen Betriebs mit einer anderen Geschwindigkeit für verbesserten spezifischen Kraftstoffverbrauch, angezeigt werden. Es sind eine Anzahl von Ausführungsformen von Informationen, die angezeigt werden können, denkbar, wobei die Offenbarung nicht auf die hier beschriebenen besonderen beispielhaften Ausführungsformen beschränkt sein soll.
  • Außer Informationen hinsichtlich einer Strecke, die das Fahrzeug nehmen kann, oder Betriebsinformationen des vom Nutzer gefahrenen Fahrzeugs können auf der Graphikprojektionsanzeige 250 Informationen hinsichtlich einer Anzahl autonomer oder semiautonomer Verfahren zum Betreiben eines Fahrzeugs angezeigt werden. Beispielhafte autonome oder semiautonome Verfahren nutzen Sensoreingaben zum Steuern der Geschwindigkeit und/oder zum Lenken des Fahrzeugs. Die Verfahren umfassen einen adaptiven Tempomat, eine Fahrspureinhaltung, einen Fahrspurwechsel sowie eine Kollisionsvorbereitung und -vermeidung. Beispielhafte autonome und semiautonome Verfahren sind ausführlich in der oben erwähnten US-Anmeldung Nr. 12/417,077 offenbart. Informationen hinsichtlich des Betriebs autonomer und semiautonomer Verfahren, z. B. ein gegenwärtiger Abstand oder ein gewünschter Abstand, den das Fahrzeug zu erzielen versucht; das Hervorheben von Fahrspuren, die gegenwärtig befolgt werden, einschließlich einer Metrik, die darstellt, wie nahe zur Mitte der gegenwärtigen Fahrspur das Fahrzeug ist; die Angabe eines bevorstehenden Fahrspurwechsels für den Nutzer; und Gefahrenbeurteilungen, die relative Positionen und Trajektorien eines umgebenden Fahrzeugs, von Fußgängern und von anderen Objekten darstellen, können angezeigt werden. Es sind eine Anzahl autonomer und semiautonomer Verfahren zum Steuern eines Fahrzeugs sowie verwandte Informationen, die an einen Nutzer oder an Insassen eines Fahrzeugs übermittelt werden können, denkbar, wobei die Offenbarung nicht auf die hier offenbarten besonderen beispielhaften Ausführungsformen beschränkt sein soll.
  • Auf einer Graphikprojektionsanzeige 250 können für einen Nutzer eines Fahrzeugs verschiedene Typen von Informationen dargestellt werden. Viele der Informationen, die dargestellt werden können, enthalten Optionen oder können eine Aufforderung zur Eingabe von dem Nutzer enthalten. Zum Beispiel kann ein Nutzer Prioritäten ändern oder eine geplante Fahrstrecke auf dem Weg zu einem geplanten Ziel ändern wollen. Bekannte Verfahren zum Ändern einer Strecke enthalten, dass sich der Nutzer auf eine Kartenanzeige konzentriert oder Textinformationen in ein Feld eingibt. Diese Verfahren erfordern, dass der Nutzer den Blickpunkt von der Ansicht der Fahrszene des Fahrzeugs nimmt, wobei er z. B. weniger auf andere Fahrzeuge in der Nähe des Fahrzeugs des Nutzers achtet. Ferner können diese von der Fahrszene getrennten Informationen schwierig schnell zu interpretieren sein. Ein Verfahren, das eine Nutzereingabe über die Graphikprojektionsanzeige 250 überwacht und auf der Grundlage der Nutzereingabe einen Steuerbefehl bestimmt, kann ermöglichen, dass der Nutzer die Eingabe bereitstellt, während er die Konzentration auf die Fahrszene und mit verbessertem Kontext für die Fahrszene behält.
  • Der EVS-Systemmanager 110 enthält einen programmierbaren Prozessor, der Programmierung zum Überwachen einer für einen Abschnitt der Graphikprojektionsanzeige 250 angegebenen Nutzereingabe (siehe 2) enthält und auf der Grundlage der überwachten Nutzereingabe eine Graphik bestimmt, die Betriebseigenschaften repräsentiert. Es ist festzustellen, dass die auf die Anzeige angezeigten Graphiken genutzt werden können, um Steuereingaben für die Anzeige, für die Fahrzeugsteuersysteme oder für ein anderes zugeordnetes System bereitzustellen.
  • Anhand von 4 ist ein beispielhaftes Nutzereingabemodul (UIM) 515 zum Empfangen von für einen Abschnitt der Graphikprojektionsanzeige 250 angegebenen Nutzereingaben dargestellt. Die Nutzereingaben werden durch den EVS-Systemmanager 110 überwacht und können zum Anzeigen von Graphiken auf der Graphikprojektionsanzeige 250 entsprechend der Fahrszene genutzt werden. Das UIM 515 enthält Ausführungsformen von Nutzereingabevorrichtungen und -modulen, wobei das beispielhafte Fahrzeug nur eine(s) der Eingabevorrichtungen und -module enthalten kann, die innerhalb des UIM 515 zum Empfangen und Überwachen einer für einen Abschnitt der Graphikprojektionsanzeige 250 angegebenen Nutzereingabe enthalten sind. Allerdings sind Ausführungsformen denkbar, bei denen das Fahrzeug Abwandlungen der innerhalb der UIM 515 enthaltenen Nutzereingabevorrichtungen und -module enthalten kann und auf der Grundlage der Präferenz eines Fahrzeugnutzers Ausgewählte freigegeben werden können. Das beispielhafte UIM 515 enthält eine Bilderzeugungsvorrichtung 161, ein Touchscreen-Eingabemodul (TSIM) 149, eine Controllervorrichtung 153 und eine Tastaturvorrichtung 161.
  • Das TSIM 149 kann zum Empfangen von Berührungsgesten einer Hand oder eines Fingers des Nutzers auf dem Modul, die für einen der Fahrszene entsprechenden Abschnitt der Graphikprojektionsanzeige angegeben werden, konfiguriert sein. Zusätzlich kann das TSIM 149 eine Anzeige enthalten, die der Fahrszene des Fahrzeugs entspricht und die zum dynamischen Ausrichten von Graphiken darauf konfiguriert ist. Es ist einzusehen, dass die empfangenen Berührungsgesten der Hand des Nutzers eine berührungsgestützte Nutzerschnittstelle zum Bestimmen der Auswahl von Optionen über die Anzeige bereitstellen.
  • In der Technik sind verschiedene Vorrichtungen bekannt, die Berührungsgesten einer Hand oder eines Fingers eines Nutzers empfangen können. Das TSIM 149 kann eine Touchscreenvorrichtung sein, die einen Bildschirm enthält, der das Auftreten, den Ort und die Position einer Berührung innerhalb eines Gebiets der Anzeige identifizieren kann. Gemäß einer Ausführungsform kann die Anzeige eine Ansicht der Fahrszene des Fahrzeugs enthalten. Gemäß einer anderen Ausführungsform kann die Anzeige, wenn z. B. alternative Optionen für die Auswahl bereitgestellt werden, ausgewählte Bilder für die Auswahl enthalten. Zum Beispiel könnte die Anzeige, die eine Navigationsauswahl bereitstellt, eine Hälfte des Bildschirms mit einer Textmeldung, die z. B. eine Option zum Aufrechterhalten einer gegenwärtig ausgewählten Strecke bereitstellt, und die andere Hälfte des Bildschirms mit einem Segment der Ansicht der Fahrszene, das ein Zeichen enthält, das einen Straßennamen oder eine Ausfahrtsnummer zeigt, der bzw. die für den Nutzer eine Option bereitstellt, das angezeigte Straßenschild auszuwählen, um die geplante Fahrstrecke zu ändern, zeigen. Das TSIM 149 kann innerhalb der HMI-Vorrichtung 151 (siehe 2) integriert sein. Das TSIM 149 kann als eine Handvorrichtung wie etwa als ein Personal Digital Assistant (PDA) oder als ein Zellentelephon, die alle Anzeigen aufweisen, die die Fahrszene des Fahrzeugs enthalten, verkörpert sein. Das TSIM 149 ermöglicht, dass ein Nutzer, anstatt indirekt mit einer Maus oder einem Touchpad, mit dem auf der Anzeige Angezeigten (d. h. mit der Fahrszene) in Wechselwirkung tritt, und lässt den Nutzer die Berührungsgesten ausführen, ohne dass solche Zwischenvorrichtungen notwendig sind. Solche Verfahren zum Anzeigen von Optionen zur Auswahl können graphische Eingabenaufforderungen wie etwa ein Symbol oder einen blinkenden Kastenindikator um ein angezeigtes Element, Audioeingabeaufforderungen oder eine Anzahl anderer in der Technik bekannter Merkmale zum schnellen Übermitteln von Informationen an den Nutzer, um die Auswahl der Optionen zu ermöglichen, die dargestellt werden, enthalten.
  • Darüber hinaus sind in der Technik verschiedene Verfahren zum Überwachen und Empfangen von Berührungsgesten der Hand oder des Fingers des Nutzers bekannt. In einer nicht einschränkenden Ausführungsform kann das TSIM 149 eine resistive Touchscreenanzeige sein, die aus einer Standardglasplatte besteht, die mit einer dünnen leitenden und mit einer resistiven Metallplatte beschichtet ist, wobei zwischen den zwei Schichten der elektrische Strom fließt und die Berührungsgeste überwacht, wenn die zwei Schichten an demselben Ort miteinander in Kontakt kommen und dadurch den elektrischen Strom unterbrechen. In einer anderen nicht einschränkenden Ausführungsform kann das TSIM 149 eine Oberflächenwellen-Touchscreenanzeige sein, die Ultraschallwellen zum Verarbeiten von Nutzereingaben von dem Bildschirm nutzt. In dieser Ausführungsform nutzt die Oberflächenwellen-Touchscreenanzeige einen Wandler, der identifiziert, ob ein Signal durch eine Berührung bei irgendeiner Bewegung geändert worden ist, wobei Ultraschallwellen über den gesamten Bildschirm fließen, wenn der Nutzer die Anzeige an einem spezifischen Ort berührt. In einer nochmals anderen nicht einschränkenden Ausführungsform kann das TSIM 149 eine kapazitive Touchscreenanzeige sein, die aus einer Indium-Zinn-Oxidplatte besteht, die elektrische Ladung speichert und auf einer Glasschicht der Anzeige positioniert ist. Wenn die Hand oder der Finger der Nutzereingabe die Anzeige berührt, wird eine kleine Menge der Ladung auf die Hand oder den Finger des Nutzers übertragen und verringert sich die Menge der Ladung auf der kapazitiven Platte. Ein damit zugeordneter Prozessor berechnet die vergleichsweise Änderung und bestimmt den genauen Ort, an dem die Berührungsgeste stattfindet, wobei der Ort dem Ort auf der Fahrszene des Fahrzeugs entspricht. In einer abermals anderen nicht einschränkenden Ausführungsform kann das TSIM 149 Infrarot-Touchscreenanzeigen enthalten. Infrarot-Touchscreenanzeigen können auf Infrarot- oder Wärmewellen (d. h. Wärme) reagieren. Infrarot-Touchscreenanzeigen können um den Umfang ferner vertikale und horizontale Infrarotsensoren zum Erzeugen eines Gitters und somit zum genauen Feststellen des genauen Orts, an dem der Bildschirm mit der Hand oder mit dem Finger des Nutzers berührt worden ist, nutzen.
  • Es ist einzusehen, dass das TSIM 149 nicht auf irgendeine bzw. irgendeines der oben diskutierten Vorrichtungen und Verfahren beschränkt ist und dass das TSIM 149 nur Berührungsgesten einer Hand oder eines Fingers des Nutzers auf dem Modul 149, die für einen der Fahrszene entsprechenden Abschnitt der Graphikprojektionsanzeige 250 angegeben werden, empfangen kann. Die Controllervorrichtung 153 kann einen Mechanismus wie etwa einen Joystick, eine Maus, einen Hebel, einen Eingabestift, ein Touchpad oder anderes Zubehör zum Empfangen von Nutzermanipulationen, die für einen Abschnitt der Graphikprojektionsanzeige 250 angegeben werden, enthalten.
  • Die Bilderzeugungsvorrichtung 161 kann das Erfassen von Bildern der Hand des Nutzers und das Nutzen damit zugeordneter Software zum Überwachen des Orts und der Orientierung der Hand des Nutzers zum Bereitstellen eines optischen Bilds enthalten. Die Bilder können unter Nutzung der Infrarot- und/oder der Ultravioletttechnologie erfasst werden. Das optische Bild kann verarbeitet werden, um eine dreidimensionale Abbildung (3D-Abbildung) der Handbewegung des Nutzers zu erzeugen. Wie hervorgeht, stellt das optische Bild der Handbewegung eine gestengestützte Nutzerschnittstelle bereit. Somit können durch die Bilderzeugungsvorrichtung 161 detektierte Nutzerhandbewegungen (d. h. Gesten) anstelle von Berührungsschnittstellenelementen wie etwa Maus, Hebel, Joystick, Knopf oder anderem Zubehör verwendet werden. Gemäß einer beispielhaften Ausführungsform erfordert die Bilderzeugungsvorrichtung 161 das Erfassen einer Folge von Bildern, wobei der Ort und die Orientierung der Hand des Nutzers für jedes Bild überwacht werden, um das optische Bild der Handbewegung des Nutzers bereitzustellen. Die der Bilderzeugungsvorrichtung 161 zugeordnete Software kann innerhalb der Bilderzeugungsvorrichtung 161 integriert sein und durch eine geeignete dedizierte Schaltungsanordnung in Signalkommunikation mit dem EVS-Systemmanager 110 stehen. Außerdem kann die der Bilderzeugungsvorrichtung 161 zugeordnete Software innerhalb des EVS-Systemmanagers 110 integriert sein.
  • In der Technik sind verschiedene Verfahren bekannt, die Bilderzeugungsvorrichtungen zum Verarbeiten optischer Bilder auf der Grundlage des überwachten Orts und der überwachten Orientierung eines Objekts (d. h. einer Hand) zum Erzeugen einer 3D-Abbildung des Objekts verwenden. Die internationale PCT-Veröffentlichung WO 2007/043036 , die hier durch Bezugnahme mit aufgenommen ist, offenbart ein Verfahren und ein System, die auf dem Projizieren eines Laser-Speckle-Musters auf ein Objekt und daraufhin auf dem Analysieren eines Bilds des Musters auf dem Objekt beruhen. Das US-Pat. Nr. 6,100,517 , das hier durch Bezugnahme mit aufgenommen ist, offenbart ein Verfahren zum Verwenden der gepulsten Modulation zum Messen der Flugzeit von Licht von einem Objekt zu einem Detektor, wobei eine Kamera ein Bild erzeugt, das Entfernungen zu Punkten in Objekten in einer Szene angibt. Die US-Veröffentlichung Nr. 2010/0020078 A1 , die hier durch Bezugnahme mit aufgenommen ist, offenbart ein Verfahren zum Beleuchten eines Objekts mit Strahlenbündeln und zum Erzeugen einer intensitätsgestützten 3D-Abbildung des Objekts. Die vorliegende Offenbarung ist nicht auf irgendeines der oben diskutierten Verfahren beschränkt und kann irgendeine Vorrichtung, die eine Handbewegung überwachen kann, um eine gestengestützte Eingabe bereitzustellen, enthalten.
  • Als eine alternative oder zusätzliche Eingabequelle kann die Tastaturvorrichtung 169 Nutzertastendrücke auf der Tastaturvorrichtung empfangen, die für einen Abschnitt der Graphikprojektionsanzeige 250 angegeben werden. Die Tastaturvorrichtung 169 kann zusammen mit anderen Vorrichtungen wie etwa der Controllervorrichtung, die einen Joystick oder die HMI aufweist, verwendet werden. Tastaturvorrichtungen können alphanumerische Eingabeeinrichtungen enthalten und können z. B. eine Miniaturtastatur enthalten, die mit einer Computer- oder Zellentelephonvorrichtung genutzt wird. In einer anderen Ausführungsform kann die Tastatur eine ausgewählte Anzahl von Tasten, z. B. mit fünf mit den Buchstaben A bis E bezeichneten Tasten oder mit verschiedenfarbigen Tasten, enthalten.
  • Die für die Auswahl angebotenen Anzeigen könnten Symbole enthalten, die zu den Bezeichnungen der Tasten auf der Tastaturvorrichtung 169 passen. Wie einzusehen ist, stellen die empfangenen Nutzertastendrücke auf der Tastaturvorrichtung 169 eine tastengestützte Schnittstelle bereit.
  • Die HMI-Vorrichtung 151 kann zum Empfangen von Nutzereingaben genutzt werden. Verfahren zum Erfassen einer Berührung auf einer Fläche der HMI-Vorrichtung 151 sind bekannt. Alternativ können Tasten verwendet werden, die der HMI-Vorrichtung 151 zugeordnet sind und die graphisch mit Auswahlen markiert sind, die auf der HMI-Vorrichtung dargestellt werden.
  • 5 veranschaulicht einen beispielhaften Informationsfluss zum dynamischen Ausrichten einer Graphik auf eine Fahrszene unter Nutzung der Graphikprojektionsanzeige 250, die einen EVS-Systemmanager 110 enthält, der Eingaben 360 von dem System 160 zum Erfassen des Orts der Augen eines Insassen, Eingaben 371 von einem Fahrzeugorts- und Fahrzeugorientierungsmodul 370 und Eingaben 312 von dem UIM 515 überwacht, um dadurch Anzeigeanforderungen 330 zu erzeugen. Durch Überwachen und Kombinieren von Informationen aus verschiedenen Quellen wie etwa der Eingaben 371, 360 und 312 kann der EVS-Systemmanager 110 eines oder mehrere Verfahren zum Erzeugen dynamisch ausgerichteter Informationen hinsichtlich des Betriebs des Fahrzeugs und seiner Betriebsumgebung auf einer Anzeigevorrichtung oder auf einer Windschutzscheiben-HUD-Vorrichtung, die eine Betreibereingabeeinrichtung in die Graphikanzeige enthält, betreiben.
  • Anhand von 1 und 5 enthält das System 160 zum Erfassen des Orts der Augen eines Insassen in der Technik bekannte Sensoren zum Annähern eines Orts des Kopfs eines Insassen und ferner der Orientierung oder des Orts, auf den die Augen des Insassen blicken. Ein Insasse kann ein Betreiber oder Nutzer des Fahrzeugs oder ein Mitfahrer innerhalb des Fahrzeugs sein. Kopf- und Augenerfassungsvorrichtungen sind in der Technik bekannt und werden hier nicht ausführlicher diskutiert. Für diese Offenbarung wird eine kameragestützte Vorrichtung zusammen mit Bilderkennungssoftware genutzt, um auf der Grundlage der Bilderkennungsprogrammierung einen dreidimensionalen Ort des Kopfs innerhalb des Fahrzeugs, der mit einem Fahrzeugkoordinatensystem koordiniert werden kann, und eine Blickrichtung des Insassen zu schätzen. In den EVS-Systemmanager 110 wird eine Eingabe 360 des Orts der Augen eingegeben.
  • Das UIM 515 kann zum Überwachen des für einen Abschnitt der Graphikprojektionsanzeige, der der Fahrszene entspricht, angegebenen Nutzereingabeorts konfiguriert sein. Es kann ein Ort einer Ansicht eines Objekts durch eine HUD-Vorrichtung berechnet werden. Ein solches Verfahren, das einen Ort einer Ansicht eines Objekts auf einer HUD-Vorrichtung auf der Grundlage eines Orts des Objekts und des Orts der Augen des Betreibers/Nutzers bestimmt, ist in der gleichzeitig anhängigen US-Anmeldung Nr. 12/726,444, die hier durch Bezugnahme mit aufgenommen ist, offenbart. Der Nutzereingabeort bezieht sich auf den Ort auf der Anzeige oder HUD-Vorrichtung, auf den die Geste des Nutzers gerichtet ist. In einigen Ausführungsformen kann der Ort der Anzeige, der einem Nutzereingabeort entspricht, Text oder eine Graphik, der bzw. die eine Auswahl angibt, die getroffen werden kann, enthalten. In einigen Ausführungsformen definiert ein durch die HUD-Vorrichtung sichtbares Objekt den Ort oder Abschnitt der HUD-Vorrichtung, der einem Nutzereingabeort entspricht, auf den gezeigt werden kann, um die Auswahl des Objekts anzugeben. Falls z. B. ein potentielles Ziel durch einen Mitte-Links-Abschnitt der HUD-Vorrichtung sichtbar ist, kann eine Nutzerhandgeste auf der Grundlage des Orts der Augen des Nutzers relativ zu der HUD-Vorrichtung und eines bestimmten Orts der Ansicht des potentiellen Ziels auf der HUD-Vorrichtung, die auf den Mitte-Links-Abschnitt der HUD-Vorrichtung weist, als ein dem potentiellen Ziel entsprechender Nutzereingabeort interpretiert werden. In einer anderen beispielhaften Ausführungsform kann ein Nutzereingabeort durch den Ort des Blicks bestimmt werden, wobei z. B. ein beispielhafter Auswahlknopf an einem Lenkrad ermöglicht, dass der Nutzer die Auswahl für einen Abschnitt der Anzeige auf der Grundlage des Orts, auf den der Nutzer blickt, wenn der Auswahlknopf niedergedrückt wird, angibt. Durch Bestimmung, wohin eine Handgeste auf einer HUD-Vorrichtung angegeben wird, auf der Grundlage des Orts des Nutzers kann ein Nutzereingabeort 312, der in den EVS-Systemmanager 110 eingegeben wird, erzeugt und als eine Steuereingabe verwendet werden.
  • Zurückkehrend zu 5 überwacht der EVS-Systemmanager 110 gemäß einer beispielhaften Ausführungsform die Eingabe 360 des Orts der Augen, die Fahrzeugort- und Fahrzeugorientierungseingabe 371 und den Nutzereingabeort 312, um dadurch die Anzeigeanforderungen 330 zum dynamischen Ausrichten der Graphik auf der Graphikprojektionsanzeige zu erzeugen. Falls die Graphik ein Objekt oder einen Abschnitt einer Ansicht in der Betriebsumgebung des Fahrzeugs enthält, erfordert der EVS-Systemmanager 110 zusätzlich die Sensordaten, die das Objekt oder die Ansicht repräsentieren. Es ist einzusehen, dass dann, wenn die Graphik eine Rückkopplungsgraphik enthält, die z. B. eine Rückkopplung des Orts des Blicks, einer Geste oder einer Auswahlsteuerung darstellt, lediglich die Eingabe 360 des Orts der Augen und der Nutzereingabeort 371 überwacht zu werden braucht, um die Anzeigeanforderungen 330 zum dynamischen Ausrichten der Rückkopplungsgraphik auf der Graphikprojektionsanzeige 250 zu erzeugen.
  • 6 veranschaulicht einen beispielhaften Informationsfluss zum Bestimmen einer Graphik auf der Grundlage von Eingaben in den EVS-Systemmanager 110. Der dargestellte Prozess enthält, dass ein EVS-Systemmanager 110 Informationen von verschiedenen Quellen überwacht und Anzeigeanforderungen 430 erzeugt, dass ein Graphikmodul 455 die Anzeigeanforderungen 430 von dem EVS-Systemmanager überwacht und Graphikbefehle 440 erzeugt und dass z. B. eine Graphikprojektionsanzeige 250 die hier offenbarten beispielhaften Anzeigeausführungsformen enthält. Der EVS-Systemmanager 110 enthält ein Befehlsauswahlmodul 405, das eine Nutzereingabe 512 mit anderen für den EVS-Systemmanager verfügbaren Informationen integriert, um irgendwelche für die Befehlsauswahl erforderlichen Graphiken einschließlich Auswahlaufforderungen und Rückkopplung über Anzeigeanforderungen 430 bereitzustellen und Fahrzeugbefehle, die Auswahlen darstellen, die durch den Nutzer getroffen werden, als Befehlssignal 420 auszugeben. Die Nutzereingabe 512 kann einen Nutzereingabeort 312 oder irgendwelche anderen Eingaben, die eine Befehlauswahl oder einen Wunsch, eine Befehlsauswahl zu treffen, übermitteln können, enthalten. Es ist ein beispielhaftes UIM 515 gezeigt, das eine Bilderzeugungsvorrichtung 161, ein TSIM 149, eine Controllervorrichtung 153 und eine Tastaturvorrichtung 169 enthält.
  • Der beispielhafte Betrieb des Befehlsauswahlmoduls 405 kann eine Anzahl von Ausführungsformen enthalten. Gemäß einer beispielhaften Ausführungsform stellen Eingaben von einem Navigationsmodul für das Modul 405 eine gegenwärtig geplante Strecke bereit. Eine Eingabe von Fahrzeugsensoren, von einer drahtlosen Verbindung oder von einer anderen Eingabequelle kann für das Navigationsmodul angeben, dass die Straße entlang der geplanten Strecke überfüllt ist. Das Navigationsmodul zeichnet alternative Strecken ein, wobei zwei alternative vorgeschlagene Strecken für das Modul 405 bereitgestellt werden. Das Modul 405 kombiniert die Daten von dem Navigationsmodul mit visuellen Daten von Kamerasensoren und bestimmt Graphiken, die die Optionen, die für den Nutzer zur Auswahl dargestellt werden müssen, am besten darstellen können. In einem beispielhaften Zustand, in dem drei Optionen 1) das Nehmen der nächsten Rechtskurve, 2) das Nehmen einer zweiten Rechtskurve und 3) das Verbleiben auf der gegenwärtigen Strecke trotz der Überfüllung enthalten, kann das Modul die Darstellung der Option 1) in einem rechten Drittel der Graphikprojektionsanzeige 250, das eine Graphik enthält, die eine scharfe Rechtskurve enthält, der Option 2) in einem mittleren Drittel der Graphikprojektionsanzeige 250, das eine Graphik enthält, die eine Rechtskurve darstellt, die weniger scharf als die für die Option 1) Dargestellte ist, und der Option 3) in einem linken Drittel der Graphikprojektionsanzeige 250, das eine Graphik enthält, die einen geraden Pfeil enthält, der vorwärts zeigt, bestimmen. Es kann Text angezeigt werden, der den überfüllten Zustand voraus darstellt und der jede der Optionen darstellt. Die Eingabe von dem Nutzer kann überwacht und in das Modul 405 eingegeben werden. Durch das Modul 405 kann eine Rückkopplung auf die Nutzereingabe bestimmt werden und auf der Graphikprojektionsanzeige 250 angezeigt werden. Wenn eine Auswahl durch den Nutzer getroffen wird, können die aktualisierte Navigationsstrecke oder kurz bevorstehende Navigationsmanöver auf der Graphikprojektionsanzeige 250 dargestellt werden. Der Betrieb des Moduls 405 ist ein nicht einschränkendes Beispiel, wobei eine Anzahl anderer beispielhafter Operationen des Moduls ähnlich ausgedrückt werden können.
  • Die Architektur mit begrenztem gepixeltem Sehfeld ermöglicht die Darstellung von Graphiken für einen Insassen des Fahrzeugs, ohne die Graphiken für einen anderen Insassen anzuzeigen. Eine beispielhafte Ausführungsform einer Architektur mit begrenztem gepixeltem Sehfeld, die die Bildansicht von einer begrenzten Richtung ermöglicht, enthält die Verwendung von Mikrostrukturen oder einer Anordnung von Partikeln, die ein Erregungslicht und emittiertes Licht in einer begrenzten Richtung annehmen. Die gleichzeitig anhängige US-Anmeldung Nr. 12/564,899, die hier durch Bezugnahme mit aufgenommen ist, offenbart eine Architektur mit begrenztem gepixeltem Sehfeld. 7 und 8 veranschaulichen eine beispielhafte Verwendung einer Architektur mit begrenztem gepixeltem Sehfeld. 7 veranschaulicht eine beispielhafte Strahlungsquelle, die Licht auf ein begrenztes Sehfeld emittieren kann. Die beispielhafte Strahlungsquelle enthält eine z. B. aus SiO2 hergestellte UV-durchlässige Kapselung 702, die mit einem LIF-Material 704 gefüllt ist, das bei sichtbaren Wellenlängen fluoresziert, wenn es mit Ultraviolettstrahlung bestrahlt wird, mit einer parabelförmigen schmalbandigen Mehrschichtreflexionsstruktur 706. In dieser beispielhaften Ausführungsform ist eine dünne Lage dieser Strahlungsquellen wie auf einem Polymer abgelagert. In Vorbereitung auf die Lage werden Vertiefungen in ähnlichen Parabelformen wie die in den Strahlungsquellen gebildete Form in dem Polymermaterial geprägt. Die Strahlungsquellen werden auf dem Polymersubstrat durch Gasphasenabscheidung nach chemischem Verfahren abgelagert, wobei sie die parabelförmigen Vertiefungen mit Strahlungsquellen füllen. 8 veranschaulicht einen beispielhaften Prozess zum Erzeugen der notwendigen Struktur von Strahlungsquellen, die auf ein Polymersubstrat ausgerichtet sind, um das Sehen mit begrenztem Sehfeld zu ermöglichen. Durch einen beispielhaften Prozess wie etwa Ätzen werden dadurch, dass sie aus dem Substrat herausgelöst werden, frei stehende Parabeln erzeugt, die mit emittierendem Material gefüllt werden. Die Entfernung aus dem Polymersubstrat kann ebenfalls durch Lösen des Kunststoffsubstrats mit einem geeigneten Lösungsmittel ausgeführt werden. Daraufhin werden die frei stehenden Parabeln in Soden gesteckt, die durch photolithographische Verfahren oder Prägen in dem Glassubstrat erzeugt worden sind. Das Verfahren des Anpassens der Parabel an die Sode kann durch einen Prozess wie etwa Fluidselbstorganisation ähnlich dem von Alien Technology verwirklichten, bei dem die Parabeln über das Substrat strömengelassen werden und auf statistische Weise eine Parabel-Sode-Anpassung stattfindet, ausgeführt werden.
  • Auf der Grundlage der oben diskutierten Verfahren einschließlich des in 5 diskutierten Verfahrens zum dynamischen Ausrichten einer Graphik kann eine dynamisch ausgerichtete Graphik auf eine Graphikprojektionsanzeige 250 projiziert werden, die in einer im Wesentlichen durchsichtigen Windschutzscheiben-Headup-Anzeige 150 verkörpert ist, die eine Architektur mit begrenztem gepixeltem Sehfeld enthält, wobei die Graphiken der Fahrszene des Fahrzeugs entsprechen. Das gepixelte Sehfeld ermöglicht die Graphikansicht aus einer begrenzten Richtung (z. B. aus einer ersten begrenzten Richtung und/oder aus einer zweiten begrenzten Richtung). Die dynamisch ausgerichtete Graphik kann eine erste dynamisch ausgerichtete Graphik, die auf dem Ort eines ersten Betrachters beruht, und eine zweite dynamisch ausgerichtete Graphik, die auf dem Ort eines zweiten Betrachters beruht, enthalten. Es ist festzustellen, dass sowohl die erste als auch die zweite dynamisch ausgerichtete Graphik auf die im Wesentlichen durchsichtige Windschutzscheiben-HUD projiziert werden können. Ferner beruht die erste dynamisch ausgerichtete Graphik, die auf dem Ort des ersten Betrachters beruht, ferner auf der Nutzung des gepixelten Sehfelds, das die Ansicht der Graphik von einer ersten begrenzten Richtung ermöglicht, die in Richtung des Orts des ersten Betrachters orientiert ist. Es ist festzustellen, dass der Ort des ersten Betrachters dem Fahrer des Fahrzeugs entsprechen kann. Gleichfalls beruht die zweite dynamisch ausgerichtete Graphik, die auf dem Ort des zweiten Betrachters beruht, ferner auf der Nutzung des gepixelten Sehfelds, das die Ansicht der Graphik von einer zweiten begrenzten Richtung, die in Richtung des Orts des zweiten Betrachters orientiert ist, ermöglicht.
  • Es ist festzustellen, dass der Ort des zweiten Betrachters einem der Mitfahrersitze in dem Fahrzeug entsprechen kann. Gleichfalls kann das in 5 diskutierte Verfahren der dynamischen Ausrichtung ferner das Überwachen von Daten enthalten, die sich auf den Ort der Augen eines zweiten Betrachters beziehen, wobei der Ort der Augen eines zweiten Betrachters einem der Insassen an dem Ort des zweiten Betrachters entspricht. Es ist festzustellen, dass die Überwachung des Orts der Augen eines Insassen die Überwachung von Daten, die sich auf den Ort der Augen eines ersten Betrachters beziehen und/oder die sich auf den Ort der Augen eines zweiten Betrachters beziehen, enthalten kann.
  • Das Verfahren der Architektur eines begrenzten gepixelten Sehfelds, wie es oben diskutiert ist, wird auf die im Wesentlichen durchsichtige Windschutzscheiben-HUD 150 angewendet. Allerdings kann dieses Verfahren zusätzlich auf die nicht durchsichtigen Komponenten 280 angewendet werden. Zum Beispiel könnte ein Abschnitt der Instrumententafel oder der Stützsäulen eine Architektur mit begrenztem gepixeltem Sehfeld enthalten, so dass Graphiken dem Nutzer/Betreiber des Fahrzeugs, aber nicht dem Mitfahrer in dem anderen Vordersitz des Fahrzeugs dargestellt werden könnten.
  • Die obigen Verfahren stellen Arten dar, auf die eine Nutzereingabe zum Auswählen von Befehlen für das Fahrzeug verwendet werden kann. Zum Beispiel enthalten Verfahren das Interpretieren von Nutzergesten, die für die Windschutzscheibe vorgenommen werden, als Befehle. Es können eine Anzahl von Verfahren zur Darstellung auswählbarer Befehle für den Nutzer verwendet werden, und die Anzahl der Verfahren kann zum Interpretieren von Nutzereingaben als gewünschte Befehle verwendet werden. Auf die Graphikprojektionsanzeige 250 kann eine Textdarstellung oder Graphikdarstellung projiziert werden, die eine Auswahl angibt, die für diesen Text oder für diese Graphik getroffen werden kann. In einem solchen Beispiel kann eine Nutzerangabe für den Bereich oder für den Text oder für die Graphik auf der Grundlage eines ausgerichteten Orts der Text oder der Graphik und eines bestimmten Schnittpunkts zwischen den Augen des Nutzers, der Graphik und dem Ort der Geste durch den Nutzer verwendet werden, um die gewünschte Eingabe durch den Nutzer zu bestimmen. Eine solche überwachte Geste kann direkt als ein Befehl eingegeben werden. In einer anderen beispielhaften Ausführungsform kann eine solche überwachte Geste eine Aufforderung für den Nutzer erzeugen, die z. B. einen vorgeschlagenen Befehl repräsentiert und eine Bestätigung durch den Nutzer erfordert, um auf der Grundlage des vorgeschlagenen Befehls einen tatsächlichen Befehl zu erzeugen. Eine solche Bestätigung kann eine Geste für eine Bestätigungsgraphik; einen Knopf, der sich z. B. an dem Lenkrad des Fahrzeugs befindet; oder einen verbalen Befehl enthalten. Eine Geste kann zum Auswählen für den Nutzer dargestellter Befehle verwendet werden. Außerdem oder alternativ können Nutzergesten das System zu reagieren auffordern. Zum Beispiel kann das System, falls ein Nutzer auf ein auf der Graphikprojektionsanzeige 250 sichtbares Objekt zeigt, Informationen über das Objekt bereitstellen oder bestimmen, ob für den Nutzer geeignete Befehlsoptionen in Bezug auf das Objekt dargestellt werden können. Falls der Nutzer z. B. auf eine Parkhauseinfahrt zeigt, kann dem Nutzer eine Aufforderung, die Parkgebühren für das Gebäude darstellt, und/oder eine Aufforderung, die fragt, ob das Fahrzeug angewiesen werden sollte, in das Parkhaus hineinzufahren, gezeigt werden. Es sind eine Anzahl von Ausführungsformen für die Darstellung und Auswahl von Optionen durch Nutzergesten denkbar, wobei die Offenbarung nicht auf die besonderen hier gebotenen Beispiele beschränkt sein soll.
  • Die obigen Verfahren können innerhalb eines EVS-Systemmanagers integriert sein. Ein solcher EVS-Systemmanager kann innerhalb eines einzelnen Steuermoduls oder innerhalb einer einzelnen physikalischen Vorrichtung vorhanden sein oder kann sich alternativ über eine Anzahl von Modulen oder physikalischen Vorrichtungen erstrecken. Der EVS-Systemmanager kann eine Anzahl verschiedener Ausführungsformen annehmen und die Offenbarung soll nicht auf die hier offenbarten besonderen beispielhaften Ausführungsformen des EVS-Systemmanagers beschränkt sein. Steuermodul, Modul, Steuerung, Controller, Steuereinheit, Prozessor und ähnliche Begriffe bedeuten irgendeine oder verschiedene geeignete Kombinationen einer oder mehrerer anwendungsspezifischer integrierter Schaltung(en) (ASIC), elektronischer Schaltung(en), Zentraleinheit(en) (vorzugsweise Mikroprozessor(en)) und zugeordnetem Speicher und Ablage (nur Lesen, programmierbar nur Lesen, Schreiben-Lesen, Festplatte usw.), die eines oder mehrere Software- oder Firmwareprogramme ausführen, Kombinationslogikschaltung(en), Eingabe/Ausgabe-Schaltung(en) und -Vorrichtungen, geeigneter Signalaufbereitungs- und -pufferschaltungsanordnung und anderer geeigneter Komponenten zur Bereitstellung der beschriebenen Funktionalität, Das Steuermodul weist einen Satz von Steueralgorithmen einschließlich residenter Softwareprogrammanweisungen und Kalibrierungen auf, die im Speicher gespeichert sind und zur Bereitstellung der gewünschten Funktionen ausgeführt werden. Die Algorithmen werden vorzugsweise während voreingestellter Schleifenzyklen ausgeführt. Die Algorithmen werden etwa durch eine Zentraleinheit ausgeführt und sind zur Überwachung von Eingaben von Erfassungsvorrichtungen und anderen vernetzten Modulen und zum Ausführen von Steuer- und Diagnoseroutinen zum Steuern des Betriebs von Aktuatoren betreibbar. Die Schleifenzyklen können während des andauernden Motor- und Fahrzeugbetriebs in regelmäßigen Intervallen, z. B. alle 3,125, 6,25, 12,5, 25 und 100 Millisekunden, ausgeführt werden. Alternativ können die Algorithmen in Ansprechen auf das Auftreten eines Ereignisses ausgeführt werden.
  • 9 veranschaulicht einen beispielhaften Prozess 800 zum Betreiben der hier offenbarten Verfahren. Beispielhafte Schritte für den Prozess 800 sind in der folgenden Tabelle dargestellt. Tabelle 1
    Schritt Beschreibung
    802 Überwache eine darzustellende Befehlsauswahl
    804 Überwache eine Ansicht vor dem Fahrzeug
    806 Überwache einen Ort der Augen eines Nutzers des Fahrzeugs
    808 Bestimme eine ausgerichtete Graphik, die die zu projizierende Befehlsauswahl beschreibt
    810 Projiziere die ausgerichtete Graphik
    812 Überwache eine Nutzereingabe an einen Ort der Anzeige
    814 Bestimme auf der Grundlage der überwachten Nutzereingabe eine Aktivierung der Befehlsauswahl
    816 Steuere das Fahrzeug auf der Grundlage der Aktivierung der Befehlsauswahl
  • Der Prozess 800 beginnt in Schritt 802 durch Überwachen einer für den Nutzer des Fahrzeugs darzustellenden Befehlsauswahl. Eine solche Befehlsauswahl kann gemäß einer Anzahl beispielhafter Ausführungsformen angefordert werden. Zum Beispiel wird die Befehlsauswahl durch eine fehlende Anweisung von dem Nutzer angefordert, wenn eine Navigationswahl getroffen werden muss (die geplante Strecke enthält eine jetzt geschlossene Strecke). Gemäß einer anderen Ausführungsform kann die Befehlsauswahl durch eine Option, die dadurch identifiziert wird, dass der EVS-Systemmanager eine Schwellenwahrscheinlichkeit erreicht, dass der Nutzer an der identifizierten Option interessiert sein könnte, angefordert werden. Zum Beispiel ist es unwahrscheinlich, dass der Nutzer eine identifizierte Tankstelle in der Ansicht als ein neues Ziel auswählt, falls das Fahrzeug einen vollen Benzintank hat. Falls der Benzintank des Fahrzeugs dagegen nahezu leer ist, ist eine solche Auswahl wahrscheinlicher. Eine Anzahl von Verfahren zum Bestimmen solcher Wahrscheinlichkeiten und zum Einstellen des Wahrscheinlichkeitsschwellenwerts oder der Wahrscheinlichkeitsschwellenwerte sind in der Technik bekannt. Gemäß einer anderen beispielhaften Ausführungsform können Befehlsauswahlen durch den Nutzer angefordert werden. Zum Beispiel kann der EVS-Systemmanager geweckt werden, um eine Anzahl wahrscheinlicher oder konfigurierbarer Optionen anzuzeigen, die durch den Nutzer ausgewählt werden können, falls der Nutzer eine Geste in Richtung der Anzeige vornimmt. Es sind eine Anzahl von Verfahren zum Anfordern und Bestimmen eines Inhalts von Befehlsauswahlen denkbar, wobei die Offenbarung nicht auf die hier offenbarten besonderen beispielhaften Ausführungsformen beschränkt sein soll.
  • Der Schritt 804 überwacht eine Ansicht vor dem Fahrzeug. Der Schritt 806 überwacht einen Ort der Augen des Nutzers. Die Befehlsauswahl des Schritts 802 kann auf der Grundlage des Orts der Augen des Nutzers mit einer auf der Ansicht ausgerichteten Graphik in einen Kontext der Ansicht gestellt werden. Der Schritt 808 bestimmt auf der Grundlage der Befehlsauswahl, der überwachten Ansicht und des überwachten Orts der Augen des Nutzers eine geeignete ausgerichtete Graphik oder geeignete ausgerichtete Graphiken zur Anzeige auf der Graphikprojektionsanzeige, um die für den Nutzer verfügbare Befehlsauswahl zu übermitteln. In Schritt 810 wird die bestimmte Graphik auf die Graphikprojektionsanzeige projiziert. In Schritt 812 wird eine Nutzereingabe in einen Abschnitt oder in einen Ort der Graphikprojektionsanzeige überwacht. In einer Ausführungsform, die Handgesten nutzt, wird der Ort der Hand des Nutzers im Vergleich zu den Augen des Nutzers genutzt, um auf der Grundlage der Wahrnehmung des Nutzers zu bestimmen, auf welchen Abschnitt der Anzeige die Handgesten gerichtet sind. In Schritt 814 wird die Nutzereingabe interpretiert, um die Befehlsauswahl wahlweise zu aktivieren. In Schritt 816 wird die Aktivierung der Befehlsauswahl genutzt, um das Fahrzeug zu steuern. Der Prozess 800 ist eine beispielhafte nicht einschränkende Ausführungsform zur Nutzung der hier offenbarten Verfahren.
  • 10 veranschaulicht eine beispielhafte Ansicht durch eine durchsichtige Windschutzscheiben-Graphikprojektionsanzeige 900 und eine Nutzereingabe in die ausgerichtete Graphik auf der Anzeige. Die über die Anzeige 900 sichtbare Ansicht kann entweder die durch eine im Wesentlichen durchsichtige Anzeige sichtbare tatsächliche Ansicht sein oder kann als Teil der angezeigten Graphiken projiziert werden. Es ist eine Fahrbahn 902 gezeigt. Der sichtbare Horizont 904 ist ebenfalls gezeigt. Es sind eine Ausfahrt 906 und ein Straßenschild 908 gezeigt. Es ist ein beispielhafter Nutzer, der auf die Anzeige 910 zeigt, gezeigt. Es ist eine ausgerichtete Graphik 920 gezeigt, die auf eine gegenwärtige Fahrspur auf der Fahrbahn 902 ausgerichtet ist. Zusätzlich kann Text 922 angezeigt werden, der die Graphik 920 begleitet. Ähnlich werden eine ausgerichtete Graphik 930 für die Ausfahrt 906 und optional begleitender Text 932 angezeigt, die auf die Ausfahrt 906 ausgerichtet sind. Es wird ein Nutzer, der auf die Anzeige 910 zeigt, überwacht, und auf der Grundlage des Orts der Eingabe kann eine Auswahl zwischen durch die Graphiken 920 und 930 dargestellten Optionen bestimmt werden.
  • Die Offenbarung hat bestimmte bevorzugte Ausführungsformen und Änderungen daran beschrieben. Weitere Änderungen und Abwandlungen können Anderen beim Lesen und Verstehen der Beschreibung einfallen. Somit soll die Offenbarung nicht auf die hier als die am besten für die Ausführung dieser Offenbarung betrachtete Art offenbarte besonderen(n) Ausführungsform(en) beschränkt sein, sondern soll die Offenbarung alle Ausführungsformen, die im Umfang der beigefügten Ansprüche liegen, enthalten.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2007/043036 [0041]
    • US 6100517 [0041]
    • US 2010/0020078 A1 [0041]

Claims (10)

  1. Verfahren zum Steuern des Betriebs eines Fahrzeugs auf der Grundlage einer Nutzereingabe von einem Nutzer des Fahrzeugs in eine Graphikprojektionsanzeige, die eine ausgerichtete Graphik auf einer Ansicht vor dem Fahrzeug darstellt, wobei das Verfahren umfasst: Projizieren der ausgerichteten Graphik auf die Ansicht vor dem Fahrzeug auf der Graphikprojektionsanzeige; Überwachen der Nutzereingabe in die Graphikprojektionsanzeige; und Steuern des Betriebs des Fahrzeugs auf der Grundlage der Nutzereingabe in die Graphikprojektionsanzeige.
  2. Verfahren nach Anspruch 1, wobei die Graphikprojektionsanzeige eine durchsichtige Windschutzscheiben-Headup-Anzeige im Wesentlichen über die volle Windschutzscheibe ist.
  3. Verfahren nach Anspruch 1 oder 2, wobei das Projizieren der ausgerichteten Graphik auf die Ansicht vor dem Fahrzeug umfasst: Überwachen einer Befehlsauswahl, die dem Nutzer des Fahrzeugs dargestellt werden soll; Überwachen der Ansicht vor dem Fahrzeug; Überwachen eines Orts der Augen des Nutzers des Fahrzeugs; und Bestimmen der ausgerichteten Graphik auf der Grundlage der Befehlsauswahl, der Ansicht vor dem Fahrzeug und des Orts der Augen des Nutzers des Fahrzeugs.
  4. Verfahren nach Anspruch 3, wobei das Überwachen der Befehlsauswahl das Überwachen einer hinsichtlich einer Navigationsstrecke des Fahrzeugs darzustellenden Auswahl umfasst.
  5. Verfahren nach Anspruch 3, wobei das Überwachen der Befehlsauswahl umfasst: Überwachen einer für ein Objekt in der Ansicht vor dem Fahrzeug angegebenen Nutzereingabe; Abrufen von Informationen hinsichtlich des Objekts über eine drahtlose Verbindung; und Bestimmen der darzustellenden Befehlsauswahl auf der Grundlage der für das Objekt angegebenen Nutzereingabe und der abgerufenen Informationen.
  6. Verfahren nach Anspruch 3, das ferner das Betreiben des Fahrzeugs durch ein autonomes Verfahren zum Betreiben des Fahrzeugs oder durch ein semiautonomes Verfahren zum Betreiben des Fahrzeugs umfasst; und wobei das Überwachen der Befehlsauswahl umfasst: Überwachen von Informationen hinsichtlich des Betriebs des Fahrzeugs durch das autonome Verfahren zum Betreiben des Fahrzeugs oder durch das semiautonome Verfahren zum Betreiben des Fahrzeugs; Bestimmen konfigurierbarer Optionen zum Betreiben des Fahrzeugs durch das autonome Verfahren zum Betreiben des Fahrzeugs oder durch das semiautonome Verfahren zum Betreiben des Fahrzeugs auf der Grundlage der überwachten Informationen; und Bestimmen der für den Nutzer des Fahrzeugs darzustellenden Befehlsauswahl auf der Grundlage der bestimmten konfigurierbaren Optionen.
  7. Verfahren nach Anspruch 6, wobei der Betrieb des Fahrzeugs durch das autonome Verfahren zum Betreiben des Fahrzeugs oder durch das semiautonome Verfahren zum Betreiben des Fahrzeugs das Betreiben des Fahrzeugs durch ein adaptives Tempomatverfahren oder durch ein Fahrspureinhaltungsverfahren oder durch ein Fahrspurwechselverfahren oder durch ein Kollisionsvorbereitungsverfahren oder durch ein Kollisionsvermeidungsverfahren umfasst.
  8. Verfahren nach den Ansprüchen 1–7, wobei das Überwachen der Nutzereingabe in die Graphikprojektionsanzeige das Überwachen einer für die Graphikprojektionsanzeige angegebenen Handgeste umfasst.
  9. Verfahren nach Anspruch 8, wobei das Überwachen der Handgeste das Nutzen einer Bilderzeugungsvorrichtung zum Erzeugen einer dreidimensionalen Abbildung der Handgeste; und das Bestimmen der Handgeste zum Angeben für die ausgerichtete Graphik auf der dreidimensionalen Abbildung der Handgeste umfasst.
  10. Vorrichtung zum Steuern des Betriebs eines Fahrzeugs auf der Grundlage einer Nutzereingabe von einem Nutzer des Fahrzeugs in eine Graphikprojektionsanzeige, die eine ausgerichtete Graphik für eine Ansicht vor dem Fahrzeug darstellt, wobei die Vorrichtung umfasst: die Graphikprojektionsanzeige; und einen Systemmanager eines Systems zur verbesserten Bilderkennung: der die ausgerichtete Graphik bestimmt, die auf der Grundlage der Ansicht vor dem Fahrzeug dargestellt werden soll; der die Nutzereingabe in die Graphikprojektionsanzeige überwacht; und der den Betrieb des Fahrzeugs auf der Grundlage der Nutzereingabe in die Graphikprojektionsanzeige steuert.
DE201110122552 2010-12-30 2011-12-27 Graphisches fahrzeugbefehlssystem für autonome fahrzeuge auf einer headup-anzeige für die volle windschutzscheibe Pending DE102011122552A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/981,602 US9008904B2 (en) 2010-12-30 2010-12-30 Graphical vehicle command system for autonomous vehicles on full windshield head-up display
US12/981,602 2010-12-30

Publications (1)

Publication Number Publication Date
DE102011122552A1 true DE102011122552A1 (de) 2012-07-05

Family

ID=46338347

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201110122552 Pending DE102011122552A1 (de) 2010-12-30 2011-12-27 Graphisches fahrzeugbefehlssystem für autonome fahrzeuge auf einer headup-anzeige für die volle windschutzscheibe

Country Status (3)

Country Link
US (1) US9008904B2 (de)
CN (1) CN102529973B (de)
DE (1) DE102011122552A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013008605A1 (de) * 2013-05-16 2014-11-20 Audi Ag Navigationshilfe für ein Kraftfahrzeug mit Autopiloten
DE102020106380A1 (de) 2020-03-09 2021-09-09 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs durch Anpassung von angezeigten Objekten, Fahrerassistenzsystem sowie Fahrzeug
DE102021122543A1 (de) 2021-08-31 2023-03-02 Bayerische Motoren Werke Aktiengesellschaft Fahrassistenzsystem und Fahrassistenzverfahren für ein Fahrzeug
DE102022210986A1 (de) 2022-10-18 2024-04-18 Robert Bosch Gesellschaft mit beschränkter Haftung Einstellverfahren von Betriebsbremsfunktionen für mobile Arbeitsmaschinen sowie eine Bremsanordnung

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
US9740341B1 (en) 2009-02-26 2017-08-22 Amazon Technologies, Inc. Capacitive sensing with interpolating force-sensitive resistor array
US10180746B1 (en) 2009-02-26 2019-01-15 Amazon Technologies, Inc. Hardware enabled interpolating sensor and display
US8629784B2 (en) 2009-04-02 2014-01-14 GM Global Technology Operations LLC Peripheral salient feature enhancement on full-windshield head-up display
US8330673B2 (en) * 2009-04-02 2012-12-11 GM Global Technology Operations LLC Scan loop optimization of vector projection display
US9244562B1 (en) 2009-07-31 2016-01-26 Amazon Technologies, Inc. Gestures and touches on force-sensitive input devices
US9785272B1 (en) 2009-07-31 2017-10-10 Amazon Technologies, Inc. Touch distinction
US8606430B2 (en) 2010-10-08 2013-12-10 GM Global Technology Operations LLC External presentation of information on full glass display
US8633979B2 (en) 2010-12-29 2014-01-21 GM Global Technology Operations LLC Augmented road scene illustrator system on full windshield head-up display
US8686872B2 (en) 2010-12-29 2014-04-01 GM Global Technology Operations LLC Roadway condition warning on full windshield head-up display
US8924150B2 (en) 2010-12-29 2014-12-30 GM Global Technology Operations LLC Vehicle operation and control system for autonomous vehicles on full windshield display
US8605011B2 (en) 2010-12-29 2013-12-10 GM Global Technology Operations LLC Virtual viewfinder on full windshield head-up display
US9057874B2 (en) 2010-12-30 2015-06-16 GM Global Technology Operations LLC Virtual cursor for road scene object selection on full windshield head-up display
RU2455676C2 (ru) * 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US9218063B2 (en) * 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US8818708B2 (en) 2011-12-02 2014-08-26 GM Global Technology Operations LLC Optimum driving path on full windshield display
US8781170B2 (en) 2011-12-06 2014-07-15 GM Global Technology Operations LLC Vehicle ghosting on full windshield display
EP2798632A4 (de) * 2011-12-29 2015-10-07 Intel Corp Direktzugriff auf grammatik
US9443429B2 (en) 2012-01-24 2016-09-13 GM Global Technology Operations LLC Optimum gaze location on full windscreen display
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
DE102012215407A1 (de) * 2012-08-30 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Bereitstellen einer Eingabe für ein Bedienelement
CN102897091A (zh) * 2012-09-22 2013-01-30 浙江中呼科技有限公司 车载图像显示器、手机车载显示装置及监测装置
US8933885B2 (en) * 2012-09-25 2015-01-13 Nokia Corporation Method, apparatus, and computer program product for reducing hand or pointing device occlusions of a display
CN103076095B (zh) * 2012-12-11 2015-09-09 广州飒特红外股份有限公司 一种以平板电脑无线操控红外热像仪的机动载体夜间驾驶辅助系统
US9477315B2 (en) * 2013-03-13 2016-10-25 Honda Motor Co., Ltd. Information query by pointing
US20140267035A1 (en) * 2013-03-15 2014-09-18 Sirius Xm Connected Vehicle Services Inc. Multimodal User Interface Design
US9333983B2 (en) * 2013-03-15 2016-05-10 Volkswagen Ag Dual-state steering wheel/input device
DE102013208758A1 (de) * 2013-05-13 2014-11-13 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
US20160023604A1 (en) * 2013-07-08 2016-01-28 LightSpeed Automotive Technology Head-Up Display Controller
US9645559B1 (en) * 2013-08-09 2017-05-09 Rigminder Operating, Llc Head-up display screen
JP6174435B2 (ja) * 2013-09-25 2017-08-02 富士通コンポーネント株式会社 コンバイナ及び操作検出装置
US9630631B2 (en) * 2013-10-03 2017-04-25 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US9547173B2 (en) 2013-10-03 2017-01-17 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US9536353B2 (en) 2013-10-03 2017-01-03 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US10308167B2 (en) * 2013-10-09 2019-06-04 Magna Closures Inc. Control of display for vehicle window
DE102013220905A1 (de) * 2013-10-15 2015-04-16 Continental Automotive Gmbh Verfahren zum Führen eines Kraftfahrzeugs und Kraftfahrzeug zum Ausführen des Verfahrens
US9212926B2 (en) * 2013-11-22 2015-12-15 Ford Global Technologies, Llc In-vehicle path verification
US9354073B2 (en) * 2013-12-09 2016-05-31 Harman International Industries, Inc. Eye gaze enabled navigation system
US9613459B2 (en) * 2013-12-19 2017-04-04 Honda Motor Co., Ltd. System and method for in-vehicle interaction
US9440660B2 (en) * 2014-07-22 2016-09-13 Toyota Motor Engineering & Manufacturing North America, Inc. Method for remote communication with and through a vehicle
US20160107572A1 (en) * 2014-10-20 2016-04-21 Skully Helmets Methods and Apparatus for Integrated Forward Display of Rear-View Image and Navigation Information to Provide Enhanced Situational Awareness
US9904362B2 (en) * 2014-10-24 2018-02-27 GM Global Technology Operations LLC Systems and methods for use at a vehicle including an eye tracking device
CN107107759B (zh) * 2014-12-24 2019-03-19 富士胶片株式会社 投影型显示装置、安全驾驶辅助方法以及记录介质
JP6279768B2 (ja) * 2014-12-25 2018-02-14 マクセル株式会社 車両用情報表示装置
US9836895B1 (en) 2015-06-19 2017-12-05 Waymo Llc Simulating virtual objects
US9457665B1 (en) * 2015-11-17 2016-10-04 International Business Machines Corporation Adaptive, automatically-reconfigurable, vehicle instrument display
US9902311B2 (en) * 2016-02-22 2018-02-27 Uber Technologies, Inc. Lighting device for a vehicle
US10048080B2 (en) 2016-03-22 2018-08-14 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle virtual reality navigation system
CN105911995B (zh) * 2016-06-16 2018-06-15 吉林大学 一种基于位置速度控制的遥操作机器人碰撞预警方法
US10165231B2 (en) 2016-06-29 2018-12-25 International Business Machines Corporation Visualization of navigation information for connected autonomous vehicles
US20180022290A1 (en) * 2016-07-25 2018-01-25 Ford Global Technologies, Llc Systems, Methods, And Devices For Rendering In-Vehicle Media Content Based On Vehicle Sensor Data
US10737702B2 (en) 2016-07-27 2020-08-11 Toyota Motor Engineering & Manufacturing North America, Inc. Visually simulating driving plans in autonomous vehicles
DE102016120995A1 (de) * 2016-11-03 2018-05-03 Visteon Global Technologies, Inc. Benutzerschnittstelle und Verfahren zur Eingabe und Ausgabe von Informationen in einem Fahrzeug
DE102016120999B4 (de) * 2016-11-03 2018-06-14 Visteon Global Technologies, Inc. Benutzerschnittstelle und Verfahren zur Ein- und Ausgabe von Informationen in einem Fahrzeug
US10748426B2 (en) 2017-10-18 2020-08-18 Toyota Research Institute, Inc. Systems and methods for detection and presentation of occluded objects
US20190120965A1 (en) * 2017-10-25 2019-04-25 Bae Systems Information And Electronic Systems Integration Inc. Method and system of digital light processing and light detection and ranging for guided autonomous vehicles
US10457204B2 (en) 2018-02-22 2019-10-29 Ford Global Technologies, Llc Vehicle illuminated display
JP7095468B2 (ja) * 2018-08-02 2022-07-05 トヨタ自動車株式会社 車両用表示制御装置、車両用表示制御方法及び車両用表示制御プログラム
US11899448B2 (en) * 2019-02-21 2024-02-13 GM Global Technology Operations LLC Autonomous vehicle that is configured to identify a travel characteristic based upon a gesture
US11331006B2 (en) 2019-03-05 2022-05-17 Physmodo, Inc. System and method for human motion detection and tracking
US11103748B1 (en) 2019-03-05 2021-08-31 Physmodo, Inc. System and method for human motion detection and tracking
US10688915B1 (en) 2019-04-15 2020-06-23 Valeo Schalter Und Sensoren Gmbh Virtual driver display for autonomous vehicle
CN110395113B (zh) * 2019-07-16 2022-03-15 奇瑞汽车股份有限公司 车窗显示系统、方法、装置及存储介质
CN112297842A (zh) * 2019-07-31 2021-02-02 宝马股份公司 具有多种显示模式的自动驾驶车辆
US11454813B2 (en) 2019-11-07 2022-09-27 GM Global Technology Operations LLC Holographic display systems with polarization correction and distortion reduction providing enhanced image quality
US12008683B2 (en) * 2020-01-06 2024-06-11 Lg Electronics Inc. Vehicle augmented reality navigational image output device and control methods
WO2021147973A1 (zh) * 2020-01-21 2021-07-29 未来(北京)黑科技有限公司 多视角抬头显示系统和方法以及交通工具
CN113219656B (zh) * 2020-01-21 2022-12-02 未来(北京)黑科技有限公司 一种车载抬头显示系统
US11880036B2 (en) 2021-07-19 2024-01-23 GM Global Technology Operations LLC Control of ambient light reflected from pupil replicator
CN114296582B (zh) * 2021-12-23 2024-01-30 浙江极氪智能科技有限公司 一种3d车模的控制方法、系统、设备及存储介质
US20230256995A1 (en) * 2022-02-16 2023-08-17 Chan Duk Park Metaverse autonomous driving system and cluster driving
CN116985833A (zh) * 2022-04-25 2023-11-03 通用汽车环球科技运作有限责任公司 用于驾驶员辅助自动驾驶的最小先决条件交互协议

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6100517A (en) 1995-06-22 2000-08-08 3Dv Systems Ltd. Three dimensional camera
WO2007043036A1 (en) 2005-10-11 2007-04-19 Prime Sense Ltd. Method and system for object reconstruction
US20100020078A1 (en) 2007-01-21 2010-01-28 Prime Sense Ltd Depth mapping using multi-beam illumination

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7421321B2 (en) * 1995-06-07 2008-09-02 Automotive Technologies International, Inc. System for obtaining vehicular information
US7920102B2 (en) * 1999-12-15 2011-04-05 Automotive Technologies International, Inc. Vehicular heads-up display system
CN2623492Y (zh) * 2003-04-22 2004-07-07 赵欢艺 机动车防眩板
US7090355B2 (en) 2003-05-19 2006-08-15 Superimaging, Inc. System and method for a transparent color image display utilizing fluorescence conversion of nano particles and molecules
EP1680708A4 (de) 2003-11-03 2008-03-05 Superimaging Inc In ein im wesentlichen transparentes substrat integriertes lichtemissionsmaterial
WO2005043233A2 (en) 2003-11-03 2005-05-12 Superimaging, Inc. Microstructures integrated into a transparent substrate which scatter incident light to display an image
US7213923B2 (en) 2004-04-19 2007-05-08 Superimaging, Inc. Emission of visible light in response to absorption of excitation light
US7460951B2 (en) 2005-09-26 2008-12-02 Gm Global Technology Operations, Inc. System and method of target tracking using sensor fusion
JP4935145B2 (ja) * 2006-03-29 2012-05-23 株式会社デンソー カーナビゲーション装置
US8354997B2 (en) * 2006-10-31 2013-01-15 Navisense Touchless user interface for a mobile device
US20080158510A1 (en) 2007-01-02 2008-07-03 Gm Global Technology Operations, Inc. Apparatus And Method For Displaying Information Within A Vehicle Interior
US8150142B2 (en) * 2007-04-02 2012-04-03 Prime Sense Ltd. Depth mapping using projected patterns
CN101294801A (zh) * 2007-07-13 2008-10-29 东南大学 基于双目视觉的车距测量方法
US8917904B2 (en) 2008-04-24 2014-12-23 GM Global Technology Operations LLC Vehicle clear path detection
US8330673B2 (en) 2009-04-02 2012-12-11 GM Global Technology Operations LLC Scan loop optimization of vector projection display
US8427395B2 (en) 2009-04-02 2013-04-23 GM Global Technology Operations LLC Full-windshield hud enhancement: pixelated field of view limited architecture
US8704653B2 (en) 2009-04-02 2014-04-22 GM Global Technology Operations LLC Enhanced road vision on full windshield head-up display
US8629784B2 (en) 2009-04-02 2014-01-14 GM Global Technology Operations LLC Peripheral salient feature enhancement on full-windshield head-up display
US8912978B2 (en) 2009-04-02 2014-12-16 GM Global Technology Operations LLC Dynamic vehicle system information on full windshield head-up display
US8830141B2 (en) 2009-04-02 2014-09-09 GM Global Technology Operations LLC Full-windshield head-up display enhancement: anti-reflective glass hard coat
US8629903B2 (en) 2009-04-02 2014-01-14 GM Global Technology Operations LLC Enhanced vision system full-windshield HUD
US8072686B2 (en) 2009-04-02 2011-12-06 GM Global Technology Operations LLC UV laser beamlett on full-windshield head-up display
US8269652B2 (en) 2009-04-02 2012-09-18 GM Global Technology Operations LLC Vehicle-to-vehicle communicator on full-windshield head-up display
US8547298B2 (en) 2009-04-02 2013-10-01 GM Global Technology Operations LLC Continuation of exterior view on interior pillars and surfaces
US20100253595A1 (en) 2009-04-02 2010-10-07 Gm Global Technology Operations, Inc. Virtual controls and displays by laser projection
US8350724B2 (en) 2009-04-02 2013-01-08 GM Global Technology Operations LLC Rear parking assist on full rear-window head-up display
US8344894B2 (en) 2009-04-02 2013-01-01 GM Global Technology Operations LLC Driver drowsy alert on full-windshield head-up display
US8384531B2 (en) 2009-04-02 2013-02-26 GM Global Technology Operations LLC Recommended following distance on full-windshield head-up display
US7924146B2 (en) 2009-04-02 2011-04-12 GM Global Technology Operations LLC Daytime pedestrian detection on full-windscreen head-up display
US8482486B2 (en) 2009-04-02 2013-07-09 GM Global Technology Operations LLC Rear view mirror on full-windshield head-up display
US8384532B2 (en) 2009-04-02 2013-02-26 GM Global Technology Operations LLC Lane of travel on windshield head-up display
US8317329B2 (en) 2009-04-02 2012-11-27 GM Global Technology Operations LLC Infotainment display on full-windshield head-up display
US8395529B2 (en) 2009-04-02 2013-03-12 GM Global Technology Operations LLC Traffic infrastructure indicator on head-up display
US8817090B2 (en) 2009-04-02 2014-08-26 GM Global Technology Operations LLC Luminance uniformity compensation of vector projection display
US8358224B2 (en) 2009-04-02 2013-01-22 GM Global Technology Operations LLC Point of interest location marking on full windshield head-up display
US8564502B2 (en) 2009-04-02 2013-10-22 GM Global Technology Operations LLC Distortion and perspective correction of vector projection display
US8977489B2 (en) 2009-05-18 2015-03-10 GM Global Technology Operations LLC Turn by turn graphical navigation on full windshield head-up display
US8164543B2 (en) 2009-05-18 2012-04-24 GM Global Technology Operations LLC Night vision on full windshield head-up display
US8098170B1 (en) 2010-10-08 2012-01-17 GM Global Technology Operations LLC Full-windshield head-up display interface for social networking
US8606430B2 (en) 2010-10-08 2013-12-10 GM Global Technology Operations LLC External presentation of information on full glass display
US8514099B2 (en) 2010-10-13 2013-08-20 GM Global Technology Operations LLC Vehicle threat identification on full windshield head-up display
US8098171B1 (en) 2010-12-28 2012-01-17 GM Global Technology Operations LLC Traffic visibility in poor viewing conditions on full windshield head-up display
US8633979B2 (en) 2010-12-29 2014-01-21 GM Global Technology Operations LLC Augmented road scene illustrator system on full windshield head-up display
US8924150B2 (en) 2010-12-29 2014-12-30 GM Global Technology Operations LLC Vehicle operation and control system for autonomous vehicles on full windshield display
US8605011B2 (en) 2010-12-29 2013-12-10 GM Global Technology Operations LLC Virtual viewfinder on full windshield head-up display
US8686872B2 (en) 2010-12-29 2014-04-01 GM Global Technology Operations LLC Roadway condition warning on full windshield head-up display
US9057874B2 (en) 2010-12-30 2015-06-16 GM Global Technology Operations LLC Virtual cursor for road scene object selection on full windshield head-up display

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6100517A (en) 1995-06-22 2000-08-08 3Dv Systems Ltd. Three dimensional camera
WO2007043036A1 (en) 2005-10-11 2007-04-19 Prime Sense Ltd. Method and system for object reconstruction
US20100020078A1 (en) 2007-01-21 2010-01-28 Prime Sense Ltd Depth mapping using multi-beam illumination

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013008605A1 (de) * 2013-05-16 2014-11-20 Audi Ag Navigationshilfe für ein Kraftfahrzeug mit Autopiloten
US9721468B2 (en) 2013-05-16 2017-08-01 Audi Ag Navigation aid for a motor vehicle with autopilot
DE102020106380A1 (de) 2020-03-09 2021-09-09 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs durch Anpassung von angezeigten Objekten, Fahrerassistenzsystem sowie Fahrzeug
DE102021122543A1 (de) 2021-08-31 2023-03-02 Bayerische Motoren Werke Aktiengesellschaft Fahrassistenzsystem und Fahrassistenzverfahren für ein Fahrzeug
DE102022210986A1 (de) 2022-10-18 2024-04-18 Robert Bosch Gesellschaft mit beschränkter Haftung Einstellverfahren von Betriebsbremsfunktionen für mobile Arbeitsmaschinen sowie eine Bremsanordnung

Also Published As

Publication number Publication date
CN102529973A (zh) 2012-07-04
CN102529973B (zh) 2014-12-17
US9008904B2 (en) 2015-04-14
US20120173067A1 (en) 2012-07-05

Similar Documents

Publication Publication Date Title
DE102011122552A1 (de) Graphisches fahrzeugbefehlssystem für autonome fahrzeuge auf einer headup-anzeige für die volle windschutzscheibe
DE102011121746B4 (de) Verfahren zum Navigieren eines autonomen Fahrzeugs unter Verwendung einer graphischen Projektionsanzeige
DE102011121715B4 (de) Verfahren zum dynamischen Ausrichten einer Grafik auf einer Fahrszene eines Fahrzeugs
DE102011122541A1 (de) Virtueller Cursor für die Strassenszenen-Objektauswahl auf einer Headup-Anzeige für die volle Windschutzscheibe
DE102012216623B4 (de) Verfahren zur dynamischen Informationsdarstellung auf einer Headup-Anzeige
US8514101B2 (en) Driving maneuver assist on full windshield head-up display
DE102011121847B4 (de) Verfahren zum dynamischen Ausrichten einer Graphik auf einer Fahrszene eines Fahrzeugs, das eine im Wesentlichen durchsichtige Windschutzscheiben-Headup-Anzeige nutzt
DE102011121747A1 (de) Virtueller Sucher in einer Headup-Anzeige für die volle Windschutzscheibe
DE102011121627B4 (de) Verfahren zum dynamischen Ausrichten einer Graphik auf eine Fahrszene eines Fahrzeugs unter Nutzung einer im Wesentlichen durchsichtigen Windschutzscheiben-Headup-Anzeige
DE102010013488B4 (de) Vorrichtung und verfahren zum projizieren von grafischen bildern an eine frontscheiben-head-up-anzeige
US8098170B1 (en) Full-windshield head-up display interface for social networking
DE102010013398A1 (de) Fahrspur auf Windschutzscheiben-Head-Up-Anzeige
DE102010013226A1 (de) Virtuelle Bedienelemente und Anzeigen durch Laserprojektion
DE102011115323A1 (de) Identifizierung einer Fahrzeugbedrohung auf einem Vollwindschutzscheiben-Head-up-Display
DE102010013396A1 (de) Infotainment-Anzeige an Head-Up-Anzeige für gesamte Windschutzscheibe
DE102010013403A1 (de) Information eines dynamischen Fahrzeugsystems an Head-Up-Anzeige für gesamte Windschutzscheibe
DE102010013402A1 (de) Fahrzeug-Fahrzeug-Kommunikationseinrichtung an Head-Up-Anzeige für gesamte Windschutzscheibe
DE102010013231A1 (de) Verzerrungs- und Perspektivenkorrektur einer Vektorprojektionsanzeige
DE102010013395A1 (de) Fortsetzung einer Sicht nach aussen an Säulen und Flächen im Fahrgastraum
DE102010013489A1 (de) Luminanzeinheitlichkeitskompensation einer Vektorprojektionsanzeige
DE102010013401A1 (de) Empfohlene Folgedistanz an Head-Up-Anzeige für gesamte Windschutzscheibe
DE102010013356A1 (de) Fahrermüdigkeitsalarm an Head-Up-Anzeige für gesamte Windschutzscheibe
DE102018221029B4 (de) Anzeigevorrichtung, fahrzeug, das dieses aufweist, und steuerungsverfahren dafür
Husár et al. Comparison of the Principles of Head-Up Display Technologies for the Implementation of Augmented Reality in the Automotive Industry: A Study
EP3899706A1 (de) Verfahren und steuergerät zum einrichten einer verkehrsüberwachung für einen überwachungsort und system zum durchführen einer verkehrsüberwachung für einen überwachungsort

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G02B0027010000

Ipc: B60R0016020000

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G02B0027010000

Ipc: B60R0016020000

Effective date: 20140331

R016 Response to examination communication