DE102004022494A1 - Betätigungseingabevorrichtung - Google Patents

Betätigungseingabevorrichtung Download PDF

Info

Publication number
DE102004022494A1
DE102004022494A1 DE102004022494A DE102004022494A DE102004022494A1 DE 102004022494 A1 DE102004022494 A1 DE 102004022494A1 DE 102004022494 A DE102004022494 A DE 102004022494A DE 102004022494 A DE102004022494 A DE 102004022494A DE 102004022494 A1 DE102004022494 A1 DE 102004022494A1
Authority
DE
Germany
Prior art keywords
image
occupant
actuation
dimensional image
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102004022494A
Other languages
English (en)
Inventor
Masaki Kariya Inomae
Yuji Kariya Tsuchiya
Rieko Kariya Fukushima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE102004022494A1 publication Critical patent/DE102004022494A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/213Virtual instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

Eine Betätigungseingabevorrichtung enthält in Kombination eine Flüssigkristallanzeige und eine Fresnel-Linse, um ein dreidimensionales virtuelles Bild in einem virtuellen Raum vor einem Fahrzeugfahrersitz anzuzeigen, um es einem Insassen des Sitzes zu ermöglichen, einen Betätigungsbefehl für eine fahrzeuginterne Einheit einzugeben. Ein Bild des Insassen und das Bild im virtuellen Raum werden durch eine Bildaufnahmeeinrichtung aufgenommen. Eine ECU erkennt eine Bewegung einer Hand des Insassen innerhalb des virtuellen Raumes durch eine hinsichtlich der aufgenommenen Bilder durchgeführte Bildverarbeitung. Wenn die erkannte Bewegung mit einer vorbestimmten Bewegung in Bezug auf das dreidimensionale Bild, das im virtuellen Raum angezeigt wird, übereinstimmt, wird von der ECU bestimmt, dass ein Betätigungsbefehl für die fahrzeuginterne Einheit eingegeben wurde. Die ECU gibt den Betätigungsbefehl an die fahrzeuginterne Einheit aus und ändert das dreidimensionale Bild im virtuellen Raum entsprechend dem Betätigungsbefehl.

Description

  • Die vorliegende Erfindung betrifft eine Betätigungseingabevorrichtung, die so ausgelegt ist, dass sie anhand einer Bewegung einer Hand eines Nutzers einen durch den Nutzer ausgegebenen Betätigungsbefehl identifiziert und den identifizierten Betätigungsbefehl an eine zu betätigende Vorrichtung ausgibt.
  • Es sind Eingabevorrichtungen bekannt, die derart aufgebaut sind, dass, um es einem Fahrzeuginsassen zu ermöglichen, eine fahrzeuginterne Einheit ohne direkte Berührung der Einheit zu betätigen, ein Raum bzw. Freiraum, in den bzw. zu dem der Fahrzeuginsasse seine Hand Strecken kann, während er auf einem Sitz sitzt, als ein virtueller Raum vorgesehen ist, ein Bild im virtuellen Raum aufgenommen wird, um eine Bewegung der Hand des Insassen innerhalb des virtuellen Raumes aus dem bzw. anhand des aufgenommenen Bild zu erkennen, und ein Betätigungsbefehl, der vom Insassen ausgegeben wird, auf der Grundlage der erkannten Bewegung der Hand des Insassen bestimmt wird. Ein Beispiel einer derartigen bekannten Eingabevorrichtung ist in der japanischen Patentoffenlegungsschrift (JP-A) Nr. 2000-75991 beschrieben.
  • Gemäß der beschriebenen Eingabevorrichtung kann der Fahrzeuginsasse verschiedene fahrzeuginterne Einheiten oder Vorrichtungen einschließlich einer Klimaanlage, einer Navigationseinheit usw. ohne direkte Berührung eines Steuerpaneels einer jeweiligen Einheit betätigen. Somit kann eine Betätigungseingabe hinsichtlich der einzelnen fahrzeuginternen Einheiten mit äußerster Leichtigkeit durchgeführt werden.
  • Außerdem ist die beschriebene Eingabevorrichtung zur Vermeidung einer falschen Eingabe so ausgelegt, dass das Ergebnis einer Bestimmung, die hinsichtlich des Betätigungsbefehls durchgeführt wird, dem Fahrzeuginsassen mittels einer Sprachnachricht mitgeteilt beziehungsweise zurückgegeben wird. Somit kann sogar dann, wenn die Eingabevorrichtung eine falsche Bestimmung für den Betätigungsbefehl trifft, der Insasse, der seine Hand innerhalb des virtuellen Raumes bewegt, das Ergebnis einer derartigen falschen Bestimmung löschen beziehungsweise widerrufen.
  • Zur Betätigung der fahrzeuginternen Einheiten mittels der herkömmliche Eingabevorrichtung muss der Fahrzeuginsasse jedoch seine Hand innerhalb des virtuellen Raumes bewegen, in dem nichts anderes als die Hand des Insassen vorhanden ist. Diese Anforderung kann zu dem Problem führen, dass die Nutzbarkeit der Eingabevorrichtung insbesondere für einen Fahrzeuginsassen, der mit der Betätigung innerhalb des virtuellen Zwischenraumes unerfahren ist, sehr gering ist. Außerdem besteht ein anderes Problem darin, dass, wenn die Eingabevorrichtung für den Betätigungsbefehl eine falsche Bestimmung trifft, das Ergebnis einer derartigen falschen Bestimmung nicht erfolgreich widerrufen bzw. gelöscht werden kann, obwohl der Fahrzeuginsasse über eine derartige falsche Betätigung durch eine Sprachrückmeldung benachrichtigt wird.
  • Daher ist es eine Aufgabe der vorliegenden Erfindung, eine Betätigungseingabevorrichtung vom oben beschriebenen Typ anzugeben, die hinsichtlich ihrer Nutzbarkeit derart verbessert ist, dass der Nutzer eine zu betätigende Vorrichtung leicht und zuverlässig betätigen kann.
  • Die Aufgabe wird mit den Merkmalen des unabhängigen Anspruchs gelöst. Die abhängigen Ansprüche sind auf bevorzugte Ausführungsformen der Erfindung gerichtet.
  • Erfindungsgemäß wird eine Betätigungseingabevorrichtung angegeben, die aufweist: eine Bildanzeigeeinrichtung zum Anzeigen eines dreidimensionalen Bildes in einem vorbestimmten virtuellen Raum; eine oder mehrere Bildaufnahmeeinrichtungen zum Aufnehmen eines Bildes in einem Bereich einschließlich dem virtuellen Raum; und eine Erkennungseinrichtung zum Erkennen einer Bewegung einer Hand eines Nutzers innerhalb des virtuellen Raumes anhand des von der Bildaufnahmeeinrichtung aufgenommenen Bildes. Die Betätigungseingabevorrichtung enthält außerdem eine Steuereinrichtung, die so ausgelegt ist, dass sie die Bildanzeigevorrichtung veranlasst oder ansteuert, ein dreidimensionales Bild zur Betätigung einer zu betätigenden Vorrichtung anzuzeigen, einen vom Nutzer ausgegebenen Betätigungsbefehl anhand der Bewegung der Hand des Nutzers, die durch die Erkennungseinrichtung erkannt wird, identifiziert, während das dreidimensionale Bild angezeigt wird, das durch die Bildanzeigeeinrichtung angezeigte dreidimensionale Bild entsprechend dem identifizierten Betätigungsbefehl ändert und den Betätigungsbefehl an die zu betätigende Vorrichtung ausgibt.
  • Mit der derart aufgebauten Betätigungseingabevorrichtung wird es dem Nutzer ermöglicht, einen gewünschten Betätigungsbefehl hinsichtlich der zu betätigenden Vorrichtung durch geeignete Bewegung (Stoßen, Greifen oder Winken) seiner Hand innerhalb des virtuellen Raumes einzugeben, während er das in dem virtuellen Raum zur Betätigung durch den Nutzer angezeigte dreidimensionale Bild visuell bestätigt bzw. bestätigt findet. Somit muss der Nutzer nicht mehr wie bei der herkömmlichen Betätigungseingabevorrichtung seine Hand innerhalb eines Raumes be wegen, in dem sich nichts befindet. Dementsprechend ist die Nutzbarkeit der Betätigungseingabevorrichtung der vorliegenden Erfindung im Vergleich zur herkömmlichen Vorrichtung sehr hoch, und es kann eine falsche Betätigung durch den Nutzer vermieden werden.
  • Da sich das im virtuellen Raum zur Betätigung durch den Nutzer angezeigte dreidimensionale Bild jedoch entsprechend dem durch die Steuereinrichtung identifizierten Betätigungsbefehl ändert, ermöglicht es die Änderung im dreidimensionalen Bild, dass der Nutzer das Ergebnis der Betätigung zuverlässig bestätigen bzw. bestätigt finden kann. Sogar wenn eine falsche Betätigung durch den Nutzer stattfindet, ist es leicht möglich, die falsche Betätigung durch Wiederholen der Betätigung während der Beobachtung des dreidimensionalen Bildes zu korrigieren. Dieses verbessert die Nutzbarkeit der Betätigungseingabevorrichtung noch weiter.
  • Es ist wahr, dass die Betätigungseingabevorrichtung der vorliegenden Erfindung durch das Anzeigen eines dreidimensionalen Bildes im virtuellen Raum zur Betätigung durch den Nutzer die Nutzbarkeit verbessern kann, wenn der Nutzer seine Hand innerhalb des virtuellen Bildes bewegt, um einen Betätigungsbefehl einzugeben. In einer Anwendung, in der die Eingabe eines Betätigungsbefehles an eine jeweilige zu betätigende Vorrichtung eine Hauptanforderung darstellt, oder wenn die zu betätigende Vorrichtung verschiedene Arten von zu steuernde Betätigungen aufweist, ist es praktisch unmöglich, alle Gegenstände der Informationen anzuzeigen, die mittels eines einzigen dreidimensionalen Bildes betätigbar sind.
  • In diesem Fall ist es vorteilhaft, dass die Steuereinrichtung vor der Ansteuerung der dreidimensionalen Bildanzeigeeinrichtung zur Anzeige des dreidimensionalen Bildes zur Betätigung der zu betätigenden Vorrichtung die dreidimensionale Bildanzeigeeinrichtung zur Anzeige eines dreidimensionalen Bildes ansteuert, das es einem Nutzer ermöglicht, die Auswahl einer zu betätigenden Vorrichtung oder einer Art einer Betätigung einer zu betätigenden Vorrichtung durchzuführen, anhand der Bewegung der Hand des Nutzers die zu betätigende Vorrichtung oder die Art der vom Nutzer ausgewählten Betätigung, die von der Erkennungseinrichtung erkannt wird, identifiziert, während das dreidimensionale Bild angezeigt wird, und anschließend entsprechend einem Ergebnis der Erkennung die dreidimensionale Bildanzeigeeinrichtung ansteuert, um ein dreidimensionales Bild zur Betätigung der zu betätigenden Vorrichtung anzuzeigen.
  • Mit der derart aufgebauten Steuereinrichtung ist der Nutzer in der Lage, durch alleiniges Bewegen seiner Hand innerhalb des virtuellen Raumes eine gewünschte zu betätigende Vorrichtung oder eine gewünschte Art von durchzuführender Betätigung auszuwählen, während er ein zum Zwecke der Auswahl im virtuellen Raum angezeigtes dreidimensionales Bild beobachtet. Auf der Grundlage der somit durchgeführten Auswahl wird ein dreidimensionales Bild zur Betätigung durch den Nutzer im virtuellen Raum angezeigt. Dieses gewährleistet, dass für die Mehrzahl an zu betätigenden Vorrichtungen und für die zahlreichen Arten von durchzuführenden Betätigungen durch eine einfache vom Nutzer durchgeführte Tätigkeit ein Betätigungsbefehl eingegeben werden kann.
  • In diesem Fall werden die dreidimensionalen Bilder, die für die Auswahl der zu betätigenden Vorrichtung oder die Art der durchzuführenden Betätigung bereitgestellt werden, vorzugsweise im Voraus auf ähnliche Weise wie ein allgemeines hierarchisches Menü geschichtet oder hierarchisiert, so dass der Nutzer die hierarchisch aufgebauten dreidimensionalen Bilder aufeinanderfolgend ändern kann, bis ein gewünschtes dreidimensionales Bild zur Betätigung durch den Nutzer ausgewählt ist.
  • Das im virtuellen Raum zur Betätigung durch den Nutzer angezeigte dreidimensionale Bild kann die Form von dreidimensional angezeigten Knöpfen oder Ähnlichem (Steuerungen) annehmen. Vorzugsweise werden tatsächliche Betätigungsbedingungen einer zu betätigenden Vorrichtung erfasst und die erfassten Betätigungsbedingungen durch ein dreidimensionales Bild angezeigt. Dieser Aufbau ermöglicht es dem Nutzer, einen gewünschten Betätigungsbefehl unter unmittelbarer Bestätigung der tatsächlichen Betätigungsbedingungen der betätigten Vorrichtung, die anhand des angezeigten Bildes erlangt bzw. ermittelt werden, einzugeben. In diesem Beispiel kann der Nutzer einfach das Ergebnis der Betätigungsbefehlseingabebetätigung bestätigen bzw. bestätigt finden, da das Ergebnis einer Eingabe des Betätigungsbefehls innerhalb des virtuellen Raumes als eine Änderung der Betätigungsbedingungen der betätigten Vorrichtung angezeigt wird.
  • Die Betätigungseingabevorrichtung kann eine Fahrzeugbetätigungseingabevorrichtung sein, die so ausgelegt ist, dass sie einem Nutzer eines Fahrzeugs ermöglicht, eine fahrzeuginterne Einheit zu betätigen. In der Fahrzeugbetätigungseingabevorrichtung ist die Bildanzeigeeinrichtung für dreidimensionale Bilder vor einem Sitz des Fahrzeugs angeordnet und so aufgebaut, dass der virtuelle Raum durch einen Raum ausgebildet ist, in den der Insasse des Sitzes seine Hand Strecken kann und der auch das dreidimensionale Bild, das einem Insassen, der auf dem Sitz sitzt, angezeigt wird, aufweist. Die Bildaufnahmeeinrichtung ist zusammen mit der Bildanzeigeeinrichtung für dreidimensionale Bilder vor dem Fahrzeugsitz angeord net und so ausgelegt, dass sie von der Seite vor dem Insassen her ein Bild des Insassen des Sitzes aufnimmt.
  • Mit der derart aufgebauten Fahrzeugbetätigungseingabevorrichtung kann der Insasse des Fahrzeugsitzes die fahrzeuginterne Einheit leicht betätigen, ohne genötigt zu sein, seine Sitzposition auf dem Fahrzeugsitz zu ändern.
  • Im folgenden wird beispielhaft eine bevorzugte Ausführungsform der vorliegenden Erfindung genauer mit Bezug auf die zugehörigen Zeichnungen beschrieben, in denen identische oder einander entsprechende Teile mit den selben Bezugszeichen bezeichnet sind. Es zeigen:
  • 1 eine schematische Darstellung des allgemeinen Aufbaus einer Betätigungseingabevorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 2 ein Blockdiagramm des Aufbaus einer elektrischen Steuereinheit (ECU) zur Betätigungseingabe und andere ECUs für verschiedene fahrzeuginterne Einheiten, die über einen Kommunikationskanal mit der Betätigungseingabe-ECU verbunden sind;
  • 3 ein Flussdiagramm, das eine von der Betätigungseingabe-ECU durchgeführte Steuerungsprozedur zeigt;
  • 4A bis 4D piktographische Darstellungen, die die Art und Weise zeigen, wie die Betätigung einer fahrzeuginternen Einheit unter Verwendung dreidimensionaler Bilder gesteuert wird, die in einem virtuellen Raum der Betätigungseingabevorrichtung der vorliegenden Erfindung angezeigt werden.
  • 1 zeigt schematisch und beispielhaft den allgemeinen Aufbau einer Betätigungseingabevorrichtung gemäß der vorliegenden Erfindung. Wie es in dieser Figur gezeigt ist, ist die Betätigungseingabevorrichtung 1 zum Eingeben von Betätigungsbefehlen durch einen Insassen Pn eines Sitzes Sn eines Navigators eines Fahrzeugs V in dem Fahrzeug V angebracht. Die Betätigungseingabevorrichtung 1 weist im allgemeinen eine Flüssigkristallanzeige 2 und eine Fresnel-Linse 4, die an einem Fahrzeugvorderpaneel FP vor dem Insassensitz SN angeordnet sind, eine Bildaufnahmevorrichtung 6, die auf dem Vorderpaneel FP angeordnet ist, und eine elektronische Steuereinheit 10 für die Betätigungseingabe auf. Die elektronische Steuereinheit 10 wird im folgenden als "Betätigungseingabe-ECU" bezeichnet.
  • Die Flüssigkristallanzeige 2 und die Fresnel-Linse 4 bilden zusammen eine erfindungsgemäße Bildanzeigeeinrichtung oder -einheit für dreidimensionale Bilder, die so aufgebaut ist, dass sie Lichtinformationen derart aussendet, dass jedes Auge des Insassens Pn des Sitzes Sn ein anderes Bild sieht, mit dem Ergebnis, dass ein virtuelles Bild Iv (dreidimensionales Bild) in einem Raum Sv (virtueller Raum) angezeigt wird, in den der Insasse Pn seine Hand oder Hände strecken kann, während er seine Sitzposition auf dem Sitz Sn beibehält.
  • Genauer gesagt enthält die Flüssigkristallanzeige 2 ein Flüssigkristallanzeigepaneel, das parallaktisch erste und zweite Bilder (d. h. stereoskopische Bilder) abwechselnd in Zeitteilung anzeigt, und zwei Lichtquellen, die Lichtstrahlen abwechselnd von unterschiedlichen Richtungen auf das Flüssigkristallanzeigepaneel aussenden, so dass die ersten und zweiten Bilder, die auf dem Flüssigkristallanzeigepaneel angezeigt werden, selektiv auf die jeweiligen Augen des Insassen Pn projiziert werden. Die Fresnel-Linse 4, die vor dem Flüssigkristallanzeigepaneel angeordnet ist, wandelt die stereoskopischen Bilder, die auf dem Flüssigkristallanzeigepaneel angezeigt werden, in ein vergrößertes virtuelles Bild (dreidimensionales Bild) um.
  • Die Struktur der Flüssigkristallanzeige 2 ist bekannt und z. B. in den japanischen Patentoffenlegungsschriften Nr. 9-222584, 2000-50316 und 2001-218231 beschrieben, und es wird deren weitere Beschreibung weggelassen.
  • Die Bildaufnahmevorrichtung 6 weist eine CCD- (charged coupled device) Kamera auf, die ein Bild (zweidimensionales Bild) in einem Bereich, der vor dem Insassen Pn angeordnet ist und den virtuellen Raum Sv enthält, in dem das dreidimensionale Bild mittels der Flüssigkristallanzeige 2 und der Fresnel-Linse 4 angezeigt wird, aufnehmen kann. Die Bildaufnahmevorrichtung 6 bildet eine erfindungsgemäße Bildaufnahmeeinrichtung.
  • Zur kontrollierten bzw. gesteuerten Betätigung verschiedener fahrzeuginterner Einheiten einschließlich einer Klimaanlage, einer Navigationseinheit und einer Audioeinheit ist die Betätigungseingabe-ECU 10 so ausgelegt, dass sie die Flüssigkristallanzeige 2 veranlasst oder ansteuert, ein dreidimensionales Bild Iv innerhalb des virtuellen Raumes Sv anzuzeigen, ein von der Bildaufnahmevorrichtung 6 aufgenommenes Bild einliest, während das Bild auf der Flüssigkristallanzeige 2 angezeigt wird, eine Bildverarbeitung für das aufgenommene Bild durchführt, um eine Bewegung einer Hand eines Insassens innerhalb des virtuellen Raumes Sv zur erkennen, und anhand des Ergebnisses der Erkennung einen vom Insassen Pn ausgegebenen Betätigungsbefehl identifiziert.
  • Wie es in 2 gezeigt ist, besteht die Betätigungseingabe-ECU 10 aus einem an sich bekannten Mikrocomputer, der eine zentrale Verarbeitungseinheit (CPU) 12, einen nur-Lese-Speicher (ROM) 14, einen Speicher mit wahlfreiem Zugriff (RAM) 16 und eine Busleitung, die die CPU 12, den ROM 14 und den RAM 16 miteinander verbindet, enthält.
  • Die Betätigungseingabe-ECU 10 enthält außerdem einen Anzeigesteuerabschnitt 22 zum Ansteuern der Flüssigkristallanzeige 2 zum Anzeigen von stereoskopischen Bildern, einen Anzeigedatenspeicherabschnitt 24 zum Speichern von Anzeigedaten, die zur Ansteuerung der Flüssigkristallanzeige 2 verwendet werden, um die stereoskopischen Bilder anzuzeigen, einen Bildverarbeitungsabschnitt 26 zum Verarbeiten eines von der Bildaufnahmevorrichtung 6 aufgenommenen Bildes, um eine Position oder Form der Hand des Insassen oder Nutzers zu erkennen, einen Betätigungsmusterspeicherabschnitt 28 zum Speichern von Betätigungsmustern, die zur Identifikation eines vom Insassen ausgegebenen Betätigungsbefehls anhand einer Bewegung der Hand des Insassen verwendet werden, und einen Kommunikationsabschnitt 20, der eine Datenkommunikation zwischen sich selbst und einer Klimaanlagen-ECU 30, einer Navigations-ECU 40 und einer Audio-ECU 50 der fahrzeuginternen Einheiten über die Kommunikationsleitung 8 durchführt.
  • Durch die CPU 12, die in der Betätigungseingabe-ECU 10 untergebracht ist, wird die Flüssigkristallanzeige 2 angesteuert, um ein dreidimensionales Bild Iv (1) innerhalb des virtuellen Raumes Sv (1) zur Betätigung einer fahrzeuginternen Einheit anzuzeigen, ein vom Insassen ausgegebener Betätigungsbefehl wird anhand eines durch die Bildaufnahmevorrichtung 6 aufgenommenen Bildes identifiziert, und der identifizierte Betätigungsbefehl wird an die Klimaanlagen-ECU 30, Navigations-ECU 40 und Audio-ECU 50 übertragen, so dass eine Betätigung der entsprechenden fahrzeuginternen Einheiten (d. h. der Klimaanlage, Navigationseinheit und Audioeinheit) durch die jeweiligen ECUs 30, 40, 50 gesteuert werden.
  • Eine Steuerungsprozedur, die von der Betätigungseingabe-ECU 10 durchgeführt wird (genauer gesagt der CPU 12), um eine Eingabe eines Betätigungsbefehls vom Insassen Pn aufzunehmen, wird im Folgenden mit Bezug auf das Flussdiagramm der 3 beschrieben.
  • Beim Ausführen der Steuerungsprozedur wird angenommen, dass Betätigungseinheitauswahlbilder, die es dem Insassen ermöglichen, eine gewünschte zu betätigende fahrzeuginterne Einheit unter den fahrzeuginternen Einheiten auszuwählen, Betätigungsartauswahlbilder, die es dem Insassen ermöglichen, eine gewünschte Art einer auszuführenden Betätigung aus Betätigungsarten einer jeweiligen fahrzeuginternen Einheit auszuwählen, und Betätigungsbefehleingabebilder, die jeweiligen Betätigungsarten, die vom Insassen auswählbar sind, entsprechen, in dem Anzeigedatenspeicherabschnitt 24 in geschichteter oder hierarchischer Form als Anzeigedaten zum Anzeigen von dreidimensionalen Bildern gespeichert werden.
  • Auf ähnliche Weise werden verschiedene Betätigungsmuster, die jeweils einem der im Anzeigedatenspeicherabschnitt 24 gespeicherten Bilder entsprechen, im Betätigungsmusterspeicherabschnitt 28 gespeichert, um eine Identifikation eines Auswahlbefehls oder eines vom Insassen ausgegebenen Betätigungsbefehls anhand einer Bewegung der Hand des Insassen zu ermöglichen, während ein jeweiliges Bild innerhalb des virtuellen Raumes Sv (1) angezeigt wird.
  • Wie es in 3 gezeigt ist, startet die CPU 12 mit der Ausführung der Steuerungsprozedur in einem Schritt 110. Im Schritt 110 werden Anzeigedaten bezüglich Betätigungseinheitauswahlbildern aus dem Anzeigedatenspeicherabschnitt 24 ausgelesen und an den Anzeigesteuerabschnitt 22 geleitet, wobei die Flüssigkristallanzeige 2 angesteuert wird, um ein dreidimensionales Bild im virtuellen Raum zur Auswahl einer gewünschten zu betätigenden fahrzeuginternen Einheit anzuzeigen (im Folgenden der Kürze wegen als "betätigte Einheit" bezeichnet). In der dargestellten Ausführungsform werden, da die Anzahl der betätigten fahrzeuginternen Einheiten drei beträgt (d. h. Klimaanlage, Navigationseinheit und Audioeinheit), drei Auswahlblöcke oder Bälle, die jeweils eine entsprechende betätigte Einheit repräsentierten, innerhalb des virtuellen Raumes angezeigt, als ob sie in der Luft schweben.
  • Anschließend wird im Schritt 120 ein Erkennungsergebnis, das für die Position und Form einer Hand eines Insassen durch eine Bildverarbeitung hinsichtlich eines aufgenommenen Bildes erhalten wird, von dem Bildverarbeitungsabschnitt 26 ausgelesen. Danach wird im Schritt 130 bestimmt, ob das ausgelesene Erkennungsergebnis (die Position und Form der Hand des Insassen) eine Änderung zeigt, die nach dem sich nach dem letzten oder vorhergehenden Leseprozess im Schritt 120 ergeben hat.
  • Wenn das Bestimmungsergebnis im Schritt 130 negativ ist (d. h. wenn das Erkennungsergebnis ergibt, dass keine Änderung nach dem letzten Lesen erfolgt ist), kehrt die Steuerungsprozedur zum Schritt 110 zurück. Wenn andererseits das Bestimmungsergebnis im Schritt 130 positiv ist (d. h., wenn das Erkennungsergebnis eine Änderung nach dem letzten Lesen ergibt), schreitet die Steuerungsprozedur im Schritt 140 fort. Im Schritt 140 wird ein Änderungsmuster der Position oder Form der Hand des Insassen anhand der letzten Erkennungsergebnisse, die am Bildverarbeitungsabschnitt 26 erhalten werden, berechnet, und das berechnete Änderungsmuster wird mit einem Betätigungsmuster verglichen, das im Betätigungsmusterspeicherabschnitt 28 gespeichert ist, um dadurch einen vom Insassen durch eine Bewegung der Hand des Insassen innerhalb des virtuellen Raumes eingegebenen Auswahlbefehl zu erkennen.
  • In der dargestellten Ausführungsform wird das Betätigungsmuster, das während der Anzeige des Betätigungseinheitauswahlbildes verwendet wird, so eingestellt, dass, wenn eine Hand des Insassen, die vor einem gewünschten Auswahlblock, der angezeigt wird, ausgestreckt wurde, wie es in 4A gezeigt ist, bewegt wird, um den gewünschten Auswahlblock zu drücken oder zu greifen, bestimmt wird, dass der gedrückte oder gegriffene Auswahlblock ausgewählt ist.
  • In einem dem Schritt 140 folgenden Schritt 150 wird bestimmt, ob eine Eingabe des Auswahlbefehls vom Nutzer durch den im Schritt 140 durchgeführten Auswahlbefehlerkennungsprozess erkannt wurde. Wenn das Ergebnis positiv ist (das heißt, wenn eine Eingabe des Auswahlbefehls erkannt wurde), zweigt die Steuerungsprozedur zu einem Schritt 180 ab. Wenn andererseits das Ergebnis negativ ist (d. h. wenn eine Eingabe des Auswahlbefehls nicht erkannt wurde), schreitet die Steuerungsprozedur im Schritt 160 fort. Im Schritt 160 wird bestimmt, ob eine Widerrufsbetätigung bzw. eine Betätigung zum Widerruf durch den Nutzer durch den im Schritt 140 durchgeführten Auswahlbefehlerkennungsprozess erkannt wurde.
  • Die Widerrufsbetätigung wird durch eine wedelnde Bewegung der Hand des Insassen nach links und rechts über den virtuellen Raum definiert. Der Schritt 140 führt au ßerdem eine Identifikation der somit definierten Widerrufsbetätigung auf der Grundlage einer Bewegung der Hand des Insassen durch.
  • Wenn das Ergebnis im Schritt 160 zeigt, dass die Widerrufsbetätigung nicht erkannt wurde, kehrt die Steuerungsprozedur zum Schritt 110 zurück. Wenn andererseits das Ergebnis im Schritt 160 zeigt, dass der Widerrufsbetrieb erkannt wurde, bedeutet dieses, dass die Betätigungseingabe, die den virtuellen Raum nutzt, widerrufen wurde. Somit schreitet die Steuerungsprozedur in einem Schritt 170 fort, der die Anzeige des Bildes beendet.
  • Die CPU 12 ist so ausgelegt, dass sie sogar nach einer Beendigung der Steuerungsprozedur das Erkennungsergebnis vom Bildverarbeitungsabschnitt 26 ausliest oder erhält und einen Aktivierungsbefehlerkennungsprozess durchführt, um einen Aktivierungsbefehl des Insassen auf der Grundlage eines Änderungsmusters, das für die Bewegung der Hand des Insassen erlangt wird, zu erkennen. Bei der Erkennung des Aktivierungsbefehls des Insassen startet die CPU 12 erneut die Steuerungsprozedur, um die Betriebsabläufe vom Schritt 110 an auszuführen.
  • Der Schritt 180, der ausgeführt wird, wenn das Ergebnis im Schritt 150 zeigt, dass ein Auswahlbefehl vom Insassen erkannt wurde, liest Anzeigedaten über Betätigungsartauswahlbilder aus und leitet die Anzeigedaten an den Anzeigesteuerabschnitt 22 weiter, so dass ein Betätigungsartauswahlbild innerhalb des virtuellen Raumes angezeigt wird, um es dem Insassen zu ermöglichen, eine gewünschte Betätigungsart, die durch den Auswahlbefehl ausgewählt wird, auszuwählen.
  • Demzufolge werden Auswahlblöcke bzw. -bälle, die jeweils eine Betätigungsart der durch den Insassen auswähl baren betätigten Einheit darstellen, innerhalb des virtuellen Raumes angezeigt. In der dargestellten Ausführungsform wird zum Beispiel im Voraus bestimmt, dass die Betätigungsarten der Klimaanlage umfassen: (a) eine Windrichtungseinstellbetätigung zum Einstellen der Blasrichtung von klimatisierter Luft von jedem von vier Luftöffnungen bzw. -düsen, die jeweils an einem linken Ende, einem rechten Ende und an linken und rechten Seiten in der Nähe der Mitte eines vorderen Abschnitts bzw. Teils eines Fahrzeuginsassenabteils angeordnet sind, (b) eine Temperatureinstellbetätigung zum Einstellen der Temperatur innerhalb des Insassenabteils oder der Temperaturen der klimatisierten Luft, die aus den einzelnen Luftöffnungen ausgelassen wird, und (c) eine Betriebsmoduseinstellbetätigung zum Einstellen eines Betriebsmodus der Klimaanlage (zwischen einem Automatikmodus und einem manuellen Modus sowie zwischen einem Frischlufteinlassmodus und einem Raumluftzirkulationsmodus, wenn der manuelle Betätigungsmodus ausgewählt ist). In dem Fall, in dem der Auswahlblock, der die Klimaanlage repräsentiert, unter drei Auswahlblöcken, die als jeweilige Betätigungseinheitauswahlbilder angezeigt werden, ausgewählt ist, wie es in 4A gezeigt ist, werden drei Auswahlblöcke oder -bälle, die jeweils eine der vorherigen drei Arten der Betätigung (a)–(c) repräsentieren, innerhalb des virtuellen Raumes angezeigt, als ob sie in der Luft schweben, wie es in 4B gezeigt ist.
  • Anschließend wird in einem Schritt 190 das Ergebnis der Erkennung der Position und Form einer Hand eines Insassen, das durch eine Bildverarbeitung erhalten wird, die hinsichtlich eines aufgenommen Bildes durchgeführt wird, auf die selbe Weise wie im Schritt 120 aus dem Bildverarbeitungsabschnitt 26 ausgelesen. Danach wird in einem Schritt 200 bestimmt, ob das ausgelesene Erkennungsergebnis (die Position und Form einer Hand des In sassen) eine Änderung nach dem letzten oder vorhergehenden Leseprozess im Schritt 190 ergibt.
  • Wenn das Ergebnis im Schritt 200 negativ ist (d. h. wenn das Erkennungsergebnis keine Änderung nach dem letzten Lesen ergibt), kehrt die Steuerungsprozedur zum Schritt 180 zurück. Wenn andererseits das Ergebnis im Schritt 200 positiv ist (d. h. wenn das Erkennungsergebnis eine Änderung nach dem letzten Lesen ergibt), schreitet die Steuerungsprozedur im Schritt 210 fort. Im Schritt 210 wird ein Änderungsmuster der Position oder Form der Hand des Insassen anhand der letzten Erkennungsergebnisse, die am Bildverarbeitungsabschnitt 26 erhalten werden, berechnet, und das berechnete Änderungsmuster wird mit einem Betätigungsmuster verglichen, das im Betätigungsmusterspeicherabschnitt 28 gespeichert ist, um dadurch einen vom Insassen durch eine Bewegung seiner Hand innerhalb des virtuellen Raumes eingegebenen Auswahlbefehl zu erkennen.
  • Das in Kombination mit dem Betätigungsartauswahlbild zum Erkennen eines Auswahlbefehls verwendete Betätigungsmuster ist dasselbe wie das in Kombination mit dem Betätigungseinheitauswahlbild zur Erkennung eines Auswahlbefehls verwendete Betätigungsmuster. Genauer gesagt wird, wie es in 4B gezeigt ist, das Betätigungsmuster so eingestellt, dass, wenn eine Hand des Insassen, die vor einem gewünschten angezeigten Auswahlblock gestreckt wurde, so bewegt wird, als ob sie den gewünschten Auswahlblock drückt oder greift, bestimmt wird, dass der gedrückte oder gegriffene Auswahlblock ausgewählt ist.
  • In einem dem Schritt 210 folgenden Schritt 220 wird bestimmt, ob eine Eingabe des Auswahlbefehl vom Insassen durch den im Schritt 210 durchgeführten Auswahlbefehlerkennungsprozess erkannt wurde. Wenn das Ergebnis positiv ist (d. h. wenn eine Eingabe des Auswahlbefehls erkannt wurde), zweigt die Steuerungsprozedur zu einem Schritt 240 ab. Wenn andererseits das Ergebnis negativ ist (d. h. wenn eine Eingabe des Auswahlbefehls nicht erkannt wurde), schreitet die Steuerungsprozedur in einem Schritt 230 fort, in dem weiterhin bestimmt wird, ob eine Widerrufsbetätigung durch den Insassen durch den im Schritt 210 durchgeführten Auswahlbefehlerkennungsprozess erkannt wurde.
  • Wenn das Ergebnis im Schritt 230 zeigt, dass die Widerrufsbetätigung nicht erkannt wurde, kehrt die Steuerungsprozedur zum Schritt 180 zurück. Wenn andererseits das Ergebnis im Schritt 230 zeigt, dass die Widerrufsbetätigung erkannt wurde, bedeutet dieses, dass die Betätigung hinsichtlich der betätigten Einheit, die durch den Nutzer ausgewählt wurde, widerrufen wurde. Die Steuerungsprozedur kehrt dann zum Schritt 110 zurück.
  • Der Schritt 240 wird ausgeführt, wenn das Ergebnis im Schritt 220 zeigt, dass ein Auswahlbefehl des Insassen erkannt wurde. In diesem Schritt 240 werden Betätigungsbedingungen der betätigten Einheit, die den Betätigungsarten, die durch den Auswahlbefehl ausgewählt werden, entsprechen, durch eine Datenkommunikation von der der betätigten Einheit zugeordneten ECU ausgelesen (d. h. der Klimaanlagen-ECU 30, Navigations-ECU 40 oder Audio-ECU 50).
  • Anschließend werden in einem Schritt 250 Anzeigedaten über den Betätigungsarten entsprechende Betätigungsbefehleingabebilder vom Anzeigedatenspeicherabschnitt 24 ausgelesen, und es wird auf der Grundlage der Anzeigedaten und der Betätigungsbedingungen der betätigten Einheit, die im Schritt 240 erhalten werden, ein Betätigungsbefehleingabebild mit den darin reflektierten Betä tigungsbedingungen erzeugt und als endgültige Anzeigedaten an den Anzeigesteuerabschnitt 22 ausgegeben. Anschließend wird ein Betätigungsbefehleingabebild, das die Betätigungsbedingungen der betätigten Einheit darstellt, im virtuellen Raum dreidimensional angezeigt.
  • Wenn zum Beispiel als eine Betätigungsart die Windrichtungseinstellbetätigung ausgewählt wird, während das Betätigungsartauswahlbild für die Klimaanlage wie in 4B angezeigt wird, erzeugt der Schritt 250 ein im virtuellen Raum als ein dreidimensionales Bild anzuzeigendes Bild. Wie es in 4C gezeigt ist, enthält das erzeugte Bild ein Betätigungsbefehleingabebild, das von dem Anzeigedatenspeicherabschnitt 24 ausgelesen wird und das vier Luftöffnungen in einem Vorderteil eines Fahrzeuginsassenabteils zeigt, und ein Bild (das in der dargestellten Ausführungsform die Form eines Pfeiles annimmt), das die Blasrichtung klimatisierter Luft von einer jeweiligen Luftöffnung der Klimaanlage als derzeitige Betätigungsbedingungen zeigt, wobei die beiden Bilder einander überlappend angeordnet sind.
  • Anschließend wird im Schritt 260 das Ergebnis der Erkennung der Position und Form einer Hand eines Insassen, das durch eine Bildverarbeitung, die hinsichtlich eines aufgenommenen Bildes durchgeführt wird, erhalten wird, auf dieselbe Weise, wie es im Schritt 120 oder im Schritt 190 durchgeführt wird, von dem Bildverarbeitungsabschnitt 26 ausgelesen. Danach bestimmt ein Schritt 270, ob das ausgelesene Erkennungsergebnis (die Position und Form der Hand des Insassen) eine Änderung nach dem letzten oder vorhergehenden Leseprozess des Schritts 260 zeigt.
  • Wenn das Ergebnis der Bestimmung im Schritt 270 zeigt, dass das Erkennungsergebnis keine Änderung nach dem letzten Lesen anzeigt, kehrt die Steuerungsprozedur zum Schritt 240 zurück. Wenn andererseits das Bestimmungsergebnis im Schritt 270 zeigt, dass das Erkennungsergebnis eine Änderung nach dem letzten Lesen anzeigt, schreitet die Steuerungsprozedur in einem Schritt 280 fort. Im Schritt 280 wird ein Änderungsmuster der Position oder Form der Hand des Insassen aus dem letzten Erkennungsergebnissen, die am Bildverarbeitungsabschnitt 26 erhalten werden, berechnet, und das berechnete Änderungsmuster wird mit einem Betätigungsmuster verglichen, das in dem Betätigungsmusterspeicherabschnitt 28 gespeichert ist, um dadurch einen durch einen Insassen durch eine Bewegung seiner Hand innerhalb des virtuellen Raumes eingegebenen Betätigungsbefehl zu erkennen.
  • Das in Kombination mit dem Betätigungsbefehleingabebild zur Erkennung eines Betätigungsbefehls verwendete Betätigungsmuster wird, obwohl es sich mit der Form des Betätigungsbefehleingabebildes ändert, im Allgemeinen auf eine Änderung von Betätigungsbedingungen einer Einheit, die im Betätigungsbefehleingabebild angezeigt werden, eingestellt. Das Betätigungsmuster wird zum Beispiel im Falle des in 4C gezeigten Betätigungsbefehleingabebildes so eingestellt, dass, wenn eine Hand des Insassen, die vor einer der Luftöffnungen ausgestreckt ist, für die sich der Insasse eine Änderung der Blasrichtung der klimatisierten Luft wünscht, in einer gewünschten Richtung bewegt wird, erkannt wird, dass die Blasrichtung klimatisierter Luft von dem gewünschten Luftzug in der Richtung der Bewegung der Hand des Insassen zu ändern ist.
  • In einem dem Schritt 280 folgenden Schritt 290 wird bestimmt, ob der Betätigungsbefehl vom Insassen durch den im Schritt 280 durchgeführten Betätigungsbefehlerkennungsprozess erkannt wurde. Wenn das Ergebnis positiv ist (d. h. wenn der Betätigungsbefehl erkannt wurde), schreitet die Steuerungsprozedur im Schritt 300 fort. Im Schritt 300 wird der im Schritt 280 erkannte Betätigungsbefehl an die ECU der betätigten Einheit (d. h. der Klimaanlagen-ECU 30, Navigations-ECU 40 oder Audio-ECU 50) zur dem Betätigungsbefehl entsprechenden Steuerung einer Betätigung der betätigten Einheit übertragen. Danach kehrt die Steuerungsprozedur zum Schritt 240 zurück.
  • Da Betätigungsbedingungen der betätigten Einheit, die nach der Übertragung des Betätigungsbefehles erlangt werden, im Schritt 240 ausgelesen oder erhalten werden, wird in diesem Beispiel ein Betätigungsbefehleingabebild, das über eine im folgenden Schritt 250 durchgeführte Anzeige angezeigt wird, die Betätigungsbedingungen der betätigten Einheit, die nach der Eingabe des Betätigungsbefehls erlangt werden, reflektieren, wie es in 4D gezeigt ist. Durch Beobachtung des Betätigungsbefehlseingabebildes ist der Insasse in der Lage, ein Steuerungsergebnis, das nach der Eingabe des Betätigungsbefehls eintritt, zu bestätigen bzw. bestätigt zu finden.
  • Wenn andererseits das Ergebnis im Schritt 290 negativ ist, (d. h. wenn der Betätigungsbefehl nicht erkannt wurde), zweigt die Steuerungsprozedur zu einem Schritt 310 ab, in dem weiterhin bestimmt wird, ob eine Widerrufsbetätigung durch den Insassen durch den im Schritt 280 erzielten Betätigungsbefehlerkennungsprozess erkannt wurde.
  • Wenn das Ergebnis im Schritt 310 zeigt, dass die Widerrufsbetätigung im Schritt 280 nicht erkannt wurde, kehrt die Steuerungsprozedur zum Schritt 240 zurück. Wenn andererseits das Ergebnis im Schritt 310 zeigt, dass die Widerrufsbetätigung im Schritt 280 erkannt wurde, bedeutet dieses, dass die Betätigung, die hinsichtlich der Art der Betätigung, die durch den Insassen ausgewählt wurde, eingegeben wurde, widerrufen wurde. Die Steuerungsprozedur kehrt dann zum Schritt 180 zurück.
  • Wie es oben beschrieben ist, wird gemäß der Betätigungseingabevorrichtung der vorliegenden Erfindung ein dreidimensionales Bild zum Eingeben eines Betätigungsbefehls in einem virtuellen Raum vor einem Sitz eines Navigators oder Fahrers eines Fahrzeugs angezeigt. Wenn ein Insasse, der auf dem Sitz sitzt, seine Hand innerhalb des virtuellen Raumes bewegt, wird ein Betätigungsbefehl anhand einer Bewegung der Hand des Insassen erkannt, und der erkannte Betätigungsbefehl wird an eine zu betätigende fahrzeuginterne Einheit übertragen.
  • Mit der derart aufgebauten Betätigungseingabevorrichtung ist der Insasse in der Lage, einen gewünschten Betätigungsbefehl in Bezug auf die betätigte Einheit durch die Bewegung seiner Hand innerhalb des virtuellen Raumes einzugeben, während er visuell das im virtuellen Raum für die Eingabe des Betätigungsbefehls angezeigte dreidimensionale Bild bestätigt. Diese Prozedur verbessert die Nutzbarkeit der Betätigungseingabevorrichtung und schließt wirksam das Auftreten einer falschen Betätigung durch den Nutzer aus.
  • Das im virtuellen Raum angezeigte Betätigungsbefehleingabebild stellt derzeitige Betätigungsbedingungen der betätigten Einheit dar. Dementsprechend wird, wenn die betätigte Einheit entsprechend einem durch den Insassen eingegebenen Betätigungsbefehl gesteuert wird, das Betätigungsbefehleingabebild entsprechend dem Ergebnis der Steuerung erneuert. Dieser Aufbau ermöglicht es dem Insassen, Betätigungsbedingungen, die bei der betätigten Einheit anschließend an die Eingabe des Betätigungsbefehls auftreten, zu bestätigen. Außerdem kann sogar dann, wenn eine falsche Betätigung erfolgte, der Insasse gewünschte Betätigungsbedingungen der betätigten Einheit durch Wiederholen der Eingabe des Bestätigungsbefehls während der Beobachtung des Betätigungsbefehlseingabebildes leicht wiederherstellen. Dieses verbessert die Nutzbarkeit der Betätigungseingabevorrichtung noch weiter.
  • Um eine detaillierte Betätigung mehrerer fahrzeuginterner Einheiten (d. h. eine Klimaanlage, eine Navigationseinheit und eine Audioeinheit) zu ermöglichen, ist die Betätigungseingabevorrichtung mit drei unterschiedlichen Arten von Bildern, die im virtuellem Raum als dreidimensionale Bilder angezeigt werden, versehen. Die drei unterschiedlichen Arten von Bildern enthalten ein Bild zur Auswahl einer zu betätigenden Einheit, ein Bild zur Auswahl einer durchzuführenden Art der Betätigung hinsichtlich der betätigten Einheit und ein Bild für die Eingabe eines der ausgewählten Art von Betätigung entsprechenden Betätigungsbefehls. Diese Bilder werden als dreidimensionale Bilder innerhalb des virtuellen Raumes angezeigt. Durch schrittweise Änderung der Bilder kann der Insasse leicht eine gewünschte betätigte Einheit unter mehreren fahrzeuginternen Einheiten oder eine gewünscht Art der Betätigung unter vielen Arten der Betätigung auswählen.
  • In der dargestellten Ausführungsform bildet die durch die Betätigungseingabe-ECU 10 durchgeführte Steuerungsprozedur eine erfindungsgemäße Steuereinrichtung. Insbesondere bilden die Schritte 120, 130, 190, 200, 260 und 270, die zur Erkennung einer Bewegung und/oder Form der Hand des Insassen ausgeführt werden, und der Bildverarbeitungsabschnitt 26 in der Betätigungseingabe-ECU 10 eine erfindungsgemäße Erkennungseinrichtung.
  • Obwohl nur eine Ausführungsform der Erfindung beschrieben wurde, ist es selbstverständlich, dass andere Ausführungsformen und Modifikationen der Erfindung möglich sind.
  • In der dargestellten Ausführungsform ist die Erfindung zum Beispiel als eine Fahrzeugbetätigungseingabevorrichtung zur Betätigung mehrerer fahrzeuginterner Einheiten ausgeführt. Dieselben oben beschriebenen Wirkungen bzw. Vorteile können auch erzielt werden, wenn die Erfindung als eine Betätigungseingabevorrichtung ausgeführt ist, die ausgelegt ist, eine einzige fahrzeuginterne Einheit oder eine oder mehrere andere Einheiten als die fahrzeuginternen Einheiten zu betätigen.
  • Im letzteren Fall ist die Erfindung insbesondere vorteilhaft, wenn sie als ein Bahnfahrscheinverkaufsgerät ausgeführt ist, wobei der Nutzer Knöpfe auf einem Betätigungspaneel betätigen muss, während er auf andere Anzeigeeinrichtungen wie zum Beispiel eine Fahrpreistabelle guckt. Bei einer derartigen Anwendung ist es ersichtlich, dass das Bahnfahrscheinverkaufsgerät ausgelegt ist, eine als ein dreidimensionales Bild innerhalb eines virtuellen Raumes angezeigte Bahnkarte bereitzustellen, die Bahnkarte auf eine durch den Nutzer zur Bewegung der Bahnkarte unter Verwendung des dreidimensionalen Bildes durchgeführte Tätigkeit hin zu ändern und einen Fahrpreis anzuzeigen, wenn der Nutzer ein Endziel auf der angezeigten Bahnkarte identifiziert. Durch einen derartigen Aufbau des Bahnfahrkartenverkaufsgeräts kann der Nutzer eine gewünschte Bahnfahrkarte mit größerer Leichtigkeit im Vergleich zu herkömmlichen Bahnfahrkartenverkaufsgeräten kaufen.
  • Obwohl in der oben erläuterten Ausführungsform eine Beschreibung einer Steuerungsprozedur, die zur Betätigung der Navigationseinheit dient, weggelassen wurde, ist es ersichtlich, dass, wenn eine Karte auf einem Anzeigeschirm der Navigationseinheit zu ändern ist, eine Karte als ein dreidimensionales Bild im virtuellen Raum angezeigt und auf eine Tätigkeit des Insassen hin, die zur Bewegung der Karte auf dem dreidimensionalen Bild dient, geändert wird, wobei sich die Karte auf dem Anzeigeschirm der Navigationseinheit entsprechend ändert. Somit ändert sich, wenn der Insasse eine Betätigung zur Bezeichnung einer Ansicht auf dem dreidimensionalen Bild durchführt, die Karte auf der Navigationseinheit entsprechend der gewünschten Ansicht.
  • In der dargestellten Ausführungsform ist die Bildaufnahmevorrichtung 6 als eine einzige Bildaufnahmevorrichtung beschrieben. Dieses kommt daher, dass die Position eines Insassen, der z.B. auf einem Fahrersitz des Fahrzeugs sitzt, im Allgemeinen festgelegt ist und sich nicht großartig ändert, so dass nur die Verwendung eines Bildes, das von einer einzigen Richtung aufgenommen wird, Bewegungen einer Hand des Insassen identifizieren kann. Wenn die Erfindung für eine Vorrichtung angewendet wird, bei der die Position eines Nutzers nicht festgelegt ist, werden mehrere Bildaufnahmevorrichtungen verwendet, um eine entsprechende Anzahl von Bildern des Nutzers aufzunehmen, so dass eine Bewegung einer Hand eines Nutzers auf der Grundlage der aufgenommenen Bilder erkannt wird.
  • Auf ähnliche Weise ist es im Falle einer Betätigungseingabevorrichtung, bei der die Position des Nutzers nicht festgelegt ist und sich die Position der Augen des Nutzers stark verändern, schwierig, ein dreidimensionales Bild innerhalb eines virtuellen Raumes zur Betätigung durch den Nutzer genau anzuzeigen. In diesem Fall ist es vorteilhaft, die Position des Nutzers (noch genauer die Position der Augen des Nutzers) zu erfassen und eine Parallaxe von stereoskopischen Bildern, die auf dem Flüssigkristallanzeigenpaneel einer Flüssigkristallanzeige anzuzeigen sind, auf der Grundlage eines Erfassungsergebnisses einzustellen.
  • Die in der dargestellten Ausführungsform beschriebene Flüssigkristallanzeige 2, die einen notwendigen Teil der dreidimensionalen Bildanzeigeeinrichtung bildet, dient nur zum Zwecke der Erläuterung und ist nicht als einschränkend zu betrachten. Die dreidimensionale Bildanzeigeeinrichtung kann andere Arten von Anzeigen beinhalten, solange sie dem Nutzer ein dreidimensionales Bild anzeigen können. Gemäß einem Beispiel derartiger Anzeigen werden ein Bild für ein linkes Auge und ein Bild für ein rechtes Auge Seite an Seite auf einem einzigen Flüssigkristallanzeigepaneel angezeigt, und die Richtung der Anzeige der Bilder wird durch einen Schalter wie zum Beispiel eine Flüssigkristallblende gewechselt, so dass die jeweiligen Bilder durch die entsprechenden Augen des Nutzers gesehen werden. In einem anderen Beispiel wird ein besonderes Okular (eyeglass) verwendet, um ein dreidimensionales Bild zu beobachten.
  • Es sind verschiedene kleinere Änderungen und Modifikationen innerhalb der obigen Lehre denkbar. Selbstverständlich kann die vorliegende Erfindung innerhalb des Bereiches der zugehörigen Ansprüche anders als wie es oben speziell beschrieben ist ausgeführt sein.

Claims (3)

  1. Betätigungseingabevorrichtung, die aufweist: eine Bildanzeigeeinrichtung zum Anzeigen eines dreidimensionalen Bildes in einem vorbestimmten virtuellen Raum; eine oder mehrere Bildaufnahmeeinrichtungen zum Aufnehmen eines Bildes in einem Bereich einschließlich dem virtuellen Raum; eine Erkennungseinrichtung zum Erkennen einer Bewegung einer Hand eines Nutzers innerhalb des virtuellen Raumes anhand des von der Bildaufnahmeeinrichtung aufgenommenen Bildes; und eine Steuereinrichtung zum Ansteuern der Bildanzeigeeinrichtung, um ein dreidimensionales Bild zur Betätigung einer zu betätigenden Vorrichtung anzuzeigen, zum Identifizieren eines durch den Nutzer ausgegebenen Betätigungsbefehls anhand der Bewegung der Hand des Nutzers, die durch die Erkennungseinrichtung erkannt wird, während das dreidimensionale Bild angezeigt wird, zum Veranlassen, dass sich das dreidimensionale Bild, das durch die Bildanzeigeeinrichtung angezeigt wird, entsprechend dem identifizierten Betätigungsbefehl ändert, und zum Ausgeben des Betätigungsbefehls an die zu betätigende Vorrichtung.
  2. Betätigungseingabevorrichtung nach Anspruch 1, wobei die Steuereinrichtung vor der Ansteuerung der Bildanzeigeeinrichtung zum Anzeigen des dreidimensionalen Bildes zur Betätigung der zu betätigenden Vorrichtung die Bildanzeigeeinrichtung zum Anzeigen eines dreidimensionales Bildes ansteuert, um es einem Nutzer zu ermöglichen, eine Auswahl einer zu betätigenden Vorrichtung oder einer Art einer Betätigung einer zu betätigenden Vorrichtung durchzuführen, die zu betätigende Vorrichtung oder die Art der Betätigung, die durch den Nutzer ausgewählt wird, anhand der Bewegung der Hand des Nutzers, die durch die Erkennungseinrichtung erkannt wird, identifiziert, während das dreidimensionale Bild angezeigt wird, und anschließend entsprechend einem Ergebnis der Erkennung die Bildanzeigeeinrichtung ansteuert, um ein dreidimensionales Bild zur Betätigung der zu betätigenden Vorrichtung anzuzeigen.
  3. Betätigungseingabevorrichtung nach Anspruch 1 oder 2, wobei die Betätigungseingabevorrichtung eine Vorrichtung ist, die durch einen Insassen eines Fahrzeugs zur Betätigung einer fahrzeuginternen Einheit betätigbar ist, wobei die Bildanzeigeeinrichtung vor einem Sitz des Fahrzeugs angeordnet und ausgelegt ist, das dreidimensionale Bild einem Insassen, der auf dem Sitz sitzt, anzuzeigen, wobei der virtuelle Raum durch einen Raum ausgebildet ist, in den der Insasse des Sitzes seine Hand Strecken kann, und wobei die Bildaufnahmeeinrichtung zusammen mit der dreidimensionalen Bildanzeigeeinrichtung vor dem Sitz des Fahrzeugs angeordnet und ausgelegt ist, ein Bild des Insassen des Sitzes von vorne vor dem Insassen aus aufzunehmen.
DE102004022494A 2003-05-08 2004-05-07 Betätigungseingabevorrichtung Ceased DE102004022494A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003/130593 2003-05-08
JP2003130593A JP2004334590A (ja) 2003-05-08 2003-05-08 操作入力装置

Publications (1)

Publication Number Publication Date
DE102004022494A1 true DE102004022494A1 (de) 2004-12-02

Family

ID=33308230

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004022494A Ceased DE102004022494A1 (de) 2003-05-08 2004-05-07 Betätigungseingabevorrichtung

Country Status (4)

Country Link
US (1) US20040254699A1 (de)
JP (1) JP2004334590A (de)
DE (1) DE102004022494A1 (de)
FR (1) FR2854697A1 (de)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005017313A1 (de) * 2005-04-14 2006-10-19 Volkswagen Ag Verfahren zur Darstellung von Informationen in einem Verkehrsmittel und Kombiinstrument für ein Kraftfahrzeug
DE102005059449A1 (de) * 2005-12-13 2007-06-14 GM Global Technology Operations, Inc., Detroit Bediensystem zum Bedienen von Funktionen in einem Fahrzeug
DE102006032117A1 (de) * 2006-07-12 2008-01-24 Volkswagen Ag Informationssystem für ein Verkehrsmittel und Verfahren zum Steuern eines solchen Informationssystems
EP2018992A1 (de) * 2007-07-27 2009-01-28 Continental Automotive GmbH Kraftfahrzeugcockpit
DE102009043351A1 (de) * 2009-09-29 2011-04-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Erzeugen eines Stereobilds durch eine Projektionseinheit für ein Head-Up-Display und Projektionseinheit für ein Head-Up-Display
DE102011112618A1 (de) * 2011-09-08 2013-03-14 Eads Deutschland Gmbh Interaktion mit einem dreidimensionalen virtuellen Szenario
DE102012203163A1 (de) * 2012-02-29 2013-08-29 Airbus Operations Gmbh Vorrichtung und Verfahren zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine
WO2018083218A1 (en) * 2016-11-03 2018-05-11 Visteon Global Technologies, Inc. User interface and method for the input and output of information in a vehicle
DE102017117223A1 (de) * 2017-07-31 2019-01-31 Hamm Ag Arbeitsmaschine, insbesondere Nutzfahrzeug
DE102017219155A1 (de) * 2017-10-25 2019-04-25 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Funktionsauslösung auf beliebigen Flächen
DE102018206570A1 (de) * 2018-04-27 2019-10-31 Bayerische Motoren Werke Aktiengesellschaft Holografische Anzeige-Bedienvorrichtung und Verfahren für den Betrieb einer holografischen Anzeige-Bedienvorrichtung
DE102018221797A1 (de) * 2018-12-14 2020-06-18 Volkswagen Aktiengesellschaft Benutzerschnittstelle eines Fahrzeugs und Verfahren zur Konfiguration und Steuerung der Benutzerschnittstelle
CN111845589A (zh) * 2019-04-30 2020-10-30 大众汽车有限公司 带有用户界面的车辆
DE102019217703A1 (de) * 2019-11-18 2021-06-02 Volkswagen Aktiengesellschaft Fahrzeugsitz
WO2023110353A1 (fr) * 2021-12-16 2023-06-22 Renault S.A.S. Système d'affichage de véhicules

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1708010A1 (de) * 2005-03-28 2006-10-04 Kabushiki Kaisha Toshiba Bildanzeigevorrichtung
JP4788199B2 (ja) * 2005-05-31 2011-10-05 日産自動車株式会社 コマンド入力装置
JP4389855B2 (ja) 2005-09-05 2009-12-24 トヨタ自動車株式会社 車両用操作装置
US20070057912A1 (en) * 2005-09-14 2007-03-15 Romriell Joseph N Method and system for controlling an interface of a device through motion gestures
JP4640604B2 (ja) * 2005-09-26 2011-03-02 マツダ株式会社 車両用情報表示装置
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
JPWO2007049664A1 (ja) 2005-10-26 2009-04-30 日本板硝子株式会社 車載空間画像表示装置
DE102006037156A1 (de) * 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
US8094189B2 (en) 2007-01-30 2012-01-10 Toyota Jidosha Kabushiki Kaisha Operating device
JP4356763B2 (ja) * 2007-01-30 2009-11-04 トヨタ自動車株式会社 操作装置
JP2008219788A (ja) * 2007-03-07 2008-09-18 Toshiba Corp 立体画像表示装置、方法およびプログラム
DE102007039444A1 (de) * 2007-08-21 2009-02-26 Volkswagen Ag Verfahren zum Anzeigen von Informationen in einem Kraftfahrzeug und Anzeigeeinrichtung für ein Kraftfahrzeug
JP5526518B2 (ja) * 2008-09-23 2014-06-18 株式会社デンソー 車室内空中表示装置
US20110063425A1 (en) * 2009-09-15 2011-03-17 Delphi Technologies, Inc. Vehicle Operator Control Input Assistance
KR101651568B1 (ko) 2009-10-27 2016-09-06 삼성전자주식회사 3차원 공간 인터페이스 장치 및 방법
JP4900741B2 (ja) * 2010-01-29 2012-03-21 島根県 画像認識装置および操作判定方法並びにプログラム
JP4852159B2 (ja) * 2010-02-24 2012-01-11 株式会社東芝 画像処理装置、画像処理方法および空調制御装置
JP5740822B2 (ja) 2010-03-04 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
EP2372512A1 (de) * 2010-03-30 2011-10-05 Harman Becker Automotive Systems GmbH Fahrzeug-Benutzeroberflächeneinheit für eine elektronische Fahrzeugvorrichtung
US20120056989A1 (en) * 2010-09-06 2012-03-08 Shimane Prefectural Government Image recognition apparatus, operation determining method and program
JP5864043B2 (ja) * 2011-04-12 2016-02-17 シャープ株式会社 表示装置、操作入力方法、操作入力プログラム、及び記録媒体
JP2013033344A (ja) * 2011-08-01 2013-02-14 Yazaki Corp 表示装置
US20130204457A1 (en) * 2012-02-06 2013-08-08 Ford Global Technologies, Llc Interacting with vehicle controls through gesture recognition
KR101318244B1 (ko) 2012-02-29 2013-10-15 한국과학기술연구원 3차원 사용자 인터페이스 구현 시스템 및 구현 방법
JP5871345B2 (ja) 2012-07-27 2016-03-01 Necソリューションイノベータ株式会社 3次元ユーザインタフェース装置及び3次元操作方法
KR101438615B1 (ko) 2012-12-18 2014-11-03 현대자동차 주식회사 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템 및 방법
US20140188527A1 (en) * 2012-12-31 2014-07-03 Stubhub, Inc. Enhanced Two-Dimensional Seat Map
KR102091028B1 (ko) * 2013-03-14 2020-04-14 삼성전자 주식회사 사용자 기기의 오브젝트 운용 방법 및 장치
US20140368425A1 (en) * 2013-06-12 2014-12-18 Wes A. Nagara Adjusting a transparent display with an image capturing device
DE102014108656B4 (de) 2013-07-03 2018-07-12 Visteon Global Technologies, Inc. Anpassen einer transparenten Anzeige mit einer Bilderfassungsvorrichtung
JP6245690B2 (ja) * 2013-10-25 2017-12-13 シャープ株式会社 画像形成装置
CN103529947A (zh) * 2013-10-31 2014-01-22 京东方科技集团股份有限公司 显示装置及其控制方法、手势识别方法
KR101542986B1 (ko) 2013-12-19 2015-08-07 현대자동차 주식회사 홀로그램을 이용한 제스처 인식 시스템 및 그 제어 방법
US9841844B2 (en) * 2014-06-20 2017-12-12 Funai Electric Co., Ltd. Image display device
KR101556521B1 (ko) * 2014-10-06 2015-10-13 현대자동차주식회사 휴먼 머신 인터페이스 장치, 그를 가지는 차량 및 그 제어 방법
GB2533777A (en) * 2014-12-24 2016-07-06 Univ Of Hertfordshire Higher Education Corp Coherent touchless interaction with steroscopic 3D images
CN106155289A (zh) * 2015-04-14 2016-11-23 鸿富锦精密工业(深圳)有限公司 车辆控制系统及其操作方法
JP6465197B2 (ja) * 2017-12-12 2019-02-06 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2770403B2 (ja) * 1989-04-21 1998-07-02 日本電気株式会社 双方向リモコン
JPH0346724A (ja) * 1989-07-14 1991-02-28 Aisin Seiki Co Ltd スイッチ装置
JPH08115193A (ja) * 1994-10-14 1996-05-07 Fuji Xerox Co Ltd 画像処理装置
JP3777650B2 (ja) * 1995-04-28 2006-05-24 松下電器産業株式会社 インターフェイス装置
JPH09190278A (ja) * 1996-01-09 1997-07-22 Mitsubishi Motors Corp 機器の操作系選択装置
JP3733557B2 (ja) * 1996-02-16 2006-01-11 公佑 橋本 立体映像表示装置
JPH10105735A (ja) * 1996-09-30 1998-04-24 Terumo Corp 入力装置及び画像表示システム
JPH10207620A (ja) * 1997-01-28 1998-08-07 Atr Chinou Eizo Tsushin Kenkyusho:Kk 立体インタラクション装置および立体インタラクション方法
JPH10224875A (ja) * 1997-02-06 1998-08-21 Matsushita Electric Ind Co Ltd 機能制御方法
JP3795647B2 (ja) * 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
US6195104B1 (en) * 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
JP2000075991A (ja) * 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
JP2000099237A (ja) * 1998-09-24 2000-04-07 Toshiba Corp 表示・入力装置
JP2001092575A (ja) * 1999-09-20 2001-04-06 Nec Corp 視覚的接続機器制御方式とその方法
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
US20020140633A1 (en) * 2000-02-03 2002-10-03 Canesta, Inc. Method and system to present immersion virtual simulations using three-dimensional measurement
WO2002015560A2 (en) * 2000-08-12 2002-02-21 Georgia Tech Research Corporation A system and method for capturing an image
LU90675B1 (de) * 2000-11-10 2002-05-13 Iee Sarl Verfahren zum Steuern von Geraeten
JP2002236534A (ja) * 2001-02-13 2002-08-23 Mitsubishi Motors Corp 車載機器操作装置
JP4769397B2 (ja) * 2001-09-28 2011-09-07 クラリオン株式会社 車載用情報機器
CN100578151C (zh) * 2002-03-15 2010-01-06 三菱电机株式会社 车辆用导航装置

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11091036B2 (en) 2005-04-14 2021-08-17 Volkswagen Ag Method for representing items of information in a means of transportation and instrument cluster for a motor vehicle
DE102005017313A1 (de) * 2005-04-14 2006-10-19 Volkswagen Ag Verfahren zur Darstellung von Informationen in einem Verkehrsmittel und Kombiinstrument für ein Kraftfahrzeug
DE102005059449A1 (de) * 2005-12-13 2007-06-14 GM Global Technology Operations, Inc., Detroit Bediensystem zum Bedienen von Funktionen in einem Fahrzeug
DE102006032117A1 (de) * 2006-07-12 2008-01-24 Volkswagen Ag Informationssystem für ein Verkehrsmittel und Verfahren zum Steuern eines solchen Informationssystems
EP2018992A1 (de) * 2007-07-27 2009-01-28 Continental Automotive GmbH Kraftfahrzeugcockpit
DE102009043351A1 (de) * 2009-09-29 2011-04-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Erzeugen eines Stereobilds durch eine Projektionseinheit für ein Head-Up-Display und Projektionseinheit für ein Head-Up-Display
DE102011112618A1 (de) * 2011-09-08 2013-03-14 Eads Deutschland Gmbh Interaktion mit einem dreidimensionalen virtuellen Szenario
DE102012203163A1 (de) * 2012-02-29 2013-08-29 Airbus Operations Gmbh Vorrichtung und Verfahren zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine
WO2018083218A1 (en) * 2016-11-03 2018-05-11 Visteon Global Technologies, Inc. User interface and method for the input and output of information in a vehicle
DE102017117223A1 (de) * 2017-07-31 2019-01-31 Hamm Ag Arbeitsmaschine, insbesondere Nutzfahrzeug
US11697921B2 (en) 2017-07-31 2023-07-11 Hamm Ag Methods, systems, apparatus, and articles of manufacture to control a holographic display of a vehicle
DE102017219155A1 (de) * 2017-10-25 2019-04-25 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Funktionsauslösung auf beliebigen Flächen
DE102018206570A1 (de) * 2018-04-27 2019-10-31 Bayerische Motoren Werke Aktiengesellschaft Holografische Anzeige-Bedienvorrichtung und Verfahren für den Betrieb einer holografischen Anzeige-Bedienvorrichtung
DE102018221797A1 (de) * 2018-12-14 2020-06-18 Volkswagen Aktiengesellschaft Benutzerschnittstelle eines Fahrzeugs und Verfahren zur Konfiguration und Steuerung der Benutzerschnittstelle
DE102019206196A1 (de) * 2019-04-30 2020-11-05 Volkswagen Aktiengesellschaft Fahrzeug mit einer Benutzerschnittstelle
CN111845589A (zh) * 2019-04-30 2020-10-30 大众汽车有限公司 带有用户界面的车辆
CN111845589B (zh) * 2019-04-30 2024-07-02 大众汽车有限公司 带有用户界面的车辆
DE102019217703A1 (de) * 2019-11-18 2021-06-02 Volkswagen Aktiengesellschaft Fahrzeugsitz
WO2023110353A1 (fr) * 2021-12-16 2023-06-22 Renault S.A.S. Système d'affichage de véhicules
FR3130702A1 (fr) * 2021-12-16 2023-06-23 Renault S.A.S Système d’affichage de véhicules automobiles

Also Published As

Publication number Publication date
US20040254699A1 (en) 2004-12-16
JP2004334590A (ja) 2004-11-25
FR2854697A1 (fr) 2004-11-12

Similar Documents

Publication Publication Date Title
DE102004022494A1 (de) Betätigungseingabevorrichtung
DE69816688T2 (de) Perspektivsteuerung für Videospielbilder
DE112011102645B4 (de) Steuerungsvorrichtung für eine Formmaschine und Herstellungsverfahren für geformte Artikel
DE29720443U1 (de) Kalibration einer Handstellung und Auswahl eines virtuellen Bildes für einen Virtual-Reality-Fahrzeugsimulator
DE102007023140A1 (de) Verfahren zur Erkennung und/oder Identifizierung eines Fahrers eines Kraftfahrzeugs und/oder einer Person im Bereich eines Kraftfahrzeugs sowie zugehöriges Kraftfahrzeug
DE102016220979A1 (de) Verfahren und Vorrichtung zum Steuern eines Betriebs eines Seiten- und Hecküberwachungs-Kamerasystems
EP2653335B1 (de) Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs
WO2009132617A1 (de) Vorrichtung und verfahren zum erfassen und anzeigen des rückwärtigen und/oder seitlichen umfeldes eines kraftfahrzeugs
EP3688515B1 (de) Verfahren zum betreiben einer am kopf tragbaren elektronischen anzeigeeinrichtung und anzeigesystem zum anzeigen eines virtuellen inhalts
WO2021023468A1 (de) Vorrichtung und verfahren zur steuerung eines beifahrersitzes in einem fahrzeug
WO2017153355A1 (de) Verfahren und vorrichtung zum durchführen einer blickabbildung
DE102017211521A1 (de) Steuerung von Fahrzeugfunktionen aus einer virtuellen Realität
EP1569823A1 (de) Verfahren und vorrichtung zur bestimmung der 3d-position von pkw-insassen
DE102023003240A1 (de) Verfahren und System zum automatischen Einstellen einer Fahrzeug-Klimaanlage
DE102018127880A1 (de) Gestenbestimmungsvorrichtung und Programm
DE102013005489A1 (de) Verfahren und Vorrichtung zur automatischen Fehlerstellenerkennung bei biegeschlaffen Körpern
DE4226219C2 (de) Musterdatenverarbeitungsvorrichtung für eine Nähmaschine
DE102020101286A1 (de) Berührungsfreie betriebsvorrichtung für fahrzeuge und fahrzeug
DE102017117094A1 (de) Individualisierbare Darstellung einer Umgebung eines Kraftfahrzeugs durch eine Fahrerassistenzvorrichtung
DE102017206312A1 (de) Unterstützung einer Handhabung eines innerhalb eines Fahrgastinnenraums befindlichen Gegenstands sowie Kraftfahrzeug
DE102020203555A1 (de) Audiosteuersystem und audiosteuerverfahren
DE102020201520B4 (de) Vorrichtung und Verfahren zur haptischen Interaktion eines Fahrzeuginsassen mit einem Fahrzeug
DE102019125918A1 (de) Insassenüberwachungseinrichtung, Insassenüberwachungsverfahren und Insassenüberwachungsprogramm
DE102020134814A1 (de) Vorrichtung zum Überwachen von Umgebungen eines Fahrzeugs
DE102021100895A1 (de) Fahrzeuginsassenüberwachungsvorrichtung

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R016 Response to examination communication
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final
R016 Response to examination communication
R003 Refusal decision now final

Effective date: 20110903