DE112010005947T5 - Stereoskopische Dreidimensionen-Anzeigevorrichtung - Google Patents

Stereoskopische Dreidimensionen-Anzeigevorrichtung Download PDF

Info

Publication number
DE112010005947T5
DE112010005947T5 DE112010005947T DE112010005947T DE112010005947T5 DE 112010005947 T5 DE112010005947 T5 DE 112010005947T5 DE 112010005947 T DE112010005947 T DE 112010005947T DE 112010005947 T DE112010005947 T DE 112010005947T DE 112010005947 T5 DE112010005947 T5 DE 112010005947T5
Authority
DE
Germany
Prior art keywords
dimensional
stereoscopic display
image
screen
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112010005947T
Other languages
English (en)
Inventor
Mitsuo Shimotani
Takeo Sakairi
Eriko Toma
Makoto Mikuriya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112010005947T5 publication Critical patent/DE112010005947T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/265Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network constructional aspects of navigation devices, e.g. housings, mountings, displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Navigation (AREA)
  • Position Input By Displaying (AREA)

Abstract

Offenbart ist eine stereoskopischen Dreidimensionen-Anzeigevorrichtung mit einem stereoskopischen Anzeigemonitor 6 zum Anzeigen eines Rechtes-Auge-Bildes oder Videobildes und eines Linke-Auge-Bildes oder Videobildes für eine dreidimensionale stereoskopische Anzeige eines Bedienungsoperationsbildschirms in einer dreidimensionalen stereoskopischen Art und Weise, einem dreidimensionalen Berührungsfeld 22, angeordnet an einem Bildschirm des stereoskopischen Anzeigemonitors 6, zum Erfassen einer Relativposition eines Zeigeobjekts relativ zu einer Berührungsoberfläche davon, wobei das Zeigeobjekt zum Durchführen einer Berührungsoperation an dem Bedienungsoperationsbildschirm verwendet wird, der an dem Bildschirm des stereoskopischen Anzeigemonitors 6 in einer dreidimensionalen stereoskopischen Art und Weise angezeigt ist, einer Bildschirmzusammenfügungs-Verarbeitungseinheit 4 zum Erzeugen des Rechtes-Auge-Bildes oder Videobildes und des Linkes-Auge-Bildes oder Videobildes für eine dreidimensionale stereoskopische Anzeige, bei der eine virtuelle Anzeigeoberfläche R für eine dreidimensionale stereoskopische Anzeige eines Icon-Bildes, wobei es sich um ein Bedienungsoperationsziel an dem Bedienungsoperationsbildschirm handelt, eingestellt ist, um an einer vorderen Position bezüglich des Bildschirms Q des stereoskopischen Anzeigemonitors 6 platziert zu sein, und einer Haupt-CPU 4a zum Bestimmen, dass das Icon-Bild betätigt bzw. bedient wird, wenn die dreidimensionale Berührungsfeldeinheit 22 ein Zeigeobjekt erfasst, das zum Durchführen einer Berührungsoperation an dem Icon-Bild verwendet wird.

Description

  • ERFINDUNGSGEBIET
  • Die vorliegende Erfindung betrifft eine stereoskopische Dreidimensionen-Anzeigevorrichtung, die ein dreidimensionales stereoskopisches Bild oder einen stereoskopischen Dreidimensionen-Film anzeigt.
  • HINTERGRUND DER ERFINDUNG
  • Eine herkömmliche stereoskopische Anzeigevorrichtung, die durch Patentreferenz 1 offenbart ist, stellt ein dreidimensionales stereoskopisches Bild bereit, das im Wesentlichen für den häuslichen Bedarf beabsichtigt ist. Da diese stereoskopische Anzeigevorrichtung es dem Nutzer ermöglicht, einen dreidimensionalen stereoskopischen Film zu sehen, ohne stereoskopische Ansichts- bzw. Betrachtungsbrillen zu tragen, bietet die stereoskopische Anzeigevorrichtung dem Nutzer einen hohen Komfort. Die stereoskopische Anzeigevorrichtung ist z. B. zur Verwendung als Content- bzw. Inhalts-Wiedergabevorrichtung oder eine RSE-(engl. Rear Seat Entertainment)Anzeigevorrichtung für Rücksitze geeignet. Die stereoskopische Anzeigevorrichtung ist auch zur Verwendung in einem Steuersystem unter Verwendung von FA (engl. Factory Automation) oder Bildanzeige eignet.
  • Dokumente im Stand der Technik
    • Patentreferenz 1: japanische ungeprüfte Patentanmeldung mit der Veröffentlichungsnummer 2005-175566
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Ein Problem, das in dem Fall auftritt, wenn eine herkömmliche Technologie, repräsentiert durch eine in der Patentreferenz 1 offenbarte Technologie, für eine dreidimensionale stereoskopische Anzeige eines Icons bzw. eines Bildzeichens oder einer Schaltfläche angewendet wird besteht darin, dass eine Möglichkeit besteht, dass eine Nutzerbedienungsoperation, die an einem Icon oder Dergleichen durchgeführt wird, das in einer dreidimensionalen stereoskopischen Art und Weise angezeigt wird, nicht akzeptiert wird, da zwischen einem virtuellen Positionsraum, in dem der Icon oder die Schaltfläche in einer dreidimensionalen stereoskopischen Art und Weise angezeigt wird, und einer Bedienungsoperations-Eingabeeinheit zur tatsächlichen Akzeptierung einer Bedienungsoperation an dem Icon oder der Schaltfläche ein entsprechender Zusammenhang nicht klar definiert ist. Da insbesondere die virtuelle Anzeige des Icons oder der Schaltfläche in einer dreidimensionalen stereoskopischen Art und Weise und ein Hardware-Schalter oder eine Berührungsfeldoberfläche für die tatsächliche Akzeptierung einer Bedienungsoperation an dem Icon oder der Schaltfläche an unterschiedlichen Positionen oder in unterschiedlichen Räumen existiert bewirkt die herkömmliche Technologie, dass der Nutzer das Gefühl bekommt, dass etwas nicht in Ordnung ist.
  • Die vorliegende Erfindung dient zur Lösung des oben erwähnten Problems, und eine Aufgabe der vorliegenden Erfindung besteht daher in der Bereitstellung einer stereoskopischen Dreidimensionen-Anzeigevorrichtung, die eine HMI (engl. Human Machine Interface) mit einer dreidimensionalen stereoskopische Anzeige bereitstellt, die es dem Nutzer ermöglicht, eine Bedienungsoperation durchzuführen, die mit der Intuition des Nutzers übereinstimmt.
  • Gemäß der vorliegenden Erfindung wird eine stereoskopischen Dreidimensionen-Anzeigevorrichtung bereitgestellt, umfassend: eine stereoskopische Anzeigemonitoreinheit zum Anzeigen eines Rechtes-Auge-Bildes oder Videobildes und eines Linkes-Auge-Bildes oder Videobildes für eine dreidimensionale stereoskopische Anzeige eines Bedienungsoperationsbildschirms in einer dreidimensionalen stereoskopischen Art und Weise; eine Berührungsfeldeinheit, angeordnet an einem Bildschirm der stereoskopischen Anzeigemonitoreinheit, zum Erfassen einer Relativposition eines Zeigeobjekts relativ zu einer Berührungsoberfläche davon, wobei das Zeigeobjekt verwendet wird zum Durchführen einer Berührungsoperation an dem Bedienungsoperationsbildschirm, der an dem Bildschirm der stereoskopischen Anzeigemonitoreinheit in einer dreidimensionalen stereoskopischen Art und Weise angezeigt wird; eine Bildschirmzusammenfügungs-Verarbeitungseinheit zum Erzeugen des Rechtes-Auge-Bildes oder Videobildes und des Linkes-Auge-Bildes oder Videobildes für eine dreidimensionale stereoskopische Anzeige, bei der eine virtuelle Anzeigeoberfläche für eine dreidimensionale stereoskopische Anzeige eines Icon-Bildes, wobei es sich um ein Bedienungsoperationsziel handelt, auf dem Bedienungsoperationsbildschirm derart eingestellt ist, um an einer vorderen Position bezüglich des Bildschirms der stereoskopischen Anzeigemonitoreinheit platziert zu sein; und eine Steuereinheit zum Bestimmen, dass das Icon-Bild betätigt wird, wenn die Berührungsfeldeinheit ein Zeigeobjekt erfasst, das zum Durchführen einer Berührungsoperation an dem Icon-Bild verwendet wird.
  • Gemäß der vorliegenden Erfindung wird ein Vorteil bereitgestellt, der darin besteht, dass eine HMI mit einer dreidimensionalen stereoskopische Anzeige bereitgestellt werden kann, die es einem Nutzer ermöglicht, eine Bedienungsoperation durchzuführen, die mit der Intuition des Nutzers übereinstimmt.
  • KURZE BESCHREIBUNG DER FIGUREN
  • 1 ist ein Blockdiagramm zur Darstellung eines Beispiels der Struktur eines stereoskopischen Anzeigesystems, das eine stereoskopische Dreidimensionen-Anzeigevorrichtung gemäß der vorliegenden Erfindung verwendet;
  • 2 ist eine Ansicht zur Erläuterung des Prinzips hinter einer stereoskopischen Anzeige in einem stereoskopischen Anzeigemonitor;
  • 3 ist ein Blockdiagramm zur Darstellung der Struktur eines Fahrzeuginformationssystems, das die stereoskopische Dreidimensionen-Anzeigevorrichtung in Ausführungsform 1 der vorliegenden Erfindung verwendet;
  • 4 ist eine Ansicht zur Darstellung einer Struktur eines dreidimensionalen Berührungsfelds;
  • 5 ist eine Ansicht zur Erläuterung eines Bildschirmzusammenführungsprozesses zum Platzieren einer virtuellen Anzeige einer Ebenen Karte an einer hinteren Position bezüglich einer Berührungsoberfläche des dreidimensionalen Berührungsfelds;
  • 6 ist eine Ansicht zur Darstellung eines Datenflusses in dem Bildschirmzusammenführungsprozess gemäß 5;
  • 7 ist ein Flussdiagramm zur Darstellung eines Ablaufs des Bildschirmzusammenführungsprozesses, der durch die stereoskopische Dreidimensionen-Anzeigevorrichtung gemäß Ausführungsform 1 ausgeführt wird;
  • 8 ist eine Ansicht zum Erläutern eines Bildschirmzusammenführungsprozesses zum Platzieren einer virtuellen Anzeige einer Ebenen Karte an einer hinteren Position bezüglich der Berührungsoberfläche, und zum Platzieren einer virtuellen Anzeigeoberfläche von Icons an einer vorderen Position bezüglich der Berührungsoberfläche;
  • 9 ist eine Ansicht zur Darstellung eines Datenflusses in dem Bildschirmzusammenführungsprozess gemäß 8;
  • 10 ist eine Ansicht zur Darstellung eines Beispiels 1 der Anzeige von stereoskopischen Bild-Icons gemäß einer Nutzerbedienungsoperation;
  • 11 ist eine Ansicht zur Darstellung eines Beispiels 2 der Anzeige der stereoskopischen Bild-Icons gemäß einer Nutzerbedienungsoperation; und
  • 12 ist eine Ansicht zur Darstellung eines Beispiels 3 der Anzeige eines stereoskopischen Bild-Icons gemäß einer Nutzerbedienungsoperation.
  • AUSFÜHRUNGSFORMEN DER ERFINDUNG
  • Im Folgenden werden zur detaillierten Erläuterung dieser Erfindung die bevorzugten Ausführungsformen der vorliegenden Erfindung mit Bezug auf die begleitenden Zeichnungen erläutert.
  • Ausführungsform 1
  • 1 ist ein Blockdiagramm zur Darstellung eines Beispiels der Struktur eines stereoskopischen Anzeigesystems, das eine stereoskopische Dreidimensionen-Anzeigevorrichtung gemäß der vorliegenden Erfindung verwendet. 1(a) zeigt das stereoskopische Anzeigesystem 1A, das ein stereoskopisches Videobild auf der Grundlage von rechten und linken Videobildern anzeigt, die unter Verwendung von Kameras für beide Augen aufgenommen wurden. Bezug nehmend auf 1(a) ist das stereoskopische Anzeigesystem 1A bereitgestellt mit einer Linkes-Auge-Kamera 2a, einer Rechtes-Auge-Kamera 2b, eine Aufzeichnungs- und Bildaufnahmevorrichtung 3, einer Bildschirmzusammenfügungs-Verarbeitungseinheit 4, einer Videobild-Wiedergabevorrichtung 5 und einem stereoskopischen Anzeigemonitor 6. Die Linkes-Auge-Kamera 2a und die Rechtes-Auge-Kamera 2b sind in einem Intervall angeordnet, dass die Parallaxendifferenz zwischen den zwei Augen berücksichtigt, und nimmt eine Szene A auf, wobei es sich um einen aufzunehmenden Gegenstand handelt, unter Steuerung der Aufzeichnungs- und Bildaufnahmevorrichtung 3. Rechte und linke Videodaten bezüglich der Szene A, aufgenommen durch die Linkes-Auge-Kamera 2a und die Rechtes-Auge-Kamera 2b, werden in der Aufzeichnungs- und Bildaufnahmevorrichtung 3 aufgezeichnet. Die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 führt einen dreidimensionalen stereoskopischen Videobild-Zusammenfügungsprozess an den rechten und linken Videodaten aus, die von der Aufzeichnungs- und Bildaufnahmevorrichtung 3 gelesen werden, wobei der dreidimensionale stereoskopische Bildzusammenfügungsprozess spezifisch für die vorliegende Erfindung ist, und gibt die rechten und linken Videodaten, die derart verarbeitet werden, an die Videobild-Wiedergabevorrichtung 5 aus. Die Videobild-Wiedergabevorrichtung 5 gibt die rechten und linken Videodaten wieder, die durch die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 verarbeitet werden, und gibt dann die rechten und linken Videodaten, die derart wiedergegeben werden, an den stereoskopischen Anzeigemonitor 6 aus. Der stereoskopische Anzeigemonitor 6 zeigt die rechten und linken Videodaten, die durch die Videobild-Wiedergabevorrichtung 5 wiedergegeben werden, in einer stereoskopischen Art und Weise an, wenn diese von einem Betrachter betrachtet werden.
  • Eine in 1(b) gezeigtes stereoskopisches Anzeigesystem 1B ist bereitgestellt mit einem stereoskopischen Videobild-Inhaltsempfänger 7, der über eine Antenne 7a mit einer externen Vorrichtung kommuniziert, einer Bildzusammenfügungs-Verarbeitungseinheit 4, einer Videobild-Wiedergabevorrichtung 5 und einem stereoskopischen Anzeigemonitor 6. Der stereoskopische Videobild-Inhaltsempfänger 7 empfängt einen stereoskopischen Videobild-Inhalt bzw. Videobild-Content, einschließlich rechter und linker Videodaten wie oben erwähnt, über die Antenne 7a von der externen Vorrichtung. Die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 führt einen dreidimensionalen stereoskopischen Videobild-Zusammenfügungsprozess an den rechten und linken Videodaten aus, die in dem stereoskopischen Videobildinhalt enthalten sind, der durch den stereoskopischen Videobild-Inhaltsempfänger 7 empfangen wird, wobei der dreidimensionale stereoskopische Videobild-Zusammenfügungsprozess spezifisch für die vorliegende Erfindung ist, und gibt die derart verarbeiteten rechten und linken Videodaten an die Videobild-Wiedergabevorrichtung 5 aus. Der stereoskopische Anzeigemonitor 6 zeigt die durch die Videobild-Wiedergabevorrichtung 5 wiedergegebenen rechten und linken Videodaten in einer stereoskopischen Art und Weise an, wenn diese von einem Betrachter betrachtet werden, wie gemäß 1(a).
  • Ein in 1(c) gezeigtes stereoskopisches Anzeigesystem 1C ist bereitgestellt in einer Speichereinheit 8 zum Speichern eines Inhalts bzw. Contents für eine stereoskopische Anzeige, eine Bildzusammenfügungs-Verarbeitungseinheit 4, eine Videobild-Wiedergabevorrichtung 5 und einen stereoskopischen Anzeigemonitor 6. Der Inhalt bzw. Content für eine stereoskopische Anzeige sind Content-Daten einschließlich rechter und linker Videodaten, wie oben erläutert. Für die Speichereinheit 8 kann ein HDD (engl. Hard Disk Drive) oder ein Halbleiterspeicher zum Speichern des Contents bzw. Inhalts für eine stereoskopische Anzeige bereitgestellt werden. Alternativ kann ein Laufwerk zur Wiedergabe eines Speichermediums, wie z. B. eine CD oder eine DVD, zum Speichern des Inhalts bzw. Contents für eine stereoskopische Anzeige bereitgestellt werden.
  • Die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 führt einen dreidimensionalen stereoskopischen Videobild-Zusammenfügungsprozess an den rechten und linken Videodaten in dem Inhalt für eine stereoskopische Anzeige aus, der von der Speichereinheit 8 gelesen wird, wobei der dreidimensionale stereoskopische Videobild-Zusammenfügungsprozess spezifisch für die vorliegende Erfindung ist, und gibt die derart verarbeiteten rechten und linken Videodaten an die Videobild-Wiedergabevorrichtung 5 aus. Der stereoskopische Anzeigemonitor 6 zeigt die durch die Videobild-Wiedergabevorrichtung 5 wiedergegebenen rechten und linken Videodaten in einer stereoskopischen Art und Weise an, wenn diese von einem Betrachter betrachtet werden, wie gemäß 1(a). So genannte dreidimensionale Daten (z. B. dreidimensionale Kartendaten) können als Inhalt bzw. Content für eine stereoskopische Anzeige gespeichert werden, und die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 kann berechnen, wie das Bild, das durch diese dreidimensionalen Daten gezeigt wird, von jedem der linken und rechten Betrachtungspunkte erscheint, um rechte und linke Videodaten zu erzeugen.
  • 2 ist eine Ansicht zur Erläuterung des Prinzips hinter einer stereoskopischen Anzeige, die durch den stereoskopischen Anzeigemonitor erzeugt wird, zeigt ein Beispiel einer stereoskopischen Anzeige, die für das nackte Auge beabsichtigt ist. Der stereoskopische Anzeigemonitor 6, der in 2 gezeigt ist, ist mit einer Flüssigkristallanzeige-Elementgruppe 6a und einer Parallaxen-Barriereneinheit 6b bereitgestellt. Die Flüssigkristallanzeige-Elementgruppe 6a weist eine Flüssigkristall-Elementgruppe für rechte Augen auf, die eine Richtungscharakteristik bereitstellt, welche bewirkt, dass ein Rechtes-Auge-Videobild ein rechtes Auge erreicht, sowie eine Flüssigkristall-Elementgruppe für linke Augen, die eine Richtungscharakteristik bereitstellt, die bewirkt, dass ein Linkes-Auge-Videobild ein linkes Auge erreicht. Die Parallaxen-Barriereneinheit 6b ist eine visuelle Feldbarriere zum Blockieren von Licht von einem Hintergrundlicht (nicht in 2 gezeigt), um das Rechte-Auge-Videobild das Linke-Auge-Videobild abwechselnd anzuzeigen.
  • Ein Videosignal für linke Augen (L) und ein Videosignal für rechte Augen (R), das die Videobild-Wiedergabevorrichtung 5 erzeugt, durch Wiedergeben der rechten und linken Videodaten, werden abwechselnd bzw. alternierend in den stereoskopischen Anzeigemonitor 6 in einer Reihenfolge von L, R, L, R, und ... eingegeben. Bei Empfang des Videosignals für linke Augen (L), bedient die Flüssigkristallanzeige-Elementgruppe 6a die Flüssigkristall-Elementgruppe für linke Augen, wohingegen dann, wenn das Videosignal für rechte Augen (R) empfangen wird, die Flüssigkristallanzeige-Elementgruppe 6a die Flüssigkristall-Elementgruppe für rechte Augen bedient. Die Parallaxen-Barriereneinheit 6b blockiert das von dem Hintergrundlicht emittierte Licht, das durch die Flüssigkristallanzeige-Elementgruppe für rechte Augen geht, zu dem Zeitpunkt, dass die Flüssigkristall-Elementgruppe für linke Augen arbeitet, wohingegen die Parallaxen-Barriereneinheit 6b das von dem Hintergrundlicht emittierte Licht blockiert und durch die Flüssigkristallanzeige-Elementgruppe für linke Augen geht, zu dem Zeitpunkt, dass die Flüssigkristall-Elementgruppe für rechte Augen arbeitet. Folglich werden das Rechtes-Auge-Videobild und das Linkes-Auge-Videobild abwechselnd an dem Bildschirm des stereoskopischen Anzeigemonitors 6 angezeigt, sodass ein Betrachter das stereoskopische Videobild an seinem in 2 gezeigten Betrachtungspunkt ansehen kann.
  • Die vorliegende Erfindung ist nicht auf den stereoskopischen Anzeigemonitor 6 beschränkt, der die in 2 gezeigte Struktur aufweist, und es kann alternativ ein Monitor verwendet werden, der eine stereoskopische Ansicht unter Verwendung jedes anderen Mechanismus implementiert. Zum Beispiel kann ein Verfahren zur Bereitstellung eines stereoskopischen Bildes verwendet werden, das bewirkt, dass ein Betrachter eine Brille trägt, die linke und rechte Linsen aufweist, an denen unterschiedliche Polarisationsplatten angebracht sind, als eine exklusive Brille.
  • 3 ist ein Blockdiagramm zur Darstellung der Struktur eines Fahrzeuginformationssystems, das die stereoskopische Dreidimensionen-Anzeigevorrichtung gemäß Ausführungsform 1 der vorliegenden Erfindung verwendet. In dem in 3 gezeigten Beispiel arbeitet das Fahrzeuginformationssystem 1 als ein in 1 gezeigtes stereoskopisches Anzeigesystem, bezüglich einer Anzeige eines Bildes, wie z. B. einer Karte oder eines Videobildes. Das Fahrzeuginformationssystem 1 ist ferner mit einer Haupt-CPU(Steuereinheit) 4a, einer Videobild-Wiedergabevorrichtung 5, einem stereoskopischen Anzeigemonitor (stereoskopische Anzeigemonitoreinheit) 6, einem GPS-(engl. Global Positioning System)Empfänger 9, einem Geschwindigkeitssensor 10, einem internen Speicher 11, einem CD/DVD-Laufwerk 12, einer HDD 13, einem Funkempfänger 14, einem DTV-Empfänger 15, einer Fahrzeug-LAN_I/F-Einheit 16, einem Verstärker 19, einem Lautsprecher 20 und einem dreidimensionalen Berührungsfeld 22 bereitgestellt.
  • Die Haupt-CPU 4a steuert jede Komponente, die in dem Fahrzeuginformationssystem 1 angeordnet ist. Diese Haupt-CPU 4a arbeitet als die in 1 gezeigte Bildschirmzusammenfügungs-Verarbeitungseinheit 4, in dem ein Programm 13d (Anwendungsprogramm für eine Fahrzeuginformationsverarbeitung) ausgeführt wird, das in dem HDD 13 gespeichert ist. Die Videobild-Wiedergabevorrichtung 5 gibt die rechten und linken Videodaten wieder, an denen die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 der Haupt-CPU 4a einen Zusammenfügungsprozess durchgeführt hat, und gibt die derart wiedergegebenen rechten und linken Videodaten an den stereoskopischen Anzeigemonitor 6 aus. Der stereoskopische Anzeigemonitor 6 zeigt ferner die durch die Videobild-Wiedergabevorrichtung 5 wiedergegebenen rechten und linken Videodaten in einer stereoskopischen Art und Weise an, wenn diese von einem Betrachter betrachtet werden.
  • Der GPS-Empfänger 9 empfängt die Positionsinformation bezüglich der Position des Fahrzeugs von GPS-Satelliten, und der Geschwindigkeitssensor 10 erfasst Fahrzeuggeschwindigkeitspulse zur Berechnung der Fahrzeuggeschwindigkeit des Fahrzeugs. Der interne Speicher 11 dient als Arbeitsbereich, wenn die Haupt-CPU 4a das Anwendungsprogramm zur Fahrzeuginformationsverarbeitung ausführt. Das CD/DVD-Laufwerk 12 gibt eine AV-Quelle wieder, die in einem Speichermedium 12a, wie z. B. einer CD oder DVD, gespeichert ist. Wenn stereoskopische Anzeigevideodaten in einer AV-Quelle enthalten sind, die in dem Speichermedium 12a gespeichert sind, arbeitet das CD/DVD-Laufwerk als der stereoskopische Videobild-Inhaltsempfänger 7, der in 1(b) gezeigt ist, und das Fahrzeuginformationssystem 1 arbeitet als das in 1(b) gezeigte stereoskopische Anzeigesystem 1b.
  • Das HDD (engl. Hard Disk Drive) 13 ist ein Massenspeicher, der in dem Fahrzeuginformationssystem 1 angebracht ist, und speichert eine Kartendatenbank (im Folgenden als Karten-DB bezeichnet) 13a, Icon-Daten 13b und ein Programm 13d. Die Karten-DB 13a ist eine Datenbank, in der Kartendaten zur Verwendung bei der Navigationsverarbeitung registriert sind. Eine POI-Information, in der die Positionen von POIs (engl. Points Of Interest) an einer Karte oder eine detaillierte Information bezüglich dieser POIs beschrieben sind, ist in den Kartendaten ebenfalls enthalten. Die Icon-Daten 13b zeigen Icons bzw. Bildzeichen, die an dem Bildschirm des stereoskopischen Anzeigemonitors 6 anzuzeigen sind. Die Icon-Daten enthalten Icons bzw. Bildzeichen zur Darstellung von Bedienungsoperationsschaltflächen, die verwendet werden, um es dem Nutzer zu ermöglichen, verschiedene Bedienungsoperationen an dem Bildschirm usw. durchzuführen. Das Programm 13d ist ein Anwendungsprogramm für eine Fahrzeuginformationsverarbeitung, das die Haupt-CPU 4a ausführt. Das Programm weist z. B. ein Anwendungsprogramm für eine Kartenanzeige auf, einschließlich eines Programm-Moduls zum Implementieren der Funktionen der Bildschirmzusammenfügungs-Verarbeitungseinheit 4.
  • Der Funkempfänger 14 empfängt eine Funkübertragung, und führt eine Kanalauswahl durch, z. B. gemäß einer Bedienungsoperation an einer nicht gezeigten Schaltflächen-Auswahleinheit. Der DTV-Empfänger 15 empfängt eine digitale Fernsehübertragung, und führt eine Kanalauswahl gemäß einer Bedienungsoperation an einer nicht gezeigten Schaltflächen-Auswahleinheit durch, wie der Funkempfänger 14. Der DTV-Empfänger 15 arbeitet auch als der in 1(b) gezeigte stereoskopische Videobild-Inhaltsempfänger 7, wenn die dreidimensionalen stereoskopischen Anzeige Videodaten in einer somit empfangenen digitalen Fernsehübertragung enthalten sind, und das Fahrzeuginformationssystem 1 arbeitet als das in 1(b) gezeigte stereoskopische Anzeigesystem 1B.
  • Die Fahrzeug-LAN_I/F-Einheit 16 ist eine Schnittstelle zwischen einem Fahrzeug-LAN (engl. Local Area Network) 17 und der Haupt-CPU 4a, und gibt eine Datenkommunikation zwischen, beispielsweise, einer anderen Ausrüstung, die mit dem Fahrzeug-LAN 17 verbunden ist, und der Haupt-CPU 4a weiter. Die Speichereinheit 8, die in 1(c) gezeigt ist, ist ferner mit dem Fahrzeug-LAN 17 verbunden, und dann, wenn die Fahrzeug-LAN_I/F-Einheit 16 als eine Komponente zum Weiterleiten zwischen dieser Speichereinheit 8 und der Bildschirmzusammenfügungs-Verarbeitungseinheit 4 der Haupt-CPU 4a betrachtet wird, arbeitet das Fahrzeuginformationssystem 1 als das in 1(c) gezeigte stereoskopische Anzeigesystem 1C.
  • Tonsignale, die durch das CD/DVD-Laufwerk 12, dem Punktempfänger 15 und dem DTV-Empfänger 15 wiedergegeben werden, und ein Tonsignal von der Haupt-CPU 4a werden durch den Verstärker 19 verstärkt, und ein Ton (engl. Sound) wird über den Lautsprecher 20 ausgegeben. Bezüglich des Tonsignals von der Haupt-CPU 4a gibt es z. B. ein Routenführungs-Sprachsignal, das durch die Navigationsverarbeitung erzeugt wird.
  • Das dreidimensionale Berührungsfeld 22 erfasst, dass ein Zeigeobjekt, wie z. B. ein Finger des Nutzers, eine Region bei einem vorbestimmten Abstand oder geringer von einer Berührungsoberfläche davon in einer berührungsfreien bzw. nicht Kontakt-artigen Art und Weise erreicht, und erfasst auch einen Kontakt eines Zeigeobjekts mit dessen Berührungsoberfläche. Insbesondere weist das dreidimensionale Berührungsfeld einen dreidimensionalen Raum auf, der sich von der Berührungsoberfläche in die Normalenrichtung zu der Berührungsoberfläche als dessen Erfassungsregion erstreckt. 4 ist eine Ansicht zur Darstellung der Struktur des dreidimensionalen Berührungsfelds, wobei 4(a) eine obere Draufsicht des dreidimensionalen Berührungsfelds zeigt, betrachtet von der Berührungsoberfläche, und 4(b) eine Querschnittsansicht zeigt, entlang der Linie A-A gemäß 4(a). Das dreidimensionale Berührungsfeld 22 ist an einem Anzeigebildschirm 22a des stereoskopischen Anzeigemonitors 6 angeordnet, und dann, wenn der Nutzer die Oberfläche (Berührungsoberfläche) des Berührungsschalters 22b niederdrückt, unter Verwendung einer Zeigeobjekts, auf Grundlage einer an den Anzeigebildschirm 22a angezeigten Information, gibt diese Koordinatendaten bezüglich eines Teils der Oberfläche aus, die durch den Nutzer betätigt wurde, an die Haupt-CPU 4a aus.
  • Eine Vielzahl von Infrarot-LED 23 sind entlang zweier Seiten angeordnet, die sich rechtwinklig schneiden, und die in der Peripherie des Berührungsschalters 22b enthalten sind, und eine Vielzahl von Lichtempfangselementen 24, jeweils für den Empfang eines entsprechenden von Infrarotlichtstrahlen von der Vielzahl von Infrarot-LED 23, sind entlang zweier anderer Seiten angeordnet, gegenüber den zwei Seiten, entlang denen die Infrarot-LEDs 23 angeordnet sind. In dieser Anordnung erscheinen die Infrarotlichtstrahlen, die von der Vielzahl von Infrarot-LEDs 23 emittiert werden, als ob diese ein Gitter an dem Berührungsschalter 22b ausbilden, wie in 4(a) gezeigt. Da das dreidimensionale Berührungsfeld auf diese Art und Weise ausgebildet ist, kann das dreidimensionale Berührungsfeld ein Zeigeobjekt erfassen, das die Berührungsoberfläche in dem Bereich berühren wird, bei dem Abstand z3 oder geringer von der Berührungsoberfläche, und kann ebenso einen Kontakt eines Zeigeobjekts mit der Berührungsoberfläche erfassen, wie in 4(b) gezeigt.
  • Im Folgenden wird der Betrieb der stereoskopischen Dreidimensionen-Anzeigevorrichtung erläutert.
  • (1) Anzeige einer Ebenen Karte
  • Die stereoskopische Dreidimensionen-Anzeigevorrichtung fügt Bilder in ein dreidimensionales stereoskopisches Bild zusammen, wobei eine virtuelle Anzeige eines Ebenenbildes an einer vorderen oder hinteren Position bezüglich der Berührungsoberfläche des dreidimensionalen Berührungsfelds 22 (wobei angenommen wird, dass dieses an der gleichen Position wie der Bildschirm des stereoskopischen Anzeigemonitors 6 ist) platziert wird, bei Betrachtung von der Position eines Betrachters, und zeigt das dreidimensionale stereoskopische Bild in einer stereoskopischen Art und Weise an. Beim Anzeigen einer Ebenen Karte in einer Kartenanzeige in einer Fahrzeugnavigationsvorrichtung platziert die stereoskopische Dreidimensionen-Anzeigevorrichtung die virtuelle Anzeige der Ebenen Karte z. B. an einer hinteren Position bezüglich der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 (d. h. von dem Fahrer weiter entfernt als die Berührungsoberfläche). In diesem Fall kann die stereoskopischen Dreidimensionen-Anzeigevorrichtung die Differenz in einer Fokussierungsweite zwischen der Fokusposition, bei der die Straßenszene vor dem Fahrzeug lokalisiert ist, und die der Fahrer während des Fahrens des Fahrzeugs erblickt, und der Position der virtuellen Kartenanzeigeoberfläche verringert werden. Insbesondere ermöglicht die stereoskopische Dreidimensionen-Anzeigevorrichtung dem Fahrer, der auf einen Bereich vor dem Fahrzeug blickt, seine Sichtlinie zu der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 mit einem kürzeren Fahrabstand seiner Fokusposition zu richten und die Karte an dem Bildschirm zu betrachten, ohne das Gefühl zu haben, dass etwas nicht in Ordnung ist. Auf diese Art und Weise kann die stereoskopische Dreidimensionen-Anzeigevorrichtung die in einer stereoskopischen Art und Weise angezeigte Karte lesbar machen, und kann, als Ergebnis, die Sicherheit des Fahrers zum Zeitpunkt des Blicks auf die Kartenanzeige verbessern.
  • 5 ist eine Ansicht zur Erläuterung eines Bildschirmzusammenfügungsprozesses zum Platzieren der virtuellen Anzeige der Ebenen Karte an einer hinteren Position bezüglich der Berührungsoberfläche des dreidimensionalen Berührungsfelds. 6 ist eine Ansicht zur Darstellung eines Datenflusses in dem in 5 gezeigten Bildschirm-Zusammenfügungsprozesses. Zuerst liest die Haupt-CPU 4a Kartendaten von der in dem HDD 13 gespeicherten Karten-DB 13a, und erzeugt ebene Kartendaten Pic_plane gemäß einem vorbestimmten Kartenzeichnungsalgorithmus, wie in 6 gezeigt. Die ebenen Kartendaten Pic_plane sind jene bezüglich einer ebenen Karte, die z. B. in einem linken Teil der 5 beschrieben sind.
  • In dem in 5 gezeigten Beispiel wird die ebene Karte, die durch die ebenen Kartendaten Pic_plane gezeigt sind, an der virtuellen Kartenanzeigeoberfläche P angezeigt, die an einer hinteren Position bezüglich der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 platziert ist. Der Abstand von der Position der Augen des Fahrers zu der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 wird im Folgenden durch Z0 gegeben, und der Abstand von der Position der Augen des Fahrers zu der virtuellen Kartenanzeigeoberfläche P ist durch z gegeben. In dem in 5 gezeigten Beispiel wird die folgende Beziehung z > Z0 eingerichtet.
  • Die Position des rechten Auges des Fahrers wird ferner als ein Punkt Or(xr, yr, 0) gegeben, die Position des linken Auges des Fahrers wird als ein Punkt Ol(xl, yl, 0) gegeben, der Abstand zwischen dem linken und rechten Auge ist durch D gegeben. Das heißt, dass die folgende Beziehung: |yr – xl| = d eingerichtet wird. Die Projektion eines Punktes p(x, y) an der ebenen Karte, die durch die ebenen Kartendaten Pic_plane gezeigt wird, auf die virtuelle Kartenanzeigeoberfläche P führt zu einem Punkt p(x, y, z) an der Kartenanzeigeoberfläche P.
  • Rechtes-Auge-Bilddaten Pic_R(x, y) der ebenen Karte werden durch einen Satz von Punkten pr gegeben, an denen jeweils eine Gerade (Vektor Vr), die zwischen einem Punkt p(x, y, z) an de virtuellen Kartenanzeigeoberfläche P und dem Punkt Or(xr, yr, 0), wobei es sich um die Position des rechten Auges handelt, die Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 schneidet. Gleichermaßen werden Linkes-Auge-Bilddaten Pic_L(x, y) der ebenen Karte durch einen Satz von Punkten pl gegeben, an denen jeweils eine Gerade (Vektor Vl), die zwischen dem Punkt p(x, y, z) an der virtuellen Kartenanzeigeoberfläche P und dem Punkt Ol(xl, yl, 0) verbindet, wobei es sich um die Position des linken Auges handelt, die Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 schneidet.
  • Die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 berechnet die Punkte pr und pl unter Verwendung der ebenen Kartendaten Pic_plane und der Parameter Z0, z und d derart, dass der Abstand zwischen der virtuellen Kartenanzeigeoberfläche P und der Position von jedem der rechten und linken Augen des Fahrers gleich z ist, um Rechtes-Auge-Bilddaten Pic_R(x, y) und Linkes-Auge-Bilddaten Pic_L(x, y) zu erzeugen, und gibt diese Rechtes-Auge- und Linkes-Auge-Bilddaten an die Videobild-Wiedergabevorrichtung 5 aus.
  • Die Videobild-Wiedergabevorrichtung 5 gibt die Rechtes-Auge-Bilddaten Pic_R(x, y) und die Linkes-Auge-Bilddaten Pic_L(x, y) wieder, die durch die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 erzeugt werden, und gibt diese an den stereoskopischen Anzeigemonitor 6 aus. Der stereoskopische Anzeigemonitor 6 zeigt die ebene Karte in einer stereoskopischen Art und Weise an, unter Verwendung der Rechtes-Auge-Bilddaten Pic_R(x, y) und der Linkes-Auge-Bilddaten Pic_L(x, y), die durch die Videobild-Wiedergabevorrichtung 5 wiedergegeben werden. Zu diesem Zeitpunkt bewirkt die stereoskopische Dreidimensionen-Anzeigevorrichtung, dass die ebene Karte so erscheint, al ob diese an der virtuellen Kartenanzeigeoberfläche P angezeigt ist, die an einer hinteren Position bezüglich der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 platziert ist, wenn diese von der Position des Fahrers unter Verwendung einer stereoskopischen Ansicht betrachtet wird.
  • Beim Anzeigen einer ebenen Karte in einer Kartenanzeige in einer Fahrzeugnavigationsvorrichtung kann die stereoskopische Dreidimensionen-Anzeigevorrichtung ferner die virtuelle Anzeigenoberfläche P der ebenen Karte an einer vorderen Position bezüglich der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 platzieren (d. h., an einer Position, die näher an dem Fahrer ist, als die Berührungsoberfläche). Zu diesem Zeitpunkt bewirkt die stereoskopische Dreidimensionen-Anzeigevorrichtung, dass die ebene Karte so erscheint, als ob diese von der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 im Raum steht, bei Betrachtung von der Position des Fahrers unter Verwendung einer stereoskopischen Ansicht.
  • Im Fall von z < Z0 bewirkt die stereoskopische Dreidimensionen-Anzeigevorrichtung, dass die ebene Karte, die durch die ebenen Kartendaten Pic_plane gezeigt ist, derart erscheint, als ob diese an der virtuellen Kartenanzeigeoberfläche P angezeigt ist, die an einer vorderen Position bezüglich der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 platziert ist, bei Betrachtung von der Position des Fahrers unter Verwendung einer stereoskopische Ansicht. Bei einer alternativen Ausführung des Bildschirm-Zusammenfügungsprozesses mit der folgenden Beziehung: z = Z0, bewirkt die stereoskopische Dreidimensionen-Anzeigevorrichtung, das die virtuelle Kartenanzeigeoberfläche P mit der Berührungsoberfläche der ebenen Karten des dreidimensionalen Berührungsfeldes 22 übereinstimmt, und die ebene Karte erscheint, als ob diese an diesem Bildschirm Q angezeigt ist. Wenn der Bildschirm-Zusammenfügungsprozess alternativ mit der folgenden Beziehung: z > Z0 ausgeführt wird, bewirkt die stereoskopische Dreidimensionen-Anzeigevorrichtung, dass die ebene Karte so erscheint, als ob diese an der virtuellen Kartenanzeigeoberfläche P angezeigt ist, die an einer hinteren Position bezüglich der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 platziert ist (d. h., von dem Fahrer weiter weg als die Berührungsoberfläche), bei Betrachtung von der Position des Fahrers unter Verwendung einer stereoskopischen Ansicht.
  • Obwohl bei der oben erwähnten Erläuterung ein Fall gezeigt ist, bei dem die vorliegende Erfindung für das Fahrzeuginformationssystem 1 angewendet wird, ist die Anwendung der vorliegenden Erfindung nicht auf Fahrzeugsysteme beschränkt, und die vorliegende Erfindung kann für alle Systeme angewendet werden, die Anzeigen und Bedienungsoperationen erfordern, wie z. B. FA, einen Panel-Computer und ein Anzeigesystem für eine Führung.
  • Wenn ferner im Fall von z > Z0 die virtuelle Kartenanzeigeoberfläche P an einer Position angezeigt wird, die von dem Fahrer weiter entfernt ist, als die Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22, kann die stereoskopische Dreidimensionen-Anzeigevorrichtung die Sicherheit des Fahrers zu einem Zeitpunkt verbessern, wenn der Fahrer auf die Kartenanzeige blickt, wie oben erwähnt. Im Fall von z < Z0 stellt die stereoskopische Dreidimensionen-Anzeigevorrichtung einen Vorteil bereit, der darin besteht, dass der Bildschirm lesbar gemacht wird, indem der Anzeigebildschirm derart angezeigt wird, dass dieser näher zu dem Fahrer im Raum steht. Die stereoskopische Dreidimensionen-Anzeigevorrichtung kann daher einen Steuerbetrieb zum Einstellen der Beziehung zwischen den Parametern z und z0 auf z > Z0 durchführen, wenn das Fahrzeug fährt, wohingegen die stereoskopische Dreidimensionen-Anzeigevorrichtung einen Steuerbetrieb zum Einstellen der Beziehung zwischen den Parametern z und Z0 auf z < Z0 durchführen kann, wenn sich das Fahrzeug in einer Ruhelage befindet.
  • (2) Anzeige einer ebenen Karte und von Icons
  • In der oben erwähnten Erläuterung ist der Fall gezeigt, bei dem eine ebene Karte an einer virtuellen Kartenanzeigeoberfläche P angezeigt ist. Ein Fall, bei dem Software-Schaltflächen für eine Bedienungsoperationseingabe, wie z. B. Icons bzw. Bildzeichen, in einer stereoskopischen Art und Weise an einer anderen virtuellen Anzeigeoberfläche parallel zu der virtuellen Kartenanzeigeoberfläche P angezeigt sind, wird im Folgenden erläutert.
  • 7 ist ein Flussdiagramm zur Darstellung eines Ablaufs bzw. Flusses eines Bildschirm-Zusammenfassungsprozesses, der durch die stereoskopische Dreidimensionen-Anzeigevorrichtung gemäß Ausführungsform 1 ausgeführt wird. 8 ist ferner eine Ansicht zur Erläuterung eines Bildschirm-Zusammenfügungsprozesses zum Platzieren der virtuellen Kartenanzeigeoberfläche P einer ebenen Karte an einer hinteren Position bezüglich der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22, und zum Platzieren der virtuellen Anzeigeoberfläche R von Icons bzw. Bildzeichen an einer vorderen Position bezüglich der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22. 8 ist eine Ansicht zur Darstellung eines Datenflusses in den Bildschirm-Zusammenführungsprozess, der in 8 gezeigt ist.
  • Zuerst liest die Haupt-CPU 4a Kartendaten aus der Karten-DB 13a, gespeichert in dem HDD 13, und erzeugt ebene Kartendaten Pic_plane gemäß einer vorbestimmten Kartenzeichnungsalgorithmus, wie in 9 gezeigt. Die ebenen Kartendaten Pic_plane zeigen die ebene Karte, die z. B. in einem linken Teil der 8 beschrieben ist. Die Haupt-CPU 4a liest auch Icon-Daten bezüglich Icons, die an der ebenen Karte, die durch die ebenen Kartendaten Pic_plane gezeigt ist, zu überlagern sind, aus in dem HDD 13 gespeicherten Icon-Daten 13b.
  • In diesem Beispiel zeigt die stereoskopische Dreidimensionen-Anzeigevorrichtung die ebene Karte, gezeigt durch die ebenen Kartendaten Pic_plane, an der virtuellen Kartenanzeigeoberfläche P, die an einer hinteren Position bezüglich der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 platziert ist, und zeigt eine Enter-Schaltfläche und eine Return-Schaltfläche an der virtuellen Anzeigeoberfläche R an, die an einer vorderen Position bezüglich der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 platziert ist. Der Abstand zwischen der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 und der Anzeigeoberfläche R der Icons wird im Folgenden durch z1 gegeben. Insbesondere bewirkt die stereoskopische Dreidimensionen-Anzeigevorrichtung, dass jeder der Icons der Enter-Schaltfläche und der Return-Schaltfläche derart erscheinen, als ob diese bei dem Abstand dz von der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 bezüglich der Position des Fahrers im Raum stehen, unter Verwendung einer stereoskopischen Ansicht. In dem in 8 gezeigten Beispiel weist der Abstand Z0 zwischen der Position der Augen des Fahrers und der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 (wobei angenommen wird, dass dieses an der gleichen Position wie der Bildschirm des stereoskopischen Anzeigemonitors 6 ist) und der Abstand z zwischen der Position der Augen des Fahrers und der virtuellen Kartenanzeigeoberfläche P die folgende Beziehung auf: z > Z0.
  • Rechtes-Auge-Bilddaten Pic_R(x, y) der ebenen Karte werden durch einen Satz von Punkten pr gegeben, an denen jeweils eine Gerade (Vektor Vr), die zwischen einem Punkt p(x, y, z) an der virtuellen Kartenanzeigeoberfläche P oder einem Punkt p(x, y, Z0–z1) an der Anzeigeoberfläche R und dem Punkt Or(xr, yr, 0) verbindet, wobei es sich um die Position des rechten Auges handelt, den Bildschirm Q des stereoskopischen Anzeigemonitors 6 schneidet. Gleichermaßen werden Linkes-Auge-Bilddaten Pic_L(x, y) der ebenen Karte durch einen Satz von Punkten pl(xl, yl, Z0) gegeben, an denen jeweils eine Gerade (Vektor Vl), die zwischen dem Punkt p(x, y, z) an der virtuellen Kartenanzeigeoberfläche P oder dem Punkt p(x, y, Z0–z1) an der Anzeigeoberfläche R und dem Punkt Ol(xl, yl, 0) verbindet, wobei es sich um die Position des linken Auges handelt, den Bildschirm Q des stereoskopischen Anzeigemonitors 6 schneidet. Andererseits wird jeder der Icons der Enter-Schaltfläche und der Return-Schaltfläche in dem Rechtes-Auge-Bild der ebenen Karte durch einen Satz von Punkten pr an den Rechtes-Auge-Bild gegeben, während jeder der Icons der Enter-Schaltfläche und der Return-Schaltfläche in dem Linkes-Auge-Bild der ebenen Karte durch einen Satz von Punkten pl an den Linkes-Auge-Bild gegeben ist.
  • Die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 empfängt die ebenen Kartendaten Pic_plane, erzeugt durch die Haupt-CPU 4a (Schritt ST1). Als nächstes empfängt die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 die Icon-Daten bezüglich der Enter-Schaltfläche und der Return-Schaltfläche, die die Haupt-CPU 4a aus dem HDD 13 gelesen hat (Schritt ST2). Die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 empfängt dann die Parameter Z0, z, d und z1 aus dem internen Speicher 11 (Schritt ST3).
  • Die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 berechnet dann die Punkte pr und pl derart, dass der Abstand zwischen der virtuellen Kartenanzeigeoberfläche P und der Position der Augen des Fahrers gleich zu z ist, und der Abstand zwischen der Anzeigeoberfläche R der Icons und der Position der Augen des Fahrers gleich zu (Z0–z1) ist, unter Verwendung der ebenen Kartendaten Pic_plane, der Parameter Z0, z, d und z1 und der Icon-Daten, um Rechtes-Auge-Bilddaten Pic_R(x, y) und Linkes-Auge-Bilddaten Pic_L(x, y) zu erzeugen, auf die gleiche Art und Weise wie die Bildschirmzusammenfügungs-Verarbeitungseinheit gemäß der oben erwähnten Ausführungsform 1 (Schritt ST4). Danach gibt die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 die Rechtes-Auge-Bilddaten Pic_R(x, y) und die Linkes-Auge-Bilddaten Pic_L(x, y), die derart erzeugt werden, an die Videobild-Wiedergabevorrichtung 5 aus (Schritt ST5).
  • Die Videobild-Wiedergabevorrichtung 5 gibt die Rechtes-Auge-Bilddaten Pic_R(x, y) und die Linkes-Auge-Bilddaten Pic_L(x, y) wieder, die durch die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 erzeugt werden, und gibt diese an den stereoskopischen Anzeigemonitor 6 aus. Der stereoskopische Anzeigemonitor 6 zeigt die ebene Karte und die Icons in einer stereoskopischen Art und Weise an, unter Verwendung der Rechtes-Auge-Bilddaten Pic_R(x, y) und der Linkes-Auge-Bilddaten Pic_L(x, y), die durch die Videobild-Wiedergabevorrichtung 5 wiedergegeben werden (Schritt ST6). Zu diesem Zeitpunkt bewirkt die stereoskopische Dreidimensionen-Anzeigevorrichtung, dass die Enter-Schaltfläche und die Return-Schaltfläche so erscheinen, als ob diese an der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 bezüglich der Position des Fahrers im Raum stehen, unter Verwendung einer stereoskopischen Ansicht.
  • In dem oben erwähnten Anzeigezustand bestimmt die Haupt-CPU 4a, ob oder ob nicht sich der Finger des Nutzers der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 annähert, gemäß einem Erfassungssignal von dem dreidimensionalen Berührungsfeld 22 (Schritt ST7). Wenn z. B. der Finger des Nutzers sich bewegt und dann in den Erfassungsbereich gelangt, der durch z3 definiert ist, und durch die Infrarot-LEDs 23 und die Lichtempfangselemente 24 in dem dreidimensionalen Berührungsfeld 22 ausgebildet sind, erfasst das dreidimensionale Berührungsfeld 22 die Koordinaten dieses Fingers als einen Punkt (x, y, z3). Wenn der Finger des Nutzers die Berührungsoberfläche berührt, erfasst das dreidimensionale Berührungsfeld 22 die Koordinaten der Finger als (x, y, 0), und gibt ein Erfassungssignal aus, das die Koordinaten zeigt, an dem die Haupt-CPU 4a aus. In der in 4 gezeigten Struktur kann der Infrarot-Schalter, der aus den Infrarot-LEDs 23 und den Lichtempfangselementen 24 besteht, bestimmen, ob ein Zeigeobjekt die Region bei dem Abstand z3 oder geringer von der Berührungsoberfläche erreicht. Durch Anordnen zwei oder mehr Gruppen von Infrarot-Schaltern parallel mit der Berührungsoberfläche kann die stereoskopische Dreidimensionen-Anzeigevorrichtung den Abstand zwischen einem Zeigeobjekt, das sich der Berührungsoberfläche annähert, und der Berührungsoberfläche in Schritten messen.
  • Wenn das dreidimensionale Berührungsfeld bestimmt, dass sich der Finger des Nutzers der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 annähert (bei JA im Schritt ST7), führt die Haupt-CPU 4a einen vorbestimmten Prozess und einen Bildschirmübergang durch, die durchzuführen sind, wenn ein entsprechendes Icon, dem sich der Finger genähert hat, berührt wird (Schritt ST8). Wenn z. B. der Finger des Nutzers sich der „Return-Schaltfläche” nähert, geht die Haupt-CPU zum Schritt ST8 und führt einen vorbestimmten Betrieb durch, unter Annahme, dass die „Return-Schaltfläche” niedergedrückt ist, und kehrt dann zu dem Prozess im Schritt ST1 zurück. Die stereoskopische Dreidimensionen-Anzeigevorrichtung ermöglicht dem Nutzer somit, einen stereoskopischen Bild-Icon einfach zu bedienen, der so erscheint, als ob dieser über eine stereoskopische Ansicht im Raum steht, in einer berührungslosen Art und Weise, sodass das Fahrzeuginformationssystem die Funktion ausführen kann, die dem Betrieb entspricht. Wenn im Gegensatz dazu das dreidimensionale Berührungsfeld bestimmt, dass sich der Finger des Nutzers der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 nicht annähert (bei NEIN im Schritt ST7), kehrt die stereoskopische Dreidimensionen-Anzeigevorrichtung zu dem Prozess im Schritt ST1 zurück.
  • Ferner kann die stereoskopische Dreidimensionen-Anzeigevorrichtung ein dreidimensionales stereoskopisches Bild erzeugen, bei dem der Abstand z1, mit dem das Icon-Bild von der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 über die stereoskopische Ansicht im Raum steht, gleich dem Erfassungsabstand z3 ist, bei dem ein Zeigeobjekt erfasst wird, das sich dem dreidimensionalen Berührungsfeld 22 annähert. Auf diese Art und Weise kann die stereoskopische Dreidimensionen-Anzeigevorrichtung einen nutzerfreundlichen Bedienungsoperationsbildschirm implementieren, bei dem die Anzeigeposition von jedem Icon mit dem Empfindlichkeitsbereich des dreidimensionalen Berührungsfeldes 22 übereinstimmt.
  • Darüber hinaus wird in der oben erwähnten Erläuterung der Fall gezeigt, bei dem die virtuelle Kartenanzeigeoberfläche P der ebenen Karte an einer hinteren Position bezüglich der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 platziert ist. Da in diesem Fall die stereoskopische Dreidimensionen-Anzeigevorrichtung bewirkt, dass jedes stereoskopische Bild-Icon so erscheint, als ob nur dieses Icon von der Berührungsoberfläche über eine stereoskopische Ansicht im Raum steht, in dem die Kartenanzeigeoberfläche P mit der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 übereinstimmt (z = Z0), wird die Ausgestaltungsfähigkeit des dreidimensionalen stereoskopischen Bildes verbessert, und der Nutzer kann jeden stereoskopischen Bild-Icon leicht bedienen.
  • Ferner kann die stereoskopische Dreidimensionen-Anzeigevorrichtung die Parameter, wie z. B. z und z1, für die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 über eine Nutzerbedienungsoperation einstellen, und kann die bereits eingestellten Parameter über eine Nutzerbedienungsoperation ändern. Zum Beispiel ermöglicht die stereoskopische Dreidimensionen-Anzeigevorrichtung es dem Nutzer, den Abstand z1 frei einzustellen, bei dem jedes Icon-Bild von der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 über eine stereoskopische Ansicht im Raum steht, in dem ein Zieh- bzw. Drag-Prozess zum Ziehen bzw. Verschieben des Icon-Bildes entlang der z-Achse des dreidimensionalen Berührungsfeldes 22 (in die Normalenrichtung zu der Berührungsoberfläche) durchgeführt wird.
  • Darüber hinaus können die Parameter, wie z. B. z und z1, einen Abstand enthalten, der gemäß dem Zustand des Fahrzeugs, das mit der stereoskopische Dreidimensionen-Anzeigevorrichtung ausgestattet ist oder dieses hält, vorab bestimmt ist. Für den Abstand, der gemäß dem Zustand des Fahrzeugs vorab bestimmt ist, das mit der stereoskopische Dreidimensionen-Anzeigevorrichtung ausgestattet ist oder dieses hält, kann ein Abstand bereitgestellt werden, der gemäß der Geschwindigkeit des Fahrzeugs vorab bestimmt ist. Insbesondere kann die stereoskopische Dreidimensionen-Anzeigevorrichtung vorab eingestellte Werte einstellen, bezüglich der Kartenanzeigeoberfläche P und dem Abstand z1 zwischen der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 und der Anzeigeoberfläche R der Icons, für die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 gemäß der Geschwindigkeit des Fahrzeugs. Die stereoskopische Dreidimensionen-Anzeigevorrichtung stellt z. B. z ein, um der folgenden Beziehung: z > Z0 zu genügen, wenn das Fahrzeug fährt, wohingegen die Vorrichtung z zum Genügen der folgenden Beziehung: z = Z0 einstellt, wenn sich das Fahrzeug in einem Ruhezustand befindet. Wenn ferner das Fahrzeug fährt, stellt die stereoskopische Dreidimensionen-Anzeigevorrichtung z1 auf einen kleineren Wert ein als dann, wenn sich das Fahrzeug in einem Ruhezustand befindet.
  • Wie oben erwähnt umfasst die stereoskopische Dreidimensionen-Anzeigevorrichtung gemäß dieser Ausführungsform 1 den stereoskopischen Anzeigemonitor 6 zum Anzeigen eines Rechtes-Auge-Bildes oder Videobildes und eines Linkes-Auge-Bildes oder Videobildes für eine dreidimensionale stereoskopische Anzeige eines Bedienungsoperationsbildschirms in einer dreidimensionalen stereoskopischen Art und Weise, das dreidimensionale Berührungsfeld 22, angeordnet an den Bildschirm des stereoskopischen Anzeigemonitors 6, zum Erfassen einer Relativposition eines Zeigeobjekts relativ zu der Berührungsoberfläche davon, wobei das Zeigeobjekt zur Durchführung einer Berührungsoperation an dem Operationsbildschirm verwendet wird, der an dem Bildschirm des stereoskopischen Anzeigemonitors 6 in einer dreidimensionalen stereoskopischen Art und Weise angezeigt ist, die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 zum Erzeugen des Rechtes-Auge-Bildes oder Videobildes und des Linkes-Auge-Bildes oder Videobildes für eine dreidimensionale stereoskopische Anzeige, bei der die virtuelle Anzeigeoberfläche R für eine dreidimensionale stereoskopische Anzeige eines Icon-Bildes, wobei es sich um ein Bedienungsoperationsziel an dem Operationsbildschirm handelt, an einer vorderen Position bezüglich des Bildschirms Q des stereoskopischen Anzeigemonitors 6 platziert ist, und die Haupt-CPU 4a zum Bestimmen, dass das Icon-Bild bedient bzw. betätigt wird, wenn die dreidimensionale Berührungsfeldeinheit 22 ein Zeigeobjekt erfasst, das zum Durchführen einer Berührungsoperation an dem Icon-Bild verwendet wird. Da die stereoskopische Dreidimensionen-Anzeigevorrichtung auf diese Art und Weise ausgebildet ist, kann die stereoskopische Dreidimensionen-Anzeigevorrichtung einen Vorteil bereitstellen, der darin besteht, dass eine HMI mit einer dreidimensionalen stereoskopischen Anzeige bereitgestellt wird, die es dem Nutzer ermöglicht, eine Bedienungsoperation durchzuführen, die der Intuition des Nutzers entspricht.
  • Die stereoskopische Dreidimensionen-Anzeigevorrichtung gemäß der oben erwähnten Ausführungsform 1 kann ferner jedes stereoskopische Bild-Icon gemäß einer Nutzer-Bedienungsoperation in der folgenden Art und Weise anzeigen. 10 ist eine Ansicht zur Darstellung eines Beispiels 1 der Anzeige stereoskopischer Bild-Icons gemäß einer Nutzer-Bedienungsoperation. In dem in 10(a) gezeigten Beispiel werden der Bildschirm Q des stereoskopischen Anzeigemonitors 6, die virtuelle Kartenanzeigeoberfläche P der ebenen Karte, und die Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 an der gleichen Position platziert, und nur die stereoskopischen Bild-Icons der Enter-Schaltfläche und der Return-Schaltfläche werden an der virtuellen Anzeigeoberfläche R angezeigt. Zu diesem Zeitpunkt erscheinen die Enter-Schaltfläche und die Return-Schaltfläche derart, als ob diese von der Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 über eine stereoskopische Ansicht bezüglich der Position des Nutzers im Raum stehen.
  • Wenn sich der Finger des Nutzers der „Return-Schaltfläche” in dem in 10(a) gezeigten Anzeigezustand nähert, und dann eine bestimmte Zeitperiode (z. B. eine Sekunde) in einem Zustand vergangen ist, bei dem der Finger des Nutzers in einem virtuellen Kontakt mit der „Return-Schaltfläche” steht, erzeugt die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 ein dreidimensionales stereoskopisches Bild, bei dem die Farbe des stereoskopischen Bild-Icons der „Return-Schaltfläche” geändert wird, wie in 10(b) gezeigt, und zeigt die „Return-Schaltfläche” in der geänderten Farbe an dem stereoskopischen Anzeigemonitor 6 an. Als Ergebnis kann der Nutzer visuell erkennen, dass durch die Bedienungsoperation die „Return-Schaltfläche” fokussiert ist.
  • Wenn der Nutzer dann eine haptische Bewegung zum weiteren Drücken des stereoskopischen Bild-Icons der „Return-Schaltfläche” durchführt, erfasst das dreidimensionale Berührungsfeld 22 den Fahrabstand des Fingers, der durch die haptische Bewegung verursacht wird, und benachrichtigt die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 über diesen Fahrabstand. Die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 ändert den Abstand z1 zwischen der virtuellen Anzeigeoberfläche R für eine Anzeige des stereoskopischen Bild-Icons der „Return-Schaltfläche” und der Berührungsoberfläche gemäß dem Fahrabstand des Fingers, die durch die oben erwähnte haptische Bewegung verursacht wird, um den stereoskopischen Bild-Icon der „Return-Schaltfläche” derart anzuzeigen, dass das stereoskopische Bild-Icon gemäß der haptischen Bewegung zum Betätigen des stereoskopischen Bild-Icons unter Verwendung der Finger vertieft wird, wie in 10(c) gezeigt.
  • Auf diese Art und Weise kann die stereoskopische Dreidimensionen-Anzeigevorrichtung eine HMI bereitstellen, die es dem Nutzer ermöglicht, eine Bedienungsoperation durchzuführen, die mit der Intuition des Nutzers übereinstimmt. Alternativ kann die stereoskopische Dreidimensionen-Anzeigevorrichtung den Nutzer benachrichtigen, dass das stereoskopische Bild-Icon fokussiert ist, in dem die Farbe oder Form des stereoskopischen Bildes geändert wird, das stereoskopische Bild zum Vibrieren gebracht wird, oder eine Änderung im Sinn der Berührung durchzuführen, die der Nutzer hat, und die stereoskopische Dreidimensionen-Anzeigevorrichtung kann ebenso den Nutzer benachrichtigen, dass das stereoskopische Bild-Icon bedient wird bzw. betätigt wird, in dem die Form oder Farbe des stereoskopischen Bildes auf eine vorbestimmte Form oder Farbe geändert wird, das stereoskopische Bild zum Vibrieren gebracht wird, oder eine Änderung im Sinn der Berührung bereitgestellt wird, die der Nutzer hat.
  • In der oben erwähnten Ausführungsform 1 kann ein Nutzer Bedienungsoperationen der Bewegung der Finger des Nutzers eine Benutzungsoperation zum Bewegen eines Fingers sein, als ob ein Kreis gezeichnet würde, eine V-geformte Kontrolloperation zum Bewegen eines Fingers, als ob ein Kontrollkästchen markiert wird, oder eine Operation zum Bewegen eines Fingers nach oben oder unten oder nach rechts und nach links, solang die Haupt-CPU 4a die Nutzeroperation unter Verwendung der Erfassungsinformation von dem dreidimensionalen Berührungsfeld 22, wobei es sich um eine Zeigeobjekt-Erfassungseinheit handelt, identifizieren kann.
  • Alternativ ermöglicht die stereoskopische Dreidimensionen-Anzeigevorrichtung es dem Nutzer, ein Muster aus voreingestellten Mustern als die Nutzerbedienungsoperation zum Bewegen des Fingers des Nutzers auszuwählen, oder kann einen Haptik-Registrationsmodus bereitstellen, in dem es dem Nutzer erlaubt ist, seine haptische Bewegung in dem System zu registrieren, und ermöglicht dem Nutzer eine registrierte haptische Bewegung als die oben erwähnte Nutzerbedienungsoperation durchführen.
  • Darüber hinaus kann die stereoskopische Dreidimensionen-Anzeigevorrichtung einen Steuerbetrieb durchführen, bei dem die Fokusposition nicht geändert wird, die über eine stereoskopische Ansicht bestimmt wird, bezüglich eines Icons, das einer Funktion entspricht, die gemäß dem Zustand des Fahrzeugs, das mit der stereoskopischen Dreidimensionen-Anzeigevorrichtung ausgestattet ist oder dieses hält, nicht durchgeführt werden darf, selbst dann, wenn eine Nutzerbedienungsoperation an dem Icon erfasst wird. Ein Beispiel eines Icons, der einer Funktion entspricht, die nicht gemäß dem oben erwähnten Fahrzustand des Fahrzeugs durchgeführt werden kann, ist ein Icon, der keine Bedienungsoperation akzeptiert, welche diesem zugewiesen ist, aufgrund von Bedienungsbeschränkungen zu einem Zeitpunkt, wenn das Fahrzeug fährt. In diesem Fall kann die stereoskopische Dreidimensionen-Anzeigevorrichtung den oben erwähnten Icon durch Ändern der Farbe und Form des Icons zu einer Farbe und Form anzeigen, die unterschiedlich von jenen Icons ist, die Funktionen entsprechen, die durchgeführt werden können, wenn das Fahrzeug fährt, oder kann ein Warnsignal oder eine Warnnachricht aussenden, wenn der Nutzer den Icon bedient bzw. betätigt. Die stereoskopische Dreidimensionen-Anzeigevorrichtung kann ferner die Farbe eines Icons, der nicht bedient werden darf, auf grau ändern, den Icon als transparent machen, oder den Projektionsgrad reduzieren, mit dem der Icon über eine stereoskopische Ansicht so erscheint, als ob dieser projiziert wird.
  • Wenn ferner sich der Finger des Nutzers einem Icon nähert, kann die stereoskopische Dreidimensionen-Anzeigevorrichtung gemäß der oben erwähnten Ausführungsform 1 Icons, die in einem festen Bereich der Umgebung des Fingers existieren, in einer größeren Größe anzeigen, wodurch es dem Nutzer erleichtert wird, irgendeinen der Icons zu bedienen bzw. zu betätigen. 11 ist eine Ansicht zur Darstellung eines Beispiels 2 der Anzeige von stereoskopischen Bild-Icons gemäß einer Nutzerbedienungsoperation, und zeigt einen Fall, bei dem ein Bildschirm 6a für eine Eingabe eines Ortsnamens, einschließlich einer japanischen Silbenschrift-Softwaretastatur zur Eingabe eines Ortsnamens, in einer dreidimensionalen stereoskopischen Art und Weise angezeigt ist. Die 11(a) und 11(b) sind Draufsichten des Bildschirms 6a für Eingabe eines Ortsnamens, und die 11(c) zeigt eine virtuelle Positionsbeziehung zwischen jeder Schaltfläche und der Berührungsoberfläche des in 11(a) gezeigten dreidimensionalen Berührungsfeldes. 11(d) zeigt eine virtuelle Positionsbeziehung zwischen jeder Schaltfläche und der Berührungsoberfläche des in 11(b) gezeigten dreidimensionalen Berührungsfeldes. In dem in 11 gezeigten Beispiel wird angenommen, dass der Bildschirm Q des stereoskopischen Anzeigemonitors 6, die Berührungsoberfläche des dreidimensionalen Berührungsfeldes 22 und die virtuelle Anzeigeoberfläche P des ebenen Bildes (der Bildschirm einschließlich einer Charaktereingabe-Anzeigebox 51, die als eine Basis dient) an der gleichen Position platziert sind.
  • Wie in den 11(a) und 11(c) gezeigt, bewirkt die stereoskopische Dreidimensionen-Anzeigevorrichtung, dass der Bildschirm 6A zur Eingabe eines Ortsnamens so erscheint, als ob Buchstabentasten-Schaltflächen 50a in der japanischen Silbenschrift-Tastatur 50, einer Akzeptierungs- bzw. Annahme-Schaltfläche 52, einer Such-Schaltfläche 53, Änderungs-Schaltflächen 54 und 55 und einer Cancel-Schaltfläche 56 von dem Bildschirm im Raum stehen, einschließlich der Charaktereingabe-Anzeigebox bzw. Buchstabeneingabe-Anzeigebox 51 bezüglich der Position des Nutzers unter Verwendung einer stereoskopischen Ansicht, bevor der Nutzer eine Eingabeoperation eines Ortsnamens durchführt. Wenn der Finger des Nutzers sich der „te”-Schaltfläche der japanische Silbennamen-Schaltfläche 50 nähert und in den Erfassungsbereich des dreidimensionalen Berührungsfeldes 22 gelangt, gibt das dreidimensionale Berührungsfeld 22 die Koordinatendaten bezüglich des „te”-Buchstabentaste-Schaltfläche und der Buchstabentasten-Schaltflächen 50a, die benachbart zu der „te”-Buchstabentasten-Schaltfläche existieren, die durch eine in 11(a) gezeigte gestrichelte Linie eingeschlossen sind, an die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 aus.
  • Beim Bestimmen der Buchstabentasten-Schaltfläche 50a, der sich der Finger des Nutzers angenähert hat, und der Buchstabentasten-Schaltflächen 50a, die benachbart zu dieser Buchstabentasten-Schaltfläche existieren, unter Verwendung der darin von dem dreidimensionalen Berührungsfeld 22 eingegebenen Koordinatendaten, erzeugt die Bildschirmzusammenfügungs-Verarbeitungseinheit 4 ein dreidimensionales stereoskopisches Bild, in dem diese Buchstabentasten-Schaltflächen 50a in einer, durch eine vorbestimmte Größe, größeren Größe als jene angezeigt sind, in denen die anderen Buchstabentasten-Schaltflächen 50a und die anderen verschiedenen Schaltflächen 53 bis 56 angezeigt sind, und zeigt das dreidimensionale stereoskopische Bild über die Videobild-Wiedergabevorrichtung 5 an den stereoskopischen Anzeigemonitor 6 an. Als Ergebnis werden, wie in der 11(b) und der 11(d) gezeigt, die „te”-Schaltfläche, der sich der Finger des Nutzers genähert hat, und die „nu”, „te”, „su”, „ne”, „se”, „no”, „to” und „so” Schaltflächen, die benachbart zu der „te”-Schaltfläche existieren, in einer größeren Größe angezeigt. Auf diese Art und Weise kann die stereoskopische Dreidimensionen-Anzeigevorrichtung einen lesbaren und nutzerfreundlichen Character- bzw. Buchstaben-Eingabebildschirm bereitstellen.
  • 12 ist eine Ansicht zur Darstellung eines Beispiels 3 der Anzeige stereoskopischer Bild-Icons gemäß einer Nutzer-Bedienungsoperation, und zeigt ein anderes Beispiel einer dreidimensionalen stereoskopischen Anzeige des Bildschirms 6A zur Eingabe eines Ortsnamens, gezeigt in 1, zu einem Zeitpunkt, wenn sich der Finger des Nutzers einer Buchstabentasten-Schaltfläche nähert. Wenn, in dem in 12(a) gezeigten Beispiel sich der Finger des Nutzers der „te” Buchstabentasten-Schaltfläche der japanischen Silbenschrifttastatur 50 nähert, zeigt die stereoskopische Dreidimensionen-Anzeigevorrichtung die „te” Buchstabentasten-Schaltfläche und die Buchstabentasten-Schaltflächen 50a, die benachbart zu dieser Buchstabentasten-Schaltfläche existieren, in einer größeren Größe an, während der Projektionsgrad reduziert wird, mit der die Icons, die die anderen Schaltflächen anzeigen, über eine stereoskopische Ansicht projiziert werden. Insbesondere bewegt die stereoskopische Dreidimensionen-Anzeigevorrichtung eine virtuelle Icon-Anzeigeoberfläche R der anderen Schaltflächen von dem Nutzer weiter entfernt als die „te” Buchstabentasten-Schaltfläche und die Buchstabentasten-Schaltflächen 50a, die benachbart zu dieser Buchstabentasten-Schaltfläche existieren, um die anderen Schaltflächen derart anzuzeigen, dass diese von dem Nutzer weiter entfernt fokussiert sind als die „te” Buchstabentasten-Schaltfläche und die Buchstabentasten-Schaltflächen 50a, die benachbart zu dieser Buchstabentasten-Schaltfläche über eine stereoskopische Ansicht existieren. Als Ergebnis hebt die stereoskopische Dreidimensionen-Anzeigevorrichtung die Anzeige der Schaltflächen hervor, die der Nutzer bedienen bzw. betätigen wird, und die Schaltflächen, die benachbart zu dieser Schaltfläche existieren, wenn diese von der Position des Nutzers betrachtet werden, und bewirkt, dass der Bildschirm lesbarer wird und ermöglicht dem Nutzer eine leichtere Durchführung einer Eingabebedienungsoperation.
  • Wenn ferner der Finger des Nutzers sich einer Buchstabentasten-Schaltfläche nähert erhöht die stereoskopische Dreidimensionen-Anzeigevorrichtung den Projektionsgrad, mit dem die Buchstabentasten-Schaltfläche, der sich der Finger des Nutzers angenähert hat, und Buchstabentasten-Schaltflächen 50a, die benachbart zu dieser Buchstabentasten-Schaltfläche existieren über eine stereoskopische Ansicht projiziert werden, wie in 12(b) gezeigt. Insbesondere zeigt die stereoskopische Dreidimensionen-Anzeigevorrichtung die Buchstabentasten-Schaltfläche, der sich der Finger des Nutzers angenähert hat, und die Buchstabentasten-Schaltflächen 50a, die benachbart zu dieser Buchstabentasten-Schaltfläche existieren, unter Verwendung einer stereoskopischen Ansicht derart an, dass diese näher zu dem Nutzer im Raum stehen. Zu diesem Zeitpunkt kann die stereoskopische Dreidimensionen-Anzeigevorrichtung die Icon-Bilder derart anzeigen, dass diese sich von der Icon-Anzeigeoberfläche R der anderen Schaltflächen erstrecken, wie in 12(b) gezeigt. Insbesondere zeigt die stereoskopische Dreidimensionen-Anzeigevorrichtung die Buchstabentasten-Schaltfläche, der sich der Finger des Nutzers angenähert hat, und die Buchstabentasten-Schaltflächen 50a, die benachbart zu dieser Buchstabentasten-Schaltfläche existieren, an einer Icon-Anzeigeoberfläche R1 an, die näher zu dem Nutzer platziert ist als die virtuelle Icon-Anzeigeoberfläche R der Icons, die die anderen Schaltflächen zeigen, während die Icon-Bilder zu Bildern geändert werden, die derart erscheinen, als ob diese sich von der Icon-Anzeigeoberfläche R erstrecken. Selbst auf diese Weise hebt die stereoskopische Dreidimensionen-Anzeigevorrichtung die Anzeige der Schaltflächen hervor, die der Nutzer bedienen bzw. betätigen wird, sowie die Schaltflächen, die benachbart zu dieser Schaltfläche existieren, betrachtet von der Position des Nutzers, und bewirkt, dass der Bildschirm lesbar wird und es dem Nutzer erleichtert, leicht eine Eingabebedienungsoperation durchzuführen.
  • Obwohl ferner in der oben erwähnten Ausführungsform 1 der Fall gezeigt ist, bei dem eine ebene Karte in einer stereoskopischen Art und Weise angezeigt ist, kann die vorliegende Erfindung ebenso für eine Anzeige von Information angewendet werden, wie z. B. ein Menü-Bildschirm für ein AV-System, eine Fahrzeuginformation, oder Sicherheitsinformation, solang die Information eine typische Information ist, die an dem Fahrzeuginformationssystem angezeigt wird. Die vorliegende Erfindung kann z. B. für eine Anzeige eines Icons bzw. Bildzeichens zur Steuerung einer Klimaanlage, einem Messinstrument im Armaturenbrett, einer Information bezüglich der Kraftstoffeffizienz des Fahrzeugs, einer präventiven Sicherheitsinformation, VICS-(registrierte Marke)Information, oder dergleichen verwendet werden.
  • Obwohl darüber hinaus in der oben erwähnten Ausführungsform 1 der Fall gezeigt ist, bei dem eine stereoskopische Anzeige erzeugt wird, die stereoskopisch mit dem nackten Auge betrachtet wird, kann die vorliegende Erfindung auch ein stereoskopisches Anzeigeverfahren zur Bereitstellung eines stereoskopischen Bildes unter Verwendung einer Polarisationsbrille verwendet werden. Obwohl ferner in Ausführungsform 1 ein dreidimensionales Berührungsfeld vom optischen Typ zur Erfassen, dass ein Finger oder ein Zeigeobjekt einen Bereich bei einem Abstand von z3 oder geringer von einer Berührungsoberfläche erreicht, als das dreidimensionale Berührungsfeld verwendet wird, wie in 4 gezeigt, kann alternative ein Berührungsfeld vom Kapazitätstyp zum kontinuierlichen Erfassen eines Abstands z in der Normalenrichtung zu dem Berührungsfeld in einer analogen Art und Weise verwendet werden. Die vorliegende Erfindung ist nicht auf das oben beschriebene Verfahren begrenzt, solang die Position eines Fingers oder eines Zeigeobjekts in dem dreidimensionalen Raum erfasst werden kann. Die stereoskopische Dreidimensionen-Anzeigevorrichtung kann z. B. die Position eines Fingers oder eines Zeigeobjekts über die Durchführung einer Bildverarbeitung erfassen.
  • Obwohl in der oben erwähnten Ausführungsform 1 der Fall gezeigt ist, bei dem die stereoskopische Dreidimensionen-Anzeigevorrichtung gemäß der vorliegenden Erfindung für ein Fahrzeuginformationssystem angewendet wird, kann die stereoskopische Dreidimensionen-Anzeigevorrichtung gemäß der vorliegenden Erfindung für jede Anzeigevorrichtung angewendet werden, die einen derartigen stereoskopischen Anzeigemonitor wie oben erwähnt aufweist. Die stereoskopische Dreidimensionen-Anzeigevorrichtung gemäß der vorliegenden Erfindung kann z. B. nicht nur für eine Fahrzeugnavigationsvorrichtung angewendet werden, sondern auch für eine Anzeigevorrichtung zur Verwendung in einem Mobiltelefon-Endgerät oder einem Mobilinformations-Endgerät (PDA; engl. Personal Digital Assistance). Die stereoskopische Dreidimensionen-Anzeigevorrichtung gemäß der vorliegenden Erfindung kann ferner für eine Anzeigevorrichtung angewendet werden, wie z. B. ein PND (engl. Portable Navigation Device), das eine Person in einem sich bewegenden Objekt trägt, wie z. B. einem Fahrzeug, einer Bahn, einem Schiff, oder einem Flugzeug, um dieses zu verwenden.
  • Die vorliegende Erfindung ist nicht auf die Struktur beschränkt, die in der oben erwähnten Ausführungsform 1 erläutert ist. Das heißt, dass verstanden wird, dass einige der strukturellen Komponenten, die in der oben erwähnten Ausführungsform 1 gezeigt sind, frei kombiniert werden können, und eine Variation und ein Weglassen von jeder der strukturellen Komponenten erfolgen kann, ohne vom Umfang der Erfindung abzuweichen.
  • INDUSTRIELLE ANWENDBARKEIT
  • Da die stereoskopische Dreidimensionen-Anzeigevorrichtung gemäß der vorliegenden Erfindung eine HMI mit einer dreidimensionalen stereoskopischen Anzeige bereitstellen kann, die es dem Nutzer ermöglicht, eine Bedienungsoperation durchzuführen, die mit der Intuition des Nutzers übereinstimmt, ist die stereoskopische Dreidimensionen-Anzeigevorrichtung zur Verwendung als eine Anzeigevorrichtung geeignet, die in einem Fahrzeuginformationssystem angebracht ist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2005-175566 [0003]

Claims (9)

  1. Stereoskopische Dreidimensionen-Anzeigevorrichtung, umfassend: eine stereoskopische Anzeigemonitoreinheit zum Anzeigen eines Rechtes-Auge-Bildes oder Videobildes und eines Linkes-Auge-Bildes oder Videobildes für eine dreidimensionale stereoskopische Anzeige eines Bedienungsoperationsbildschirms in einer dreidimensionalen stereoskopischen Art und Weise; eine Berührungsfeldeinheit, angeordnet an einem Bildschirm der stereoskopischen Anzeigemonitoreinheit, zum Erfassen einer Relativposition eines Zeigeobjekts relativ zu einer Berührungsoberfläche davon, wobei das Zeigeobjekt verwendet wird zum Durchführen einer Berührungsoperation an dem Bedienungsoperationsbildschirm, der an dem Bildschirm der stereoskopischen Anzeigemonitoreinheit in einer dreidimensionalen stereoskopischen Art und Weise angezeigt wird; eine Bildschirmzusammenfügungs-Verarbeitungseinheit zum Erzeugen des Rechtes-Auge-Bildes oder Videobildes und des Linkes-Auge-Bildes oder Videobildes für eine dreidimensionale stereoskopische Anzeige, bei der eine virtuelle Anzeigeoberfläche für eine dreidimensionale stereoskopische Anzeige eines Icon-Bildes, wobei es sich um ein Bedienungsoperationsziel handelt, auf dem Bedienungsoperationsbildschirm derart eingestellt ist, um an einer vorderen Position bezüglich des Bildschirms der stereoskopischen Anzeigemonitoreinheit platziert zu sein; und eine Steuereinheit zum Bestimmen, dass das Icon-Bild betätigt wird, wenn die Berührungsfeldeinheit ein Zeigeobjekt erfasst, das zum Durchführen einer Berührungsoperation an dem Icon-Bild verwendet wird.
  2. Stereoskopische Dreidimensionen-Anzeigevorrichtung nach Anspruch 1, wobei dann, wenn die Berührungsfeldeinheit erfasst, dass das Zeigeobjekt in einem Erfassungsraum davon an dem Icon-Bild während einer vorbestimmten Zeitperiode existiert, oder dann, wenn die Berührungsfeldeinheit erfasst, dass das Zeigeobjekt eine vorbestimmte Bedienungsoperation in dem Erfassungsraum und in einer Nähe des Erfassungsraums durchführt, die Steuereinheit bestimmt, dass das Icon-Bild betätigt wird.
  3. Stereoskopische Dreidimensionen-Anzeigevorrichtung nach Anspruch 2, wobei die vorbestimmte Bedienungsoperation zumindest eine ist aus einer Operation des Zeigeobjekts zum Drücken der Berührungsoberfläche, einer Operation des Zeigeobjekts zum Zeichnen einer Linie mit einer vorbestimmten Form, und einer Operation des Zeigeobjekts zum Bewegen nach oben und nach unten oder nach rechts und nach links.
  4. Stereoskopische Dreidimensionen-Anzeigevorrichtung nach Anspruch 2, wobei dann, wenn die Berührungsfeldeinheit erfasst, dass das Zeigeobjekt in dem Erfassungsraum davon an dem Icon-Bild existiert, wenn die Berührungsfeldeinheit erfasst, dass das Zeigeobjekt in dem Erfassungsraum während der vorbestimmten Zeitperiode existiert, oder dann, wenn die Berührungsfeldeinheit umfasst, dass das Zeigeobjekt die vorbestimmte Bedienungsoperation in dem Erfassungsraum und in der Nähe des Erfassungsraums durchführt, die Steuereinheit bestimmt, dass das Icon-Bild betätigt werden wird, und die Bildschirmzusammenführungs-Verarbeitungseinheit das Rechtes-Auge-Bild oder Videobild und das Linke-Auge-Bild oder Videobild für eine dreidimensionale stereoskopische Anzeige erzeugt, bei der eine Anzeige des Icon-Bildes, von dem die Steuereinheit bestimmt, dass dieses durch das Zeigeobjekt betätigt werden wird, geändert wird.
  5. Stereoskopische Dreidimensionen-Anzeigevorrichtung nach Anspruch 4, wobei die Bildschirmzusammenfügungs-Verarbeitungseinheit zumindest eines ändert aus einer Farbe und einer Form des Icon-Bildes, und einer Position der virtuellen Anzeigeoberfläche für eine dreidimensionale stereoskopische Anzeige des Icon-Bildes.
  6. Stereoskopische Dreidimensionen-Anzeigevorrichtung nach Anspruch 4, wobei die Bildschirmzusammenfügungs-Verarbeitungseinheit das Icon-Bild vergrößert, das durch die Steuereinheit bestimmt wird, durch das Zeigeobjekt betätigt zu werden, und ein anderes Icon-Bild, das in einem vorbestimmten Bereich einschließlich des Icon-Bildes existiert, oder das Rechte-Auge-Bild oder Videobild und das Linke-Auge-Bild oder Videobild für eine dreidimensionale stereoskopische Anzeige erzeugt, bei der eine Position der virtuellen Anzeigeoberfläche für eine dreidimensionale stereoskopische Anzeige des Icon-Bildes geändert wird.
  7. Stereoskopische Dreidimensionen-Anzeigevorrichtung nach Anspruch 1, wobei die Bildschirmzusammenfügungs-Verarbeitungseinheit das Rechte-Auge-Bild oder Videobild und das Linke-Auge-Bild oder Videobild für eine dreidimensionale stereoskopische Anzeige erzeugt, bei der die virtuelle Anzeigeoberfläche für eine dreidimensionale stereoskopische Anzeige des Icon-Bildes, wobei es sich um das Bedienungsoperationsziel an dem Bedienungsoperationsbildschirm handelt, eingestellt ist, sodass dieses an einer vorderen Position bezüglich des Bildschirms der stereoskopischen Anzeigemonitoreinheit platziert ist, an einem Abstand, der durch einen Nutzer eingestellt ist.
  8. Stereoskopische Dreidimensionen-Anzeigevorrichtung nach Anspruch 1, wobei die Bildschirmzusammenfügungs-Bearbeitungseinheit das Rechte-Auge-Bild oder das Videobild und das Linke-Auge-Bild oder Videobild für eine dreidimensionale stereoskopische Anzeige erzeugt, bei der die virtuelle Anzeigeoberfläche für eine dreidimensionale stereoskopische Anzeige des Icon-Bildes, wobei es sich um das Bedienungsoperationsziel handelt, an dem Bedienungsoperationsbildschirm eingestellt ist, um an einer vorderen Position bezüglich des Bildschirms der stereoskopischen Anzeigemonitoreinheit platziert zu sein, an einem Abstand, der gemäß einem Zustand eines sich bewegenden Objekts bestimmt wird, das mit der stereoskopischen Dreidimensionen-Anzeigevorrichtung ausgestattet ist oder dieses hält.
  9. Stereoskopische Dreidimensionen-Anzeigevorrichtung nach Anspruch 8, wobei der Abstand, der gemäß dem Zustand des sich bewegenden Objekts vorab bestimmt ist, dass mit der stereoskopischen Dreidimensionen-Anzeigevorrichtung ausgestattet ist oder dieses hält, gemäß einer Fahrgeschwindigkeit des sich bewegenden Objekts vorab bestimmt ist.
DE112010005947T 2010-10-20 2010-10-20 Stereoskopische Dreidimensionen-Anzeigevorrichtung Withdrawn DE112010005947T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/006220 WO2012053033A1 (ja) 2010-10-20 2010-10-20 3次元立体表示装置

Publications (1)

Publication Number Publication Date
DE112010005947T5 true DE112010005947T5 (de) 2013-08-08

Family

ID=45974773

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112010005947T Withdrawn DE112010005947T5 (de) 2010-10-20 2010-10-20 Stereoskopische Dreidimensionen-Anzeigevorrichtung

Country Status (4)

Country Link
US (1) US20130093860A1 (de)
JP (1) JP5781080B2 (de)
DE (1) DE112010005947T5 (de)
WO (1) WO2012053033A1 (de)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012248066A (ja) * 2011-05-30 2012-12-13 Canon Inc 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置
US9591296B2 (en) 2011-07-04 2017-03-07 Nec Corporation Image processing device, image processing method, and image processing program that links three-dimensional protrusion intensity setting value and user interface spatial recognition sensitivity setting value
US8509986B1 (en) * 2012-04-27 2013-08-13 Innova Electronics, Inc. Automotive diagnostic tool with projection display and virtual input
JP5735453B2 (ja) * 2012-05-16 2015-06-17 ヤフー株式会社 表示制御装置、表示制御方法、情報表示システム、およびプログラム。
JP6166931B2 (ja) * 2013-03-29 2017-07-19 株式会社Subaru 車両用表示装置
CN107264283B (zh) 2013-03-29 2019-07-19 株式会社斯巴鲁 运输设备用显示装置
JP6236213B2 (ja) * 2013-03-29 2017-11-22 株式会社Subaru 車両用表示装置
CN105814530B (zh) * 2013-12-05 2018-11-13 三菱电机株式会社 显示控制装置及显示控制方法
JP2016051288A (ja) * 2014-08-29 2016-04-11 株式会社デンソー 車両用入力インターフェイス
KR101560224B1 (ko) * 2014-10-27 2015-10-14 현대자동차주식회사 센터페시아 통합 인터페이스 제공 방법 및 장치
CN104639966A (zh) * 2015-01-29 2015-05-20 小米科技有限责任公司 遥控方法及装置
US10345991B2 (en) * 2015-06-16 2019-07-09 International Business Machines Corporation Adjusting appearance of icons in an electronic device
JP6733731B2 (ja) * 2016-06-28 2020-08-05 株式会社ニコン 制御装置、プログラムおよび制御方法
JP6950192B2 (ja) * 2017-02-10 2021-10-13 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
CN107948632A (zh) * 2017-12-26 2018-04-20 郑州胜龙信息技术股份有限公司 一种三维虚拟显示系统
WO2021241822A1 (ko) * 2020-05-27 2021-12-02 (주)지티티 비접촉식 터치 패널 시스템 및 그 제어방법 그리고 기존의 터치스크린에 장착 가능한 비접촉식 입력장치
JP2022539483A (ja) 2020-05-27 2022-09-12 ジーティーティー カンパニー リミテッド 非接触式タッチパネルシステム及びその制御方法、並びに既存のタッチスクリーンに装着可能な非接触式入力装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005175566A (ja) 2003-12-08 2005-06-30 Shinichi Hirabayashi 立体表示システム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962179A (ja) * 1995-08-25 1997-03-07 Hitachi Ltd 移動体ナビゲーション装置
JP3375258B2 (ja) * 1996-11-07 2003-02-10 株式会社日立製作所 地図表示方法及び装置並びにその装置を備えたナビゲーション装置
JPH10223102A (ja) * 1997-02-05 1998-08-21 Tietech Co Ltd 立体視画像によるタッチレススイッチ
JP2003280812A (ja) * 2002-03-20 2003-10-02 Hitachi Ltd タッチパネル付きディスプレイ装置及び表示方法
JP2004272354A (ja) * 2003-03-05 2004-09-30 Sanyo Electric Co Ltd 立体表示型操作パネル
JP2004280496A (ja) * 2003-03-17 2004-10-07 Kyocera Mita Corp 操作パネル装置
JP3795026B2 (ja) * 2003-03-20 2006-07-12 株式会社ソフィア 遊技機
JP3939709B2 (ja) * 2004-04-30 2007-07-04 日本電信電話株式会社 情報入力方法および情報入出力装置
JP4076090B2 (ja) * 2005-04-14 2008-04-16 日本電信電話株式会社 画像表示システム
JP4856534B2 (ja) * 2005-12-27 2012-01-18 株式会社バンダイナムコゲームス 画像生成装置、プログラム及び情報記憶媒体
US20100066662A1 (en) * 2006-10-02 2010-03-18 Pioneer Corporation Image display device
WO2008062586A1 (fr) * 2006-11-22 2008-05-29 Sharp Kabushiki Kaisha Dispositif d'affichage, procédé d'affichage, programme d'affichage, et support d'enregistrement
US8970501B2 (en) * 2007-01-03 2015-03-03 Apple Inc. Proximity and multi-touch sensor detection and demodulation
US8094189B2 (en) * 2007-01-30 2012-01-10 Toyota Jidosha Kabushiki Kaisha Operating device
JP2010107685A (ja) * 2008-10-30 2010-05-13 Fujifilm Corp 3次元表示装置および方法並びにプログラム
JPWO2010098159A1 (ja) * 2009-02-24 2012-08-30 シャープ株式会社 立体表示装置
JP2011081480A (ja) * 2009-10-05 2011-04-21 Seiko Epson Corp 画像入力システム
US8913056B2 (en) * 2010-08-04 2014-12-16 Apple Inc. Three dimensional user interface effects on a display by using properties of motion

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005175566A (ja) 2003-12-08 2005-06-30 Shinichi Hirabayashi 立体表示システム

Also Published As

Publication number Publication date
WO2012053033A1 (ja) 2012-04-26
JP5781080B2 (ja) 2015-09-16
US20130093860A1 (en) 2013-04-18
JPWO2012053033A1 (ja) 2014-02-24

Similar Documents

Publication Publication Date Title
DE112010005947T5 (de) Stereoskopische Dreidimensionen-Anzeigevorrichtung
DE112010005945B4 (de) Stereoskopische Dreidimensionen-Anzeigevorrichtung
US10984356B2 (en) Real-time logistics situational awareness and command in an augmented reality environment
DE112013006557B4 (de) Anzeigesteuersystem
US9030465B2 (en) Vehicle user interface unit for a vehicle electronic device
CN102812420B (zh) 立体显示装置和立体成像装置、用于上述装置的优势眼判定方法
DE112010005944T5 (de) Stereoskopische Dreidimensionen-Anzeigevorichtung
JP4246195B2 (ja) カーナビゲーションシステム
DE102012110934B4 (de) Anzeigevorrichtung für Fahrzeuge
EP3507681B1 (de) Verfahren zur interaktion mit bildinhalten, die auf einer anzeigevorrichtung in einem fahrzeug dargestellt werden
DE112018004519T5 (de) Anzeigevorrichtung eines überlagerten Bildes und Computerprogramm
DE112012001022T5 (de) Ausrichtungssteuerung in einem am Kopf zu tragenden Gerät mit erweiterter Realität
DE102013210746A1 (de) System und Verfahren zum Überwachen und/oder Bedienen einer technischen Anlage, insbesondere eines Fahrzeugs
EP3055650A1 (de) Verfahren und vorrichtung zur augmentierten darstellung
CN102934427A (zh) 图像处理装置、图像处理系统和图像处理方法
DE102008045406A1 (de) Bordeigene Anzeigevorrichtung und Anzeigeverfahren für eine bordeigene Anzeigevorrichtung
DE102006032117A1 (de) Informationssystem für ein Verkehrsmittel und Verfahren zum Steuern eines solchen Informationssystems
DE102018133013A1 (de) Fahrzeugfernsteuerungsvorrichtung und fahrzeugfernsteuerungsverfahren
EP3116737A1 (de) Verfahren und vorrichtung zum bereitstellen einer graphischen nutzerschnittstelle in einem fahrzeug
DE102019131942A1 (de) Umfeldüberwachungseinrichtung
DE102021124168A1 (de) Integriertes augmented-reality-system zum teilen von augmented-reality-inhalt zwischen fahrzeuginsassen
DE102018133030A1 (de) Fahrzeugfernsteuerungsvorrichtung und fahrzeugfernsteuerungsverfahren
EP2990251A2 (de) Vorrichtung und verfahren zur bedienung von multimedia-inhalten in einem fortbewegungsmittel
TW201919390A (zh) 顯示系統以及顯示方法
DE112010005948B4 (de) Stereskopische Dreidimensionen-Anzeigevorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: HOFFMANN - EITLE PATENT- UND RECHTSANWAELTE PA, DE

Representative=s name: HOFFMANN - EITLE, DE

R084 Declaration of willingness to licence
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee