DE112011104939T5 - Anzeigevorrichtung und Verfahren zum Steuern derselben - Google Patents

Anzeigevorrichtung und Verfahren zum Steuern derselben Download PDF

Info

Publication number
DE112011104939T5
DE112011104939T5 DE112011104939.0T DE112011104939T DE112011104939T5 DE 112011104939 T5 DE112011104939 T5 DE 112011104939T5 DE 112011104939 T DE112011104939 T DE 112011104939T DE 112011104939 T5 DE112011104939 T5 DE 112011104939T5
Authority
DE
Germany
Prior art keywords
stereoscopic image
gesture
display device
user
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112011104939.0T
Other languages
English (en)
Inventor
Soungmin Im
Sangki KIM
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of DE112011104939T5 publication Critical patent/DE112011104939T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es werden eine Anzeigevorrichtung und ein Verfahren zum Steuern derselben offenbart. Die Anzeigevorrichtung und das Verfahren zum Steuern derselben umfassen eine Kamera, die eine von einem Benutzer gemachte Geste aufnimmt, eine Anzeige, die ein stereoskopisches Bild anzeigt, und eine Steuereinheit, die eine Darstellung des stereoskopischen Bilds als Antwort auf einen Abstand zwischen der Geste und dem stereoskopischen Bild in einem virtuellen Raum und eine Annäherungsrichtung der Geste in Bezug auf das stereoskopische Bild steuert. Dementsprechend kann die Darstellung des stereoskopischen Bilds als Antwort auf einen Abstand und eine Annäherungsrichtung in Bezug auf das stereoskopische Bild gesteuert werden.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Anzeigevorrichtung und ein Verfahren zum Steuern derselben, und insbesondere eine Anzeigevorrichtung und ein Verfahren zum Steuern derselben, die imstande sind, eine Darstellung (d. h. Anzeige) eines Bilds als Antwort auf einen Abstand und eine Annäherungsrichtung in Bezug auf ein stereoskopisches Bild zu steuern.
  • Stand der Technik
  • Die funktionelle Diversifizierung von Endgeräten, wie zum Beispiel Personalcomputern, Laptop-Computern, Mobiltelefonen oder dergleichen, hat zu deren Ausführung als Endgeräte vom Typ Multimedia-Player, ausgestattet mit komplexen Funktionen wie zum Beispiel Aufnahme von Bildern oder Videos, Wiedergabe von Musik- oder Video-Dateien, Angebot von Spiele-Diensten, Empfang von Rundfunksignalen oder dergleichen, geführt.
  • Endgeräte können, als Multimedia-Geräte, auch Anzeigevorrichtungen genannt werden, da sie im Allgemeinen ausgelegt sind, um eine Vielfalt von Bildinformation anzuzeigen.
  • Solche Anzeigevorrichtungen können entsprechend ihrer Mobilität in tragbare und stationäre Typen eingeordnet werden. Beispiele für tragbare Anzeigevorrichtungen können Laptop-Computer, Mobiltelefone und dergleichen umfassen, während Beispiele für stationäre Anzeigevorrichtungen Fernsehgeräte, Monitore für Desktop-Computer und dergleichen umfassen können.
  • Offenbarung der Erfindung
  • Technisches Problem
  • Es ist daher eine Aufgabe der vorliegenden Erfindung, eine Anzeigevorrichtung und ein Verfahren zum Steuern derselben, die imstande sind, die Darstellung eines Bilds als Antwort auf einen Abstand und eine Annäherungsrichtung in Bezug auf ein stereoskopisches Bild zu steuern, bereitzustellen.
  • Lösung des Problems
  • Gemäß einem Gesichtspunkt der vorliegenden Erfindung wird eine Anzeigevorrichtung bereitgestellt, umfassend: eine Kamera, die eine Geste eines Benutzers aufnimmt; eine Anzeige, die ein stereoskopisches Bild anzeigt; und eine Steuereinheit, die eine Darstellung des stereoskopischen Bilds als Antwort auf einen Abstand zwischen der Geste und dem stereoskopischen Bild in einem virtuellen Raum und eine Annäherungsrichtung der Geste in Bezug auf das stereoskopische Bild steuert.
  • Gemäß einem weiteren Gesichtspunkt der vorliegenden Erfindung wird eine Anzeigevorrichtung bereitgestellt, umfassend: eine Kamera, die eine Geste eines Benutzers aufnimmt; eine Anzeige, die ein stereoskopisches Bild mit einer Vielzahl von Seiten anzeigt; und eine Steuereinheit, die eine mindestens einer aus der Vielzahl von Seiten zugeordnete Funktion als Antwort auf eine Annäherungsrichtung der Geste in Bezug auf die mindestens eine Seite aus der Vielzahl von Seiten in einem virtuellen Raum ausführt.
  • Gemäß einer weiteren beispielhaften Ausführungsform der vorliegenden Erfindung wird ein Verfahren zum Steuern der Anzeigevorrichtung bereitgestellt, umfassend: Anzeigen eines stereoskopischen Bilds; Erfassen einer Geste in Bezug auf das angezeigte stereoskopische Bild; und Steuern einer Darstellung des stereoskopischen Bilds als Antwort auf einen Abstand zwischen der Geste und dem stereoskopischen Bild in einem virtuellen Raum und eine Annäherungsrichtung der Geste in Bezug auf das stereoskopische Bild.
  • Gemäß einer weiteren beispielhaften Ausführungsform der vorliegenden Erfindung wird ein Verfahren zum Steuern einer Anzeigevorrichtung bereitgestellt, umfassend: Anzeigen eines stereoskopischen Bilds mit einer Vielzahl von Seiten; Erfassen einer Geste in Bezug auf das angezeigte stereoskopische Bild; und Ausführen einer mindestens einer von der Vielzahl von Seiten zugeordneten Funktion als Antwort auf eine Annäherungsrichtung der Geste in Bezug auf die mindestens eine von der Vielzahl von Seiten in einem virtuellen Raum.
  • Vorteilhafte Wirkungen der Erfindung
  • In einer Anzeigevorrichtung und einem Verfahren zum Steuern derselben kann, gemäß beispielhaften Ausführungsformen der vorliegenden Erfindung, die Darstellung eines Bilds als Antwort auf einen Abstand und eine Annäherungsrichtung in Bezug auf ein stereoskopisches Bild gesteuert werden.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm einer Anzeigevorrichtung gemäß einer Ausführungsform dieses Schriftstücks.
  • 2 ist eine konzeptionelle Ansicht zur Erläuterung einer Näherungstiefe eines Näherungssensors.
  • 3 und 4 sind Ansichten zur Erläuterung eines Verfahrens zum Anzeigen eines stereoskopischen Bilds unter Verwendung einer binokularen Parallaxe gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung.
  • 5 ist ein Flussdiagramm gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung.
  • 6 bis 9 sind Ansichten zur Erläuterung eines Verfahrens zum Anzeigen eines stereoskopischen Bilds, zu 5 gehörend.
  • 10 ist ein zu 5 gehörendes Flussdiagramm des Verfahrens zum Erfassen einer Benutzergeste, in größerer Ausführlichkeit.
  • 11 ist eine Ansicht, die eine Geste zum Erhalten der Steuerung, zu 10 gehörend, darstellt.
  • 12 ist ein Flussdiagramm des Verfahrens zum Steuern der Darstellung des stereoskopischen Bilds, zu 5 gehörend, in größerer Ausführlichkeit.
  • 13 und 14 sind Ansichten, die Beispiele für ein angezeigtes stereoskopisches Bild darstellen.
  • 15 und 16 sind Ansichten, die Gesten in Bezug auf ein stereoskopisches Bild darstellen.
  • 17 bis 20 sind Ansichten, die Anzeigeänderungen entsprechend einer Geste mit Bezug auf ein stereoskopisches Bild darstellen.
  • 21 bis 26 sind Ansichten, die Gesten in Bezug auf ein stereoskopisches Bild in der Form eines Polyeders darstellen.
  • 27 bis 31 sind Ansichten, die Zeiger zur Auswahl eines stereoskopischen Bilds darstellen.
  • 32 bis 34 sind Ansichten, die das Verfahren zur Auswahl eines beliebigen aus einer Vielzahl von stereoskopischen Bildern darstellen.
  • 35 und 36 sind Ansichten, die einen Betrieb einer Rückmeldeeinheit darstellen.
  • 37 bis 39 sind Ansichten, die einen Betrieb einer Anzeigevorrichtung in Bezug auf eine weitere beispielhafte Ausführungsform des vorliegenden Schriftstücks darstellen.
  • Ausführung der Erfindung
  • Das Schriftstück wird nun ausführlicher unter Bezugnahme auf die beigefügten Zeichnungen, in denen beispielhafte Ausführungsformen dieses Schriftstücks gezeigt werden, beschrieben werden. Dieses Schriftstück kann jedoch in vielen verschiedenen Formen ausgeführt werden und sollte nicht als auf die hierin dargelegten Ausführungsformen beschränkt ausgelegt werden; vielmehr werden Ausführungsformen bereitgestellt, so dass diese Offenbarung gründlich und vollständig ist und dem Fachmann das Konzept dieses Schriftstücks voll und ganz vermittelt.
  • Im Folgenden wird ein mobiles Endgerät in Bezug auf dieses Schriftstück genauer unter Bezugnahme auf die beigefügten Zeichnungen beschrieben werden. In der folgenden Beschreibung werden Endungen ”Modul” und ”Einheit” den Komponenten des mobilen Endgeräts lediglich zum Zwecke einer Vereinfachung der Beschreibung gegeben und diese haben keine voneinander verschiedenen Bedeutungen oder Funktionen.
  • Das in der Beschreibung beschriebene mobile Endgerät kann ein Mobiltelefon, ein Smartphone, ein Laptop-Computer, ein digitales Rundfunk-Endgerät, ein Organizer (PDA, Personal Digital Assistant), ein tragbarer Multimedia-Player (PMP, Portable Multimedia Player), ein Navigationssystem und so weiter sein.
  • 1 ist ein Blockdiagramm einer Anzeigevorrichtung gemäß einer Ausführungsform dieses Schriftstücks.
  • Wie gezeigt kann die Anzeigevorrichtung 100 eine Kommunikationseinheit 110, eine Benutzer-Eingabeeinheit 120, eine Ausgabeeinheit 150, einen Speicher 160, eine Schnittstelle 170, eine Steuereinheit 180 und eine Stromversorgung 190 umfassen. Nicht alle der in 1 gezeigten Komponenten können wesentliche Teile sein und die Anzahl von in der Anzeigevorrichtung 100 enthaltenen Komponenten kann abgewandelt werden.
  • Die Kommunikationseinheit 110 kann mindestens ein Modul umfassen, das Kommunikation zwischen der Anzeigevorrichtung 100 und einem Kommunikationssystem oder zwischen der Anzeigevorrichtung 100 und einer anderen Vorrichtung ermöglicht. Zum Beispiel kann die Kommunikationseinheit 110 ein Rundfunkempfangsmodul 111, ein Internet-Modul 113 und ein Nahfeld-Kommunikationsmodul 114 umfassen.
  • Das Rundfunkempfangsmodul 111 kann Rundfunk-Signale und/oder Rundfunk-bezogene Information von einem externen Rundfunk-Managementserver durch einen Rundfunk-Kanal empfangen.
  • Der Rundfunkkanal kann einen Satelliten-Kanal und einen terrestrischen Kanal umfassen, und der Rundfunk-Managementserver kann ein Server sein, der Rundfunksignale und/oder Rundfunk-bezogene Information erzeugt und überträgt, oder ein Server, der zuvor erzeugte Rundfunksignale und/oder Rundfunk-bezogene Information empfängt und die Rundfunksignale und/oder Rundfunk-bezogene Information an ein Endgerät sendet. Die Rundfunksignale können nicht nur Fernseh-Rundfunksignale, Radio-Rundfunksignale und Daten-Rundfunksignale, sondern auch Signale in der Form einer Kombination aus einem TV-Rundfunksignal und einem Radio-Rundfunksignal oder einem Daten-Rundfunksignal umfassen.
  • Die Rundfunk-bezogene Information kann Information auf einem Rundfunkkanal, von einem Rundfunkprogramm oder einem Rundfunk-Dienstanbieter sein und kann sogar durch ein Kommunikationsnetz bereitgestellt werden.
  • Die Rundfunk-bezogene Information kann in verschiedenen Formen vorliegen. Zum Beispiel kann die Rundfunk-bezogene Information in der Form eines elektronischen Programmführers (EPG, Electronic Program Guide) von einem digitalen Multimedia-Rundfunk (DMB, Digital Multimedia Broadcasting) System oder in der Form eines elektronischen Dienste-Führers (ESG, Electronic Service Guide) eines Systems für digitalen Videorundfunk für Handgeräte (DVB-H, Digital Video Broadcast-Handheld) vorliegen.
  • Das Rundfunk-Empfangsmodul 111 kann Rundfunksignale unter Verwendung von verschiedenen Rundfunk-Systemen erhalten. Die durch das Rundfunkempfangsmodul 111 empfangenen Rundfunksignale und/oder rundfunkbezogene Information können in dem Speicher 160 gespeichert werden.
  • Das Internet-Modul 113 kann einem Modul für Internetzugang entsprechen und kann in der Anzeigevorrichtung 100 enthalten sein oder kann extern an der Anzeigevorrichtung 100 befestigt sein.
  • Das Nahfeld-Kommunikationsmodul 114 kann einem Modul zur Nahfeld-Kommunikation entsprechen. Ferner kann Bluetooth®, Identifizierung mit Hilfe elektromagnetischer Wellen (RFID, Radio Frequency Identification), Datenübertragung über Infrarot (IrDA, Infrared Data Association), Ultrabreitband (UWB, Ultra-Wideband) und/oder ZigBee® als Nahfeld-Kommunikationstechnik verwendet werden.
  • Die Benutzereingabe 120 wird verwendet, um ein Audiosignal oder ein Videosignal einzugeben, und kann eine Kamera 121 und ein Mikrofon 122 umfassen.
  • Die Kamera 121 kann Einzelbilder von in einer Video-Telefonie-Betriebsart oder einer Aufnahmebetriebsart durch einen Bildsensor erhaltenen Standbildern oder Bewegtbildern verarbeiten. Die verarbeiteten Einzelbilder können auf einer Anzeige 151 angezeigt werden. Die Kamera 121 kann eine 2D- oder 3D-Kamera sein. Darüber hinaus kann die Kamera 121 in der Form einer einzelnen 2D- oder 3D-Kamera oder in der Form einer Kombination von den 2D- und 3D-Kameras ausgestaltet sein.
  • Die von der Kamera 121 verarbeiteten Einzelbilder werden in dem Speicher 160 gespeichert oder können über die Kommunikationseinheit 110 an ein externes Gerät übertragen werden. Die Anzeigevorrichtung 100 kann mindestens zwei Kameras 121 umfassen.
  • Das Mikrofon 122 kann ein externes Audiosignal in einer Anruf-Betriebsart, einer Aufnahme-Betriebsart oder einer Spracherkennungs-Betriebsart empfangen und das empfangene Audiosignal in elektrische Audiodaten verarbeiten. Das Mikrofon 122 kann verschiedene Rauschunterdrückungsalgorithmen zum Entfernen oder Verringern von beim Empfang des externen Audiosignals erzeugtem Rauschen einsetzen.
  • Die Ausgabe-Einheit 150 kann die Anzeige 151 und ein Audio-Ausgabemodul 152 umfassen.
  • Die Anzeige 151 kann von der Anzeigevorrichtung 100 verarbeitete Information anzeigen. Die Anzeige 151 kann eine Benutzeroberfläche (UI, User Interface) oder eine grafische Benutzeroberfläche (GUI, Graphical User Interface) mit Bezug auf die Anzeigevorrichtung 100 anzeigen. Zusätzlich kann die Anzeige 151 mindestens eine aus einer Flüssigkristallanzeige, einer Dünnfilm-Transistorflüssigkristallanzeige, einer organischen Leuchtdioden-Anzeige, einer flexiblen Anzeige und einer dreidimensionalen Anzeige umfassen. Einige dieser Anzeigen können von einem transparenten oder einem lichtdurchlässigen Typ sein. Das heißt, dass die Anzeige 151 eine transparente Anzeige umfassen kann. Die transparente Anzeige kann eine transparente Flüssigkristall-Anzeige umfassen. Die hintere Struktur der Anzeige 151 kann ebenfalls von einem lichtdurchlässigen Typ sein. Dementsprechend kann ein Benutzer ein hinter dem Körper des Endgeräts gelegenes Objekt durch den transparenten Bereich des Endgeräte-Körpers, von der Anzeige 151 eingenommen, sehen.
  • Die Anzeigevorrichtung 100 kann mindestens zwei Anzeigen 151 umfassen. Zum Beispiel kann die Anzeigevorrichtung 100 eine Vielzahl von Anzeigen 151, die auf einer einzigen Ebene in einem vorbestimmten Abstand gelegen sind, oder integrierte Displays umfassen. Die Vielzahl von Anzeigen 151 kann ebenfalls auf verschiedenen Ebenen angeordnet sein.
  • Weiterhin kann, wenn die Anzeige 151 und ein Berührung erfassender Sensor (im Folgenden als ein Berührungssensor bezeichnet) eine geschichtete Struktur bilden, die als ein Touchscreen bezeichnet wird, die Anzeige 151 zusätzlich zu einer Ausgabevorrichtung als eine Eingabevorrichtung verwendet werden. Der Berührungssensor kann zum Beispiel in der Form eines Berührungsfilmes, einer Berührungsschicht und eines Berührungsblocks vorliegen.
  • Der Berührungssensor kann eine Veränderung in einem auf einen bestimmten Abschnitt der Anzeige 151 ausgeübten Druck oder eine Veränderung in einer in einem bestimmten Abschnitt der Anzeige 151 erzeugten Kapazität in ein elektrisches Eingangssignal umwandeln. Der Berührungssensor kann Druck von einer Berührung sowie Position und Bereich der Berührung ermitteln.
  • Wenn der Benutzer eine Berührungseingabe auf den Berührungssensor anwendet, wird ein Signal entsprechend der Berührungseingabe an eine Berührungssteuereinheit übertragen. Die Berührungssteuereinheit kann dann das Signal verarbeiten und Daten entsprechend dem verarbeiteten Signal an die Steuereinheit 180 übertragen. Dementsprechend kann die Steuereinheit 180 einen berührten Abschnitt der Anzeige 151 erkennen.
  • Das Audio-Ausgabe-Modul 152 kann von der Radiokommunikationseinheit 110 empfangene oder im Speicher 160 gespeicherte Audiodaten ausgeben. Das Audio-Ausgabemodul 152 kann Audiosignale in Bezug auf in der Anzeigevorrichtung 100 ausgeführte Funktionen, wie zum Beispiel einen Klang für eingehende Anrufe und einen Klang für eingehende Nachrichten, ausgeben.
  • Der Speicher 160 kann ein Programm für den Betrieb der Steuereinheit 180 speichern und Eingabe-/Ausgabe-Daten wie zum Beispiel Telefonbuch, Nachrichten, Standbilder und/oder Bewegtbilder vorübergehend speichern. Der Speicher 160 kann ebenfalls Daten über Vibrationen und Klänge in verschiedenen Mustern, die, wenn eine Berührungseingabe auf den Touchscreen übertragen wird, ausgegeben werden, speichern.
  • Der Speicher 160 kann zumindest einen Flash-Speicher, einen Speicher vom Typ Festplatte, einen Speicher vom Typ Multimedia-Microkarte, einen Speicher vom Typ Karte wie zum Beispiel SD- oder XD-Speicher, einen Direktzugriffsspeicher (RAM, Random Access Memory), einen statischen RAM (SRAM), einen Nur-Lese-Speicher (ROM, Read-Only Memory), einen elektrisch löschbaren programmierbaren ROM (EEPROM), einen programmierbaren ROM (PROM), einen magnetischen Speicher, eine magnetische Festplatte oder eine optische Platte umfassen. Die Anzeigevorrichtung 100 kann auch in Zusammenhang mit einem Netz-Speicher, welcher die Speicherfunktion des Speichers 160 über das Internet ausführt, arbeiten.
  • Die Schnittstelle 170 kann als ein Verbindungsweg zu allen mit dem mobilen Endgerät 100 verbundenen externen Geräten dienen. Die Schnittstelle 170 kann Daten von den externen Geräten oder Strom empfangen und die Daten oder Strom zu internen Komponenten des Anzeigevorrichtungsendgeräts 100 übertragen oder Daten des mobilen Endgeräts 100 zu den externen Geräten übertragen. Zum Beispiel kann die Schnittstelle 170 einen drahtgebundenen/drahtlosen Headset-Anschluss, einen externen Ladegerät-Anschluss, einen drahtgebundenen/drahtlosen Daten-Anschluss, einen Speicherkarten-Anschluss, einen Anschluss zum Verbinden eines Geräts mit einem Benutzer-Identifikations-Modul, einen Audio-I/O-Anschluss, einen Video-I/O-Anschluss und/oder einen Kopfhörer-Anschluss umfassen.
  • Die Steuereinheit 180 kann einen Gesamtbetrieb des mobilen Endgeräts 100 steuern. Zum Beispiel kann die Steuereinheit 180 eine Steuerung und Verarbeitung für Sprach-Kommunikation ausführen. Die Steuereinheit 180 kann auch einen Bildprozessor 182 für Bildverarbeitung umfassen, was später erläutert wird.
  • Die Stromversorgung 190 empfängt externen Strom und internen Strom und stellt für jede der Komponenten der Anzeigevorrichtung 100 benötigten Strom bereit, um unter der Steuerung der Steuereinheit 180 zu arbeiten.
  • Verschiedene in diesem Schriftstück beschriebene Ausführungen können in Software, Hardware oder einem computerlesbaren Aufzeichnungsmedium ausgeführt sein. Gemäß Hardware-Ausführung können Ausführungsformen dieses Schriftstücks unter Verwendung von mindestens einer aus anwendungsspezifischen integrierten Schaltungen (ASICs; Application Specific Integrated Circuits), digitalen Signalprozessoren (DSPs; Digital Signal Processors), digitalen Signalverarbeitungseinrichtungen (DSPDs; Digital Signal Processing Devices), programmierbaren logischen Schaltungen (PLD; Programmable Logic Devices), Feldprogrammierbaren Gatter-Anordnungen (FPGAs; Field Programmable Gate Array), Prozessoren, Steuereinheiten, Mikrocontroller, Mikroprozessoren und/oder elektrischen Anlagen zum Ausführen von Funktionen ausgeführt sein. Die Ausführungsformen können in einigen Fällen durch die Steuereinheit 180 ausgeführt sein.
  • Gemäß Software-Ausführung können Ausführungsformen wie zum Beispiel Prozeduren oder Funktionen mit einem separaten Software-Modul ausgeführt werden, die mindestens eine Funktion oder Operation durchführen. Software-Codes können gemäß einer in einer geeigneten Programmier-Sprache geschriebenen Software-Anwendung ausgeführt werden. Die Software-Codes können in dem Speicher 160 gespeichert sein und von der Steuereinheit 180 ausgeführt werden.
  • 2 ist eine konzeptionelle Ansicht zur Erläuterung einer Näherungstiefe des Näherungssensors.
  • Wie in 2 gezeigt, erkennt der innerhalb oder in der Nähe des Touchscreens angeordnete Näherungssensor, wenn sich ein Zeiger wie zum Beispiel ein Finger eines Benutzers dem Touchscreen nähert, die Annäherung und gibt ein Näherungssignal aus.
  • Der Näherungssensor kann so gebaut sein, dass er ein Näherungssignal entsprechend dem Abstand zwischen dem sich dem Touchscreen nähernden Zeiger und dem Touchscreen (als ”Näherungstiefe” bezeichnet) ausgibt.
  • Der Abstand, in welchem das Näherungssignal ausgegeben wird, wenn sich der Zeiger dem Touchscreen nähert, wird als ein Erfassungsabstand bezeichnet. Die Näherungstiefe kann unter Verwendung einer Vielzahl von Näherungssensoren mit verschiedenen Erfassungsabständen und durch Vergleichen von jeweils von den Näherungssensoren ausgegebenen Näherungssignalen erkannt werden.
  • 2 zeigt den Abschnitt des Touchscreens, in dem Näherungssensoren angeordnet sind, die in der Lage sind, drei Näherungsriefen zu erkennen. Näherungsensoren, die in der Lage sind, weniger als drei oder mehr als vier Näherungstiefen zu erkennen, können in dem Touchscreen angeordnet sein.
  • Insbesondere dann, wenn der Zeiger vollständig in Kontakt mit dem Berührungsbildschirm (D0) kommt, wird dies als Kontaktberührung erkannt. Wenn sich der Zeiger in einem Abstand D1 vom Touchscreen befindet, wird dies als Näherungsberührung von einer ersten Näherungstiefe erkannt. Wenn sich der Zeiger in einem Bereich zwischen dem Abstand D1 und einem Abstand D2 vom Touchscreen befindet, wird dies als Näherungsberührung von einer zweiten Näherungstiefe erkannt. Wenn sich der Zeiger in einem Bereich zwischen dem Abstand D2 und einem Abstand D3 von dem Touchscreen befindet, wird dies als Näherungsberührung von einer dritten Näherungstiefe erkannt. Wenn sich der Zeiger weiter als der Abstand D3 von dem Touchscreen befindet, wird dies als Aufhebung der Näherungsberührung erkannt.
  • Dementsprechend kann die Steuereinheit 180 die Näherungsberührung entsprechend dem Näherungsabstand und einer Näherungsposition des Zeigers in Bezug auf den Touchscreen als verschiedene Eingabe-Signale erkennen und verschiedene Steuerungsvorgänge gemäß den Eingabe-Signalen durchführen.
  • 3 und 4 sind Ansichten, die ein Verfahren zum Anzeigen eines stereoskopischen Bilds unter Verwendung einer binokularen Parallaxe gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung darstellen. Insbesondere zeigt 3 eine Anordnung mit einem linsenförmigen Linsen-Feld und 4 zeigt eine Anordnung mit einer Parallaxen-Barriere.
  • Binokularparallaxe (oder Stereo-Disparität) bezieht sich auf den Unterschied zwischen linkem und rechtem Auge eines menschlichen Wesens (Benutzers oder Beobachters) in der Sicht beim Betrachten eines Objekts. Wenn das Gehirn des Benutzers ein vom linken Auge gesehenes Bild und das von dem rechten Auge gesehene Bild vereint, bewirkt das vereinte Bild, dass sich der Benutzer stereoskopisch fühlt. Im Folgenden wird das Phänomen, bei welchem sich der Benutzer entsprechend einer Binokularparallaxe stereoskopisch fühlt, als ein ”stereoskopische Sicht” bezeichnet, und ein Bild, das eine stereoskopische Sicht verursacht, wird als ”stereoskopische Bild” bezeichnet. Auch wird, wenn ein bestimmtes in einem Bild enthaltenes Objekt die stereoskopische Sicht verursacht, das entsprechende Objekt als ein ”stereoskopisches Objekt” bezeichnet.
  • Ein Verfahren zum Darstellen eines stereoskopischen Bilds gemäß binokularer Parallaxe wird eingeteilt in ein Verfahren vom Glas-Typ und ein Verfahren vom glaslosen Typ. Das Verfahren vom Glas-Typ kann ein System mit getönten Gläsern mit einer Wellenlängen-Selektion, ein System mit Polarisationsglas mit einer leichten Lichtsperrwirkung gemäß einer Abweichungsdifferenz und ein System mit Zeit-Unterteilung sein, welches abwechselnd linke und rechte Bilder innerhalb einer Restbild-Zeit der Augen. Außerdem kann das Verfahren vom Glas-Typ ferner ein System umfassen, in welchem Filter mit einer jeweils unterschiedlichen Durchlässigkeit an linkem und rechtem Auge angebracht werden und eine kubische Wirkung in Bezug auf eine horizontale Bewegung gemäß einer aus der Durchlässigkeitsdifferenz herrührenden Zeitdifferenz eines visuellen Systems erhalten wird.
  • Das Verfahren vom glaslosen Typ, in welchem eine kubische Wirkung von einer Bildanzeigeoberfläche statt von einem Beobachter erzeugt wird, umfasst ein System mit Parallaxenbarriere, ein linsenförmiges Objektivsystem, ein Mikrolinsenfeld-System und dergleichen.
  • Mit Bezug auf 3 umfasst ein Anzeigemodul 151, um ein stereoskopisches Bild anzuzeigen, eine linsenförmige Objektivanordnung 81a. Die linsenförmige Objektivanordnung 81a ist zwischen einer Anzeige-Oberfläche 81, auf welcher auf ein linkes Auge 82a einzugebende Pixel (L) und auf ein rechtes Auge 82b einzugebene Pixel (R) alternierend entlang einer horizontalen Richtung angeordnet sind, und den linken und rechten Augen 82a und 82b angeordnet und stellt eine optische Diskriminierungsrichtung in Bezug auf die auf das linke Auge 82a einzugebenden Pixel (L) und die auf das rechte Auge 82b einzugebenden Pixel (R) bereit. Dementsprechend wird ein Bild, das die linsenförmige Objektivanordnung 81a passiert, von dem linken Auge 82a und dem rechte Auge 82b getrennt und auf diese Weise betrachtet, und das Gehirn des Benutzers vereint (oder synthetisiert) das von dem linken Auge 82a angezeigte Bild und das von dem rechten Auge 82b angezeigte Bild, wodurch es dem Benutzer ermöglicht wird, ein stereoskopisches Bild zu betrachten.
  • Mit Bezug auf 4 umfasst das Anzeigemodul 151, um ein stereoskopisches Bild anzuzeigen, eine Parallaxenbarriere 81b in der Form eines vertikalen Gitters. Die Parallaxenbarriere 81b ist zwischen einer Anzeige-Oberfläche 81, auf welcher auf ein linkes Auge 82a einzugebende Pixel (L) und auf ein rechtes Auge 82b einzugebene Pixel (R) alternierend entlang einer horizontalen Richtung angeordnet sind, und den linken und rechten Augen 82a und 82b angeordnet, und gestattet, dass Bilder separat auf dem linken Auge 82a und dem rechten Auge 82b betrachtet werden. Dementsprechend vereint (oder synthetisiert) das Gehirn des Benutzers das von dem linken Auge 82a gesehene Bild und das von dem rechten Auge 82b gesehene Bild, wodurch es dem Benutzer ermöglicht wird, ein stereoskopisches Bild zu betrachten. Die Parallaxenbarriere 81b wird nur in dem Fall der Anzeige eines stereoskopischen Bilds zum Trennen von einfallendem Licht eingeschaltet, und wenn geplant ist, ein ebenes Bild anzuzeigen, kann die Parallaxenbarriere 81b abgeschaltet werden, um dem einfallenden Licht zu gestatten, hindurch zu passieren, ohne getrennt zu werden.
  • In der Zwischenzeit dienen die oben genannten Verfahren zum Anzeigen eines stereoskopischen Bilds lediglich der Erläuterung von beispielhaften Ausführungsformen der vorliegenden Erfindung, und die vorliegende Erfindung soll nicht darauf beschränkt sein. Neben den oben genannten Verfahren kann ein stereoskopisches Bild unter Verwendung einer Binokularparallaxe von verschiedenen anderen Verfahren dargestellt werden.
  • Im Folgenden werden konkrete Ausführungsformen der vorliegenden Erfindung beschrieben.
  • 5 ist ein Flussdiagramm gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung.
  • Wie darin gezeigt kann die Steuereinheit 180 der Anzeigevorrichtung 100 gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung ein stereoskopisches Bild in Betriebsvorgang S10 anzeigen.
  • Wie oben beschrieben kann das stereoskopische Bild ein unter Verwendung einer binokularen Disparität, das heißt, einer Stereo-Disparität, angezeigtes Bild sein. Durch Darstellen eines Bilds unter Verwendung der Stereo-Disparität kann ein stereoskopisches Bild mit Tiefe oder Perspektive angezeigt werden. Zum Beispiel kann in einer solchen Weise ein Bild angezeigt werden, als ob es hervorstehen von oder zurückstehen aus einer Anzeigefläche der Anzeige 151 würde. Das stereoskopische Bild unter Verwendung der Stereo-Disparität unterscheidet sich von einer zweidimensionalen (2D) Anzeige nach verwandtem Stand der Technik, die nur einen 3D-ähnlichen Eindruck vermittelt. Das Verfahren zum Anzeigen eines stereoskopischen Bilds unter Verwendung der Stereo-Disparität wird später ausführlicher beschrieben.
  • Wenn das stereoskopische Bild angezeigt wird, kann eine Benutzergeste in Betriebszustand S30 erhalten werden.
  • Die Benutzergeste kann von der in der Anzeigevorrichtung 100 vorgesehenen Kamera 121 aufgenommen werden. Wenn zum Beispiel angenommen wird, dass die Anzeigevorrichtung 100 ein festes Fernsehgerät ist, kann die Kamera 121 eine von einem Benutzer vor dem Fernsehgerät gemachte Bewegung aufnehmen. Auch kann unter der Annahme, dass die Anzeigevorrichtung 100 ein mobiles Endgerät ist, die Kamera 121 eine Handbewegung des Benutzers vor oder an der Rückseite des mobilen Endgeräts aufnehmen.
  • Wenn die Benutzergeste erfasst ist, kann die Darstellung des stereoskopischen Bilds gemäß eines Abstands und eines Positionsverhältnisses zwischen dem stereoskopischen Bild und der Geste in Betriebszustand S50 gesteuert werden.
  • Die Steuereinheit 180 kann die Position der von dem Benutzer gemachten Geste in Erfahrung bringen (d. h. bestimmen). Nämlich kann ein von der Kamera 121 aufgenommenes Bild analysiert werden, um dadurch eine Analyse der Position der Geste in dem virtuellen Raum bereit zu stellen. Die Position der Geste kann ein relativer Abstand mit Bezug auf den Körper eines Benutzers oder die Anzeigefläche der Anzeige 151 sein. In diesem Fall kann sich der Abstand auf eine Position in einem 3D-Raum beziehen. Zum Beispiel kann der Abstand auf eine bestimmte Stelle mit xyz-Komponenten von einem Ursprung zeigen, wie zum Beispiel eine bestimmte Stelle des Körpers des Benutzers.
  • Die Steuereinheit 180 kann die Position des angezeigten stereoskopischen Bilds in dem virtuellen Raum bestimmen. Das heißt, die Steuereinheit 180 kann die Position des stereoskopisches Bilds in dem virtuellen Raum bestimmen und dabei dem Benutzer einen Eindruck geben, dass ein Bild darin aufgrund der Wirkung der Stereo-Disparität angezeigt wird. Zum Beispiel bedeutet dies, dass in dem Fall, in welchem ein Bild eine positive (+) Tiefe hat, als ob es in Richtung des Benutzers von der Anzeigefläche der Anzeige 151 hervorstehen würde, die Steuereinheit 180 das Ausmaß, in welchem das Bild hervorsteht, und die Lage davon bestimmen kann.
  • Der Steuereinheit 180 kann eine Richtung, in welcher sich die Geste dem stereoskopischen Bild nähert, das heißt, eine Annäherungsrichtung der Bewegung in Bezug auf das stereoskopische Bild, bestimmen. Da die Steuereinheit 180 die Position der Geste erfährt und die Position des stereoskopischen Bilds in dem virtuellen Raum ist, kann nämlich bestimmt werden, für welche Seite (bzw. Fläche) des stereoskopischen Bilds die Geste gemacht wird. Zum Beispiel kann in dem Fall, in welchem das stereoskopische Bild in der Form eines Polyeders in dem virtuellen Raum angezeigt wird, die Steuereinheit 180 bestimmen, ob die Benutzergeste in Richtung der Vorderseite oder in Richtung der lateralen oder Rück-Seite des stereoskopischen Bilds gerichtet ist.
  • Da die Steuereinheit 180 die Annäherungsrichtung der Geste mit Bezug auf das stereoskopische Bild bestimmen kann, kann eine Funktion entsprechend der Annäherungsrichtung ausgeführt werden. Zum Beispiel kann in dem Fall, in welchem das stereoskopische Bild von seiner Vorderseite angenähert und berührt wird, eine Funktion zur Aktivierung des stereoskopischen Bilds ausgeführt werden. Auch in dem Fall, in welchem das stereoskopische Bild von seiner Rückseite angenähert und berührt wird, kann eine bestimmte Funktion entsprechend dem stereoskopischen Bild ausgeführt werden.
  • 6 zeigt ein Beispiel eines stereoskopischen Bilds mit einer Vielzahl von Bild-Objekten 10 und 11.
  • Zum Beispiel kann das in 6 gezeigte stereoskopische Bild ein von der Kamera 121 erhaltenes Bild sein. Das stereoskopische Bild umfasst ein erstes Bildobjekt 10 und ein zweites Bildobjekt 11. Hier wird zur Vereinfachung der Beschreibung angenommen, dass es zwei Bildobjekte 10 und 11 gibt; jedoch können in Wirklichkeit mehr als zwei Bildobjekte in dem stereoskopischen Bild aufgenommen sein.
  • Die Steuereinheit 180 kann ein in Echtzeit von der Kamera 121 erhaltenes Bild in der Form einer Vorschau auf der Anzeige 151 anzeigen.
  • Die Steuereinheit 180 kann eine oder mehrere Stereo-Disparitäten, die jeweils einem oder mehreren Bildobjekten entsprechen, in Betriebsvorgang S110 erfassen.
  • In dem Fall, in welchem die Kamera 121 eine 3D-Kamera ist, die in der Lage ist, ein Bild für das linke Auge (nachfolgend als ”das linke Augen-Bild” bezeichnet) und ein Bild für das rechte Auge (nachfolgend als ”das rechte Augen-Bild” bezeichnet) aufzunehmen, kann die Steuereinheit 180 die aufgenommene linke Augen- und rechte Augen-Bilder verwenden, um die Stereo-Disparität von jedem von dem ersten Bild-Objekt 10 und dem zweiten Bild-Objekt 11 zu erhalten.
  • 7 ist eine Ansicht zur Erläuterung einer Stereo-Disparität von einem in einem stereoskopischen Bild enthaltenen Bild-Objekt.
  • Zum Beispiel kann unter Bezugnahme auf 7 das erste Bild-Objekt 10 ein dem linken Auge 20a des Benutzers gezeigtes linkes Augen-Bild 10a und ein dem rechten Auge 20b des Benutzers gezeigtes rechtes Augen-Bild 10b haben.
  • Die Steuereinheit 180 kann eine Stereo-Disparität d1 entsprechend dem ersten Bild-Objekt 10 auf der Grundlage des linken Augen-Bilds 10a und des rechten Augen-Bilds 10b aufnehmen.
  • In dem Fall, in welchem die Kamera 121 eine 2D-Kamera ist, kann die Steuereinheit 180 ein von der Kamera 121 aufgenommenes 2D-Bild unter Verwendung eines vorbestimmten Algorithmus zum Umwandeln eines 2D-Bilds in ein 3D-Bild in ein stereoskopisches Bild umwandeln und das umgewandelte Bild auf der Anzeige 151 anzeigen.
  • Darüber hinaus kann die Steuereinheit 180 durch Verwenden von durch den obengenannten Bild-Umwandlungsalgorithmus erzeugten linken Augen- und rechte Augen-Bildern die jeweiligen Stereo-Disparitäten von dem ersten Bild-Objekt 10 und dem zweiten Bild-Objekt 11 erhalten.
  • 8 ist eine Ansicht zum Vergleichen der Stereo-Disparitäten der in 6 dargestellten Bild-Objekte 10 und 11.
  • Mit Bezug auf 8 ist die Stereo-Disparität d1 des ersten Bild-Objekts 10 verschieden von einer Stereo-Disparität d2 des zweiten Bild-Objekts 11. Darüber hinaus wird, wie in 8 gezeigt, da die Stereo-Disparität d2 des zweiten Bild-Objekts 11 größer ist als die Stereo-Disparität d1 des ersten Bild-Objekts 10, das zweite Bild-Objekt 11 als weiter entfernt von dem Benutzer als das erste Bild-Objekt 10 angeordnet gesehen.
  • Die Steuereinheit 180 kann eine oder mehrere, jeweils einem oder mehreren der Bild-Objekte in Betriebszustand S120 entsprechenden grafische Objekte erhalten. Die Steuereinheit 180 kann das erhaltene eine oder die erhaltenen mehreren grafischen Objekte auf der Anzeige 151 anzeigen, um einen Stereo-Disparität zu haben.
  • 9 zeigt das erste Bild-Objekt 10, das aussieht, als ob es in Richtung des Benutzers vorsteht. Wie in 9 gezeigt, können die Positionen des linken Augen-Bilds 10a und des rechten Augen-Bilds 10b auf der Anzeige 151 entgegengesetzt zu denen in 7 dargestellten sein. Wenn das linke Augen-Bild 10 und das rechte Augen-Bild 10b in der entgegengesetzten Weise wie oben angezeigt werden, werden die Bilder auch dem linken Auge 20a und dem rechten Auge 20b in der entgegengesetzten Weise gezeigt. Somit kann der Benutzer das angezeigte Bild sehen, als ob es vor der Anzeige 151, d. h. bei dem Schnitt von Ansichten, angeordnet ist. Das heißt, dass der Benutzer positive (+) Tiefe in Bezug auf die Anzeige 151 wahrnehmen kann. Dies unterscheidet sich von dem Fall von 7, bei dem der Benutzer negative (–) Tiefe wahrnimmt, die dem Benutzer den Eindruck vermittelt, dass das erste Bild-Objekt 10 auf der Rückseite der Anzeige 151 angezeigt wird.
  • Die Steuereinheit 180 kann dem Benutzer je nach Bedarf die Wahrnehmung verschiedener Arten von Tiefe durch Anzeigen eines stereoskopischen Bilds mit einer positiven (+) oder negativ Tiefe (–) vermitteln.
  • 10 ist ein Flussdiagramm, welches das in 5 dargestellte Verfahren zum Erfassen der Benutzergeste ausführlicher darstellt. 11 ist eine Ansicht, welche eine Geste für das Erhalten der Steuerung in Zusammenhang mit 10 darstellt.
  • Wie in diesen Zeichnungen gezeigt, kann die Erfassung der Benutzergeste durch die Steuereinheit 180 der Anzeigevorrichtung in Betriebszustand S30 von 5 gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung das Einleiten einer Aufnahme mit der Kamera 121 in Betriebszustand S31 umfassen.
  • Die Steuereinheit 180 kann die Kamera 121 aktivieren. Wenn die Kamera 121 aktiviert ist, kann die Steuereinheit 180 ein Bild der Umgebung der Anzeigevorrichtung 100 aufnehmen.
  • Es wird bestimmt, ob in Betriebszustand S32 ein Kontrolle habender Benutzer gefunden wird, und der Kontrolle habende Benutzer kann in Betriebszustand S33 verfolgt werden.
  • Die Steuereinheit 180 kann die Anzeigevorrichtung 100 auf der Grundlage einer von einem bestimmten Kontrolle habenden Benutzer gemachten Geste steuern. Dies bedeutet zum Beispiel, dass in dem Fall, in welchem sich eine Vielzahl von Personen vor der Anzeigevorrichtung 100 befindet, die Steuereinheit 180 ermöglichen kann, dass eine bestimmte Funktion der Anzeigevorrichtung 100 auf der Grundlage von nur einer Geste, die von einer bestimmten Kontrolle habenden Person aus den Personen vor der Anzeigevorrichtung 100 gemacht wird, ausgeführt wird.
  • Wie in 11 gezeigt, kann die Steuerung der Anzeigevorrichtung 100 einem Benutzer U, der eine bestimmte Geste gemacht hat, erteilt werden. Zum Beispiel kann in dem Fall, in welchem die Bewegung des Benutzers U des Anhebens von und Winken mit seiner Hand H nach links und rechts als Geste zum Erhalten der Steuerung eingestellt ist, die Steuerung einem Benutzer, der eine solche Bewegung gemacht hat, erteilt werden.
  • Wenn ein Kontrolle habender Benutzer gefunden wird, kann der Benutzer mit Kontrolle verfolgt werden. Die Vergabe und Verfolgung der Steuerung kann auf der Grundlage eines von der in der Anzeigevorrichtung 100 vorgesehen Kamera 121 aufgenommenen Bilds durchgeführt werden. Dies bedeutet nämlich, dass die Steuereinheit 180 das aufgenommene Bild analysiert, um dadurch kontinuierlich zu bestimmen, ob ein bestimmter Benutzer U existiert, der bestimmte Benutzer U eine zum Erhalten der Steuerung erforderliche Geste durchführt, sich der Benutzer U bewegt, und dergleichen.
  • Während der Kontrolle habende Benutzer verfolgt wird, kann bestimmt werden, ob eine bestimmte Geste des Benutzers in Betriebszustand S34 aufgenommen wird oder nicht.
  • Die bestimmte Geste des Benutzers kann eine Geste zum Ausführen einer bestimmten Funktion der Anzeigevorrichtung 100 und zum Beenden der Durchführung der bestimmen Funktion sein. Zum Beispiel kann die bestimmte Geste eine Geste sein, um verschiedene von der Anzeigevorrichtung 100 als stereoskopische Bilder angezeigte Menüs auszuwählen. Im Folgenden wird der Betrieb, in welchem die Darstellung des stereoskopischen Bilds gemäß der Geste des Benutzers (S50 in 5) gesteuert wird, ausführlich beschrieben.
  • 12 zeigt ausführlicher ein Flussdiagramm des Verfahrens zum Steuern der Darstellung des zu 5 gehörenden stereoskopischen Bilds. 13 und 14 sind Ansichten, welche Beispiele eines angezeigten stereoskopischen Bilds darstellen. 15 und 16 sind Ansichten, welche Gesten in Bezug auf ein stereoskopisches Bild darstellen. 17 bis 20 sind Ansichten, welche Änderungen der Anzeige (d. h. Darstellung) gemäß einer Bewegung in Bezug auf ein stereoskopisches Bild darstellen.
  • Wie in diesen Zeichnungen dargestellt, kann die Anzeigevorrichtung 100 gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung in geeigneter Weise die Darstellung des stereoskopischen Bilds als Antwort auf die von dem Benutzer U gemachte bestimmte Geste in Bezug auf das stereoskopische Bild steuern.
  • Die Steuereinheit 180 kann die Position des stereoskopischen Bilds in dem virtuellen Raum VS in Betriebszustand S51 erfassen.
  • Wie in 13 gezeigt, kann sich der virtuelle Raum VS auf einen Raum beziehen, der dem Benutzer U den Eindruck gibt, dass einzelne Objekte O1 bis O3 des von der Anzeigeeinrichtung 100 angezeigten stereoskopischen Bilds in einem 3D-Raum angeordnet sind. Das heißt, dass der virtuelle Raum VS ein Raum sein kann, in dem ein Bild, das im Wesentlichen auf der Anzeige 151 angezeigt wird, aussieht, als ob es in Richtung des Benutzers U mit positiver (+) Tiefe vorsteht oder gegenüber dem den Benutzer U mit negativer (–) Tiefe zurücksteht. Jedes der Objekte O1 bis O3 kann aussehen, als ob es in dem virtuellen Raum VS schwebend oder in einer vertikalen oder horizontalen Richtung des virtuellen Raums VS ausgestreckt wäre.
  • Wenn jedes der Objekte O1 bis O3 in dem virtuellen Raum VS angezeigt wird, kann der Benutzer U einen Eindruck haben, dass er die Anzeige-Objekte O1 bis O3 mit seiner Hand halten (greifen) kann. Dieser Effekt wird deutlicher bei einem Objekt gezeigt, das aussieht, als ob es in der Nähe des Benutzers U angeordnet wäre. Zum Beispiel kann, wie in 14 gezeigt, der Benutzer U eine visuelle Illusion haben, dass sich das erste Objekt O1 direkt vor ihm befindet. In diesem Fall kann der Benutzer U einen Eindruck haben, dass er das erste Objekt O1 mit seiner Hand H hält.
  • Die Steuereinheit 180 kann die Position des in dem virtuellen Raum VS dargestellten stereoskopischen Bilds erfahren. Das heißt, dass die Steuereinheit 180 basierend auf den Positionen der linken Augen- und rechten Augen-Bilder 10a und 10b von 7 auf der Anzeige 151 die Position des stereoskopischen Bilds in dem virtuellen Raum VS bestimmen kann, die dem Benutzer U gezeigt wird.
  • Die Position der Geste in dem virtuellen Raum VS kann in Betriebszustand S52 erfasst werden.
  • Die Position der Geste in dem virtuellen Raum VS kann durch Verwendung der in der Anzeigevorrichtung 100 vorgesehen Kamera 121 aufgenommen werden. Das heißt, dass die Steuereinheit 180 ein Bild analysieren kann, das aufgenommen wird, während die Kamera 121 kontinuierlich ein Bild des Benutzers U verfolgt.
  • Wie in 15 gezeigt, kann die Steuereinheit 180 einen ersten Abstand D1 von der Anzeigevorrichtung 100 zu dem ersten Objekt O1, einen zweiten Abstand D2 von der Anzeigevorrichtung 100 zu der Hand H des Benutzers U und einem dritten Abstand D3 von der Anzeigevorrichtung 100 zu dem Benutzer U bestimmen. Die ersten bis dritten Abstände D1 bis D3 können durch Analysieren des von der Kamera 121 aufgenommenen Bilds und Verwenden der Position des angezeigten ersten Objekts O1, welche der Steuereinheit 180 bekannt ist, bestimmt werden.
  • Es kann in Betriebszustand S53 bestimmt werden, ob die Geste innerhalb eines vorbestimmten Abstands zu dem stereoskopischen Bild gemacht wird.
  • Für die Ausführung einer bestimmten Funktion auf der Grundlage der Geste des Benutzers U kann der Benutzer U eine bestimmte Geste innerhalb des vorbestimmten Abstands machen. Zum Beispiel kann der Benutzer U seine Hand H in Richtung des ersten Objekts O1 strecken, um eine mit dem ersten Objekt O1 verknüpfte Geste zu machen.
  • Wie in 16 gezeigt kann der Benutzer U seine Hand H ausstrecken, um sich dem ersten Objekt O1 innerhalb eines vorbestimmten Radius zu nähern.
  • Die Steuereinheit 180 kann eine Richtung V, in welcher sich die Hand H des Benutzers U annähert, durch eine Bildanalyse bestimmen. Das heißt, die Steuereinheit 180 kann bestimmen, ob sich die Hand H dem ersten Objekt O1 oder einem anderen zu dem ersten Objekt O1 benachbarten Objekt nähert, indem die Spur der von der Hand H gemachten Geste verwendet wird.
  • Wenn bestimmt wird, dass die Geste innerhalb des vorbestimmten Abstands in Bezug auf das stereoskopische Bild gemacht wird, kann eine Annäherungsrichtung der Bewegung in Bezug auf das stereoskopische Bild in Betriebszustand S54 erfasst werden.
  • Wenn die Geste von der Hand H des Benutzers U gemacht wird, kann die Steuereinheit 180 bestimmen, welche Richtung (d. h. Seite) der Hand H dem ersten Objekt O1 zugewandt ist. Zum Beispiel kann die Steuereinheit 180 bestimmen, ob eine Handfläche P oder eine Rückseite B der Handfläche dem ersten Objekt O1 zugewandt ist.
  • Es kann bestimmt werden, welche von der Handfläche P und der Rückseite B sich dem ersten Objekt O1 nähert, indem das von der Kamera 121 aufgenommene Bild analysiert wird und/oder die Spur der Hand H verfolgt wird.
  • Wie in 17 gezeigt, kann die Steuereinheit 180 bestimmen, in welcher Richtung sich die Hand H1 oder H2 dem ersten Objekt O1 nähert. Das heißt, die Steuereinheit 180 kann bestimmen, dass sich die Handfläche P im Falle einer ersten Hand H1 dem ersten Objekt O1 nähert, und kann bestimmen, dass sich die Rückseite B der Hand im Falle einer zweiten Hand H2 dem ersten Objekt O1 nähert.
  • Wenn sich die Handfläche P in einer ersten Richtung A1 bewegt, wie im Fall der ersten Hand H1, kann die Steuereinheit 180 bestimmen, dass sich der Benutzer U bewegt, um das erste Objekt O1 zu greifen (d. h. zu halten). Wenn sich die Rückseite B in einer zweiten Richtung A2 bewegt, wie in dem Fall der zweiten Hand H2, kann die Steuereinheit 180 bestimmen, dass sich der Benutzer U nicht bewegt, um das erste Objekt O1 zu greifen. Dies bedeutet, dass, auf der Grundlage der Geste des Benutzers U, insbesondere einer Handbewegung, bestimmt werden kann, welche Bewegung der Benutzer in Bezug auf ein bestimmtes stereoskopisches Bild macht. Dementsprechend kann die Steuereinheit 180 die Ausführung einer bestimmten Funktion auf der Grundlage einer bestimmten Handbewegung ermöglichen. Das heißt, dass der Fall der ersten Hand H1 mit einer Bewegung des Greifens des ersten Objekts O1 verknüpft sein kann, und dass der Fall der zweiten Hand H2 mit einer Bewegung des Drückens des ersten Objekts O1 verknüpft sein kann.
  • Es kann in Betriebszustand S55 bestimmt werden, ob die Annäherung für die äußere Form und Eigenschaften des stereoskopischen Bilds geeignet ist, und die Darstellung des stereoskopisches Bilds kann in Betriebszustand S56 gesteuert werden.
  • Die Steuereinheit 180 kann es stereoskopischen Bilder gestatten, unterschiedliche Eigenschaften gemäß Formen der stereoskopischen Bilder und/oder Eigenschaften von jeweils den stereoskopischen Bildern entsprechenden Einheiten zu haben. Das heißt, dass ein stereoskopisches Bild, das einen starren Gegenstand wie zum Beispiel eine Eisenstange darstellt, und ein stereoskopisches Bild, das einen elastischen Gegenstand wie zum Beispiel eine Gummileiste darstellt, unterschiedliche Antworten auf eine Benutzergeste haben können. In dem Fall, in dem ein stereoskopisches Bild ein Objekt wie zum Beispiel eine Eisenstange darstellt, kann die Form des stereoskopischen Bilds unverändert beibehalten werden, selbst wenn ein Benutzer eine Bewegung zum Halten des entsprechenden Bilds macht. Im Gegensatz dazu kann in dem Fall, in welchem ein stereoskopisches Bild ein Objekt wie zum Beispiel eine Gummileiste darstellt, deren Form verändert werden, wenn ein Benutzer eine Bewegung zum Halten desselben macht.
  • Wenn das erste Objekt O1 eingestellt ist, um, wie in 18 gezeigt, Steifigkeit zu haben, kann der Benutzer U eine Geste zum Greifen des ersten Objekts O1 und Bewegen in einer dritten Richtung A3 machen.
  • Wenn die erste Hand H1 des Benutzers U eine Greifbewegung macht, nachdem sie sich dem ersten Objekt O1 innerhalb eines vorbestimmten Abstands nähert, kann die Steuereinheit 180 das stereoskopische Bild veranlassen, auszusehen, als ob das erste Objekt O1 durch die Hand gehalten wird. Dementsprechend kann der Benutzer eine Funktion zum Bewegen des ersten Objekts O1 in der dritten Richtung A3 ausführen.
  • Wie in 19 gezeigt kann die Steuereinheit 180 erlauben, dass die Darstellung der Antwort des ersten Objekts O1 auf die Benutzergeste entsprechend den Eigenschaften einer Einheit, welche dem ersten Objekt O1 entspricht, variiert wird.
  • Wie in 19A gezeigt, kann der Benutzer die erste Hand H1 in Richtung des ersten Objekts O1 bewegen, das heißt, in der ersten Richtung A1. Der Steuereinheit 180 kann die Bewegung der ersten Hand H1 durch die Kamera 121 erkennen.
  • Wie in 19B gezeigt, kann die erste Hand H1 des Benutzers virtuell mit dem ersten Objekt O1 in Kontakt kommen. In diesem Fall kann, wenn das erste Objekt O1 ein weiches Material, wie zum Beispiel eine Gummileiste, darstellt, die Steuereinheit 180 einen visuellen Effekt des Biegens des ersten Objekts O1 in dem Abschnitt, wo der virtuelle Kontakt mit der ersten Hand H1 aufgetreten ist, erzeugen.
  • Wie in 20A gezeigt, kann der Benutzer eine Geste in Richtung auf eine in einer Schüssel D befindliche Flüssigkeit W in einer vierten Richtung A4 machen.
  • Wie in 20B gezeigt, kann, wenn der Benutzer eine Geste in Bezug auf die Flüssigkeit W macht, die Steuereinheit 180 einen Effekt des Erzeugens von Wellen in der Flüssigkeit W als Antwort auf die Handbewegung H erzeugen.
  • Die 21 bis 26 sind Ansichten zum Darstellen von Gesten in Bezug auf ein stereoskopisches Bild in der Form eines Polyeders.
  • Wie in diesen Zeichnungen gezeigt ist, kann die Steuereinheit 180 der Anzeigevorrichtung 100 gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung eine bestimmte Funktion als Antwort auf eine Benutzergeste mit Bezug auf eine bestimmte Seite eines stereoskopischen Bilds in der Form eines Polyeders mit einer Vielzahl von Seiten (Flächen) durchführen.
  • Wie in 21A gezeigt, kann die Steuereinheit 180 ein Objekt O anzeigen, welches einen von einer Stereo-Disparität verursachten stereoskopischen Eindruck machen kann. Das Objekt O kann eine kubische Form haben, und eine bestimmte Funktion kann jeder Seite der kubischen Form zugeordnet sein. Zum Beispiel kann eine Geste einer Berührung einer ersten Seite S1 eine Funktion zum Aktivieren des Objekts O ausführen, eine Berührung auf einer zweiten Seite S2 kann eine Ruf-Funktion ausführen, und eine Berührung einer dritten Seite S3 kann eine Nachrichtensende-Funktion ausführen. Auf diese Weise kann jede Seite des Objektes O jeweils eine ihr zugeordnete Funktion haben.
  • Wie in 21B gezeigt, kann der Benutzer eine Geste zum Berühren der ersten Seite S1, der Vorderseite, in einer fünften Richtung A5 unter Verwendung seiner Hand H machen. Dies bedeutet, dass der Benutzer eine Geste zum Vorwärtsschieben seiner Hand nach vorne, weg vom Körper des Benutzers, macht. Wenn die Geste zum Berühren der ersten Seite S1 in der fünften Richtung A5 eingegeben wird, kann die Steuereinheit 180 eine der ersten Seite S1 zugeordnete Funktion ausführen.
  • Wie in 22A gezeigt kann der Benutzer eine Geste zum Berühren der zweiten Seite S2 in einer sechsten Richtung A6 machen. Die Berührung in der sechsten Richtung A6 kann eine Geste zum Berühren der lateralen Seite des Objekts O sein. Wenn die Geste zum Berühren der zweiten Seite S2 ausgeführt wird, kann die Steuereinheit 180 eine Funktion ausführen, welche der zweiten Seite S2 entspricht. Das heißt, dass verschiedene Funktionen entsprechend Richtungen, in welchen der Benutzer das Objekt O berührt, ausgeführt werden können.
  • Wie in 22B gezeigt, kann der Benutzer eine Geste zum Berühren eine fünften Seite S5 des Objekt O in einer siebten Richtung A7 machen. Wenn die fünfte Seite S5 berührt wird, kann die Steuereinheit 180 eine Funktion entsprechend der fünften Seite S5 ausführen.
  • Der Benutzer kann eine Geste zum Berühren der Rückseite des Objekts O, der dritten Seite S3 davon, in einer achten Richtung A8 machen, wie in 23A gezeigt, oder eine Geste zum Berühren einer sechsten Seite S6, der Unterseite des Objektes O, in einer neunten Richtung A9. In diesem Fall kann die Steuereinheit 180 eine individuelle Funktion als Antwort auf die Geste in Bezug auf jede Seite ausführen.
  • Wie in 24A gezeigt, kann der Benutzer eine Geste zum Berühren der Vorderseite des Objekts O machen. Das heißt, dass der Benutzer eine Bewegung zum Annähern an das Objekt O von dessen Vorderseite und Berühren der ersten Seite S1 machen kann. Bevor der Benutzer sich dem Objekt O in der fünften Richtung A5 nähert und die erste Seite S1 berührt, kann das Objekt O in einem inaktivierten Zustand sein. Zum Beispiel kann eine Auswahl auf dem Objekt O begrenzt sein, um eine unbeabsichtigte Bewegung daran zu hindern, eine dem Objekt O entsprechende Funktion auszuführen.
  • Wie in 24B gezeigt, kann die Berührung des Benutzers auf der ersten Seite S1 die Aktivierung des Objekts O ermöglichen. Das heißt, die Ausführung einer dem Objekt O entsprechenden Funktion kann durch die Geste ermöglicht werden. Das Objekt O kann, wenn es aktiviert ist, hell dargestellt werden, um die Aktivierung anzuzeigen.
  • Wie in 25A gezeigt, kann der Benutzer eine Geste zum Berühren der lateralen Seite des Gegenstands O machen. Das heißt, der Benutzer kann eine Geste zum Berühren der zweiten Seite S2, einer der lateralen Seiten des Objekts O, in der sechsten Richtung A6 machen. Die Steuereinheit 180 der Anzeigevorrichtung 100 kann gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung verschiedene Antworten geben, je nach dem, für welchen Punkt auf dem angezeigten Objekt die Geste gedacht ist.
  • Wie in 25B gezeigt, können Pop-up-Objekte P in Zusammenhang mit Kanal-Änderungen als Antwort auf die Benutzergeste mit Bezug auf die zweite Seite S2 angezeigt werden. Dies unterscheidet sich von dem Fall, in welchem die Berührung der ersten Seite S1 die Funktion zum Aktivieren des Objekts O ausführt. Selbst wenn sich das Objekt O in einem inaktivierten Zustand befindet, kann die Funktion von der Geste mit Bezug auf die zweite Seite S2 ausgeführt werden.
  • Wie in 26A gezeigt, kann der Benutzer eine Geste zum Halten des Objekts O machen. Die Geste zum Halten des Objekts O kann zu einem ähnlichen Ergebnis wie jenes der Gesten zum Berühren der Vielzahl von Seiten führen. Zum Beispiel kann der Benutzer eine Geste zum gleichzeitigen Berühren der ersten Seite S1 und der dritten Seite S3 des Objektes O von der lateralen Seite des Objektes O machen.
  • Wenn der Benutzer eine Geste zum Halten des Objekts O macht, kann eine andere Funktion als jene in dem Fall der Geste zum separaten Berühren jeder Seite ausgeführt werden. Unter der Annahme, dass eine erste Funktion von einer Geste mit Bezug auf die erste Seite S1 ausgeführt wird und eine zweite Funktion von einer Geste in Bezug auf die dritte Seite S3 ausgeführt wird, kann zum Beispiel eine Geste zum gleichzeitigen Berühren der ersten und dritten Seiten S1 und S3 eine dritte Funktion ausführen. In diesem Fall kann die dritte Funktion völlig verschieden von den ersten und zweiten Funktionen sein oder kann die gleichzeitige Ausführung der ersten und zweiten Funktionen sein.
  • Wie in 26B gezeigt, kann, durch die Benutzergeste des Haltens des Objekts, eine Funktion zum Aufzeichnen eines aktuell angezeigten Rundfunkkanals ausgeführt werden.
  • 27 bis 31 sind Ansichten, welche einen Zeiger zur Auswahl in einem stereoskopischen Bild darstellen.
  • Wie in diesen Zeichnungen gezeigt kann die Anzeigevorrichtung gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung einen Zeiger P entsprechend einer Geste eines Benutzers U anzeigen. In diesem Fall wird der Zeiger P derart gezeigt, damit er dem Benutzer einen Eindruck eines 3D-Abstands gibt.
  • Wie in 27 gezeigt, können die ersten bis dritten Objekte O1 bis O3 in dem virtuellen Raum angezeigt werden. Der Benutzer U kann die ersten bis dritten Objekte O1 bis O3 direkt wählen, indem er seine Hand H benutzt oder indem er den Zeiger P verwendet. Zum Beispiel kann der Zeiger P in dem Raum in einem vorbestimmten Abstand von dem Benutzer U angezeigt werden.
  • Wie in 28 gezeigt kann sich der Zeiger P, wenn der Benutzer U seine Hand in einer zehnten Richtung A10 bewegt, als Antwort auf die Handbewegung des Benutzers in Richtung des dritten Objekts O3 bewegen. In diesem Fall kann die Bewegung des Zeigers P gemäß einem Abstand zwischen einer vorbestimmten Referenzposition und der Geste ermittelt werden. Zum Beispiel kann sich der Zeiger P in dem Fall, in dem der Körper des Benutzers U als eine Referenzposition festgelegt ist, wenn die Hand H sich näher zu oder weiter entfernt von der Anzeigevorrichtung 100 bewegt, dementsprechend bewegen. Die Referenzposition kann durch den Benutzer eingestellt werden.
  • Wie in 29 gezeigt, kann sich der Zeiger P, wenn der Benutzer U die Hand H in Richtung einer elften Richtung bewegt, in Richtung auf das dritte Objekt O3 in einer Richtung entsprechend einer elften Richtung A11 bewegen.
  • Wie in 30 gezeigt, kann der Zeiger P entsprechend dem Abstand von der Referenzposition Größenänderungen unterlaufen. Zum Beispiel kann der Zeiger P bei der Referenzposition eine Größe von einem ersten Zeiger P1 haben.
  • Der Zeiger P mit der Größe des ersten Punkts P1 bei der Referenzposition kann größer werden, um eine Größe eines zweiten Zeiger P2 zu haben, wenn sich die Hand H in einer zwölften Richtung A12 bewegt. Das heißt, dass der Zeiger P an Größe zunimmt, wenn er sich dem Benutzer nähert. Ferner kann der Zeiger P mit der Größe des ersten Zeigers P1 bei der Referenzposition kleiner werden, um eine Größe eines dritten Zeigers P3 zu haben, wenn sich die Hand H in einer dreizehnten Richtung A13 bewegt. Das heißt, dass der Zeiger P in der Größe abnehmen kann, wenn er sich weiter weg von dem Benutzer bewegt.
  • Da sich der Zeiger entsprechend dem Abstand von dem Benutzer in der Größe verändert, kann die von einer Stereo-Disparität verursachte Perspektive deutlicher dargestellt werden. Auch kann dies einen Hinweis auf die Tiefe eines durch die Benutzergeste auswählbaren Objekts liefern.
  • Wie in 31 gezeigt, kann sich der Zeiger P entsprechend der Richtung einer von dem Benutzer gemachten Bewegung ändern.
  • Wie in 31A gezeigt, kann sich die Hand H des Benutzers in vierzehnten bis siebzehnten Richtungen A14 bis A17 bewegen. Wenn sich die Hand H des Benutzers bewegt, kann die Steuereinheit 180 die Form des Zeigers dementsprechend ändern und dieselbe anzeigen. Das heißt, wenn sich die Hand H in der vierzehnten Richtung S14 bewegt, einer Richtung, in welcher sich die Hand H weiter weg von dem Benutzer bewegt, kann der erste Zeiger P1 mit einem in die vierzehnte Richtung A14 zeigenden Pfeil angezeigt werden. Das heißt, erste bis vierte Zeiger P1 und P4 können Formen haben, die jeweils den vierzehnten bis siebzehnten Richtungen A14 bis A17 entsprechen.
  • Wie in 31B gezeigt, kann der Zeiger anzeigen, ob die Hand H in Bewegung ist oder angehalten wird. Das heißt, dass, während der Benutzer aufhört, eine Bewegung bei einer bestimmten Position zu machen, ein kreisförmiger fünfter Zeiger P5 angezeigt wird, der keine Richtung anzeigt. Wenn sich die Hand H bewegt, können die ersten bis vierten Zeiger P1 bis P4 dementsprechend angezeigt werden.
  • 32 bis 34 sind Ansichten, welche das Verfahren zum Auswählen eines beliebigen aus einer Vielzahl von stereoskopischen Bildern darstellen.
  • Wie in diesen Zeichnungen gezeigt, ändert die Steuereinheit 180 der Anzeigevorrichtung 100 gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung, wenn eine Geste zum Auswählen eines bestimmten Bilds aus der Vielzahl von stereoskopischen Bildern eingegeben wird, die Darstellung von einem anderen stereoskopischen Bild. Dementsprechend kann die Auswahl mit Bezug auf das bestimmte stereoskopische Bild erleichtert werden.
  • Wie in 32 gezeigt, kann in einem virtuellen Raum eine Vielzahl von Objekten O als benachbart zu einander angezeigt werden. Das heißt, dass Objekte A bis I angezeigt werden können.
  • Wie in 33 gezeigt kann der der Benutzer U durch Bewegen seiner Hand H eine Geste zum Auswählen von Objekt E machen. Wenn der Benutzer U die Geste zum Auswählen des Objekts E macht, kann die Steuereinheit 180 die von Objekt E verschiedenen Objekte veranlassen, so auszusehen, als ob sie sich von Objekt E wegbewegen würden. Das heißt, dass, wenn bestimmt wird, dass der Benutzer U beabsichtigt, ein bestimmtes Objekt auszuwählen, andere Objekte als das bestimmte Objekt dazu veranlasst werden, sich von dem bestmimten Objekt wegzubewegen, wodurch die Möglichkeit zum Auswählen eines unbeabsichtigten Objekts verringert wird.
  • Wie in 34 gezeigt, kann die Steuereinheit 180, wenn der Benutzer eine Geste zum Auswählen eines bestimmten Objekts macht, die Anzeige von anderen Objekten außer dem bestimmten Objekt freigeben. Das heißt, dass von dem bestimmten Objekt verschiedene Objekte zum Verschwinden gebracht werden können. Darüber hinaus kann, wenn der Benutzer aufhört, die Geste zu machen, das verschwundene Objekt wieder angezeigt werden.
  • 35 und 36 sind Ansichten, welche den Betrieb einer Rückmeldeeinheit veranschaulichen.
  • Wie in diesen Zeichnungen gezeigt, kann die Anzeigevorrichtung 100 gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung dem Benutzer U Rückmeldung auf eine Geste geben.
  • Die Rückmeldung kann durch einen Hörsinn und/oder einen Tastsinn erkannt werden. Zum Beispiel kann, wenn der Benutzer eine Geste des Berührens oder Haltens eines stereoskopischen Bilds macht, die Steuereinheit 180 dem Benutzer entsprechende Klänge oder Vibrationen bereitstellen. Die Rückmeldung für den Benutzer kann durch Verwendung eines gerichteten Lautsprechers SP oder eines Ultraschall-Generators US, einer in der Anzeigevorrichtung 100 vorgesehenen Rückmeldeeinheit durchgeführt werden.
  • Wie in 35 gezeigt kann der gerichtete Lautsprecher SP selektiv einem bestimmten Benutzer aus ersten und zweiten Benutzern U1 und U2 einen Klang bereitstellen. Das heißt, dass nur einem ausgewählten Benutzer durch den gerichteten Lautsprecher SP, der in der Lage ist, selektiv die Ausbreitungsrichtung oder Reichweite des Klangs zu bestimmen, ein Klang zur Verfügung gestellt wird.
  • Wie in 36 gezeigt kann die Anzeigevorrichtung 100 einem Objekt O gestatten, in einem virtuellen Raum angezeigt zu werden. Wenn der Benutzer U in Bezug auf das in dem virtuellen Raum angezeigte Objekt O eine Geste macht, kann die Steuereinheit 180 dem Benutzer U entsprechend der Geste Rückmeldung geben. Zum Beispiel kann die Steuereinheit dem Benutzer U durch den gerichteten Lautsprecher SP Klänge oder durch den Ultraschall-Generator US Vibrationen liefern. Der Ultraschall-Generator US kann auf einen bestimmten Punkt gerichtete Ultraschallwellen erzeugen. Wenn die in Richtung auf die bestimmte Stelle gerichteten Ultraschallwellen mit der Rückseite der Hand H des Benutzers U zusammenstoßen, kann der Benutzer U Druck fühlen. Durch Steuern des an den Benutzer abgegeben Drucks kann der Benutzer diesen als Schwingungen erkennen.
  • 37 bis 39 sind Ansichten, welche den Betrieb einer Anzeigevorrichtung gemäß einer weiteren beispielhaften Ausführungsform der vorliegenden Erfindung darstellen.
  • Wie in diesen Zeichnungen gezeigt kann die Anzeigevorrichtung 100 gemäß einer anderen beispielhaften Ausführungsform der vorliegenden Erfindung ein mobiles Endgerät sein, das von einem Benutzer getragen werden kann. In dem Fall, in dem die Anzeigeeinrichtung 100 ein tragbares Gerät ist, kann eine Benutzergeste nicht nur in Bezug auf die Vorderseite der Anzeigevorrichtung 100, sondern auch die Rückseite davon erfasst werden, und entsprechende Funktionen können dementsprechend ausgeführt werden.
  • Wie in 37 gezeigt kann die Anzeigevorrichtung 100 ein stereoskopisches Bild durch die Anzeige 151 anzeigen. Die ersten bis dritten Objekte O1 bis O3 des stereoskopischen Bilds können angezeigt werden, als ob sie hervorstehen von oder zurückstehen aus einer Anzeigefläche der Anzeige 151. Zum Beispiel kann in dem virtuellen Raum das erste Objekt O1 so dargestellt werden, dass es die Vorstellung gibt, dieselbe Tiefe wie die Anzeigefläche der Anzeige 151 zu haben, das zweite Objekt so, dass es aussieht, als ob es in Richtung des Benutzers hervorstehen würde, und das dritte Objekt O3 so, als ob es vom Benutzer zurückstehen würde.
  • Der Körper der Anzeigevorrichtung 100 kann mit einer der Vorderseite zugewandten ersten Kamera 121a und einer der Rückseite zugewandten zweiten Kamera 121b versehen sein.
  • Wie in 38 gezeigt, kann der Benutzer eine Geste mit Bezug auf das vor der Anzeigevorrichtung 100 angezeigte zweite Objekt O2 machen. Das heißt, dass der Benutzer eine Geste des Berührens oder Haltens des dritten Objekts O3 mit seiner Hand H machen kann. Die Benutzergeste in Bezug auf das zweite Objekt O2 kann von der der Vorderseite zugewandten ersten Kamera 121a aufgenommen werden.
  • Wie in 39 gezeigt kann der Benutzer eine Geste mit Bezug auf das bei der Rückseite der Anzeigevorrichtung 100 angezeigten dritte Objekt O3 machen. Das heißt, dass der Benutzer eine Geste des Berührens oder Ergreifens des dritten Objekts O3 mit der Hand H machen kann. Die Benutzergeste mit Bezug auf das dritte Objekt O3 kann von der der Rückseite zugewandten zweiten Kamera 121b aufgenommen werden.
  • Da die Anzeigevorrichtung 100 nicht nur durch Erfassen von einer vor der Anzeigevorrichtung 100 gemachten Geste, sondern auch von einer auf der Rückseite der Anzeigevorrichtung 100 gemachten Geste gesteuert werden kann, können verschiedene Vorgänge entsprechend der Tiefe eines stereoskopischen Bilds durchgeführt werden.
  • Während die vorliegende Erfindung in Verbindung mit den beispielhaften Ausführungsformen gezeigt und beschrieben worden ist, ist es für den Fachmann auf dem Gebiet offensichtlich, dass Veränderungen und Abwandlungen vorgenommen werden können, ohne vom Geist und Umfang der Erfindung, wie durch die beigefügten Ansprüche definiert, abzuweichen.

Claims (31)

  1. Anzeigevorrichtung, umfassend: eine Kamera, die eine Geste eines Benutzers aufnimmt; eine Anzeige, die ein stereoskopisches Bild anzeigt; und eine Steuereinheit, die eine Darstellung des stereoskopischen Bilds als Antwort auf einen Abstand zwischen der Geste und dem stereoskopischen Bild in einem virtuellen Raum und eine Annäherungsrichtung der Geste in Bezug auf das stereoskopische Bild steuert.
  2. Anzeigevorrichtung nach Anspruch 1, wobei das stereoskopische Bild eine Vielzahl von stereoskopischen Bildern umfasst, und wobei die Steuereinheit, wenn sich die Geste mindestens einem aus der Vielzahl von stereoskopischen Bildern innerhalb eines vorbestimmten Bereichs nähert, die Darstellung von mindestens einem stereoskopischen Bild ändert.
  3. Anzeigevorrichtung nach Anspruch 1, wobei das stereoskopische Bild eine Vielzahl von stereoskopischen Bildern umfasst, und wobei die Steuereinheit als Antwort auf die Geste in Bezug auf mindestens eines aus der Vielzahl von stereoskopischen Bildern die Darstellung von mindestens einem aus der Vielzahl von stereoskopischen Bildern ändert.
  4. Anzeigevorrichtung nach Anspruch 3, wobei die Steuereinheit einen Abstand zwischen dem mindestens einen aus der Vielzahl von stereoskopischen Bildern und dem mindestens einen anderen davon ändert und denselben anzeigt.
  5. Anzeigevorrichtung nach Anspruch 3, wobei die Steuereinheit die Darstellung von mindestens einem anderen aus der Vielzahl von stereoskopischen Bildern freigibt.
  6. Anzeigevorrichtung nach Anspruch 1, wobei die Steuereinheit die Darstellung des stereoskopischen Bilds gemäß einer Annäherungsrichtung der Geste in Bezug auf mindestens eine der lateralen und Rück-Seiten des stereoskopischen Bilds steuert.
  7. Anzeigevorrichtung nach Anspruch 1, wobei die Steuereinheit die Darstellung des stereoskopischen Bilds gemäß mindestens einer von einer Form des stereoskopischen Bilds und Eigenschaften eines dem stereoskopischen Bild entsprechenden Objekts ändert.
  8. Anzeigevorrichtung nach Anspruch 1, wobei die Steuereinheit die Darstellung des stereoskopischen Bilds ändert, wenn eine Interferenz zwischen einer Spur der Geste und dem stereoskopischen Bild in dem virtuellen Raum auftritt.
  9. Anzeigevorrichtung nach Anspruch 1, wobei die Steuereinheit die Darstellung des stereoskopischen Bilds gemäß der auf einer Handbewegung des Kontrolle habenden Benutzers basierenden Geste ändert, und wobei die Handbewegung mindestens eine von einer Berührung des stereoskopischen Bilds und einem Ergreifen des stereoskopischen Bilds umfasst.
  10. Anzeigevorrichtung nach Anspruch 1, wobei die Steuereinheit einen stereoskopischen Bild-Zeiger, der sich in dem virtuellen Raum als Antwort auf die Geste bewegt, anzeigt, und wobei der stereoskopische Bild-Zeiger einen stereoskopischen Abstand entsprechend einem Abstand zwischen einer festgelegten Referenzposition und der Geste hat.
  11. Anzeigevorrichtung nach Anspruch 10, wobei die Steuereinheit eine Funktion entsprechend einem von dem stereoskopischen Bild-Zeiger in dem stereoskopischen Bild ausgewählten stereoskopischen Bildabschnitt ausführt.
  12. Anzeigevorrichtung nach Anspruch 10, wobei das stereoskopische Bild eine Vielzahl von Seiten, denen unterschiedliche Funktionen zugeordnet sind, umfasst, wobei die Steuereinheit eine Funktion entsprechend einer von dem stereoskopischen Bild-Zeiger aus der Vielzahl von Seiten ausgewählten Seite ausführt.
  13. Anzeigevorrichtung nach Anspruch 10, wobei die Steuereinheit eine von dem stereoskopischen Bild-Zeiger angegebene Richtung entsprechend der Annäherungsrichtung der Geste ändert und den stereoskopischen Bild-Zeiger anzeigt.
  14. Anzeigevorrichtung nach Anspruch 13, wobei die festgelegte Referenzposition eine Position eines Körpers des Benutzers, eine Position einer Anzeigefläche oder eine Position ist, bei welcher die Geste anfangs aufgenommen wird.
  15. Anzeigevorrichtung nach Anspruch 1, ferner umfassend eine Rückmeldeeinheit, die mindestens einen von einem Klang oder einem Fluss von Flüssigkeiten erzeugt, um es dem Benutzer zu ermöglichen, mindestens einen von dem Abstand und der Annäherungsrichtung durch mindestens einen von einem Hörsinn und einem Tastsinn zu ermitteln.
  16. Anzeigevorrichtung nach Anspruch 15, wobei die Rückmeldeeinheit einen gerichteten Lautsprecher umfasst.
  17. Anzeigevorrichtung nach Anspruch 1, wobei die Kamera eine erste Kamera und eine zweite Kamera zum jeweiligen Aufnehmen von Vorder- und Rückseiten eines Körpers einschließlich der Anzeige umfasst, und wobei die Steuereinheit die Geste unter Verwendung von einer der ersten und zweiten Kameras gemäß einer Perspektive des stereoskopischen Bilds in dem virtuellen Raum in Bezug auf eine Anzeigefläche der Anzeige erfasst.
  18. Anzeigevorrichtung nach Anspruch 1, wobei das Steuern der Darstellung des stereoskopischen Bilds mit mindestens einem aus Ändern einer Position des angezeigten stereoskopischen Bilds, Ändern einer Form des angezeigten stereoskopischen Bilds und Anzeigen eines stereoskopisches Bilds mit einer Funktion entsprechend dem angezeigten stereoskopischen Bild verbunden ist.
  19. Anzeigevorrichtung, umfassend: eine Kamera, die eine Geste eines Benutzers aufnimmt; eine Anzeige, die ein stereoskopisches Bild mit einer Vielzahl von Seiten anzeigt; und eine Steuereinheit, die eine mindestens einer aus der Vielzahl von Seiten zugeordnete Funktion als Antwort auf eine Annäherungsrichtung der Geste in Bezug auf die mindestens eine aus der Vielzahl von Seiten in einem virtuellen Raum ausführt.
  20. Anzeigevorrichtung nach Anspruch 19, wobei die Steuereinheit die Funktion entsprechend der auf einer Handbewegung des Kontrolle habenden Benutzers basierenden Geste ausführt, und wobei die Handbewegung mindestens eine von einer Berührung von mindestens einer aus der Vielzahl von Seiten und einem Ergreifen des stereoskopischen Bilds umfasst.
  21. Anzeigevorrichtung nach Anspruch 19, wobei die Steuereinheit einen stereoskopischen Bild-Zeiger anzeigt, der sich in dem virtuellen Raum als Antwort auf die Geste bewegt, und wobei die Steuereinheit eine Funktion entsprechend einer von dem stereoskopischen Bild-Zeiger aus der Vielzahl von Seiten ausgewählten Seite ausführt.
  22. Verfahren zum Steuern der Anzeigevorrichtung, umfassend: Anzeigen eines stereoskopischen Bilds; Erfassen einer Geste in Bezug auf das angezeigte stereoskopische Bild; und Steuern einer Darstellung des stereoskopischen Bilds als Antwort auf einen Abstand zwischen der Geste und dem stereoskopischen Bild in einem virtuellen Raum und eine Annäherungsrichtung der Geste in Bezug auf das stereoskopische Bild.
  23. Verfahren nach Anspruch 22, wobei, beim Steuern der Darstellung, die Darstellung des stereoskopischen Bilds als Antwort auf eine Annäherungsrichtung der Geste in Bezug auf mindestens eine von den lateralen und Rück-Seiten des stereoskopischen Bilds gesteuert wird.
  24. Verfahren nach Anspruch 22, wobei, beim Steuern der Darstellung, die Darstellung des stereoskopischen Bilds gemäß zumindest einer von einer Form des stereoskopischen Bilds und Eigenschaften eines dem stereoskopischen Bild entsprechenden Objekts verändert wird.
  25. Verfahren nach Anspruch 22, wobei, beim Steuern der Darstellung, die Darstellung des stereoskopischen Bilds geändert wird, wenn eine Interferenz zwischen dem stereoskopischen Bild und einer Spur der Geste in dem virtuellen Raum auftritt.
  26. Verfahren nach Anspruch 22, wobei die Geste in Bezug auf das angezeigte stereoskopische Bild eine Handbewegung des Benutzers einschließlich mindestens einer von einer Berührung des stereoskopischen Bilds und einem Ergreifen des stereoskopischen Bilds ist.
  27. Verfahren nach Anspruch 22, wobei das Steuern der Darstellung umfasst: Anzeigen eines sich in dem virtuellen Raum als Antwort auf die Geste bewegenden stereoskopischen Bild-Zeigers; und Ausführen einer Funktion entsprechend einem von dem stereoskopischen Bild-Zeiger in dem stereoskopischen Bild ausgewählten stereoskopischen Bildabschnitt.
  28. Verfahren nach Anspruch 22, ferner umfassend Erzeugen von mindestens einem von einem Klang und einem Fluss von Flüssigkeiten, um dem Benutzer zu ermöglichen, mindestens einen von dem Abstand und der Annäherungsrichtung durch mindestens einen von einem Hörsinn und einem Tastsinn zu ermitteln.
  29. Verfahren zum Steuern einer Anzeigevorrichtung, umfassend: Anzeigen eines stereoskopischen Bilds mit einer Vielzahl von Seiten; Erfassen einer Geste in Bezug auf das angezeigte stereoskopische Bild; und Ausführen einer mindestens einer aus der Vielzahl von Seiten zugeordneten Funktion als Antwort auf eine Annäherungsrichtung der Geste in Bezug auf die mindestens eine aus der Vielzahl von Seiten in einem virtuellen Raum.
  30. Verfahren nach Anspruch 29, wobei, beim Ausführen der Funktion, die Funktion als Antwort auf eine Annäherungsrichtung der Geste mit Bezug auf mindestens eine von den lateralen und Rück-Seiten des stereoskopischen Bilds ausgeführt wird.
  31. Verfahren nach Anspruch 29, wobei die Geste in Bezug auf das angezeigte stereoskopische Bild eine Handbewegung des Benutzers einschließlich mindestens einer von einer Berührung des stereoskopischen Bilds und einem Ergreifen des stereoskopischen Bilds ist.
DE112011104939.0T 2011-03-21 2011-03-21 Anzeigevorrichtung und Verfahren zum Steuern derselben Withdrawn DE112011104939T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2011/001919 WO2012128399A1 (en) 2011-03-21 2011-03-21 Display device and method of controlling the same

Publications (1)

Publication Number Publication Date
DE112011104939T5 true DE112011104939T5 (de) 2014-01-23

Family

ID=46879527

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112011104939.0T Withdrawn DE112011104939T5 (de) 2011-03-21 2011-03-21 Anzeigevorrichtung und Verfahren zum Steuern derselben

Country Status (3)

Country Link
CN (1) CN103430215B (de)
DE (1) DE112011104939T5 (de)
WO (1) WO2012128399A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015208136A1 (de) * 2015-04-30 2016-11-03 Krones Aktiengesellschaft Verfahren und Vorrichtung zur Zuförderung, Bereitstellung und zum Austausch von Rollen mit Verpackungsmaterial in einer Verpackungsmaschine

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105022452A (zh) * 2015-08-05 2015-11-04 合肥联宝信息技术有限公司 一种具有3d 显示效果的笔记本电脑
CN105894533A (zh) * 2015-12-31 2016-08-24 乐视移动智能信息技术(北京)有限公司 基于智能设备实现体感控制的方法、系统以及智能设备
CN105824429A (zh) * 2016-05-12 2016-08-03 深圳市联谛信息无障碍有限责任公司 基于红外传感器的读屏应用指令输入方法及装置
SE541650C2 (en) * 2017-05-30 2019-11-19 Crunchfish Ab Improved activation of a virtual object
CN107707900A (zh) * 2017-10-17 2018-02-16 西安万像电子科技有限公司 多媒体内容的处理方法、装置和系统
WO2024026638A1 (en) * 2022-08-01 2024-02-08 Huawei Technologies Co., Ltd. Haptic interaction with 3d object on naked eye 3d display
GB2627426A (en) * 2022-12-13 2024-08-28 Temporal Res Ltd An imaging method and an imaging device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0905644A3 (de) * 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Vorrichtung zur Erkennung von Handgebärden
JP3948202B2 (ja) * 2000-10-03 2007-07-25 松下電工株式会社 避難仮想体験システム
JP4267648B2 (ja) * 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
US7971156B2 (en) * 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US9594431B2 (en) * 2009-06-19 2017-03-14 Hewlett-Packard Development Company, L.P. Qualified command
CN101807114B (zh) * 2010-04-02 2011-12-07 浙江大学 一种基于三维手势的自然交互方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015208136A1 (de) * 2015-04-30 2016-11-03 Krones Aktiengesellschaft Verfahren und Vorrichtung zur Zuförderung, Bereitstellung und zum Austausch von Rollen mit Verpackungsmaterial in einer Verpackungsmaschine

Also Published As

Publication number Publication date
WO2012128399A1 (en) 2012-09-27
CN103430215B (zh) 2017-03-22
CN103430215A (zh) 2013-12-04

Similar Documents

Publication Publication Date Title
DE112011104939T5 (de) Anzeigevorrichtung und Verfahren zum Steuern derselben
DE112020003794T5 (de) Tiefenbewusste Fotobearbeitung
DE202017105484U1 (de) Dreidimensionales Telepräsenzsystem
US20120242793A1 (en) Display device and method of controlling the same
DE112016004135T5 (de) Teleportation in einer Augmented- und/oder Virtual-Reality Umgebung
DE102009032637B4 (de) Bildvergrößerungssystem für eine Computerschnittstelle
DE202014103215U1 (de) Elektronisches, visuelles Gerät, das eine flexible beziehungsweise biegbare Vorrichtung zur optischen Signalisierung von veränderlichen Informationen, ein flexibles beziehungsweise biegbares Gehäuse mit mindestens einem Gelenk/Scharnier und ein Regel-/Steuerungssystem besitzt
DE102018005131A1 (de) Mobiles Gerät mit Frontkamera und maximierter Bildschirmoberfläche
DE202013012457U1 (de) Digitale Vorrichtung
DE112016004216T5 (de) Allgemeine Sphärische Erfassungsverfahren
US20120262446A1 (en) Electronic device and method for displaying stereoscopic image
DE102015100930A1 (de) Steuerung von verbesserter Kommunikation zwischen entfernt befindlichen Teilnehmern/Teilnehmerinnen mittels erweiterter und virtueller Realität
DE102012112206B4 (de) Steuerungsverfahren und elektronische Vorrichtung
DE112019007677T5 (de) Posenvorhersageverfahren, Modelltrainingsverfahren und Vorrichtung
DE112010001770T5 (de) Controller für eine Richtantenne und zugehörigeVorrichtungen und Verfahren
DE112018001224T5 (de) Datenprozessor, Datenverarbeitungsverfahren und Aufzeichnungsmedium
DE202013012582U1 (de) Mobiles Endgerät
DE102014019637A1 (de) Anzeigeschaltverfahren, Datenverarbeitungsverfahren und elektronische Vorrichtung
DE102019218787A1 (de) Verfahren, vorrichtung und system zum erzeugen von mit einer darstellung eines artikels verbundenen angeboten
AT18289U1 (de) Verfahren und vorrichtung zur stereoskopischen anzeige, elektronisches gerät, speichermedium
DE112020000573T5 (de) Anzeigen von darstellungen von umgebungen
CN104982034A (zh) 自适应深度感测
DE19755264A1 (de) Mobiles Rechnersystem
DE112010005948B4 (de) Stereskopische Dreidimensionen-Anzeigevorrichtung
DE102022120456A1 (de) Verfahren und vorrichtungen zur erzeugung von räumlichem audio auf der grundlage von computer-vision

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee