JP2012048622A - 情報処理装置、立体視表示方法、及びプログラム - Google Patents

情報処理装置、立体視表示方法、及びプログラム Download PDF

Info

Publication number
JP2012048622A
JP2012048622A JP2010192248A JP2010192248A JP2012048622A JP 2012048622 A JP2012048622 A JP 2012048622A JP 2010192248 A JP2010192248 A JP 2010192248A JP 2010192248 A JP2010192248 A JP 2010192248A JP 2012048622 A JP2012048622 A JP 2012048622A
Authority
JP
Japan
Prior art keywords
display
stereoscopic
unit
proximity
stereoscopic display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010192248A
Other languages
English (en)
Other versions
JP5593972B2 (ja
Inventor
Tomoya Narita
智也 成田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010192248A priority Critical patent/JP5593972B2/ja
Priority to US13/197,481 priority patent/US9678655B2/en
Priority to EP11178255.3A priority patent/EP2423786B1/en
Priority to CN2011203190211U priority patent/CN202995700U/zh
Priority to CN201110249698.7A priority patent/CN102387383B/zh
Publication of JP2012048622A publication Critical patent/JP2012048622A/ja
Application granted granted Critical
Publication of JP5593972B2 publication Critical patent/JP5593972B2/ja
Priority to US15/604,936 priority patent/US10338805B2/en
Priority to US16/415,725 priority patent/US20190272073A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】立体的に表示された表示物と操作体との距離感の違いがユーザに与える違和感を低減させることが可能な情報処理装置を提供すること。
【解決手段】表示物を立体的に表示する立体視表示部と、前記立体視表示部に対する操作体の近接を検知する近接検知部と、前記近接検知部により操作体の近接が検知された場合に、前記立体視表示部に表示された表示物を前記立体視表示部の表示面よりも奥側に表示させる表示制御部と、を備える、情報処理装置が提供される。
【選択図】図1

Description

本発明は、情報処理装置、立体視表示方法、及びプログラムに関する。
近年、映像コンテンツや操作オブジェクトなどの表示物を立体的に表示することが可能な立体視表示装置が実用化され、一般に普及しつつある。例えば、立体視表示が可能なテレビジョン受像機、携帯ゲーム機、及びパーソナルコンピュータ(以下、PC)用のディスプレイ装置などでは既に製品化されているものもある。現在広く利用されている非立体視表示装置は、今後、徐々に立体視表示装置に置き換えられていくものと考えられる。このような立体視表示装置に関し、例えば、下記の特許文献1には、表示物の制作者が意図した飛び出し量や引き込み量などを正確に表現できるようにする立体視画像の補正方法が開示されている。
特開2010−045584号公報
このように、立体視表示技術自体は広く知られているところであるが、立体視表示にするが故に生じる問題も多く存在している。例えば、現実世界にある物体が立体視表示された表示物に重なると、実際に立体的な形状を持つ物体と、人工的に視差を表現して立体的に見せている表示物との間で距離感に不整合が生じ、見ているユーザに違和感を与えてしまうという問題がある。そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、表示物を立体的に表示している表示面に対して現実世界にある物体が近接した場合にユーザが感じる違和感を低減することが可能な、新規かつ改良された情報処理装置、立体視表示方法、及びプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、表示物を立体的に表示する立体視表示部と、前記立体視表示部に対する操作体の近接を検知する近接検知部と、前記近接検知部により操作体の近接が検知された場合に、前記立体視表示部に表示された表示物を前記立体視表示部の表示面よりも奥側に表示させる表示制御部と、を備える、情報処理装置が提供される。
また、前記近接検知部は、前記立体視表示部の表示面と操作体との間の距離を検知し、前記表示制御部は、前記近接検知部により検知された距離に応じて前記立体視表示部に表示された表示物の表示位置を奥行き方向に移動させる、ように構成されていてもよい。
また、前記表示制御部は、前記近接検知部により前記立体視表示部に対する操作体の接触が検知された場合に、前記立体視表示部に表示された全ての表示物が前記立体視表示部の表示面よりも奥側に表示されるように前記表示物を表示させる、ように構成されていてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、表示物を立体的に表示する立体視表示部と、前記立体視表示部に対する操作体の近接を検知する近接検知部と、前記近接検知部により操作体の近接が検知された場合に、前記立体視表示部に表示された表示物を非立体的に表示させる表示制御部と、を備える、情報処理装置が提供される。
また、前記表示制御部は、前記近接検知部により前記立体視表示部に対する操作体の接触が検知された場合に、前記立体視表示部の表示面よりも奥側に表示物を立体的に表示させる、ように構成されていてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、表示物を立体的に表示する立体視表示部と、前記立体視表示部に対する操作体の近接を検知する近接検知部と、前記近接検知部により操作体の近接が検知された場合に、前記立体視表示部に表示された表示物をぼかして表示させる表示制御部と、を備える、情報処理装置が提供される。
また、前記表示制御部は、前記立体視表示部に表示された表示物のうち、前記操作体が近接した位置から離れた位置に表示されている表示物をぼかして表示させる、ように構成されていてもよい。
また、前記表示制御部は、前記立体視表示部に表示された表示物のうち、飛び出し度合いの大きい表示物をぼかして表示させる、ように構成されていてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、表示物を立体的に表示する立体視表示ステップと、前記表示物の表示面に対する操作体の近接を検知する近接検知ステップと、前記近接検知ステップで操作体の近接が検知された場合に、前記表示物を前記表示面よりも奥側に表示させる表示制御ステップと、を含む、立体視表示方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、表示物を立体的に表示する立体視表示ステップと、前記表示物の表示面に対する操作体の近接を検知する近接検知ステップと、前記近接検知ステップで操作体の近接が検知された場合に、前記表示物を非立体的に表示させる表示制御ステップと、を含む、立体視表示方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、表示物を立体的に表示する立体視表示ステップと、前記表示面に対する操作体の近接を検知する近接検知ステップと、前記近接検知ステップで操作体の近接が検知された場合に、前記表示物をぼかして表示させる表示制御ステップと、を含む、立体視表示方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、表示物を立体的に表示する立体視表示機能と、前記表示物の表示面に対する操作体の近接を検知する近接検知機能と、前記近接検知機能により操作体の近接が検知された場合に、前記表示物を前記表示面よりも奥側に表示させる表示制御機能と、をコンピュータに実現させるためのプログラムが提供される。
また、前記近接検知機能は、前記表示面と操作体との間の距離を検知し、前記表示制御機能は、前記近接検知機能により検知された距離に応じて前記表示物の表示位置を奥行き方向に移動させる、ように構成されていてもよい。
また、前記表示制御機能は、前記近接検知機能により前記表示面に対する操作体の接触が検知された場合に、表示されている全ての前記表示物が前記表示面よりも奥側に表示されるように前記表示物を表示させる、ように構成されていてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、表示物を立体的に表示する立体視表示機能と、前記表示物の表示面に対する操作体の近接を検知する近接検知機能と、前記近接検知機能により操作体の近接が検知された場合に、前記表示物を非立体的に表示させる表示制御機能と、をコンピュータに実現させるためのプログラムが提供される。
また、前記表示制御機能は、前記近接検知機能により前記表示面に対する操作体の接触が検知された場合に、前記表示面よりも奥側に表示物を立体的に表示させる、ように構成されていてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、表示物を立体的に表示する立体視表示機能と、前記表示物の表示面に対する操作体の近接を検知する近接検知機能と、前記近接検知機能により操作体の近接が検知された場合に、前記表示物をぼかして表示させる表示制御機能と、をコンピュータに実現させるためのプログラムが提供される。
また、前記表示制御機能は、前記操作体が近接した位置から離れた位置に表示されている表示物をぼかして表示させる、ように構成されていてもよい。
また、前記表示制御機能は、飛び出し度合いの大きい表示物をぼかして表示させる、ように構成されていてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、上記のプログラムが記録された、コンピュータにより読み取り可能な記録媒体が提供される。
以上説明したように本発明によれば、表示物を立体的に表示している表示面に対して現実世界にある物体が近接した場合にユーザが感じる違和感を低減することが可能になる。
本発明の一実施形態に係る立体視表示装置の機能構成について説明するための説明図である。 立体視表示の原理について説明するための説明図である。 同実施形態に係る表示制御方法(#1)について説明するための説明図である。 同実施形態に係る立体視表示装置の動作(#1)について説明するための説明図である。 同実施形態に係る表示制御方法(#1(変形例))について説明するための説明図である。 同実施形態に係る立体視表示装置の動作(#1(変形例))について説明するための説明図である。 同実施形態に係る表示制御方法(#2)について説明するための説明図である。 同実施形態に係る立体視表示装置の動作(#2)について説明するための説明図である。 同実施形態に係る表示制御方法(#2(変形例))について説明するための説明図である。 同実施形態に係る立体視表示装置の動作(#2(変形例))について説明するための説明図である。 同実施形態に係る表示制御方法(#3)について説明するための説明図である。 同実施形態に係る立体視表示装置の動作(#3)について説明するための説明図である。 同実施形態に係る表示制御方法(#3(変形例))について説明するための説明図である。 同実施形態に係る立体視表示装置の動作(#3(変形例))について説明するための説明図である。 同実施形態に係る立体視表示装置の機能を実現することが可能な情報処理装置のハードウェア構成例について説明するための説明図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[説明の流れについて]
ここで、以下に記載する本発明の実施形態に関する説明の流れについて簡単に述べる。まず、図1を参照しながら、本実施形態に係る立体視表示装置100の機能構成について説明する。この中で、図2を参照しながら、立体視表示の原理について簡単に説明する。次いで、図3〜図14を参照しながら、本実施形態に係る表示制御方法、及び当該表示制御方法を実現するための立体視表示装置100の動作について説明する。次いで、図15を参照しながら、立体視表示装置100の機能を実現することが可能な情報処理装置のハードウェア構成例について説明する。最後に、本実施形態の技術的思想について纏め、当該技術的思想から得られる作用効果について簡単に説明する。
(説明項目)
1:実施形態
1−1:立体視表示装置100の機能構成
1−2:表示制御方法及び立体視表示装置100の動作
1−2−1:(#1)表示物の非立体視表示
1−2−2:(#2)表示物の押し込み
1−2−3:(#3)表示物のぼかし表示
1−3:ハードウェア構成
2:まとめ
<1:実施形態>
本発明の一実施形態について説明する。本実施形態は、立体視表示された表示物に対して現実世界にある物体が近づいた場合にユーザに与える違和感を低減することが可能な表示制御方法を提案するものである。
[1−1:立体視表示装置100の機能構成]
まず、図1を参照しながら、本実施形態に係る表示制御方法を実現することが可能な立体視表示装置100の機能構成について説明する。図1は、本実施形態に係る立体視表示装置100の機能構成について説明するための説明図である。
図1に示すように、立体視表示装置100は、主に、タッチパネル101と、表示制御部102と、記憶部103と、立体視表示部104とにより構成される。
なお、タッチパネル101は、後述するハードウェア構成のうち、入力部916に相当する。また、表示制御部102の機能は、後述するハードウェア構成のうち、CPU902などを利用して実現される。さらに、記憶部103の機能は、後述するハードウェア構成のうち、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928により実現される。そして、立体視表示部104の機能は、後述するハードウェア構成のうち、出力部918により実現される。
タッチパネル101は、操作体の近接を検知する手段である。タッチパネル101は、立体視表示部104の表示面上に設けられる。そして、タッチパネル101は、立体視表示部104の表示面に近接した操作体の位置を検知する。また、タッチパネル101は、立体視表示部104の表示面に近接した操作体と、その表示面との間の距離を検知する機能を有していてもよい。さらに、タッチパネル101は、立体視表示部104の表示面を押圧する操作体の押圧力を検知する機能を有していてもよい。タッチパネル101の機能は、例えば、静電容量式タッチパネルや光学式タッチパネルにより実現される。
静電容量式タッチパネルは、タッチパネルと操作体との間に生じる静電容量を検知し、その静電容量の変化から操作体の近接又は接触を検知するというものである。タッチパネルと操作体との間の距離が変化すると、両者の間に生じる静電容量も変化する。また、操作体によりタッチパネルが押圧されると、その押圧に応じて両者の間に生じる静電容量が変化することも知られている。そのため、静電容量式タッチパネルを利用すると、タッチパネルに対する操作体の近接が検知されるばかりか、操作体とタッチパネルとの間の距離や、タッチパネルを押圧する操作体の押圧力を検知することができる。
一方、光学式タッチパネルは、光学センサによりタッチパネルに近接又は接触した操作体を検知するというものである。光学式タッチパネルには様々な種類が知られているが、最近、「インセル型」と呼ばれる光学式タッチパネルが開発された。インセル型の光学式タッチパネルは、表示パネルの内側から操作体に光を照射し、操作体で反射された光を検知して操作体の位置を検知するというものである。表示パネルの近くに操作体が存在する場合には操作体により光が強く反射される。そのため、操作体により反射される光の強度に応じて表示パネルと操作体との距離を検知することができる。
タッチパネル101により操作体の近接又は接触が検知されると、操作体の近接又は接触を示す情報(以下、近接情報)がタッチパネル101から表示制御部102に入力される。また、表示制御部102には、タッチパネル101から操作体の位置を示す位置情報などが入力される。近接情報や位置情報などが入力されると、表示制御部102は、入力された近接情報や位置情報などに応じて立体視表示部104による表示物の表示を制御する。表示制御部102は、立体視表示部104に表示物を表示させる手段である。
例えば、表示制御部102は、記憶部103に格納されている画像データを読み出し、読み出した画像データを立体視表示部104に表示させる。また、表示制御部102は、映像コンテンツやGUI(Graphical User Interface)などを立体視表示部104に表示させる。このとき、表示制御部102は、画像データ、映像コンテンツ、GUIなどの表示物を立体的に表示するための演算を実行する。例えば、表示制御部102は、立体視表示部104の表示面から表示物を飛び出させるための演算や、表示面の奥側に押し込めるための演算などを実行する。
ここで、図2を参照しながら、立体視表示の原理について簡単に説明する。図2は、立体視表示の原理について説明するための説明図である。
表示物を立体的に見せるには、図2に示すように、右眼用の表示物と左眼用の表示物とを表示面に離して表示し、右眼だけで右眼用の表示物を見るようにさせ、左眼だけで左眼用の表示物を見るようにさせる。右眼用の表示物を右眼だけで見るようにさせ、左眼用の表示物を左眼だけで見るようにさせるために、多くの場合、偏光が利用される。例えば、第1の方向に直線偏光した光で右眼用の表示物を表示し、第1の方向に直交する第2の方向に直線偏光した光で左眼用の表示物を表示する。さらに、第1の方向に直線偏光した光を通すレンズを右眼に、第2の方向に直線偏光した光を通すレンズを左眼に装着することにより、右眼には右眼用の表示物だけが見え、左眼には左眼用の表示物だけが見える状況をつくりだすことができる。
このような状況がつくりだせると、右眼と右眼用の表示物とを結ぶ視線と、左眼と左眼用の表示物とを結ぶ視線とが交差する位置に表示物が表示されているように見えるようになる。また、右眼用の表示物と左眼用の表示物との間の距離を制御することにより、輻輳角を調整することが可能になる。輻輳角が変化することにより、立体視表示されている表示物の飛び出し度合いが変化する。
つまり、表示面上にある右眼用及び左眼用の表示物の表示位置を制御することにより、立体視表示された表示物の飛び出し度合いや押し込み度合いを制御することができるのである。なお、ここでは偏光を利用して立体視表示を実現する方法について説明したが、本実施形態はこれに限定されず、表示物を立体視表示することが可能な任意の表示制御方法を適用することができる。
再び図1を参照する。上記のように、表示制御部102は、右眼用及び左眼用の表示物の表示を制御することにより、表示物を立体的に表示させる。表示制御部102により決められる表示物の飛び出し度合いや押し込み度合いを示す情報(以下、制御情報)は、立体視表示部104に入力される。また、表示制御部102により記憶部103から読み出された表示物のデータも立体視表示部104に入力される。制御情報が入力されると、立体視表示部104は、入力された制御情報に基づいて表示物を表示する。
以上、立体視表示装置100の機能構成について説明した。
[1−2:表示制御方法及び立体視表示装置100の動作]
次に、図3〜図14を参照しながら、本実施形態に係る表示制御方法、及び当該表示制御方法を実現するための立体視表示装置100の動作について説明する。以下で説明する表示制御方法は、立体視表示された表示物に対して現実世界にある物体が近づいた場合にユーザに与える違和感を低減するためのものである。
(1−2−1:(#1)表示物の非立体視表示)
まず、図3を参照する。ここで説明する表示制御方法は、操作体Fが立体視表示部104の表示面に近接した際に、立体視表示されていた表示物の表示方法を非立体視表示に切り替えるというものである。図3は、この表示制御方法について説明するための説明図である。なお、図3では、ユーザに見えている立体的な表示物を模式的に表現している。
図3に示すように、立体視表示部104により表示物が立体視表示されているものとする(Step.1)。この立体視表示部104の表示面に操作体Fが近接した場合(Step.2)、表示制御部102は、立体視表示されていた表示物の表示方法を非立体視表示に切り替える(Step.3)。Step.3で表示方法が非立体視表示に切り替わると、表示物の距離感と操作体Fの距離感との間に不整合が生じなくなる。その結果、立体視表示された表示物に対して操作体Fが近づいた際にユーザは違和感を感じなくなる。
以上、本実施形態に係る表示制御方法について説明した。
次に、図4を参照する。図4は、図3を参照しながら説明した表示制御方法を実現するための立体視表示装置100の動作を示す説明図である。
図4に示すように、立体視表示装置100は、表示制御部102の機能により、立体視表示部104に表示物を立体的に表示する(S101)。次いで、立体視表示装置100は、タッチパネル101の機能により、立体視表示部104の表示面に操作体Fが近接したか否かを検知する(S102)。操作体Fが立体視表示部104の表示面に近接した場合、立体視表示装置100は、処理をステップS103に進める。一方、操作体Fが立体視表示部104の表示面に近接していない場合、立体視表示装置100は、処理をステップS102に戻す。
処理をステップS103に進めた場合、立体視表示装置100は、表示制御部102の機能により、立体的に表示している表示物の表示方法を非立体視表示に切り替える(S103)。次いで、立体視表示装置100は、タッチパネル101の機能により、操作体Fが立体視表示部104の表示面から離れたか否かを検知する(S104)。
操作体Fが立体視表示部104の表示面から離れた場合、立体視表示装置100は、処理をステップS105に進める。一方、操作体Fが立体視表示部104の表示面から離れていない場合、立体視表示装置100は、処理をステップS104に戻す。処理をステップS105に進めた場合、立体視表示装置100は、表示制御部102の機能により、非立体的に表示している表示物の表示方法を立体視表示に切り替える(S105)。
以上、本実施形態に係る立体視表示装置100の動作について説明した。
(変形例)
次に、図5を参照する。図5は、図3に示した表示制御方法の一変形例である。ここで説明する表示制御方法は、操作体Fが表示面に近接した際に表示物の表示方法を非立体視表示に切り替え、操作体Fが表示面に接触した際に表示物を表示面の奥側に押し込むというものである。図5は、この表示制御方法について説明するための説明図である。但し、図5には、図3に示したStep.1、Step.2に続く操作だけを記載した。そのため、Step.1、Step.2の操作については図3を参照する。
図3に示すように、立体視表示部104により表示物が立体視表示されているものとする(Step.1)。この立体視表示部104の表示面に操作体Fが近接した場合(Step.2)、表示制御部102は、立体視表示されていた表示物の表示方法を非立体視表示に切り替える(Step.3)。次いで、図5に示すように、立体視表示部104の表示面に操作体Fが接触した場合、表示制御部102は、非立体的に表示されていた表示物の表示方法を立体視表示に切り替える(Step.4)。但し、表示制御部102は、立体視表示部104の表示面より奥側に表示物が押し込まれるように表示物を表示させる。
表示物が小さい場合、操作体Fが立体視表示部104の表示面に接触すると、操作体Fにより表示物が隠れてしまうことがある。しかし、図5に示すように、操作体Fの接触に伴って表示物が表示面の奥側に押し込まれることにより、表示物が操作体Fに隠れることがなくなる。図5ではユーザに見える形で表示物が模式的に表示されているが、実際には、右眼用の表示物と左眼用の表示物とが操作体Fの左右にはみ出す形で表示される。そのため、表示物が小さくても、表示物が操作体Fに完全に隠れてしまうことがなくなる。
このような表示制御方法は、例えば、ボタンオブジェクトやメニューオブジェクトなどの表示物を操作体Fにより操作するような場面で有効に機能する。また、この表示制御方法は、ある程度の時間、表示物に触れた状態で操作するような場面でも有効に機能する。例えば、表示物をドラッグするような場面では、表示物に操作体Fが触れた状態で操作体Fを移動する必要がある。このような場合、表示物が操作体Fに隠れてしまうと、操作体Fに表示物が触れているか否かが分かりにくくなる。しかし、上記の表示制御方法を適用すると、操作体Fに追従して移動する表示物の動きが見えるようになり、ユーザは、安心してドラッグ操作を行うことができるようになる。
以上、本実施形態に係る表示制御方法の一変形例について説明した。
次に、図6を参照する。図6は、図3及び図5を参照しながら説明した表示制御方法を実現するための立体視表示装置100の動作を示す説明図である。
図6に示すように、立体視表示装置100は、表示制御部102の機能により、立体視表示部104に表示物を立体的に表示する(S111)。次いで、立体視表示装置100は、タッチパネル101の機能により、立体視表示部104の表示面に操作体Fが近接したか否かを検知する(S112)。操作体Fが立体視表示部104の表示面に近接した場合、立体視表示装置100は、処理をステップS113に進める。一方、操作体Fが立体視表示部104の表示面に近接していない場合、立体視表示装置100は、処理をステップS112に戻す。
処理をステップS113に進めた場合、立体視表示装置100は、表示制御部102の機能により、立体的に表示している表示物の表示方法を非立体視表示に切り替える(S113)。次いで、立体視表示装置100は、タッチパネル101の機能により、立体視表示部104の表示面に操作体Fが接触したか否かを検知する(S114)。操作体Fが立体視表示部104の表示面に接触した場合、立体視表示装置100は、処理をステップS115に進める。一方、操作体Fが立体視表示部104の表示面に接触していない場合、立体視表示装置100は、処理をステップS114に戻す。
処理をステップS115に進めた場合、立体視表示装置100は、表示制御部102の機能により、非立体的に表示している表示物の表示方法を立体視表示に切り替える(S115)。このとき、立体視表示装置100は、立体視表示部104の表示面より奥側に表示物が押し込まれるように表示物を立体的に表示する。次いで、立体視表示装置100は、タッチパネル101の機能により、操作体Fが立体視表示部104の表示面から離れたか否かを検知する(S116)。操作体Fが立体視表示部104の表示面から離れた場合、立体視表示装置100は、処理をステップS117に進める。一方、操作体Fが立体視表示部104の表示面から離れていない場合、立体視表示装置100は、処理をステップS116に戻す。
処理をステップS117に進めた場合、立体視表示装置100は、非立体的に表示している表示物の表示方法を立体視表示に切り替える(S117)。なお、ここでは操作体Fが立体視表示部104の表示面に接触することを前提に説明したが、ステップS113で表示物の表示方法を非立体視表示にした後に操作体Fが表示面から離れた場合には、ステップS117の処理が実行される。
以上、本実施形態の一変形例に係る立体視表示装置100の動作について説明した。
(1−2−2:(#2)表示物の押し込み)
次に、図7を参照する。ここで説明する表示制御方法は、操作体Fが立体視表示部104の表示面に近接した際に、立体視表示されていた表示物を表示面の奥側に押し込むというものである。図7は、この表示制御方法について説明するための説明図である。なお、図7では、ユーザに見えている立体的な表示物を模式的に表現している。
図7に示すように、立体視表示部104により表示物が表示面の手前側に立体視表示されているものとする(Step.1)。この立体視表示部104の表示面に操作体Fが近接した場合(Step.2)、表示制御部102は、立体視表示されていた表示物が表示面の奥側に押し込まれるように表示物を表示する(Step.3)。Step.3で表示物が表示面の奥側に押し込まれると、表示面の手前側に表示物が飛び出していないため、表示物に操作体Fがめり込んで表示されることがなくなったり、表示物の距離感と操作体Fの距離感との間に不整合が生じなくなる。その結果、立体視表示された表示物に対して操作体Fが近づいた際にユーザが感じる違和感を低減することが可能になる。
以上、本実施形態に係る表示制御方法について説明した。
次に、図8を参照する。図8は、図7を参照しながら説明した表示制御方法を実現するための立体視表示装置100の動作を示す説明図である。
図8に示すように、立体視表示装置100は、表示制御部102の機能により、立体視表示部104に表示物を立体的に表示する(S201)。次いで、立体視表示装置100は、タッチパネル101の機能により、立体視表示部104の表示面に操作体Fが近接したか否かを検知する(S202)。操作体Fが立体視表示部104の表示面に近接した場合、立体視表示装置100は、処理をステップS203に進める。一方、操作体Fが立体視表示部104の表示面に近接していない場合、立体視表示装置100は、処理をステップS202に戻す。
処理をステップS203に進めた場合、立体視表示装置100は、表示制御部102の機能により、表示面の手前側に立体的に表示している表示物を表示面の奥側に立体的に表示する(S203)。つまり、立体視表示装置100は、表示面の手前側に立体的に表示している表示物を表示面の奥側に押し込む。次いで、立体視表示装置100は、タッチパネル101の機能により、操作体Fが立体視表示部104の表示面から離れたか否かを検知する(S204)。
操作体Fが立体視表示部104の表示面から離れた場合、立体視表示装置100は、処理をステップS205に進める。一方、操作体Fが立体視表示部104の表示面から離れていない場合、立体視表示装置100は、処理をステップS204に戻す。処理をステップS205に進めた場合、立体視表示装置100は、表示制御部102の機能により、表示面の奥側に押し込んだ表示物を表示面の手前側に立体的に表示する(S205)。
以上、本実施形態に係る立体視表示装置100の動作について説明した。
(変形例)
次に、図9を参照する。図9は、図7に示した表示制御方法の一変形例である。ここで説明する表示制御方法は、操作体Fが表示面に近接した際に表示物を表示面の奥側に押し込み、操作体Fが表示面に接触した際に表示物を更に奥側に押し込むというものである。つまり、この表示制御方法は、表示面と操作体Fとの間の距離に応じて表示物を段階的に表示面の奥側に押し込むというものである。図9は、この表示制御方法について説明するための説明図である。但し、図9には、図7に示したStep.1、Step.2に続く操作だけを記載した。そのため、Step.1、Step.2の操作については図7を参照する。
図7に示すように、立体視表示部104により表示物が表示面の手前側に立体視表示されているものとする(Step.1)。この立体視表示部104の表示面に操作体Fが近接した場合(Step.2)、表示制御部102は、立体視表示されていた表示物が表示面の奥側に押し込まれるように表示物を表示する(Step.3)。次いで、図9に示すように、立体視表示部104の表示面に操作体Fが接触した場合、表示制御部102は、表示面より奥側に表示されていた表示物を更に奥側に押し込む(Step.4)。例えば、Step.3では最前面にある表示物の深度が表示面に一致するようにし、Step.4では最前面にある表示物が表示面よりも奥側に表示されるようにする。
表示物が小さい場合、操作体Fが立体視表示部104の表示面に接触すると、操作体Fにより表示物が隠れてしまうことがある。しかし、図9に示すように、操作体Fの接触に伴って最前面にある表示物が表示面の奥側に押し込まれることにより、全ての表示物は操作体Fに隠れることがなくなる。図9ではユーザに見える形で表示物が模式的に表示されているが、実際には、右眼用の表示物と左眼用の表示物とが操作体Fの左右にはみ出す形で表示される。そのため、表示物が小さくても、表示物が操作体Fに完全に隠れてしまうことがなくなる。
このような表示制御方法は、例えば、ボタンオブジェクトやメニューオブジェクトなどの表示物を操作体Fにより操作するような場面で有効に機能する。また、この表示制御方法は、ある程度の時間、表示物に触れた状態で操作するような場面でも有効に機能する。例えば、表示物をドラッグするような場面では、表示物に操作体Fが触れた状態で操作体Fを移動する必要がある。このような場合、表示物が操作体Fに隠れてしまうと、操作体Fに表示物が触れているか否かが分かりにくくなる。しかし、上記の表示制御方法を適用すると、操作体Fに追従して移動する表示物の動きが見えるようになり、ユーザは、安心してドラッグ操作を行うことができるようになる。
以上、本実施形態に係る表示制御方法の一変形例について説明した。
次に、図10を参照する。図10は、図7及び図9を参照しながら説明した表示制御方法を実現するための立体視表示装置100の動作を示す説明図である。
図10に示すように、立体視表示装置100は、表示制御部102の機能により、立体視表示部104に表示物を立体的に表示する(S211)。次いで、立体視表示装置100は、タッチパネル101の機能により、立体視表示部104の表示面に操作体Fが近接したか否かを検知する(S212)。操作体Fが立体視表示部104の表示面に近接した場合、立体視表示装置100は、処理をステップS213に進める。一方、操作体Fが立体視表示部104の表示面に近接していない場合、立体視表示装置100は、処理をステップS212に戻す。
処理をステップS213に進めた場合、立体視表示装置100は、表示制御部102の機能により、表示面の手前側に表示している表示物を表示面の奥側に押し込む(S213)。次いで、立体視表示装置100は、タッチパネル101の機能により、立体視表示部104の表示面に操作体Fが接触したか否かを検知する(S214)。操作体Fが立体視表示部104の表示面に接触した場合、立体視表示装置100は、処理をステップS215に進める。一方、操作体Fが立体視表示部104の表示面に接触していない場合、立体視表示装置100は、処理をステップS214に戻す。
処理をステップS215に進めた場合、立体視表示装置100は、表示制御部102の機能により、表示面の奥側に表示されている表示物を更に奥側に押し込む(S215)。例えば、ステップS213では最前面にある表示物の深度が表示面に一致するようにし、ステップS215では最前面にある表示物が表示面よりも奥側に表示されるようにする。
次いで、立体視表示装置100は、タッチパネル101の機能により、操作体Fが立体視表示部104の表示面から離れたか否かを検知する(S216)。操作体Fが立体視表示部104の表示面から離れた場合、立体視表示装置100は、処理をステップS217に進める。一方、操作体Fが立体視表示部104の表示面から離れていない場合、立体視表示装置100は、処理をステップS216に戻す。
処理をステップS217に進めた場合、立体視表示装置100は、表示面の奥側に表示していた表示物を表示面の手前側に立体的に表示する(S217)。なお、ここでは操作体Fが立体視表示部104の表示面に接触することを前提に説明したが、ステップS213で表示物を表示面の奥側に表示した後に操作体Fが表示面から離れた場合には、ステップS217の処理が実行される。
以上、本実施形態の一変形例に係る立体視表示装置100の動作について説明した。
(1−2−3:(#3)表示物のぼかし表示)
次に、図11を参照する。ここで説明する表示制御方法は、操作体Fが立体視表示部104の表示面に近接した際に、立体視表示されている表示物をぼかして表示するというものである。図11は、この表示制御方法について説明するための説明図である。なお、図11では、ユーザに見えている立体的な表示物を模式的に表現している。
図11に示すように、立体視表示部104により表示物が表示面の手前側に立体視表示されているものとする(Step.1)。この立体視表示部104の表示面に操作体Fが近接した場合(Step.2)、表示制御部102は、立体視表示されている表示物をぼかして表示する(Step.3)。例えば、表示物の輪郭がぼかして表示される。
表示物の輪郭がぼけると、表示物の飛び出し度合いが認識しにくくなる。そのため、Step.3で表示物がぼかして表示されると、表示面と表示物との間の距離感が不明確になり、表示物の距離感と操作体Fの距離感との間に不整合を感じにくくなる。その結果、立体視表示された表示物に対して操作体Fが近づいた際にユーザが感じる違和感を低減することが可能になる。
以上、本実施形態に係る表示制御方法について説明した。
次に、図12を参照する。図12は、図11を参照しながら説明した表示制御方法を実現するための立体視表示装置100の動作を示す説明図である。
図12に示すように、立体視表示装置100は、表示制御部102の機能により、立体視表示部104に表示物を立体的に表示する(S301)。次いで、立体視表示装置100は、タッチパネル101の機能により、立体視表示部104の表示面に操作体Fが近接したか否かを検知する(S302)。操作体Fが立体視表示部104の表示面に近接した場合、立体視表示装置100は、処理をステップS303に進める。一方、操作体Fが立体視表示部104の表示面に近接していない場合、立体視表示装置100は、処理をステップS302に戻す。
処理をステップS303に進めた場合、立体視表示装置100は、表示制御部102の機能により、立体的に表示している表示物をぼかして表示する(S303)。例えば、立体視表示装置100は、表示物の輪郭をぼかして表示する。次いで、立体視表示装置100は、タッチパネル101の機能により、操作体Fが立体視表示部104の表示面から離れたか否かを検知する(S304)。
操作体Fが立体視表示部104の表示面から離れた場合、立体視表示装置100は、処理をステップS305に進める。一方、操作体Fが立体視表示部104の表示面から離れていない場合、立体視表示装置100は、処理をステップS304に戻す。処理をステップS305に進めた場合、立体視表示装置100は、表示制御部102の機能により、ぼかして表示していた表示物をはっきりと表示させる(S305)。
以上、本実施形態に係る立体視表示装置100の動作について説明した。
(変形例)
次に、図13を参照する。図13は、図11に示した表示制御方法の一変形例である。ここで説明する表示制御方法は、操作体Fが立体視表示部104の表示面に近接した際に、操作体Fから近い位置にある表示物の表示方法を非立体視表示に切り替え、操作体Fから遠い位置にある表示物をぼかして表示するというものである。図13は、この表示制御方法について説明するための説明図である。
図13に示すように、立体視表示部104により表示物が立体視表示されているものとする(Step.1)。この立体視表示部104の表示面に操作体Fが近接した場合(Step.2)、表示制御部102は、操作体Fから近い位置にある表示物の表示方法を非立体視表示に切り替え、操作体Fから遠い位置にある表示物をぼかして表示する(Step.3)。
このように、立体視表示を非立体視表示に切り替えることにより、操作体Fが表示物にめり込んだり、操作体Fの距離感と表示物の距離感との間に不整合が生じたりすることがなくなる。また、表示物がぼかして表示されることにより、表示物の距離感が不明確になるため、操作体Fの距離感と表示物の距離感との間に生じる不整合に起因してユーザが感じる違和感を低減することが可能になる。
以上、本実施形態に係る表示制御方法の一変形例について説明した。
次に、図14を参照する。図14は、図13を参照しながら説明した表示制御方法を実現するための立体視表示装置100の動作を示す説明図である。
図14に示すように、立体視表示装置100は、表示制御部102の機能により、立体視表示部104に表示物を立体的に表示する(S311)。次いで、立体視表示装置100は、タッチパネル101の機能により、立体視表示部104の表示面に操作体Fが近接したか否かを検知する(S312)。操作体Fが立体視表示部104の表示面に近接した場合、立体視表示装置100は、処理をステップS313に進める。一方、操作体Fが立体視表示部104の表示面に近接していない場合、立体視表示装置100は、処理をステップS312に戻す。
処理をステップS313に進めた場合、立体視表示装置100は、表示制御部102の機能により、操作体Fから近い位置にある表示物を非立体的に表示し、操作体Fから遠い位置にある表示物をぼかして表示する(S313)。次いで、立体視表示装置100は、タッチパネル101の機能により、操作体Fが立体視表示部104の表示面から離れたか否かを検知する(S314)。
操作体Fが立体視表示部104の表示面から離れた場合、立体視表示装置100は、処理をステップS315に進める。一方、操作体Fが立体視表示部104の表示面から離れていない場合、立体視表示装置100は、処理をステップS314に戻す。処理をステップS315に進めた場合、立体視表示装置100は、表示制御部102の機能により、非立体的に表示していた表示物を立体的に表示させ、ぼかして表示していた表示物をはっきりと表示させる(S315)。
以上、本実施形態の一変形例に係る立体視表示装置100の動作について説明した。
以上、本発明の一実施形態について説明した。上記のように、操作体Fの近接又は接触に応じて表示物の表示方法を適切に制御することにより、立体視表示された表示物の距離感と操作体Fの距離感との間に生じる不整合によりユーザが感じてしまう違和感を低減することが可能になる。
なお、上記の表示制御方法は、適宜組み合わせて適用することができる。また、操作体Fの近接に応じて表示物をぼかして表示する表示制御方法は電池残量表示や時計表示などのステータス表示領域に表示される表示物に適用し、操作体Fの近接に応じて表示面の奥側に表示物を押し込む表示制御方法はGUIなどの表示物に適用するなど、表示物の種類に応じて表示制御方法を使い分けてもよい。
また、上記説明においては、タッチパネル101が非近接、近接、接触という3状態を検知し、その検知結果に応じて表示物の表示方法を制御する方法について述べたが、本実施形態に係る表示制御方法はこれに限定されない。例えば、タッチパネル101により表示面と表示物との間の距離が多段階又は連続的に検知できる場合には、その距離に応じて多段階又は連続的に表示物を奥行き方向に押し込むようにしたり、ぼかし度合いを大きくしたりしてもよい。このような変形についても本実施形態の技術的範囲に含まれる。
[1−3:ハードウェア構成]
上記の立体視表示装置100が有する各構成要素の機能は、例えば、図15に示す情報処理装置に組み込むことが可能である。また、当該各構成要素の機能は、コンピュータプログラムを用いて図15に示すハードウェアを制御することにより実現される。なお、このハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
図15に示すように、このハードウェアは、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、を有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926と、を有する。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。
CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。但し、上記のCRTは、Cathode Ray Tubeの略である。また、上記のLCDは、Liquid Crystal Displayの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。さらに、上記のELDは、Electro−Luminescence Displayの略である。
記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。
ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu−rayメディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のICは、Integrated Circuitの略である。
接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS−232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。
通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は各種通信用のモデム等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。
<2:まとめ>
最後に、本発明の実施形態に係る技術内容について簡単に纏める。ここで述べる技術内容は、例えば、PC、携帯電話、携帯ゲーム機、携帯情報端末、情報家電、カーナビゲーションシステム等、種々の情報処理装置に対して適用することができる。
上記の情報処理装置の機能構成は次のように表現することができる。当該情報処理装置は、次のような立体視表示部と、近接検知部と、表示制御部とを有する。当該立体視表示部は、表示物を立体的に表示する手段である。また、上記の近接検知部は、前記立体視表示部に対する操作体の近接を検知する手段である。例えば、立体視表示部は、ボタンオブジェクトやメニューオブジェクトなど、操作用のオブジェクトを表示することができる。また、ユーザが操作体を操作用のオブジェクトに近接させると、近接検知部は、操作用のオブジェクトに対する操作体の近接を検知することができる。つまり、立体視表示部と近接検知部を組み合わせて用いることにより操作体によるタッチ操作が可能になる。
しかし、タッチ操作の際、立体視表示されている表示物と現実世界にある操作体とが重なり合うと、ユーザが感じる距離感に不整合が生じてしまう。例えば、表示面より手前に飛び出して表示されている表示部に対しては、操作体が表示物にめり込んでいるように表示され、操作体と表示物との前後隠蔽関係が崩れてしまう。一方、表示面よりも奥方向に表示されている表示物に対しては、操作体に対する水晶体の合焦点と、表示物に対する合焦点との関係が崩れてしまう。このような理由から、ユーザは、操作体と表示物の関係に違和感を感じるようになる。
このような違和感を緩和するため、例えば、上記の表示制御部は、前記近接検知部により操作体の近接が検知された場合に、前記立体視表示部に表示された表示物を前記立体視表示部の表示面よりも奥側に表示させる。つまり、最も飛び出して表示されている表示物が表示面より奥側に表示され、他の表示物はさらに奥側に表示される。そのため、操作体よりも表示物が前面に表示されることがなくなる。その結果、立体視表示されている表示物と現実世界にある操作体との間で生じる距離感の不整合が顕在化しなくなり、ユーザの感じる違和感を緩和することが可能になる。
また、上記のような違和感を緩和するための他の構成として、例えば、上記の表示制御部は、前記近接検知部により操作体の近接が検知された場合に、前記立体視表示部に表示された表示物を非立体的に表示させるように構成されていてもよい。表示物が非立体的に表示されれば、表示物と近接した操作体との間で距離感の不整合が生じなくなり、表示物が立体的に表示された状態でユーザが感じる違和感がなくなる。つまり、上記のような表示制御部の構成を適用することにより、ユーザが操作体を表示面に近づけた際に表示物と現実世界にある操作体との間で生じる距離感の不整合を回避することが可能になる。
また、上記のような違和感を緩和するための他の構成として、例えば、上記の表示制御部は、前記近接検知部により操作体の近接が検知された場合に、前記立体視表示部に表示された表示物をぼかして表示させるように構成されていてもよい。表示物がぼかして表示されていると、ユーザは、その表示物と表示面との間の距離感を正確に感じ取ることが難しくなる。この効果を利用すると、表示物と現実世界にある操作体との間で生じる距離感の不整合を緩和することが可能になる。つまり、上記のような表示制御部の構成を適用することにより、立体視表示されている表示物と現実世界にある操作体との間で生じる距離感の不整合が顕在化しなくなり、ユーザの感じる違和感を緩和することが可能になる。
(備考)
上記のタッチパネル101は、近接検知部の一例である。上記の立体視表示装置100は、情報処理装置の一例である。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
100 立体視表示装置
101 タッチパネル
102 表示制御部
103 記憶部
104 立体視表示部

Claims (19)

  1. 表示物を立体的に表示する立体視表示部と、
    前記立体視表示部に対する操作体の近接を検知する近接検知部と、
    前記近接検知部により操作体の近接が検知された場合に、前記立体視表示部に表示された表示物を前記立体視表示部の表示面よりも奥側に表示させる表示制御部と、
    を備える、
    情報処理装置。
  2. 前記近接検知部は、前記立体視表示部の表示面と操作体との間の距離を検知し、
    前記表示制御部は、前記近接検知部により検知された距離に応じて前記立体視表示部に表示された表示物の表示位置を奥行き方向に移動させる、
    請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記近接検知部により前記立体視表示部に対する操作体の接触が検知された場合に、前記立体視表示部に表示された全ての表示物が前記立体視表示部の表示面よりも奥側に表示されるように前記表示物を表示させる、
    請求項2に記載の情報処理装置。
  4. 表示物を立体的に表示する立体視表示部と、
    前記立体視表示部に対する操作体の近接を検知する近接検知部と、
    前記近接検知部により操作体の近接が検知された場合に、前記立体視表示部に表示された表示物を非立体的に表示させる表示制御部と、
    を備える、
    情報処理装置。
  5. 前記表示制御部は、前記近接検知部により前記立体視表示部に対する操作体の接触が検知された場合に、前記立体視表示部の表示面よりも奥側に表示物を立体的に表示させる、
    請求項4に記載の情報処理装置。
  6. 表示物を立体的に表示する立体視表示部と、
    前記立体視表示部に対する操作体の近接を検知する近接検知部と、
    前記近接検知部により操作体の近接が検知された場合に、前記立体視表示部に表示された表示物をぼかして表示させる表示制御部と、
    を備える、
    情報処理装置。
  7. 前記表示制御部は、前記立体視表示部に表示された表示物のうち、前記操作体が近接した位置から離れた位置に表示されている表示物をぼかして表示させる、
    請求項6に記載の情報処理装置。
  8. 前記表示制御部は、前記立体視表示部に表示された表示物のうち、飛び出し度合いの大きい表示物をぼかして表示させる、
    請求項6に記載の情報処理装置。
  9. 表示物を立体的に表示する立体視表示ステップと、
    前記表示物の表示面に対する操作体の近接を検知する近接検知ステップと、
    前記近接検知ステップで操作体の近接が検知された場合に、前記表示物を前記表示面よりも奥側に表示させる表示制御ステップと、
    を含む、
    立体視表示方法。
  10. 表示物を立体的に表示する立体視表示ステップと、
    前記表示物の表示面に対する操作体の近接を検知する近接検知ステップと、
    前記近接検知ステップで操作体の近接が検知された場合に、前記表示物を非立体的に表示させる表示制御ステップと、
    を含む、
    立体視表示方法。
  11. 表示物を立体的に表示する立体視表示ステップと、
    前記表示面に対する操作体の近接を検知する近接検知ステップと、
    前記近接検知ステップで操作体の近接が検知された場合に、前記表示物をぼかして表示させる表示制御ステップと、
    を含む、
    立体視表示方法。
  12. 表示物を立体的に表示する立体視表示機能と、
    前記表示物の表示面に対する操作体の近接を検知する近接検知機能と、
    前記近接検知機能により操作体の近接が検知された場合に、前記表示物を前記表示面よりも奥側に表示させる表示制御機能と、
    をコンピュータに実現させるためのプログラム。
  13. 前記近接検知機能は、前記表示面と操作体との間の距離を検知し、
    前記表示制御機能は、前記近接検知機能により検知された距離に応じて前記表示物の表示位置を奥行き方向に移動させる、
    請求項12に記載のプログラム。
  14. 前記表示制御機能は、前記近接検知機能により前記表示面に対する操作体の接触が検知された場合に、表示されている全ての前記表示物が前記表示面よりも奥側に表示されるように前記表示物を表示させる、
    請求項13に記載のプログラム。
  15. 表示物を立体的に表示する立体視表示機能と、
    前記表示物の表示面に対する操作体の近接を検知する近接検知機能と、
    前記近接検知機能により操作体の近接が検知された場合に、前記表示物を非立体的に表示させる表示制御機能と、
    をコンピュータに実現させるためのプログラム。
  16. 前記表示制御機能は、前記近接検知機能により前記表示面に対する操作体の接触が検知された場合に、前記表示面よりも奥側に表示物を立体的に表示させる、
    請求項15に記載のプログラム。
  17. 表示物を立体的に表示する立体視表示機能と、
    前記表示物の表示面に対する操作体の近接を検知する近接検知機能と、
    前記近接検知機能により操作体の近接が検知された場合に、前記表示物をぼかして表示させる表示制御機能と、
    をコンピュータに実現させるためのプログラム。
  18. 前記表示制御機能は、前記操作体が近接した位置から離れた位置に表示されている表示物をぼかして表示させる、
    請求項17に記載のプログラム。
  19. 前記表示制御機能は、飛び出し度合いの大きい表示物をぼかして表示させる、
    請求項17に記載のプログラム。
JP2010192248A 2010-08-30 2010-08-30 情報処理装置、立体視表示方法、及びプログラム Expired - Fee Related JP5593972B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2010192248A JP5593972B2 (ja) 2010-08-30 2010-08-30 情報処理装置、立体視表示方法、及びプログラム
US13/197,481 US9678655B2 (en) 2010-08-30 2011-08-03 Information processing apparatus, stereoscopic display method, and program
EP11178255.3A EP2423786B1 (en) 2010-08-30 2011-08-22 Information processing apparatus, stereoscopic display method, and program
CN201110249698.7A CN102387383B (zh) 2010-08-30 2011-08-23 信息处理装置和立体显示方法
CN2011203190211U CN202995700U (zh) 2010-08-30 2011-08-23 用于向用户显示内容的装置
US15/604,936 US10338805B2 (en) 2010-08-30 2017-05-25 Information processing apparatus, stereoscopic display method, and program
US16/415,725 US20190272073A1 (en) 2010-08-30 2019-05-17 Information processing apparatus, stereoscopic display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010192248A JP5593972B2 (ja) 2010-08-30 2010-08-30 情報処理装置、立体視表示方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2012048622A true JP2012048622A (ja) 2012-03-08
JP5593972B2 JP5593972B2 (ja) 2014-09-24

Family

ID=44653177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010192248A Expired - Fee Related JP5593972B2 (ja) 2010-08-30 2010-08-30 情報処理装置、立体視表示方法、及びプログラム

Country Status (4)

Country Link
US (3) US9678655B2 (ja)
EP (1) EP2423786B1 (ja)
JP (1) JP5593972B2 (ja)
CN (2) CN202995700U (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2012132749A1 (ja) * 2011-03-31 2014-07-24 富士フイルム株式会社 立体表示装置、指示受付方法及びプログラムならびにその記録媒体
US9594466B2 (en) 2013-04-02 2017-03-14 Denso Corporation Input device
JP2018098800A (ja) * 2017-12-27 2018-06-21 株式会社ニコン 表示装置、およびプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9030466B2 (en) * 2010-10-05 2015-05-12 Empire Technology Development Llc Generation of depth data based on spatial light pattern
JPWO2013077338A1 (ja) 2011-11-21 2015-04-27 株式会社ニコン 表示装置、表示制御プログラム
US10845888B2 (en) * 2014-02-13 2020-11-24 Autodesk, Inc. Techniques for integrating different forms of input with different forms of output when interacting with an application

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03168693A (ja) * 1989-11-29 1991-07-22 Canon Inc 複数ウインド表示装置
JP2004280496A (ja) * 2003-03-17 2004-10-07 Kyocera Mita Corp 操作パネル装置
US20100095206A1 (en) * 2008-10-13 2010-04-15 Lg Electronics Inc. Method for providing a user interface using three-dimensional gestures and an apparatus using the same

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11234703A (ja) * 1998-02-09 1999-08-27 Toshiba Corp 立体表示装置
JP2008505381A (ja) * 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 表示装置の汚れを防ぐ方法及び装置
US7694231B2 (en) * 2006-01-05 2010-04-06 Apple Inc. Keyboards for portable electronic devices
US7788607B2 (en) * 2005-12-01 2010-08-31 Navisense Method and system for mapping virtual coordinates
US8334841B2 (en) * 2006-03-13 2012-12-18 Navisense Virtual user interface method and system thereof
JP2007300565A (ja) 2006-05-03 2007-11-15 Sony Computer Entertainment Inc マルチメディア再生装置およびメニュー画面表示方法
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
WO2008038205A2 (en) 2006-09-28 2008-04-03 Koninklijke Philips Electronics N.V. 3 menu display
US8665225B2 (en) * 2007-01-07 2014-03-04 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture
KR101482080B1 (ko) * 2007-09-17 2015-01-14 삼성전자주식회사 Gui 제공방법 및 이를 적용한 멀티미디어 기기
JP2010045584A (ja) 2008-08-12 2010-02-25 Sony Corp 立体画像補正装置、立体画像補正方法、立体画像表示装置、立体画像再生装置、立体画像提供システム、プログラム及び記録媒体
KR101296900B1 (ko) * 2009-01-07 2013-08-14 엘지디스플레이 주식회사 입체 영상의 뷰 제어방법과 이를 이용한 입체 영상표시장치
JP5504456B2 (ja) 2009-02-18 2014-05-28 日本バイリーン株式会社 リチウムイオン二次電池

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03168693A (ja) * 1989-11-29 1991-07-22 Canon Inc 複数ウインド表示装置
JP2004280496A (ja) * 2003-03-17 2004-10-07 Kyocera Mita Corp 操作パネル装置
US20100095206A1 (en) * 2008-10-13 2010-04-15 Lg Electronics Inc. Method for providing a user interface using three-dimensional gestures and an apparatus using the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2012132749A1 (ja) * 2011-03-31 2014-07-24 富士フイルム株式会社 立体表示装置、指示受付方法及びプログラムならびにその記録媒体
JP5693708B2 (ja) * 2011-03-31 2015-04-01 富士フイルム株式会社 立体表示装置、指示受付方法及びプログラムならびにその記録媒体
US9594466B2 (en) 2013-04-02 2017-03-14 Denso Corporation Input device
JP2018098800A (ja) * 2017-12-27 2018-06-21 株式会社ニコン 表示装置、およびプログラム

Also Published As

Publication number Publication date
EP2423786A3 (en) 2014-01-01
CN102387383A (zh) 2012-03-21
US20170262151A1 (en) 2017-09-14
US20120050501A1 (en) 2012-03-01
US20190272073A1 (en) 2019-09-05
CN202995700U (zh) 2013-06-12
JP5593972B2 (ja) 2014-09-24
EP2423786B1 (en) 2017-10-04
US9678655B2 (en) 2017-06-13
CN102387383B (zh) 2017-04-05
US10338805B2 (en) 2019-07-02
EP2423786A2 (en) 2012-02-29

Similar Documents

Publication Publication Date Title
US10652515B2 (en) Information processing apparatus, stereoscopic display method, and program
EP2638461B1 (en) Apparatus and method for user input for controlling displayed information
US10338805B2 (en) Information processing apparatus, stereoscopic display method, and program
US20120083312A1 (en) Mobile terminal and operation control method thereof
US10643579B2 (en) HMD device and method for controlling same
US9432652B2 (en) Information processing apparatus, stereoscopic display method, and program
US8988500B2 (en) Information processing apparatus, stereoscopic display method, and program
WO2008062586A1 (fr) Dispositif d'affichage, procédé d'affichage, programme d'affichage, et support d'enregistrement
EP2608548B1 (en) Electronic device and corresponding method for displaying a stereoscopic image
EP2791770B1 (en) Method and apparatus for displaying a 3d image in a mobile terminal
US8941648B2 (en) Mobile terminal and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140721

R151 Written notification of patent or utility model registration

Ref document number: 5593972

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees