WO2013077338A1 - 表示装置、表示制御プログラム - Google Patents

表示装置、表示制御プログラム Download PDF

Info

Publication number
WO2013077338A1
WO2013077338A1 PCT/JP2012/080107 JP2012080107W WO2013077338A1 WO 2013077338 A1 WO2013077338 A1 WO 2013077338A1 JP 2012080107 W JP2012080107 W JP 2012080107W WO 2013077338 A1 WO2013077338 A1 WO 2013077338A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
image
stereoscopic image
displayed
shielded
Prior art date
Application number
PCT/JP2012/080107
Other languages
English (en)
French (fr)
Inventor
英範 栗林
正樹 大槻
謙三 千秋
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to US14/359,166 priority Critical patent/US10477191B2/en
Priority to KR1020147014205A priority patent/KR20140097226A/ko
Priority to CN201280067270.3A priority patent/CN104054044A/zh
Priority to RU2014124192A priority patent/RU2658790C2/ru
Priority to EP12851046.8A priority patent/EP2784640A4/en
Priority to BR112014011974A priority patent/BR112014011974A2/pt
Publication of WO2013077338A1 publication Critical patent/WO2013077338A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Position Input By Displaying (AREA)

Abstract

 表示装置は、両眼視差に基づく立体像が含まれる画像を表示する表示部と、立体像を遮蔽する遮蔽物を検出する検出部と、検出部による検出結果に基づいて、前記遮蔽物による立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、この判定結果に基づいて立体像に関連する関連像の表示を制御する制御部と、を備える。

Description

表示装置、表示制御プログラム
 本発明は、表示装置、表示制御プログラムに関する。
 本願は、2011年11月21日に出願された日本国特願2011-253805号に基づき優先権を主張し、その内容をここに援用する。
 左右の眼に異なる画像を見せることで、ユーザに立体像を見せる三次元ディスプレイが存在する。特許文献1には、シャッタ式眼鏡を用いて映像を視聴する際、手によって映像が遮蔽されるとシャッタ式眼鏡の片側のシャッタを閉じ、片眼にのみ映像が届くようにして二重像の発生を防ぐことが記載されている。
日本国特開2011-90611号公報
 しかしながら、三次元ディスプレイが、例えばユーザの操作ジェスチャーによる入力を受け付ける操作子を立体像として表示する場合、指等により操作子を押下しようとすれば、指等により操作子が遮蔽され視認できなくなってしまう。
 本発明の態様は、遮蔽物により遮蔽される立体像を確認できるように表示する表示装置、表示制御プログラムを提供する。
 本発明の態様は、両眼視差に基づく立体像が含まれる画像を表示する表示部と、立体像を遮蔽する遮蔽物を検出する検出部と、検出部による検出結果に基づいて、遮蔽物による立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、この判定結果に基づいて立体像に関連する関連像の表示を制御する制御部と、を備えることを特徴とする表示装置である。
 また、本発明の態様は、表示装置のコンピュータに、両眼視差に基づく立体像が含まれる画像を表示するステップと、立体像を遮蔽する遮蔽物を検出するステップと、検出結果に基づいて、遮蔽物による立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、この判定結果に基づいて立体像に関連する関連像の表示を制御するステップと、を実行させる表示制御プログラムである。
 本発明の態様によれば、遮蔽物により遮蔽される立体像を確認できるように表示することができる。
本発明の一実施形態による表示装置の構成例を示すブロック図である。 本発明の一実施形態による表示装置の外観を示す図である。 本発明の一実施形態による表示装置とユーザとの位置関係を示す図である。 本発明の一実施形態による表示装置とユーザとの位置関係を示す図である。 本発明の一実施形態による表示部が表示する立体像の概要を示す図である。 本発明の一実施形態による表示部が表示する画面の例を示す図である。 本発明の一実施形態による表示部が関連像を補助表示する画面の例を示す図である。 本発明の一実施形態による立体像と、遮蔽物と、補助表示する関連像との関係を示す図である。 本発明の一実施形態による立体像と、遮蔽物と、補助表示する関連像との関係を示す図である。 本発明の一実施形態による立体像と、遮蔽物と、補助表示する関連像との関係を示す図である。 本発明の一実施形態による立体像と、遮蔽物と、補助表示する関連像との関係を示す図である。 本発明の一実施形態による表示装置の動作例を示すフローチャートである。 本発明の別の実施形態による表示部が関連像を補助表示する画面の例を示す図である。 本発明の別の実施形態による表示部が関連像を補助表示する画面の例を示す図である。 本発明の別の実施形態による表示部が関連像を補助表示する画面の例を示す図である。 本発明の別の実施形態による表示部が関連像を補助表示する画面の例を示す図である。 本発明の別の実施形態による表示部が関連像を補助表示する画面の例を示す図である。 本発明の別の実施形態による表示部が関連像を補助表示する画面の例を示す図である。 本発明の別の実施形態による表示部が関連像を補助表示する画面の例を示す図である。 本発明の別の実施形態による表示部が関連像を補助表示する画面の例を示す図である。 本発明の別の実施形態による表示部が関連像を補助表示する画面の例を示す図である。 本発明の別の実施形態による表示部が関連像を補助表示する画面の例を示す図である。 本発明の別の実施形態による表示部が関連像を補助表示する画面の例を示す図である。 本発明の別の実施形態による表示部が関連像を補助表示する画面の例を示す図である。
 以下、本発明の一実施形態について、図面を参照して説明する。
 図1は、本実施形態による表示装置100の構成を示すブロック図である。表示装置100は、撮影部101と、検出部102と、操作判定部103と、表示部104と、表示画像記憶部105と、制御部106とを備えている。
 図2は、表示装置100の外観を示す図である。表示装置100は、表示部104の表示面に視差画像を表示し、ユーザAの左右の眼に両眼視差のある画像を見せることで、ユーザAに立体像Bを見せる三次元ディスプレイである。表示装置100は、裸眼式と眼鏡式とのいずれの方式により三次元表示を行うものでもよいが、本実施形態では裸眼式による例を説明する。また、表示装置100は、LCD(Liquid Crystal Display)、プラズマ、有機EL(Electro Luminescence)等のいずれのディスプレイ表示原理を適用するものでもよい。また、表示装置100は、前面上部にユーザAを撮影する撮影部101を備えている。ただし、撮影部101は、前面上部でなくとも、画面の表示方向を撮像できる位置に備えられていればよい。本実施形態においては、表示装置100の表示部104に対して平行(水平)方向をX軸方向、垂直方向をY軸方向、奥行き方向をZ軸方向として説明する。
 図1に戻り、撮影部101は、表示部104による表示方向における所定領域を撮影して撮影画像を生成するカメラである。ここで、所定領域とは、表示部104によって表示される立体像をユーザが視認する際に、物体が存在すれば立体像を遮蔽することとなる空間領域を含む領域である。撮影部101は、動画を撮影してもよいし、一定時間毎に静止画を撮影してもよい。また、撮影部101は、ひとつのカメラでもよいし、複数のカメラでもよい。また、撮影部101は、チルト式のカメラでもよいし、魚眼式のカメラでもよい。
 検出部102は、表示部104によって表示される立体像を遮蔽する遮蔽物を検出する。例えば、検出部102は、撮影部101が撮影した撮影画像に基づいて、表示部104の表示方向における所定領域の遮蔽物の位置とユーザの目線位置とを検出する。例えば、検出部102は、撮影部101が撮影した撮影画像を解析し、撮影画像に含まれる動体を検出する。検出部102は、撮影部101が撮影した動画のフレーム毎の差分領域を抽出し、差分が生じている領域に動体が存在すると判定することができる。例えば、検出部102は、図3(a)に示すように、撮影部101による撮影画像から、表示装置100の表示方向に存在するユーザAを検出する。このとき、表示装置100の撮影部101には、例えば図3(b)に示すような撮影画像が撮影される。
 さらに、検出部102は、表示部104に対する奥行き方向(Z軸方向)における遮蔽物の位置と、表示部104の表示面に対する平行方向(X軸方向)における遮蔽物の位置と、遮蔽物の大きさと、遮蔽物の形状とのうち、少なくとも1つの特徴量を検出する。検出部102は、顔検出アルゴリズムや手領域検出アルゴリズム等を用いて、撮影画像に含まれるユーザAの顔領域や、遮蔽物である手の領域を検出し、三次元空間における、顔の位置や手の位置、顔や手の大きさ、顔や手の形状を検出する。ここで、検出部102は、撮影画像からユーザAの顔領域が検出できない場合、ユーザAの胴体または腕の位置を検出し、ユーザAの顔の推定位置を算出することもできる。また、検出部102は、このように検出したユーザAの顔の位置から、ユーザAの目線位置を検出することもできる。
 ここで、立体像を裸眼式により表示させる場合、図4に示すように、立体像が観察可能なユーザAの目線位置の領域は限定される。すなわち、このような観察可能領域Rの位置は既知であり、ユーザAの目線位置は予め定められる。そこで、このような観察可能領域の位置を、ユーザAの目線位置として予め表示装置100の記憶領域に記憶しておくようにしてもよい。
 操作判定部103は、検出部102が検出した動体の動きに応じて、表示装置100に対する操作を判定する。すなわち、操作判定部103は、ユーザAの動作による操作ジェスチャーの入力を受け付ける。例えば、操作判定部103は、検出部102が検出した遮蔽物の位置に操作子の立体像が表示されていれば、その操作子が押下されたものと判定する。
 表示部104は、表示する画像の視差量を変化させて両眼視差に基づく立体像を表示する。図5は、表示部104が表示する立体像の概要を示す図である。ユーザAの位置から表示装置100の表示部104を視認するとき、ユーザAの右眼に与える右眼像をP1の位置に、ユーザAの左眼に与える左眼像をP2の位置に表示させることで、奥行き方向におけるP3の表示位置に、両眼視差に基づく立体像を飛び出し表示させることができる。
 図6は、表示部104が表示する画面の例を示す図である。図6(a)は、複数のアイコン(例えば、G等)が表示されている例である。表示部104は、それぞれのアイコンGを立体像として表示させることができる。図6(b)は、複数の操作子(例えば、H等)が表示されている例である。表示部104は、それぞれの操作子Hを立体像として表示させることができる。
 図1に戻り、表示画像記憶部105には、表示部104に表示させる表示画像が記憶される。表示画像は、表示画像記憶部105に予め記憶されていてもよいし、無線または有線のネットワークを介して外部から受信して記憶されるようにしてもよい。
 制御部106は、表示画像記憶部105に記憶されている表示画像を読み出し、右眼像と左眼像との視差画像を生成して表示部104に表示させる。制御部106は、検出部102による検出結果に基づいて、遮蔽物による立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、この判定結果に基づいて立体像に関連する関連像の表示を制御する。
 例えば、検出部102によって検出された遮蔽物(例えば、手など)の位置と、ユーザの目線位置と、予め定められた表示部104の位置とに基づいて、制御部106は、ユーザの目線位置から表示部104に対する視認方向における遮蔽物によって遮蔽される画像の遮蔽領域を判定する。ユーザの目線位置は、上述したように、ユーザの胴体または腕の位置に基づいて算出されたユーザの顔の推定位置でもよいし、予め定められた観察可能領域でもよい。例えば、ユーザの目線位置と、表示部104における表示画面を直線上に結び、その直線上に存在する遮蔽物の位置、大きさ、形状等に基づいて遮蔽物を表示画面上に射影することで、画像の遮蔽領域を判定することができる。
 また、制御部106は、遮蔽物によって立体像が遮蔽されているか否かを判定し、遮蔽されていると判定した場合、関連像が遮蔽物によって遮蔽されないように表示させる。ここで、制御部106は、遮蔽された立体像の表示位置に基づいて、遮蔽物によって遮蔽されない領域において関連像の表示位置を制御する。つまり、制御部106は、遮蔽物によって遮蔽された立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、関連像の表示を制御する。
 例えば、図7に示すように、制御部106は、立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、遮蔽物によって遮蔽されず、立体像に隣接する領域に、関連像を補助的に表示させる。図7(a)、(b)は、図6(a)、(b)に示す立体像に指が近接した場合の表示例を示している。
 図7(a)において、立体像G1(以下、単にアイコンG1と称す)が指(遮蔽物)に遮蔽されている。そのため、遮蔽物(本実施形態では、指)によって遮蔽されず、アイコンG1に隣接する領域であるアイコンG1の上部に、遮蔽されたアイコンG1の関連像G2(以下、単にアイコンG2と称す)を、制御部106が補助表示させる。このとき、補助表示されるアイコンG2は、例えば、図7(a)に示すように遮蔽されたアイコンG1と同様のアイコンを吹き出し状(ポップアップ表示)にして、アイコンG1の上部に表示させたものである。すなわち、制御部106は、図7(a)のアイコンG2や図7(b)のアイコンH2のように、遮蔽物によって遮蔽されず、立体像に隣接する領域に、関連像をポップアップさせて表示させる。このように、制御部106が、遮蔽物(本実施形態では、指)によって遮蔽される画像(アイコンG1)の遮蔽領域を判定し、画像の領域のうち、遮蔽領域とは異なる領域に関連像(アイコンG2)を表示させることで、ユーザは、遮蔽された立体像(アイコンG1)がどのようなものであるかを、補助表示された関連像(アイコンG2)を視認して確認することができる。
 表示させる関連像には、遮蔽された立体像と同一の像が含まれるようにしてもよい。例えば、遮蔽された立体像に関連し、遮蔽された立体像を想起させるようなものであればよい。例えば、表示させる関連像は、遮蔽された立体像を文字によって表す像であっても良い。
 また、図7(a)では、遮蔽された立体像(アイコンG1)にY軸方向(垂直方向)に隣接する領域に関連像を表示する例を示したが、X軸方向(平行方向)においてに隣接する領域に関連像を表示しても良い。すなわち、遮蔽物に遮蔽されない領域に表示される関連像は、XY軸平面上における任意の位置に表示させることができる。
 同様に、図7(b)においては、立体像H1(以下、単に操作子H1と称す)が指に遮蔽されているので、遮蔽物(本実施形態では、指)によって遮蔽されず、アイコンH1に隣接する領域であるアイコンH1の上部に、遮蔽されたアイコンH1の関連像H2(以下、単にアイコンH2と称す)を、制御部106が補助表示させる。
 補助表示される関連像は、立体像と同様に立体表示させても良いし、表示部104の表示面上に二次元表示させても良い。また、制御部106は、検出部102が検出した遮蔽物が立体像を遮蔽しないと判定すると、関連像の補助表示を非表示にする。
 図8は、立体像Jを表示する表示装置100と、遮蔽物である手Kと、補助表示する関連像Lとの奥行距離Dの関係を示す図である。奥行距離Dとは、Z軸方向における奥行き方向の距離である。図8に示すように、補助表示する関連像Lの奥行距離は、立体像Jと同様にすることができる。このように、奥行距離の急激な変化を少なくすることで、眼への疲労感を軽減することができる。
 また、図9に示すように、制御部106は、表示部104に対する奥行き方向において、補助表示する関連像Lを、立体像J(立体像の表示位置)よりも表示部104から遠い位置に表示させることができる。
 また、図10に示すように、制御部106は、表示部104に対する奥行き方向において、補助表示する関連像Lを、立体像Jよりも表示部104に近い位置に表示させることができる。また、制御部106は、表示部104に対する奥行き方向において、補助表示する関連像Lを、表示部104上の位置に表示させることもできる。
 このように、表示部104に対する奥行き方向において、立体像Jの表示位置とは異なる表示位置に関連像Lを立体表示させることで、補助表示させる関連像Lを強調することができる。また、ユーザの両眼視野闘争を抑制することができる。
 また、図11に示すように、制御部106は、表示部104に対する奥行き方向において、補助表示する関連像Lを、立体像Jよりも表示部104から遠い位置と、立体像Jよりも表示部104に近い位置とを時間とともに(フレーム毎に)動的に変化させるように表示させることができる。このように、立体像Jと補助表示させる立体像Lとの奥行距離を変化させることで、補助表示させる立体像Lを強調することができる。
 また、制御部106は、立体像が遮蔽領域に含まれると判定すると、立体像を、遮蔽物に遮蔽されないように拡大した像を関連像として表示させることもできる。
 また、制御部106は、操作判定部103が判定した操作に応じた動作を行う。例えば、入力された操作ジェスチャーに応じて表示部104に表示する画像を制御する。
 次に、図面を参照して、本実施形態による表示装置100の動作例を説明する。図12は、表示装置100が関連像を補助表示する動作例を示すフローチャートである。
 制御部106は、表示画像記憶部105に記憶されている表示画像を読み出して視差画像を生成し、表示部104に表示させる。撮影部101は、表示部104が表示されている表示方向(例えば、表示部104から向かって、ユーザが立っている方向)を撮影して撮影画像を生成する。検出部102が、撮影部101によって生成された撮影画像から遮蔽物を検出すると(ステップS1)、制御部106は、遮蔽物による立体像の遮蔽領域を判定する(ステップS2)。制御部106は、立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、遮蔽物により遮蔽されていない表示部104の領域に、関連像を補助表示させる(ステップS3)。また、検出部102が遮蔽物を検出しないと判定すると、制御部106は、関連像の補助表示を非表示にする。
 以上説明したように、本実施形態によれば、表示装置100が表示する立体像が指等によって遮蔽された場合、表示部104が表示する画像における遮蔽されていない領域に関連像を補助表示する。これにより、ユーザは、補助表示された関連像を視認することで、遮蔽された立体像がどのようなものであるかを確認することができる。ここで、補助表示された関連像は遮蔽物によって遮蔽されないため、ユーザは両眼から視認することができ、両眼視野闘争などの違和感を生じることがなく、眼の疲労感を軽減することができる。
 なお、本実施形態における表示装置100である三次元ディスプレイには、例えばデジタルフォトフレーム、デジタルサイネージ、家庭用テレビ等が適用できる。あるいは、三次元表示可能なスマートフォンを適用してもよい。この場合、例えばタッチパネルにより触れられている部分を遮蔽領域として判定することができる。あるいは、非接触の空間感度を持つタッチパネルを適用すれば、非接触の状態でも同様に遮蔽領域を判定することができる。この場合、例えば、操作判定部103は、指が操作子である立体像に触った(タップした)場合に立体像を表示させ、押下した場合にその操作子が選択されたように制御することができる。または、例えば指等の遮蔽物を所定領域に検出した場合、指の位置に立体像を近接させるように制御し、立体像が指に遮蔽されたら関連像の補助表示を行い、押下されたら操作子が選択されたように制御することができる。
 また、制御部106は、補助表示する関連像の表示位置を、XY軸平面上において動的に変化させることもできる。
 また、本実施形態では、立体像が遮蔽される場合に、関連像が、立体像に対してX軸方向またはY軸方向に隣接する領域に表示させる例を示した。しかし、ユーザの目線位置と、遮蔽物と、表示部との角度により、Z軸方向に変化させることでユーザに視認可能に表示することができる場合には、表示位置をZ軸方向に変更しても良い。
 また、制御部106は、立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、遮蔽物によって遮蔽される立体像の遮蔽領域を判定し、立体像に対する遮蔽領域の割合に基づいて、補助表示する関連像を表示させるようにしてもよい。例えば、立体像に対する遮蔽領域の割合が大きければ関連像をより大きく表示し、立体像に対する遮蔽領域の割合が小さければ、関連像が遮蔽されない程度において関連像を小さく表示するようにしても良い。
 関連像を表示する別の方法としては、以下のような例が考えられる。例えば、立体像が遮蔽物によって遮蔽された場合に、制御部106が、遮蔽された立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、遮蔽される前に立体像が表示されていた位置から、遮蔽物によって遮蔽されていない領域へ、立体像が移動するような関連像を、シフト表示として表示させる例が考えられる。
 図13(a)において、アイコンM1は、遮蔽される前に表示されていた立体像を示し、アイコンM2は、アイコンM1をシフト表示させて表示した関連像を示し、シフト量SFは、アイコンM1の位置からアイコンM2の位置まで、アイコンM1がシフト表示されてシフトした距離を示している。例えば、指などの遮蔽物によってアイコンM1が遮蔽された場合に、制御部106は、遮蔽された立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、遮蔽される前にアイコンM1(立体像)が表示されていた位置から、アイコンM1(立体像)をシフト量SFだけ移動したアイコンM2(関連像)の位置に、シフト表示としてアイコンM2(関連像)を表示する。
 図13(a)では、アイコンM1が垂直方向にシフトしたような、アイコンM2をシフト表示させる例を示した。しかし、アイコンM2をシフト表示させる方向は、垂直方向に限らず、図13(b)及び図13(c)に示すように、アイコンM1に対して平行方向を含む任意の方向であってもよい。
 なお、図13では、アイコンM1の表示を消して、関連像であるアイコンM2をシフト表示させる例を示した。しかし、アイコンM1の表示を残したまま、関連像であるアイコンM2をシフト表示してもよい。
 このように、本実施形態によれば、立体像が遮蔽物によって遮蔽された場合に、遮蔽される前に立体像が表示されていた位置から、遮蔽物によって遮蔽されない領域へ、立体像が移動するような関連像を、シフト表示として表示させる。これにより、ユーザは、補助表示された関連像を視認することで、遮蔽された立体像がどのようなものであるかをより明確に確認することができる。また、遮蔽された立体像の関連像をシフト表示することによって、立体像の内容をユーザが認識しやすいように、目立たせることができる。さらに、シフト表示された関連像は遮蔽物によって遮蔽されないため、ユーザは両眼から関連像を視認することができ、両眼視野闘争などの違和感を生じることがなく、眼の疲労感を軽減することができる。
 また、関連像を表示する別の方法としては、以下のような例が考えられる。例えば、制御部106が、遮蔽されている立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、遮蔽物によって遮蔽されている立体像の領域が相対的に少なくなるように、遮蔽されている立体像を拡大させた関連像を、拡大表示として表示する例が考えられる。
 図14において、アイコンN1は、遮蔽される前に表示されていた立体像を示し、アイコンN2は、アイコンN1を拡大表示させて表示した関連像を示し、拡大量ELは、アイコンN2までアイコンN1を拡大させた拡大量を示している。例えば、指などの遮蔽物によってアイコンN1が遮蔽された場合に、制御部106は、遮蔽されている立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、遮蔽される前のアイコンN1(立体像)を拡大表示したアイコンN2を、関連像として表示させる。
 なお、図14では、アイコンN1の表示を消して、関連像であるアイコンN2を拡大表示させる例を示した。しかし、アイコンN1の表示を残したまま、関連像であるアイコンN2を拡大表示してもよい。
 このように、本実施形態によれば、立体像が遮蔽物によって遮蔽された場合に、遮蔽物によって遮蔽されている立体像の領域が相対的に少なくなるように、遮蔽されている立体像を拡大させた関連像を、拡大表示として表示させる。これにより、ユーザは、補助表示された関連像を視認することで、遮蔽された立体像がどのようなものであるかをより明確に確認することができる。また、遮蔽された立体像の関連像を拡大表示することによって、立体像の内容をユーザが認識しやすいように、目立たせることができる。さらに、拡大表示された関連像は遮蔽物によって遮蔽されないため、ユーザは両眼から関連像を視認することができ、両眼視野闘争などの違和感を生じることがなく、眼の疲労感を軽減することができる。
 なお、両眼視野闘争は、ユーザが見つめる対象物が遮蔽物によって遮蔽される領域が少ないほど生じにくくなる。そのため、図14で示した例のように、遮蔽されている立体像を拡大表示させた関連像を表示させることによって、立体像全体の領域に占める遮蔽物によって遮蔽された領域が相対的に少なくなり、両眼視野闘争の発生を抑制することができる。
 また、関連像を表示する別の方法としては、以下のような例が考えられる。例えば、図15に示すように、制御部106が、遮蔽されている立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、ポインティングされる対象物である立体像の周囲のテスクチャーの密度や分布が大きいほど、補助表示する関連像を、立体像から離れた位置に表示させる例が考えられる。より具体的には、例えば、遮蔽物によって遮蔽された立体像の周囲が、テクスチャーの密度や分布が大きい文書などである場合には、遮蔽された立体像を見つめるユーザの視野闘争が生じやすくなる。そのため、遮蔽される立体像の周囲のテクスチャー密度や分布の大きさに応じて、制御部106が、補助表示する関連像の表示方法を選択または変更して、関連像を表示する例が考えられる。
 図15において、アイコンQ1は、遮蔽された立体像を示し、アイコンQ2は、アイコンQ1をポップアップ表示及び拡大表示を組み合せて表示した関連像を示している。また、アイコンQ1の周囲には、テクスチャーの密度や分布が大きい、例えば文書などが表示されている。例えば、このように遮蔽された立体像の周囲のテクスチャーの密度や分布が大きい場合には、指などの遮蔽物によってアイコンQ1が遮蔽されたときに、制御部106は、遮蔽されたアイコンQ1(立体像)をポップアップ表示及び拡大表示させて、アイコンQ2を関連像として表示する。
 図15では、ポインティングされる対象物である立体像の周囲のテスクチャーの密度や分布が大きいほど、補助表示する関連像を、立体像から離れた位置に表示させる例として、ポップアップ表示と拡大表示を組み合せた表示方法を示している。
 このように、本実施形態によれば、立体像が遮蔽物によって遮蔽された場合に、ポインティングされる対象物である立体像の周囲のテスクチャーの密度や分布が大きいほど、立体像から離れた位置に関連像を表示させる。これにより、ユーザは、補助表示された関連像を視認することで、遮蔽された立体像がどのようなものであるかをより明確に確認することができる。また、遮蔽された立体像の関連像をポップアップ表示及び拡大表示することによって、立体像の内容をユーザが認識しやすいように、目立たせることができる。さらに、表示された関連像は遮蔽物によって遮蔽されないため、ユーザは両眼から関連像を視認することができ、両眼視野闘争などの違和感を生じることがなく、眼の疲労感を軽減することができる。
 なお、テクスチャーの密度や分布が高い領域では、より一層視野闘争が生じやすくなる。図15に示す表示方法の例では、ポップアップ表示及び拡大表示を組み合せた補助表示を利用することによって、両眼視野闘争が生じやすい領域から離れた位置に、拡大された関連像が表示されている。そのため、より効果的に視野闘争を抑制することができる。
 一方、ポインティングされる対象物である立体像のテスクチャーの密度や分布が小さい場合には、補助表示する関連像を立体像に近い位置に表示させても、視野闘争が生じにくい。そのため、関連像をポップアップ表示のみやシフト表示のみを用いて表示してもよい。
 また、関連像を表示する別の方法としては、以下のような例が考えられる。例えば、図16に示すように、制御部106が、遮蔽されている立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、ポインティングされる対象物である立体像と遮蔽物(例えば、指など)との相対的なサイズ差に応じて、関連像を補助表示させる例が考えられる。より具体的には、例えば、同じ立体像に対して遮蔽する遮蔽物が、子供の指である場合と、遮蔽物が大人の指である場合とでは、指によって隠される立体像の領域が異なる。このように、遮蔽される立体像と遮蔽物との相対的なサイズ差に応じて、制御部106が、補助表示する関連像の表示方法を選択または変更して、関連像を表示する例が考えられる。
 図16において、アイコンQ1は、遮蔽される前に表示されていた立体像を示し、アイコンQ2は、アイコンQ1をシフト表示させて表示した関連像を示している。また、アイコンQ1の周囲には、テクスチャーの密度や分布が大きい、例えば文書などが表示されている。例えば、このように遮蔽された立体像の周囲のテクスチャーの密度や分布が大きい場合には、指などの遮蔽物によってアイコンQ1が遮蔽されたときに、制御部106は、遮蔽される前のアイコンQ1(立体像)をシフト表示及び拡大表示させて、アイコンQ2を関連像として表示する。
 図16では、ポインティングされる対象物である立体像と遮蔽物(例えば、指など)との相対的なサイズ差が小さいほど、補助表示する関連像を、立体像から離れた位置に表示させる例として、シフト表示と拡大表示を組み合せた表示方法を示している。
 このように、本実施形態によれば、立体像が遮蔽物によって遮蔽された場合に、ポインティングされる対象物である立体像と遮蔽物との相対的なサイズ差に応じて、遮蔽物から離れた位置に関連像を表示させる。これにより、ユーザは、補助表示された関連像を視認することで、遮蔽された立体像がどのようなものであるかをより明確に確認することができる。また、遮蔽された立体像の関連像をシフト表示及び拡大表示することによって、立体像の内容をユーザが認識しやすいように、目立たせることができる。さらに、表示された関連像は遮蔽物によって遮蔽されないため、ユーザは両眼から関連像を視認することができ、両眼視野闘争などの違和感を生じることがなく、眼の疲労感を軽減することができる。
 なお、立体像と遮蔽物(例えば、指など)との相対的なサイズ差が小さく、立体像の大部分が遮蔽物によって隠されてしまうような場合には、より一層両眼視野闘争が生じやすくなる。図16に示す表示方法の例では、シフト表示及び拡大表示を組み合せた補助表示を利用することによって、両眼視野闘争が生じやすい領域から離れた位置に、拡大された関連像が表示されている。そのため、より効果的に両眼視野闘争を抑制することができる。
 一方、ポインティングされる対象物である立体像と遮蔽物(例えば、指など)との相対的なサイズ差が大きく、立体像の大部分が遮蔽物によって隠されないような場合には、補助表示する関連像を立体像に近い位置に表示させても、両眼視野闘争が生じにくい。そのため、関連像をポップアップ表示のみやシフト表示のみを用いて表示してもよい。
 また、関連像を表示する別の方法としては、以下のような例が考えられる。例えば、図17に示すように、制御部106が、遮蔽されている立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、ポインティングされる対象物である立体像と遮蔽物(例えば、指など)との相対的な位置関係に応じて、制御部106が、関連像を補助表示させる例が考えられる。より具体的には、例えば、遮蔽物によって遮蔽された立体像の部位に応じて、制御部106が、補助表示する関連像の表示位置や表示方法を選択または変更して、関連像を表示する例が考えられる。
 図17(a)において、アイコンM1は、遮蔽される前に表示されていた立体像を示し、アイコンM2は、アイコンM1をシフト表示させて表示した関連像を示し、シフト量SFは、アイコンM1の位置からアイコンM2の位置まで、アイコンM1がシフト表示されてシフトした距離を示している。
 図17(a)では、ポインティングされる対象物である立体像と遮蔽物(例えば、指など)との相対的な位置関係に応じて関連像が表示される一つの例として、立体像の右下部が遮蔽物によって遮蔽された場合には、制御部106が、遮蔽された立体像の左上方向へ立体像をシフト表示させて表示する表示方法を示している。
 図17(b)において、アイコンM1は、遮蔽された立体像を示し、アイコンM2は、アイコンM1をポップアップ表示させて表示した関連像を示している。
 図17(b)では、ポインティングされる対象物である立体像が遮蔽物(例えば、指など)との相対的な位置関係に応じて関連像を表示させる別の例として、立体像の右下部が遮蔽物によって遮蔽された場合には、制御部106が、遮蔽された立体像の右上方向へ立体像をポップアップ表示させて表示する表示方法を示している。
 このように、本実施形態によれば、立体像が遮蔽物によって遮蔽された場合に、遮蔽される立体像と遮蔽物との相対的な位置関係に応じて関連像を表示させる。これにより、ユーザは、補助表示された関連像を視認することで、遮蔽された立体像がどのようなものであるかをより明確に確認することができる。また、遮蔽された立体像の関連像を補助表示することによって、立体像の内容をユーザが認識しやすいように、目立たせることができる。さらに、表示された関連像は遮蔽物によって遮蔽されないため、ユーザは両眼から関連像を視認することができ、両眼視野闘争などの違和感を生じることがなく、眼の疲労感を軽減することができる。
 なお、図17で示した、遮蔽される立体像と遮蔽物との相対的な位置関係に応じた関連像が表示される方向は、上記の例に限らず、表示する関連像が遮蔽されない任意の方向であってもよい。
 また、関連像を表示する別の方法としては、以下のような例が考えられる。例えば、図18に示すように、ポインティングされる対象物である立体像が遮蔽物(例えば、指など)によって遮蔽された場合に、制御部106が、遮蔽されている立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、最初に立体像をシフト表示し、そのまま遮蔽物が立体像を遮蔽した状態を一定時間以上維持した場合には、表示方法を変更させて関連像を補助表示させる例が考えられる。すなわち、立体像が遮蔽物によって遮蔽され続けた経過時間の長さに応じて、制御部106が、補助表示する関連像の表示方法を変更して、関連像を表示する例が考えられる。
 図18(a)において、アイコンM1は、遮蔽された立体像を示し、アイコンM2は、アイコンM1をシフト表示させて表示した関連像を示し、シフト量SFは、アイコンM1の位置からアイコンM2の位置まで、アイコンM1がシフト表示されてシフトした距離を示している。
 図18(a)では、ポインティングされる対象物である立体像が、遮蔽物(例えば、指など)によって、遮蔽開始時点から所定時間T1よりも短い時間の間だけ遮蔽され続けている場合に、制御部106が、遮蔽された立体像をシフト表示して表示する表示方法を示している。
 図18(b)において、アイコンM1は、図18(a)の状況からそのまま遮蔽物によって遮蔽され続けている立体像を示し、アイコンM2は、アイコンM1をポップアップ表示させて表示した関連像を示している。
 図18(b)では、ポインティングされる対象物である立体像が、遮蔽物(例えば、指など)によって、遮蔽開始時点から所定時間T1よりも長い時間に渡って遮蔽され続けている場合に、制御部106が、遮蔽され続けている立体像の関連像を図18(a)で示されるシフト表示からポップアップ表示へ移行する表示方法を示している。
 このように、本実施形態によれば、立体像が遮蔽物によって遮蔽された場合に、立体像が遮蔽物によって遮蔽され続けた経過時間の長さに応じて、補助表示する関連像の表示方法を変更させる。これにより、ユーザは、補助表示された関連像を視認することで、遮蔽された立体像がどのようなものであるかをより明確に確認することができる。また、遮蔽された立体像の関連像を補助表示することによって、立体像の内容をユーザが認識しやすいように、目立たせることができる。さらに、表示された関連像は遮蔽物によって遮蔽されないため、ユーザは両眼から関連像を視認することができ、両眼視野闘争などの違和感を生じることがなく、眼の疲労感を軽減することができる。
 また、図18では、立体像が遮蔽されている時間が所定時間T1よりも長い時間に渡って遮蔽され続けた場合に、関連像がシフト表示からポップアップ表示へ移行する例を示した。しかし、関連像の表示方法は上記に限られず、例えば、関連像がポップアップ表示からシフト表示へ移行するなど、別の表示方法を用いて表示してもよい。
 また、関連像を表示する別の方法としては、以下のような例が考えられる。例えば、図19に示すように、制御部106が、遮蔽されている立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、ポインティングされる対象物である立体像が、ユーザに遮蔽物(例えば、指など)で指示された指示開始から実際の立体像のポインティングまでの時間に応じて、関連像を補助表示させる例が考えられる。すなわち、立体像が遮蔽物で指示され始めてから実際に立体像がポインティングされるまでの経過時間の長さに応じて、制御部106が、補助表示する関連像の表示方法を変更して、関連像を表示する例が考えられる。一例として、図19を参照して、立体像が遮蔽物で指示され始めてから実際に立体像がポインティングされるまでの経過時間が所定時間よりも長い場合に、制御部106が、立体像をポップアップ表示させる関連像の表示方法を説明する。
 図19は、立体像J1を表示する表示装置100と、遮蔽物である手K1と、補助表示する関連像L1との奥行距離D1の関係を示す図である。奥行距離D1とは、Z軸方向における奥行き方向の距離である。また、奥行距離D1は、検出部102が、遮蔽物K1が指示を開始したかどうか判定するための指示開始位置である。検出部102は、図19(a)のように、奥行距離D1よりも表示装置100に近い位置に遮蔽物K1が存在した場合に、ユーザが立体像J1の指示を開始したと判定する。遮蔽物K1の位置が、表示装置100に関して指示開始位置(奥行距離D1)よりも近くにあるか遠くにあるかに応じて、検出部102は、遮蔽物K1による指示開始を判定する。そして、制御部106は、図19(b)のように、ユーザが立体像J1の指示を開始したと検出部102によって判定された時間から、実際にユーザが遮蔽物K1で立体像J1を奥行距離D´1の位置でポインティングするまでにかかった経過時間T2を計測する。制御部106は、経過時間T2が所定時間よりも長かった場合には、関連像L1を、ポップアップ表示として補助表示する。
 一方、例えば、立体像J1が遮蔽物K1で指示され始めてから実際に立体像J1がポインティングされるまでの経過時間T2が所定時間よりも短い場合には、制御部106は、関連像L1を、シフト表示として補助表示する(不図示)。
 このように、本実施形態によれば、立体像が遮蔽物によって遮蔽された場合に、立体像が遮蔽物で指示され始めてから実際に立体像がポインティングされるまでの経過時間の長さに応じて、補助表示する関連像の表示方法を変更して、関連像を表示させる。これにより、ユーザは、補助表示された関連像を視認することで、遮蔽された立体像がどのようなものであるかをより明確に確認することができる。また、遮蔽されている立体像の関連像を補助表示することによって、ユーザが認識しやすいように、目立たせることができる。さらに、表示された関連像は遮蔽物によって遮蔽されないため、ユーザは両眼から関連像を視認することができ、両眼視野闘争などの違和感を生じることがなく、眼の疲労感を軽減することができる。
 また、関連像を表示する別の方法としては、以下のような例が考えられる。例えば、図20に示すように、制御部106が、遮蔽されている立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、ポインティングされる対象物である立体像と、立体像の周囲に表示されている立体像とは別の表示物との位置関係に応じて、補助表示する関連像の表示位置を選択して表示する例が考えられる。
 より具体的には、例えば、制御部106が遮蔽物によって遮蔽された立体像を補助表示する際に、立体像の周囲に別のアイコンが画面に表示されている場合には、別のアイコンと離れた位置に関連像を補助表示することによって、別のアイコンとの干渉を防ぎ、より視認性を高めることができる。一例として、図20を参照して、遮蔽される立体像の周囲に別の表示物(アイコン)が表示されている場合に、制御部106が、関連像をポップアップ表示させる表示方法を説明する。
 図20において、アイコンM1は、遮蔽された立体像を示し、アイコンM2は、アイコンM1をポップアップ表示させて表示した関連像を示している。また、アイコンM1の周囲には、例えばアイコンM3のような、遮蔽されるアイコンM1とは別のアイコンが表示されている。
 例えばこのような場合には、指などの遮蔽物によってアイコンM1が遮蔽されたときに、制御部106は、遮蔽されたアイコンM1(立体像)をポップアップ表示させたアイコンM2を関連像として表示する。その際、制御部106は、アイコンM3が表示されている位置を考慮して、アイコンM3と干渉しない位置にアイコンM2をポップアップさせる。
 図20の例では、ポインティングされる対象物である立体像M1の右側に別のアイコンM3が表示されているため、補助表示する関連像M2を、別のアイコンM3が表示されている位置の逆方向の位置に表示させる例として、ポップアップ表示を用いた表示方法を示している。補助表示する関連像の表示方法は、ポップアップ表示に限られず、制御部106は、遮蔽される立体像の周囲の画面表示状況に応じて、補助表示する関連像が周囲の表示物と干渉しないように適切な表示方法を判断して、関連像を表示させることができる。
 このように、本実施形態によれば、立体像が遮蔽物によって遮蔽された場合に、ポインティングされる対象物である立体像と、立体像の周囲に表示されている立体像とは別の表示物との位置関係に応じて、補助表示する関連像の表示方法を変更して、関連像を表示させる。これにより、ユーザは、補助表示された関連像を視認することで、遮蔽された立体像がどのようなものであるかをより明確に確認することができる。また、遮蔽された立体像の関連像を補助表示することによって、立体像の内容をユーザが認識しやすいように、目立たせることができる。
 特に、遮蔽される立体像の周囲の画面表示状況に応じて、補助表示する関連像が周囲の表示物と干渉しないように適切な表示方法を判断して、関連像を表示させることができるため、ユーザが認識しやすいように、より目立たせることができる。さらに、表示された関連像は遮蔽物によって遮蔽されないため、ユーザは両眼から関連像を視認することができ、両眼視野闘争などの違和感を生じることがなく、眼の疲労感を軽減することができる。
 また、関連像を表示する別の方法としては、以下のような例が考えられる。例えば、図21に示すように、ポインティングされる対象物である立体像が、ユーザに遮蔽物(例えば、指など)で遮蔽された場合に、制御部106が、遮蔽されている立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、立体像と同一の視差量で補助表示を表示させた後に続いて、所定の表示視差まで視差量を連続的に変化させながら関連像を表示する例が考えられる。一例として、図21を参照して、制御部106が、立体像と同一の視差量でポップアップ表示を表示させた後に続いて、このポップアップ表示を所定の表示視差まで視差量を連続的に変化させながら、ポップアップ表示を表示する関連像の表示方法を説明する。
 図21は、立体像J2を表示する表示装置100と、遮蔽物である手K2と、補助表示する関連像L2との奥行距離D2の関係を示す図である。奥行距離D2は、Z軸方向における表示装置100から立体像J2が表示される位置までの奥行き方向の距離である。また、関連像L2から所定の表示視差まで視差量を連続的に変化させて表示された関連像L3は、奥行距離D3の位置に表示される。
 立体像J2が遮蔽物である手K2によって遮蔽されると、制御部106が、奥行距離D2の位置に、立体像J2と同一の視差量で関連像L2をポップアップ表示する。続いて、制御部106は、奥行距離D2の位置でポップアップ表示されている関連像L2の視差量を所定の表示視差まで視差量を連続的に変化させながら、奥行距離D3の位置に関連像L3をポップアップ表示として表示する。すなわち、制御部106は、遮蔽物によって遮蔽された立体像の関連像を、立体像と同一の視差量から、ユーザにとって浮かび上がって来るように見えるように所定の表示視差まで視差量を連続的に変化させながら関連像を表示する。
 また、例えば、奥行距離D2の位置でポップアップ表示されている関連像L2の視差量を連続的に変化させる方向は、奥行距離D3の位置のように、表示装置100から遠ざかる方向に限られず、表示装置100に近づく方向に関連像L2の視差量を連続的に変化させて関連像を表示する表示方法としてもよい。
 また、図21では、関連像がポップアップ表示される例を示したが、例えば、連続的に視差を変化させながら表示する関連像は、シフト表示などの別の表示方法を用いて表示してもよい。
 このように、本実施形態によれば、立体像が遮蔽物によって遮蔽された場合に、立体像と同一の視差量で補助表示を表示させた後に続いて、所定の表示視差まで視差量を連続的に変化させながら関連像を表示させる。これにより、ユーザは、補助表示された関連像を視認することで、遮蔽された立体像がどのようなものであるかをより明確に確認することができる。また、遮蔽された立体像の関連像を補助表示することによって、立体像の内容をユーザが認識しやすいように、目立たせることができる。さらに、表示された関連像は遮蔽物によって遮蔽されないため、ユーザは両眼から関連像を視認することができ、両眼視野闘争などの違和感を生じることがなく、眼の疲労感を軽減することができる。
 遮蔽される立体像と異なる視差量で関連像を補助表示する場合、立体像の周囲に、立体像の視差量と視差量が異なる関連像を瞬時に表示させると、立体像から関連像へのユーザの視差視が追従できず、補助表示される関連像をユーザが視認しにくい恐れがある。そのため、上記の表示方法のように、立体像の視差量から所定の関連像の視差量までを時間的に連続して変化させることによって、補助表示される関連像をユーザがより視認しやすくすることができる。
 また、関連像を表示する別の方法としては、以下のような例が考えられる。例えば、図22に示すように、ポインティングされる対象物である立体像が遮蔽物(例えば、指など)によって遮蔽された場合に、制御部106が、遮蔽されている立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、補助表示された関連像の周囲の表示物を暈して表示する例が考えられる。より具体的には、例えば、三次元表示で目立たせたい部分(関連像)以外の周囲の表示物の表示を薄くすることによって、関連像が目立つように表示する例が考えられる。なお、関連像の周囲の表示物を暈す方法の一例としては、例えば、周囲の表示物の表示を薄くしたり、周囲の表示物の表示のコントラスト値を変更したり、周囲の表示物の表示のα値(透明度)を変更したりする表示方法が考えられる。
 図22は、上述の図15と同様に、立体像Q1の周囲のテスクチャー密度や分布が大きいほど、制御部106が、補助表示する関連像Q2を、立体像Q1から離れた位置に表示させる表示方法で表示する例を示している。さらに図22においては、制御部106が、遮蔽された立体像Q1の周囲の表示物の表示を薄くする(暈す)ことによって、補助表示された関連像Q2が目立つように表示している。
 このように、本実施形態によれば、立体像が遮蔽物によって遮蔽された場合に、立体像を拡大し、遮蔽物から離れた位置に関連像をポップアップさせて表示し、さらに、関連像の周囲に表示されている表示物を薄くして(暈して)表示する。これにより、ユーザは、補助表示された関連像を視認することで、遮蔽された立体像がどのようなものであるかをより明確に確認することができる。また、遮蔽されている立体像の関連像を補助表示することによって、ユーザが認識しやすいように、目立たせることができる。さらに、表示された関連像は遮蔽物によって遮蔽されないため、ユーザは両眼から関連像を視認することができ、両眼視野闘争などの違和感を生じることがなく、眼の疲労感を軽減することができる。また、遮蔽された立体像の周囲の表示物が薄く(暈して)表示されるため、遮蔽物と周囲の表示物との境界で発生するユーザの両眼視野闘争をより効果的に抑制することができる。
 なお、遮蔽された立体像の周囲の表示物を暈して表示する方法は、図22に示した周囲の表示物の表示を薄くする表示方法に限られず、周囲の表示物のコントラスト値やα値を変更して、補助表示された関連像が目立つように表示してもよい。また、補助表示された関連像と周囲の表示物とのコントラスト値の比やα値の比を変更して、補助表示された関連像が目立つように表示してもよい。
 また、関連像を表示する別の方法としては、以下のような例が考えられる。ユーザの両眼視野闘争は、ユーザの右眼に与える右眼像と左眼に与える左眼像との差異が大きいほど、一般的に生じやすくなる。例えば、ユーザの右眼像と左眼像のマッチング度(一致度)が高ければ、両眼視野闘争は生じにくくなる。一方、ユーザの右眼像と左眼像のマッチング度(一致度)が低ければ、両眼視野闘争が生じやすくなる。すなわち、ユーザの右眼像と左眼像の差異が大きいほど、両眼視野闘争が生じやすくなる。
 そのため、例えば、ポインティングされる対象物である立体像が遮蔽物(例えば、指など)によって遮蔽された場合に、制御部106が、ユーザの右眼に与えられる右眼像と左眼に与えられる左眼像との差異を判定して、この差異の大小に応じて、補助表示される関連像の表示方法を選択したり、変更したりする例が考えられる。すなわち、遮蔽物によって遮蔽されている立体像を見つめるユーザの右眼像と左眼像のマッチング度(一致度)に応じて、補助表示される関連像の表示方法を変更する例が考えられる。
 このように、本実施形態によれば、遮蔽物によって遮蔽されている立体像を見つめるユーザの右眼像と左眼像のマッチング度(一致度)に応じて、ユーザの両眼視野闘争が生じにくい表示方法を、選択したり、変更したりして関連像を表示させる。これにより、ユーザは、補助表示された関連像を視認することで、遮蔽された立体像がどのようなものであるかをより明確に確認することができる。また、遮蔽されている立体像の関連像を補助表示することによって、立体像の内容をユーザが認識しやすいように、目立たせることができる。さらに、表示された関連像は遮蔽物によって遮蔽されないため、ユーザは両眼から関連像を視認することができ、両眼視野闘争などの違和感を生じることがなく、眼の疲労感を軽減することができる。また、ユーザの両眼視野闘争の生じやすさに応じて、表示方法を選択したり、変更したりできるため、より適切な表示方法で関連像を表示することができる。
 図23は、遮蔽物によって立体像が遮蔽されたときに、立体像であるアイコンM1をポップアップ表示して表示した関連像であるアイコンM2の例である。例えば、アイコンM1が表示されている領域をユーザが遮蔽している間は、制御部106が、図23(a)のようにアイコンM2の中央部にマーカーV1を表示するようにしてもよい。図23(a)では、マーカーV1の一例として、アイコンM2の中央部に×印が表示される例が示されている。
 また、図23(b)は、遮蔽物によって立体像が遮蔽されたときに、立体像であるアイコンM1をシフト表示して表示した関連像であるアイコンM2の例である。このとき、アイコンM1が表示されていた領域をユーザが遮蔽している間は、制御部106が、図23(b)のようにアイコンM2の中央部にマーカーV2を表示するようにしてもよい。図23(b)では、マーカーV2の一例として、アイコンM2上に遮蔽物(指など)の輪郭が半透明に表示される例が示されている。
 また、図24のように、例えば、ポインティングされる対象物である立体像としてキーボードKB1を表示し、このキーボードKB1上でキーを打つ動作を行なうユーザの指を遮蔽物とし、ユーザの指によって遮蔽されたキーボードに対応した関連像であるキーボードKB2を表示することもできる。このとき、制御部106が、図24のように補助表示したキーボードKB2上にマーカーWを表示するようにしてもよい。図24では、マーカーWの一例として、関連像KB2上に遮蔽物(指など)の輪郭が半透明に表示される例が示されている。
 図23~図24で示したようなマーカーを表示された関連像上に表示することによって、ユーザは、自分が遮蔽物によって遮蔽している立体像をより把握しやすくなる。すなわち、ユーザは、自分が遮蔽物によって選択または指示している立体像をより把握しやすくなる。そのため、遮蔽された立体像の周囲にポップアップ表示やシフト表示によって関連像が表示された際に、ユーザは自分が指示した立体像と表示された関連像とを関連付けて認識しやすくなる。したがって、ユーザは、自分が指示した立体像が関連像として表示されている状況が理解しやすいため、ポップアップ表示やシフト表示などの関連像が表示された際のユーザの混乱や戸惑いを防ぐことができる。
 なお、上記のいずれの実施例においても、立体像が遮蔽物によって遮蔽されている場合に、立体像に隣接する領域に補助表示される関連像の一部は、遮蔽されている立体像と重なった状態で表示されてもよい。また、立体像に隣接する領域に補助表示される関連像の一部は、立体像を遮蔽している遮蔽物と重なった状態で表示されてもよい。すなわち、補助表示される関連画像のすべてが、遮蔽されている立体像に重ならない領域に表示されなくてもよい。また、補助表示される関連画像のすべてが、遮蔽物によって遮蔽されない領域に表示されなくてもよい。
 なお、上記のいずれの実施例における関連像の表示方法は、あくまで表示方法の一例である。上記で説明した関連像の表示方法は、すべて適宜に組み合わせて関連像の表示に用いることができる。
 なお、本発明における処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより表示制御を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
 また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
 100…表示装置、101…撮影部、102…検出部、103…操作判定部、104…表示部、105…表示画像記憶部、106…制御部

Claims (20)

  1.  両眼視差に基づく立体像が含まれる画像を表示する表示部と、
     前記立体像を遮蔽する遮蔽物を検出する検出部と、
     前記検出部による検出結果に基づいて、前記遮蔽物による前記立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、この判定結果に基づいて前記立体像に関連する関連像の表示を制御する制御部と、
     を備えることを特徴とする表示装置。
  2.  前記制御部は、前記立体像の表示位置に基づいて、前記関連像の表示位置を制御する
     ことを特徴とする請求項1に記載の表示装置。
  3.  前記制御部は、前記画像の領域のうち、前記遮蔽物によって遮蔽されない領域において前記関連像の表示を制御する
     ことを特徴とする請求項1または請求項2に記載の表示装置。
  4.  前記制御部は、前記検出結果に基づいて、前記遮蔽物によって前記立体像が遮蔽されているか否かを判定し、遮蔽されていると判定した場合、前記関連像が前記遮蔽物によって遮蔽されないように前記関連像を表示させる
     ことを特徴とする請求項1から請求項3までのいずれか1項に記載の表示装置。
  5.  前記制御部は、前記遮蔽物によって遮蔽される前記画像の遮蔽領域を判定し、前記画像の領域のうち、前記遮蔽領域とは異なる領域に前記関連像を表示させる
     ことを特徴とする請求項1から請求項4までのいずれか1項に記載の表示装置。
  6.  前記制御部は、前記立体像に隣接する領域に前記関連像を表示させる
     ことを特徴とする請求項1から請求項5までのいずれか1項に記載の表示装置。
  7.  前記制御部は、前記表示部に対する奥行き方向において、前記立体像の表示位置とは異なる表示位置に前記関連像を立体表示させる
     ことを特徴とする請求項1から請求項6までのいずれか1項に記載の表示装置。
  8.  前記制御部は、前記表示部に対する奥行き方向において、前記立体像の表示位置よりも前記表示部から遠い表示位置に、前記関連像を立体表示させる
     ことを特徴とする請求項1から請求項7までのいずれか1項に記載の表示装置。
  9.  前記制御部は、前記表示部に対する奥行き方向において、前記立体像の表示位置よりも前記表示部に近い表示位置に、前記関連像を立体表示させる
     ことを特徴とする請求項1から請求項8までのいずれか1項に記載の表示装置。
  10.  前記制御部は、前記表示部に対する奥行き方向における前記関連像の表示位置を時間とともに変化させて立体表示させる
     ことを特徴とする請求項1から請求項9までのいずれか1項に記載の表示装置。
  11.  前記関連像には、前記立体像と同一の像が含まれる
     ことを特徴とする請求項1から請求項10までのいずれか1項に記載の表示装置。
  12.  前記制御部は、前記立体像を拡大した像を前記関連像として表示させる
     ことを特徴とする請求項1から請求項11までのいずれか1項に記載の表示装置。
  13.  前記制御部は、前記遮蔽物によって遮蔽される前記立体像の遮蔽領域を判定し、前記立体像に対する前記遮蔽領域の割合に基づいて、前記関連像を表示させる
     ことを特徴とする請求項1から請求項12までのいずれか1項に記載の表示装置。
  14.  表示装置のコンピュータに、
     両眼視差に基づく立体像が含まれる画像を表示するステップと、
     前記立体像を遮蔽する遮蔽物を検出するステップと、
     検出結果に基づいて、前記遮蔽物による前記立体像の表示状態及び遮蔽状態の少なくとも一方を判定し、この判定結果に基づいて前記立体像に関連する関連像の表示を制御するステップと、
     を実行させる表示制御プログラム。
  15.  前記立体像の表示状態及び遮蔽状態の少なくとも一方は、前記立体像の周囲のテクスチャーの密度及び分布を含むことを特徴とする表示装置。
  16.  前記立体像の表示状態及び遮蔽状態の少なくとも一方は、前記立体像と前記遮蔽物との相対的なサイズ差を含むことを特徴とする表示装置。
  17.  前記立体像の表示状態及び遮蔽状態の少なくとも一方は、前記立体像と前記遮蔽物との相対的な位置関係を含むことを特徴とする表示装置。
  18.  前記立体像の表示状態及び遮蔽状態の少なくとも一方は、前記立体像が前記遮蔽物によって遮蔽され続けた時間の長さを含むことを特徴とする表示装置。
  19.  前記立体像の表示状態及び遮蔽状態の少なくとも一方は、前記立体像と、前記表示部に表示される周囲の表示物との相対的な位置関係を含むことを特徴とする表示装置。
  20.  前記立体像の表示状態及び遮蔽状態の少なくとも一方は、前記立体像を見つめるユーザの右目像と左目像の一致度を含むことを特徴とする表示装置。
PCT/JP2012/080107 2011-11-21 2012-11-20 表示装置、表示制御プログラム WO2013077338A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US14/359,166 US10477191B2 (en) 2011-11-21 2012-11-20 Display device, and display control program
KR1020147014205A KR20140097226A (ko) 2011-11-21 2012-11-20 표시장치, 표시 제어 프로그램
CN201280067270.3A CN104054044A (zh) 2011-11-21 2012-11-20 显示装置及显示控制程序
RU2014124192A RU2658790C2 (ru) 2011-11-21 2012-11-20 Устройство отображения и программа управления отображением
EP12851046.8A EP2784640A4 (en) 2011-11-21 2012-11-20 DISPLAY DEVICE AND DISPLAY CONTROL PROGRAM
BR112014011974A BR112014011974A2 (pt) 2011-11-21 2012-11-20 dispositivo de exibição e programa de controle de exibição

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-253805 2011-11-21
JP2011253805 2011-11-21

Publications (1)

Publication Number Publication Date
WO2013077338A1 true WO2013077338A1 (ja) 2013-05-30

Family

ID=48469780

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/080107 WO2013077338A1 (ja) 2011-11-21 2012-11-20 表示装置、表示制御プログラム

Country Status (8)

Country Link
US (1) US10477191B2 (ja)
EP (1) EP2784640A4 (ja)
JP (3) JPWO2013077338A1 (ja)
KR (1) KR20140097226A (ja)
CN (3) CN104054044A (ja)
BR (1) BR112014011974A2 (ja)
RU (2) RU2018119502A (ja)
WO (1) WO2013077338A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106228110A (zh) * 2016-07-07 2016-12-14 浙江零跑科技有限公司 一种基于车载双目相机的障碍物及可行驶区域检测方法
JP2019128725A (ja) * 2018-01-23 2019-08-01 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140282269A1 (en) * 2013-03-13 2014-09-18 Amazon Technologies, Inc. Non-occluded display for hover interactions
US9489774B2 (en) * 2013-05-16 2016-11-08 Empire Technology Development Llc Three dimensional user interface in augmented reality
KR102297148B1 (ko) * 2014-10-31 2021-09-03 삼성메디슨 주식회사 3차원 영상을 표시하는 초음파 시스템 및 그 방법
CN104991649B (zh) * 2015-07-21 2019-01-11 小米科技有限责任公司 屏幕排版方法及装置
US10289206B2 (en) * 2015-12-18 2019-05-14 Intel Corporation Free-form drawing and health applications
JP2019105777A (ja) * 2017-12-14 2019-06-27 セイコーエプソン株式会社 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
CN110248147B (zh) 2018-09-25 2022-08-23 浙江大华技术股份有限公司 一种图像显示方法及装置
CN109550247B (zh) * 2019-01-09 2022-04-08 网易(杭州)网络有限公司 游戏中虚拟场景调整方法、装置、电子设备及存储介质
CN113077510B (zh) * 2021-04-12 2022-09-20 广州市诺以德医疗科技发展有限公司 遮蔽下的立体视功能检查系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092272A (ja) * 2008-10-08 2010-04-22 Sharp Corp 画像表示/像検知装置、補助画像表示方法、およびプログラム
JP2011022958A (ja) * 2009-07-21 2011-02-03 Kyocera Corp 入力装置
JP2011090611A (ja) 2009-10-26 2011-05-06 Canon Inc 映像装置及びその制御方法
WO2011114567A1 (ja) * 2010-03-18 2011-09-22 富士フイルム株式会社 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) 1994-04-22 1996-01-12 Canon Inc 表示装置
JPH09190278A (ja) 1996-01-09 1997-07-22 Mitsubishi Motors Corp 機器の操作系選択装置
JP3577577B2 (ja) 1996-02-23 2004-10-13 株式会社タイテック 空中立体視装置
JP4031120B2 (ja) 1998-09-10 2008-01-09 株式会社東芝 オブジェクト強調表示方法及びその装置並びに記憶媒体
JP2003005912A (ja) 2001-06-20 2003-01-10 Hitachi Ltd タッチパネル付きディスプレイ装置及び表示方法
WO2003036452A1 (fr) * 2001-10-24 2003-05-01 Sony Corporation Dispositif servant a afficher une information d'image
EP1567927B1 (en) * 2002-11-29 2013-07-10 Koninklijke Philips Electronics N.V. System and method for user interface with displaced representation of touch area
CN1266653C (zh) 2002-12-26 2006-07-26 联想(北京)有限公司 一种显示三维图像的方法
JP3874737B2 (ja) * 2003-03-31 2007-01-31 株式会社東芝 表示装置
JP3939709B2 (ja) 2004-04-30 2007-07-04 日本電信電話株式会社 情報入力方法および情報入出力装置
EP1865404A4 (en) * 2005-03-28 2012-09-05 Panasonic Corp USER INTERFACE SYSTEM
RU2411690C2 (ru) * 2005-12-02 2011-02-10 Конинклейке Филипс Электроникс Н.В. Способ и устройство отображения стереоскопического изображения, способ для создания данных 3d изображения из входных данных 2d изображения и устройство для создания данных 3d изображения из входных данных 2d изображения
JP4764305B2 (ja) * 2006-10-02 2011-08-31 株式会社東芝 立体画像生成装置、方法およびプログラム
US7692629B2 (en) * 2006-12-07 2010-04-06 Microsoft Corporation Operating touch screen interfaces
AU2008204523A1 (en) 2007-01-09 2008-07-17 Selex Galileo Ltd Emitter location
JP5212991B2 (ja) 2007-03-30 2013-06-19 独立行政法人情報通信研究機構 空中映像インタラクション装置及びそのプログラム
CN101072366B (zh) 2007-05-24 2010-08-11 上海大学 基于光场和双目视觉技术的自由立体显示系统和方法
WO2009025034A1 (ja) 2007-08-22 2009-02-26 Pioneer Corporation 画像表示装置
WO2009044437A1 (ja) 2007-10-01 2009-04-09 Pioneer Corporation 画像表示装置
US9092134B2 (en) * 2008-02-04 2015-07-28 Nokia Technologies Oy User touch display interface providing an expanded selection area for a user selectable object
CN101266530B (zh) * 2008-04-04 2012-12-12 中国海洋大学 大屏幕三维测量触摸屏
JP4657331B2 (ja) * 2008-08-27 2011-03-23 富士フイルム株式会社 3次元表示時における指示位置設定装置および方法並びにプログラム
WO2010035326A1 (ja) 2008-09-26 2010-04-01 パイオニア株式会社 画像表示装置及び画像表示システム
JP4650549B2 (ja) * 2008-10-06 2011-03-16 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US8228435B2 (en) * 2008-12-18 2012-07-24 Sony Corporation Enhanced metadata presented in a pop-up window on cross-media bar user interface when a user hovers a screen cursor over a TV channel icon
JP2011028560A (ja) * 2009-07-27 2011-02-10 Sony Corp 情報処理装置、表示方法及び表示プログラム
EP2489195A1 (en) * 2009-10-14 2012-08-22 Nokia Corp. Autostereoscopic rendering and display apparatus
US20110102556A1 (en) * 2009-11-03 2011-05-05 Kim Sungdo Method for displaying 3d image by using the binocular disparity in mobile terminal and mobile terminal using the same
JP5446769B2 (ja) * 2009-11-20 2014-03-19 富士通モバイルコミュニケーションズ株式会社 3次元入力表示装置
KR20110076771A (ko) * 2009-12-29 2011-07-06 한국전자통신연구원 터치 기반의 멀티미디어 기기의 자판 표시 방법 및 장치
KR101114750B1 (ko) 2010-01-29 2012-03-05 주식회사 팬택 다차원 영상을 이용한 사용자 인터페이스 장치
JP4900741B2 (ja) * 2010-01-29 2012-03-21 島根県 画像認識装置および操作判定方法並びにプログラム
CN101808251B (zh) * 2010-04-06 2011-07-20 浙江大学 立体图像对中遮挡信息的提取方法
US8384683B2 (en) * 2010-04-23 2013-02-26 Tong Luo Method for user input from the back panel of a handheld computerized device
JP5573379B2 (ja) 2010-06-07 2014-08-20 ソニー株式会社 情報表示装置および表示画像制御方法
JP5593972B2 (ja) 2010-08-30 2014-09-24 ソニー株式会社 情報処理装置、立体視表示方法、及びプログラム
US20120056989A1 (en) 2010-09-06 2012-03-08 Shimane Prefectural Government Image recognition apparatus, operation determining method and program
US20120069055A1 (en) 2010-09-22 2012-03-22 Nikon Corporation Image display apparatus
JP5337915B2 (ja) 2010-09-30 2013-11-06 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
CN102005062A (zh) 2010-11-09 2011-04-06 福州瑞芯微电子有限公司 用于三维立体显示的三维图像的产生方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092272A (ja) * 2008-10-08 2010-04-22 Sharp Corp 画像表示/像検知装置、補助画像表示方法、およびプログラム
JP2011022958A (ja) * 2009-07-21 2011-02-03 Kyocera Corp 入力装置
JP2011090611A (ja) 2009-10-26 2011-05-06 Canon Inc 映像装置及びその制御方法
WO2011114567A1 (ja) * 2010-03-18 2011-09-22 富士フイルム株式会社 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2784640A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106228110A (zh) * 2016-07-07 2016-12-14 浙江零跑科技有限公司 一种基于车载双目相机的障碍物及可行驶区域检测方法
CN106228110B (zh) * 2016-07-07 2019-09-20 浙江零跑科技有限公司 一种基于车载双目相机的障碍物及可行驶区域检测方法
JP2019128725A (ja) * 2018-01-23 2019-08-01 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
JP7135324B2 (ja) 2018-01-23 2022-09-13 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム

Also Published As

Publication number Publication date
BR112014011974A2 (pt) 2017-05-30
US20140320615A1 (en) 2014-10-30
JPWO2013077338A1 (ja) 2015-04-27
RU2658790C2 (ru) 2018-06-22
EP2784640A1 (en) 2014-10-01
JP2019145133A (ja) 2019-08-29
JP2018061251A (ja) 2018-04-12
CN104054044A (zh) 2014-09-17
CN110119203A (zh) 2019-08-13
CN110275607A (zh) 2019-09-24
EP2784640A4 (en) 2015-10-21
US10477191B2 (en) 2019-11-12
KR20140097226A (ko) 2014-08-06
RU2014124192A (ru) 2015-12-27
JP6508280B2 (ja) 2019-05-08
RU2018119502A3 (ja) 2019-02-27
RU2018119502A (ru) 2018-11-15

Similar Documents

Publication Publication Date Title
JP6508280B2 (ja) 制御装置、検出装置、表示システム、電子機器、及びプログラム
US11132162B2 (en) Gaze-based user interactions
US10652515B2 (en) Information processing apparatus, stereoscopic display method, and program
US20170264881A1 (en) Information processing apparatus, information processing method, and program
JP2012256110A (ja) 情報処理装置、情報処理方法およびプログラム
US9432652B2 (en) Information processing apparatus, stereoscopic display method, and program
US8988500B2 (en) Information processing apparatus, stereoscopic display method, and program
JP6428020B2 (ja) Gui装置
JP2014191629A (ja) 表示装置および同装置における画面制御方法
WO2020031493A1 (ja) 端末装置および端末装置の制御方法
JP6269692B2 (ja) 表示装置、電子機器、およびプログラム
JP5879856B2 (ja) 表示装置、表示方法及びプログラム
JP2018098800A (ja) 表示装置、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12851046

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013545939

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14359166

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20147014205

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2012851046

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2014124192

Country of ref document: RU

Kind code of ref document: A

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112014011974

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112014011974

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20140519