JP2011180690A - 表示制御装置、表示制御方法、および表示制御プログラム - Google Patents
表示制御装置、表示制御方法、および表示制御プログラム Download PDFInfo
- Publication number
- JP2011180690A JP2011180690A JP2010042369A JP2010042369A JP2011180690A JP 2011180690 A JP2011180690 A JP 2011180690A JP 2010042369 A JP2010042369 A JP 2010042369A JP 2010042369 A JP2010042369 A JP 2010042369A JP 2011180690 A JP2011180690 A JP 2011180690A
- Authority
- JP
- Japan
- Prior art keywords
- display
- user
- image
- display object
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
【課題】三次元表示されている表示物をユーザが容易且つ正確に選択することができるように画像を表示手段に表示させることができる表示制御装置、表示制御方法、および表示制御プログラムを提供する。
【解決手段】表示装置は、ユーザが表示物を選択するために操作するスタイラスの位置を検出する(S4)。表示装置は、スタイラスの位置の検出結果を用いて、スタイラスの移動方向を検出する。表示装置は、ユーザが認識する三次元画像中の表示物の位置である認識位置が、スタイラスの移動方向に沿って移動するように、表示物の右眼用画像および左眼用画像の少なくとも一方の表示位置を移動させる(S8)。表示装置は、スタイラスがディスプレイに接触すると、ユーザが選択する表示物を決定する(S10)。
【選択図】図8
【解決手段】表示装置は、ユーザが表示物を選択するために操作するスタイラスの位置を検出する(S4)。表示装置は、スタイラスの位置の検出結果を用いて、スタイラスの移動方向を検出する。表示装置は、ユーザが認識する三次元画像中の表示物の位置である認識位置が、スタイラスの移動方向に沿って移動するように、表示物の右眼用画像および左眼用画像の少なくとも一方の表示位置を移動させる(S8)。表示装置は、スタイラスがディスプレイに接触すると、ユーザが選択する表示物を決定する(S10)。
【選択図】図8
Description
本発明は、三次元表示されている表示物をユーザが選択することができるように三次元画像を表示する表示制御装置、表示制御方法、および表示制御プログラムに関する。
従来、視差を有する一組の画像を表示することで、三次元画像をユーザに視認させる技術が知られている。例えば、表示装置は、表示物を立体視させるための左眼用画像と右眼用画像とを、表示画面上で左右方向に異なる位置に表示させる。ユーザは、左眼用画像を左眼で、右眼用画像を右眼で見ることで、表示物を立体視することができる。
表示物が立体表示(三次元表示)されている場合、ユーザが認識する表示物の位置と、実際に左眼用画像および右眼用画像が表示されている位置とは異なる。従って、三次元表示されている表示物の一部を、ユーザがスタイラスまたは指先等を用いて選択する場合、ユーザは容易に表示物を選択することができない。特許文献1に記載の表示装置は、スタイラスまたは指先等の入力手段とタッチパネルとの距離が所定距離以下となった場合に、三次元表示を二次元表示に切り替える。二次元画像であれば、ユーザが認識する表示物の位置と、実際の表示画面上の表示位置とが一致する。
ユーザは、表示物の一部を入力手段によって選択する場合、認識している表示物の位置に向けて入力手段を移動させる。しかし、特許文献1が開示している表示装置は、入力手段の移動方向は考慮せずに、三次元表示を二次元表示に切り替える。従って、入力手段の移動方向の延長線上に、実際の二次元画像上の表示物の表示位置が存在しない場合がある。この場合、ユーザは、三次元表示が二次元表示に切り替えられた時点で、入力手段の移動方向を変更する必要があり、面倒であった。また、ユーザは、意図しない表示物を選択してしまうという問題もあった。
本発明は、三次元表示されている表示物をユーザが容易且つ正確に選択することができるように画像を表示手段に表示させることができる表示制御装置、表示制御方法、および表示制御プログラムを提供することを目的とする。
本発明の第一の態様に係る表示制御装置は、両眼視差による立体知覚を利用して表示物をユーザに立体視させるために、ユーザの左眼に視認させる前記表示物の画像である左眼用画像の画面上の表示位置と、ユーザの右眼に視認させる前記表示物の画像である右眼用画像の画面上の表示位置とを、ユーザに知覚させる奥行き距離に応じて左右方向に互いにずらして表示手段に表示させる表示制御手段を備えた表示制御装置であって、前記表示手段によって表示されている表示物を選択するために前記ユーザが移動させる入力手段の位置を検出する第一検出手段と、前記第一検出手段による前記入力手段の位置の検出結果を用いて、前記入力手段の移動方向を算出する方向算出手段と、前記方向算出手段によって算出された前記入力手段の移動方向に応じて、前記左眼用画像の表示位置および前記右眼用画像の表示位置の少なくとも一方を変更することで、前記ユーザが認識する前記三次元画像中の表示物の位置である認識位置を前記入力手段の移動方向に沿って移動させる認識位置移動手段と、前記第一検出手段によって検出された前記入力手段の位置と前記表示手段との間の距離がゼロとなった場合に、前記入力手段の位置に二次元表示されている表示物を、前記ユーザが選択する表示物として決定する決定手段とを備えている。
第一の態様に係る表示制御装置は、ユーザが認識している表示物の位置である認識位置が、入力手段の移動方向に沿って移動するように、表示物を立体視させるための左眼用画像の表示位置および右眼用画像の表示位置の少なくとも一方を変更することができる。従って、ユーザは、入力手段の移動方向を変更することなく、所望する表示物に向けて真っ直ぐに入力手段を移動させるだけで、所望する表示物を選択することができる。よって、ユーザは、三次元表示されている表示物を、容易且つ正確に選択することができる。
前記表示制御装置は、ユーザの左右の眼の位置を検出する第二検出手段と、前記第二検出手段によって検出された前記眼の位置と、前記左眼用画像および前記右眼用画像の表示位置とから、前記認識位置を算出する認識位置算出手段と、少なくとも前記認識位置算出手段によって算出された前記認識位置と前記第一検出手段によって検出された前記入力手段の位置とに基づいて、前記左眼用画像および前記右眼用画像によって三次元表示されている1または複数の表示物の中から、前記ユーザが選択する候補となる表示物を特定する特定手段とをさらに備えてもよい。前記認識位置移動手段は、前記特定手段によって特定された表示物の前記左眼用画像の表示位置および前記右眼用画像の表示位置の少なくとも一方を変更すればよい。この場合、ユーザが選択する候補となる表示物の認識位置のみが、入力手段の移動方向に沿って移動する。従って、ユーザは、選択しようとする表示物を他の表示物の中で容易に認識しながら入力手段を操作することができる。
前記認識位置移動手段は、前記特定手段によって特定された表示物の右眼用画像および左眼用画像の表示位置を、立体視させる他の表示物の右眼用画像および左眼用画像の表示位置と重複しない位置に変更するのが望ましい。この場合、表示制御装置は、表示物同士が重なることを防止しつつ、表示物の認識位置を移動させることができる。従って、ユーザは、選択しようとする表示物を見失うことなく、所望する表示物を確実に選択することができる。
前記特定手段は、前記第一検出手段によって検出された前記入力手段の位置を通り、且つ前記方向算出手段によって算出された前記入力手段の移動方向に延びる直線上に前記認識位置が存在する表示物を、前記ユーザが選択する候補として特定するのが望ましい。この場合、表示制御装置は、入力手段の位置だけでなく、入力手段の移動方向に基づいて、適切な表示物を選択候補として特定することができる。従って、表示制御装置は、ユーザが選択しようとしている表示物を的確に特定し、認識位置を移動させることができる。よって、選択操作をやり直す作業をユーザに行わせる可能性を低下させることができる。ユーザが所望しない表示物が選択されてしまうという誤作動を防止することができる。
前記表示制御装置は、前記第一検出手段によって検出された前記入力手段の位置と前記表示手段との間の距離が閾値以下であるか否かを判断する判断手段と、前記判断手段によって距離が閾値以下と判断された場合に、前記特定手段によって特定された表示物に関連する情報を前記表示手段に表示させる情報表示手段とをさらに備えてもよい。ユーザは、選択しようとする表示物に関連する情報を、実際に表示物を選択する前に容易に認識することができる。
前記認識位置移動手段は、前記認識位置算出手段によって算出された前記認識位置を通り、且つ前記方向算出手段によって算出された移動方向に延びる直線上に、移動後の前記認識位置である目標位置を設定する設定手段と、前記設定手段によって設定された前記目標位置と、前記第二検出手段によって検出された前記眼の位置とを用いて、前記認識位置が前記目標位置となる前記左眼用画像の表示位置および前記右眼用画像の表示位置を算出する移動位置算出手段とを備えてもよい。前記認識位置移動手段は、表示物の前記左眼用画像の表示位置および前記右眼用画像の表示位置を、前記移動位置算出手段によって算出された位置に変更すればよい。この場合、表示制御装置は、入力手段の移動方向の延長線上に、移動後の認識位置を目標位置として設定する。表示制御装置は、設定した目標位置に応じて、左眼用画像の表示位置と、右眼用画像の表示位置とを算出する。従って、表示制御装置は、入力手段の移動方向に応じた適切な位置に認識位置を移動させることができる。
前記第一検出手段は、画像を撮像する撮像手段によって撮像された前記入力手段の画像から前記入力手段の位置を検出する非接触検出手段と、前記表示手段の表示面に設けられたタッチパネルとを備えてもよい。この場合、表示制御装置は、表示手段から離れた位置にある入力手段の位置を、非接触検出手段によって的確に検出することができる。入力手段が表示手段に接触した場合には、表示制御装置は、入力手段の位置をタッチパネルによって確実に検出することができる。
本発明の第二の態様に係る表示制御方法は、両眼視差による立体知覚を利用して表示物をユーザに立体視させるために、ユーザの左眼に視認させる前記表示物の画像である左眼用画像の画面上の表示位置と、ユーザの右眼に視認させる前記表示物の画像である右眼用画像の画面上の表示位置とを、ユーザに知覚させる奥行き距離に応じて左右方向に互いにずらして表示手段に表示させる表示制御手段を備えた表示制御装置によって行われる表示制御方法であって、前記表示手段によって表示されている表示物を選択するために前記ユーザが移動させる入力手段の位置を検出する第一検出ステップと、前記第一検出ステップによる前記入力手段の位置の検出結果を用いて、前記入力手段の移動方向を算出する方向算出ステップと、前記方向算出ステップによって算出された前記入力手段の移動方向に応じて、前記左眼用画像の表示位置および前記右眼用画像の表示位置の少なくとも一方を変更することで、前記ユーザが認識する前記三次元画像中の表示物の位置である認識位置を前記入力手段の移動方向に沿って移動させる認識位置移動ステップと、前記第一検出ステップによって検出された前記入力手段の位置と前記表示手段との間の距離がゼロとなった場合に、前記入力手段の位置に二次元表示されている表示物を、前記ユーザが選択する表示物として決定する決定ステップとを備えている。
第二の態様に係る表示制御方法によると、表示制御装置は、ユーザが認識している表示物の位置である認識位置が、入力手段の移動方向に沿って移動するように、表示物を立体視させるための左眼用画像の表示位置および右眼用画像の表示位置の少なくとも一方を変更することができる。従って、ユーザは、入力手段の移動方向を変更することなく、所望する表示物に向けて真っ直ぐに入力手段を移動させるだけで、所望する表示物を選択することができる。よって、ユーザは、三次元表示されている表示物を、容易且つ正確に選択することができる。
本発明の第三の態様に係る表示制御プログラムは、両眼視差による立体知覚を利用して表示物をユーザに立体視させるために、ユーザの左眼に視認させる前記表示物の画像である左眼用画像の画面上の表示位置と、ユーザの右眼に視認させる前記表示物の画像である右眼用画像の画面上の表示位置とを、ユーザに知覚させる奥行き距離に応じて左右方向に互いにずらして表示手段に表示させる表示制御手段を備えた表示制御装置に実行させる表示制御プログラムであって、コンピュータに、前記表示手段によって表示されている表示物を選択するために前記ユーザが移動させる入力手段の位置を検出する第一検出ステップと、前記第一検出ステップによる前記入力手段の位置の検出結果を用いて、前記入力手段の移動方向を算出する方向算出ステップと、前記方向算出ステップによって算出された前記入力手段の移動方向に応じて、前記左眼用画像の表示位置および前記右眼用画像の表示位置の少なくとも一方を変更することで、前記ユーザが認識する前記三次元画像中の表示物の位置である認識位置を前記入力手段の移動方向に沿って移動させる認識位置移動ステップと、前記第一検出ステップによって検出された前記入力手段の位置と前記表示手段との間の距離がゼロとなった場合に、前記入力手段の位置に二次元表示されている表示物を、前記ユーザが選択する表示物として決定する決定ステップとを実行させることを特徴とする。
第三の態様に係る表示制御プログラムによると、表示制御装置は、ユーザが認識している表示物の位置である認識位置が、入力手段の移動方向に沿って移動するように、表示物を立体視させるための左眼用画像の表示位置および右眼用画像の表示位置の少なくとも一方を変更することができる。従って、ユーザは、入力手段の移動方向を変更することなく、所望する表示物に向けて真っ直ぐに入力手段を移動させるだけで、所望する表示物を選択することができる。よって、ユーザは、三次元表示されている表示物を、容易且つ正確に選択することができる。
以下、本発明に係る表示制御装置を具現化した一実施の形態である表示装置1について、図面を参照して説明する。参照する図面は、本発明が採用し得る技術的特徴を説明するために用いられるものである。図面に記載されている装置の構成、各種処理のフローチャート等は、それのみに限定する趣旨ではなく、単なる説明例である。
図1および図2を参照して、表示装置1の概要について説明する。表示装置1は、略直方体形状に形成されており、正面の略中央にディスプレイ2を備える。表示装置1は、ディスプレイ2の前面にタッチパネル3を備える。ユーザは、スタイラス7を用いてタッチパネル3を操作することで、ディスプレイ2に表示されている1または複数の表示物および関連情報の1つを選択することができる。表示装置1は、複数のボタンからなる操作部4を備える。ユーザは、タッチパネル3および操作部4を操作することで、種々の指示を表示装置1に入力する。
表示装置1は、正面の上部の左上に左カメラ5、右上に右カメラ6を備える。表示装置1は、左カメラ5および右カメラ6(以下、「カメラ5,6」という。)が撮像したLEDの三次元の位置を、公知の三角測量によって検出する。本実施の形態では、ユーザが使用するスタイラス7の先端に、LED8が設けられている。図2に示すように、ユーザが三次元画像を視認するために装着する眼鏡9には、眉間部分、正面側左上端、および正面側右上端のそれぞれにLED10が設けられている。表示装置1は、LEDの位置を検出することで、スタイラス7の位置、およびユーザの左右の眼の位置を検出する。
表示装置1は、絵、写真、資料等の様々な表示物をディスプレイ2に表示させることができる。特に、表示装置1は、両眼視差による立体知覚を利用して、ユーザに表示物を立体視させることができる。表示物を立体視させるための技術は複数知られているが、本実施の形態に係る表示装置1はパッシブ・ステレオ方式と呼ばれる技術を利用している。詳細には、表示装置1は、左全体画像と右全体画像とを共にディスプレイ2に表示させる。左全体画像および右全体画像のそれぞれは、二次元の画像である。左全体画像とは、ユーザの左眼に視認させるためにディスプレイ2全体に表示される画像である。右全体画像とは、ユーザの右目に視認させるためにディスプレイ2全体に表示される画像である。左全体画像は、特定の方向に振動する光によって表示される。右全体画像は、左全体画像の光とは異なる方向に振動する光によって表示される。ユーザは、三次元画像を視認するための専用の眼鏡9を装着し、ディスプレイ2に視線を移動させる。眼鏡9の左眼用のレンズ11は、左全体画像の光の振動方向に振動する光のみを透過する。眼鏡9の右眼用のレンズ12は、右全体画像の光の振動方向に振動する光のみを透過する。その結果、ユーザは、左全体画像を左眼で、右全体画像を右眼で見ることができる。
左全体画像のうち、一の表示物を視認させるための画像部分を左眼用画像という。同様に、右全体画像のうち、一の表示物を視認させるための画像部分を右眼用画像という。複数の表示物をユーザに視認させる場合には、左全体画像は複数の左眼用画像を含み、右全体画像は複数の右眼用画像を含む。本実施の形態では、一の表示物を立体視させるための左眼用画像と右眼用画像とは同一の画像であり、これらはディスプレイ2上に表示される位置が左右方向にずれているのみである。しかし、表示物自体をより立体的にユーザに認識させる場合には、表示物をやや左側から見た場合の画像を左眼用画像とし、さらに表示物をやや右側から見た場合の画像を右眼用画像としてもよい。この手法は公知であるため、説明を省略する。
同一の表示物についての左眼用画像と右眼用画像とをディスプレイ2に表示させる場合、左眼用画像の表示位置と右眼用画像の表示位置とが左右方向にずれていれば、ユーザは、表示物がディスプレイ2の表示面よりも奥または手前に存在するように認識する。例えば、左眼用画像の表示位置よりも、右眼用画像の表示位置が左側となっている場合を例示する。この場合、左眼から左眼用画像に延びる視線と、右眼から右眼用画像に延びる視線との交点は、ディスプレイ2の表示面よりも手前となる。その結果、ユーザは、表示物がディスプレイ2の表示面よりも手前側に存在するように認識する。逆に、左眼用画像の表示位置よりも、右眼用画像の表示位置が右側となっていれば、表示物は表示面よりも奥に存在するように認識される。左眼用画像および右眼用画像を同一の位置に表示すれば、表示物は表示面上に存在するように認識される。表示装置1は、ユーザがスタイラス7を用いて表示物の1つを選択する場合に、ユーザが認識する表示物の三次元上の位置である認識位置を、スタイラス7の移動方向に応じて移動させる。その結果、表示装置1は、表示物の1つを容易にユーザに選択させることができる。
図3を参照して、表示装置1の電気的構成について説明する。表示装置1は、表示装置1の制御を司るCPU20を備える。CPU20には、ROM21、RAM22、フラッシュメモリ23、および入出力インターフェース25が、バス24を介して接続されている。ROM21は、表示装置1を動作させるためのプログラムおよび初期値等を記憶している。RAM22は、制御プログラムで使用される各種の情報を一時的に記憶する。フラッシュメモリ23は、各種の情報を記憶する不揮発性の記憶装置である。特に、RAM22は、表示物管理情報記憶エリア221および検出位置情報記憶エリア222を備える。フラッシュメモリ23は、基本表示情報記憶エリア231を備える。これらの各記憶エリアに記憶される情報の詳細については、後述する。
入出力インターフェース25には、表示ドライバ32、タッチパネルドライバ33、カメラドライバ34、操作部4、およびメモリカードスロット35が接続されている。表示ドライバ32は、画像を表示するディスプレイ2の動作を処理する。タッチパネルドライバ33は、タッチパネル3の操作を入力する。カメラドライバ34は、カメラ5,6が撮像した画像のデータを入力する。メモリカードスロット35には、メモリカード36が装着される。ユーザは、右全体画像のデータおよび左全体画像のデータが記憶されたメモリカード36をメモリカードスロット35に装着することで、様々な表示物をディスプレイ2に三次元表示させることができる。
図4から図7を参照して、表示装置1において使用される各種情報のデータ構成について説明する。まず、図4および図5を参照して、フラッシュメモリ23の基本表示情報記憶エリア231に記憶される基本表示情報のデータ構成について説明する。基本表示情報とは、各表示物をユーザに立体視させるためのデフォルトの情報である。基本表示情報は、表示物名称と、表示面への投影位置と、奥行き距離(Z)と、関連情報とからなる。
図5に示すように、表示装置1は、ディスプレイ2の左上端を原点とした三次元座標によって、表示物の位置を管理する。三次元座標は、右方向をX軸の正方向とし、下方向をY軸の正方向とし、ディスプレイ2の正面側への方向をZ軸の正方向とする。各表示物のX−Y平面上の位置は、各表示物を取り囲む長方形の領域の左上端の点および右下端の点の座標によって管理される。具体的には、表示物Aを取り囲む長方形の領域の左上端の点A1の座標(xA1,yA1)は、(60,30)である。表示物Aを取り囲む領域の右下端の点A2の座標(xA2,yA2)は、(80,50)である。表示装置1は、ユーザが立体視している表示物Aをディスプレイ2の表示面へ投影した場合の位置である「表示面への投影位置」に、点A1および点A2の座標の情報を記憶する。表示装置1は、「奥行き距離(Z)」に、各表示物のZ軸方向の位置を記憶する。表示装置1は、「表示面への投影位置」および「奥行き距離(Z)」によって、ユーザがスタイラス7を操作していない場合の各表示物のデフォルトの位置を決定する。
表示装置1は、表示物毎に関連情報を記憶することができる。表示装置1は、ディスプレイ2からスタイラス7までの距離が所定範囲内となった場合に、関連情報表示部15(図5参照)を生成し、関連情報を表示することができる。関連情報は、ユーザが所望の指示を表示装置1に入力するための指示の候補の情報であってもよいし、単にユーザに通知するための情報であってもよい。図4および図5に示す例では、表示装置1は、3つの指示の候補を、表示物Bの関連情報として表示する。ユーザは、3つの候補のうちの1つをスタイラス7で選択することができる。
図6を参照して、RAM22の表示物管理情報記憶エリア221に記憶される表示物管理情報のデータ構成について説明する。表示物管理情報は、左眼用画像表示位置と、右眼用画像表示位置と、認識位置とからなる。左眼用画像表示位置は、表示物をユーザに立体視させるための左眼用画像のディスプレイ2上の表示位置である。右眼用画像表示位置は、右眼用画像のディスプレイ2上の表示位置である。認識位置は、ユーザが認識している表示物の三次元座標上の位置である。認識位置は、左眼用画像表示位置と、右眼用画像表示位置と、ユーザの左右の眼の位置とによって決定される。詳細には、ユーザの左眼から左眼用画像表示位置に延びる視線と、ユーザの右眼から右眼用画像表示位置に延びる視線との交点の位置が、認識位置となる。左眼用画像表示位置および右眼用画像表示位置は、共にディスプレイ2上の位置であるため、常にz=0となる。
図7を参照して、RAM22の検出位置情報記憶エリア222に記憶される検出位置情報のデータ構成について説明する。検出位置情報は、スタイラス7の位置の情報と、ユーザの左右の眼の位置の情報とからなる。スタイラス7の位置の情報としては、スタイラス7のLED8の三次元座標上の位置の検出結果が、最新の検出結果から順に複数記憶される。表示装置1は、最新の検出結果と以前の検出結果とを結ぶベクトルを算出することで、スタイラス7の移動方向を算出する。従って、スタイラス7の位置の検出結果は、少なくとも2つ記憶されている必要がある。ユーザの眼の位置の検出結果としては、ユーザの左眼の位置および右眼の位置の最新の検出結果が記憶されていればよい。前述したように、表示装置1は、2つのカメラ5,6によって検出されたLED8,10の三次元座標上の位置を三角測量によって算出することで、スタイラス7の位置およびユーザの眼の位置を検出する。
以下、図8から図12を参照して、表示装置1が行うメイン処理について説明する。メイン処理は、ROM21に記憶されているプログラムに従ってCPU20が実行する。メイン処理は、表示物を三次元表示させる指示がユーザによって入力されることを契機として実行される。
図8に示すように、CPU20は、メイン処理を開始すると、三次元表示モードをONとする(S1)。CPU20は、三次元表示モードをONとすると、フラッシュメモリ23に記憶されている画像データおよび基本表示情報(図4参照)に従って表示物を三次元表示する。CPU20は、カメラ5,6から入力された画像中のLED10の位置から、三角測量によって、ユーザの左右の眼の三次元座標上の位置を検出する(S2)。CPU20は、ユーザの左右の眼の位置と、表示中の各表示物の左眼用画像および右眼用画像の位置とから、各表示物の認識位置を算出する(S3)。図9に示す例では、家の表示物Aの認識位置が算出される場合、左眼の位置41から表示物Aの左眼用画像表示位置の中心51に延びる視線と、右眼の位置42から右眼用画像表示位置52の中心に延びる視線との交点が算出される。算出された交点の位置が、表示物Aの認識位置53とされる。算出された認識位置は、表示物管理情報(図6参照)として記憶される。CPU20は、カメラ5,6から入力された画像中のLED8の位置から、スタイラス7の三次元座標上の位置を検出する(S4)。
CPU20は、ディスプレイ2からスタイラス7までの距離が閾値以下であるか否かを判断する(S5)。検出位置情報(図7参照)のうち、最新のスタイラス7の位置を示す情報のzの値が、ディスプレイ2からスタイラス7までの距離となる。スタイラス7までの距離が閾値より大きい場合には(S5:NO)、CPU20は、ユーザによる表示物を選択する動作が行われていないと判断する。この場合、CPU20は、基本表示情報(図4参照)に基づいて、各表示物を基本となる位置(デフォルトの位置)に三次元表示する(S6)。この処理は公知の処理である。表示物をデフォルトの位置に表示させる場合、表示物の左眼用画像表示位置および右眼用画像表示位置は、ユーザの眼の位置に関わらず、基本表示情報から一意に求められる。求められた左眼用画像表示位置および右眼用画像表示位置は、表示物管理情報(図6参照)として記憶される。CPU20は、三次元表示を終了させる指示が操作部4によって入力されたか否かを判断する(S11)。入力されていなければ(S11:NO)、処理はS2へ戻る。
ディスプレイ2からスタイラス7までの距離が閾値以下となった場合には(S5:YES)、CPU20は、ユーザが表示物を選択する動作を行っていると判断し、表示物の認識位置を移動させる処理を行う。まず、スタイラス7までの距離がゼロ(z=0)であるか否かを判断する(S7)。タッチパネル3への入力がなく、スタイラス7までの距離がゼロでないと判断した場合には(S7:NO)、CPU20は、表示変更処理を行う(S8)。
図10に示すように、CPU20は、表示変更処理を開始すると、スタイラス7の軌跡を算出する(S20)。S20では、CPU20は、検出位置情報(図7参照)のスタイラス7の位置情報から、1回前の位置と最新の位置とを結ぶ直線を算出することで、スタイラス7の軌跡を算出する。CPU20は、三次元座標上に表示されている1または複数の表示物の認識位置のいずれかを、スタイラス7の軌跡が通過したか否かを判断する(S21)。本実施の形態では、認識位置を中心とした所定範囲内を軌跡が通過した場合に、スタイラス7の軌跡が認識位置を通過したと判断される。いずれの表示物の認識位置も通過していなければ(S21:NO)、処理はメイン処理へ戻る。いずれかの表示物の認識位置をスタイラス7の軌跡が通過していれば(S21:YES)、CPU20は、軌跡が通過した表示物を、ユーザが選択しようとしている選択候補の表示物に特定して(S22)、認識位置移動処理を行う(S23)。認識位置移動処理は、スタイラス7の移動方向に沿って、選択候補の表示物の認識位置を移動させる処理である。
図11に示すように、CPU20は、認識位置移動処理を開始すると、スタイラス7の軌跡の延長線上に、選択候補の表示物の移動後の認識位置である目標位置を設定する(S31)。本実施の形態の表示装置1は、選択候補の表示物の認識位置を段階的に移動させる。具体的には、表示装置1は、Z軸方向の距離が所定距離Dずつ変化するように、認識位置を移動させる。従って、CPU20は、スタイラス7がディスプレイ2に近づいている場合、S31において、スタイラス7の軌跡の延長線と、移動前の表示物の認識位置のzの値PよりもDだけディスプレイに近い位置に存在するX−Y平面との交点を算出する。本実施の形態では、各表示物の認識位置はディスプレイ2の表示面よりもユーザ側に存在するため、X−Y平面が存在する位置はz=P−Dとなる。また、スタイラス7がディスプレイ2から遠ざかる場合には、z=P+Dとなる。CPU20は、算出した交点の位置を、目標位置として設定する。
CPU20は、設定した目標位置のzの値が正であるか否かを判断する(S32)。zの値が正であれば(S32:YES)、CPU20は、目標位置と左右の眼の位置とから、選択候補の表示物を目標位置に表示させるための左眼用画像表示位置および右眼用画像表示位置を算出する(S33)。詳細には、CPU20は、左眼の位置と目標位置とを通る直線がディスプレイ2の表示面と交わる位置を、左眼用画像表示位置の中心として算出する。右眼の位置と目標位置とを通る直線が表示面と交わる位置を、右眼用画像表示位置の中心として算出する。CPU20は、算出した中心位置から、表示物を取り囲む矩形の領域の左上端および右下端の位置を算出し、表示物管理情報(図6参照)として記憶する。
CPU20は、算出した左眼用画像表示位置および右眼用画像表示位置の少なくとも一方が、他の表示物の左眼用表示位置または右眼用表示位置と重複しているか否かを判断する(S34)。重複していれば(S34:YES)、処理はS31へ戻り、zの値がさらにDだけ異なるX−Y平面に基づいて目標位置が再設定される。表示位置が重複していなければ(S34:NO)、CPU20は、算出したディスプレイ2上の表示位置に左眼用画像および右眼用画像を表示して(S36)、処理は表示変更処理へ戻る。
目標位置のzの値が0以下であれば(S32:NO)、CPU20は、選択候補の表示物をディスプレイ2上に二次元表示するための表示位置を算出する。S32の処理では、CPU20は、スタイラス7の軌跡の延長線とディスプレイ2の表示面との交点を、表示物の二次元画像の中心位置として算出する(S35)。CPU20は、算出したディスプレイ2上の表示位置に二次元画像を表示させて(S36)、処理は表示変更処理へ戻る。
図9の具体例を示して、認識位置移動処理についてさらに説明する。スタイラス7が図中の矢印方向Q方向に移動し、花の表示物Bの認識位置63を通過する。CPU20は、S31の処理において、認識位置63のzの値よりもDだけディスプレイ2に近い位置に存在するX−Y平面65と、スタイラス7の軌跡の延長線64との交点73の位置を算出する。CPU20は、算出した交点73の位置を、目標位置73として設定する。CPU20は、S33の処理において、左眼の位置41と目標位置73とを通る直線がディスプレイ2の表示面と交わる位置71を、左眼用画像表示位置の中心として算出する。CPU20は、右眼の位置42と目標位置73とを通る直線が表示面と交わる位置72を、右眼用表示位置の中心として算出する。CPU20は、位置71を中心として左眼用画像を、位置72を中心として右眼用画像をディスプレイ2に表示する。その結果、ユーザが認識する表示物Bの認識位置は、目標位置73へ移動する。
スタイラス7がさらにディスプレイ2に近づき、目標位置のzの値が0以下となると、CPU20は、表示物Bを二次元表示するための表示位置を算出する(S35)。二次元表示するための表示位置の中心は、スタイラス7の軌跡の延長線64とディスプレイ2の表示面との交点83とされる。CPU20は、位置83を中心として、表示物Bの二次元画像をディスプレイ2に表示する。
図10の説明に戻る。認識位置移動処理(S23)が終了すると、CPU20は、選択候補の表示物に関連情報が存在するか否かを、基本表示情報(図4参照)によって判断する(S24)。関連情報が存在しなければ(S24:NO)、処理はそのままメイン処理へ戻る。選択候補の表示物に関連情報が存在する場合には(S24:YES)、関連情報表示処理が行われて(S25)、処理はメイン処理(図8参照)へ戻り、S11の判断へ移行する。
図12に示すように、CPU20は、関連情報表示処理を開始すると、スタイラス7の位置がディスプレイ2の表示面から所定範囲内にあるか否かを判断する(S41)。検出位置情報(図7参照)のうち、最新のスタイラス7の位置を示す情報のzの値が0≦z≦T(Tは所定値)の範囲内になければ(S41:NO)、処理はそのまま表示変更処理へ戻る。zの値が0≦z≦Tの範囲内にあれば(S41:YES)、CPU20は、ディスプレイ2上に関連情報表示部15を生成する。関連情報表示部15内に、選択候補の表示物の関連情報を二次元表示する(S42)。換言すると、関連情報が、左全体画像および右全体画像における同一の位置に表示される。
CPU20は、関連情報の画像が、他の表示物の左眼用画像または左眼用画像に重複しているか否かを判断する(S43)。重複していなければ(S43:NO)、処理はそのまま表示変更処理へ戻る。重複している場合には(S43:YES)、CPU20は、左全体画像の一部および右全体画像の一部に表示されている関連情報のうち、他の左眼用画像または右眼用画像に重複している関連情報を非表示として(S44)、処理は表示変更処理へ戻る。その結果、表示装置1は、表示物の三次元表示が関連情報によって阻害されることを防止することができる。左全体画像および右全体画像のうちの一方で関連情報が非表示とされても、ユーザは、他方の全体画像によって表示されている関連情報を、ディスプレイ2の平面上に認識することができる。
図8の説明に戻る。スタイラス7がタッチパネル3に接触し、ディスプレイ2の表示面からスタイラス7までの距離がゼロとなったと判断した場合には(S7:YES)、CPU20は、スタイラス7の先端が接触した位置に画像が表示されているか否かを判断する(S9)。画像が表示されていなければ(S9:NO)、処理はそのままS11の判断へ移行する。画像が表示されていれば(S9:YES)、CPU20は、スタイラス7の位置に二次元表示されている表示物または関連情報を、ユーザが選択する表示物または関連情報として決定する(S10)。三次元表示を終了させる指示がユーザによって入力されると(S11:YES)、メイン処理は終了する。
以上説明したように、本実施の形態に係る表示装置1は、ユーザが認識している表示物の位置である認識位置が、スタイラス7の移動方向に沿って移動するように、表示物を立体視させるための左眼用画像の表示位置および右眼用画像の表示位置の少なくとも一方を変更することができる。タッチパネル3が、ディスプレイ2に表示されている表示物にスタイラス7が接触したことを検出すると、表示装置1は、スタイラス7が接触した表示物を、ユーザが選択する表示物として決定する。従って、ユーザは、スタイラス7の移動方向を変更することなく、選択しようとする表示物に向けて真っ直ぐにスタイラス7を移動させるだけで、所望する表示物を選択することができる。よって、ユーザは、三次元表示されている表示物を、容易且つ正確に選択することができる。
表示装置1は、スタイラス7の位置と認識位置とに基づいて、ユーザが選択しようとする選択候補の表示物を特定する。表示装置1は、特定した選択候補の表示物の左眼用画像の表示位置および右眼用画像の表示位置を変更する。その結果、選択候補の表示物の認識位置のみが、スタイラス7の移動方向に沿って移動する。従って、ユーザは、選択しようとする表示物を他の表示物の中で容易に認識しながらスタイラス7を操作することができる。より具体的には、表示装置1は、スタイラス7の軌跡の延長線が表示物の認識位置を通過する場合に、認識位置に表示されている表示物を、選択候補の表示物として特定する。換言すると、スタイラス7の位置および移動方向の両方を用いて、適切な表示物を選択候補として特定することができる。従って、表示装置1は、選択操作をやり直す作業をユーザに行わせる可能性を低下させることができる。
表示装置1は、選択候補の表示物の右眼用画像表示位置および左眼用画像表示位置を、立体視させる他の表示物の右眼用画像および左眼用画像に重複しない位置に変更する。従って、表示装置1は、画像同士が重なることを防止しつつ、表示物の認識位置を移動させることができる。よって、ユーザは、選択しようとする表示物を見失うことなく、所望する表示物を確実に選択することができる。
表示装置1は、スタイラス7の移動方向の延長線上に、移動後の認識位置を目標位置として設定する。表示装置1は、設定した目標位置に応じて、左眼用画像表示位置および右眼用画像表示位置を算出する。従って、表示装置1は、スタイラス7の移動方向に応じた適切な位置に認識位置を移動させることができる。
表示装置1は、ディスプレイ2の表示面とスタイラス7との間の距離が所定範囲内にあれば、選択候補の表示物に関連する関連情報をディスプレイ2に表示させることができる。従って、ユーザは、選択しようとする表示物に関連する情報を、実際に表示物を選択する前に容易に認識することができる。表示装置1は、ディスプレイ2から離れた位置にあるスタイラス7の位置を、カメラ5,6から入力された画像から的確に検出することができる。表示装置1は、スタイラス7がディスプレイ2に接触した場合には、スタイラス7の位置をタッチパネル3によって正確に検出することができる。
上記実施の形態において、表示装置1が本発明の「表示制御装置」に相当する。ディスプレイ2が本発明の「表示手段」に相当する。図8のS6および図11のS36で左眼用画像および右眼用画像をディスプレイ2に表示させるCPU20が「表示制御手段」として機能する。図8のS4でスタイラス7の位置を検出するCPU20が「第一検出手段」として機能する。図10のS20で、スタイラス7の軌跡を算出することでスタイラス7の移動方向を算出するCPU20が、本発明の「方向算出手段」として機能する。図11に示す認識位置移動処理を行うCPU20が「認識位置移動手段」として機能する。図8のS7,S9,S10でユーザが選択する表示物を決定するCPU20が「決定手段」として機能する。図8のS2でユーザの左右の眼の位置を検出するCPU20が「第二検出手段」として機能する。図8のS3で各表示物の認識位置を算出するCPU20が「認識位置算出手段」として機能する。
図10のS22で選択候補の表示物を特定するCPU20が「特定手段」として機能する。図12のS41でディスプレイ2からスタイラス7までの距離がT以下であるか否かを判断するCPU20が「判断手段」として機能する。図12のS42で表示物の関連情報をディスプレイ2に表示させるCPU20が「情報表示手段」として機能する。図11のS31で目標位置を設定するCPU20が「設定手段」として機能する。図11のS33で左眼用画像表示位置および右眼用画像表示位置を算出するCPU20が「移動位置算出手段」として機能する。図8のS4で、カメラ5,6によって入力される画像からスタイラス7の位置を検出するCPU20が「非接触検出手段」として機能する。
図8のS4でスタイラス7の位置を検出する処理が「第一検出ステップ」に相当する。図10のS20で、スタイラス7の軌跡を算出することでスタイラス7の移動方向を算出する処理が、本発明の「方向算出ステップ」に相当する。図11に示す認識位置移動処理を行う処理が「認識位置移動ステップ」に相当する。図8のS7,S9,S10でユーザが選択する表示物を決定する処理が「決定ステップ」に相当する。
本発明は、上記実施の形態に限定されることはなく、様々な変形が可能であることは言うまでもない。例えば、上記実施の形態では、画像を表示するディスプレイ2を備えた表示装置1が、表示物の認識位置を移動させる処理等を実行している。しかし、ディスプレイ2に接続されたパーソナルコンピュータ等の表示装置以外のデバイスが、認識位置を移動させる処理等を行ってもよい。換言すると、本発明の「表示制御装置」は、ディスプレイ2を備えない装置にも適用できる。
上記実施の形態の表示装置1は、カメラ5,6によって入力される画像に基づいてスタイラス7の位置を非接触で検出する。さらに、表示装置1は、スタイラス7がディスプレイ2に接触した場合に、タッチパネル3によってスタイラス7の位置を正確に検出する。しかし、タッチパネル3を用いずに、非接触の検出方法のみを用いてスタイラス7の位置を検出してもよい。ユーザが表示物を選択するために移動させる入力手段として、スタイラス7を用いる必要はない。例えば、入力手段としてユーザの指先を用いる場合にも、本発明は適用できる。この場合、表示制御装置は、カメラ5,6によって入力される画像に対して公知の画像処理を行い、指の先端部分の位置を検出することで、入力手段の位置を検出すればよい。ユーザの視点の位置も同様に、LED10を用いずに、画像処理の結果からユーザの顔を認識することで検出してもよい。眼鏡9にLED10を設ける場合には、LED10の数が3つに限られないことは言うまでもない。
上記実施の形態の表示装置1は、表示物の認識位置を移動させる場合、Z軸方向の距離が所定距離Dずつ変化するように、認識位置を移動させる。この処理も変更が可能である。例えば、認識位置を段階的に移動させるのではなく、ディスプレイ2の表示面上まで1回の処理で移動させてもよい。この場合、表示制御装置は、選択候補の表示物を特定した時点で、図11に示すS35の処理を行えばよい。この場合でも、表示物の認識位置はスタイラス7の移動方向に沿って移動する。従って、ユーザは、スタイラス7の移動方向を途中で変更することなく、真っ直ぐにスタイラス7を移動させるだけで表示物を選択することができる。
上記実施の形態の表示装置1は、複数の表示物がディスプレイ2に表示されている場合、選択候補の表示物を1つ特定し、特定した表示物の認識位置のみを移動させる。しかし、認識位置を移動させる表示物の数は1つに限られない。例えば、表示制御装置は、選択候補の表示物を特定せずに、全ての表示物をスタイラス7の移動方向に沿って移動させてもよい。この場合、CPU20は、選択候補の表示物を特定する必要がない。さらに、ユーザの眼の位置を検出する処理(S2)、認識位置を算出する処理(S3)等を行わずに、全ての表示物をスタイラス7の移動方向に沿って移動させてもいい。全ての表示物がスタイラス7の移動方向に沿って移動する場合でも、ユーザは、スタイラス7の移動方向を途中で変更することなく、所望の表示物を選択することができる。また、ユーザの眼の位置を検出することなく、表示物の認識位置を算出することも可能である。例えば、ユーザがディスプレイ2の正面の所定位置から画像を見ていると仮定し、ユーザの眼が位置すると想定される位置をあらかじめデフォルトの情報として記憶しておくことで、ユーザの眼の位置を検出することなく認識位置を算出することができる。
また、表示制御装置は、スタイラス7の軌跡が通過した表示物を特定するのではなく、スタイラス7の位置から所定範囲内にある表示物を、選択候補の表示物として特定してもよい。この場合、表示制御装置は、複数の表示物を容易に選択候補として特定することができる。ユーザは、特定された複数の選択候補の表示物の中から、最終的に所望の表示物を選択すればよい。
表示制御装置は、スタイラス7の軌跡が通過した表示物でなく、スタイラス7の移動方向の延長線上にある表示物を、選択候補の表示物として特定してもよい。この場合、表示制御装置は、認識位置がディスプレイ2の表示面よりも奥(z<0)にある表示物も、選択候補として抽出することができる。表示制御装置は、認識位置がディスプレイ2の表示面よりも奥にある表示物を選択候補として特定した場合、スタイラス7がディスプレイ2に近づいていれば、目標位置を元の認識位置よりもユーザ側(zの値が増加する側)に設定すればよい。逆に、スタイラス7がディスプレイ2から遠ざかる場合には、元の認識位置よりも奥側(zの値が減少する側)に目標位置を設定すればよい。
上記実施の形態の表示装置1は、パッシブ・ステレオ方式と呼ばれる技術を利用して表示物を立体視させる。しかし、本発明は、右眼用画像と左眼用画像とを表示することで表示物を立体視させる技術であれば、パッシブ・ステレオ方式以外の他の技術にも利用できる。例えば、アクティブ・ステレオ方式、視差バリア方式、レンチキュラー方式等の公知の技術を用いる場合でも、本発明は利用できる。
1 表示装置
2 ディスプレイ
3 タッチパネル
5 左カメラ
6 右カメラ
7 スタイラス
15 関連情報表示部
20 CPU
21 ROM
22 RAM
23 フラッシュメモリ
2 ディスプレイ
3 タッチパネル
5 左カメラ
6 右カメラ
7 スタイラス
15 関連情報表示部
20 CPU
21 ROM
22 RAM
23 フラッシュメモリ
Claims (9)
- 両眼視差による立体知覚を利用して表示物をユーザに立体視させるために、ユーザの左眼に視認させる前記表示物の画像である左眼用画像の画面上の表示位置と、ユーザの右眼に視認させる前記表示物の画像である右眼用画像の画面上の表示位置とを、ユーザに知覚させる奥行き距離に応じて左右方向に互いにずらして表示手段に表示させる表示制御手段を備えた表示制御装置であって、
前記表示手段によって表示されている表示物を選択するために前記ユーザが移動させる入力手段の位置を検出する第一検出手段と、
前記第一検出手段による前記入力手段の位置の検出結果を用いて、前記入力手段の移動方向を算出する方向算出手段と、
前記方向算出手段によって算出された前記入力手段の移動方向に応じて、前記左眼用画像の表示位置および前記右眼用画像の表示位置の少なくとも一方を変更することで、前記ユーザが認識する前記三次元画像中の表示物の位置である認識位置を前記入力手段の移動方向に沿って移動させる認識位置移動手段と、
前記第一検出手段によって検出された前記入力手段の位置と前記表示手段との間の距離がゼロとなった場合に、前記入力手段の位置に二次元表示されている表示物を、前記ユーザが選択する表示物として決定する決定手段と
を備えたことを特徴とする表示制御装置。 - ユーザの左右の眼の位置を検出する第二検出手段と、
前記第二検出手段によって検出された前記眼の位置と、前記左眼用画像および前記右眼用画像の表示位置とから、前記認識位置を算出する認識位置算出手段と、
少なくとも前記認識位置算出手段によって算出された前記認識位置と前記第一検出手段によって検出された前記入力手段の位置とに基づいて、前記左眼用画像および前記右眼用画像によって三次元表示されている1または複数の表示物の中から、前記ユーザが選択する候補となる表示物を特定する特定手段とをさらに備え、
前記認識位置移動手段は、前記特定手段によって特定された表示物の前記左眼用画像の表示位置および前記右眼用画像の表示位置の少なくとも一方を変更することを特徴とする請求項1に記載の表示制御装置。 - 前記認識位置移動手段は、前記特定手段によって特定された表示物の右眼用画像および左眼用画像の表示位置を、立体視させる他の表示物の右眼用画像および左眼用画像の表示位置と重複しない位置に変更することを特徴とする請求項2に記載の表示制御装置。
- 前記特定手段は、前記第一検出手段によって検出された前記入力手段の位置を通り、且つ前記方向算出手段によって算出された前記入力手段の移動方向に延びる直線上に前記認識位置が存在する表示物を、前記ユーザが選択する候補として特定することを特徴とする請求項2または3に記載の表示制御装置。
- 前記第一検出手段によって検出された前記入力手段の位置と前記表示手段との間の距離が閾値以下であるか否かを判断する判断手段と、
前記判断手段によって距離が閾値以下と判断された場合に、前記特定手段によって特定された表示物に関連する情報を前記表示手段に表示させる情報表示手段と
をさらに備えたことを特徴とする請求項2から4のいずれかに記載の表示制御装置。 - 前記認識位置移動手段は、
前記認識位置算出手段によって算出された前記認識位置を通り、且つ前記方向算出手段によって算出された移動方向に延びる直線上に、移動後の前記認識位置である目標位置を設定する設定手段と、
前記設定手段によって設定された前記目標位置と、前記第二検出手段によって検出された前記眼の位置とを用いて、前記認識位置が前記目標位置となる前記左眼用画像の表示位置および前記右眼用画像の表示位置を算出する移動位置算出手段とを備え、
表示物の前記左眼用画像の表示位置および前記右眼用画像の表示位置を、前記移動位置算出手段によって算出された位置に変更することを特徴とする請求項2から5のいずれかに記載の表示制御装置。 - 前記第一検出手段は、
画像を撮像する撮像手段によって撮像された前記入力手段の画像から前記入力手段の位置を検出する非接触検出手段と、
前記表示手段の表示面に設けられたタッチパネルと
を備えたことを特徴とする請求項1から6のいずれかに記載の表示制御装置。 - 両眼視差による立体知覚を利用して表示物をユーザに立体視させるために、ユーザの左眼に視認させる前記表示物の画像である左眼用画像の画面上の表示位置と、ユーザの右眼に視認させる前記表示物の画像である右眼用画像の画面上の表示位置とを、ユーザに知覚させる奥行き距離に応じて左右方向に互いにずらして表示手段に表示させる表示制御手段を備えた表示制御装置によって行われる表示制御方法であって、
前記表示手段によって表示されている表示物を選択するために前記ユーザが移動させる入力手段の位置を検出する第一検出ステップと、
前記第一検出ステップによる前記入力手段の位置の検出結果を用いて、前記入力手段の移動方向を算出する方向算出ステップと、
前記方向算出ステップによって算出された前記入力手段の移動方向に応じて、前記左眼用画像の表示位置および前記右眼用画像の表示位置の少なくとも一方を変更することで、前記ユーザが認識する前記三次元画像中の表示物の位置である認識位置を前記入力手段の移動方向に沿って移動させる認識位置移動ステップと、
前記第一検出ステップによって検出された前記入力手段の位置と前記表示手段との間の距離がゼロとなった場合に、前記入力手段の位置に二次元表示されている表示物を、前記ユーザが選択する表示物として決定する決定ステップと
を備えたことを特徴とする表示制御方法。 - 両眼視差による立体知覚を利用して表示物をユーザに立体視させるために、ユーザの左眼に視認させる前記表示物の画像である左眼用画像の画面上の表示位置と、ユーザの右眼に視認させる前記表示物の画像である右眼用画像の画面上の表示位置とを、ユーザに知覚させる奥行き距離に応じて左右方向に互いにずらして表示手段に表示させる表示制御手段を備えた表示制御装置に実行させる表示制御プログラムであって、
コンピュータに、
前記表示手段によって表示されている表示物を選択するために前記ユーザが移動させる入力手段の位置を検出する第一検出ステップと、
前記第一検出ステップによる前記入力手段の位置の検出結果を用いて、前記入力手段の移動方向を算出する方向算出ステップと、
前記方向算出ステップによって算出された前記入力手段の移動方向に応じて、前記左眼用画像の表示位置および前記右眼用画像の表示位置の少なくとも一方を変更することで、前記ユーザが認識する前記三次元画像中の表示物の位置である認識位置を前記入力手段の移動方向に沿って移動させる認識位置移動ステップと、
前記第一検出ステップによって検出された前記入力手段の位置と前記表示手段との間の距離がゼロとなった場合に、前記入力手段の位置に二次元表示されている表示物を、前記ユーザが選択する表示物として決定する決定ステップと
を実行させるための表示制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010042369A JP2011180690A (ja) | 2010-02-26 | 2010-02-26 | 表示制御装置、表示制御方法、および表示制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010042369A JP2011180690A (ja) | 2010-02-26 | 2010-02-26 | 表示制御装置、表示制御方法、および表示制御プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011180690A true JP2011180690A (ja) | 2011-09-15 |
Family
ID=44692157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010042369A Pending JP2011180690A (ja) | 2010-02-26 | 2010-02-26 | 表示制御装置、表示制御方法、および表示制御プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011180690A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014034049A1 (ja) | 2012-08-30 | 2014-03-06 | パナソニック株式会社 | スタイラス検出装置およびスタイラス検出方法 |
JP2016100024A (ja) * | 2014-11-25 | 2016-05-30 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 3次元相互作用のためのコンピュータ装置及び方法 |
WO2021157379A1 (ja) * | 2020-02-07 | 2021-08-12 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、並びにプログラム |
-
2010
- 2010-02-26 JP JP2010042369A patent/JP2011180690A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014034049A1 (ja) | 2012-08-30 | 2014-03-06 | パナソニック株式会社 | スタイラス検出装置およびスタイラス検出方法 |
US9513720B2 (en) | 2012-08-30 | 2016-12-06 | Panasonic Intellectual Property Corporation Of America | Stylus detecting device and stylus detecting method |
JP2016100024A (ja) * | 2014-11-25 | 2016-05-30 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 3次元相互作用のためのコンピュータ装置及び方法 |
KR20160062499A (ko) * | 2014-11-25 | 2016-06-02 | 삼성전자주식회사 | 3차원 상호작용 컴퓨팅 장치 및 방법 |
KR102310994B1 (ko) * | 2014-11-25 | 2021-10-08 | 삼성전자주식회사 | 3차원 상호작용 컴퓨팅 장치 및 방법 |
WO2021157379A1 (ja) * | 2020-02-07 | 2021-08-12 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、並びにプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2638461B1 (en) | Apparatus and method for user input for controlling displayed information | |
US8988499B2 (en) | Information processing apparatus, stereoscopic display method, and program | |
US8947352B2 (en) | Image processing apparatus capable of displaying operation item, method of controlling the same, image pickup apparatus, and storage medium | |
US9086742B2 (en) | Three-dimensional display device, three-dimensional image capturing device, and pointing determination method | |
US9727229B2 (en) | Stereoscopic display device, method for accepting instruction, and non-transitory computer-readable medium for recording program | |
WO2011114564A1 (ja) | 立体画像表示装置およびその制御方法 | |
US9432652B2 (en) | Information processing apparatus, stereoscopic display method, and program | |
CN102508548A (zh) | 一种电子信息设备的操作方法及系统 | |
US20120120064A1 (en) | Information Processing Apparatus, Stereoscopic Display Method, and Program | |
JP6065908B2 (ja) | 立体画像表示装置、そのカーソル表示方法及びコンピュータプログラム | |
US10334233B2 (en) | Portable device that controls photography mode, and control method therefor | |
JP2011180690A (ja) | 表示制御装置、表示制御方法、および表示制御プログラム | |
JP5976174B2 (ja) | 画像処理装置及びその制御方法、並びにプログラム | |
KR101807512B1 (ko) | 맵핑형 3차원 상호작용 장치 및 방법 | |
JP5950806B2 (ja) | 入力装置、情報処理方法、及び情報処理プログラム | |
JP2012194760A (ja) | 画像処理装置及びその制御方法、並びにプログラム | |
EP3059664A1 (en) | A method for controlling a device by gestures and a system for controlling a device by gestures | |
KR20120095139A (ko) | 양안 카메라가 적용된 사용자 인터페이스 장치 및 매뉴얼 컨버전스 제어방법 | |
JP2011215885A (ja) | 表示装置、表示制御方法、および表示制御プログラム | |
JP2014116843A (ja) | 画像処理装置、画像処理方法及びプログラム |