JP2008219788A - 立体画像表示装置、方法およびプログラム - Google Patents

立体画像表示装置、方法およびプログラム Download PDF

Info

Publication number
JP2008219788A
JP2008219788A JP2007057551A JP2007057551A JP2008219788A JP 2008219788 A JP2008219788 A JP 2008219788A JP 2007057551 A JP2007057551 A JP 2007057551A JP 2007057551 A JP2007057551 A JP 2007057551A JP 2008219788 A JP2008219788 A JP 2008219788A
Authority
JP
Japan
Prior art keywords
video
gripping device
image
display
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2007057551A
Other languages
English (en)
Inventor
Yuzo Hirayama
雄三 平山
Rieko Fukushima
理恵子 福島
Akira Morishita
明 森下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007057551A priority Critical patent/JP2008219788A/ja
Priority to PCT/JP2008/054105 priority patent/WO2008111495A1/en
Priority to US12/161,258 priority patent/US20100033479A1/en
Publication of JP2008219788A publication Critical patent/JP2008219788A/ja
Abandoned legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Liquid Crystal (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

【課題】インテグラルイメージング方式又は光線再生方式の立体画像表示装置において、三次元映像に対する操作性を向上させることが可能な立体画像表示装置、方法およびプログラムを提供する。
【解決手段】三次元表示面又は当該三次元表示面の近傍に配置された把持デバイスの位置及び向きを検出する検出手段と、前記把持デバイスの位置及び向きに基づいて、当該把持デバイスと連続又は近接する位置に前記三次元映像を表示させるための演算を行う計算処理手段と、前記計算処理手段による演算結果に基づいて、前記把持デバイスと連続又は近接する位置に前記三次元映像を連動三次元映像として表示させる表示制御手段と、を備える。
【選択図】 図2

Description

本発明は、実物体と連動した立体画像を生成する立体画像表示装置、方法およびプログラムに関する。
動画表示が可能な立体視画像表示装置、所謂3次元ディスプレイには、種々の方式が知られている。近年、特にフラットパネルタイプで、且つ、専用の眼鏡等を必要としない方式の要望が高くなっている。直視型或いは投影型の液晶表示装置やプラズマ表示装置などのような画素位置が固定されている表示パネル(表示装置)の直前に表示パネルからの光線を制御して観察者に向ける光線制御素子を設置する方式が比較的容易に実現できる方式として知られている。
この光線制御素子は、一般的にはパララクスバリアまたは視差バリアとも称せられ、光線制御素子上の同一位置でも角度により異なる画像が見えるように光線を制御している。具体的には、左右視差(水平視差)のみを与える場合には、光線制御素子として、スリット或いはレンチキュラーシート(シリンドリカルレンズアレイ)が使用される。また、上下視差(垂直視差)も含める場合には、光線制御素子として、ピンホールアレイ或いはレンズアレイが使用される。
視差バリアを使用する方式には、さらに2眼式、多眼式、超多眼式(多眼式の超多眼条件)、インテグラルイメージング(以下、「II方式」という)に分類される。これらの基本的な原理は、100年程度前に発明され立体写真に用いられてきたものと実質上同一である。
II方式でも多眼方式でも、通常は視距離が有限であるため、その視距離における透視投影画像が実際に見えるように表示画像を作成する。水平視差のみで垂直視差のないII方式では、視差バリアの水平方向ピッチが前記画素の水平方向ピッチの整数倍である場合は平行光線の組があるため、垂直方向がある一定視距離の透視投影であり水平方向が平行投影である画像を画素列ごとに分割し、表示面に表示される画像形式である視差合成画像に合成することで、正しい投影の立体像が得られる(例えば、特許文献1および特許文献2参照)。特にII方式では、実物体からの光線を再生しているため再生像(三次元映像)を直接指し示して操作するインタラクティブな用途に向いている。
これらの光線の再現による立体像の表示を目指す光線再生方式の3次元ディスプレイにおいて、多眼式の場合は視点数、II方式の場合はディスプレイ面を基底として方向の異なる光線数といった再現する光線の情報を増やすことで高品位な立体映像を再生することが可能である。
特開2004−295013号公報 特開2005−86414号公報
しかしながら、上述したII方式では、表示パネルの手前、即ち光学的実像側に再生された三次元映像(光学的実像)については、直接指し示すことは可能であるが、表示パネルの奥、即ち光学的虚像側に再生された三次元映像(光学的虚像)に対しては、表示パネル面により物理的に隔てられているため、直接指し示すことができないという問題がある。
本発明は上記に鑑みてなされたものであって、インテグラルイメージング方式又は光線再生方式の立体画像表示装置において、三次元映像に対する操作性を向上させることが可能な立体画像表示装置、方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、インテグラルイメージング方式又は光線再生方式により三次元映像の表示を行う立体画像表示装置において、三次元表示面上の表示空間及び当該表示空間の近傍に配置された把持デバイスの位置及び向きを検出する位置検出手段と、前記把持デバイスの位置及び向きに基づいて、当該把持デバイスと連続又は近接する位置に前記三次元映像を表示させるための演算を行う計算処理手段と、前記計算処理手段による演算結果に基づいて、前記把持デバイスと連続又は近接する位置に前記三次元映像を連動三次元映像として表示させる表示制御手段と、を備えている。
また、本発明は、インテグラルイメージング方式又は光線再生方式により三次元映像の表示を行う立体画像表示装置の立体画像表示方法であって、三次元表示面上の表示空間及び当該表示空間の近傍に配置された把持デバイスの位置及び向きを検出する位置検出工程と、前記把持デバイスの位置及び向きに基づいて、当該把持デバイスと連続又は近接する位置に前記三次元映像を表示させるための演算を行う計算処理工程と、前記計算処理工程による演算結果に基づいて、前記把持デバイスと連続又は近接する位置に前記三次元映像を連動三次元映像として表示させる表示制御工程と、を含む。
また、本発明は、インテグラルイメージング方式又は光線再生方式により三次元映像の表示を行う立体画像表示装置のコンピュータに、三次元表示面上の表示空間及び当該表示空間の近傍に配置された把持デバイスの位置及び向きを検出する位置検出機能と、前記把持デバイスの位置及び向きに基づいて、当該把持デバイスと連続又は近接する位置に前記三次元映像を表示させるための演算を行う計算処理機能と、前記計算処理機能による演算結果に基づいて、前記把持デバイスと連続又は近接する位置に前記三次元映像を連動三次元映像として表示させる表示制御機能と、を実現させる。
本発明によれば、連動三次元映像を把持デバイスに連続又は近接する位置に表示することで、連動三次元映像を把持デバイスと一体的に表示することが可能となり、連動三次元映像の表示分だけ把持デバイスを仮想的に延設した状態とすることができる。これにより、ユーザは把持デバイスを操作することで、当該把持デバイスに一体的に表示された連動三次元映像により、立体画像表示部に表示される他の三次元映像を直接指し示すことが可能となるため、三次元映像に対する操作性を向上させることができる。
以下に添付図面を参照して、立体画像表示装置、方法およびプログラムの最良な実施形態を詳細に説明する。
[第1の実施形態]
図1は、第1の実施形態にかかる立体画像表示装置100のハードウェア構成を示したブロック図である。立体画像表示装置100は、情報処理を行うCPU(Central Processing Unit)1、BIOS等を記憶した読み出し専用メモリであるROM(Read Only Memory)2、各種データを書き換え可能に記憶するRAM(Random Access Memory)3、立体画像の表示にかかる種々のコンテンツを予め格納する画像格納手段として機能するとともに、立体画像(三次元映像)の表示にかかるプログラム(立体画像表示プログラム)を格納するHDD(Hard Disk Drive)4、三次元映像を出力・表示するインテグラルイメージング方式又は光線再生方式の立体画像表示部5、ユーザが本装置に対して各種指示を入力したり各種情報を表示したりするユーザインタフェース(UI)6、ステレオカメラ71、72を有した撮影部7等から構成されている。なお、後述する立体画像表示装置101〜104においても、立体画像表示装置100と同様のハードウェア構成を備えるものとする。
立体画像表示装置100のCPU1は、立体画像表示プログラムに従って各種の演算処理を実行して各部を制御する。立体画像表示装置100のCPU1が立体画像表示プログラムに従って実行する本実施の形態の特徴的な処理について以下に説明する。
図2は、第1の実施形態にかかる立体画像表示装置100の機能的構成を示したブロック図である。図2に示すように、立体画像表示装置100は、CPU1が立体画像表示プログラムに従って各部を制御することにより、実物体位置検出部11と、三次元映像描画部12と、を備えることになる。
ここで、立体画像表示部5について説明する。図2に示したように、立体画像表示部5は、机上等に載置される平置き型であり、実空間における水平面である実水平面と表示面とが平行になるように設置される。なお、立体画像表示部5は、表示面が観察者に向くように、実水平面からやや傾斜して設置されても良い。このような立体画像表示部5は、三次元空間上の仮想平面上に二次元情報を含む三次元映像を表示する。ここで、二次元情報とは、二次元に表示される情報である。例えば、文字やアイコンなどがある。つまり、三次元映像として地図画像を表示するような場合には、地名や建物を識別するアイコンなどの二次元情報が地図画像に重畳して表示される。
図3は、立体画像表示部5の一般的な構成を示す構成図である。図3に示すように、立体画像表示部5は、例えば液晶パネルからなる画像表示素子51と、この画像表示素子51上に配設された光線制御素子52と、を備えている。
画像表示素子51は、表示面内に位置が定められた画素が平面的にマトリクス状に配置されているものであれば、直視型や投影型の液晶表示装置やプラズマ表示装置や電界放出型表示装置や有機EL表示装置などであってもよい。
光線制御素子52としては、その概略垂直方向に延び概略水平方向に周期構造を有しているレンティキュラーレンズアレイが使用されている。この場合、水平方向xにのみ視差があり視距離に応じて画像が変わるが、垂直方向yには視差がないために、観察位置によらず一定の画像が視認される。なお、図3において、符号Oは観察者の単眼の位置を示す。また、本実施の形態においては、光線制御素子52として、複数のレンズが並んで配置されているレンティキュラーレンズアレイを適用したが、これに限るものではなく、複数の開口部が並んで配置されているパララックスバリアであっても良い。
本実施の形態における立体画像表示部5の画像表示素子51の表示面においては、R(赤)、G(緑)、B(青)のサブピクセルがアレイ状に配置されている。なお、R(赤)、G(緑)、B(青)のサブピクセルは、カラーフィルタを表示面上に適切に配置することにより実現される。
図4に、II(Integral Imaging:インテグラルイメージング)方式の表示原理を示す。観測者の位置、あるいは、観測者の見る角度によって、第1視差の画像であるγ、第2視差の画像であるβ、第3視差の画像であるαという異なる画像を見ることになる。そのため、観測者は右目と左目に入る視差により、立体を知覚する。レンティキュラーレンズを光線制御素子52として用いた場合、スリットに比べて、光の利用効率が高いためディスプレイが明るいというメリットがある。なお、図4中、符号Lは視距離、符号lpはレンズピッチを示す。以下、立体画像表示部5の表示面(光線制御素子52面)上において、立体を知覚可能な空間を表示空間という。
このような立体画像表示部5に出力される画像は、各視差画像がインターリーブされているため、光線制御素子52無しで観察すると正常な画像とは認識されず、JPEGやMPEGといった画像圧縮をするのに適していない。そこで、画像格納手段(HDD4)には、各視差画像をアレイ状に並べた画像が予め圧縮された状態で格納されており、三次元映像の再生(表示)時の三次元映像描画部12においては、HDD4から読み出した画像をデコードして画像を復元するとともに、立体画像表示部5に出力できる形式の画像に変換するためにインターリーブ変換を行う。また、三次元映像描画部12は、デコードした画像をインターリーブ変換する前に、拡大縮小してサイズを変えることもできる。これは、サイズを変えてもインターリーブ変換は正しく行うことができるからである。
図2に戻り、実物体位置検出部11は、立体画像表示装置100の立体画像表示部5の表示空間内及び当該表示空間の近傍に配置された把持デバイス8の位置と、当該立体画像表示部5の表示面に対する把持デバイス8の向き(傾き)とを検出する。ここで把持デバイス8とは、ユーザの手により支持され、立体画像表示部5上で操作される実在物であって、例えば、図2に示したような棒状の物体を用いることができる。
把持デバイス8の位置と向きの検出方法は、種々の方法を採用することが可能である。なお、本実施形態では、下記の方策により把持デバイス8の位置と向きとを検出するものとする。以下、図5〜図7を参照して把持デバイス8の位置と向きの検出方法について説明する。
図5は、把持デバイス8の位置と向きの検出方法を説明するための図である。ここで、把持デバイス8の両端部付近には点状発光体81、82がそれぞれ設けられている。これら点状発光体81、82の発光光は、撮影部7のステレオカメラ71、72を用いて撮影され、撮影された画像が撮影情報として実物体位置検出部11に出力される。なお、ステレオカメラ71と、ステレオカメラ72とは予め定められた位置に配置されているものとし、両カメラが撮影する領域は、立体画像表示装置100の立体画像表示部5の光学的実像が表示可能な領域(表示空間)を含むものとする。
把持デバイス8に設けられる点状発光体81、82としては、例えば、赤外発光ダイオード等を用いることができる。なお、点状発光体81、82は、厳密に点光源である必要はなく、ある程度の大きさを有していてもよい。また、点状発光体81の光か点状発光体82の光かを識別可能とするため、点状発光体81及び82の発光色や発光点の大きさ、発光を行う時間間隔等の発光条件を互いに異ならしめることが好ましい。
図6は、把持デバイス8の位置及び向きを検出する原理を説明するための図である。把持デバイス8の一方の端部に設けられた点状発光体81の発光光は、ステレオカメラ71の撮像素子71a上に撮影像711として撮影されるとともに、ステレオカメラ72の撮像素子72a上に撮影像712として撮影される。一方、把持デバイス8の他方の端部に設けられた点状発光体82の発光光についても同様に、ステレオカメラ71の撮像素子71a上に撮影像721として撮影されるとともに、ステレオカメラ72の撮像素子72a上に撮影像722として撮影される。
実物体位置検出部11は、ステレオカメラ71及びステレオカメラ72により撮影された撮影画像に含まれる各発光光の撮影像から、把持デバイス8の位置と向きとを導出する。具体的に、実物体位置検出部11は、撮影像として記録された各発光点の位置と、予め定められたステレオカメラ71及びステレオカメラ72の位置関係と、から三角測量の原理に基づいて点状発光体81及び22の位置を検出する。
点状発光体81及び22の位置座標がそれぞれ分かれば、点状発光体81から点状発光体82に向かうベクトルは容易に算出できる。即ち、図7に示したように、点状発光体81の位置座標が(X1、Y1、Z1)であり、点状発光体82の位置座標が(X2、Y2、Z2)であったとすると、点状発光体82から点状発光体81へ向かうベクトルは、(X1−X2、Y1−Y2、Z1−Z2)と導出できる。実物体位置検出部11は、導出した点状発光体81、82間を結ぶベクトルを、把持デバイス8の立体画像表示部5に対する向き(傾き)とする。このような構成により、把持デバイス8の位置と向きとを簡便且つ正確に検出することができる。
なお、本実施形態では、図5〜7で説明した位置及び向きの検出方法を用いるものとするが、これに限らず、公知の技術を用いることしてもよい。例えば、磁気センサや超音波、ジャイロセンサ等を用いて把持デバイス8の位置と向きとを検出する態様としてもよい。
図2に戻り、三次元映像描画部12は、実物体位置検出部11により算出された把持デバイス8の位置と向きに基づいて、三次元映像を描画するための計算処理を行い、当該三次元映像を立体画像表示部5に描画することで、把持デバイス8と連続又は近接する位置に三次元映像30を表示させる。なお、三次元映像描画部12は、三次元画像の描画に際し、画像格納手段としてのHDD4から、表示を行う立体画像のコンテンツを読み出すものとする。
具体的には、三次元映像描画部12は、実物体位置検出部11により検出された位置座標(例えば、(X1、Y1、Z1))の点から、方向ベクトルが同じく実物体位置検出部11により算出された方向ベクトルと同じ方向(例えば、(X1−X2、Y1−Y2、Z1−Z2))となるような三次元映像30を描画する。このように描画された三次元映像30は、把持デバイス8と連続又は近傍する位置に表示される。以下、把持デバイス8と連続又は近接する位置に表示される三次元映像30を連動三次元映像30と言う。
図2では、把持デバイス8の端部と連続する位置に連動三次元映像30を表示させた例を示している。この図の場合、三次元映像描画部12は、点状発光体81及び82の何れか一方の位置を基準位置とし、当該基準位置から把持デバイス8の傾き方向にペン先状の連動三次元映像30を表示させている。なお、連動三次元映像30の形状は、図2の例に限らず、使用環境に応じて種々の形状が設定可能であるものとする。
また、図2の例では、点状発光体81又は82の位置を基準に、把持デバイス8の一方の端部と連続又は近接する位置に連動三次元映像30を表示させることとしたが、これに限らないものとする。例えば、点状発光体81及び82の位置を基準とし、把持デバイス8の両端部と連続又は近接する位置に連動三次元映像30を表示させる態様としてもよい。また、点状発光体81と82と間の位置を基準とし、把持デバイス8に連続又は近接する位置に連動三次元映像30を表示させる態様としてもよい。
このように、連動三次元映像30を把持デバイス8に連続又は近接する位置に表示することで、連動三次元映像30と把持デバイス8とを一体的に表示することが可能となり、連動三次元映像30の表示分だけ把持デバイス8を仮想的に延設した状態でユーザに提供することができる。これにより、ユーザは把持デバイス8を移動することで、当該把持デバイス8に一体的に表示された連動三次元映像30を移動することができるため、当該連動三次元映像30を直感的に操作することができる。
また、三次元映像描画部12は、計算処理時において、立体画像表示部5上における連動三次元映像30の表示位置を確認し、当該連動三次元映像30の一部又は全てを立体画像表示部5の表示面の奥、即ち、虚像側に表示させるような場合には、表示面の貫通分にあたる連動三次元映像30の一部又は全てを光学的虚像として表示させる。
即ち、三次元映像描画部12は、立体画像表示部5の表示面より奥(虚像側)では連動三次元映像30を光学的虚像として表し、立体画像表示部5の表示面の手前側(実像側)では連動三次元映像30を光学的実像として表す。これにより、立体画像表示部5の虚像側であっても、ユーザは、把持デバイス8を操作することで、連動三次元映像30により立体画像表示部5の虚像側を直接指し示すことができる。
例えば、図8に示したように、ユーザの操作により把持デバイス8が立体画像表示部5に近接し、連動三次元映像30が立体画像表示部5の表示面にかかるような場合には、三次元映像描画部12は、当該表示面の貫通分にあたる連動三次元映像30を光学的虚像32として表示させる。なお、立体画像表示部5の表示面上に位置する連動三次元映像30については、光学的実像31として表示させている。
以下、図9を参照して、本実施形態の立体画像表示装置100の動作を説明する。図9は、立体画像表示装置100の立体画像表示処理の手順を示したフローチャートである。
まず、ステレオカメラ71、72により、把持デバイス8に設けられた点状発光体81及び点状発光体82の発光光が撮影されると(ステップS11)、実物体位置検出部11は、ステレオカメラ71、72により取得された撮影情報に基づいて、立体画像表示部5に対する把持デバイス8の位置と向きとを導出する(ステップS12)。
次いで、三次元映像描画部12は、ステップS12で導出された位置及び向きに基づいて、把持デバイス8と連続又は近接する位置に三次元映像を描画させるための計算処理を実行し(ステップS13)、当該三次元映像を連動三次元映像30として把持デバイス8と連続又は近接する位置に表示させる(ステップS14)。
続くステップS15では、実物体位置検出部11が、本処理を終了するか否かを判定し、ステレオカメラ71、72から入力される撮影情報に発光光の撮影像が含まれるような場合には(ステップS15;No)、ステップS11へと再び戻る。
一方、ステップS15において、把持デバイス8がステレオカメラ71、72の撮影領域から外れる等の理由により、ステレオカメラ71、72から入力される撮影情報に発光光の撮影像が含まれないような場合には(ステップS15;Yes)、本処理を終了する。
以上のように、連動三次元映像30を把持デバイス8に連続又は近接する位置に表示することで、連動三次元映像30を把持デバイス8と一体的に表示することが可能となり、連動三次元映像30の表示分だけ把持デバイス8を仮想的に延設した状態とすることができる。これにより、ユーザは把持デバイス8を操作することで、当該把持デバイス8に一体的に表示された連動三次元映像30により、立体画像表示部5に表示される他のオブジェクト映像40を直接指し示すことが可能となるため、三次元映像に対する操作性を向上させることができる。
[第2の実施形態]
次に、第2の実施形態の立体画像表示装置について説明する。なお、上述した第1の実施形態と同様の構成要素については、同一の符号を付与し、その説明を省略する。
図10は、第2の実施形態にかかる立体画像表示装置101の機能構成を示した図である。図10に示したように、本実施形態の立体画像表示装置101は、CPU1が立体画像表示プログラムに従って各部を制御することにより、第1の実施形態で説明した実物体位置検出部11に加え、衝突判定部13及び三次元映像描画部14を備えている。
衝突判定部13は、三次元映像描画部14により表示される、連動三次元映像30以外の他の三次元映像(以下、オブジェクト映像という)40の位置と、把持デバイス8に付随して表示された連動三次元映像30の位置とに基づき、両三次元映像が衝突しているか否かを判定する。また、衝突判定部13は、両三次元映像が衝突していると判定した場合、両三次元映像の衝突位置に関する衝突位置情報を、三次元映像描画部14に出力する。なお、連動三次元映像30及びオブジェクト映像40の位置は、三次元映像描画部14による計算処理の結果等から取得できるようになっているものとする。
三次元映像描画部14は、上述した三次元映像描画部12と同様の機能を有し、把持デバイス8に連続又は近接する位置に連動三次元映像30を表示させるとともに、立体画像表示部5の実像側及び/又は虚像側にオブジェクト映像40を表示させる。
また、三次元映像描画部14は、衝突判定部13から入力される衝突位置情報に基づき、当該衝突位置情報から入力される衝突位置に対応するオブジェクト映像40の描画を変化させるよう制御する。
例えば、図10に示したように、オブジェクト映像40として三角錐41、球42、立方体43が表示された場合において、球42に連動三次元映像30が衝突(接触)したものとする。この場合、三次元映像描画部14は、衝突判定部13から入力される球42の衝突位置情報に基づいて、球42の描画を変化させ、例えば、衝突部位の形状を凹んだように表現したり、衝突部位に穴が空いたように表現したりする等の演出効果を表示させる。なお、本実施形態では、衝突したオブジェクト映像40の描画を変化させる態様としたが、連動三次元映像30の描画を変化させることとしてもよいし、両映像の描画を変化させることとしてもよい。
以下、図11を参照して、本実施形態の立体画像表示装置101の動作を説明する。図11は、立体画像表示装置101の立体画像表示処理の手順を示したフローチャートである。なお、本処理の前提として、オブジェクト映像40は、三次元映像描画部14により立体画像表示部5の所定位置に予め表示されているものとする。
まず、実物体位置検出部11は、ステレオカメラ71、72を制御し、把持デバイス8に設けられた点状発光体81、82の発光光を撮影させる(ステップS21)。続いて、実物体位置検出部11は、ステレオカメラ71、72により取得された撮影情報に基づいて、立体画像表示部5に対する把持デバイス8の位置と向きとを導出する(ステップS22)。
次いで、三次元映像描画部14は、ステップS22で導出された把持デバイス8の位置及び向きに基づいて、把持デバイス8と連続又は近接する位置に三次元映像を描画させるための計算処理を実行し(ステップS23)、当該三次元映像を連動三次元映像30として把持デバイス8と連続又は近接する位置に表示させる(ステップS24)。
続いて衝突判定部13は、三次元映像描画部14により表示された連動三次元映像30と、オブジェクト映像40との表示位置に基づいて、両映像が衝突しているか否かを判定する(ステップS25)。ここで、衝突判定部13により、連動三次元映像30とオブジェクト映像40とが衝突していないと判定された場合には(ステップS25;No)、ステップS27の処理へと直ちに移行する。
一方、ステップS25において、連動三次元映像30とオブジェクト映像40とが衝突していると判定された場合には(ステップS25;Yes)、三次元映像描画部14は、衝突判定部13により取得された衝突位置情報に基づいて、衝突位置に対応するオブジェクト映像40の描画を変化させ(ステップS26)、ステップS27の処理へと移行する。
続くステップS27では、実物体位置検出部11が、本処理を終了するか否かを判定し、ステレオカメラ71、72から把持デバイス8の位置情報が継続して入力されるような場合には(ステップS27;No)、ステップS21へと再び戻る。
一方、ステップS27において、把持デバイス8がステレオカメラ71、72の撮影領域から外れる等の理由により、把持デバイス8の位置情報の入力が停止したような場合には(ステップS27;Yes)、本処理を終了する。
以上のように、本実施形態によれば、当該把持デバイス8と連続又は近接する位置に表示された連動三次元映像30により、立体画像表示部5に表示される他の三次元映像を直接指し示すことが可能となるため、三次元映像に対する操作性を向上させることができる。
また、連動三次元映像30とオブジェクト映像40との衝突(接触)に応じて、オブジェクト映像40の表示を変化させることができるため、インタラクティブ性を向上させることができる。
なお、本実施形態では、衝突の判定時に、衝突したオブジェクト映像40の描画のみを変化させる態様としたが、これに限らず、衝突したオブジェクト映像40の描画を変化させず、連動三次元映像30の描画のみを変化させる態様としてもよいし、両三次元映像の描写を変化させる態様としてもよい。
[第3の実施形態]
次に、第3の実施形態の立体画像表示装置について説明する。なお、上述した第1の実施形態及び第2の実施形態と同様の構成要素については、同一の符号を付与し、その説明を省略する。
図12は、第3の実施形態にかかる立体画像表示装置102の機能構成を示した図である。図12に示したように、本実施形態の立体画像表示装置102は、CPU1が立体画像表示プログラムに従って各部を制御することにより、上述した実物体位置検出部11及び衝突判定部13に加え、領域判定部15と、三次元映像描画部16とを備えている。
領域判定部15は、実物体位置検出部11により導出された把持デバイス8の位置と向きに基づいて、当該把持デバイス8が、立体画像表示部5近傍に設定された空間領域A内に存在するか否かを判定し、この判定結果を空間位置情報として三次元映像描画部16に出力する。
具体的に、領域判定部15は、予め記憶された空間領域Aの座標データと、実物体位置検出部11により導出された把持デバイス8の位置及び向きとを比較し、把持デバイス8が空間領域Aの外部に位置するようであれば、その旨を指示する空間位置情報を三次元映像描画部16に出力する。ここで、空間領域Aの座標データは、HDD4(画像格納手段)に予め記憶されているものとする。なお、空間領域Aとして設定する領域は、立体画像表示部5に表示される三次元映像が良好に観察できる領域(表示空間)と略一致させた領域とすることが好ましい。
また、本実施形態では、空間位置情報として、把持デバイス8が空間領域Aの外部に存在することを指示する情報の出力を行うものとするが、例えば、空間領域Aと連動三次元映像30との相対的な位置関係を示した情報を、空間位置情報として出力する態様としてもよい。この場合、連動三次元映像30が空間領域A内の境界近傍に位置すると判断した段階で、当該空間領域Aと連動三次元映像30との相対的な位置関係を出力する態様としてもよい。
三次元映像描画部16は、上述した三次元映像描画部14と同様の機能を有する。また、三次元映像描画部16は、領域判定部15から入力される空間位置情報に基づき、把持デバイス8が空間領域Aの外部に位置することを確認すると、連動三次元映像30の描画時の透明度を100(%)からゼロに切り替え、表示を行わないよう制御する。
以下、図13を参照して、本実施形態の立体画像表示装置102の動作を説明する。図13は、立体画像表示装置102の立体画像表示処理の手順を示したフローチャートである。なお、本処理の前提として、オブジェクト映像40は、三次元映像描画部16により立体画像表示部5の所定位置に予め表示されているものとする。
まず、実物体位置検出部11は、ステレオカメラ71、72を制御し、把持デバイス8に設けられた点状発光体81、82の発光光を撮影させる(ステップS31)。続いて、実物体位置検出部11は、ステレオカメラ71、72により取得された撮影情報に基づいて、立体画像表示部5に対する把持デバイス8の位置と向きとを算出する(ステップS32)。
続いて、三次元映像描画部16は、ステップS32で導出された把持デバイス8の位置及び向きに基づいて、把持デバイス8と連続又は近接する位置に三次元映像を描画させるための計算処理を実行する(ステップS33)。ここで、領域判定部15は、ステップS32で算出された把持デバイス8の位置及び向きと、空間領域Aの座標データとを比較し、把持デバイス8が空間領域A内に存在するか否かを判定する(ステップS34)。
ステップS34において、領域判定部15により、把持デバイス8が空間領域A内に存在しないと判定された場合(ステップS34;No)、三次元映像描画部16は、この判定結果に基づいて、連動三次元映像30の描画時の透明度をゼロに設定した後(ステップS35)、ステップS39の処理へと移行する。
また、ステップS34において、領域判定部15により、把持デバイス8が空間領域A内に存在する判定された場合には(ステップS34;Yes)、三次元映像描画部16は、ステップS33で計算処理した三次元映像を連動三次元映像30として把持デバイス8と連続又は近接する位置に表示させる(ステップS36)。
続いて衝突判定部13は、三次元映像描画部16により表示された連動三次元映像30と、オブジェクト映像40との表示位置に基づいて、両映像が衝突しているか否かを判定する(ステップS37)。ここで、衝突判定部13により、連動三次元映像30とオブジェクト映像40とが衝突していないと判定された場合には(ステップS37;No)、ステップS39の処理へと直ちに移行する。
一方、ステップS37において、連動三次元映像30とオブジェクト映像40とが衝突していると判定された場合には(ステップS37;Yes)、三次元映像描画部16は、衝突判定部13により取得された衝突位置情報に基づいて、衝突位置に対応するオブジェクト映像40の描画を変化させ(ステップS38)、ステップS39の処理へと移行する。
続くステップS39では、実物体位置検出部11が、本処理を終了するか否かを判定し、ステレオカメラ71、72から把持デバイス8の位置情報が継続して入力されるような場合には(ステップS39;No)、ステップS31へと再び戻る。
一方、ステップS39において、把持デバイス8がステレオカメラ71、72の撮影領域から外れる等の理由により、把持デバイス8の位置情報の入力が停止したような場合には(ステップS39;Yes)、本処理を終了する。
以上のように、本実施形態によれば、把持デバイス8が三次元映像の表示限界より遠くにある場合、画像を表示しないようにすることができるため、必要以上に連動三次元映像30を表示しないよう制御することができる。
なお、本実施形態では、把持デバイス8が空間領域Aの外部に存在した場合、当該把持デバイス8に付随する連動三次元映像30の描画時の透明度を100からゼロに切り替えることで、当該連動三次元映像30の表示を行わない態様としたが、これに限らないものとする。例えば、領域判定部15から、空間領域Aと連動三次元映像30との相対的な位置関係が、空間位置情報として出力されるような場合には、三次元映像描画部16は、この相対的な位置関係に応じて、連動三次元映像30の描画時の透明度を段階的に変化させる態様としてもよい。この場合、例えば、把持デバイス8が空間領域Aの境界部分に近付くほど、連動三次元映像30の描画時の透明度を段階的に低下させることで、連動三次元映像30の消失をより自然に表現することができる。
[第4の実施形態]
次に、第4の実施形態の立体画像表示装置について説明する。なお、上述した第1の実施形態及び第2の実施形態と同様の構成要素については、同一の符号を付与し、その説明を省略する。
図14は、第4の実施形態にかかる立体画像表示装置103の機能構成を示した図である。図14に示したように、本実施形態の立体画像表示装置103は、CPU1が立体画像表示プログラムに従って各部を制御することにより、上述した実物体位置検出部11及び衝突判定部13に加え、三次元映像描画部17を備えている。
三次元映像描画部17は、上述した三次元映像描画部14と同様の機能を有するとともに、図14に示したように、連動三次元映像30として表示可能な複数の三次元映像を、画像候補61〜63として選択領域60内に表示させる。なお、画像候補の個数や形状は、図示例に限らないものとする。また、本実施形態では、画像候補として三次元映像を表示する態様としたが、これに限らず、例えば、三次元映像を象徴的に表したアイコン画像や、三次元映像の形状を表した文字情報(例えば、「フォーク」、「スプーン」、「ナイフ」)等であってもよい。
また、三次元映像描画部17は、選択領域60内の画像候補61〜63のうち、特定の画像候補に連動三次元映像30が衝突(接触)したことを指示する衝突位置情報を衝突判定部13から受け取ると、当該衝突位置情報で指示された衝突位置の画像候補に対応する三次元映像を、連動三次元映像30として表示させる。なお、画像候補として表示される三次元映像は、HDD4(画像格納手段)に予め格納されているものとする。
図14では、連動三次元映像30が画像候補61に接触されたことで、当該画像候補61に対応する、フォーク形状の連動三次元映像30が把持デバイス8の一端部に表示された例を示している。ここで、連動三次元映像30により他の画像候補(画像候補62又は63)が接触された場合には、接触された画像候補の三次元映像に、連動三次元映像30の表示が切り替えられる。
以下、図15を参照して、本実施形態の立体画像表示装置103の動作を説明する。図15は、立体画像表示装置103の立体画像表示処理の手順を示したフローチャートである。なお、本処理の前提として、オブジェクト映像40は、三次元映像描画部17により立体画像表示部5の所定位置に予め表示されているものとする。
まず、実物体位置検出部11は、ステレオカメラ71、72を制御し、把持デバイス8に設けられた点状発光体81、82の発光光を撮影させる(ステップS41)。続いて、実物体位置検出部11は、ステレオカメラ71、72により取得された撮影情報に基づいて、立体画像表示部5に対する把持デバイス8の位置と向きとを導出する(ステップS42)。
次いで、三次元映像描画部17は、ステップS42で導出された把持デバイス8の位置及び向きに基づいて、把持デバイス8と連続又は近接する位置に三次元映像を描画させるための計算処理を実行し(ステップS43)、当該三次元映像を連動三次元映像30として把持デバイス8と連続又は近接する位置に表示させる(ステップS44)。
続いて衝突判定部13は、三次元映像描画部17により表示された連動三次元映像30と、オブジェクト映像40又は画像候補61〜63の何れかと、が衝突しているか否かを判定する(ステップS45)。ここで、衝突判定部13により、連動三次元映像30が何れの映像(画像)にも衝突していないと判定された場合には(ステップS45;No)、ステップS49の処理へと直ちに移行する。
一方、ステップS45において、連動三次元映像30と、オブジェクト映像40又は画像候補61〜63の何れかと、が衝突していると判定された場合には(ステップS45;Yes)、三次元映像描画部17は、衝突判定部13により取得された衝突位置情報に基づいて、連動三次元映像30と画像候補61〜63の何れかとが衝突しているか否かを判定する(ステップS46)。
ここで、三次元映像描画部17は、連動三次元映像30と画像候補61〜63の何れかとが衝突していると判定した場合には(ステップS46;Yes)、衝突位置の画像候補に対応する三次元映像を、連動三次元映像30として表示させ(ステップS58)、ステップS49の処理へと移行する。
一方、ステップS46において、連動三次元映像30とオブジェクト映像40とが衝突していると判定した場合には(ステップS46;No)、三次元映像描画部17は、衝突判定部13により取得された衝突位置情報に基づいて、衝突位置に対応するオブジェクト映像40の描画を変化させ(ステップS48)、ステップS49の処理へと移行する。
続くステップS49では、実物体位置検出部11が、本処理を終了するか否かを判定し、ステレオカメラ71、72から把持デバイス8の位置情報が継続して入力されるような場合には(ステップS49;No)、ステップS41へと再び戻る。
一方、ステップS49において、把持デバイス8がステレオカメラ71、72の撮影領域から外れる等の理由により、把持デバイス8の位置情報の入力が停止したような場合には(ステップS49;Yes)、本処理を終了する。
以上のように、本実施形態によれば、連動三次元映像30の画像を簡便に変更することができるため、インタラクティブ性を向上させることができる。
[第5の実施形態]
次に、第5の実施形態の立体画像表示装置について説明する。なお、上述した第1の実施形態及び第2の実施形態と同様の構成要素については、同一の符号を付与し、その説明を省略する。
図16は、第5の実施形態にかかる立体画像表示装置104の機能構成を示した図である。図16に示したように、本実施形態の立体画像表示装置104は、CPU1が立体画像表示プログラムに従って各部を制御することにより、上述した実物体位置検出部11、衝突判定部13に加え、回転角度検出部18と三次元映像描画部19とを備えている。
回転角度検出部18は、把持デバイス8の所定の軸周りにおける回転角度を検出する。回転角度の検出方法は、種々の方式を採用することが可能であるが、本実施形態では、下記の方策により把持デバイス8の所定の軸周りにおける回転角度を検出するものとする。以下、図17〜図22を参照して把持デバイス8の回転角度の検出方法について説明する。
図17は、把持デバイス8の軸Bの周りにおける回転角度の検出方法を説明するための図である。ここで、把持デバイス8の軸B方向における一方の端部付近には点状発光体83が設けられており、他方の端部付近には線状発光体84が設けられている。点状発光体83及び線状発光体84の発光光は、上述したステレオカメラ71、72により撮影され、撮影情報として実物体位置検出部11及び回転角度検出部18に出力される。なお、図18において右図は、軸Bに対して左方向に回転したときの発光光の見え方を示しており、左図は、軸Bに対して右方向の回転したときの発光光の見え方を示している。
点状発光体83は、上述した点状発光体81、82と同様、発光ダイオード等の点光源から構成することができる。線状発光体84は、把持デバイス8の軸Bの周りを一周するように設けられている。この線状発光体84は、例えば、光を導光する透明円盤と、その中心部に設置した発光ダイオードとから構成することができる。このように構成することで、発光ダイオードから放射した光が、透明円盤の内部を伝わることで、円盤外周部から外部に放射され、線状発光体84が形成されることとなる。なお、回転角度の判定の基準となる把持デバイス8の軸方向は、任意に設定可能であるものとするが、ユーザにより把持される位置に応じて設定することが好ましい。
図19は、図18で示した把持デバイス8をステレオカメラ71、72により撮影したときの撮影像を示している。図19の左図は、図18の左図で示した把持デバイス8から放射された発光光の撮影像を示しており、図19の右図は、図18の右図で示した把持デバイス8から放射された発光光の撮影像を示している。なお、図19において、撮影像723は点状発光体83からの発光光に対応しており、撮影像724は線状発光体84からの発光光に対応している。
図19に示したように、把持デバイス8のA軸周りの回転に伴い、点状発光体83の撮影像724と線状発光体84の撮影像724との位置関係は変化する。すなわち点状発光体83の撮影像723と線状発光体84の撮影像724との位置関係から、把持デバイス8がA軸周りにどのくらい回転したかを算出することができ、把持デバイス8の回転角度を簡便且つ正確に検出することできる。
回転角度検出部18は、ステレオカメラ71及びステレオカメラ72から入力された撮影画像に含まれる各発光光の撮影像から、上述した原理により把持デバイス8の所定の軸周りの回転角度を導出し、角度情報として三次元映像描画部19に出力する。
なお、実物体位置検出部11は、上記同様、ステレオカメラ71及びステレオカメラ72から入力された撮影画像に含まれる各発光光の撮影像から、把持デバイス8の位置と向きを導出するものとする。
図17〜図19では、把持デバイス8に一の点状発光体83を設けた構成を説明したが、点状発光体83の個数はこれに限らないものとする。例えば、図20に示したように、複数の点状発光体83(831〜833)を把持デバイス8に設けた構成としてもよい。この図では、把持デバイス8に、三個の点状発光体831〜833を各々120度の角度間隔で設けた例を示している。
図21は、図20に示した把持デバイス8を説明するための図であって、当該把持デバイス8の展開図を示している。図21に示したように、点状発光体831〜833は、それぞれの点状発光体を識別可能とするため、把持デバイス8の軸方向の異なる位置に設けられている。このように点状発光体831〜833を配置することで、把持デバイス8の軸周りのどの場所から見ても、常に点状発光体831〜833の何れかをステレオカメラ71、72で撮影することが可能となる。
図22は、図20で示した把持デバイス8の構成での回転角度を検出する原理を説明するための図であって、ステレオカメラ71又は72で撮影された撮影画像を示している。ここで、731は点状発光体831〜833のうち何れか一の発光光の撮影像を示しており、また、724は線状発光体84に発光光の撮影像を示している。ここで、点状発光体の撮影像731から線状発光体の撮影像741までの高さhを導出することにより、回転角度を120度の角度間隔で3つに区分けした場合に、どの角度領域に含まれるかを特定することができる。このように、大まかな角度領域が特定できれば、詳細な角度は既に説明したように線状発光体の撮影像724と点状発光体の撮影像731との左右の位置関係wから算出することができる。
図16に戻り、三次元映像描画部19は、上述した三次元映像描画部14と同様の機能を有するとともに、回転角度検出部18から入力される把持デバイス8の軸周りの回転角度に応じた連動三次元映像30を、把持デバイス8と連続又は近接する位置に表示させる。具体的に、三次元映像描画部19は、把持デバイス8の軸方向と同一の軸方向を連動三次元映像30に設定し、当該軸周りに回転角度に応じた角度だけ回転させた状態で連動三次元映像30を表示させる。
以下、図23を参照して、本実施形態の立体画像表示装置104の動作を説明する。図23は、立体画像表示装置104の立体画像表示処理の手順を示したフローチャートである。なお、本処理の前提として、オブジェクト映像40は、三次元映像描画部19により立体画像表示部5の所定位置に予め表示されているものとする。
まず、実物体位置検出部11は、ステレオカメラ71、72を制御し、把持デバイス8に設けられた点状発光体83及び線状発光体84の発光光を撮影させる(ステップS51)。続いて、実物体位置検出部11は、ステレオカメラ71、72により取得された撮影情報に基づいて、立体画像表示部5に対する把持デバイス8の位置と向きとを導出する(ステップS52)。
次いで、回転角度検出部18は、ステレオカメラ71、72により取得された撮影情報に基づいて、把持デバイス8における所定の軸周りの回転角度を導出する(ステップS53)。続いて、三次元映像描画部19は、ステップS52で導出された把持デバイス8の位置及び向きと、ステップS53で導出された把持デバイス8の回転角度とに基づいて、把持デバイス8と連続又は近接する位置に三次元映像を描画させるための計算処理を実行し(ステップS54)、当該三次元映像を連動三次元映像30として把持デバイス8と連続又は近接する位置に表示させる(ステップS55)。
続いて衝突判定部13は、三次元映像描画部19により表示された連動三次元映像30と、オブジェクト映像40との表示位置に基づいて、両映像が衝突しているか否かを判定する(ステップS56)。ここで、衝突判定部13により、連動三次元映像30とオブジェクト映像40とが衝突していないと判定された場合には(ステップS56;No)、ステップS58の処理へと直ちに移行する。
一方、ステップS56において、連動三次元映像30とオブジェクト映像40とが衝突していると判定された場合には(ステップS56;Yes)、三次元映像描画部19は、衝突判定部13により取得された衝突位置情報に基づいて、衝突位置に対応するオブジェクト映像40の描画を変化させ(ステップS57)、ステップS58の処理へと移行する。
続くステップS58では、実物体位置検出部11が、本処理を終了するか否かを判定し、ステレオカメラ71、72から入力される撮影情報に発光光の撮影像が含まれるような場合には(ステップS58;No)、ステップS51へと再び戻る。
一方、ステップS58において、把持デバイス8がステレオカメラ71、72の撮影領域から外れる等の理由により、ステレオカメラ71、72から入力される撮影情報に発光光の撮影像が含まれないような場合には(ステップS58;Yes)、本処理を終了する。
以上のように、本実施形態によれば、把持デバイス8の回転角度に応じて、連動三次元映像30の表示を変化させることができるため、連動三次元映像30をより現実的に表示することが可能となり、インタラクティブ性をより向上させることができる。
以上、発明の実施の形態について説明したが、本発明はこれに限定されるものではなく、本発明の主旨を逸脱しない範囲での種々の変更、置換、追加などが可能である。例えば、CPUと共にGPU(Graphics Processing Unit)を併用して演算を高速化を図ることも可能である。
なお、本実施形態の立体画像表示装置100で実行されるプログラムは、ROM2又はHDD4に予め組み込まれて提供するものとするが、これに限らず、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、このプログラムをインターネット等のネットワークに接続されたコンピュータ上に格納し、ニットワーク経由でダウンロードさせることにより提供するように構成してもよく、インターネット等のネットワーク経由で提供又は配布するように構成してもよい。
立体画像表示装置のハードウェア構成を示した図である。 立体画像表示装置の機能的構成の一例を示した図である。 立体画像表示部の構成を示した図である。 II方式を説明するための図である。 把持デバイスの位置と向きの検出方法を説明するための図である。 把持デバイスの位置と向きの検出原理を示した図である。 把持デバイスの位置と向きの検出原理を示した図である。 立体画像表示部と把持デバイスとの関係を示した図である。 立体画像表示処理の一例を示したフローチャートである。 立体画像表示装置の機能的構成の一例を示した図である。 立体画像表示処理の一例を示したフローチャートである。 立体画像表示装置の機能的構成の一例を示した図である。 立体画像表示処理の一例を示したフローチャートである。 立体画像表示装置の機能的構成の一例を示した図である。 立体画像表示処理の一例を示したフローチャートである。 立体画像表示装置の機能的構成の一例を示した図である。 把持デバイスの回転角度の検出方法を説明するための図である。 把持デバイスの回転角度の検出原理を示した図である。 把持デバイスの回転角度の検出原理を示した図である。 把持デバイスに設けられた点状発光体を示した図である。 把持デバイスの回転角度の検出方法を説明するための図である。 把持デバイスの回転角度の検出原理を説明するための図である。 立体画像表示処理の一例を示したフローチャートである。
符号の説明
100 立体画像表示装置
101 立体画像表示装置
102 立体画像表示装置
103 立体画像表示装置
104 立体画像表示装置
1 CPU
2 ROM
3 RAM
4 HDD
5 立体画像表示部
51 画像表示素子
52 光線方向限定素子
53 1実効画素
6 ユーザインタフェース
7 撮影部
71 ステレオカメラ
71a 撮像素子
72 ステレオカメラ
72a 撮像素子
8 把持デバイス
81 点状発光体
82 点状発光体
83 点状発光体
84 線状発光体
11 実物体位置検出部
12 三次元映像描画部
13 衝突判定部
14 三次元映像描画部
15 計算処理部
16 三次元映像描画部
17 三次元映像描画部
18 回転角度検出部
19 三次元映像描画部
30 三次元映像(連動三次元映像)
31 光学的実像
32 光学的虚像
40 三次元映像(オブジェクト映像)

Claims (10)

  1. インテグラルイメージング方式又は光線再生方式により三次元映像の表示を行う立体画像表示装置において、
    三次元表示面上の表示空間及び当該表示空間の近傍に配置されたユーザが把持する把持デバイスの位置及び向きを検出する位置検出手段と、
    前記把持デバイスの位置及び向きに基づいて、当該把持デバイスと連続又は近接する位置に前記三次元映像を表示させるための演算を行う計算処理手段と、
    前記計算処理手段による演算結果に基づいて、前記把持デバイスと連続又は近接する位置に前記三次元映像を連動三次元映像として表示させる表示制御手段と、
    を備えたことを特徴とする立体画像表示装置。
  2. 前記表示制御手段は、前記三次元表示面の実像側では前記連動三次元映像を光学的実像として表示させ、前記三次元表示面の虚像側では前記連動三次元映像を光学的虚像として表示させることを特徴とする請求項1に記載の立体画像表示装置。
  3. 前記連動三次元映像の表示位置と、当該連動三次元映像以外の他の三次元映像の表示位置とに基づいて、当該連動三次元映像と他の三次元映像とが衝突したか否かを判定する衝突判定手段をさらに備え、
    前記表示制御手段は、前記衝突判定手段の判定結果に応じて、前記連動三次元映像及び/又は他の三次元映像の描画を変化させることを特徴とする請求項2に記載の立体画像表示装置。
  4. 前記三次元表示面上における所定の空間領域を定義した座標データと、前記実物体の位置及び向きとに基づき、前記空間領域内に前記実物体が存在するか否かを判定する領域判定手段をさらに備え、
    前記表示制御手段は、前記領域判定手段の判定結果に応じて、前記連動三次元映像の描画を変化させることを特徴とする請求項3に記載の立体画像表示装置。
  5. 前記把持デバイスに設けられた少なくとも2つ以上の点状発光体を撮影し、撮影画像を生成する撮影手段をさらに備え、
    前記位置検出手段は、前記撮影画像に含まれた前記点状発光体の撮影像の位置関係に基づいて、前記把持デバイスの位置及び向きを導出することを特徴とする請求項3に記載の立体画像表示装置。
  6. 前記連動三次元映像として表示可能な複数の三次元映像を候補画像として、前記三次元表示面に表示させる選択候補表示手段と、
    前記候補画像のうち、一の三次元映像の指定を受け付ける選択受付手段と、
    を備え、
    前記表示制御手段は、前記指定を受け付けた三次元映像を連動三次元映像として表示させることを特徴とする請求項3に記載の立体画像表示装置。
  7. 前記把持デバイスの回転角度を検出する回転検出手段をさらに備え、
    前記表示制御手段は、前記把持デバイスの回転角度に応じて前記連動三次元映像の描画を変化させることを特徴とする請求項3に記載の立体画像表示装置。
  8. 前記把持デバイスに設けられた少なくとも1つ以上の点状発光体と、当該把持デバイスの周囲に設けられた線状発光体とを撮影し、撮影画像を生成する撮影手段をさらに備え、
    前記回転検出手段は、前記撮影画像に含まれた前記点状発光体及び線状発光体の撮影像の位置関係に基づいて、前記把持デバイスの回転角度を導出することを特徴とする請求項7に記載の立体画像表示装置。
  9. インテグラルイメージング方式又は光線再生方式により三次元映像の表示を行う立体画像表示装置の立体画像表示方法であって、
    三次元表示面上の表示空間及び当該表示空間の近傍に配置されたユーザが把持する把持デバイスの位置及び向きを検出する位置検出工程と、
    前記把持デバイスの位置及び向きに基づいて、当該把持デバイスと連続又は近接する位置に前記三次元映像を表示させるための演算を行う計算処理工程と、
    前記計算処理工程による演算結果に基づいて、前記把持デバイスと連続又は近接する位置に前記三次元映像を連動三次元映像として表示させる表示制御工程と、
    を含むことを特徴とする立体画像表示方法。
  10. インテグラルイメージング方式又は光線再生方式により三次元映像の表示を行う立体画像表示装置のコンピュータに、
    三次元表示面上の表示空間及び当該表示空間の近傍に配置されたユーザが把持する把持デバイスの位置及び向きを検出する位置検出機能と、
    前記把持デバイスの位置及び向きに基づいて、当該把持デバイスと連続又は近接する位置に前記三次元映像を表示させるための演算を行う計算処理機能と、
    前記計算処理機能による演算結果に基づいて、前記把持デバイスと連続又は近接する位置に前記三次元映像を連動三次元映像として表示させる表示制御機能と、
    を実現させることを特徴とする立体画像表示プログラム。
JP2007057551A 2007-03-07 2007-03-07 立体画像表示装置、方法およびプログラム Abandoned JP2008219788A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007057551A JP2008219788A (ja) 2007-03-07 2007-03-07 立体画像表示装置、方法およびプログラム
PCT/JP2008/054105 WO2008111495A1 (en) 2007-03-07 2008-02-29 Apparatus, method, and computer program product for displaying stereoscopic images
US12/161,258 US20100033479A1 (en) 2007-03-07 2008-02-29 Apparatus, method, and computer program product for displaying stereoscopic images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007057551A JP2008219788A (ja) 2007-03-07 2007-03-07 立体画像表示装置、方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2008219788A true JP2008219788A (ja) 2008-09-18

Family

ID=39493625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007057551A Abandoned JP2008219788A (ja) 2007-03-07 2007-03-07 立体画像表示装置、方法およびプログラム

Country Status (3)

Country Link
US (1) US20100033479A1 (ja)
JP (1) JP2008219788A (ja)
WO (1) WO2008111495A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102055999A (zh) * 2009-11-06 2011-05-11 索尼公司 显示控制器、显示控制方法、程序、输出设备和发送器
JP2011257820A (ja) * 2010-06-07 2011-12-22 Sony Corp 情報表示装置および表示画像制御方法
JP2013123227A (ja) * 2012-12-25 2013-06-20 Toshiba Corp 画像処理システム、装置、方法及び医用画像診断装置
US8564744B2 (en) 2010-09-29 2013-10-22 Japan Display Central Inc. Flat panel display device
KR101488121B1 (ko) * 2010-10-21 2015-01-29 노키아 코포레이션 표시된 정보를 제어하기 위한 사용자 입력 장치 및 방법
US9294663B2 (en) 2013-05-08 2016-03-22 Sony Corporation Imaging apparatus and imaging method for generating increased resolution images, hyperspectral images, steroscopic images, and/or refocused images
JP7518844B2 (ja) 2019-02-28 2024-07-18 マジック リープ, インコーポレイテッド 光エミッタアレイによって形成される複数の瞳孔内視差ビューを使用して可変遠近調節キューを提供するためのディスプレイシステムおよび方法

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4901539B2 (ja) * 2007-03-07 2012-03-21 株式会社東芝 立体映像表示システム
KR101483471B1 (ko) * 2008-10-15 2015-01-16 삼성전자주식회사 시각피로 없는 안경식 스테레오스코픽 디스플레이 구동 방법 및 굴절률 가변 셔터 안경
TW201040581A (en) * 2009-05-06 2010-11-16 J Touch Corp Digital image capturing device with stereo image display and touch functions
JP2011101229A (ja) * 2009-11-06 2011-05-19 Sony Corp 表示制御装置、表示制御方法、プログラム、出力装置、および送信装置
JP5249149B2 (ja) * 2009-07-17 2013-07-31 富士フイルム株式会社 立体画像記録装置及び方法、立体画像出力装置及び方法、並びに立体画像記録出力システム
JP5353770B2 (ja) * 2010-03-05 2013-11-27 カシオ計算機株式会社 立体映像観察装置、立体映像表示装置、及びプログラム
KR101709497B1 (ko) * 2010-07-29 2017-02-23 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US8638450B2 (en) * 2010-08-04 2014-01-28 Boulder Innovation Group Inc. Methods and systems for realizing reduced complexity in three-dimensional digitizer systems
KR101308475B1 (ko) * 2010-08-26 2013-09-16 엘지디스플레이 주식회사 입체 영상 표시 장치 및 이의 구동 방법
JP5263355B2 (ja) * 2010-09-22 2013-08-14 株式会社ニコン 画像表示装置及び撮像装置
WO2012047962A1 (en) * 2010-10-06 2012-04-12 Battelle Memorial Institute Stereoscopic camera
KR20120042440A (ko) * 2010-10-25 2012-05-03 한국전자통신연구원 조립 과정 가시화 장치 및 방법
JP5703703B2 (ja) 2010-11-11 2015-04-22 ソニー株式会社 情報処理装置、立体視表示方法及びプログラム
DK2656181T3 (da) * 2010-12-22 2020-01-13 Zspace Inc Tredimensionel sporing af en brugerstyringsanordning i et volumen
US20120200676A1 (en) * 2011-02-08 2012-08-09 Microsoft Corporation Three-Dimensional Display with Motion Parallax
GB2493701B (en) * 2011-08-11 2013-10-16 Sony Comp Entertainment Europe Input device, system and method
JP2017182076A (ja) * 2011-08-26 2017-10-05 株式会社ニコン 画像表示装置
CN103197774A (zh) * 2012-01-09 2013-07-10 西安智意能电子科技有限公司 一种为发射光源的运动轨迹映射其应用轨迹的方法与系统
GB201208088D0 (en) 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
JP2014241005A (ja) * 2013-06-11 2014-12-25 株式会社東芝 表示制御装置、表示制御方法、及び表示制御プログラム
EP2818985B1 (en) * 2013-06-28 2021-05-12 Nokia Technologies Oy A hovering input field
US9280259B2 (en) 2013-07-26 2016-03-08 Blackberry Limited System and method for manipulating an object in a three-dimensional desktop environment
US9390598B2 (en) 2013-09-11 2016-07-12 Blackberry Limited Three dimensional haptics hybrid modeling
US10999570B2 (en) * 2018-09-04 2021-05-04 Johnathan R. Banta Portable system for taking photogrammetry images and related method
CN110968193B (zh) * 2019-11-28 2022-12-13 王嘉蔓 一种ar互动式三维展示设备

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5818424A (en) * 1995-10-19 1998-10-06 International Business Machines Corporation Rod shaped device and data acquisition apparatus for determining the position and orientation of an object in space
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6064354A (en) * 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
CA2356271A1 (en) * 1998-12-23 2000-07-06 Image Guided Technologies, Inc. A hybrid 3-d probe tracked by multiple sensors
US6275214B1 (en) * 1999-07-06 2001-08-14 Karl C. Hansen Computer presentation system and method with optical tracking of wireless pointer
US6795068B1 (en) * 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
US7249952B2 (en) * 2000-10-03 2007-07-31 President And Fellows Of Harvard College Methods and apparatus for simulating dental procedures and for training dental students
CN1280698C (zh) * 2001-09-24 2006-10-18 皇家飞利浦电子股份有限公司 交互式系统以及交互方法
US6982697B2 (en) * 2002-02-07 2006-01-03 Microsoft Corporation System and process for selecting objects in a ubiquitous computing environment
JP2004334590A (ja) * 2003-05-08 2004-11-25 Denso Corp 操作入力装置
HU0401034D0 (en) * 2004-05-24 2004-08-30 Ratai Daniel System of three dimension induting computer technology, and method of executing spatial processes
US20050285854A1 (en) * 2004-06-29 2005-12-29 Ge Medical Systems Information Technologies, Inc. 3D display system and method
US7376903B2 (en) * 2004-06-29 2008-05-20 Ge Medical Systems Information Technologies 3D display system and method
WO2006081198A2 (en) * 2005-01-25 2006-08-03 The Board Of Trustees Of The University Of Illinois Compact haptic and augmented virtual reality system
EP1854303A1 (en) * 2005-02-17 2007-11-14 Koninklijke Philips Electronics N.V. Autostereoscopic display
US7725547B2 (en) * 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102055999A (zh) * 2009-11-06 2011-05-11 索尼公司 显示控制器、显示控制方法、程序、输出设备和发送器
JP2011257820A (ja) * 2010-06-07 2011-12-22 Sony Corp 情報表示装置および表示画像制御方法
US8564744B2 (en) 2010-09-29 2013-10-22 Japan Display Central Inc. Flat panel display device
KR101488121B1 (ko) * 2010-10-21 2015-01-29 노키아 코포레이션 표시된 정보를 제어하기 위한 사용자 입력 장치 및 방법
US9043732B2 (en) 2010-10-21 2015-05-26 Nokia Corporation Apparatus and method for user input for controlling displayed information
JP2013123227A (ja) * 2012-12-25 2013-06-20 Toshiba Corp 画像処理システム、装置、方法及び医用画像診断装置
US9294663B2 (en) 2013-05-08 2016-03-22 Sony Corporation Imaging apparatus and imaging method for generating increased resolution images, hyperspectral images, steroscopic images, and/or refocused images
US10003739B2 (en) 2013-05-08 2018-06-19 Sony Corporation Imaging apparatus and imaging method
US10225466B2 (en) 2013-05-08 2019-03-05 Sony Corporation Imaging apparatus and imaging method with error corrected interpolation frame generation
US10567646B2 (en) 2013-05-08 2020-02-18 Sony Corporation Imaging apparatus and imaging method
JP7518844B2 (ja) 2019-02-28 2024-07-18 マジック リープ, インコーポレイテッド 光エミッタアレイによって形成される複数の瞳孔内視差ビューを使用して可変遠近調節キューを提供するためのディスプレイシステムおよび方法

Also Published As

Publication number Publication date
US20100033479A1 (en) 2010-02-11
WO2008111495A1 (en) 2008-09-18

Similar Documents

Publication Publication Date Title
JP2008219788A (ja) 立体画像表示装置、方法およびプログラム
US9881421B2 (en) Image processing
KR102415502B1 (ko) 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치
US9766793B2 (en) Information processing device, information processing method and program
JP4764305B2 (ja) 立体画像生成装置、方法およびプログラム
US20080218515A1 (en) Three-dimensional-image display system and displaying method
KR102240568B1 (ko) 영상 처리 방법 및 장치
US9304387B2 (en) Device for directional light field 3D display and method thereof
US20170374344A1 (en) Discontinuity-aware reprojection
KR102539427B1 (ko) 화상 처리장치, 화상 처리방법, 및 기억매체
JP2014174401A (ja) 画像表示システム及び頭部装着型表示装置
JP2010072477A (ja) 画像表示装置、画像表示方法及びプログラム
JP2002049004A (ja) 表示制御装置及び方法
JP6115561B2 (ja) 立体画像表示装置及びプログラム
CN111095348A (zh) 基于摄像头的透明显示器
US20240275936A1 (en) Multiview autostereoscopic display using lenticular-based steerable backlighting
KR20140046563A (ko) 디스플레이의 방향을 고려하여 영상 렌더링을 수행하는 영상 처리 장치 및 방법
JP2006101224A (ja) 画像生成装置、画像生成方法および画像生成プログラム
US20230119162A1 (en) Systems and methods for processing scanned objects
CN111193919B (zh) 一种3d显示方法、装置、设备及计算机可读介质
US20150234196A1 (en) Image display apparatus, lenticular lens, and image display method
JP2010259003A (ja) 画像提示装置、画像提示方法、および、プログラム
JP6601392B2 (ja) 表示制御装置、表示制御方法、及び、プログラム
US20240203012A1 (en) Electronic device for generating three-dimensional photo based on images acquired from plurality of cameras, and method therefor
JP2012212986A (ja) 3d画像処理方法及び3d画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090326

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20090603