JP5143856B2 - 3次元画像表示装置、および3次元画像表示方法 - Google Patents

3次元画像表示装置、および3次元画像表示方法 Download PDF

Info

Publication number
JP5143856B2
JP5143856B2 JP2010095336A JP2010095336A JP5143856B2 JP 5143856 B2 JP5143856 B2 JP 5143856B2 JP 2010095336 A JP2010095336 A JP 2010095336A JP 2010095336 A JP2010095336 A JP 2010095336A JP 5143856 B2 JP5143856 B2 JP 5143856B2
Authority
JP
Japan
Prior art keywords
image
control menu
dimensional
parallax
interrupt request
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010095336A
Other languages
English (en)
Other versions
JP2011228859A (ja
Inventor
敬志 畑田
真治 醍醐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2010095336A priority Critical patent/JP5143856B2/ja
Priority to US13/013,118 priority patent/US9204126B2/en
Priority to EP11153223.0A priority patent/EP2378781B1/en
Priority to CN2011100423040A priority patent/CN102223549A/zh
Priority to KR1020110033113A priority patent/KR101275542B1/ko
Publication of JP2011228859A publication Critical patent/JP2011228859A/ja
Application granted granted Critical
Publication of JP5143856B2 publication Critical patent/JP5143856B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals

Description

本発明は、3次元画像表示装置および3次元画像表示方法に関する。
近年、民生用テレビの高性能化が進み、奥行きを持った立体映像を提示することが可能な3次元テレビが普及してきている。従来の2次元の映像を表示するテレビとは異なり、3次元テレビが提示する映像は、前後方向に奥行きを持った立体的な映像となる。
OSD(On Screen Display)による画質調整のメニューや3次元テレビの制御システムのメニュー等は、再生中の立体的な映像の上に被せて表示する必要がある。立体的な映像を観察するユーザは、その映像の奥行きに応じて目の焦点を調節する必要があるため、これらの制御メニューを提示する位置によってはユーザに無理な視点調整を強いることも起こり得る。特に、立体映像の3次元的な位置関係を無視してこれらの制御メニューを提示すると、制御メニューの視認性が悪化する場合もある。
本発明はこのような状況を鑑みてなされたものであり、その目的は3次元テレビにおいて制御メニューの視認性を向上させる技術を提供することにある。
上記課題を解決するために、本発明のある態様は3次元画像表示装置である。この装置は、仮想的な3次元空間におけるオブジェクトを異なる視点から見た場合の第1の視差画像と第2の視差画像とを含む3次元コンテンツの立体映像を画像バッファに出力する3次元コンテンツ再生部と、制御メニューを表示すべき旨の割込要求を受け付ける割込要求受付部と、前記割込要求受付部が割込要求を取得することを契機として、前記制御メニューのオブジェクトを前記仮想的な3次元空間における視点側から奥行き方向に移動させながら視差をもたせて描画した前記制御メニューのオブジェクトの画像を、前記制御メニューのオブジェクトと3次元空間のオブジェクトとの位置関係に依存せずに、既に描画された3次元空間のオブジェクトの画像の上に上書きする制御メニュー出力部とを含む。
本発明の別の態様も3次元画像表示装置である。この装置は、仮想的な3次元空間におけるオブジェクトを異なる視点から見た場合の第1の視差画像と第2の視差画像とを含む3次元コンテンツの立体映像を画像バッファに出力する3次元コンテンツ再生部と、制御メニューを表示すべき旨の割込要求を受け付ける割込要求受付部と、前記割込要求受付部が割込要求を取得することを契機として、前記画像バッファに格納されている前記第1の視差画像と前記第2の視差画像とのいずれか一方の画像バッファを他方の画像バッファに複写するバッファ複写部と、前記割込要求受付部が割込要求を取得することを契機として、前記制御メニューのオブジェクトと既に描画されているオブジェクトとの位置関係に依らず、既に描画されているオブジェクトの表示領域の上に前記制御メニューのオブジェクトの画像を上書きする制御メニュー出力部とを含む。
本発明のさらに別の態様も3次元画像表示装置である。この装置は、仮想的な3次元空間におけるオブジェクトを異なる視点から見た場合の第1の視差画像と第2の視差画像とを含む3次元コンテンツの立体映像を画像バッファに出力する3次元コンテンツ再生部と、制御メニューを表示すべき旨の割込要求を受け付ける割込要求受付部と、前記割込要求受付部が割込要求を取得することを契機として、前記3次元コンテンツ再生部が出力した3次元コンテンツのうち、前記仮想的な3次元空間において最も視点側に位置するコンテンツの位置座標を取得する最正面座標取得部と、前記割込要求受付部が割込要求を取得することを契機として、前記最正面座標取得部が取得した位置座標よりもさらに視点側に位置する前記制御メニューのオブジェクトの画像を前記画像バッファに出力する制御メニュー出力部とを含む。
本発明のさらに別の態様は、3次元画像表示方法である。この方法は、仮想的な3次元空間におけるオブジェクトを異なる視点から見た場合の第1の視差画像と第2の視差画像とを含む3次元コンテンツの立体映像を画像バッファに出力するステップと、制御メニューを表示すべき旨の割込要求を受け付けるステップと、割込要求を取得することを契機として、前記制御メニューのオブジェクトを前記仮想的な3次元空間における視点側から奥行き方向に移動させながら視差をもたせて描画した前記制御メニューのオブジェクトの画像を、前記制御メニューのオブジェクトと3次元空間のオブジェクトとの位置関係に依存せずに、既に描画された3次元空間のオブジェクトの画像の上に上書きするステップとをプロセッサに実行させる。
本発明のさらに別の態様も、3次元画像表示方法である。この方法は、仮想的な3次元空間におけるオブジェクトを異なる視点から見た場合の第1の視差画像と第2の視差画像とを含む3次元コンテンツの立体映像を画像バッファに出力するステップと、制御メニューを表示すべき旨の割込要求を受け付けるステップと、割込要求を取得することを契機として、前記画像バッファに格納されている前記第1の視差画像と前記第2の視差画像とのいずれか一方の画像バッファを他方の画像バッファに複写するステップと、割込要求を取得することを契機として、前記制御メニューのオブジェクトと既に描画されているオブジェクトとの位置関係に依らず、既に描画されているオブジェクトの表示領域の上に前記制御メニューのオブジェクトの画像を上書きするステップとをプロセッサに実行させる。
本発明のさらに別の態様も、3次元画像表示方法である。この方法は、仮想的な3次元空間におけるオブジェクトを異なる視点から見た場合の第1の視差画像と第2の視差画像とを含む3次元コンテンツの立体映像を画像バッファに出力するステップと、制御メニューを表示すべき旨の割込要求を受け付けるステップと、割込要求を取得することを契機として、前記画像バッファに出力された3次元コンテンツのうち、前記仮想的な3次元空間において最も視点側に位置するコンテンツの位置座標を取得し、取得した位置座標よりもさらに視点側に位置する前記制御メニューのオブジェクトの画像を前記画像バッファに出力するステップとをプロセッサに実行させる。
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によると、3次元テレビにおいて制御メニューの視認性を向上させる技術を提供することができる。
3次元空間における物体とその視差画像との関係を示す図である。 視差画像を利用したシャッター式の3次元テレビシステムの概観を示す図である。 シャッターメガネのシャッターのタイミングと、3次元テレビにおける視差画像の表示のタイミングとの関係を示す図である。 視差の計算に要するパラメータを説明する図である。 制御メニューのオブジェクトと他のオブジェクトとの仮想的な3次元空間における位置関係を示す図である。 図6(a)は、図5に示す制御メニューのオブジェクトを、他のオブジェクトとの位置関係にしたがって表示する場合を示す図である。図6(b)は、実施の形態1に係る3次元画像表示装置における制御メニューの表示例を示す図である。 実施の形態1に係る3次元画像表示装置の機能構成を模式的に示す図である。 実施の形態1に係る3次元画像表示装置における画像表示の処理手順を示すフローチャートである。 実施の形態2に係る3次元画像表示装置の機能構成を模式的に示す図である。 図10(a)は、左目用の視差画像の表示例を示す図である。図10(b)は、右目用の視差画像の表示例を示す図である。図10(c)は、実施の形態2に係る3次元画像表示装置における制御メニューの左目用の表示例を示す図である。図10(d)は、実施の形態2に係る3次元画像表示装置における制御メニューの右目用の表示例を示す図である。 実施の形態2に係る3次元画像表示における画像表示の処理手順を示すフローチャートである。 実施の形態3に係る3次元画像表示装置の機能構成を模式的に示す図である。 図13(a)は、実施の形態3に係る3次元画像表示装置における制御メニューのオブジェクトと他のオブジェクトとの、3次元空間における位置関係を示す図である。図13(b)は、実施の形態3に係る3次元画像表示装置における制御メニューの表示例を示す図である。 実施の形態3に係る3次元画像表示における画像表示の処理手順を示すフローチャートである。
本発明の実施の形態を説明するに先立って、前提となる技術について述べる。
(前提技術)
図1は、3次元空間における物体とその視差画像との関係を示す図である。3次元空間において、オブジェクト200と総称されるオブジェクト200a、オブジェクト200b、およびオブジェクト200cの3つのオブジェクト200を、カメラ202と総称される、オブジェクト200に対して左側から撮像する左目用カメラ202aと、オブジェクト200に対して右側から撮像する右目用カメラ202bとで撮像する。図1においては、左目用カメラ202aで撮像されたオブジェクト200の映像および右目用カメラ202bで撮像されたオブジェクト200の映像は、それぞれ2次元用のモニタ204と総称されるモニタ204aおよびモニタ204bに表示されている。
左目用カメラ202aと右目用カメラ202bとは、異なる位置からオブジェクト200を撮像しているため、モニタ204aに写される映像とモニタ204bに写される映像とではオブジェクト200の向きが異なる映像となる。このように、3次元空間におけるオブジェクト200を異なる視点から見た場合の画像を「視差画像」という。人間の左右の目は10cm程度離れているため、左目から見える映像と右目から見える映像には視差が生じる。人間の脳は、左右の目で知覚した視差画像を利用して物体の奥行きを認識しているといわれている。そのため、左目で知覚される視差画像と右目で知覚される視差画像とをそれぞれの目に投影すると、人間には奥行きを持った映像として認識される。
視差画像を利用して、人間に奥行きを持った映像を見せるための3次元テレビには様々な方式があるが、本実施の形態では左目用の視差画像と右目用の視差画像とを交互に時分割で表示するシャッター式の3次元テレビについて説明する。図2は、視差画像を利用したシャッター式の3次元テレビシステム300の概観を示す図である。3次元テレビシステム300は、視差画像を投影する3次元テレビ206、視差画像を見るために利用するシャッターメガネ210、および3次元テレビ206とシャッターメガネ210との同期を取るメガネ駆動信号発信部208を含む。
3次元テレビ206は、左目用の視差画像と右目用の視差画像とを交互に時分割で提示する。メガネ駆動信号発信部208は、3次元テレビ206の視差画像の表示タイミングを赤外線の同期信号として発信する。シャッターメガネ210は、メガネ駆動信号発信部208部から送信された同期信号を受信するための受信部(図示せず)を備えており、受信した同期信号に応じて左右のレンズにシャッターをかける。シャッターは、例えば既知の液晶シャッターの技術を用いることで実現できる。
具体的には、3次元テレビ206が左目用の視差画像を表示する場合、シャッターメガネ210はメガネ駆動信号発信部208から右目のレンズのシャッターを閉じるべき旨の信号を受信する。シャッターメガネ210は、受信した信号をもとに右目のレンズのシャッターを閉じることで、右目に入る映像が遮蔽される。これにより、3次元テレビ206が左目用の視差画像を表示する場合、ユーザの左目にのみ左目用の視差画像が投影される。反対に、3次元テレビ206が右目用の視差画像を表示する場合、シャッターメガネ210が左目のレンズのシャッターを閉じることにより、ユーザの右目にのみ右目用の視差画像が投影される。
図3は、シャッターメガネ210のシャッターのタイミングと、3次元テレビ206における視差画像の表示のタイミングとの関係を示す図である。左目用視差画像212と総称する左目用視差画像212a、左目用視差画像212b、および左目用視差画像212cと、右目用視差画像214と総称する右目用視差画像214a、右目用視差画像214b、右目用視差画像214cとが、所定の間隔t(例えば1/120秒間隔)で交互に表示される。
左目用視差画像212aが表示されているとき、シャッターメガネ210の左目のシャッターは開いており、右目用のシャッターは閉じている。図3においては、シャッターメガネ210のシャッターが開状態の場合を「○」の記号、閉状態の場合を「×」の記号を用いて表現している。図3に示すように、3次元テレビ206の視差画像の表示とシャッターメガネ210のシャッターの開閉とを同期してユーザの左目には左目用視差画像212を、右目には右目用視差画像214を投影することにより、ユーザに奥行き感のある3次元映像を提示することが可能となる。
図4は、視差の計算に要するパラメータを説明する図である。3次元テレビ206が表示する仮想的な3次元空間(以下、単に「3次元空間」という。)について、3次元テレビ206の表示画面の任意の点(例えば3次元テレビ206を設置したときの表示画面の右下の点)を原点とし、表示画面の横方向をx軸、縦方向をy軸、3次元テレビ206の表示画面に対して垂直な方向をz軸として座標系を設定する。図4は、3次元テレビ206が表示する3次元空間をy軸に対して平行な方向から視点から眺めた様子を示している。
3次元空間におけるオブジェクト200のz座標Wをもとに、3次元テレビ206の表示画面上に反映すべき視差Xを計算する。視差の計算に必要なパラメータは以下の3つである。すなわち、3次元空間における左目用カメラ202aおよび右目用カメラ202bと表示画面との距離D、人間の両目間隔の平均値e、および3次元テレビ206の表示画面のサイズである。ここで、左目用カメラ202aと右目用カメラ202bとは、3次元空間において人間の両目間隔の平均値eだけ離れた位置に設置されるものとする。
上述のパラメータをもとに、まず3次元空間におけるオブジェクト200のz座標Wと、3次元空間におけるカメラ202の表示画面との距離Dとの比率を計算する。その比率と人間の両目間隔の平均値eとをもとに、3次元テレビ206の表示画面上で視差Xを計算する。最後に、3次元テレビ206の表示画面のサイズをもとに、視差Xを3次元空間における座標系の単位に変換する。なお、オブジェクト200が3次元テレビ206の表示画面に存在する場合には、視差が0となるようにする。この場合、3次元テレビ206の表示画面に存在するオブジェクト200の左目用の視差画像と右目用の視差画像とは同一の画像となる。
以上の技術を前提として、以下実施の形態について説明する。
実施の形態は、3次元テレビ206においてゲームや映画等の3次元映像を含むコンテンツを再生中に、コンテンツを再生するシステムの制御メニューを表示するときの表示の仕方に関する。ここで「制御メニュー」とは、コンテンツの再生装置を統括的に制御してコンテンツ等のアプリケーションプログラムを実行するシステムプログラムが、ユーザに提示する情報のことをいう。制御メニューとしては、例えばコンテンツの再生を停止するか否かの選択メニュー、ゲームのコンテンツにおいてユーザがセーブをしようとするときにメモリカードの空き容量が不足している場合にその旨の通知、内蔵電池で動作する携帯型の再生装置の場合には電池の残量が少なくなった旨の通知等、コンテンツの再生内容とは関係せず再生装置の動作に関わる情報があげられる。
(実施の形態1)
実施の形態1の概要を述べる。実施の形態1は、3次元テレビ206においてゲームや映画等の3次元映像を含むコンテンツを再生中に制御メニューを表示する場合、3次元空間において制御メニューのオブジェクトを設定し、そのオブジェクトを視点側から奥行き方向に移動させながら描画する。ユーザには、システムメニューが手前から移動しながら3次元空間に入ってきたように見える。
図5は、制御メニューのオブジェクト216と他のオブジェクト200との3次元空間における位置関係を示す図である。図5に示すように、制御メニューのオブジェクト216と総称する制御メニューのオブジェクト216aが3次元空間においてオブジェクト200よりも視点側の位置に登場し、視線方向に移動して制御メニューのオブジェクト216bの位置まで移動する。3次元空間において視点に置かれたカメラ202から見た制御メニューのオブジェクト216bと他のオブジェクト200との位置関係は、オブジェクト200の方が視点側に存在する。
図6(a)は、制御メニューのオブジェクト216bを、他のオブジェクト200との位置関係にしたがって表示する場合を示す図である。視点を表すカメラ202側から見て制御メニューのオブジェクト216bは他のオブジェクト200の奥にあるため、制御メニューのオブジェクト216bはオブジェクト200に隠れて見えない。
前述したとおり、制御メニューはコンテンツを再生する装置の動作に関わる重要な情報をユーザに提示するために利用される場合が多く、制御メニューのオブジェクト216bがオブジェクト200に隠れて見えないとなると不都合が生じうる。そこで、実施の形態1では、制御メニューのオブジェクト216と他のオブジェクト200との位置関係に依存せずに、制御メニューのオブジェクト216を他のオブジェクト200の画像の上に上書きする。
図6(b)は、実施の形態1に係る3次元画像表示装置100における制御メニューの表示例を示す図である。制御メニューのオブジェクト216aが3次元空間においてオブジェクト200よりも視点側の位置に登場して、他のオブジェクト200の奥まで移動したとしても、制御メニューのオブジェクト216は他のオブジェクト200に上書きされる。これにより、ユーザは他のオブジェクト200との位置関係に依存せずに常に制御メニューのオブジェクト216を見ることが可能となる。
3次元空間における制御メニューのオブジェクト216と他のオブジェクト200との位置関係を無視して制御メニューのオブジェクト216が描画されると、ユーザは視覚的な違和感を覚える場合もあり得る。図5および図6に示すように、視点を表すカメラ202側から見て制御メニューのオブジェクト216手前に表示させた後に視線方向に移動させることにより、ユーザは、カメラ202を引いて他のオブジェクト200が撮像されたかのように錯覚する。この錯覚により、制御メニューのオブジェクト216と他のオブジェクト200との位置関係が正確に表示されていなくても、ユーザの視覚的な違和感を低減することが可能となる。
制御メニューのオブジェクト216aの登場位置は、視覚的な違和感が低減するように実験的に定めればよい。また、図5に示すように、3次元テレビ206の表示画面と一致する位置まで制御メニューのオブジェクト216bを移動させることにより、ユーザはシャッターメガネ210を外しても制御メニューを明瞭に見ることができる。制御メニューのオブジェクト216bが3次元テレビ206の表示画面に存在すれば、その左目用の視差画像と右目用の視差画像とは同一の画像となるからである。
図7は、実施の形態1に係る3次元画像表示装置100の機能構成を模式的に示す図である。実施の形態1にかかる3次元画像表示装置100は、3次元コンテンツ再生部10、割込要求受付部12、輝度値制御部14、制御メニュー出力部16、および画像バッファ18を含む。
3次元コンテンツ再生部10は、3次元空間におけるオブジェクトを異なる視点から見た場合の左目用の視差画像と右目用の視差画像とを含む3次元コンテンツの立体映像(以下、「立体映像」という。)を画像バッファ18に出力する。このため、画像バッファ18は、左目用バッファ26と右目用バッファ28とを含む。左目用バッファ26は左目用の視差画像、右目用バッファ28は右目用の視差画像をそれぞれ格納する。左目用バッファ26および右目用バッファ28に格納された視差画像は3次元テレビ206の図示しない画像描画部に読み出され、前述のように3次元テレビ206の表示画面に交互に表示される。
割込要求受付部12は、制御メニューを表示すべき旨の割込要求を受け付ける。割込要求は、例えばユーザが3次元画像表示装置100のコントローラ(図示せず)の所定のボタンを押した場合に発生したり、メモリカードの空き容量が不足している場合等に3次元画像表示装置100で実行されているオペレーティングシステムが発生させたりする。
制御メニュー出力部16は、割込要求受付部12が割込要求を取得することを契機として、制御メニューのオブジェクト216を3次元空間における視点側から奥行き方向に移動させながら、3次元空間の他のオブジェクトとの位置関係に依存せずに、既に画像バッファ18に描画された3次元空間の他のオブジェクトの画像に上書きする。このため、制御メニュー出力部16は、立体映像生成制御部20、視差取得部22、および3次元CG(Computer Graphics)取得部24を含む。
立体映像生成制御部20は、図5および図6に示すように、制御メニューのオブジェクト216を3次元空間に設置する。視差取得部22は、3次元空間に設置された左目用カメラ202aと右目用カメラ202bとから見た場合の、3次元空間における制御メニューのオブジェクト216の視差を計算する。3次元CG取得部24は、視差取得部22が取得した視差をもとに、3次元空間上の制御メニューのオブジェクト216を投影して2次元のバッファを生成し、画像バッファ18に上書きする。
輝度値制御部14は、割込要求受付部12が割込要求を取得することを契機として、制御メニューのオブジェクト216以外の立体映像の輝度値を下げる。具体的には、3次元コンテンツ再生部10が出力した視差画像の輝度値を半分にして、画像バッファ18に格納する。前述したオブジェクト216を手前から移動させることによるカメラ202を引いて撮像したような錯覚とあいまって、位置関係を無視したことに起因してユーザが受ける視覚的な違和感を低減させうる。他の立体映像に対して制御メニューの視認性を相対的に高めることができる点で効果がある。
3次元コンテンツ再生部10は、割込要求受付部12が割込要求を取得することを契機として、再生中のコンテンツを一時停止してもよい。制御メニューのみが動くことから、ユーザが受ける視覚的な違和感をさらに低減させうる点で効果がある。
図7は、実施の形態1に係る3次元画像表示装置100を実現するための機能構成を示しており、その他の構成は省略している。図7において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、CPU、メインメモリ、その他のLSIで構成することができ、ソフトウェア的には、メインメモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
図8は、実施の形態1に係る3次元画像表示装置100における画像表示の処理手順を示すフローチャートである。以下フローチャートにおいては、各部の処理手順を、ステップを意味するS(Stepの頭文字)と数字との組み合わせによって表示する。また、Sと数字との組み合わせによって表示した処理で何らかの判断処理が実行され、その判断結果が肯定的であった場合は、Y(Yesの頭文字)を付加して、例えば(S12のY)と表示し、逆にその判断結果が否定的であった場合は、N(Noの頭文字)を付加して、例えば(S12のN)と表示する。本フローチャートにおける処理は、3次元コンテンツ再生部10が立体映像を再生したときに開始する。
3次元コンテンツ再生部10は、3次元コンテンツの立体映像を再生する(S10)。割込要求受付部12が割込要求を取得しない場合(S12のN)、3次元コンテンツ再生部10は、立体映像の再生を継続する。割込要求受付部12が割込要求を取得した場合(S12のY)、輝度値制御部14は、制御メニューのオブジェクト216以外の立体映像の輝度値を抑制する(S14)。
立体映像生成制御部20は、制御メニューのオブジェクト216の奥行きを、図5および図6に示す制御メニューのオブジェクト216aの位置に設定することにより初期化する(S16)。視差取得部22は、3次元空間に設置された左目用カメラ202aと右目用カメラ202bとから見た場合の3次元空間上の制御メニューのオブジェクト216の視差を計算して取得する(S18)。3次元CG取得部24は、視差取得部22が取得した視差をもとに、3次元空間上の制御メニューのオブジェクト216を投影して視差画像を生成する(S20)。3次元CG取得部24は、生成した制御メニューの視差画像を画像バッファ18に上書きして出力する(S22)。
立体映像生成制御部20は、3次元空間における制御メニューのオブジェクト216の位置を視線方向に所定の距離だけ移動して奥行き情報を更新する(S24)。所定の距離は、例えば図5および図6に示す制御メニューのオブジェクト216aと制御メニューのオブジェクト216bとの間を10等分した距離である。
制御メニューのオブジェクト216の位置が3次元テレビ206の表示画面の位置に到達していない間(S26のN)、制御メニューの視差画像の生成処理(上述のステップS18からステップS24の処理)を繰り返す。立体映像生成制御部20による制御メニューのオブジェクト216の位置の更新の結果、制御メニューのオブジェクト216の位置が3次元テレビ206の表示画面の位置に到達した場合(S26のY)、本フローチャートにおける処理は終了する。
以上の構成による動作は以下のとおりである。ユーザは実施の形態1に係る3次元表示装置100を用いて立体映像を再生する。ユーザがコンテンツ再生の一時停止を要求する場合等、何らかの割込要求を割込要求受付部12が取得すると、制御メニュー出力部16によって、制御メニューが3次元空間上を手前から奥行き方向に移動しながら表示される。
以上説明したように、実施の形態1によれば制御メニューを他のオブジェクト200に上書きして表示することにより、ユーザは制御メニューをいつでも見ることが可能となる。制御メニューを表示する際、制御メニューが3次元空間上を手前から奥行き方向に移動しながら表示することにより、制御メニューのオブジェクト216と他のオブジェクト200との位置関係に依存せずに制御メニューを表示したとしても、錯覚により制御メニューの視認性が向上する。また、3次元空間上における3次元テレビ206の表示画面の位置において制御メニューを最終的に表示することにより、ユーザはシャッターメガネ210を装着しなくても、制御メニューを明瞭に確認することができる。
(実施の形態2)
実施の形態2の概要を述べる。実施の形態2は、3次元テレビ206においてゲームや映画等の立体映像を含むコンテンツを再生中に制御メニューを表示する場合、右目用の視差画像を左目用の視差画像で代替して表示し、その上に制御メニューを上書きして表示する。ユーザには、左右の目に入る映像に視差がなくなるため制御メニューを含む映像全体の視認性が向上する。
図9は、実施の形態2に係る3次元画像表示装置100の機能構成を模式的に示す図である。実施の形態2に係る3次元画像表示装置100は、3次元コンテンツ再生部10、割込要求受付部12、輝度値制御部14、バッファ複写部30、制御メニュー出力部16、および画像バッファ18を含む。画像バッファ18はさらに、左目用バッファ26と右目用バッファ28とを含む。以下、実施の形態1と共通する部分については適宜説明を省略する。
バッファ複写部30は、割込要求受付部12が割込要求を取得することを契機として、左目用バッファ26に格納されている左目用の視差画像を右目用バッファ28に格納されている右目用の視差画像に上書きして複写する。制御メニュー出力部16は、割込要求受付部12が割込要求を取得することを契機として、左目用バッファ26および右目用バッファ28に格納されている左目用の視差画像の表示領域の上に制御メニューのオブジェクト216の画像を上書きする。
図9は、実施の形態2に係る3次元画像表示装置100を実現するための機能構成を示しており、その他の構成は省略している。図9において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、CPU、メインメモリ、その他のLSIで構成することができ、ソフトウェア的には、メインメモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
図10(a)は、左目用バッファ26に格納されている左目用の視差画像を例示する図である。図10(b)は、右目用バッファ28に格納されている右目用の視差画像を例示する図である。図10(a)および図10(b)に示すように、割込要求受付部12が割込要求を受け付ける前は、左目用の視差画像と右目用の視差画像とは、異なる角度から見た画像となっている。
割込要求受付部12が割込要求を受け付けると、バッファ複写部30は、左目用バッファ26に格納されている左目用の視差画像を右目用バッファ28に格納されている右目用の視差画像に上書きし、制御メニュー出力部16は、左目用バッファ26および右目用バッファ28の表示領域の上に制御メニューのオブジェクト216の画像を上書きする。
図10(c)は、実施の形態2に係る3次元画像表示装置100における制御メニューの左目用の表示例を示す図である。また、図10(d)は、実施の形態2に係る3次元画像表示装置100における制御メニューの右目用の表示例を示す図である。図10(a)および図10(b)に示すように、左目用バッファ26に格納される左目用の視差画像と右目用バッファ28に格納される右目用の視差画像は同一の画像となる。
バッファ複写部30が左目用バッファ26に格納されている左目用の視差画像を右目用バッファ28に格納されている右目用の視差画像に上書きすることにより、ユーザの左目および右目には左目用の視差画像が投影される。このため、ユーザの目には奥行き情報が失われた通常の2次元の映像として写る。奥行き情報のない通常の2次元の映像に制御メニューを上書きした場合、奥行きのある立体映像上の所定の位置に制御メニューを上書きする場合と比較して、ユーザは目の焦点調節をしなくてすむため、制御メニューの視認性が向上する点で効果がある。この場合、ユーザはシャッターメガネ210を外しても、制御メニューを含む映像全体を明瞭に確認することができる。
なお、上記の説明では、バッファ複写部30が左目用バッファ26に格納されている左目用の視差画像を、右目用バッファ28に格納されている右目用の視差画像に上書きする場合について説明したが、バッファ複写部30は、右目用バッファ28に格納されている右目用の視差画像を左目用バッファ26に格納されている左目用の視差画像に上書きしてもよい。ユーザの両目に投影される映像が同一になればよく、画像バッファ18のいずれか一方の画像バッファに格納されている画像を他方の画像バッファに複写するようにすればよい。
図11は、実施の形態2に係る3次元画像表示装置100における画像表示の処理手順を示すフローチャートである。本フローチャートにおける処理は、3次元コンテンツ再生部10が立体映像を再生したときに開始する。
3次元コンテンツ再生部10は、3次元コンテンツの立体映像を再生する(S10)。割込要求受付部12が割込要求を取得しない場合(S12のN)、3次元コンテンツ再生部10は、立体映像の再生を継続する。割込要求受付部12が割込要求を取得した場合(S12のY)、輝度値制御部14は、制御メニューのオブジェクト216以外の立体映像の輝度値を抑制する(S14)。
バッファ複写部30は、左目用バッファ26に格納されている左目用の視差画像を右目用バッファ28に格納されている右目用の視差画像に上書きして複写する(S30)。制御メニュー出力部16は、左目用バッファ26および右目用バッファ28の表示領域の上に制御メニューのオブジェクト216の画像を上書きすることにより制御メニューを表示する(S32)。制御メニュー出力部16が制御メニューを出力すると、本フローチャートにおける処理は終了する。
以上の構成による動作は以下の通りである。ユーザは実施の形態2に係る3次元表示装置100を用いて立体映像を再生する。ユーザがコンテンツ再生の一時停止を要求する場合等、何らかの割込要求を割込要求受付部12が取得すると、バッファ複写部30が左目用バッファ26に格納されている左目用の視差画像を右目用バッファ28に格納されている右目用の視差画像に上書きして複写することにより、ユーザには視差のない画像が提示される。制御メニュー出力部16は、その視差のない画像の上に制御メニューをさらに上書きする。
以上説明したように、実施の形態2によれば、ユーザに提示される左目用の画像と右目用の画像との視差がなくなるため、制御メニューの視認性を向上することができる。また、ユーザはシャッターメガネ210を装着しなくても、制御メニューを明瞭に確認することができる。
(実施の形態3)
実施の形態3の概要を述べる。実施の形態3は、3次元テレビ206においてゲームや映画等の立体映像を含むコンテンツを再生中に制御メニューを表示する場合、再生中のコンテンツの奥行きを取得し、最も視点側に位置するコンテンツよりもさらに視点側に制御メニューを表示する。表示対象である制御メニューのオブジェクト216と他のオブジェクト200との3次元空間における位置関係に矛盾がないため、制御メニューを見るユーザにとって視覚的な違和感がない。
図12は、実施の形態3に係る3次元画像表示装置100の機能構成を模式的に示す図である。実施の形態3に係る3次元画像表示装置100は、3次元コンテンツ再生部10、割込要求受付部12、輝度値制御部14、最正面座標取得部32、奥行きバッファ34、制御メニュー出力部16、および画像バッファ18を含む。画像バッファ18はさらに、左目用バッファ26と右目用バッファ28とを含む。以下、実施の形態1または実施の形態2と共通する部分については適宜説明を省略する。
奥行きバッファ34は、3次元コンテンツ再生部10から、再生中の立体映像の奥行き情報を取得して格納する。ここで「立体映像の奥行き情報」とは、3次元空間に配置されたオブジェクト200を投影して2次元の画像を生成した場合の、2次元の画像の各画素に対応する3次元空間の奥行き方向の座標である。具体的には、2次元の画像の各画素に対応する図4におけるz軸の座標である。このため、奥行きバッファは「zバッファ」と呼ばれることもある。
最正面座標取得部32は、割込要求受付部12が割込要求を取得することを契機として奥行きバッファ34を参照し、3次元コンテンツ再生部10が出力した3次元コンテンツのオブジェクト200のうち、3次元空間において最も視点側に位置するオブジェクト200の位置座標(以下、「最近傍点座標」という。)を取得する。
制御メニュー出力部16は、割込要求受付部12が割込要求を取得することを契機として、最正面座標取得部32が取得した最近傍点座標よりもさらに視点側に制御メニューのオブジェクト216の画像を画像バッファ18に出力する。
図12は、実施の形態3に係る3次元画像表示装置100を実現するための機能構成を示しており、その他の構成は省略している。図12において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、CPU、メインメモリ、その他のLSIで構成することができ、ソフトウェア的には、メインメモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
図13(a)は、実施の形態3に係る3次元画像表示装置100における制御メニューのオブジェクト216と他のオブジェクト200との、3次元空間における位置関係を示す図である。
最正面座標取得部32は、割込要求受付部12が割込要求を取得することを契機として、3次元空間に存在するオブジェクト200の奥行き情報を格納する奥行きバッファ34を参照し、最近傍点座標(図13(a)における座標M)を取得する。制御メニュー出力部16は、割込要求受付部12が割込要求を取得することを契機として、最近傍点座標Mよりもさらに視点側(図13(a)における座標M+α)に、制御メニューのオブジェクト216の画像を画像バッファ18に出力する。
図13(b)は、実施の形態3に係る3次元画像表示装置100における制御メニューの表示例を示す図である。図13(a)に示すように、制御メニューのオブジェクト216は他のオブジェクト200よりもさらに視点側に位置するため、制御メニューのオブジェクト216の画像は最も視点側に表示される。
図14は、実施の形態3に係る3次元画像表示における画像表示の処理手順を示すフローチャートである。本フローチャートにおける処理は、3次元コンテンツ再生部10が立体映像を再生したときに開始する。
3次元コンテンツ再生部10は、3次元コンテンツの立体映像を再生する(S10)。割込要求受付部12が割込要求を取得しない場合(S12のN)、3次元コンテンツ再生部10は、立体映像の再生を継続する。割込要求受付部12が割込要求を取得した場合(S12のY)、輝度値制御部14は、制御メニューのオブジェクト216以外の立体映像の輝度値を抑制する(S14)。
最正面座標取得部32は、奥行きバッファ34を参照して最近傍点座標を取得する(S34)。制御メニュー出力部16は、最正面座標取得部32が取得した最近傍点座標よりもさらに視点側に制御メニューのオブジェクト216の画像を画像バッファ18に出力する(S36)。
以上の構成による動作は以下のとおりである。ユーザは実施の形態3に係る3次元表示装置100を用いて立体映像を再生する。ユーザがコンテンツ再生の一時停止を要求する場合等、何らかの割込要求を割込要求受付部12が取得すると、最正面座標取得部32が奥行きバッファ34を参照して最近傍点座標を取得し、制御メニュー出力部16が最近傍点座標よりもさらに視点側に制御メニューの画像を画像バッファ18に出力する。
以上説明したように、実施の形態3によれば、ユーザから見て3次元空間上で最も視点側の位置に制御メニューが提示されるため、3次元空間上の位置関係に矛盾がなく、制御メニューの視認性が向上する。
以上、実施の形態1、実施の形態2、および実施の形態3を説明した。これらの実施の形態の任意の組み合わせもまた、本発明の実施の形態として有用である。
例えば、実施の形態1または実施の形態3に実施の形態2を組み合わせ、さらにシャッターメガネ210に図示しない着脱の有無を検知するセンサを取り付けることにより、ユーザがシャッターメガネ210を外したことを契機として左右の視差画像を同一とするようにした場合、実施の形態1または実施の形態3の効果の和に加え、さらにシャッターメガネ210の着脱状態に応じた映像の提供が可能となるという効果がある。すなわち、ユーザがシャッターメガネ210を装着しているときは、ユーザの左右の目に適切な視差画像を投影することによって立体映像を再生する。ユーザがシャッターメガネ210を装着していないときは、ユーザには視差のない画像を提示する。
以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
上記の説明ではシャッター方式の3次元テレビを前提として説明したが、3次元テレビの方式はこれに限らず、例えば偏光を用いた方式やヘッドマウントディスプレイを用いた方式など、どのような方式でもよい。
10 3次元コンテンツ再生部、 12 割込要求受付部、 14 輝度値制御部、 16 制御メニュー出力部、 18 画像バッファ、 20 立体映像生成制御部、 22 視差取得部、 24 3次元CG取得部、 26 左目用バッファ、 28 右目用バッファ、 30 バッファ複写部、 32 最正面座標取得部、 34 奥行きバッファ、 100 3次元画像表示装置、 206 3次元テレビ、 208 メガネ駆動信号発信部、 210 シャッターメガネ、 300 3次元テレビシステム。

Claims (5)

  1. 仮想的な3次元空間におけるオブジェクトを異なる視点から見た場合の第1の視差画像と第2の視差画像とを含む3次元コンテンツの立体映像を画像バッファに出力する3次元コンテンツ再生部と、
    制御メニューを表示すべき旨の割込要求を受け付ける割込要求受付部と、
    前記割込要求受付部が割込要求を取得することを契機として、前記制御メニューのオブジェクトを前記仮想的な3次元空間における視点側から奥行き方向に移動させながら視差をもたせて描画した前記制御メニューのオブジェクトの画像を、前記制御メニューのオブジェクトと3次元空間のオブジェクトとの位置関係に依存せずに、既に描画された3次元空間のオブジェクトの画像の上に上書きする制御メニュー出力部とを含むことを特徴とする3次元画像表示装置。
  2. 前記仮想的な3次元空間は、前記第1の視差画像と前記第2の視差画像との視差がなくなる平面が映像を表示する表示装置の画面となることを仮定するものであり、
    前記制御メニュー出力部は、前記第1の視差画像と前記第2の視差画像との視差がなくなる平面よりも視点側から当該平面に至るまで前記制御メニューのオブジェクトを移動させながら視差をもたせて描画した前記制御メニューのオブジェクトの画像を出力することを特徴とする請求項1に記載の3次元画像表示装置。
  3. 前記割込要求受付部が割込要求を取得することを契機として、前記3次元コンテンツの立体映像の輝度値を下げる輝度値制御部をさらに含むことを特徴とする請求項1または2に記載の3次元画像表示装置。
  4. 仮想的な3次元空間におけるオブジェクトを異なる視点から見た場合の第1の視差画像と第2の視差画像とを含む3次元コンテンツの立体映像を画像バッファに出力するステップと、
    制御メニューを表示すべき旨の割込要求を受け付けるステップと、
    割込要求を取得することを契機として、前記制御メニューのオブジェクトを前記仮想的な3次元空間における視点側から奥行き方向に移動させながら視差をもたせて描画した前記制御メニューのオブジェクトの画像を、前記制御メニューのオブジェクトと3次元空間のオブジェクトとの位置関係に依存せずに、既に描画された3次元空間のオブジェクトの画像の上に上書きするステップとをプロセッサに実行させることを特徴とする3次元画像表示方法。
  5. 仮想的な3次元空間におけるオブジェクトを異なる視点から見た場合の第1の視差画像と第2の視差画像とを含む3次元コンテンツの立体映像を画像バッファに出力する機能と、
    制御メニューを表示すべき旨の割込要求を受け付ける機能と、
    割込要求を取得することを契機として、前記制御メニューのオブジェクトを前記仮想的な3次元空間における視点側から奥行き方向に移動させながら視差をもたせて描画した前記制御メニューのオブジェクトの画像を、前記制御メニューのオブジェクトと3次元空間のオブジェクトとの位置関係に依存せずに、既に描画された3次元空間のオブジェクトの画像の上に上書きする機能とをコンピュータに実現させることを特徴とするプログラム。
JP2010095336A 2010-04-16 2010-04-16 3次元画像表示装置、および3次元画像表示方法 Active JP5143856B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010095336A JP5143856B2 (ja) 2010-04-16 2010-04-16 3次元画像表示装置、および3次元画像表示方法
US13/013,118 US9204126B2 (en) 2010-04-16 2011-01-25 Three-dimensional image display device and three-dimensional image display method for displaying control menu in three-dimensional image
EP11153223.0A EP2378781B1 (en) 2010-04-16 2011-02-03 Three-dimensional image display device and three-dimensional image display method
CN2011100423040A CN102223549A (zh) 2010-04-16 2011-02-22 三维图像显示装置及三维图像显示方法
KR1020110033113A KR101275542B1 (ko) 2010-04-16 2011-04-11 3차원 화상표시장치 및 3차원 화상표시방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010095336A JP5143856B2 (ja) 2010-04-16 2010-04-16 3次元画像表示装置、および3次元画像表示方法

Publications (2)

Publication Number Publication Date
JP2011228859A JP2011228859A (ja) 2011-11-10
JP5143856B2 true JP5143856B2 (ja) 2013-02-13

Family

ID=44147608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010095336A Active JP5143856B2 (ja) 2010-04-16 2010-04-16 3次元画像表示装置、および3次元画像表示方法

Country Status (5)

Country Link
US (1) US9204126B2 (ja)
EP (1) EP2378781B1 (ja)
JP (1) JP5143856B2 (ja)
KR (1) KR101275542B1 (ja)
CN (1) CN102223549A (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101731343B1 (ko) * 2010-07-14 2017-04-28 엘지전자 주식회사 이동 단말기 및 그 제어방법
EP2590417A1 (en) * 2011-11-01 2013-05-08 Acer Incorporated Stereoscopic image display apparatus
CN103108201A (zh) * 2011-11-14 2013-05-15 宏碁股份有限公司 立体图像显示装置及动态深度图像产生方法
WO2014020753A1 (ja) * 2012-08-03 2014-02-06 株式会社セガ 3次元画像処理装置、3次元画像処理方法及びその記憶媒体
US11237695B2 (en) * 2012-10-12 2022-02-01 Sling Media L.L.C. EPG menu with a projected 3D image
US9693678B2 (en) * 2012-10-22 2017-07-04 Realvision S.R.L. Network of devices for performing optical/optometric/opthalmological tests, and method for controlling said network of devices
US20140282113A1 (en) 2013-03-15 2014-09-18 John Cronin Personal digital assistance and virtual reality
US20140280644A1 (en) 2013-03-15 2014-09-18 John Cronin Real time unified communications interaction of a predefined location in a virtual reality location
US9838506B1 (en) 2013-03-15 2017-12-05 Sony Interactive Entertainment America Llc Virtual reality universe representation changes viewing based upon client side parameters
US20140280502A1 (en) 2013-03-15 2014-09-18 John Cronin Crowd and cloud enabled virtual reality distributed location network
US20140280503A1 (en) 2013-03-15 2014-09-18 John Cronin System and methods for effective virtual reality visitor interface
US20140280506A1 (en) 2013-03-15 2014-09-18 John Cronin Virtual reality enhanced through browser connections
US20140280505A1 (en) 2013-03-15 2014-09-18 John Cronin Virtual reality interaction with 3d printing
KR102143472B1 (ko) * 2013-07-26 2020-08-12 삼성전자주식회사 다시점 영상 처리 장치 및 그 영상 처리 방법
US9588343B2 (en) 2014-01-25 2017-03-07 Sony Interactive Entertainment America Llc Menu navigation in a head-mounted display
US9437159B2 (en) * 2014-01-25 2016-09-06 Sony Interactive Entertainment America Llc Environmental interrupt in a head-mounted display and utilization of non field of view real estate
US10845888B2 (en) * 2014-02-13 2020-11-24 Autodesk, Inc. Techniques for integrating different forms of input with different forms of output when interacting with an application
US9858718B2 (en) * 2015-01-27 2018-01-02 Microsoft Technology Licensing, Llc Dynamically adaptable virtual lists
KR20180045609A (ko) * 2016-10-26 2018-05-04 삼성전자주식회사 전자 장치 및 전자 장치의 표시 방법
WO2018098789A1 (en) * 2016-12-01 2018-06-07 SZ DJI Technology Co., Ltd. Method and system for detecting and tracking objects using characteristic points
JP6446072B2 (ja) * 2017-01-23 2018-12-26 株式会社カプコン ゲームプログラム及びゲームシステム
JP7210131B2 (ja) * 2017-08-08 2023-01-23 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10823562B1 (en) * 2019-01-10 2020-11-03 State Farm Mutual Automobile Insurance Company Systems and methods for enhanced base map generation
CN112446823B (zh) * 2021-02-01 2021-04-27 武汉中科通达高新技术股份有限公司 监控图像展示方法和装置

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08249493A (ja) * 1995-03-09 1996-09-27 Sony Corp 立体映像装置
US5724492A (en) * 1995-06-08 1998-03-03 Microsoft Corporation Systems and method for displaying control objects including a plurality of panels
US6023277A (en) * 1996-07-03 2000-02-08 Canon Kabushiki Kaisha Display control apparatus and method
US6222583B1 (en) * 1997-03-27 2001-04-24 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
JPH11113028A (ja) * 1997-09-30 1999-04-23 Toshiba Corp 3次元映像表示装置
US6266098B1 (en) * 1997-10-22 2001-07-24 Matsushita Electric Corporation Of America Function presentation and selection using a rotatable function menu
US6288730B1 (en) * 1998-08-20 2001-09-11 Apple Computer, Inc. Method and apparatus for generating texture
US6344860B1 (en) 1998-11-27 2002-02-05 Seriate Solutions, Inc. Methods and apparatus for a stereoscopic graphic user interface
EP1314138A1 (en) * 2000-08-04 2003-05-28 Dynamic Digital Depth Research Pty. Ltd. Image conversion and encoding technique
DE10132243C2 (de) * 2001-07-04 2003-04-30 Fraunhofer Ges Forschung Kabelloses Interaktionssystem für Anwendungen der virtuellen Realität
US6888550B2 (en) * 2001-07-19 2005-05-03 International Business Machines Corporation Selecting between double buffered stereo and single buffered stereo in a windowing system
TWI238348B (en) * 2002-05-13 2005-08-21 Kyocera Corp Portable information terminal, display control device, display control method, and recording media
US20060109283A1 (en) * 2003-02-04 2006-05-25 Shipman Samuel E Temporal-context-based video browsing interface for PVR-enabled television systems
JP3953434B2 (ja) * 2003-03-20 2007-08-08 株式会社ソフィア 画像表示装置
US7685619B1 (en) * 2003-06-27 2010-03-23 Nvidia Corporation Apparatus and method for 3D electronic program guide navigation
DE10343967A1 (de) * 2003-09-19 2005-04-28 Icido Ges Fuer Innovative Info Räumliche Benutzungsschnittstelle zur Steuerung eines Graphiksystems der virtuellen Realität mittels einer Funktionsauswahl
US7178111B2 (en) * 2004-08-03 2007-02-13 Microsoft Corporation Multi-planar three-dimensional user interface
US20070281022A1 (en) * 2004-10-27 2007-12-06 Bunick Frank J Dosage forms having a microreliefed surface and methods and apparatus for their production
US8013873B2 (en) 2005-04-19 2011-09-06 Koninklijke Philips Electronics N.V. Depth perception
MX2007015348A (es) * 2005-06-06 2008-02-15 Tomtom Int Bv Dispositivo de navegacion con informacion de camara.
US20070052725A1 (en) * 2005-09-02 2007-03-08 Microsoft Corporation User interface for simultaneous experiencing multiple application pages
US20070136681A1 (en) * 2005-12-08 2007-06-14 Syntax Brillian Corp. On-screen display for configuring a display apparatus using graphic icons
KR20070079826A (ko) 2006-02-03 2007-08-08 삼성전자주식회사 디스플레이장치
US9076265B2 (en) * 2006-06-16 2015-07-07 Ati Technologies Ulc System and method for performing depth testing at top and bottom of graphics pipeline
KR100823272B1 (ko) * 2006-06-26 2008-04-21 삼성전자주식회사 3차원 메뉴 표시 방법 및 장치와 그 방법을 수행하는프로그램을 기록한 컴퓨터 판독 가능한 기록 매체
US8743109B2 (en) * 2006-08-31 2014-06-03 Kent State University System and methods for multi-dimensional rendering and display of full volumetric data sets
US7930650B2 (en) * 2006-09-11 2011-04-19 Apple Inc. User interface with menu abstractions and content abstractions
US20100091012A1 (en) 2006-09-28 2010-04-15 Koninklijke Philips Electronics N.V. 3 menu display
EP2105032A2 (en) 2006-10-11 2009-09-30 Koninklijke Philips Electronics N.V. Creating three dimensional graphics data
DE602007007369D1 (de) 2007-03-16 2010-08-05 Thomson Licensing System und verfahren zum kombinieren von text mit dreidimensionalem inhalt
US7782319B2 (en) * 2007-03-28 2010-08-24 Autodesk, Inc. Three-dimensional orientation indicator and controller
US8863219B2 (en) * 2007-12-31 2014-10-14 Robotarmy Corporation On screen television input management
US8208009B2 (en) * 2008-02-05 2012-06-26 Disney Enterprises, Inc. Stereoscopic image generation using retinal rivalry in scene transitions
JP4657313B2 (ja) * 2008-03-05 2011-03-23 富士フイルム株式会社 立体画像表示装置および方法並びにプログラム
WO2009157159A1 (ja) * 2008-06-24 2009-12-30 パナソニック株式会社 記録媒体、再生装置、集積回路、再生方法、プログラム
KR101315081B1 (ko) 2008-07-25 2013-10-14 코닌클리케 필립스 일렉트로닉스 엔.브이. 서브타이틀들의 3d 디스플레이 처리
US9124870B2 (en) 2008-08-20 2015-09-01 Samsung Electronics Co., Ltd. Three-dimensional video apparatus and method providing on screen display applied thereto
EP2326101B1 (en) * 2008-09-18 2015-02-25 Panasonic Corporation Stereoscopic video reproduction device and stereoscopic video display device
WO2010038412A1 (ja) * 2008-09-30 2010-04-08 パナソニック株式会社 3d映像が記録された記録媒体、3d映像を再生する再生装置、およびシステムlsi
JP4637942B2 (ja) * 2008-09-30 2011-02-23 富士フイルム株式会社 3次元表示装置および方法並びにプログラム
US20100107100A1 (en) * 2008-10-23 2010-04-29 Schneekloth Jason S Mobile Device Style Abstraction
JP5616352B2 (ja) * 2008-11-24 2014-10-29 コーニンクレッカ フィリップス エヌ ヴェ 三次元guiにおける二次元グラフィックスの拡張
CA2743569C (en) * 2008-12-01 2017-07-25 Imax Corporation Methods and systems for presenting three-dimensional motion pictures with content adaptive information
JP4399677B1 (ja) * 2009-01-13 2010-01-20 株式会社カシオ日立モバイルコミュニケーションズ 端末装置及びプログラム
US8269821B2 (en) * 2009-01-27 2012-09-18 EchoStar Technologies, L.L.C. Systems and methods for providing closed captioning in three-dimensional imagery
US8436918B2 (en) * 2009-02-27 2013-05-07 Deluxe Laboratories, Inc. Systems, apparatus and methods for subtitling for stereoscopic content
US8806371B2 (en) * 2009-03-26 2014-08-12 Apple Inc. Interface navigation tools
JP2010250562A (ja) * 2009-04-15 2010-11-04 Sony Corp データ構造、記録媒体、再生装置および再生方法、並びにプログラム
WO2010122775A1 (ja) * 2009-04-21 2010-10-28 パナソニック株式会社 映像処理装置及び映像処理方法
US9021399B2 (en) * 2009-06-24 2015-04-28 Lg Electronics Inc. Stereoscopic image reproduction device and method for providing 3D user interface
KR20120039703A (ko) * 2009-07-07 2012-04-25 엘지전자 주식회사 3차원 사용자 인터페이스 출력 방법
JP5067407B2 (ja) * 2009-09-10 2012-11-07 パナソニック株式会社 表示装置および表示方法
US9042636B2 (en) * 2009-12-31 2015-05-26 Disney Enterprises, Inc. Apparatus and method for indicating depth of one or more pixels of a stereoscopic 3-D image comprised from a plurality of 2-D layers
US9049431B2 (en) * 2009-12-31 2015-06-02 Cable Television Laboratories, Inc. Method and system for generation of captions over stereoscopic 3D images
US9087409B2 (en) * 2012-03-01 2015-07-21 Qualcomm Incorporated Techniques for reducing memory access bandwidth in a graphics processing system based on destination alpha values

Also Published As

Publication number Publication date
KR101275542B1 (ko) 2013-06-20
US20110254844A1 (en) 2011-10-20
JP2011228859A (ja) 2011-11-10
EP2378781A3 (en) 2012-02-29
KR20110115962A (ko) 2011-10-24
EP2378781A2 (en) 2011-10-19
CN102223549A (zh) 2011-10-19
EP2378781B1 (en) 2017-03-22
US9204126B2 (en) 2015-12-01

Similar Documents

Publication Publication Date Title
JP5143856B2 (ja) 3次元画像表示装置、および3次元画像表示方法
TWI558164B (zh) 產生用於顯示器之信號之方法及裝置
JP4903888B2 (ja) 画像表示装置、画像表示方法、および画像補正方法
EP2469866B1 (en) Information processing apparatus, information processing method, and program
JP4793451B2 (ja) 信号処理装置、画像表示装置、信号処理方法およびコンピュータプログラム
US11350156B2 (en) Method and apparatus for implementing video stream overlays
EP4012482A1 (en) Display
KR20160067045A (ko) 안구추적을 기반으로 한 홀로그램 디스플레이 방법 및 홀로그램 디스플레이 장치
TW201244459A (en) Immersive display experience
JP7191853B2 (ja) ヘッドマウントディスプレイおよび方法
JP7259753B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US9161018B2 (en) Methods and systems for synthesizing stereoscopic images
JP6963399B2 (ja) プログラム、記録媒体、画像生成装置、画像生成方法
US11187895B2 (en) Content generation apparatus and method
JP5563625B2 (ja) 画像解析装置、画像解析方法、および画像解析システム
JP2012080294A (ja) 電子機器、映像処理方法、及びプログラム
JP5222407B2 (ja) 画像表示装置、画像表示方法、および画像補正方法
JP2012090107A (ja) 立体映像処理装置及びその制御方法
WO2022255058A1 (ja) 情報処理装置および画像生成方法
JP2010258886A (ja) 撮像装置、プログラム、撮像方法
JP2019179048A (ja) 表示装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151130

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5143856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250