JP2012105200A - 3dコンテンツ表示装置、および3dコンテンツ表示方法 - Google Patents

3dコンテンツ表示装置、および3dコンテンツ表示方法 Download PDF

Info

Publication number
JP2012105200A
JP2012105200A JP2010253959A JP2010253959A JP2012105200A JP 2012105200 A JP2012105200 A JP 2012105200A JP 2010253959 A JP2010253959 A JP 2010253959A JP 2010253959 A JP2010253959 A JP 2010253959A JP 2012105200 A JP2012105200 A JP 2012105200A
Authority
JP
Japan
Prior art keywords
display
cpu
content
light source
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010253959A
Other languages
English (en)
Inventor
Kenei Yasumura
賢英 安村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2010253959A priority Critical patent/JP2012105200A/ja
Priority to PCT/JP2011/075964 priority patent/WO2012063911A1/ja
Publication of JP2012105200A publication Critical patent/JP2012105200A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/006Pseudo-stereoscopic systems, i.e. systems wherein a stereoscopic effect is obtained without sending different images to the viewer's eyes

Abstract

【課題】従来よりも大きな臨場感を実現することができる3Dコンテンツ表示装置および3Dコンテンツ表示方法を提供する。
【解決手段】3Dコンテンツ表示装置100(200)は、第1の画面に3Dコンテンツを3Dで表示するための第1の出力装置131(231)と、第1の出力装置131(231)に第1の画面に3Dコンテンツを3Dで表示させるとともに、第1の画面とは異なる第2の画面に、3Dコンテンツに対応する影の映像を出力するためのプロセッサ110(210)とを備える。
【選択図】図2

Description

本発明は、静止画像や動画像などの3Dのコンテンツを表示するための3Dコンテンツ表示装置および3Dコンテンツ表示方法に関する。
3Dの静止画像や3Dの動画像を立体的に表示することが可能な3Dコンテンツ表示装置が知られている。
たとえば、特開2010−3260号公報(特許文献1)には、地図表示装置が開示されている。特開2010−3260号公報(特許文献1)によると、地図表示装置は、表示画面が設けられている蓋体と、蓋体と回動可能に接続されている本体とを備えており、本体に対して表示画面が成す画面角度(相対角度)を角度検出部より取得し、取得した画面角度に基づいて、3Dオブジェクトが含まれる空間において、該3Dオブジェクトを捉える視点の角度である投影角度を、所定の角度算出規則にしたがって算出する投影角度算出部と、算出された投影角度に基づいて、上記3Dオブジェクトを投影し、上記表示画面に表示するための画面表示データを生成する3D描画部とを備えていることを特徴としている。
また、特開2009−186228号公報(特許文献2)には、3次元計測装置が開示されている。特開2009−186228号公報(特許文献2)によると、ステレオカメラからの左右映像上のエッジをエッジ抽出部で抽出し、等距離にある等で類似した複数のエッジをエッジグルーピング部でグループ化してエッジ集合を定義した上、2つの映像の対応領域を対応領域設定部で設定する。その領域内で対応領域相関部が、エッジ配列情報を抽出して比較を行い、類似度を演算して、その類似度の高いペアに対してサブピクセル単位の高精度な対応位置を求め、その結果から、距離計算部が距離を演算する。したがって、左右映像のエッジ集合同士の位置ズレをエッジ配置の類似性とともに評価することで、ロバストかつ精度良く求めることができるとともに、対応点探索処理を行う箇所を最小限にすることができる。
特開2010−3260号公報 特開2009−186228号公報
3Dコンテンツ表示装置は、3D映像を表示することによって、視聴者がより大きな臨場感を得られることが求められている。
本発明は、かかる問題を解決するためになされたものであり、その目的は、従来よりも大きな臨場感を実現することができる3Dコンテンツ表示装置および3Dコンテンツ表示方法を提供することにある。
この発明のある局面に従うと、第1の画面に3Dコンテンツを3Dで表示するための第1の出力装置と、第1の出力装置に第1の画面に3Dコンテンツを3Dで表示させるとともに、第1の画面とは異なる第2の画面に、3Dコンテンツに対応する影の映像を出力するためのプロセッサとを備える、3Dコンテンツ表示装置が提供される。
好ましくは、第1の出力装置は、第1の画面を有する第1のディスプレイである。
好ましくは、第1の出力装置は、第1の画面に3Dコンテンツを出力する第1のプロジェクタである。
好ましくは、3Dコンテンツ表示装置は、第2の画面を有する第2のディスプレイをさらに備える。
好ましくは、3Dコンテンツ表示装置は、第1の画面と第2の画面との位置関係を検出するための第1のセンサをさらに備える。プロセッサは、第1の画面に表示される3Dコンテンツと、仮想光源の位置と、位置関係と、に基づいて、3Dコンテンツの影の映像を計算する。
好ましくは、プロセッサは、通信インターフェイスを介して、影の映像を第2のプロジェクタに表示させる。
好ましくは、3Dコンテンツ表示装置は、第1の画面と第2のプロジェクタとの位置関係を検出する第2のセンサをさらに備える。プロセッサは、第1の画面に表示される3Dコンテンツと、仮想光源の位置と、位置関係と、に基づいて、3Dコンテンツの影の映像を計算する。
好ましくは、3Dコンテンツ表示装置は、第1の出力装置の姿勢を検出する姿勢センサをさらに備える。プロセッサは、第1の出力装置の姿勢に基づいて、影の映像を計算する。
この発明の別の局面に従うと、第1の出力装置とプロセッサとを含む3Dコンテンツ表示装置における3Dコンテンツ表示方法が提供される。3Dコンテンツ表示方法は、プロセッサが、3Dコンテンツを取得するステップと、プロセッサが、3Dコンテンツの影の映像を計算するステップと、プロセッサが、第1の出力装置に第1の画面に3Dコンテンツを3Dで表示させるとともに、第1の画面とは異なる第2の画面に、3Dコンテンツに対応する影の映像を出力するステップとを備える。
以上のように、本発明によって、従来よりも大きな臨場感を実現することができる3Dコンテンツ表示装置および3Dコンテンツ表示方法が提供される。
本実施の形態に係るコンピュータ100の外観を示すイメージ図である。 本実施の形態に係るコンピュータ100のハードウェア構成を示すブロック図である。 本実施の形態に係るコンピュータ100の機能構成を示すブロック図である。 本実施の形態に係るコンピュータ100が仮想光源10の位置に基づいて3D映像の影を表示することを示すイメージ図である。 仮想光源の位置に基づいて3Dオブジェクトを2Dディスプレイ132に射影する方法を示すイメージ図である。 3Dディスプレイ131(第1の筐体101)と2Dディスプレイ132(第2の筐体102)との角度が変化した状態を示すイメージ図である。 コンピュータ100の位置と姿勢とが変化した状態を示すイメージ図である。 仮想光源に所定の体積を有する場合を示すイメージ図である。 仮想光源12の明るさを変化させた状態を示すイメージ図である。 2つの仮想光源13A,13Bの位置を設定した状態を示すイメージ図である。 仮想光源14の色を変化させた状態を示すイメージ図である。 本実施の形態に係るコンピュータ100におけるコンテンツ表示処理の処理手順を示すフローチャートである。 仮想光源の位置をプロジェクタ300の位置に設定した場合のイメージ図である。 仮想光源の位置をプロジェクタ300の位置とは異なる位置に設定した場合のイメージ図である。 本実施の形態に係るコンピュータ200のハードウェア構成を示すブロック図である。 本実施の形態に係るコンピュータ200の機能構成を示すブロック図である。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
[実施の形態1]
本実施の形態においては、ノート型のパーソナルコンピュータ100(以下では、単にコンピュータ100という。)を「コンテンツ表示装置」の代表例として説明を行う。ただし、コンテンツ表示装置は、電子ノート、ゲーム機、PND(Personal Navigation Device)、PDA(Personal Data Assistance)、電子辞書、電子BOOK、テレビ、モニター、ポータブルプレーヤなどのようなディスプレイを有する他の情報機器であってもよい。また、スクリーンや壁等に映像を投影するプロジェクタを有する他の情報機器であってもよい。
そして、本実施の形態に係るコンピュータ100は、3Dの静止画像や3Dの動画像を3Dで表示することが可能な3Dディスプレイと、3Dの静止画像や3Dの動画像に対応する影を表示するための2Dディスプレイとを含む。ここで言うディスプレイは、たとえば、スクリーン等に映像を映し出す投影型のプロジェクタであってもよい。また、ここで言う2Dディスプレイとは、2Dでの表示が可能なディスプレイという位置づけであり、2Dディスプレイが3D表示機能を有していても良い。
より詳細には、後述する実施の形態2では、第2のディスプレイがプロジェクタである形態について説明する。実施の形態2と同様に、3Dディスプレイとして、3Dコンテンツを表示するプロジェクタを利用することも可能である。たとえば、映画館での利用やホームシアターでの利用のために、3Dディスプレイと2Dディスプレイとをプロジェクタによって実現することも可能である。この場合には、予め3Dコンテンツが表示される投影面と2Dの影の映像が表示される投影面との位置関係を、ユーザや管理人が予め設定しておくことができるため、後述する角度センサや姿勢センサは不要である。
現在、静止画像や動画像を3Dの表示で表示するための多数の方式が提案されている。たとえば、メガネを用いる方式として、液晶アクティブシャッターメガネ方式、カラーフィルタ方式および偏向板方式が挙げられる。また、メガネを用いない方式として、視差バリア方式およびレンチキュラー方式が挙げられる。本実施の形態に係る3Dの表示方式は、上記の方式に限定されるものではない。
<コンピュータ100の動作概要>
以下では、本実施の形態に係るコンピュータ100の動作概要について説明する。図1は、本実施の形態に係るコンピュータ100の外観を示すイメージ図である。
図1を参照して、本実施の形態に係るコンピュータ100は、第1の筐体101と、第1の筐体101とヒンジを介して接続される第2の筐体102とを含む。第1の筐体101は、コンテンツを3D表示することができる3Dディスプレイ131を有する。第2の筐体102は、コンテンツを2D表示することができる2Dディスプレイ132を有する。
3Dディスプレイ131は、後述するCPU(Central Processing Unit)100(図2を参照。)からの信号に基づいて、複数のオブジェクトを3D表示する。換言すれば、オブジェクトが3D表示されている場合、本実施の形態に係るコンピュータ100のユーザは、当該オブジェクトが3Dディスプレイ131から飛び出しているように見える。
2Dディスプレイ132は、3Dディスプレイ131における表示映像の飛び出し量(凹凸)に対応する影を表示する。たとえば、CPU110は、3Dディスプレイ131における表示映像の各点における飛び出し量を計算する。CPU110は、飛び出した部分を2Dディスプレイ132に射影した映像を射影データとして計算する。CPU110は、射影データに基づいて、2Dディスプレイ132に3Dコンテンツの影を表示させる。
以上のように、本実施の形態に係るコンピュータ100は、3Dディスプレイ131に3D表示される映像の凹凸に対応する影を2Dディスプレイ132に表示する。ユーザは、映像の飛び出しに応じた影が視界に入るため、従来よりも大きな臨場感が得られるようになる。
以下、このような機能を実現するためのコンピュータ100の構成について詳述する。
<コンピュータ100のハードウェア構成>
本実施の形態に係るコンピュータ100のハードウェア構成について説明する。図2は、本実施の形態に係るコンピュータ100のハードウェア構成を示すブロック図である。
図2に示すように、本実施の形態に係るコンピュータ100は、CPU110と、メモリ120と、3Dディスプレイ131と、2Dディスプレイ132と、入力デバイス140と、メモリインターフェイス160と、通信インターフェイス170と、角度センサ180と、位置姿勢センサ190とを含む。
3Dディスプレイ131は、CPU110に制御されることによって、様々な情報を3Dで表示する。たとえば、CPU110は、右目用の映像データと左目用の映像データとに基づいて、3Dディスプレイ131に映像を3Dで表示させる。CPU110は、3Dの立体モデルを表わすデータに基づいて、右目用の映像データと左目用の映像データとを生成してもよい。
2Dディスプレイ132は、CPU110によって制御されることによって、様々な情報を2Dで表示する。たとえば、CPU110は、3Dディスプレイ131に表示されているオブジェクトの影を表す射影データを生成する。CPU110は、2Dディスプレイ132に影の映像を表示させる。
入力デバイス140は、ユーザの指やスタイラスペンによるタッチ操作を検出するためのタブレットを含む。タブレットは、3Dディスプレイ131および/あるいは2Dディスプレイ132の表面に敷設される。入力デバイス140は、コンピュータ100の表面に配置されるあるいは有線ないし無線で接続される、決定キーやテンキーやQWERTYキーボード、ポインティングデバイス、音声や映像による入力を受け付ける認識デバイス等を含む。CPU110は、入力デバイス140を介して、ユーザからの命令を受け付けることができる。
CPU110は、メモリインターフェイス160を介して外部の記憶媒体161に格納されているデータを読み出して、当該データをメモリ120に格納する。逆に、CPU110は、メモリ120からデータを読み出して、メモリインターフェイス160を介して当該データを外部の記憶媒体161に格納する。
なお、記憶媒体161としては、CD−ROM(Compact Disc - Read Only Memory)、DVD−ROM(Digital Versatile Disk - Read Only Memory)、Blu-ray Disc、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。
通信インターフェイス170は、アンテナやコネクタによって実現される。通信インターフェイス170は、有線通信あるいは無線通信によって他の装置との間でデータをやり取りする。CPU110は、通信インターフェイス170を介して、他の装置からプログラムや3Dコンテンツデータなどを受信したり、他の装置にデータを送信したりする。
角度センサ180は、第1の筐体101と第2の筐体102との間の角度を検出する。角度センサ180は、検出した角度をCPU110に入力する。
位置姿勢センサ190は、第1の筐体101の位置や姿勢を検出する。位置姿勢センサ190は、加速度センサ、角速度センサ、方位センサ、画像認識、GPSなどによって実現され、第1の筐体101の位置や姿勢を、CPU110に入力する。
メモリ120は、各種のRAM(Random Access Memory)や、ROM(Read-Only Memory)や、ハードディスクなどによって実現される。あるいは、メモリ120は、読取用のインターフェイスを介して利用される、USB(Universal Serial Bus)メモリ、CD−ROM(Compact Disc - Read Only Memory)、DVD−ROM(Digital Versatile Disk - Read Only Memory)、Blu-ray Disc、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体などによっても実現される。メモリ120は、CPU110によって実行されるプログラムや、CPU110によるプログラムの実行により生成されたデータ、入力デバイス140を介して入力されたデータなどを記憶する。
メモリ120は、CPU110によって実行される制御プログラムや、3Dの映像データなどを記憶する。3Dの映像データは、3Dの静止画像を表示するための3Dの静止画像データ、3Dの動画像を表示するための3Dの動画像データ、3Dモデルを示すモデルデータを含む。
CPU110は、メモリ120に記憶されている各種のプログラムを実行する。コンピュータ100における機能(図3の機能ブロックなど)や処理(図12に示す処理など)は、各ハードウェアおよびCPU110により実行されるソフトウェアによって実現される。このようなソフトウェアは、メモリ120に予め記憶されている場合がある。また、ソフトウェアは、上述した記憶媒体に格納されて、プログラム製品として流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。
このようなソフトウェアは、メモリインターフェイス160を利用することによってその記憶媒体から読み取られて、あるいは、通信インターフェイス170を利用することによってダウンロードされて、メモリ120に一旦格納される。CPU110は、ソフトウェアを実行可能なプログラムの形式でメモリ120に格納してから、当該プログラムを実行する。
ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。
CPU110は、メモリ120に格納されている3D映像データに基づいて、3Dディスプレイ131に映像を3Dで表示させる。CPU110は、3Dディスプレイ131にオブジェクトの凹凸が認識できるように表示させる。換言すれば、ユーザには、オブジェクトが3Dディスプレイ131の手前や奥に存在するように見える。
本実施の形態に係るCPU110は、3Dディスプレイ131における表示映像の凹凸に対応する影を、2Dディスプレイ132に表示させる。たとえば、CPU110は、3Dディスプレイ131における表示映像の飛び出し量を計算する。CPU110は、飛び出した部分を2Dディスプレイ132に射影した映像を影として計算する。CPU110は、2Dディスプレイ132に影を表示させる。
<コンピュータ100の機能構成>
次に、本実施の形態に係るコンピュータ100の機能構成について説明する。図3は、本実施の形態に係るコンピュータ100の機能構成を示すブロック図である。図4は、本実施の形態に係るコンピュータ100が仮想光源10の位置に基づいて3D映像の影を表示することを示すイメージ図である。
図3を参照して、コンピュータ100は、3D映像データ取得部111と、3D座標データ算出部112と、仮想光源データ取得部113と、射影データ算出部114と、映像データ同期部115と、描画部116とを含む。コンピュータ100は、図2にも示したように、3Dディスプレイ131と2Dディスプレイ132とも含む。
3D映像データ取得部111と、3D座標データ算出部112と、仮想光源データ取得部113と、射影データ算出部114と、映像データ同期部115と、描画部116とは、CPU110およびメモリ120によって実現される機能である。より詳細には、CPU110が有する各機能は、CPU110がメモリ120などに記憶される制御プログラムを実行して、図2に示される各ハードウェアを制御することによって実現される機能である。
ただし、3D映像データ取得部111、3D座標データ算出部112、仮想光源データ取得部113、射影データ算出部114、映像データ同期部115、描画部116の一部または全部が、映像処理エンジンまたはハードウェア回路によって実現されてもよい。
3D映像データ取得部111は、メモリ120から3D映像データ(右目用映像と左目用映像)を読み出す。3D映像データ取得部111は、3D映像データを3D座標データ算出部112に受け渡す。
図3および図4を参照して、3D座標データ算出部112は、右目用映像と左目用映像とに基づいて、3Dの座標データを算出する。すなわち、3D座標データ算出部112は、右目用映像と左目用映像とに基づいて、3D映像を構成する各点の飛び出し量を計算することができる。たとえば、3D座標データ算出部112は、特開2009−186228号公報に記載の方法に基づいて、3D座標データを算出することができる。
あるいは、3D座標データ算出部112は、バーチャル映像のように、3D座標データ(3Dモデルデータ)を含む映像を取得した場合は、スケーリングや回転等の行列計算を介して、3D座標データを算出することができる。
仮想光源データ取得部113は、メモリ120から仮想光源10の位置を取得する。あるいは、仮想光源データ取得部113は、入力デバイス140を介して、ユーザから仮想光源10の位置を取得する。
射影データ算出部114は、算出された3D座標データと、仮想光源10の位置とに基づいて、3Dオブジェクトが仮想光源によって2Dディスプレイ132に射影されたと仮定した場合の射影データを算出する。
ここで、射影データ算出部114における処理を詳しく説明する。図5は、仮想光源の位置に基づいて3Dオブジェクトを2Dディスプレイ132に射影する方法を示すイメージ図である。
図5を参照して、3Dオブジェクトの各々をAn(ただしn=1,2,・・・N)とし、仮想光源をS(s1,s2,s3)とし、2Dディスプレイ132が存在する平面をD(ax+by+cz=d、a,b,c,dは定数)とする。なお、点O(0,0,0)は、3Dディスプレイ131の頂点の一つとする。
この時、SとOとを結ぶ直線lsは、
x/s1=y/s2=z/s3
で表される。この式と平面Dを示す式とに基づいて、α=a*s1+b*s2+c*s3とすると、SからDへのOの写像Odは(d*s1/α,d*s2/α,d*s3/α)で表される。
2Dディスプレイ132の表示可能な領域だけを表す場合は、例えば表示領域が四角形の場合は、それぞれの辺のどちら側が表示領域かを表すための4つの不等式で表す事ができる(式1)。
次に、SからDに対するAnの射影の算出方法について説明する。
Aは、Dと平行な平面Eと交わるものとする。この時、平面Eは、ax+bx+cz=e(ただし、emin≦e≦emax)で表される。AとEが交わった部分である2次元の図形をA(e)とする。また、直線lsと平面Eとが交わる点Oeは、(e*s1/α,e*s2/α,e*s3/α)で表される。A(e)の領域内部の点は全てOeからのベクトルで表現する事ができる。これらのベクトル群をVa(e)とする。
SからDまでの距離と、SからEまでの距離の比は、SからOdまでの距離と、SからOeまでの距離の比に等しいので、以下の式が成り立つ。
d*s1/α−s1:e*s1/α−s1=d−α:e−α
よって、SからDに対するA(e)の射影は、Odからのベクトル群{(d−α)/(e−α)}*Va(e)として表される(式2)。
SからDに対するAの射影は、式2においてemin≦e≦emaxを満たすeにより作られる全てのA(e)の領域の集合φadで表す事ができる。2Dディスプレイ132に表示される射影は、φadの内、式1によって決定される不等式を満たすベクトル群により表す事ができる。以上より、光源Sから2Dディスプレイ132に対する、Aの射影を算出する事ができる。
特に光源Sが無限遠点にある場合は、d−α=e−αとなり、式2はVa(e)と表されるため、計算が簡略化される。
さらに、SとOdとを結ぶ直線が平面Dと垂直であり、a,b,cの内、2つの値が0である場合、平面Dは、ax=d、または、by=d、または、cz=d、と表される。式2のVa(e)は、平面D上の座標(0,0)からのベクトル群とみなされるので、さらに計算が簡略化される。このように計算を簡略化することにより、基本的な機能を損なわずに処理速度の遅い装置においても、リアルタイムに射影算出できる可能性を高めることができる。
図3および図4に戻って、映像データ同期部115は、描画部116を通って、3D映像データと射影データとを同時に3Dディスプレイ131と2Dディスプレイ132とに表示させる。ただし、3D静止画像を表示する場合や、射影データを作成する時間が人間がずれを感じないくらい短い場合などは、3D映像データと射影データとを同期させるための機能を設ける必要はない。
なお、射影データ算出部114は、算出された射影に対して、拡大または縮小または一方向への伸縮または平行移動等の処理を行ってから、描画部116に出力してもよい。これらの処理により、臨場感を与えるための適切な表示サイズ・表示位置を調節したり、擬似的に仮想光源を移動させたりするための計算を簡略化にできる。たとえば、算出された射影を縮小し、無限遠点にある仮想光源により生成される正射影よりも小さくした場合は、影が2Dディスプレイ132よりも遠くにあるかのような印象を与える事もできる。
たとえば、3Dディスプレイ131よりも手前にある座標にある(飛び出して見える)オブジェクトのみを射影する場合、仮想光源が3Dディスプレイ131と同じ面にあるものと仮定することによって計算を簡略化できる。
さらに、仮想光源が3Dディスプレイ131と同じ面にあり且つ無限遠点にあり、仮想光源からの入射光が3Dディスプレイ131のx軸又はy軸と平行である場合、2Dディスプレイ132が入射光に垂直であると仮定して射影データを計算することにより、2Dディスプレイ132に表示される射影は3Dオブジェクトのx成分又はy成分を0にするだけで算出できる正射影となるので、さらに計算を簡略化する事が可能である。
また、これらの場合においても、算出された射影に対して、拡大または縮小または一方向への伸縮または平行移動等の処理を行う事により、適切な表示サイズおよび表示位置を調節したり、擬似的に仮想光源10を移動させたりする事ができる。
このように構成することによって、本実施の形態においては、3Dディスプレイ131(第1の筐体101)に対する仮想光源10の相対位置が一定である場合、3Dディスプレイ131(第1の筐体101)と2Dディスプレイ132(第2の筐体102)との角度が変化すると、2Dディスプレイ132に表示される影の映像も変化する。図6は、3Dディスプレイ131(第1の筐体101)と2Dディスプレイ132(第2の筐体102)との角度が変化した状態を示すイメージ図である。
図6を参照して、CPU110によって実現される射影データ算出部114は、角度センサ180から、3Dディスプレイ131(第1の筐体101)と2Dディスプレイ132(第2の筐体102)との角度を取得する。射影データ算出部114は、当該角度と仮想光源10の位置とに基づいて、射影データを生成する。描画部116は、射影データを2Dディスプレイ132に表示させる。
あるいは、コンピュータ100の位置や姿勢が変化しても、仮想光源10の絶対位置が変化しない構成にすることもできる。すなわち、コンピュータ100の位置および/姿勢が変化すると、2Dディスプレイ132に表示される影の映像も変化する。この場合には、図2に示すように、コンピュータ100にとって、位置姿勢センサ190が必須の要素になる。
図7は、コンピュータ100の位置と姿勢とが変化した状態を示すイメージ図である。図7を参照して、CPU110は、位置姿勢センサ190から、コンピュータ100の位置と姿勢とを取得する。CPU110は、コンピュータ100の位置と姿勢と仮想光源10の位置とに基づいて、射影データを生成する。CPU110は、射影データを2Dディスプレイ132に表示させる。
さらに、コンピュータ100のCPU110は、入力デバイス140を介して、ユーザから仮想光源の位置や大きさの設定を受け付けることが好ましい。仮想光源の半径が設定できる場合、換言すれば、仮想光源が体積を有する場合、CPU110は、2Dディスプレイ132を、影の内側エリアの色と、影の輪郭エリアの色と、影から離れたエリアの色とが異なるように制御する。図8は、仮想光源11が所定の体積を有する場合を示すイメージ図である。
図8を参照して、CPU110は、飛び出した映像によって仮想光源11が全く隠れないエリアが明るい光(第1の輝度)を発し、飛び出した映像によって仮想光源11の一部が隠れるエリアが灰色の光(第1の輝度よりも低い第2の輝度)を発し、飛び出した映像によって仮想光源11が完全に隠れるエリアが黒い光(第2の輝度よりも低い第3の輝度)を発するように、2Dディスプレイ132を制御する。なお、第2の輝度は輝度の範囲を指すものである。第2の輝度は、第1の輝度と第3の輝度の間の範囲であれば灰色の光のエリア全てにおいて同じ輝度である必要はない。例えば、第1の輝度との境界から第3の輝度との境界にかけて徐々に白から黒に変化するグラデーションとなるように設定してもよい。
さらに、コンピュータ100のCPU110は、入力デバイス140を介して、ユーザから仮想光源の明るさを受け付けることが好ましい。図9は、仮想光源12の明るさを変化させた状態を示すイメージ図である。図9を参照して、CPU110によって実現される描画部116は、2Dディスプレイ132のうち、仮想光源12の明るさに対応する輝度を、影エリア以外のエリアに設定する。
さらに、コンピュータ100のCPU110は、入力デバイス140を介して、ユーザから仮想光源の個数と各々の仮想光源の位置とを受け付けることが好ましい。図10は、2つの仮想光源13A,13Bの位置を設定した状態を示すイメージ図である。図10を参照して、CPU110は、飛び出した映像によって1つも仮想光源が隠れないエリアが明るい光(第1の輝度)を発し、飛び出した映像によって1つだけの仮想光源が隠れるエリアが灰色の光(第1の輝度よりも低い第2の輝度)を発し、飛び出した映像によって仮想光源が2つとも隠れるエリアが黒い光(第2の輝度よりも低い第3の輝度)を発するように、2Dディスプレイ132を制御する。
さらに、コンピュータ100のCPU110は、入力デバイス140を介して、ユーザから仮想光源の色を受け付けることが好ましい。図11は、仮想光源14の色を変化させた状態を示すイメージ図である。図11を参照して、CPU110は、2Dディスプレイ132に、仮想光源14の色に対応する輝度・彩度・色相で影および影以外のエリアを表示させる。、輝度・彩度・色相の代わりに、色空間を表す他の尺度を使用してもよい。
<コンピュータ100におけるコンテンツ表示処理>
次に、本実施の形態に係るコンピュータ100におけるコンテンツ表示処理について説明する。図12は、本実施の形態に係るコンピュータ100におけるコンテンツ表示処理の処理手順を示すフローチャートである。以下では、射影データ算出部114が、3Dディスプレイ131よりも手前に飛び出している部分(オブジェクト)のみを2Dディスプレイ132に射影する場合について説明する。
図12を参照して、まず、コンピュータ100のCPU110は、メモリ120から仮想光源の属性を読み出す(ステップS102)。たとえば、CPU110は、各々の仮想光源の位置、大きさ、明るさ、色などを取得する。
CPU110は、ユーザからのコンテンツを指定するための命令に従って、メモリ120から3D表示用の映像データ(3Dコンテンツデータ)を読み出す(ステップS104)。あるいは、CPU110は、通信インターフェイス170やTVアンテナなどを介して、外部から3Dコンテンツデータを取得する。より詳細には、3D表示用の映像データは、右目用の映像データと左目用の映像データとを含む。
CPU110は、映像データに基づいて、3D座標データを算出する(ステップS106)。より詳細には、たとえば、特開2009−186228号公報に記載のように、CPU110は、映像データのうちの3Dディスプレイ131から飛び出して見える部分のみに対して、スケーリングや回転等の行列演算によって、装置の状態に対応した3D座標データを計算する。
CPU110は、3D座標データと、仮想光源の属性とに基づいて、2Dディスプレイ132に表示されるべき影の映像を示す射影データを生成する(ステップS108)。通常の設定においては、CPU110は、仮想光源が3Dディスプレイ131と同じ平面にあるものとして、射影データを生成する。上述したように、CPU110は、算出された射影データに対して、拡大または縮小または一方向への伸縮または平行移動等の処理を行ってもよい。
CPU110によって実現される映像データ同期部115は、映像データと射影データの出力の同期を取る(ステップS110)。
CPU110によって実現される描画部116は、右目用の映像データと左目用の映像データとに基づいて、3Dディスプレイ131に3D映像を表示させる(ステップS112)。同時に、CPU110は、2Dディスプレイ132に3D映像に対応する影の映像を表示させる。
CPU110は、再生を継続すべきか否かを判断する(ステップS114)。CPU110は、再生停止命令を受け付けた場合または動画が終了した場合(ステップS114においてNOである場合)、コンテンツ表示処理を終了する。
CPU110は、再生を継続すべき場合(ステップS114においてYESである場合)、入力デバイス140を介してユーザから仮想光源の属性を変更するための命令を受け付けたか否かを判断する(ステップS116)。CPU110は、仮想光源の属性を変更するための命令を受け付けた場合(ステップS116においてYESである場合)、ステップS102からの処理を繰り返す。CPU110は、仮想光源の属性を変更するための命令を受け付けなかった場合(ステップS116においてNOである場合)、ステップS104からの処理を繰り返す。
なお、射影データ算出部114が、3Dディスプレイ131よりも奥に位置するように見えるオブジェクトについても射影データを算出する場合について説明する。すなわち、3Dディスプレイ131の平面よりも奥に仮想光源が位置する場合について説明する。CPU110は、ステップS104、S106,S108において、以下のような処理を実行する。
ステップS104においては、CPU110は、ユーザからのコンテンツを指定するための命令に従って、メモリ120から3D表示用の映像データ(3Dコンテンツデータ)を読み出す(ステップS104)。あるいは、CPU110は、通信インターフェイス170やTVアンテナなどを介して、外部から3Dコンテンツデータを取得する。たとえば、CPU110は、3Dモデルデータに基づいて、右目用の映像データと左目用の映像データとを生成してもよい。
ステップS106においては、CPU110は、3Dモデルデータに基づいて、3D座標データを算出する。より詳細には、たとえば、特開2009−186228号公報に記載のように、CPU110は、3Dモデルデータの全て(3Dディスプレイ131の表面よりも奥に位置するように見える部分を含む)に対して、スケーリングや回転等の行列演算によって、装置の状態に対応した3D座標データを計算する。
CPU110は、3D座標データと、仮想光源の属性とに基づいて、2Dディスプレイ132に表示されるべき影の画像を示す射影データを生成する(ステップS108)。上述したように、CPU110は、算出された射影データに対して、拡大または縮小または一方向への伸縮または平行移動等の処理を行ってもよい。
[実施の形態2]
次に、本発明の実施の形態2について説明する。上述の実施の形態1に係るコンピュータ100は、2つのディスプレイを有するものであった。そして、コンピュータ100は、3Dディスプレイ131に映像を3Dで表示しつつ、2Dディスプレイ132に当該映像に対応する影を表示するものであった。一方、本実施の形態に係るコンピュータ100は、3Dディスプレイ231に映像を3Dで表示しつつ、外部のプロジェクタ300に当該映像に対応する影を出力させるものである。
本実施の形態においては、コンピュータ200を「コンテンツ表示装置」の代表例として説明を行う。ただし、コンテンツ表示装置は、電子ノート、ゲーム機、PND、PDA、電子辞書、電子BOOKなどのようなディスプレイを有する他の情報機器であってもよい。
そして、本実施の形態に係るコンピュータ200は、3Dの静止画像や3Dの動画像を3Dで表示することが可能な3Dディスプレイを含む。上述したように、現在、静止画像や動画像を3Dの表示で表示するための多数の方式が提案されている。
<コンピュータ200の動作概要>
以下では、本実施の形態に係るコンピュータ200の動作概要について説明する。図13は、仮想光源の位置をプロジェクタ300の位置に設定した場合のイメージ図である。図14は、仮想光源の位置をプロジェクタ300の位置とは異なる位置に設定した場合のイメージ図である。
図13および図14を参照して、本実施の形態に係るコンピュータ200は、コンテンツを3D表示することができる3Dディスプレイ231を有する。3Dディスプレイ231は、後述するCPU210(図15を参照。)からの信号に基づいて、複数のオブジェクトを3D表示する。換言すれば、オブジェクトが3D表示されている場合、本実施の形態に係るコンピュータ200のユーザは、当該オブジェクトが3Dディスプレイ231から飛び出しているように見える。
コンピュータ200は、プロジェクタ300とデータ通信可能に構成されている。プロジェクタ300は、3Dディスプレイ231における表示映像の飛び出した量(凹凸)に対応する影を表示する。たとえば、CPU210は、3Dディスプレイ231における表示映像の各点における飛び出し量を計算する。CPU210は、飛び出した部分をプロジェクタ300の投影面(3Dディスプレイ231とは異なる画面)に射影した映像を射影データとして計算する。CPU210は、射影データに基づいて、プロジェクタ300に3Dコンテンツの影を表示させる。
以上のように、本実施の形態に係るコンピュータ200は、3Dディスプレイ231に3D表示される映像の凹凸に対応する影をプロジェクタ300に投影させる。ユーザは、映像の飛び出しに応じた影が視界に入るため、従来よりも大きな臨場感が得られるようになる。
なお、図13に示すように、コンピュータ200は、プロジェクタ300の位置に仮想光源が位置するものと仮定してもよい。あるいは、図14に示すように、コンピュータ200は、3Dディスプレイ231の面上に仮想光源が位置するものと仮定して、3Dディスプレイ231に表示される映像の影を計算してもよい。より詳細には、コンピュータ200は、プロジェクタ300から3Dディスプレイ231の面上に降ろした垂線と3Dディスプレイ231の面との光点に仮想光源が位置するものと仮定してもよい。また、3Dディスプレイとプロジェクタは同じ筺体に収まる一体型であってもよい。
以下、このような機能を実現するためのコンピュータ200の構成について詳述する。
<コンピュータ200のハードウェア構成>
本実施の形態に係るコンピュータ200のハードウェア構成について説明する。図15は、本実施の形態に係るコンピュータ200のハードウェア構成を示すブロック図である。
図15に示すように、本実施の形態に係るコンピュータ200は、CPU210と、メモリ220と、3Dディスプレイ231と、入力デバイス240と、メモリインターフェイス260と、通信インターフェイス270と、角度センサ280と、位置姿勢センサ290とを含む。
3Dディスプレイ231は、CPU210に制御されることによって、様々な情報を3Dで表示する。たとえば、CPU210は、右目用の映像データと左目用の映像データとに基づいて、3Dディスプレイ231に映像を3Dで表示させる。CPU210は、3Dの立体モデルを表わすデータに基づいて、右目用の映像データと左目用の映像データとを生成してもよい。
入力デバイス240は、ユーザの指やスタイラスペンによるタッチ操作を検出するためのタブレットを含む。タブレットは、3Dディスプレイ231および/あるいはプロジェクタ300の表面に敷設される。入力デバイス240は、コンピュータ200の表面に配置される決定キーやテンキーやQWERTYキーボードを含む。CPU210は、入力デバイス140を介して、ユーザからの命令を受け付けることができる。
CPU210は、メモリインターフェイス260を介して外部の記憶媒体261に格納されているデータを読み出して、当該データをメモリ220に格納する。逆に、CPU210は、メモリ220からデータを読み出して、メモリインターフェイス260を介して当該データを外部の記憶媒体261に格納する。
なお、記憶媒体261としては、CD−ROM(Compact Disc - Read Only Memory)、DVD−ROM(Digital Versatile Disk - Read Only Memory)、Blu-ray Disc、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。
通信インターフェイス270は、アンテナやコネクタによって実現される。通信インターフェイス170は、有線通信あるいは無線通信によって他の装置との間でデータをやり取りする。CPU210は、通信インターフェイス270を介して、他の装置からプログラムや3Dコンテンツデータなどを受信したり、他の装置にデータを送信したりする。
CPU210は、通信インターフェイス270を介して、後述するプロジェクタ300に射影データを送信することによって、プロジェクタ300に影の映像を出力させる。
角度センサ280は、赤外線センサ、加速度センサ、角速度センサ、方位センサ、画像認識などによって実現され、3Dディスプレイ231とプロジェクタ300(あるいはプロジェクタ300の投影面)との間の角度を検出する。なお、本実施の形態においては、プロジェクタ300の照射方向がプロジェクタ300の投影面に対して垂直であるものと仮定している。角度センサ280は、検出した角度をCPU210に入力する。
位置姿勢センサ290は、3Dディスプレイ231の位置や姿勢を検出する。位置姿勢センサ290は、3Dディスプレイ231の位置や姿勢を、CPU210に入力する。
メモリ220は、各種のRAM(Random Access Memory)や、ROM(Read-Only Memory)や、ハードディスクなどによって実現される。あるいは、メモリ220は、読取用のインターフェイスを介して利用される、USB(Universal Serial Bus)メモリ、CD−ROM(Compact Disc - Read Only Memory)、DVD−ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体などによっても実現される。メモリ220は、CPU210によって実行されるプログラムや、CPU210によるプログラムの実行により生成されたデータ、入力デバイス240を介して入力されたデータなどを記憶する。
メモリ220は、CPU210によって実行される制御プログラムや、3Dの映像データなどを記憶する。3Dの映像データは、3Dの静止画像を表示するための3Dの静止画像データ、3Dの動画像を表示するための3Dの動画像データ、3Dモデルを示すモデルデータを含む。
CPU210は、メモリ220に記憶されている各種のプログラムを実行する。コンピュータ200における機能(図16の機能ブロックなど)や処理(図12に示す処理など)は、各ハードウェアおよびCPU210により実行されるソフトウェアによって実現される。このようなソフトウェアは、メモリ220に予め記憶されている場合がある。また、ソフトウェアは、上述した記憶媒体に格納されて、プログラム製品として流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。
このようなソフトウェアは、メモリインターフェイス260を利用することによってその記憶媒体から読み取られて、あるいは、通信インターフェイス270を利用することによってダウンロードされて、メモリ220に一旦格納される。CPU210は、ソフトウェアを実行可能なプログラムの形式でメモリ220に格納してから、当該プログラムを実行する。
ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。
CPU210は、メモリ220に格納されている3D映像データに基づいて、3Dディスプレイ231に映像を3Dで表示させる。CPU210は、3Dディスプレイ231にオブジェクトを凹凸が認識できるように表示させる。換言すれば、ユーザには、オブジェクトが3Dディスプレイ231の手前や奥に存在するように見える。
プロジェクタ300は、CPU210によって制御されることによって、様々な情報を2Dで表示する。たとえば、CPU210は、3Dディスプレイ231に表示されているオブジェクトの影を表す射影データを生成する。CPU210は、プロジェクタ300に影の映像を表示させる。
本実施の形態に係るCPU210は、3Dディスプレイ231における表示映像の凹凸に対応する影を、プロジェクタ300に表示させる。たとえば、CPU210は、3Dディスプレイ231における表示映像の飛び出し量を計算する。CPU210は、飛び出した部分をプロジェクタ300の投影面に射影した映像を影として計算する。CPU210は、飛び出した部分をプロジェクタ300に送信する。CPU210は、プロジェクタ300に影を表示させる。
<コンピュータ200の機能構成>
次に、本実施の形態に係るコンピュータ200の機能構成について説明する。図16は、本実施の形態に係るコンピュータ200の機能構成を示すブロック図である。
図16を参照して、コンピュータ200は、3D映像データ取得部211と、3D座標データ算出部212と、仮想光源データ取得部213と、射影データ算出部214と、映像データ同期部215と、描画部216とを含む。コンピュータ200は、図13〜15にも示したように、3Dディスプレイ231も含む。コンピュータ200は、プロジェクタ300と通信可能である。
3D映像データ取得部211と、3D座標データ算出部212と、仮想光源データ取得部213と、射影データ算出部214と、映像データ同期部215と、描画部216とは、CPU210およびメモリ220によって実現される機能である。より詳細には、CPU210が有する各機能は、CPU210がメモリ220などに記憶される制御プログラムを実行して、図15に示される各ハードウェアを制御することによって実現される機能である。
ただし、3D映像データ取得部211、3D座標データ算出部212、仮想光源データ取得部213、射影データ算出部214、映像データ同期部215、描画部216の一部または全部が、映像処理エンジンまたはハードウェア回路によって実現されてもよい。
なお、3D映像データ取得部211、3D座標データ算出部212、仮想光源データ取得部213、射影データ算出部214は、それぞれ、実施の形態1に係る3D映像データ取得部111、3D座標データ算出部112、仮想光源データ取得部113、射影データ算出部114と同様であるためここでは説明を繰り返さない。
また、射影データ算出部114における処理も実施の形態1に係るそれらと同様であるため、ここでは説明を繰り返さない。
映像データ同期部215は、描画部216を通って、3D映像データと射影データとを同時に3Dディスプレイ231とプロジェクタ300とに出力させる。ただし、3D静止画像を表示する場合や、射影データを作成する時間が人間がずれを感じないくらい短い場合などは、3D映像データと射影データとを同期させるための機能を設ける必要はない。
このように構成したため、3Dディスプレイ231に対する仮想光源の相対位置が一定である場合、3Dディスプレイ231とプロジェクタ300(プロジェクタ300の投影面)との角度が変化すると、プロジェクタ300に表示される影の映像も変化する。
また、本実施の形態においても、角度センサ280などを利用することによって、3Dディスプレイ231とプロジェクタ300との角度を取得してもよい。CPU210は、当該角度に基づいて、射影データを生成する。CPU210は、射影データをプロジェクタ300に表示させる。
あるいは、コンピュータ200の位置や姿勢が変化しても、仮想光源の絶対位置が変化しない構成にすることもできる。すなわち、コンピュータ200の位置および/姿勢が変化すると、プロジェクタ300に表示される影の映像も変化する。この場合には、図15に示すように、コンピュータ200にとって、位置姿勢センサ290が必須の要素になる。
CPU210は、位置姿勢センサ290から、コンピュータ200の位置と姿勢とを取得する。CPU210は、当該位置と姿勢とに基づいて、射影データを生成する。CPU210は、射影データをプロジェクタ300に表示させる。
さらに、コンピュータ200のCPU210は、入力デバイス240を介して、ユーザから仮想光源の位置や大きさの設定を受け付けることが好ましい。仮想光源の半径が設定できる場合、換言すれば、仮想光源に体積がある場合、CPU210は、プロジェクタ300を、影の内側エリアの色と、影の輪郭エリアの色と、影から離れたエリアの色とが異なるように制御する。
さらに、CPU210は、飛び出した映像によって仮想光源が全く隠れないエリアが明るい光(第1の輝度)を発し、飛び出した映像によって仮想光源の一部が隠れるエリアが灰色の光(第1の輝度よりも低い第2の輝度)を発し、飛び出した映像によって仮想光源が完全に隠れるエリアが黒い光(第2の輝度よりも低い第3の輝度)を発するように、プロジェクタ300を制御する。
さらに、コンピュータ200のCPU210は、入力デバイス140を介して、ユーザから仮想光源12の明るさを受け付けることが好ましい。CPU210によって実現される描画部116は、プロジェクタ300のうち、仮想光源の明るさに対応する輝度を、影エリア以外のエリアに設定する。
さらに、コンピュータ200のCPU210は、入力デバイス240を介して、ユーザから仮想光源の個数と各々の仮想光源の位置とを受け付けることが好ましい。CPU210は、飛び出した映像によって1つも仮想光源が隠れないエリアが明るい光(第1の輝度)を発し、飛び出した映像によって1つだけの仮想光源が隠れるエリアが灰色の光(第1の輝度よりも低い第2の輝度)を発し、飛び出した映像によって仮想光源が2つとも隠れるエリアが黒い光(第2の輝度よりも低い第3の輝度)を発するように、プロジェクタ300を制御する。
さらに、コンピュータ200のCPU210は、入力デバイス240を介して、ユーザから仮想光源14の色を受け付けることが好ましい。CPU210は、プロジェクタ300に、仮想光源の色に対応する輝度で影および影以外のエリアを表示させる。
<コンピュータ200におけるコンテンツ表示処理>
次に、本実施の形態に係るコンピュータ200におけるコンテンツ表示処理について説明する。本実施の形態に係るコンピュータ200におけるコンテンツ表示処理は、実施の形態1におけるものと同様であるため、ここでは説明を繰り返さない。
ただし、本実施の形態においては、ステップS110において、CPU210によって実現される映像データ同期部215は、映像データと射影データの出力の同期を取る。
そして、ステップS112において、CPU210によって実現される描画部216は、右目用の映像データと左目用の映像データとに基づいて、3Dディスプレイ231に3D映像を表示させる。同時に、CPU210は、プロジェクタ300に3D映像に対応する影の映像を表示させる。
<本実施の形態に係るコンピュータ200のその他の適用例>
本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
10,11,12,13A,13B,14 仮想光源、100 コンピュータ、101 第1の筐体、102 第2の筐体、110 CPU、111 映像データ取得部、112 座標データ算出部、113 仮想光源データ取得部、114 射影データ算出部、115 映像データ同期部、116 描画部、120 メモリ、131 3Dディスプレイ、132 2Dディスプレイ、140 入力デバイス、160 メモリインターフェイス、161 記憶媒体、170 通信インターフェイス、180 角度センサ、190 位置姿勢センサ、200 コンピュータ、211 映像データ取得部、212 座標データ算出部、213 仮想光源データ取得部、214 射影データ算出部、215 映像データ同期部、216 描画部、220 メモリ、231 3Dディスプレイ、240 入力デバイス、260 メモリインターフェイス、261 記憶媒体、270 通信インターフェイス、280 角度センサ、290 位置姿勢センサ、300 プロジェクタ。

Claims (9)

  1. 第1の画面に3Dコンテンツを3Dで表示するための第1の出力装置と、
    前記第1の出力装置に第1の画面に前記3Dコンテンツを3Dで表示させるとともに、前記第1の画面とは異なる第2の画面に、前記3Dコンテンツに対応する影の映像を出力するためのプロセッサとを備える、3Dコンテンツ表示装置。
  2. 前記第1の出力装置は、前記第1の画面を有する第1のディスプレイである、請求項1に記載の3Dコンテンツ表示装置。
  3. 前記第1の出力装置は、前記第1の画面に前記3Dコンテンツを出力する第1のプロジェクタである、請求項1に記載の3Dコンテンツ表示装置。
  4. 前記第2の画面を有する第2のディスプレイをさらに備える、請求項1から3のいずれかに記載の3Dコンテンツ表示装置。
  5. 前記第1の画面と前記第2の画面との位置関係を検出するための第1のセンサをさらに備え、
    前記プロセッサは、前記第1の画面に表示される前記3Dコンテンツと、仮想光源の位置と、前記位置関係と、に基づいて、前記3Dコンテンツの前記影の映像を計算する、請求項1から4のいずれかに記載の3Dコンテンツ表示装置。
  6. 前記プロセッサは、通信インターフェイスを介して、前記影の映像を第2のプロジェクタに表示させる、請求項1から3のいずれかに記載の3Dコンテンツ表示装置。
  7. 前記第1の画面と前記第2のプロジェクタとの位置関係を検出する第2のセンサをさらに備え、
    前記プロセッサは、前記第1の画面に表示される前記3Dコンテンツと、仮想光源の位置と、前記位置関係と、に基づいて、前記3Dコンテンツの前記影の映像を計算する、請求項6に記載の3Dコンテンツ表示装置。
  8. 前記第1の出力装置の姿勢を検出する姿勢センサをさらに備え、
    前記プロセッサは、前記第1の出力装置の姿勢に基づいて、前記影の映像を計算する、請求項1から7のいずれかに記載の3Dコンテンツ表示装置。
  9. 第1の出力装置とプロセッサとを含む3Dコンテンツ表示装置における3Dコンテンツ表示方法であって、
    前記プロセッサが、3Dコンテンツを取得するステップと、
    前記プロセッサが、前記3Dコンテンツの影の映像を計算するステップと、
    前記プロセッサが、前記第1の出力装置に第1の画面に前記3Dコンテンツを3Dで表示させるとともに、前記第1の画面とは異なる第2の画面に、前記3Dコンテンツに対応する影の映像を出力するステップとを備える、3Dコンテンツ表示方法。
JP2010253959A 2010-11-12 2010-11-12 3dコンテンツ表示装置、および3dコンテンツ表示方法 Pending JP2012105200A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010253959A JP2012105200A (ja) 2010-11-12 2010-11-12 3dコンテンツ表示装置、および3dコンテンツ表示方法
PCT/JP2011/075964 WO2012063911A1 (ja) 2010-11-12 2011-11-10 3dコンテンツ表示装置、および3dコンテンツ表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010253959A JP2012105200A (ja) 2010-11-12 2010-11-12 3dコンテンツ表示装置、および3dコンテンツ表示方法

Publications (1)

Publication Number Publication Date
JP2012105200A true JP2012105200A (ja) 2012-05-31

Family

ID=46051048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010253959A Pending JP2012105200A (ja) 2010-11-12 2010-11-12 3dコンテンツ表示装置、および3dコンテンツ表示方法

Country Status (2)

Country Link
JP (1) JP2012105200A (ja)
WO (1) WO2012063911A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020088592A (ja) * 2018-11-26 2020-06-04 株式会社ハニカムラボ 表示装置、表示処理装置、および表示処理プログラム
WO2020184316A1 (ja) * 2019-03-13 2020-09-17 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10218956B2 (en) 2012-10-01 2019-02-26 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for generating a depth cue
CN109920519B (zh) * 2019-02-20 2023-05-02 东软医疗系统股份有限公司 处理影像数据的方法、装置及设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11261888A (ja) * 1998-03-13 1999-09-24 For A Co Ltd テレビジョン画像の合成方式
JP2004295916A (ja) * 2004-06-07 2004-10-21 Namco Ltd 画像処理装置及び画像処理方法
JP2005130394A (ja) * 2003-10-27 2005-05-19 Olympus Corp 直接投射装置及びそのプログラム
JP2005234240A (ja) * 2004-02-19 2005-09-02 Pioneer Electronic Corp 立体的二次元画像表示装置及び立体的二次元画像表示方法
JP2008089985A (ja) * 2006-10-02 2008-04-17 Pioneer Electronic Corp 画像表示装置
JP2009163610A (ja) * 2008-01-09 2009-07-23 Canon Inc 画像処理装置及び画像処理方法
JP2009216752A (ja) * 2008-03-07 2009-09-24 Victor Co Of Japan Ltd スクリーン及びそれを用いた立体映像表示システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11261888A (ja) * 1998-03-13 1999-09-24 For A Co Ltd テレビジョン画像の合成方式
JP2005130394A (ja) * 2003-10-27 2005-05-19 Olympus Corp 直接投射装置及びそのプログラム
JP2005234240A (ja) * 2004-02-19 2005-09-02 Pioneer Electronic Corp 立体的二次元画像表示装置及び立体的二次元画像表示方法
JP2004295916A (ja) * 2004-06-07 2004-10-21 Namco Ltd 画像処理装置及び画像処理方法
JP2008089985A (ja) * 2006-10-02 2008-04-17 Pioneer Electronic Corp 画像表示装置
JP2009163610A (ja) * 2008-01-09 2009-07-23 Canon Inc 画像処理装置及び画像処理方法
JP2009216752A (ja) * 2008-03-07 2009-09-24 Victor Co Of Japan Ltd スクリーン及びそれを用いた立体映像表示システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020088592A (ja) * 2018-11-26 2020-06-04 株式会社ハニカムラボ 表示装置、表示処理装置、および表示処理プログラム
WO2020184316A1 (ja) * 2019-03-13 2020-09-17 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
WO2012063911A1 (ja) 2012-05-18

Similar Documents

Publication Publication Date Title
US11928838B2 (en) Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display
US9778815B2 (en) Three dimensional user interface effects on a display
CN103180893B (zh) 用于提供三维用户界面的方法和系统
CN106774880B (zh) 用户控制装置的在空间中的三维跟踪
JP5791433B2 (ja) 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
US10739936B2 (en) Zero parallax drawing within a three dimensional display
EP2601640B1 (en) Three dimensional user interface effects on a display by using properties of motion
Pucihar et al. Exploring the evolution of mobile augmented reality for future entertainment systems
US11277603B2 (en) Head-mountable display system
JP2012058968A (ja) プログラム、情報記憶媒体及び画像生成システム
CN111742281B (zh) 用于针对显示在显示器上的第一内容提供根据外部对象的移动的第二内容的电子装置及其操作方法
CN107209565B (zh) 用于显示固定大小的增强现实对象的方法和系统
JP5791434B2 (ja) 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
US8854358B2 (en) Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing method, and image processing system
US20130057574A1 (en) Storage medium recorded with program, information processing apparatus, information processing system, and information processing method
JP2013050883A (ja) 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
JP5689637B2 (ja) 立体視表示制御プログラム、立体視表示制御システム、立体視表示制御装置、および、立体視表示制御方法
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
WO2012063911A1 (ja) 3dコンテンツ表示装置、および3dコンテンツ表示方法
CN104285243A (zh) 三维图像显示设备及其光标显示方法和计算机程序
JP5723149B2 (ja) 画像処理システム、画像処理プログラム、画像処理方法及び画像処理装置
JP5950701B2 (ja) 画像表示システム、パズルゲームシステム、画像表示方法、パズルゲーム方法、画像表示装置、パズルゲーム装置、画像表示プログラム、および、パズルゲームプログラム
JP5660818B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
US20200134779A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP2012175358A (ja) 表示制御プログラム、表示制御装置、表示制御方法及び表示制御システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140912

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150120