JP2006140553A - 立体画像生成プログラム、立体画像生成装置および立体画像生成方法 - Google Patents

立体画像生成プログラム、立体画像生成装置および立体画像生成方法 Download PDF

Info

Publication number
JP2006140553A
JP2006140553A JP2004325910A JP2004325910A JP2006140553A JP 2006140553 A JP2006140553 A JP 2006140553A JP 2004325910 A JP2004325910 A JP 2004325910A JP 2004325910 A JP2004325910 A JP 2004325910A JP 2006140553 A JP2006140553 A JP 2006140553A
Authority
JP
Japan
Prior art keywords
stereoscopic
image
program
stereoscopic image
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004325910A
Other languages
English (en)
Other versions
JP2006140553A5 (ja
Inventor
Takahiro Oshino
隆弘 押野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004325910A priority Critical patent/JP2006140553A/ja
Publication of JP2006140553A publication Critical patent/JP2006140553A/ja
Publication of JP2006140553A5 publication Critical patent/JP2006140553A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】 様々な立体表示デバイスのそれぞれに対応した立体画像の生成処理を容易に行えるようにする。
【解決手段】 立体画像生成プログラムは、立体画像の立体視に使用される立体表示デバイスに関するデバイス情報を取得する情報取得ステップS500と、該デバイス情報に応じて、該立体表示デバイスに対応した立体画像の生成処理に用いるデバイス対応プログラムを取得するプログラム取得ステップS400と、複数の視点画像を取得する画像取得ステップS404と、該複数の視点画像とデバイス対応プログラムとを用いて立体画像を生成する画像生成ステップS405とを有する。
【選択図】 図4

Description

本発明は、複数の視点画像に基づいて、立体表示デバイスを用いて立体視が可能な立体画像を生成するコンピュータプログラム、装置および方法に関するものである。
従来、立体画像を表示する手法として様々な方式が開発されているが、最近では、立体視域を広げ、滑らかな運動視差を提示可能としたいわゆる多眼式立体表示方式が検討されており、さらに、観察者の瞳に2つ以上の視差画像を同時に提示可能な超多眼立体表示を実現する立体表示方式も提案されている(例えば、非特許文献1参照)。
上述した立体表示方式では、いずれも複数の視点位置で取得あるいは生成された画像(視点画像)をもとに、特定の光学系に対応した画素配列を有する立体画像を合成し、その立体画像を該特定の光学系を介して観察することで立体像を知覚することができるようにするものである。特定の光学系としては、レンチキュラー板やパララクスバリアを用いて立体画像上の各視点に対応した画素からの光を特定の視点に導くものが一般的である。
ここで、レンチキュラー板を利用した立体表示デバイスに表示される立体画像の生成手法について、図11および図12を用いて説明する。
図11には、4台のカメラ110〜113を用いて4つの視点画像を取得している様子を示している。4台のカメラ110〜113は、その光学中心が基線114上に並び、かつ互いに平行視(撮影光軸が平行)となるよう所定の間隔(基線長)を空けて配置されている。
今、j番目の視点の画素値をPjmn(ただし、m、nはそれぞれ水平、垂直方向の画素配列のインデックス)としたとき、j番目の画像データは以下のような二次元配列として表される。
j11j21j31・・・・
j12j22j32・・・・
j13j23j33・・・・
そして、レンチキュラー板を用いて観察するための立体画像は、それぞれの視点画像を垂直方向に延びる1画素ライン毎に短冊状に分解し、これらの画素ラインを、同一画素を含む4つの画素ラインごとに視点位置の配置順とは逆の順で並べたものに相当する。従って、立体画像は以下に示すようなストライプ状の画像となる。
411311211111421321221121431331231131・・
412312212112422322222122432332232132・・
413313213113423323223123433333233133・・
なお、図11において最も左側の視点1(図11の〈1〉:図には丸囲み数字で示す)に対応する視点画像の画素ラインは、4つの視点画像の画素ラインのうち最も右側に配置され、最も右側の視点4(図11の〈4〉)に対応する視点画像の画素ラインは最も左側に配置される。このように視点画像(画素ライン)の並び順を視点位置の並び順と逆にするのは、レンチキュラー板の1ピッチ内で画像が左右逆に提示されるためである。
このようにして作成された立体画像を、図12に示すようにディスプレイ1200に表示し、レンチキュラー板1201を介して見ることで、立体像を観察することが可能となる。
なお、視点画像を撮影するカメラは4台に限らず、1台のカメラを順次移動させて複数の視点画像を撮影する場合もある。また、本出願人が特許文献1等にて提案しているように、ステレオアダプタを装着したカメラによって一対のステレオ画像を入力し、そのステレオ画像間での対応点抽出結果から奥行きを表す視差マップを作成し、該視差マップを利用してフォワードマッピングすることで、撮影していない視点位置に対応する新規視点画像を作成するようにしてもよい。そして、これらいずれの方法によって得られた複数の視点画像を用いても立体画像を生成することができる。
また、本出願人が特許文献2で提案している立体表示デバイスを用いる場合の立体画像について、図13を用いて説明する。この立体表示デバイスは、ディスプレイ130と、ディスプレイ130の前面に配置された横レンチキュラーレンズ131と、この横レンチキュラーレンズ131の前面に配置されたパララクスバリアとしてのマスク132とが、ディスプレイ130から観察位置133に向かってこの順番で配置されて構成される。
ここで、視点数を9視点とした場合に、ディスプレイ130の各画素にどのように原画像を表示するかを図14に示す。画素の配列方法は、画素の各水平列(以下、画素水平列という)に9視点に対応するD1からD9までの画素をこの順で循環的に繰り返し配置し、画素水平列が垂直方向に1列異なるごとに3画素分だけD1からD9までの画素の水平方向位置がずれ、かつ垂直方向に3列置きごとに同じ画素配列となるようにしている。
これにより、図中に点線141で囲んだ、D1からD9までの9個の画素を3個(行)×3個(列)のマトリクス状に配置した画素ブロックが形成され、この画素ブロックを垂直方向および水平方向に複数配置した形にディスプレイ130の表示画像が形成されている。そして、これら複数の画素ブロックのそれぞれにおける1つずつの画素(つまりは、D1の画素群、D2の画素群、D3の画素群、D4の画素群、D5の画素群、D6の画素群、D7の画素群、D8の画素群およびD9の画素群)を用いて上記9視点に対応する9個の画像が表示される。
このように作成された表示画像(立体画像)がディスプレイ130に表示されるが、横レンチキュラーレンズ131ならびにマスク132が存在することで、E1〜E9の各観察位置133では、各観察位置に対応する画素からの光束のみが到達する。これにより、9視点からの立体画像観察を行うことが可能となる。
梶木、吉川、本田、"収束化光源(FLA)による超多眼立体ディスプレイ"、三次元画像コンファレンス96論文集、pp108−113、1996 特開2001−346226号公報(段落0053〜0079等) 特開2004−007566号公報(段落0015〜0029等)
上述したように、多眼式立体表示デバイスに表示させる立体画像は、該デバイスの表示方式、視点数等の仕様に対応する画素配列を持つ必要がある。このため、従来の立体画像表示システムにおいては、複数の視点画像からそのシステムの立体表示デバイスに対応した画素配列を持つ立体画像を生成するための専用プログラムのみ搭載していた。
しかしながら、観察者において、仕様が異なる様々な立体表示デバイスの中から用途等に応じて自由に立体表示デバイスを選択できるにもかかわらず、システムとして特定の立体表示デバイスに対応した立体画像しか生成できないのでは、立体観察の自由度が制限されてしまう。
本発明は、様々な立体表示デバイスのそれぞれに対応した立体画像の生成処理を容易に行えるようにした立体画像生成プログラム、装置および方法を提供することを目的の1つとしている。
上記の目的を達成するための1つの観点としての本発明の立体画像生成プログラムおよび方法(さらには装置)は、立体画像の立体視に使用される立体表示デバイスに関するデバイス情報を取得する情報取得ステップ(情報取得手段)と、該デバイス情報に応じて、該立体表示デバイスに対応した立体画像の生成処理に用いるデバイス対応プログラムを取得するプログラム取得ステップ(プログラム取得手段)と、複数の視点画像を取得する画像取得ステップ(画像取得手段)と、該取得された複数の視点画像およびデバイス対応プログラムを用いて立体画像を生成する画像生成ステップ(画像生成手段)とを有する。
本発明によれば、使用する立体表示デバイスに関するデバイス情報に応じて取得したデバイス対応プログラムを用いて、該立体表示デバイスに対応した立体画像を生成するため、様々な立体表示デバイスを自由に選択することができる立体画像表示システムを構築することができる。
また、取得したデバイス対応プログラムをプログラム可能なグラフィックス・プロセッシング・ユニットに設定して立体画像を生成するようにすれば、より高速な立体画像の生成処理を実行することができる。
以下、図面を参照しながら本発明の実施例について説明する。
図1には、本発明の実施例1である立体画像生成装置を用いた立体画像表示システムの構成を示している。
立体画像生成装置10は、異なる視点位置で取得(撮影)された複数の視点画像(多視点画像)を合成して、該装置に接続されている(すなわち、立体像提示に用いる)多眼式立体表示デバイス11に対応した画素配列を有する立体画像を生成する。
操作入力装置12は、使用者の操作に応じて立体画像生成装置10に対して操作コマンドを出力する。立体表示デバイス11は、立体画像生成装置10で生成された立体画像を表示して、立体像を提示する。なお、立体表示デバイス11は、図12や図13にて示したように、ディスプレイとレンチキュラー板やパララクスバリア(マスク)等を含む光学系とを有するディスプレイ装置のほか、印刷された立体画像に重ね合わせることで立体像を提示する光学部材をも含む。
次に、立体画像生成装置10の内部構成について図1を用いて説明する。多視点画像記憶部101は、複数の異なる視点位置で撮影された二次元画像のデータが記憶されているほか、撮影位置などの撮影条件を示すデータも記憶されている。
立体画像表示制御部(画像取得手段および画像生成手段)102は、多眼式立体表示デバイス11に対応した立体画像の生成を行うための多視点画像の選択や立体画像の生成制御を行う。表示デバイス識別部(情報取得手段)103は、立体画像生成装置10に接続されている多眼式立体表示デバイス11に関するデバイス情報(これについては後述する)を取得し、これに基づいて該立体表示デバイス11の識別したり、該デバイスに固有の立体表示パラメータ情報を取得したりする。
立体画像生成プログラム取得部(プログラム取得手段)104は、表示デバイス識別部103において特定された多眼式立体表示デバイス11に対応するデバイス対応コンピュータプログラムである画像合成プログラムを画像合成プログラム記憶部105から取得する。
立体画像生成部106は、立体画像表示制御部102によって取得された多視点画像を、画像合成プログラム取得部104によって取得された画像合成プログラムを用いて合成処理することで立体画像を生成する。立体画像生成部106は、生成した立体画像を多眼式立体表示デバイス11に転送し、立体画像を表示させる。なお、立体表示デバイス11が前述した光学部材である場合には、立体画像生成部106は、生成した立体画像をプリンタに転送し、印刷させる。
次に、立体画像生成部106の構成について説明する。多視点画像一時記憶部1061は、立体画像表示制御部102にて選択された多視点画像を一時的に記憶しておく記憶領域である。画像合成部1062は、画像合成プログラム取得部104で取得された画像合成プログラムを実行し、多視点画像一時記憶部1061に記憶されている多視点画像から所定の画素の情報を取得して立体画像における特定の画素の情報として設定することにより立体画像を生成する。
立体画像一時記憶部1063は、画像合成部1062で生成された立体画像を一時的に記憶し、立体画像全体が生成された後に該立体画像を多眼式立体表示デバイス102へ転送する。
次に、図2を用いて本実施例の立体画像生成装置10における物理的な構成について説明する。立体画像生成装置10は、例えば、汎用パーソナルコンピュータ200で構成される。具体的には、CPU201と、ROM202と、RAM203と、キーボード204およびマウス205と、これらのインターフェース(I/F)206と、多眼式立体表示デバイス11の動作を制御する表示コントローラ208と、ハードディスク(HD)209およびフロッピー(登録商標)ディスク(FD)210と、ディスクコントローラ211と、ネットワークコントローラ212とが、システムバス213を介して互いに通信可能に接続された構成を有する。
システムバス213は、ネットワークコントローラ212を介してインターネット、イーサネット(登録商標)およびLAN等のネットワーク214に接続されている。
CPU201は、ROM202或いはHD209に記憶されたコンピュータプログラム又はFD210より供給されたコンピュータプログラムを実行することで、システムバス213に接続された各構成部を統括的に制御する。すなわち、CPU201は、所定の処理プログラムをROM202、HD209又はFD210から読み出して実行することで、本実施例での各機能を実現するための制御を行う。RAM203は、CPU201の主記憶装置或いはワークエリアなどとして機能する。
図1における多視点画像記憶部101および画像合成プログラム記憶部105は、ROM202、HD209、FD210又はネットワーク214を介してデータを取得する。立体画像表示制御部102、表示デバイス識別部103および画像合成プログラム取得部104の機能は、CPU201がプログラムを実行することで実現される。
また、操作入力装置12は、キーボード204およびマウス205によって実現される。I/F206はキーボード204やマウス205のようなポインティングデバイスなどから入力された信号のシステムバス213への供給を制御する。
表示コントローラ208は、内部的にプログラム可能なGPU(グラフィックス・プロセッシング・ユニット)2082と、テクスチャメモリ領域2081と、表示用画像を一時的に保持するフレームバッファ2083とを有し、後述する立体画像生成プログラムに従って、CPU201との連携により、多視点画像から立体画像を生成し、多眼式立体表示デバイス11に立体画像を表示させる。立体画像生成装置10における立体画像生成部106は、この表示コントローラ208によって構成される。
ディスクコントローラ211は、ブートプログラムや種々のアプリケーションプログラムのほか、編集ファイル、ユーザーファイルおよびネットワークの管理プログラム、さらに上記立体画像生成プログラムや処理プログラムなどを記憶するHD209およびFD210とのアクセスを制御する。
ネットワークコントローラ212は、ネットワーク214上の機器と双方向にデータをやり取りする。
以上の各構成部の動作により、立体画像を生成することが可能となる。なお、図1において、立体画像生成装置10と操作入力装置12とはUSBなどのインターフェースを用いて接続され、立体画像生成装置10と立体表示デバイス11とは、DVI(Digital Visual Interface)などの映像インターフェースを介して接続される。
次に、図3を用いてGPU2082の構成を説明する。GPUは、3DCG(コンピュータグラフィクス)の処理を高速化するために専用に作成された処理装置であるが、本実施例で用いるGPU2082はその処理内容をプログラム可能なものである。
図3には、GPU2082の概略構成を示している。頂点処理部300は、CGデータの頂点情報(座標情報、法線情報など)の演算を行う。具体的には、3Dモデルを三次元シーン中に配置するワールド変換や、視点位置やカメラ位置に対する変換などを行う。
ラスタライズ部301は、頂点処理部300で変換された結果のスクリーン(最終的な画像データ)へのラスタライズを行う。
画素処理部302は、ラスタライズされた画素に対してテクスチャサンプラー303によってテクスチャ画像からサンプリングされた色情報の設定を行い、最終的に合成部304にて複数回実施された処理の結果を合成する。
頂点処理部300や画素処理部302が複数存在するのは、一般的なGPUはSIMD(Single Instruction Multiple Data)タイプの演算処理装置であり、1命令で複数データを扱える並列処理回路が実装されている。
図3では、頂点処理部300による2つの頂点処理と、画素処理部302による4つの画素処理(テクスチャサンプリング)の並列処理が実行可能であることを示している。このような頂点処理部や画素処理部の処理内容を外部からプログラム可能とすることにより、3DCGの表現力が向上する。
次に、図4、図5および図6に示したフローチャートを用いて、立体画像生成装置10のGPU2082における処理の流れを説明する。この処理は、上述した立体画像生成プログラムに従って実行される。
まず、ステップS400では、立体画像生成装置10に接続された多眼式立体表示デバイス11に対応した画像合成プログラム、例えば図14において説明した立体表示デバイスに対応したマトリクス状の画素配列に多視点画像の画素を並び替える処理を行うプログラムを取得する。この処理は、一般的なオペレーティングシステム(OS)で提供されているプラグアンドプレイ機能を利用することができる。
このステップS400における具体的な処理の流れを、図5を用いて説明する。まず、ステップS500において、接続されている立体表示デバイス11に関するデバイス情報を取得する。ここで、デバイス情報は、立体表示デバイス11の表示方式や視点数等の仕様(諸元)を表す情報である。具体的には、立体表示デバイス11のメーカーを表すベンダーコードや型式を表すシリアル番号、解像度や垂直走査信号の周波数などを示すEDID(Extended Display Identification Data)に相当するデバイス識別情報と、立体表示デバイス11に固有の立体表示に関するパラメータである視点(画像)数、基線長(視点間隔)、画角又は画面サイズ、撮影条件、提示可能な最大/最小の視差量等のパラメータ情報とを含む。このようなデバイス情報は、プラグアンドプレイ機能を利用して取得することができる。
次に、ステップS501では、ステップS500で取得したデバイス情報に基づいて、現在接続されている立体表示デバイス11に対応する画像合成プログラムが、図1に示した画像合成プログラム記憶部105内に存在するか否かを検索する。この検索に用いられるデバイス情報は、上述したデバイス識別情報のみでもよいし、デバイス識別情報とパラメータ情報の両方であってもよい。
立体表示デバイス11に対応する画像合成プログラムが存在する場合には、ステップS503に進み、画像合成プログラム記憶部105から画像合成プログラムを取得する。
また、画像合成プログラム記憶部105内に立体表示デバイス11に対応する画像合成プログラムが存在しない場合は、ステップS504およびステップS505において、画像合成プログラムが存在しないことを使用者に警告し、画像合成プログラムの入手手段を選択させる。画像合成プログラムの入手手段としては、FD/CD−ROMなどの記録メディアを指定したり、インターネットワークを介して立体表示デバイスのメーカーなどから入手したりする等の手段がある。そして、ステップS503において、使用者が選択した入手手段により画像合成プログラムを取得する。
次に、ステップS506では、ステップS503で取得した画像合成プログラムがステップS500でデバイス識別情報を取得した立体表示デバイスに適合しているか否かを確認し、適合している場合は正常終了とし、適合していない場合は失敗として、本フローチャートを終了し、ステップS401に進む。
ステップS401では、立体画像生成プログラムが取得できたか否かを判定し、取得できた場合はステップS402へ進み、取得できない場合はその旨を利用者に提示して本フローチャートを終了する。
次に、ステップS402では、ステップS400(ステップS500)で取得した立体表示デバイス11に固有のパラメータ情報を、立体表示デバイス11に対応した立体画像を合成するために必要な視点画像を取得するための合成情報として設定する。
次に、ステップS403において、ステップS400(ステップS503)で取得した画像合成プログラムを、図2に示した表示コントローラ208のGPU2082に設定する。
次にステップS404において、ステップS402にて取得したパラメータ情報(合成情報)に基づいて、図1に示した多視点画像記憶部101に記憶されている多視点画像から立体表示デバイス11に対応した立体画像を生成するために必要な視点画像を取得(選択)する。この場合において、適当な視点間隔に対応する視点画像が存在しないときは、それに最も近い視点画像を選択してもよいし、また、特許文献1に示した視点画像の補間技術を用いることもできる。具体的には、撮影により取得された2つの視点画像における各画素間の対応関係より両視差画像間の視差を算出し、その視差の情報をフォワードマップすることで、撮影されていない視点位置での視点画像を補間生成する。
次に、ステップS405においては、ステップS403において設定した画像合成プログラムと、ステップS404で選択した多視点画像とを用いて立体画像を生成する。この処理は、CPU201および表示コントローラ208(GPU2082)との連携によって実行される。具体的には、表示コントローラ208上の3DCG向けのテクスチャメモリ領域2081を多視点画像の一時記憶領域として利用し、図3で説明したテクスチャサンプラー機能を利用して立体画像を生成する。
ここで、図6を用いてCPU201と表示コントローラ208(GPU2082)における処理の連携およびその流れについて説明する。
ステップS600では、表示コントローラ208の性能の1つである該表示コントローラ208へ転送可能なテクスチャ数を取得し、その値を変数(MaxNumTexture)へセットする。また、図3で述べたよう、並列にテクスチャをサンプリングできる数を表すテクスチャパイプライン数を、転送可能なテクスチャ数として利用してもよい。
次に、ステップS601では、合成すべき視点画像数(NumViews)およびテクスチャ用カウンタ(nTex)のそれぞれの変数を初期化する。
次に、ステップS602において、図4のステップS404で収集された多視点画像の全てに対応し、所定の3DCGに適合したテクスチャ(図示せず)をRAM203に作成する。
次に、ステップS603では、繰り返し処理を行うための諸変数を初期化する。
さらに、ステップS604、S605、S606では、表示コントローラ208へ転送可能な多視点画像に関してステップS602で作成したテクスチャのうち、転送可能な分のみ転送する。
次に、ステップS607においては、表示コントローラ208内のテクスチャメモリ領域2081に転送したテクスチャの所定の座標位置からサンプリングを行う。これは、図3に示したようなGPUを利用している場合は、前述した通り、並列にテクスチャデータがサンプリングされる。このとき、実際にどの視点位置の画像データのどの画素からサンプリングすればよいのかは、図3におけるステップS400において、立体表示デバイス11に適合したサンプリング位置などを記述した画像合成プログラム内に記述されており、該表示デバイス11の表示方式と視点位置とによって一意に決定される。サンプリングしたテクスチャデータは、表示コントローラ208のフレームバッファ2083に書き込まれる。
次に、ステップS608においては、残りの多視点画像のテクスチャが存在するか否かを判定し、存在する場合はステップS609において変数の更新をした後、ステップS604に移行して処理を繰り返す。こうして、立体画像を作成し、全ての多視点画像のテクスチャについてサンプリングを行った後、この処理フローを終了する。
次に、図4のステップS407に戻り、表示コントローラ208のフレームバッファ2081に書き込まれた立体画像を、立体画像生成装置10に接続されている立体表示デバイス11へ転送する。これにより、立体表示デバイス11に立体画像が表示され、観察者は所定の観察位置において立体像を観察することが可能となる。
また、立体画像を動画像として表示させる場合は、動画表示か静止画表示かを判断するステップS408を設け、動画表示の場合にステップS405へ戻り、次に表示すべき立体画像の生成に必要な多視点画像の収集および該立体画像の生成、表示を繰り返すことで、動画像を表示することが可能となる。
なお、立体表示デバイス11が印刷された立体画像に重ね合わせる光学部材である場合には、ステップS407において、生成した立体画像をプリンタに転送し、該立体画像を印刷させる。
ここで、図6で説明した処理の流れでは、複数の多視点画像をテクスチャとして表示コントローラ208へ転送し、画像合成プログラムを実行することで立体画像を生成することは可能であるが、これ以外にも多視点画像のうち1つの画像をテクスチャとして転送し、その1つの画像から必要な画素を並列にサンプリングし、これを多視点画像の全てについて繰り返すことでも実現可能である。
これを図10に模式的に示している。図10(a)は、先に説明した複数の多視点画像1000を転送し、サンプリングすることで立体画像を生成する場合を示している。また、図10(b)は、1画像1001毎に転送し、該1画像を並列にサンプリングする場合を示している。図10(b)の構成は、テクスチャメモリ容量が少なかったり、多視点画像を構成する1画像の容量が大きかったりする場合にも対応可能である。
以上説明したように、本実施例では、プログラム可能なGPU2028を有する表示コントローラ208を用い、使用する多眼式立体表示デバイス11に対応した画像合成プログラムをGPU2028に設定する。そして、多視点画像を適宜表示コントローラ208に転送し、CPU201およびGPU2082との連携によって立体表示デバイス11に対応した立体画像を高速に生成する。
また、本実施例によれば、レンチキュラー方式、パララックスバリア方式、蝿の目方式など、様々な表示方式の立体表示ディスプレイを用いる場合であっても、図4のフローチャートに示したように、立体画像生成プログラムの一部である画像合成プログラムを、表示方式等を含む仕様に対応したものに動的に変更することが可能であるため、立体画像生成プログラム本体を変更することなく、立体表示デバイスの仕様に適した立体画像を生成することが可能となる。
本発明においては、三次元コンピュータグラフィックス(以下、3DCGと略する)上で用いられる三次元モデルを利用して、立体画像を合成するための多視点画像を取得することも可能である。以下、実施例1との相違点を中心として本発明の実施例2について説明する。
図7には、本実施例の立体表示システムの構成を示している。なお、図1および図2に示した実施例1のシステムと共通する構成部には、実施例1と同符号を付す。
本実施例の立体表示システムは、立体画像生成装置70と、多眼式立体表示デバイス11と、操作入力装置12とにより構成されている。
また、立体画像生成装置70は、三次元モデル記憶部701と、三次元シーン管理部702と、表示デバイス識別部103と、画像合成プラグラム取得部104と、画像合成プログラム記憶部105と、立体画像生成部106とから構成されている。
三次元モデル記憶部701には、3DCGに描画される三次元モデルデータ(頂点座標情報、法線情報、色情報、テクスチャ座標、テクスチャ)が登録されている。
三次元シーン管理部702は、三次元モデル記憶部701に記憶されているCGモデルデータを所定の三次元シーン空間内に配置し、仮想カメラや仮想光源等を含む三次元シーン全体の管理を行う。それ以外の機能ブロックにおける処理は実施例1と同様である。
次に、図8のフローチャートを用いて、本実施例における立体画像生成装置70の処理の流れを説明する。本処理は、立体画像生成プログラムに従って、図2に示すCPU201とGPU2082との連携により実行される。
図8において、ステップS800、S801およびS802は、図4のステップS400、S401およびS402と同様である。
ステップS803では、ステップS802において取得した、立体表示デバイス11の立体表示に関するパラメータ情報のうち、視点位置情報などに基づいて、仮想カメラが三次元シーンにおいてどの位置で画像をレンダリングすればよいのいか等のレンダリング条件を算出する。
次に、ステップS804においては、必要であれば三次元シーンを更新する。最初のステップでは、三次元モデルの移動はないのでそのまま処理を進める。
次に、ステップS805では、ステップS803で算出したレンダリング条件に基づいて、複数の視点位置に対応した画像(視点画像)のレンダリングを行う。このレンダリングを行った結果は、図2の表示コントローラ208のテクスチャメモリ領域2081に格納されるか、その容量が少なければ、図2のRAM202に格納される。
ステップS807、S808、S809、S810およびS811はそれぞれ、図4に示したステップS403、S404、S405、S406、S407およびS408と同様である。
上記の処理を実行することで、3DCGを用いた場合においても、CPU201およびGPU2082との連携によって、立体表示デバイス101に対応した立体画像を高速に生成することができる。
なお、上記図8のステップS806において、立体画像の生成に必要な多視点画像を一度にレンダリングする場合を説明したが、必ずしもこのような処理を行う必要はなく、図9に示すような処理に変更することも可能である。図9のフローチャートは図8のフローチャートと基本的に同じであり、ここではその差異についてのみ説明する。
まず、ステップS905において、多視点画像をレンダリング(描画)するために必要なシーン描画用プログラムをGPU2082に設定する。
次に、ステップS906において、三次元シーンをレンダリングするために必要な視点数分の多視点画像をレンダリングする。
次に、ステップS907において、GPU2082にステップS900で取得した画像合成プログラムを設定し、ステップS908では、ステップS806でレンダリングした視点画像を、合成する多視点画像として設定する。
次に、ステップS909において、ステップS907で設定した画像合成プログラムによってレンダリングした視点画像からのみサンプリングを行い、表示コントローラ208のフレームバッファ2083にサンプリング結果をコピーする。
上記ステップS905〜S909の処理を必要な視点数分だけ繰り返すことにより、フレームバッファ2083に立体画像が生成される。そして、ステップS911で、該立体画像が多眼式立体表示デバイス11に転送される。
このような処理の流れにすることで、多視点画像の描画用プログラムと画像合成プログラムとが頻繁に変更され、処理速度の低下が懸念されるが、表示コントローラ208におけるテクスチャメモリ領域2081が少ない場合においても、レンダリング画像がRAM202に転送されることによる著しい処理速度の低下を防ぐことが可能となる。
以上説明したように、上記各実施例によれば、撮影により取得された多視点画像あるいは3Dコンピュータグラフィックスで生成された多視点画像から、使用する立体表示デバイスに対応する立体画像を高速に生成することができる。また、使用する立体表示デバイスが、立体表示方式等の仕様が異なる立体表示デバイスに変更された場合においても、自動的に変更後の立体表示デバイスに対応した立体画像を生成することができる。
また、多視点画像の全ての中から一部の画像を表示コントローラに設定し、部分的に立体画像を生成し、この処理を多視点画像の全てについて行うことで立体画像全体を生成したり、多視点画像を生成するためのプログラムと画像合成プログラム(デバイス対応プログラム)とを交互に用いて立体画像を生成したりすることにより、表示コントローラ上の多視点画像記憶に用いるテクスチャメモリ容量が少ない場合においても、様々な立体表示デバイスに対応することが可能となる。
なお、表示コントローラに関する情報(最大テクスチャメモリ容量、テクスチャサンプルパイプライン数、フレームメモリ容量等)も基準として画像合成プログラムを取得するようにしてもよい。
また、本発明の立体画像生成装置は、上述した実施例のように1つの装置で構成される場合に限定されず、複数の装置からシステムとして構成されていてもよい。
また、本発明の立体画像生成プログラムは、それ自体がOS(基本ソフト:オペレーションシステム)とは別個のアプリケーションソフトウェアとして存在する場合に限らず、OSの一部又は全部の機能を利用するものであってもよい。
本発明の実施例1に係る立体表示システムの構成を示すブロック図。 実施例1に係る立体画像生成装置の構成を示すブロック図。 実施例1に係る立体画像生成装置に用いられるGPUの構成を示すブロック図。 実施例1に係る立体画像生成装置の処理全体を示すフローチャート。 実施例1に係る立体画像生成装置における立体画像生成処理を示すフローチャート。 実施例1に係る立体画像生成装置におけるCPUとGPUとの処理の連携を示すフローチャート。 本発明の実施例2に係る立体表示システムの構成を示すブロック図。 実施例2に係る立体画像生成装置の処理全体を示すフローチャート。 実施例2に係る立体画像生成装置の処理の変形例を示すフローチャート。 実施例1において、表示コントローラに設定する多視点画像の設定方法を説明する模式図。 従来の多視点画像の取得方法を説明する模式図。 従来の立体表示デバイスの構成を示す模式図。 従来の立体表示デバイスの構成を示す模式図。 従来の立体表示デバイスにおける画素配列を示す図。
符号の説明
10,70 立体画像生成装置
11 多眼式立体表示デバイス
12 操作入力装置
208 表示コントローラ

Claims (9)

  1. コンピュータに、
    立体画像の立体視に使用される立体表示デバイスに関するデバイス情報を取得する情報取得ステップと、
    前記デバイス情報に応じて、該立体表示デバイスに対応した前記立体画像の生成処理に用いるデバイス対応プログラムを取得するプログラム取得ステップと、
    複数の視点画像を取得する画像取得ステップと、
    前記取得された複数の視点画像およびデバイス対応プログラムを用いて前記立体画像を生成する画像生成ステップとを含む処理を実行させるためのコンピュータプログラムであることを特徴とする立体画像生成プログラム。
  2. 該立体画像生成プログラムは、プログラムの変更が可能なグラフィックス・プロセッシング・ユニットを有するコンピュータにより実行され、
    前記画像生成ステップは、前記コンピュータに、前記取得されたデバイス対応プログラムを前記グラフィックス・プロセッシング・ユニットに設定させることを特徴とする請求項1に記載の立体画像生成プログラム。
  3. 前記画像取得ステップは、前記コンピュータに、前記立体表示デバイスの立体表示に関するパラメータ情報に基づいて前記複数の視点画像を取得させることを特徴とする請求項1又は2に記載の立体画像生成プログラム。
  4. 前記画像取得ステップは、前記コンピュータに、コンピュータグラフィクスにおける三次元モデル情報に基づいて前記複数の視点画像を生成させることを特徴とする請求項1から3のいずれか1つに記載の立体画像生成プログラム。
  5. 前記デバイス情報は、前記立体表示デバイスの立体表示方式および視点数を示す情報を少なくとも含むことを特徴とする請求項1から4のいずれか1つに記載の立体画像生成プログラム。
  6. 立体画像の立体視に使用される立体表示デバイスに関するデバイス情報を取得する情報取得手段と、
    該デバイス情報に応じて、該立体表示デバイスに対応した前記立体画像の生成処理に用いるデバイス対応プログラムを取得するプログラム取得手段と、
    複数の視点画像を取得する画像取得手段と、
    前記取得された複数の視点画像およびデバイス対応プログラムを用いて前記立体画像を生成する画像生成手段とを有することを特徴とする立体画像生成装置。
  7. 前記画像生成手段は、プログラムの変更が可能なグラフィックス・プロセッシング・ユニットを有し、
    前記画像生成手段は、前記取得されたデバイス対応プログラムを前記グラフィックス・プロセッシング・ユニットに設定することを特徴とする請求項6に記載の立体画像生成装置。
  8. 請求項5に記載の立体画像生成装置と、
    該立体画像生成装置により生成された立体画像の立体視を行わせる立体表示デバイスとを有することを特徴とする立体表示システム。
  9. 立体画像の立体視に使用される立体表示デバイスに関するデバイス情報を取得する情報取得ステップと、
    該デバイス情報に応じて、該立体表示デバイスに対応した前記立体画像の生成処理に用いるデバイス対応プログラムを取得するプログラム取得ステップと、
    複数の視点画像を取得する画像取得ステップと、
    前記取得された複数の視点画像およびデバイス対応プログラムを用いて前記立体画像を生成する画像生成ステップとを有することを特徴とする立体画像生成方法。
JP2004325910A 2004-11-10 2004-11-10 立体画像生成プログラム、立体画像生成装置および立体画像生成方法 Pending JP2006140553A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004325910A JP2006140553A (ja) 2004-11-10 2004-11-10 立体画像生成プログラム、立体画像生成装置および立体画像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004325910A JP2006140553A (ja) 2004-11-10 2004-11-10 立体画像生成プログラム、立体画像生成装置および立体画像生成方法

Publications (2)

Publication Number Publication Date
JP2006140553A true JP2006140553A (ja) 2006-06-01
JP2006140553A5 JP2006140553A5 (ja) 2007-12-27

Family

ID=36621079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004325910A Pending JP2006140553A (ja) 2004-11-10 2004-11-10 立体画像生成プログラム、立体画像生成装置および立体画像生成方法

Country Status (1)

Country Link
JP (1) JP2006140553A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008289064A (ja) * 2007-05-21 2008-11-27 Fujifilm Corp 画像処理装置、方法およびプログラム
WO2009147814A1 (ja) * 2008-06-02 2009-12-10 パナソニック株式会社 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置
JP2010263382A (ja) * 2009-05-01 2010-11-18 Sony Corp 送信装置、立体画像データの送信方法、受信装置、立体画像データの受信方法、中継装置および立体画像データの中継方法
JP2012010344A (ja) * 2011-07-13 2012-01-12 Fujifilm Corp 画像処理装置、方法およびプログラム
JP2012133555A (ja) * 2010-12-21 2012-07-12 Toshiba Corp 画像処理装置および画像処理方法
JP2013501473A (ja) * 2009-08-06 2013-01-10 クゥアルコム・インコーポレイテッド ワイヤレス・ディスプレイ・プロトコルに従ってビデオデータを準備すること
JP2013501476A (ja) * 2009-08-06 2013-01-10 クゥアルコム・インコーポレイテッド 人間視覚系フィードバックメトリックに従ってビデオデータを変換すること
JP2013062839A (ja) * 2008-09-02 2013-04-04 Panasonic Corp 映像伝送システム、映像入力装置および映像出力装置
WO2019031306A1 (ja) * 2017-08-07 2019-02-14 シャープ株式会社 生成装置、再生装置、生成方法、再生方法、制御プログラム、記録媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002095018A (ja) * 2000-09-12 2002-03-29 Canon Inc 画像表示制御装置及び画像表示システム、並びに画像データの表示方法
JP2004104368A (ja) * 2002-09-06 2004-04-02 Sony Corp 画像データ処理方法、画像データ処理プログラム及び立体画像表示装置
JP2006115246A (ja) * 2004-10-15 2006-04-27 Canon Inc 立体表示のための画像処理プログラム、画像処理装置および立体表示システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002095018A (ja) * 2000-09-12 2002-03-29 Canon Inc 画像表示制御装置及び画像表示システム、並びに画像データの表示方法
JP2004104368A (ja) * 2002-09-06 2004-04-02 Sony Corp 画像データ処理方法、画像データ処理プログラム及び立体画像表示装置
JP2006115246A (ja) * 2004-10-15 2006-04-27 Canon Inc 立体表示のための画像処理プログラム、画像処理装置および立体表示システム

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008289064A (ja) * 2007-05-21 2008-11-27 Fujifilm Corp 画像処理装置、方法およびプログラム
WO2009147814A1 (ja) * 2008-06-02 2009-12-10 パナソニック株式会社 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置
JP4435867B2 (ja) * 2008-06-02 2010-03-24 パナソニック株式会社 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置
CN102047651A (zh) * 2008-06-02 2011-05-04 松下电器产业株式会社 生成法线信息的图像处理装置、方法、计算机程序及视点变换图像生成装置
US7948514B2 (en) 2008-06-02 2011-05-24 Panasonic Corporation Image processing apparatus, method and computer program for generating normal information, and viewpoint-converted image generating apparatus
JPWO2009147814A1 (ja) * 2008-06-02 2011-10-20 パナソニック株式会社 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置
JP2013062839A (ja) * 2008-09-02 2013-04-04 Panasonic Corp 映像伝送システム、映像入力装置および映像出力装置
CN102811361A (zh) * 2009-05-01 2012-12-05 索尼公司 立体图像数据发送、接收和中继方法以及其设备
JP2010263382A (ja) * 2009-05-01 2010-11-18 Sony Corp 送信装置、立体画像データの送信方法、受信装置、立体画像データの受信方法、中継装置および立体画像データの中継方法
JP2013501476A (ja) * 2009-08-06 2013-01-10 クゥアルコム・インコーポレイテッド 人間視覚系フィードバックメトリックに従ってビデオデータを変換すること
JP2013501473A (ja) * 2009-08-06 2013-01-10 クゥアルコム・インコーポレイテッド ワイヤレス・ディスプレイ・プロトコルに従ってビデオデータを準備すること
US8629899B2 (en) 2009-08-06 2014-01-14 Qualcomm Incorporated Transforming video data in accordance with human visual system feedback metrics
US8878912B2 (en) 2009-08-06 2014-11-04 Qualcomm Incorporated Encapsulating three-dimensional video data in accordance with transport protocols
US9131279B2 (en) 2009-08-06 2015-09-08 Qualcomm Incorporated Preparing video data in accordance with a wireless display protocol
US8275196B2 (en) 2010-12-21 2012-09-25 Kabushiki Kaisha Toshiba Image processing device and image processing method
JP2012133555A (ja) * 2010-12-21 2012-07-12 Toshiba Corp 画像処理装置および画像処理方法
JP2012010344A (ja) * 2011-07-13 2012-01-12 Fujifilm Corp 画像処理装置、方法およびプログラム
WO2019031306A1 (ja) * 2017-08-07 2019-02-14 シャープ株式会社 生成装置、再生装置、生成方法、再生方法、制御プログラム、記録媒体

Similar Documents

Publication Publication Date Title
JP4555722B2 (ja) 立体映像生成装置
US6760020B1 (en) Image processing apparatus for displaying three-dimensional image
KR100913173B1 (ko) 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치
CN108513123B (zh) 一种集成成像光场显示的图像阵列生成方法
JP4803594B2 (ja) 局所領域分割による自由視点画像の生成装置およびプログラム
JP4836814B2 (ja) 3dディスプレイ用cg画像生成装置、3dディスプレイ用cg画像生成方法、及びプログラム
JP2006107213A (ja) 立体画像印刷システム
JP2006165795A (ja) 画像形成装置およびその方法
JP4489610B2 (ja) 立体視可能な表示装置および方法
CN101189643A (zh) 3d图像生成和显示系统
JP2006229725A (ja) 画像生成システム及び画像生成方法
JP2000267649A (ja) 3次元画像生成装置及び生成方法
JP2005165614A (ja) 画像合成装置および画像合成方法
Yang et al. Toward the light field display: Autostereoscopic rendering via a cluster of projectors
JP2009163724A (ja) グラフィックスインターフェイス、グラフィックスデータをラスタ化する方法およびコンピュータ読み取り可能な記録媒体
AU2004306226B2 (en) Stereoscopic imaging
JP2006140553A (ja) 立体画像生成プログラム、立体画像生成装置および立体画像生成方法
CN101540056B (zh) 面向ERDAS Virtual GIS的植入式真三维立体渲染方法
JP2006163547A (ja) 立体画像生成プログラム、立体画像生成システム及び立体画像生成装置。
KR100764382B1 (ko) 컴퓨터-생성 집적영상시스템에서의 이미지 매핑장치 및 그방법
JP2006254240A (ja) 立体画像表示装置、その方法及びプログラム
CN101521828B (zh) 面向esri三维gis模块的植入式真三维立体渲染方法
CN101488229B (zh) 面向pci三维分析模块的植入式真三维立体渲染方法
JP5565126B2 (ja) 立体印刷物制作支援装置、プラグインプログラム、立体印刷物制作方法および立体印刷物
JP2001222723A (ja) 立体視画像の生成方法及び同装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100706