JP2006115198A - 立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法 - Google Patents

立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法 Download PDF

Info

Publication number
JP2006115198A
JP2006115198A JP2004300370A JP2004300370A JP2006115198A JP 2006115198 A JP2006115198 A JP 2006115198A JP 2004300370 A JP2004300370 A JP 2004300370A JP 2004300370 A JP2004300370 A JP 2004300370A JP 2006115198 A JP2006115198 A JP 2006115198A
Authority
JP
Japan
Prior art keywords
image
viewpoint
information
stereoscopic
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004300370A
Other languages
English (en)
Other versions
JP4440066B2 (ja
JP2006115198A5 (ja
Inventor
Hidetoshi Tsubaki
秀敏 椿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004300370A priority Critical patent/JP4440066B2/ja
Publication of JP2006115198A publication Critical patent/JP2006115198A/ja
Publication of JP2006115198A5 publication Critical patent/JP2006115198A5/ja
Application granted granted Critical
Publication of JP4440066B2 publication Critical patent/JP4440066B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】 使用する立体表示デバイスに応じて、立体画像を構成する視点画像の視点位置を自動的に調整し、立体画像の観察時のクロストークを少なくして自然な立体観察を可能とする。
【解決手段】 立体画像生成プログラムは、複数の第1の視点画像から該第1の視点画像のサイズに関する第1のサイズ情報および該第1の視点画像間の視差に関する視差情報を取得する第1の情報取得ステップS102と、立体画像の観察に使用される立体表示デバイスに関するデバイス情報を取得する第2の情報取得ステップS103と、該第1のサイズ情報、視差情報およびデバイス情報に基づいて、立体表示デバイスに対応した複数の視点を決定する視点決定ステップS104と、第1の視点画像を用いて、該決定された複数の視点に対応する複数の第2の視点画像を生成し、該複数の第2の視点画像を用いて立体画像を生成する画像生成ステップs05,106とを有する。
【選択図】 図1

Description

本発明は、立体表示デバイスを介して立体観察される立体画像の生成システム、コンピュータプログラムおよび方法に関するものである。
画像を立体的に観察する方法として、インテグラルフォトグラフィを用いる方法や、パララックスバリヤ、レンチキュラ板等の立体表示デバイスを用した方法が知られている。そして、このような立体観察可能な画像(立体画像)を生成するためには、被写体を複数の視点から撮影した画像(視点画像)群を用意する必要がある。
この場合において、比較的少数の複数視点で撮影した視点画像群から、撮影を行っていない視点に対応した視点画像を補間手法により生成して、多数の視点から立体画像観察ができるようにした方法が提案されている。例えば、特許文献1において提案された方法では、複数視点から被写体を撮影した視点画像群から該被写体の奥行き分布を表す視差マップを生成し、該視点画像群と該視差マップとに基づいて任意の視点で撮影したのと同様の仮想視点画像を生成し、該仮想視点画像を用いて立体画像を生成する。
また、立体画像を表示する場合には、立体表示デバイスの画面のサイズを考慮する必要がある。画面サイズに合わせて表示される立体画像のサイズが変化する場合、立体表示デバイスを介して観察者の左右の眼に提示される視点画像間の視差(つまりは立体感)が変化する。視差が小さくなりすぎると、満足な立体感が得られず、また視差が大きくなりすぎると、不自然な立体感を与えてしまう。
このような問題に対処するため、主に2眼式の立体画像表示においては、特許文献2において提案されているように、複数の視点画像の相対位置をシフトさせる等の単純な並進処理等のアフィン処理を用いて、観察者の左右の眼に提示される視点画像間の視差範囲を、一般的な融像範囲と呼ばれる固定値的な視差量にスケーリングする。
特開2001−346226号公報(段落0048〜0085、図3等) 特開平9−121370号公報(段落0012〜0026、図1等)
しかしながら、上記特許文献2にて提案の手法を多眼式立体表示の場合に適用しても、次の2つの点から不都合がある。
第1に、特許文献2にて提案の手法は、主に2眼式立体表示を想定しているために、表示面上における視差量の許容値、つまりは表示視差許容量を、融像範囲若しくはそれに準じた固定範囲により設定している点である。該手法では、2眼式のように少ない視差画像を提示することを目的としているために、立体表示デバイスが有する個々の光学素子の性能によって左右される、隣接する視点画像間でのクロストーク、すなわち立体表示デバイスが有する個々の光学素子の解像力によって生じる問題、および観察者の眼が最適観察距離から外れた場合に生じる隣接視点画像間の混濁を考慮していないためである。
ここで、立体表示デバイスの個々の光学素子の解像力に起因するクロストークの問題について説明する。まず、図12には、立体表示デバイスの例として、(a)パララックスバリヤおよび(b)レンチキュラレンズを示す。図示のように、このような光学素子に対して相対的に順に視点画像を並べることにより、観察位置において左右の眼に異なる画像を提示することができる。図中の1,2,3,・・・6は各視点画像のインデックスナンバーを表す。
次に、図13には、立体画像を構成する視点画像の数の変化と、立体表示デバイスから射出される個々の視点画像に対応する光束との関係を示している。(a)は2眼、(b)は5眼、(c)は10眼の場合を模式的に示している。
1301は立体表示デバイスの個々の光学素子であり、ここではレンチキュラレンズの場合を示す。また、1302はある視点位置に配置された観察者の眼であり、手前に設定したスリットの範囲は光束が眼に入射する有限範囲を示す。
1303、1304、1305は立体画像を構成する個々の視点画像の領域を示す。また、1303は個々の光学素子の性能に依存する立体画像面での解像範囲rexpを模式的に表したものである。Pは立体表示デバイスの個々の光学素子のピッチ幅P、pは立体画像を構成する個々の視点画像の幅である。つまり、(a)のように個々の視点画像の領域pが光学素子の解像範囲rexpよりも広い場合には、観察者の眼1302にはそれぞれの視点画像のみが入射される。しかし、(c)のように個々の視点画像の領域pが光学素子の解像範囲rexpよりも狭い場合には、それぞれの視点画像からの光束のみを観察者の眼に入射させることができず、隣接した視点画像からの光束も観察者の眼1302に入射する。
さらに、図14の(a)には、理想的な形状をした光学素子から射出する光束を、(b)には、形状精度の悪い光学素子から射出する光束を示す。これらの光学素子を並列させて像を観察した場合、(a)では理想的な平行光束が射出されるため、最適観察距離の近傍で観察すれば、クロストークの小さい像が観察されるが、(b)のように射出される光束が発散している場合には、最適観察距離の近傍で観察したとしても、クロストークにより、複数の隣接視点画像の像が観察されてしまう。その影響は、図13における像数の変化に対する個々の視点画像から射出される光束の幅の変化から分かるように、像数がある一定以上になり、個々の視点画像の幅が狭くなるに従って避けられない問題となる。
次に、最適観察距離を外れた場合に生じる視差画像の混濁について説明する。図15には、上記のような光学素子を並列させて像を表示した場合の光束の状態を示す。801は立体表示デバイス(立体画像)であり、802〜806はある最適観察距離を示す。光学素子が理想的にその要求性能を満たす場合、図のように最適観察距離においては像が分離され、あるインデックスで表される視点画像のみが観察される。しかし、最適観察距離を外れた位置で像を観察する場合、複数のインデックスで表される視点画像が眼に同時に入射してしまう。立体表示の視点数が少ない場合には、このクロストークが問題になることが一般的である。
また、図16には、像数の変化と眼に入射する光束の幅との関係を示す。図13と同様に、1601は立体表示デバイスの個々の光学素子であり、ここではレンチキュラレンズの場合を示す。また、1602はある視点位置に配置された観察者の眼であり、手前に設定したスリットの範囲は光束が眼に入射する有限範囲を示す。1603、1604は立体画像を構成する個々の視点画像の領域を示す。1605、1606は個々の視点画像の領域の幅から光学素子1601を介して理想的に眼1602に向けて射出される光束を示している。図16(a),(b)の光束の幅の変化と観察眼の入射可能範囲との関係から類推できるように、個々の視点画像の幅が狭くなるに従ってクロストークの発生が最適観察距離に対して敏感になる。したがって、多眼式の立体画像表示において、観察視点について表示面からの距離をある程度許容する場合には、クロストークが発生してしまうため、個々の視点画像の幅が狭くなる場合、すなわち多くの視点画像によって立体画像を構成する場合には、隣接する視点画像間でのクロストークはより厳しく考慮しなければならなくなる。
ところで、個々の光学素子の解像力は立体表示デバイスの種類、構造、材質、製造方法によって大きく異なる。したがって、具体的には、立体表示デバイスを非常に高精度なガラス製のレンチキュラシートからプラスチック製の簡易的なものに交換した場合等のように、立体表示デバイスを変更した場合、該立体表示デバイスを構成する光学素子の性能の違いからクロストークが生じやすくなる問題が生じる。このため、提示視差量を調整することなく同じ立体画像を観察した場合、観察者に像のボケや像の重なり(重像)を感じさせる等、不快感を与えてしまう。
また、第2に、特許文献2にて提案の視差量の調整手法では、多眼式に特有の運動視差を発生させられなくなってしまう点にある。特許文献2の手法では、提示されるステレオ画像(一対の視点画像)間の位置関係を相対的に平行移動させることにより、視点画像間の視差を調整している。しかし、このような簡易的な手法は、3つ以上の視点画像によって立体画像を構成する場合には有効ではない。なぜならば、多眼式の立体表示においては、視点移動によって運動視差を生じさせるため、自然な運動視差の変化を実現しつつ、観察者に不快感を与えない立体画像を作成するためには、立体画像を構成する視点画像の視点位置自体を変化させる必要があるからである。
本発明は、使用する立体表示デバイスに応じて、立体画像を構成する視点画像の視点位置を自動的に調整し、立体画像の観察時のクロストークを少なくして自然な立体観察が可能な立体画像を生成することを目的の1つとする。
上記の目的を達成するために、1つの観点としての本発明の立体画像生成プログラムおよび方法(システム)は、複数の第1の視点画像から該第1の視点画像のサイズに関する第1のサイズ情報および該第1の視点画像間の視差に関する視差情報を取得する第1の情報取得ステップ(第1の情報取得手段)と、立体画像の観察に使用される立体表示デバイスに関するデバイス情報を取得する第2の情報取得ステップ(第1の情報取得手段)と、該第1のサイズ情報、視差情報およびデバイス情報に基づいて、立体表示デバイスに対応した複数の視点を決定する視点決定ステップ(視点決定手段)と、第1の視点画像を用いて、該決定された複数の視点に対応する複数の第2の視点画像を生成し、該複数の第2の視点画像を用いて立体画像を生成する画像生成ステップ(画像生成手段)とを有する。
また、他の観点としての本発明の立体画像生成プログラムおよび方法(システム)は、物体の三次元モデル情報と、視点画像に対応する視点に仮想的に配置される仮想カメラの撮影パラメータに関するパラメータ情報と、該仮想カメラのビューサイズに関する第1のサイズ情報とを取得する第1の情報取得ステップ(第1の情報取得手段)と、立体画像の観察に使用される立体表示デバイスに関するデバイス情報を取得する第2の情報取得ステップ(第2の情報取得手段)と、該パラメータ情報、第1のサイズ情報およびデバイス情報に基づいて、立体表示デバイスに対応した複数の視点を決定する視点決定ステップ(視点決定手段)と、三次元モデル情報を用いて、該決定された複数の視点に対応する複数の視点画像を生成し、該複数の視点画像を用いて立体画像を生成する画像生成ステップ(画像生成手段)とを有する。
本発明によれば、立体表示デバイスが変更されても立体画像の生成元となる複数の第2の視点画像の視点位置が自動的に調整されるので、観察時のクロストークが少なく自然な立体感を提示可能な立体画像を生成することができる。
以下、本発明の実施例について図面を参照しながら説明する。
図2には、本発明の実施例1である立体画像生成システムの構成を示している。図2において、201は画像入力装置であり、異なる視点で撮影された同一被写体に関する複数の画像(第1の視点画像)により構成される入力ステレオ画像を、後述する立体画像合成装置(画像生成手段)202に入力する。この画像入力装置201は、CFカード(登録商標)やスマートメディア(登録商標)等の固定記録メディアに記録された画像ファイルを読み込む入出力装置、若しくは入出力インターフェースを持つデジタルカメラ、デジタルビデオカメラ等の撮像機器、スキャナ、フィルムスキャナ等のアナログメディアから画像情報をデジタル化して読み込みを行う画像入力機器により構成される。
また、画像入力装置201をネットワークと接続し、遠隔地の撮像機器により撮像されて、蓄積、伝送されたネットワーク上に存在するステレオ画像を立体画像合成装置202に入力することもできる。
立体画像合成装置202は、入力されたステレオ画像の中から少なくとも2枚の視点画像を選択し、必要に応じて仮想視点画像生成を行い、立体画像データを合成する。該立体画像合成装置202は、例えば汎用のパーソナルコンピュータにより構成される。
203は操作ディスプレイであり、立体画像合成において必要な情報をユーザーとの対話的手順により取得するための表示を行ったり、該取得のアシストを行ったり、立体画像合成処理の処理状況を表示したりする。さらに、メニュー画面や、立体画像を構成する視点画像群を表示することもできる。該ディスプレイ203は、コンピュータディスプレイ等により構成される。
204は操作入力部であり、マウス、キーボード、ジョイスティック等により構成され、ユーザーがディスプレイ上に表示されたメニュー画像を見ながらメニューを選択するのに用いられる。
205は立体表示ディスプレイ210や他のコンピュータ等の外部機器と接続された入出力部であり、立体画像データ等をファイルとして出力する。ここで、図2に示す立体表示デバイス210は、CRT、LCDディスプレイ等により構成されるディスプレイ部210aと、該ディスプレイ部210aの前面に配置され、ディスプレイ部210aに表示された立体画像を構成する各視点画像からの光束を所定の視点に配置された観察者の左右の眼Eに導くレンチキュラ板、パララクスバリア等の光学部材210bとにより構成されている。
なお、該入出力部205は、イーサネット(登録商標)等のネットワークに接続されたネットワークポートやフロッピー(登録商標)ディスク、MO(登録商標)、ZIP(登録間商標)、CD−ROM等の固定記録メディアで構成してもよい。なお、入出力部204を画像入力装置201と同じ機器により構成してもよく、この場合は画像入力装置201と入出力部205とを共用することができる。
プリンタ206は、立体画像合成装置202で合成された立体画像を印刷する。印刷された立体画像上に、レンチキュラ板等の立体表示デバイスとしての光学部材を重ねることにより、立体像を観察することができる。
次に、立体画像合成装置202の内部構成について説明する。2021は本装置全体の制御を司るコントローラとしての中央演算処理装置であり、以下、CPUと称する。
2022は大容量記憶装置であり、画像入力装置201等から読み込まれたステレオ画像や生成された仮想視点画像や立体画像データを保存したり、立体表示デバイスや像数に関連して経験的若しくは解析的に設定される表示視差範囲のパラメータの値を記憶したりする。該大容量記憶装置2022は、ハードディスク等により構成される。
2023は主記憶装置であり、RAM等で構成される。該主記憶装置2023は、画像入力装置201から読み込まれたステレオ画像や大容量記憶装置2022に保存されたステレオ画像を主記憶領域上に展開したり、立体画像生成のためのパラメータや生成された仮想視点画像を立体画像生成のために一時的に記憶したりする。さらに、該主記憶装置2023は、生成された立体画像データを大容量記憶装置2022に記憶させたり、入出力部205から出力したり、プリンタ206で印刷する前に一次的に記憶したりする。
次に、図1を用いて、本実施例における立体画像合成装置202(主としてCPU2021)の処理の流れを説明する。この処理は、CPU2021内に格納されたコンピュータプログラムである立体画像合成プログラムに従って実行される。
ステップS101では、CPU2021は、ステレオ画像を画像入力装置201から入力し、大容量記憶装置2022に蓄積する。該入力ステレオ画像を構成する複数の視点画像(第1の視点画像)は、例えば図3に示すように、静止している被写体303〜305に対して、撮像機器301の視点(撮影位置)及び視線方向(撮影方向)を変化させながら被写体303〜305を撮影することにより得られる。図3においては、撮像機器はデジタルカメラ若しくはビデオカメラである。302は視点およご視線方向を変化させた後の撮影機器301を示している。なお、このように撮像機器を移動させながら撮影する代わりに、2眼以上の多眼カメラを用いてステレオ画像を撮影したり、カメラの撮影光学系にいわゆるステレオアダプタを装着又は組み込んだりしたステレオカメラを用いてもよい。
本実施例においては、入力されたステレオ画像である複数の視点画像に対し、視点画像間の幾何学的歪を解消する平行視処理が施されているものとする。平行視処理とは、視点画像間の幾何配置を、該視点画像間での様々な処理を単純に行うために、いわゆる平行視配置(複数位置でのカメラの撮影光軸方向が平行になるような配置)されたカメラで撮影されたと同等の配置になるように、視点画像群に対して視線変換を行う処理方法であり、「Multiple View Geometry, Hartley and Zisserman, Cambridge Press, (2000)」等に紹介されている既知の手法である。
ステップS102では、ステレオ画像(各視点画像)のサイズの情報と、視点画像間で生じている視差の画像上での最大値および最小値の情報(存在視差範囲の情報)とを取得する。まず、ステレオ画像サイズを取得するために、立体画像の生成に用いられる基準となるビュー範囲を設定する。ビュー範囲は、画像が歪まないように、次段のステップS103で設定する出力画像サイズのアスペクト比に合わせたり、ステレオ画像の撮影で撮影画像に含まれてしまった不要な被写体を除外したり、ステレオ画像のシーン領域を制限してステレオ画像に含まれる視差の存在範囲を狭くしたりすることにより設定する。また、ビュー範囲を設定せずに、入力ステレオ画像の画角をそのまま入力ステレオ画像サイズとしてもよい。
また、存在視差範囲を取得するために、入力ステレオ画像を構成する複数の視点画像間でステレオマッチングを行うことにより、視点画像間での個々の画素の対応情報を取得し、該対応情報の差分から視点画像間で生じている視差の最大値と最小値を算出して存在視差範囲を求める。
ここで、ステレオマッチングの概略を図4を用いて説明する。ステレオマッチングには、領域ベースの手法、特徴ベースの手法、勾配法を用いた手法等、様々な手法が存在するが、マッチング対象となる2つの視点画像における画素ごとの視差が求まる手法であればどのような手法を用いてもよい。
本実施例においては領域ベースの一手法である、差分和を用いた単純なテンプレートマッチング手法を特徴点の対応付けに用いた場合について説明する。ここでは、2つの視点画像のうち撮影した視点位置が左側に相当する左画像を基準画像501とし、視点位置が右側に相当する右画像を参照画像502とし、左画像を基準としてテンプレートマッチングを行うこととする。
この場合、まず、左画像中のある特徴点を選択する。この点を注目点(注目画素)504と呼ぶ。そしてこの注目点504を中心とした所定サイズの領域をテンプレート503として切り出す。
次に、大まかな視点の移動量やカメラの手振れによる視点および視線方向の変動を考慮して、参照画像中での対応点探索領域507を任意に定める。そして、対応点探索領域507内に存在する特徴点である参照点505を順次選択するとともに、該参照点505を中心とした、上記テンプレート503と同一のサイズのウィンドウ領域506について、基準画像中のテンプレート503との相関値を求めていく。
例えば、カメラが水平移動する場合には、通常、対応点探索領域507は、画像座標の水平方向に長辺を持つ長方形の領域として与えられることが多い。
注目点に対応する参照画像中での対応点は、相関値の最も大きい参照点に決定される。但し、対応点での相関値が所定値より小さい場合、対応点での相関値と2番目に小さい相関値との差が所定値より小さい場合、あるいは対応点近傍での相関値の変化が所定値より小さい場合等は、対応点探索処理に関して信頼性が低いと考えられるので、その点を対応点として決定しない。
以上のようなステレオマッチング処理により、左画像を基準とした右画像の対応情報が求められる。以上のような対応付けを左画像内の他の特徴点についても行う。
なお、ここでは、左画像を基準画像とした場合について説明したが、右画像を基準画像とし、左画像を参照画像として同様の処理を行ってもよい。また、左画像を基準とした処理と右画像を基準とした処理の両方を行って得られた対応点情報の対称性を用いて、特徴点の対応関係が1対1となるように、結果の修正を行ってもよい。
ステレオマッチングにより得られた対応点情報の差分情報を視差値として計算する。例えば、左画像を基準画像と考えた場合、左画像の各画素(各注目画素)に対する右画像での対応点との位置ずれ(視差)ベクトルにより視差を表す。視差ベクトルは、
Figure 2006115198
により求まる。
本実施例においては、立体表示デバイス210として、レンチキュラレンズ等、1次元の視差変化のみを表現可能な光学部材を有する立体表示デバイスを用いた場合について説明する。具体的には、視差としては、左画像の各画素に対して右画像の対応点の位置との水平方向での位置ずれを表す1次元方向の視差のみに着目する。したがって、視差ベクトルは、スカラー値(視差値)により表される。但し、立体表示デバイス210として、インテグラルフォトグラフィ等、2次元の視差を表すデバイスを用いる場合には、視差をベクトルとして扱い、垂直方向の位置ずれも考慮する。
このようにして求まる視点画像間の視差の最小値及び最大値を取得し、該最小視差値と最大視差値により表される範囲が入力ステレオ画像の存在視差範囲とする。但し、視差の最大値および最小値は、選択したビュー範囲内のみに限定して求められる。したがって、ビュー範囲が変化することにより、入力ステレオ画像の存在視差範囲も変化する。以上のようにして、ステップS102では、入力ステレオ画像サイズと存在視差範囲とを取得する。
次に、ステップS103では、操作入力部204を介してユーザーに立体表示デバイスを選択させ、該選択された立体表示デバイスに対応して最終的に出力される立体画像のサイズ指定を行う。
本実施例では、図5(a)に示すように、プリンタ206によって印刷された立体画像を立体視するためのガラスレンチキュラ板およびプラスチックレンチキュラ板や、CRT,LCD等を有する立体ディスプレイであって、15inch、XGAサイズでパララクスバリアを用いたディスプレイAおよび15inch、XGAサイズでレンチキュラ板を用いたディスプレイB等、立体表示デバイスの構成、表示形式、表示可能な視点画像数(像数)、立体画像の表示可能領域のサイズ、該デバイスを構成する個々の光学素子の性能等の仕様に関するデバイス情報が異なるデバイスが立体表示デバイスとして選択可能であるとする。
また、立体画像は、図2の立体表示デバイス210中に模式的に示すように、左右方向一端の画素垂直ラインを構成する画素が視点画像1を表示し、次の画素垂直ラインを構成する画素が視点画像2を表示し、さらに次の画像垂直ラインを構成する画素が視点画像3を表示するというように、視点画像1〜n(図2では、n=5)の一部である画素垂直ライン(ストライプ画像)が水平方向に循環的に配置されて構成されている。すなわち、本実施例の立体画像は、各視点画像を1画素垂直ラインずつに分割し、該分割されたストライプ画像を視点の順序とは逆の順番で循環的に並べることによって1画像として合成された画像である。以下、このような立体画像をストライプ式立体画像という。また、このストライプ式立体画像の具体的な合成方法については後述する。
但し、立体画像の形式はこのようなものに限らず、各視点画像の画素を水平方向に視点配列に従って循環的に配置し、かつ画素水平ラインごとに視点の循環位置をずらしたもの等、他の形式のものでもよい。
そして、上記立体表示デバイスの中から立体画像の観察に使用したいデバイスを選択することにより、該デバイスのデバイス情報に基づいて、該デバイスに対応する立体画像中において隣接する2つの視点画像間での表示視差許容量が決定される。
なお、本実施例では、使用する立体表示デバイスを図5(a)に示すように、操作ディスプレイ203および操作入力部204を用いて対話的に選択する。
立体表示デバイスのそれぞれの仕様に対応する表示視差許容値は、事前に、実験的もしくは解析的に求められた、立体表示デバイスが有する個々の光学素子(例えば、レンチキュラ板を構成するレンチキュラレンズ)の解像力に基づいて計算される。
立体表示デバイスの個々の光学素子の解像力は、大容量記憶装置2022にデータベースとして保存されている。また、操作入力部204から立体表示デバイス210を選択する際にパラメータとして入力してもよい。
例えば、立体表示デバイスを対話的にメニューから選択した場合、立体表示デバイスに対応する表示視差許容量が以下のようにして与えられる。
まず、表示視差許容量を、従来の2眼式等の場合のように、ユーザーによる調節と両眼視差の不一致に起因する値により決まる範囲で制限するのか、立体表示デバイスを構成する光学素子の性能により生じるクロストークに起因する値で決まる範囲で制限するのかを判定する手順を行う。
まず、選択された立体表示デバイスのパラメータ(光学素子のピッチ幅P)と像数nとから、立体画像を構成する各視点画像の幅pを求める。
p=P/n ・・・(2)
次に、各視点画像の幅pと立体表示デバイスの個々の光学素子の解像力rexpとを比較する。それぞれのパラメータは、図13(a)のP,p,rexpに対応する。図13(a)においてはn=2である。
但し、rexpは比較を行う場合、マージンを考えて、実測値よりも小さい値とするほうがよい。また、最適観察距離を外れた観察位置で立体像を観察する場合は、更にrexpをより小さな値として設定するほうがよい。
立体画像を構成する個々の視点画像の幅pが立体表示デバイスを構成する個々の光学素子の解像力rexpよりも広い場合には、従来の2眼式のように、観察者による調節と両眼視差の不一致に起因する値により決まる視差範囲、すなわち融像範囲と呼ばれる範囲に表示視差許容量を設定する。
融像範囲の視差量については、2眼式を前提とした立体画像の撮影において古くから研究されており、「3D映像の設計について(熊田典明,放送技術,1992.11)」等の文献に視差量の設定の手法が示されている。
逆に、立体画像を構成する個々の視点画像の幅pが、立体表示デバイスを構成する個々の光学素子の解像力rexpよりも狭い場合には、左右の眼に提示される視点画像間の視差量が、観察者の融像範囲内であるかという問題よりも、最適な視点間距離を取った場合にも、クロストークにより一方の眼球に複数の隣接する視点画像からの光が入射してしまうという問題の影響の方が大きくなる。複数の隣接視点画像からの光が同時に1つの眼球に入射する場合、視点像画像間の視差量による像のずれで生じる二重輪郭等が、観察者に強い不快感を及ぼすことに繋がる。解像力rexpと視点画像のピッチ幅pとの関係により重像数を決定し、以下のように視差許容量を決める。
但し、最適観察距離を大きく外れた観察位置で立体像の観察する場合には、図15に示した光束の分布から分かるように、次第に隣接画像とのクロストークが問題となってくる。このため、最適観察距離を大きく外れた観察位置での立体像観察が想定され、クロストークについて実際の観察位置の最適観察距離からのずれにより生じるクロストークを重視する場合には、特に立体表示デバイスを構成する個々の光学素子の解像力を考慮する必要はない。
立体表示デバイスの個々の光学素子の解像力をデータベースから読み出す代わりに、最適観察距離からのずれの度合いに応じて直接、重像数を決定するだけでもよい。
表示視差許容量が、立体表示デバイスを構成する光学素子の性能により生じるクロストークによって決定される場合は、それぞれの立体表示デバイスを利用して立体画像を最適観察距離で観察した場合に、どれだけの像数が一度に観察できてしまうか、そして一度に複数の視点画像が提示された場合にどれだけ視点画像間のずれが許容できるかで決定される。
図6はあるステレオ画像の立体観察時に生じるクロストークの影響を示す図である。(a)は入力ステレオ画像、(b)は(a)の入力ステレオ画像から生成された立体画像を立体表示デバイスを通して観察した際に見えるクロストークの影響を受けた像である。また、(c)は(b)のクロストークの影響を示す図である。(c)では、3つの隣接視点画像が単一の視点に配置された眼に入射していることを示す。つまり、(b)に示すように、視差の影響によるずれを持つ重像を観察することになる。
(b)中において、1201は立体画像の表示面上でのずれ量を示している。重像の影響は、同一視点で一度に観察される視点画像間の視差量に関係する。つまり、表示視差許容量は、重像のずれ量がどの程度までならば許容できるかによって決定される。
また、図13に示した立体画像を構成する視点画像数の変化と、立体表示デバイスから射出される個々の視点画像に対応する光束との関係から明らかなように、立体表示デバイスの個々の光学素子に対して挿入される像数に対し、表示視差許容量はある一定の像数以上では反比例する。つまり、一定数以上の像数においては、像数が増加すると表示視差許容量は減少し、例えば像数が倍増すると隣接視点画像間での表示視差許容量は約半分となる。
重像の影響の許容量は主観量であることから、実験的に像数と隣接視点画像間の視差範囲を変化させることにより、それぞれの立体表示デバイスについての表示許容視差量を決定する。但し、表示許容視差量は、視差を持つ部分のテクスチャの細かさにも影響される。つまり、テクスチャがぼやける遠景の沈み込み側の許容視差量は、通常の場合は大きくとることができ、逆にテクスチャがはっきりと現れる飛び出し側の視差値は小さな値に制限される。
次に、立体表示デバイスによって観察される立体画像のサイズの選択(指定)について説明する。まず、立体表示デバイスが選択されることにより、該立体表示デバイスの表示可能領域の情報を取得し、該表示可能領域内の範囲で立体画像サイズを決定する。通常の立体表示デバイスのように、選択された立体表示デバイスとその表示可能領域との関係が1対1の関係にある場合には、繰り返し立体画像サイズを指定する必要はない。
立体表示デバイスとしてプリント画像に重ねて用いられるレンチキュラ板等を選択した場合、立体表示デバイスと印刷可能領域とは当然独立したものとなる。このため、プリンタとプリントされる用紙を選択することにより決まる有効印字領域のサイズが表示可能領域のサイズとなる。
通常は、立体表示デバイスの選択と立体画像サイズの指定(選択)については、図5(a)に示すように、本実施例における立体画像生成システムのディスプレイ203および操作入力部204等を用いて、一括して対話的に選択することができる。
次に、表示可能領域内で立体画像サイズを決定する。表示可能領域をそのまま立体画像サイズとしてもよいが、入力される視点画像(入力ステレオ画像)のサイズと表示可能領域のサイズとのアスペクト比が異なる場合には、立体画像を表示した際に提示される像が歪んでしまう。このため、入力ステレオ画像サイズと表示可能領域のサイズのアスペクト比を確保したり、表示可能領域ぎりぎりまで立体画像を表示したくなかったりする場合には、余白領域を設定して立体画像サイズを決定する。
図5(b)には、具体例として、プリントの場合に表示可能領域内で立体画像サイズを変更する様子を示す。601は表示可能領域、602はあるサイズ編集前の立体画像サイズ、603はあるサイズ編集後の立体画像サイズである。
なお、ステップS102では入力ステレオ画像サイズと存在視差範囲とを取得し、またステップS103では立体画像サイズを選択しており、それぞれ独立したパラメータを求めているので、これらの処理の順番を逆にしてもよい。
ステップS104では、入力ステレオ画像から新たに生成する視点画像(第2の視点画像、以下、仮想視点画像という)の視点(以下、仮想視点という)の位置を決定する。仮想視点位置とは、仮想視点画像を仮想的に撮影したカメラ(仮想カメラ)による撮影位置を示す。本実施例では、仮想視点画像を立体画像に変換したときに、立体表示デバイス210を通して提示される立体像の全域において隣接する視点画像間での視差が表示視差許容値を超えない範囲で最大の視差となるという条件下で、仮想視点位置を決定する。具体的には、以下のように、基準となる仮想視点位置を決定した後、順次、上記条件のもとで他の仮想視点位置を決定していく。
まず、ステップS102で得られた入力ステレオ画像のサイズおよびステップS103で得られた立体画像のサイズを用いて、入力ステレオ画像と出力立体画像とのサイズ比、すなわち変倍率を求める。
次に、求めた変倍率と、ステップS102により得られた基準となる視点画像の存在視差範囲、ステップS103により得られた隣接視点間の表示視差許容値を用いて、次段のステップS105で生成する仮想視点画像に対応する仮想視点位置を決定する。
ここでは、まず隣接する仮想視点間の表示視差許容値に変倍率の逆数を積算することにより、入力ステレオ画像のスケールに対応する隣接視点間の視差許容値の範囲を求める。
次に、基準となる仮想視点を決定する。基準となる仮想視点の位置はどのような位置でもよいが、本実施例では、入力ステレオ画像の各視点を結ぶ基線上の中間点を基準仮想視点とする。そして、ステレオ画像のスケールに対応した隣接視点間の視差許容値を超えない範囲で仮想視点位置の変位を取り、順次、他の仮想視点位置を決定していく。
図7には、入力ステレオ画像間の視差量と、新たに生成される仮想視点画像の視差量との関係を示す。幾何的な配置の関係により、平行視配置に変換された入力ステレオ画像(ここでは2つの視点画像)1001,1002間で算出された視差量に対し、該入力ステレオ画像1001,1002の視点を結んだ直線上の仮想視点位置で、入力ステレオ画像1001,1002と同じ視線方向を持つ仮想視点画像1003を生成した場合、その生成された仮想視点画像と入力ステレオ画像のうち一方の視点画像との視差値は、その相対位置関係から一意に決定される。
つまり、入力ステレオ画像の視点間の距離がSであった場合に、仮想視点画像1003の視点が入力ステレオ画像の一方の視点画像1001を基準として、tの位置にあるとすると、該一方の視点画像1001と仮想視点画像1003間での視差値は、
Figure 2006115198
という形で得ることができる。
(3)式のd(x,y)は、(1)式により求めた視差値を、一方の視点画像の座標値に対応付けたものである。ここでは一方の視点画像1001を基準として他方の視点画像1002との間で求められる視差値である。また、d’(x,y)は、一方の視点画像1001を基準として仮想視点画像1003との間に生じる視差値に対応する。
生成したい仮想視点画像の視線方向が入力ステレオ画像の視線方向と異なる場合には、一旦、入力ステレオ画像との平行視配置における視差値を求め、その後に視線変換を行うことによる対応点位置の変位をその視差に加算することにより、生成する仮想視点画像の各画素位置を計算する必要がある。
このようにして得られる、隣接した仮想視点画像間での視差値が、入力ステレオ画像のスケールにおける隣接視点間の視差許容値に収まる範囲内で仮想視点位置の変位を取りながら、仮想視点位置を順次決定していく。
図8(a)は、表示視差許容値が小さい場合において決定された仮想視点位置を、図8(b)は表示視差許容値が大きい場合において決定された仮想視点位置である。
901は入力ステレオ画像のうち一方の視点画像、902は他方の視点画像である。903,904は図8(a),(b)のそれぞれの場合の仮想視点群である。905は入力ステレオ画像の2つの視点を結んだ中点に取った仮想視点の基準位置である。仮想視点群903,904の位置は、基準仮想視点を中心に水平方向に均等に分布するように決定している。当然、(a)の表示視差許容値が小さい場合の仮想視点群の広がりよりも、(b)の表示視差許容値が大きい場合の仮想視点群の広がりの方が大きくなる。
ステップS105では、前段のステップS104で決定した仮想視点に対応する仮想視点画像を生成する。
本実施例においては、ビューモーフィング(View Morphing,Steven M.Seitz,C. R. Dyer,Proc. SIGGRAPH 96(1996))の原理を用いて、入力ステレオ画像から直接、仮想視点画像を生成する、ここでは、特開2001−346226号公報において提案されている仮想視点の生成手法を用いた場合について、図9のフローチャートを用いて説明する。
ステップS1101では、入力ステレオ画像のそれぞれの画素に対して視差値が対応するように、S102において得られた存在視差範囲の視差情報を補間し、密な視差分布情報である視差マップを算出する。仮想視点画像生成における視点位置の変化の影響をより精密に再現したい場合には、階層マッチングやアダプティブマッチングと呼ばれる、より高精度な視点画像間の視差値を求めるステレオマッチングを再度実施してもよい。
また、視差情報の補間については、本実施例では、補間される未対応点の算出座標位置と対応点抽出処理で視差値の求まった対応点位置における距離パラメータを重みとして加重平均し、対応点の求まっていない未対応点の位置での視差を次式(4)により求める。
Figure 2006115198
ここで、nは補間結果を左右する任意に設定するパラメータであり、nの値を小さくしすぎると、求める視差は画像全域からの平均に近くなり、視差分布が一様になる。また、nの値を大きくしすぎると、近くの対応点の影響を大きく受ける。計算時間も考慮して、n=1程度が望ましい。
以上の処理により、左画像に対する密な視差分布情報、つまり視差マップを得る。右画像に対応する密な視差分布は、(4)式の座標位置(x,y)、 (x’,y’)を入れ替えることで得る。
次に、ステップS1102では、ワーピング処理を行ってステップS104で得られた入力ステレオ画像に対する相対位置である各仮想視点位置に対応する仮想視点画像を生成する。
具体的には、(4)式で得られる個々の画素のワープ量に従い、ワープ元となる入力ステレオ画像の個々の画素をワープさせることにより、仮想視点の像を生成することができる。生成された仮想視点画像に対してオクルージョン処理、平滑化等の後処理を行うことにより、決定した仮想視点に対応する仮想視点画像が得られる。
ステップS1103では、生成された仮想視点画像の視線方向を、平行視処理後の入力ステレオ画像の視線方向とは異なる方向にしたい場合に、視線変換を行う。具体的には、視線行列を計算し、画像に適用することにより視線変換後の画像が得られる。
このような手順を、決定した各仮想視点に対して行うことにより、各仮想視点に対応する仮想視点画像が生成される。
本実施例では、入力ステレオ画像から、立体画像の合成に必要な仮想視点画像を生成するための仮想視点を、入力ステレオ画像のサイズ情報と、立体表示デバイスの種類、像数等の仕様に関するデバイス情報と、立体画像の表示サイズ情報に基づいて決定し、次に入力ステレオ画像に基づいて、決定した仮想視点に対応する仮想視点画像を生成することで、適切な視差を有する立体画像を生成する。但し、入力ステレオ画像から仮想視点画像を生成する手法自体についてはその種類は問わない。
従来技術である特開平9−121370号公報にて提案のように、既に存在する視点画像間の相対位置をシフトさせる等、単純な視点画像のアフィン処理によって観察者の左右の眼に提示される視点画像間の視差範囲を調整する場合、その提示視差量の変化は立体の飛び出し量および沈み込み量について管面に対し近似的に垂直方向に並進するように影響するだけである。また、特に、中心視の場合のように、幾何学的関係から視点画像間の視線方向が互いに平行でない場合は大きな影響の差が出る。このような視差調整方法では、視差の変化に対し、幾何学的関係において正しくない修正を行うことになってしまうため、調整後の視点画像を観察した場合に視差変化に歪みを感じてしまう。
これに対して、本実施例のように、例えば、仮想視点画像の生成にビューモーフィング手法を用いて、画像の視差調整のために仮想視点画像を新たに生成することにより、図8(a),(b)に示すように、視点間隔、つまりは仮想視点間の基線長が広がった、より良好に運動視差を再現できる仮想視点画像群を生成することができる。また、中心視の場合のように、視点画像間の視線方向が平行でない場合でも、仮想視点画像の生成処理後に視線方向を変更する視線変換処理を行うことにより、立体画像合成用の視点画像群として、視差変化において歪みのない自然な立体感が得られる仮想視点画像群を最終的に生成することができる。
次に、図1におけるステップS106では、ステップS105において生成された仮想視点画像群を合成して立体画像を生成する。そして、生成された立体画像は、プリンタ206に出力されて印刷されたり、立体表示ディスプレイ203に出力されて表示されたりする。また、入出力部205から立体画像データとして出力される場合もある。
ここでは、図2に示すように、立体表示デバイス210として、立体画像を表示するディスプレイ部210aの前面にレンチキュラ板(光学部材)210bを配置し、ディスプレイ部210aに前述したストライプ式立体画像を表示する場合の該ストライプ式立体画像の合成について説明する。
ストライプ式立体画像の合成は、生成された仮想視点画像群における各画像の同一座標の画素を、視点配列とは逆順に配列することにより行う。
まず、視点jに対応する仮想視点画像の画素値をPjmn(但し、m,nはそれぞれ水平、垂直方向の画素配列のインデックス)とすると、該仮想視点画像は以下のような画素値データの2次元配列で表される。
Figure 2006115198
次に、各仮想視点画像を垂直方向に延びる1ラインごとにストライプ状に分解し、該ストライプ画像を実際の視点の配列順とは逆の順番に視点数分だけ並べていく。したがって,合成後の画像は以下に示すようなストライプ画像となる。
Figure 2006115198
但し、上記配列は視点1が左端、Nが右端の位置関係に対応する立体画像を表す。ここで、ストライプ画像の配列順序を視点の配列順と逆にするのは、レンチキュラ板210bを構成するレンチキュラレンズの1ピッチ内で、画像が左右逆に観察されるためである。このストライプ式立体画像は、各仮想視点画像がH×vのサイズであり、N個の仮想視点画像を有する場合には、X(=N×H)×vのサイズとなる。
次に、このストライプ式立体画像に対して、レンチキュラ板210bとのピッチ合わせ(変倍処理)を行う。1ピッチのRP(dpi)の画素がN画素分存在するので、1ピッチはN/RP(inch)となるが、レンチキュラ板210bにおけるレンチキュラレンズのピッチがRL(inch)であるので、画像を水平方向にRL×RP/N倍してピッチを合わせる。
また、垂直方向の画素数は、アスペクト比を保存したい場合は、(RL×RP/N)×Y画素となる必要があるので、垂直方向に(RL×RP×Y)/(N×v)のサイズとなる。
ここで、RP(dpi)は印刷の解像度、XP×YPは印刷サイズ、X(RP×XP)×Y(RP×YP)(画素)は印刷する画像のサイズ、RL(inch)はレンチキュラ板210bにおけるレンチキュラレンズのピッチである。
このように立体画像に対して変倍処理を行い、最終的な立体画像として立体表示デバイス210に表示する。変倍処理は、例えば、双線形補間などにより行う。立体画像をプリンタ206により印刷した場合には、印刷された立体画像にレンチキュラ板等の光学部材を重ね合わせて観察する。
本実施例によれば、ストライプ式立体画像の生成元画像である仮想視点画像の生成における視点位置(仮想視点位置)を、立体表示デバイスの種類、像数等の情報や立体画像の表示サイズ情報に基づいて自動的に調整するので、十分な立体感を持ち、静止観察時や視点移動観察をした際にクロストークによる不快感を及ぼさない、より自然な立体観察が可能な立体画像を生成することが可能となる。
なお、上記実施例においては、レンチキュラ板を用いた立体表示デバイスに対応した画素配列の立体画像の合成方法について説明したが、本発明は、いわゆる斜めレンチキュラシート、パララックスステレオグラム、ホログラフィックステレオグラム等を用いた立体表示デバイスに対応した画素配列の立体画像を合成する場合にも適用することができる。
また、上記実施例では、立体画像の合成に、入力ステレオ画像から新たに生成された仮想視点画像群のみを用いた場合について説明したが、入力ステレオ画像中の視点画像に対応する視点が、ステップS104で決定される仮想視点に一致する場合は、その入力ステレオ画像に含まれる視点画像を立体画像生成用の視点画像として含めてもよい。
さらに、上記実施例においては、仮想視点画像の生成手法として、平行視配置におけるビューモーフィング手法により視線方向が平行となる仮想視点画像を生成する場合について説明したが、生成後の仮想視点画像に対して視線変換等のアフィン処理を加えることにより、シーン内の特定物体に対して各仮想視点画像の視線方向が向かう、中心視の仮想視点画像群を生成してもよい。つまり、仮想視点画像の視点位置および視線方向は、任意でよい。
上記実施例1においては、ステレオ画像を入力として、表示サイズ若しくは立体表示デバイスの種類や像数が変更されるごとに、観察者にクロストークによる不快感を与えない範囲で最も大きな立体感(視差)を与えるように、立体画像を生成するための仮想視点画像の視点位置を自動的に調整し、適切な立体感を感じさせる立体画像を生成したが、入力を三次元モデル情報とすることも可能である
本実施例の立体画像生成システム構成は、実施例1のシステム構成と基本的に同じであるので、本実施例において共通する構成要素には実施例1と同符号を付す。但し、立体画像合成装置202における処理が図10に示すフローチャートように変更される。なお、該処理は、立体画像合成装置202のCPU2021内に格納されたコンピュータプログラムである立体画像合成プログラムに従って実行される。
本実施例にいう三次元モデル(情報)とは、物体の表面の頂点座標および頂点列で形成されるポリゴンと、該表面の色や反射率等の属性を表す2次元テクスチャ画像とから構成される、実物体を三次元でモデリングした情報である。該三次元モデルをある三次元の仮想空間内に配置し、該三次元モデルに対して移動、回転、拡大などの操作を行って仮想空間内での配置を変更することで、所望のシーンを構築することができる。このようにして三次元モデルが配置された仮想空間において、更に任意の仮想視点位置に仮想カメラを設置して画像をレンダリングすることにより、仮想視点画像を生成することができる。
ステップS1401では、1又は複数の物体の三次元モデルと、該三次元モデルの仮想空間での配置情報も含む詳細な三次元モデル情報を外部機器との入出力部205から入力し、主記憶装置2023もしくは大容量記憶装置2022に記憶する。
更に、入力された三次元モデルの形状や配置を変更したい場合には、立体表示ディスプレイ203に仮想空間における三次元モデルの配置を表示し、操作入力部204を介して変形、移動、回転、反転、拡大・縮小等の操作を行う。
ステップS1402では、仮想空間内に設置された仮想カメラの撮影パラメータおよび仮想カメラの撮像面におけるビューサイズを決定する。仮想カメラの撮影パラメータが決定されることにより、仮想空間と実空間とのスケールが決定される。仮想カメラの撮影パラメータとは、撮影方向(視線方向)、撮影倍率等、カメラの内部パラメータである。
ステップS1403では、実施例1のステップS103と同様に、選択された立体表示デバイスのデバイス情報から表示視差許容量を求めるとともに、表示立体画像サイズの指定を受ける。
ステップS1404では、仮想視点画像を撮影する仮想カメラの位置、すなわち仮想視点位置を決定する。まず、ステップS1402において決定された仮想カメラの撮影パラメータ、ビューサイズ、さらにはステップS1403で取得された表示視差許容量および表示立体画像サイズから、仮想カメラの視点において生成される仮想視点画像のスケールにおける、仮想視点画像間での許容視差量の範囲を求める。
次に、仮想視点画像を順次生成するために、仮想視点位置を決定する。図11において、1501は基準となる視点の仮想カメラ、1502は視点移動後の仮想カメラ、1503、1504、1505は仮想空間内の三次元モデルである。
まず、実施例1と同様に、基準となる仮想カメラの視点位置を決定する。本実施例では、図11における視点位置1501とする。次に、該視点位置1501を基準として、次の仮想カメラの視点位置を決定する。仮想カメラの視点位置の決定においては、順次生成される仮想視点画像の前時点で決定された視点位置(最初は基準とした視点位置1501)に対応する仮想視点画像と、次に選択された視点位置における仮想視点画像との間の視差量が、仮想視点画像のスケールにおける許容視差量を超えないことが条件となる。
すなわち、まず次の仮想カメラの視点位置を任意に選択する。そして、基準となる視点位置において生成される仮想視点画像との間に生じる視差量を求める。さらに、画像全域の視差量について、仮想視点画像のスケールにおける許容視差量との比較を行い、生成される仮想視点画像間の視差量が許容視差量を超えていない場合はその視点位置の仮想視点位置としての選択を許可する。一方、許容視差量を超えた場合は、より小さな視点の移動の中で次の仮想カメラの視点位置を新たに選択するという形で、1つの仮想視点画像についての仮想カメラの視点位置を決定していく。
また、視差情報は、例えば図11のようにそれぞれの仮想カメラを仮想空間内に設置し、仮想空間内に設置された物体へとレイトレースを行い、撮影パラメータおよびビュー範囲に基づいて、仮想カメラによって撮影された2つの仮想視点画像間の一方の画像を基準とした視差情報を求めていく。また、仮想空間内に設置された3次元モデルおよび仮想カメラの幾何的な位置情報は既知であることから、幾何演算により、部分的に視差情報を求めてもよい。
1つの仮想視点画像の視点位置が決定されると、その視点位置が次の視点位置の決定における基準視点位置となる。こうして、仮想視点位置を順次決定していき、立体画像を構成する仮想視点画像数を満たす仮想視点位置が決定される。
ステップS1405では、ステップS1404で決定された仮想視点位置に対応する仮想視点画像を順次レンダリングすることにより、立体画像を合成するために必要な数の仮想視点画像群を生成する。
さらに、ステップS1406では、仮想視点画像群から立体画像を合成し、立体表示デバイス210やプリンタ206等に出力する。
本実施例によれば、三次元モデル情報を入力として、立体表示デバイスの種類、視点画像数(像数)等の仕様に関するデバイス情報および表示立体画像サイズが変更されるごとに、立体画像の生成元画像である仮想視点画像の生成における視点位置(仮想視点位置)を自動的に調整するので、十分な立体感を持ち、静止観察時や視点移動観察をした際にクロストークによる不快感を及ぼさない、より自然な立体観察が可能な立体画像を生成することが可能となる。
なお、本発明は、上述した各実施例のシステム構成に限定されず、複数の装置から構成されるシステムに適用しても、1つの装置からなるシステムに適用してもよい。
本発明の実施例1である立体画像生成システムの処理を示すフローチャート。 実施例1の立体画像生成システムの構成を示す図。 実施例1における入力ステレオ画像の撮影方法を説明する図。 実施例1において行われるステレオマッチングの方法を説明する図。 実施例1における立体表示デバイスと立体画像サイズを選択する様子を説明する図。 実施例1におけるクロストークの影響と表示視差許容値の関係を説明する図。 実施例1における入力ステレオ画像と仮想視点位置との関係を示す図。 実施例1における立体表示デバイスの違いによる仮想視点位置の違いを説明する図。 実施例1における仮想視点画像の生成手順を説明するフローチャート。 本発明の実施例2である立体画像生成システムの処理を示すフローチャート。 実施例2における三次元モデルからの仮想視点画像の生成を説明する図。 立体表示デバイスの例を示す図。 立体画像を構成する視点画像数の変化と射出される光束との関係を説明する図。 立体表示デバイスの光学素子の形状による射出光束の変化を説明する図。 立体画像の最適観察位置とクロストークの発生との関係を説明する図。 立体画像を構成する視差画像数の変化と観察眼に入射する光束の幅との関係を説明する図。
符号の説明
201 画像入力装置
202 立体画像合成装置
203 操作ディスプレイ
204 操作入力部
205 外部機器との入出力部
206 プリンタ
210 立体表示デバイス

Claims (11)

  1. 複数の第1の視点画像から該第1の視点画像のサイズに関する第1のサイズ情報および該第1の視点画像間の視差に関する視差情報を取得する第1の情報取得ステップと、
    立体画像の観察に使用される立体表示デバイスに関するデバイス情報を取得する第2の情報取得ステップと、
    前記第1のサイズ情報、視差情報およびデバイス情報に基づいて、前記立体表示デバイスに対応した複数の視点を決定する視点決定ステップと、
    前記第1の視点画像を用いて、該決定された複数の視点に対応する複数の第2の視点画像を生成し、該複数の第2の視点画像を用いて前記立体画像を生成する画像生成ステップとを有することを特徴とする、コンピュータ上で動作する立体画像生成プログラム。
  2. 前記第2の情報取得ステップにおいて、前記立体画像のサイズに関する第2のサイズ情報を取得し、
    前記視点決定ステップにおいて、前記第1および第2のサイズ情報、前記視差情報および前記デバイス情報に基づいて前記複数の視点を決定することを特徴とする請求項1に記載の立体画像生成プログラム。
  3. 物体の三次元モデル情報と、視点画像に対応する視点に仮想的に配置される仮想カメラの撮影パラメータに関するパラメータ情報と、該仮想カメラのビューサイズに関する第1のサイズ情報とを取得する第1の情報取得ステップと、
    立体画像の観察に使用される立体表示デバイスに関するデバイス情報を取得する第2の情報取得ステップと、
    前記パラメータ情報、前記第1のサイズ情報および前記デバイス情報に基づいて、前記立体表示デバイスに対応した複数の視点を決定する視点決定ステップと、
    前記三次元モデル情報を用いて、該決定された複数の視点に対応する複数の視点画像を生成し、該複数の視点画像を用いて前記立体画像を生成する画像生成ステップとを有することを特徴とする、コンピュータ上で動作する立体画像生成プログラム。
  4. 前記第2の情報取得ステップにおいて、前記立体画像のサイズに関する第2のサイズ情報を取得し、
    前記視点決定ステップにおいて、前記パラメータ情報、前記ビューサイズ情報、前記デバイス情報および前記サイズ情報に基づいて、前記複数の視点を決定することを特徴とする請求項3に記載の立体画像生成プログラム。
  5. 前記視点決定ステップにおいて、前記立体表示デバイスの視差許容範囲において最大の視差が得られるように前記複数の視点を決定することを特徴とする請求項1から4のいずれか1つに記載の立体画像生成プログラム。
  6. 前記視点決定ステップにおいて、前記立体表示デバイスの視差許容量に基づいて前記複数の視点を決定することを特徴する請求項5に記載の立体画像生成プログラム。
  7. 前記視点決定ステップにおいて、前記立体表示デバイスの解像力に基づいて前記複数の視点を決定することを特徴する請求項5に記載の立体画像生成プログラム。
  8. 複数の第1の視点画像から該第1の視点画像のサイズに関する第1のサイズ情報および該第1の視点画像間の視差に関する視差情報を取得する第1の情報取得手段と、
    立体画像の観察に使用される立体表示デバイスに関するデバイス情報を取得する第2の情報取得手段と、
    前記第1のサイズ情報、視差情報およびデバイス情報に基づいて、前記立体表示デバイスに対応した複数の視点を決定する視点決定手段と、
    前記第1の視点画像を用いて、該決定された複数の視点に対応する複数の第2の視点画像を生成し、該複数の第2の視点画像を用いて前記立体画像を生成する画像生成手段とを有することを特徴とする立体画像生成システム。
  9. 物体の三次元モデル情報と、視点画像に対応する視点に仮想的に配置される仮想カメラの撮影パラメータに関するパラメータ情報と、該仮想カメラのビューサイズに関する第1のサイズ情報とを取得する第1の情報取得手段と、
    立体画像の観察に使用される立体表示デバイスに関するデバイス情報を取得する第2の情報取得手段と、
    前記パラメータ情報、前記第1のサイズ情報および前記デバイス情報に基づいて、前記立体表示デバイスに対応した複数の視点を決定する視点決定手段と、
    前記三次元モデル情報を用いて、該決定された複数の視点に対応する複数の視点画像を生成し、該複数の視点画像を用いて前記立体画像を生成する画像生成手段とを有することを特徴とする立体画像生成システム。
  10. 複数の第1の視点画像から該第1の視点画像のサイズに関する第1のサイズ情報および該第1の視点画像間の視差に関する視差情報を取得する第1の情報取得ステップと、
    立体画像の観察に使用される立体表示デバイスに関するデバイス情報を取得する第2の情報取得ステップと、
    前記第1のサイズ情報、視差情報およびデバイス情報に基づいて、前記立体表示デバイスに対応した複数の視点を決定する視点決定ステップと、
    前記第1の視点画像を用いて、該決定された複数の視点に対応する複数の第2の視点画像を生成し、該複数の第2の視点画像を用いて前記立体画像を生成する画像生成ステップとを有することを特徴とする、コンピュータ上で動作する立体画像生成方法。
  11. 物体の三次元モデル情報と、視点画像に対応する視点に仮想的に配置される仮想カメラの撮影パラメータに関するパラメータ情報と、該仮想カメラのビューサイズに関する第1のサイズ情報とを取得する第1の情報取得ステップと、
    立体画像の観察に使用される立体表示デバイスに関するデバイス情報を取得する第2の情報取得ステップと、
    前記パラメータ情報、前記第1のサイズ情報および前記デバイス情報に基づいて、前記立体表示デバイスに対応した複数の視点を決定する視点決定ステップと、
    前記三次元モデル情報を用いて、該決定された複数の視点に対応する複数の視点画像を生成し、該複数の視点画像を用いて前記立体画像を生成する画像生成ステップとを有することを特徴とする、コンピュータ上で動作する立体画像生成方法。
JP2004300370A 2004-10-14 2004-10-14 立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法 Active JP4440066B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004300370A JP4440066B2 (ja) 2004-10-14 2004-10-14 立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004300370A JP4440066B2 (ja) 2004-10-14 2004-10-14 立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法

Publications (3)

Publication Number Publication Date
JP2006115198A true JP2006115198A (ja) 2006-04-27
JP2006115198A5 JP2006115198A5 (ja) 2007-12-20
JP4440066B2 JP4440066B2 (ja) 2010-03-24

Family

ID=36383335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004300370A Active JP4440066B2 (ja) 2004-10-14 2004-10-14 立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法

Country Status (1)

Country Link
JP (1) JP4440066B2 (ja)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009142255A1 (ja) 2008-05-21 2009-11-26 旭化成ケミカルズ株式会社 偏析防止効果に優れるセルロース粉末及びその組成物
WO2010090150A1 (en) * 2009-02-05 2010-08-12 Fujifilm Corporation Three-dimensional image output device and three-dimensional image output method
WO2010113730A1 (ja) * 2009-04-03 2010-10-07 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2010259056A (ja) * 2009-04-03 2010-11-11 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
JP2010278878A (ja) * 2009-05-29 2010-12-09 Fujifilm Corp 立体画像表示装置及びその表示画像切替方法
US20100309297A1 (en) * 2009-06-09 2010-12-09 Sony Corporation Display device and display system
JP2011044828A (ja) * 2009-08-19 2011-03-03 Fujifilm Corp 立体画像生成装置、立体画像プリント装置、及び立体画像生成方法
JP2011090400A (ja) * 2009-10-20 2011-05-06 Sony Corp 画像表示装置および方法、並びにプログラム
JP2012070103A (ja) * 2010-09-21 2012-04-05 Olympus Imaging Corp 撮像装置及び画像通信システム
JP2012100342A (ja) * 2009-04-03 2012-05-24 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
JP2012138885A (ja) * 2010-12-09 2012-07-19 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
WO2012137454A1 (ja) 2011-04-01 2012-10-11 パナソニック株式会社 立体映像出力装置及び立体映像出力方法
JP2013046263A (ja) * 2011-08-24 2013-03-04 Sony Computer Entertainment Inc 画像処理装置および画像処理方法
WO2013054632A1 (ja) 2011-10-13 2013-04-18 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP2013520890A (ja) * 2010-02-25 2013-06-06 エクスパート トロイハンド ゲーエムベーハー 3dディスプレイ装置で3次元映像を視覚化する方法および3dディスプレイ装置
JP2013192229A (ja) * 2007-03-19 2013-09-26 Sony Corp 2次元/3次元デジタル情報取得及び表示装置
WO2014050681A1 (ja) * 2012-09-26 2014-04-03 富士フイルム株式会社 画像処理装置、方法及びプログラム、プリンタ、表示装置
JP5492311B2 (ja) * 2011-02-08 2014-05-14 富士フイルム株式会社 視点画像生成装置、視点画像生成方法及び立体画像印画装置
CN104104935A (zh) * 2013-04-11 2014-10-15 索尼公司 图像处理装置、图像处理方法和电子装置
JP2015158646A (ja) * 2014-02-25 2015-09-03 日本放送協会 カメラパラメータ算出装置及びそのプログラム
US9277207B2 (en) 2011-08-08 2016-03-01 Sony Corporation Image processing apparatus, image processing method, and program for generating multi-view point image
US9467677B2 (en) 2014-02-26 2016-10-11 Sony Corporation Image processing method, image processing device, and electronic apparatus
JP2016535516A (ja) * 2013-07-26 2016-11-10 サムスン エレクトロニクス カンパニー リミテッド 多視点映像処理装置及びその映像処理方法
US9532040B2 (en) 2013-05-27 2016-12-27 Sony Corporation Virtual viewpoint interval determination sections apparatus and method
US9813698B2 (en) 2013-11-12 2017-11-07 Sony Corporation Image processing device, image processing method, and electronic apparatus
CN114359396A (zh) * 2022-03-18 2022-04-15 成都工业学院 一种立体图像获取及显示方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130134816A (ko) 2012-05-31 2013-12-10 삼성디스플레이 주식회사 입체영상 표시장치

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013192229A (ja) * 2007-03-19 2013-09-26 Sony Corp 2次元/3次元デジタル情報取得及び表示装置
WO2009142255A1 (ja) 2008-05-21 2009-11-26 旭化成ケミカルズ株式会社 偏析防止効果に優れるセルロース粉末及びその組成物
US8120606B2 (en) 2009-02-05 2012-02-21 Fujifilm Corporation Three-dimensional image output device and three-dimensional image output method
WO2010090150A1 (en) * 2009-02-05 2010-08-12 Fujifilm Corporation Three-dimensional image output device and three-dimensional image output method
CN102308590B (zh) * 2009-02-05 2014-04-16 富士胶片株式会社 三维图像输出装置和三维图像输出方法
CN103179422B (zh) * 2009-04-03 2015-04-29 索尼公司 信息处理设备、信息处理方法和程序
JP2012100342A (ja) * 2009-04-03 2012-05-24 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
WO2010113730A1 (ja) * 2009-04-03 2010-10-07 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
US8866885B2 (en) 2009-04-03 2014-10-21 Sony Corporation Information processing device, information processing method, and program
CN102301726A (zh) * 2009-04-03 2011-12-28 索尼公司 信息处理设备、信息处理方法和程序
CN103179422A (zh) * 2009-04-03 2013-06-26 索尼公司 信息处理设备、信息处理方法和程序
JP2010259056A (ja) * 2009-04-03 2010-11-11 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
US8971692B2 (en) 2009-04-03 2015-03-03 Sony Corporation Information processing device, information processing method, and program
US9756310B2 (en) 2009-04-03 2017-09-05 Sony Corporation Information processing device, information processing method, and program
JP2010259054A (ja) * 2009-04-03 2010-11-11 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
JP2010278878A (ja) * 2009-05-29 2010-12-09 Fujifilm Corp 立体画像表示装置及びその表示画像切替方法
US9261705B2 (en) * 2009-06-09 2016-02-16 Sony Corporation Display device and display system
US20100309297A1 (en) * 2009-06-09 2010-12-09 Sony Corporation Display device and display system
JP2011044828A (ja) * 2009-08-19 2011-03-03 Fujifilm Corp 立体画像生成装置、立体画像プリント装置、及び立体画像生成方法
JP2011090400A (ja) * 2009-10-20 2011-05-06 Sony Corp 画像表示装置および方法、並びにプログラム
JP2013520890A (ja) * 2010-02-25 2013-06-06 エクスパート トロイハンド ゲーエムベーハー 3dディスプレイ装置で3次元映像を視覚化する方法および3dディスプレイ装置
JP2012070103A (ja) * 2010-09-21 2012-04-05 Olympus Imaging Corp 撮像装置及び画像通信システム
CN103238341A (zh) * 2010-12-09 2013-08-07 索尼公司 图像处理装置、图像处理方法以及程序
US9922441B2 (en) 2010-12-09 2018-03-20 Saturn Licensing Llc Image processing device, image processing method, and program
JP2012138885A (ja) * 2010-12-09 2012-07-19 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP5492311B2 (ja) * 2011-02-08 2014-05-14 富士フイルム株式会社 視点画像生成装置、視点画像生成方法及び立体画像印画装置
WO2012137454A1 (ja) 2011-04-01 2012-10-11 パナソニック株式会社 立体映像出力装置及び立体映像出力方法
US10074343B2 (en) 2011-04-01 2018-09-11 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional image output apparatus and three-dimensional image output method
US9277207B2 (en) 2011-08-08 2016-03-01 Sony Corporation Image processing apparatus, image processing method, and program for generating multi-view point image
JP2013046263A (ja) * 2011-08-24 2013-03-04 Sony Computer Entertainment Inc 画像処理装置および画像処理方法
WO2013054632A1 (ja) 2011-10-13 2013-04-18 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US9529205B2 (en) 2012-09-26 2016-12-27 Fujifilm Corporation Image processing apparatus and method, and printer and display apparatus
CN104704820A (zh) * 2012-09-26 2015-06-10 富士胶片株式会社 图像处理装置、方法和程序、打印机、显示装置
CN104704820B (zh) * 2012-09-26 2016-09-14 富士胶片株式会社 图像处理装置、方法和打印机、显示装置
JP5800996B2 (ja) * 2012-09-26 2015-10-28 富士フイルム株式会社 画像処理装置、方法及びプログラム、プリンタ、表示装置
WO2014050681A1 (ja) * 2012-09-26 2014-04-03 富士フイルム株式会社 画像処理装置、方法及びプログラム、プリンタ、表示装置
CN104104935B (zh) * 2013-04-11 2017-09-12 索尼公司 图像处理装置、图像处理方法和电子装置
CN104104935A (zh) * 2013-04-11 2014-10-15 索尼公司 图像处理装置、图像处理方法和电子装置
US9532040B2 (en) 2013-05-27 2016-12-27 Sony Corporation Virtual viewpoint interval determination sections apparatus and method
JP2016535516A (ja) * 2013-07-26 2016-11-10 サムスン エレクトロニクス カンパニー リミテッド 多視点映像処理装置及びその映像処理方法
US9813698B2 (en) 2013-11-12 2017-11-07 Sony Corporation Image processing device, image processing method, and electronic apparatus
JP2015158646A (ja) * 2014-02-25 2015-09-03 日本放送協会 カメラパラメータ算出装置及びそのプログラム
US9467677B2 (en) 2014-02-26 2016-10-11 Sony Corporation Image processing method, image processing device, and electronic apparatus
CN114359396A (zh) * 2022-03-18 2022-04-15 成都工业学院 一种立体图像获取及显示方法
CN114359396B (zh) * 2022-03-18 2022-05-17 成都工业学院 一种立体图像获取及显示方法

Also Published As

Publication number Publication date
JP4440066B2 (ja) 2010-03-24

Similar Documents

Publication Publication Date Title
JP4440066B2 (ja) 立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法
US7643025B2 (en) Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
US7557824B2 (en) Method and apparatus for generating a stereoscopic image
JP4649219B2 (ja) 立体画像生成装置
JP4065488B2 (ja) 3次元画像生成装置、3次元画像生成方法及び記憶媒体
JP4328311B2 (ja) 三次元画像表示用多視点画像の作成方法およびプログラム
US20120182403A1 (en) Stereoscopic imaging
JP2003209858A (ja) 立体画像生成方法及び記録媒体
US20160005228A1 (en) Method of converting 2d video to 3d video using 3d object models
US9992473B2 (en) Digital multi-dimensional image photon platform system and methods of use
JP2006113807A (ja) 多視点画像の画像処理装置および画像処理プログラム
CN103562963A (zh) 用于角切片真3d显示器的对准、校准和渲染的系统和方法
JPH06194758A (ja) 奥行画像形成方法及び装置
JP2010521081A (ja) マルチ画像表示を較正および/または視覚化しかつゴーストアーチファクトを低減するためのするための方法およびシステム
US8094148B2 (en) Texture processing apparatus, method and program
JP2006229725A (ja) 画像生成システム及び画像生成方法
JPH10500498A (ja) 空間有効画像生成方法
JP4817425B2 (ja) 画像表示システム及び画像表示方法
JP2006162945A (ja) 立体視表示装置
WO2012140397A2 (en) Three-dimensional display system
CA2540538C (en) Stereoscopic imaging
JP2005026772A (ja) 立体映像表示方法及び立体映像表示装置
Straßer Design and simulation of a light field display
JP2013207672A (ja) 立体視用印刷物の製造方法、立体視用印刷物、画像生成方法、プログラム、情報記憶媒体及び画像生成システム
JP2008276036A (ja) ファントグラム用ステレオ画像の作成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071015

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071106

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20081023

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20081201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100106

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4440066

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140115

Year of fee payment: 4