JP2014135006A - 画像処理装置、画像処理方法、およびプログラム - Google Patents
画像処理装置、画像処理方法、およびプログラム Download PDFInfo
- Publication number
- JP2014135006A JP2014135006A JP2013003465A JP2013003465A JP2014135006A JP 2014135006 A JP2014135006 A JP 2014135006A JP 2013003465 A JP2013003465 A JP 2013003465A JP 2013003465 A JP2013003465 A JP 2013003465A JP 2014135006 A JP2014135006 A JP 2014135006A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- virtual viewpoint
- imaging
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】本発明は、被写体を撮像した複数の画像データを基に視聴者と画像表示面との3次元的な位置関係に応じて適切に表示画像を生成し画像表示面に表示することにより、任意の視点位置から撮像被写体を眺めた様子を画像表示面に表示することを目的とする。
【解決手段】本発明に係る画像処理装置は、ライトフィールドを用いることにより、複数の仮想視点位置に対応する複数の仮想視点画像データを生成する画像処理部204と、視聴者の視点位置を取得する位置情報取得部205と、前記視点位置を基に前記複数の仮想視点画像データから出力画像データを選択する出力部206とを備えたことを特徴とする。
【選択図】図2
【解決手段】本発明に係る画像処理装置は、ライトフィールドを用いることにより、複数の仮想視点位置に対応する複数の仮想視点画像データを生成する画像処理部204と、視聴者の視点位置を取得する位置情報取得部205と、前記視点位置を基に前記複数の仮想視点画像データから出力画像データを選択する出力部206とを備えたことを特徴とする。
【選択図】図2
Description
本発明は、画像処理装置、画像処理方法、およびプログラムに関する。具体的には、本発明は、視聴者と画像表示面との位置関係に基づき立体的に画像を表示するための画像処理装置、画像処理方法、およびプログラムに関する。
従来、ディスプレイなどの画像表示面と視聴者との相対的な位置関係に応じて画像を切り替えて表示することにより、画像中のシーンを立体的に提示する方法があった。この方法では、画像表示面に対する視点の位置を基に表示画面を適切に生成・表示する必要がある。例えば、画像表示面に対して視点が近い場合は近くから眺めた様子を表示し、画像表示面に対して視点が遠い場合は遠くから眺めた様子を表示する必要がある。また、画像表示面に対して視点が正対していない場合はその傾きに応じた角度から眺めた様子を表示する必要がある。
このための従来技術として、視点位置と画像表示面の位置との関係に応じて3次元モデルをレンダリングする方法(例えば特許文献1)や、視点位置と画像表示面の位置との関係に応じて撮像被写体を表示する方法(例えば特許文献2)が知られている。
特許文献1には、仮想3次元空間において視聴者の視点位置から画像表示面の頂点への4つのベクトルを求め、これらのベクトルに囲まれる範囲をレンダリング領域として設定することにより、視聴者の位置に応じた画像生成処理を実行する技術が開示されている。
特許文献2では、様々な角度から被写体を撮像した複数の画像データに対し、角度に応じた変形処理をそれぞれ施す。そして、変形後の複数の画像データの中から、視聴者と画像表示面との角度に応じて適切な画像データを選択し、表示する。これにより、表示画面の傾きに応じた角度から撮像被写体を眺めた様子を表示させる。
しかしながら、特許文献1に記載の方法は、コンピュータグラフィックスを対象とした方法であり、3次元モデルが存在する場合にのみ適用可能である。そのため特許文献1に記載の方法は、3次元モデルを持たない実写画像などに対しては適用できないという課題があった。
特許文献2に記載の方法は、実写画像を対象とした方法であるが、視点位置に対して表示画面が傾く場合にのみ対応しており、視点位置が画像表示面に対して前後に動く場合などに対応できないという課題があった。
そこで本発明では、被写体を撮像した複数の画像データを基に視聴者と画像表示面との3次元的な位置関係に応じて適切に表示画像を生成し画像表示面に表示することにより、任意の視点位置から撮像被写体を眺めた様子を画像表示面に表示することを目的とする。
本発明は、画像処理装置であって、ライトフィールドを用いることにより、複数の仮想視点位置に対応する複数の仮想視点画像データを生成する画像処理手段と、視聴者の視点位置を取得する位置情報取得手段と、前記視点位置を基に前記複数の仮想視点画像データから出力画像データを選択する出力手段とを備えたことを特徴とする。
本発明により、任意の視点位置から撮像被写体を眺めた様子を画像表示面に表示することが可能となる。
[実施例1]
以下、本発明の第1の実施例(実施例1)について説明する。なお、本明細書では、同一の参照番号は、同一の要素を指し示すので留意されたい。
以下、本発明の第1の実施例(実施例1)について説明する。なお、本明細書では、同一の参照番号は、同一の要素を指し示すので留意されたい。
本実施例では、まず姿勢制御装置109を用いて撮像装置107を移動させることにより被写体を複数の位置から撮像する(図11を参照)。そして、得られた複数の撮像画像データ208を基に、複数の仮想視点位置に対応する仮想視点画像データ210を生成する。そして、位置検出装置115によって取得した視点位置を基に、複数の仮想視点画像データ210の中から出力画像データ212を選択する。最後に、選択した出力画像データ212を出力デバイス113に出力し、画像を画像表示面に表示させる。これにより、画像表示面を任意の位置から見た際に、その位置から被写体を眺めた様子を提示することを可能とする。なお、画像表示面とは出力デバイス113を用いて実際に画像が表示される面であり、例えばモニタの画面やプロジェクタで画像を投影するスクリーンである。
まず、本実施例における画像処理装置のシステム構成例について、図1を用いて説明する。図1において、CPU101は、RAM102をワークメモリとして、ROM103およびハードディスクドライブ(HDD)105に格納されたプログラムを実行し、システムバス116を介して後述する各構成を制御する。これにより、後述する様々な処理が実行される。HDDインタフェイス(I/F)104は、HDD105や光ディスクドライブなどの二次記憶装置を接続する、例えばシリアルATA(SATA)等のインタフェイスである。CPU101は、HDDI/F104を介して、HDD105からのデータ読み出しおよびHDD105へのデータ書き込みが可能である。さらにCPU101は、HDD105に格納されたデータをRAM102に展開し、同様に、RAM102に展開されたデータをHDD105に保存することが可能である。そしてCPU101は、RAM102に展開したデータをプログラムとみなし、実行することができる。撮像インタフェイス(I/F)106は、デジタルカメラなどの撮像装置107を接続する、例えばUSBやIEEE1394などのシリアルバスインタフェイスである。CPU101は、撮像I/F106を介して撮像装置107を制御し、撮像を行うことが可能である。さらにCPU101は、撮像I/F106を介して撮像装置107から撮像したデータを読み込むことが可能である。姿勢制御インタフェイス(I/F)108は、ロボットアームや位置決めステージなどの姿勢制御装置109を接続する、例えばUSB、イーサネット(登録商標)、RS232Cなどのインタフェイスである。姿勢制御装置109には撮像装置107が固定されており、CPU101は姿勢制御I/F108を介して姿勢制御装置109を制御することで、撮像装置107の位置および姿勢を変更可能である。入力インタフェイス(I/F)110は、キーボードやマウスなどの入力デバイス111を接続する、例えばUSBやIEEE1394等のシリアルバスインタフェイスである。CPU101は、入力I/F110を介して入力デバイス111からデータを読み込むことが可能である。出力インタフェイス(I/F)112は、モニタやプロジェクタなどの出力デバイス113を接続する、例えばDVIやディスプレイポート等のインタフェイスである。CPU101は、出力I/F112を介して出力デバイス113にデータを送り、表示を実行させることができる。位置検出インタフェイス(I/F)114は、画像表示面に対する視点位置の相対的な位置情報を検出可能な位置検出装置115を接続する、例えばUSBやIEEE1394等のシリアルバスインタフェイスである。位置検出装置115は、出力デバイス113の画像表示面に対して予め定めた位置を原点として視聴者の視点位置を検出することが可能な、磁気式位置センサや光学式位置センサなどの位置センサである。CPU101は、位置検出I/F114を介して位置検出装置115から視点位置を読み込むことが可能である。さらに、予め定めた原点に対する画像表示面の位置情報を用いることにより、画像表示面に対する視点位置の相対的な位置情報を取得することが可能である。
次に、本実施例に係る一連の処理を行う際の概要機能構成について、図2を用いて説明する。CPU101の機能部としての撮像パラメータ入力部201は、被写体を撮像する際に用いる撮像パラメータ207を、入力デバイス111あるいはROM103、HDD105などの記憶装置から取得する。また、撮像装置107および姿勢制御装置109を含む撮像部202は、撮像パラメータ207に基づき撮像を実行し、撮像画像データ208を取得する。CPU101の機能部としての画像処理パラメータ入力部203は、仮想視点位置と、ウインドウサイズと、生成画像サイズとを含む画像処理パラメータ209を、入力デバイス111あるいはROM103、HDD105などの記憶装置から取得する。さらに、CPU101の機能部としての画像処理部204は、撮像パラメータ207に含まれる撮像位置情報と撮像画像データ208とを基に画像処理パラメータ209に含まれる仮想視点位置に対応する仮想視点画像データ210を生成する。そして、CPU101の機能部としての位置情報取得部205は、画像表示面に対する視聴者の視点位置を含む位置パラメータ211を位置検出装置115から取得する。最後に、CPU101の機能部としての出力部206は、位置パラメータ211に基づき、複数の仮想視点画像データ210の中から出力画像データ212を決定し出力デバイス113へ出力する。
図3は、本実施例に係る画像処理装置における一連の処理の動作手順を示すフローチャートである。詳細には、図3のフローチャートに示す手順を記述したコンピュータ実行可能なプログラムを、ROM103あるいはHDD105からRAM102上に読み込んだ後に、CPU101によって該プログラムを実行することによって当該処理が実施される。以下、図3に示す各処理について説明する。
まず、ステップS301において、撮像パラメータ入力部201は、複数の撮像パラメータ207を入力デバイス111から取得する。撮像パラメータ207には、露光時間、レンズF値、センサ感度、画角、撮像素子の画素数などの撮像条件に加え、撮像位置が含まれる。ここで、撮像位置は、3次元的な位置情報と姿勢情報とを含む。本実施例における撮像位置について図4を用いて説明する。本実施例では、y軸402の負の方向を上向き、z軸403の正の方向を光軸方向としたまま、z軸403に垂直なx軸401とy軸402とがなすxy平面上を平行移動するように撮像装置107を制御する。このため、全撮像パラメータにおいてz軸方向の座標値と姿勢情報とは同一であるが、x軸方向およびy軸方向の座標値はそれぞれ異なる値に設定される。撮像パラメータ207は、予めROM103やHDD105などの記憶装置に保持しておき、これを撮像パラメータ入力部201が取得するようにしてもよい。撮像パラメータ入力部201が取得した撮像パラメータ207は、RAM102などに記憶される。
次にステップS302において、撮像部202は、ステップS301で取得された撮像パラメータ207を用いて撮像処理を行う。以下、図5に示すフローチャートを用い、撮像処理の詳細を説明する。まずステップS500では、撮像部202は、全ての撮像パラメータ207について画像を撮像したか否かを判断する。全ての撮像パラメータ207について画像を撮像した場合、撮像処理は終了し、全ての撮像パラメータ207について画像を撮像していない場合、撮像処理はステップS501に進む。ステップS501では、撮像パラメータ207に含まれる撮像位置に応じて、姿勢制御装置109が撮像装置107の位置を制御する。具体的には、撮像装置107をy軸402の負の方向を上、z軸403の正の方向を光軸方向にしたまま、x軸401やy軸402の方向に平行移動することにより撮像装置107が撮像位置に置かれるように制御する。次にステップS502では、撮像装置107は、撮像パラメータに含まれる露光時間、レンズF値、センサ感度などの撮像条件に従い被写体を撮像する。続くステップS503で、得られた撮像画像データは、撮像パラメータ207と対応付けられ、RAM102やHDD105などの記憶装置に記憶される。以上、ステップS500からステップS503までの処理を撮像パラメータ207ごとに行い、全ての撮像パラメータ207に対して撮像画像データを記憶すると、撮像部202は、撮像処理を終了する。
次にステップS303において、画像処理パラメータ入力部203は、複数の画像処理パラメータ209を入力デバイス111から取得する。画像処理パラメータ209は、仮想視点位置(x1、y1、z1)と、ウインドウサイズと、生成画像サイズとを含む。本実施例において、ウインドウサイズ、生成画像サイズは画像処理パラメータ間で同一であるが、仮想視点位置はそれぞれ異なる値を設定する。例えば、図6に示すようにx軸401、y軸402、z軸403からなる空間に原点を中心とした直方体領域を設定しこれを仮想視点移動範囲601とする。次いで、仮想視点移動範囲601の内部を等間隔でサンプリングするように複数の仮想視点位置を設定してもよい。なお、画像処理パラメータ209を予めROM103やHDD105などの記憶装置に保持しておき、これを画像処理パラメータ入力部203が取得するようにしてもよい。画像処理パラメータ209は、RAM102などに記憶される。
次にステップS304において、画像処理部204はS301で記憶した撮像パラメータ207、S302で記憶した撮像画像データ208、及びS303で記憶した画像処理パラメータ209を用い、仮想視点画像データ210を生成する。ここでは、複数の撮像画像データ208とそれに対応する撮像パラメータ207とを基にライトフィールドを生成する。そして、ライトフィールドを用いて仮想視点位置に応じた仮想視点画像データ210を生成する。得られた仮想視点画像データ210は、画像処理パラメータ209と対応付けられ、RAM102やHDD105などの記憶装置に記憶される。この処理を複数の画像処理パラメータ209に対して行うことで、複数の仮想視点画像データ210を記憶する。これにより、様々な視点位置から被写体を眺めた様子を、複数の仮想視点画像データ210として記憶する。ライトフィールドおよびステップS304の処理については後に詳述する。
次にステップS305において、位置情報取得部205は、位置検出装置115より視聴者の視点位置を含む位置パラメータ211を取得する。本実施例における視聴者の視点位置(x2、y2、z2)の例を図7に示す。ここでは、出力デバイス113の画像表示面の中心から画像表示面の法線方向に沿って距離dだけ離れた点を原点O’とし、水平方向をx’軸701、垂直方向をy’軸702、画像表示面に垂直な方向をz’軸703とする。なお、この座標系において、画像表示面の中心の位置は、(0、0、d)となる。本実施例において、x’軸701、y’軸702、z’軸703はそれぞれ、x軸401、y軸402、z軸403に対応する。そして、仮想視点移動範囲601に対応する領域を視点移動可能範囲704とする。視点位置(x2、y2、z2)が視点移動可能範囲704内にある場合は、視点位置から被写体を眺めた様子を画像表示面に提示することができる。取得した位置パラメータ211は、RAM102などに記憶される。
最後にステップS306において、出力部206は、ステップS305で記憶した位置パラメータ211に含まれる視点位置を基に、ステップS304で生成した複数の仮想視点画像データ210の中から出力画像データ212を選択し、出力する。具体的に、各仮想視点画像データ210に対応付けられた仮想視点位置(x1、y1、z1)を参照し、視点位置(x2、y2、z2)と仮想視点位置(x1、y1、z1)との距離が最も小さくなる仮想視点画像データ210を出力画像データ212として選択する。そして、この出力画像データ212を出力デバイス113へ出力し、画像を表示させる。
<ライトフィールド>
ここでは、複数の撮像画像データ208とそれに対応する撮像パラメータ207とを基に生成するライトフィールドについて説明する。ライトフィールドとは、光線の強度を2つの平面上の座標で表す関数である。本実施例では、撮像画像の画素値を光線の強度とみなし、図8に示すxy平面上の座標(x、y)とuv平面上の座標(u,v)とを、撮像画像の画素値と対応付けた関数をライトフィールドL(x、y、u、v)として扱う。ここで、xy平面は、x軸401とy軸402とからなる平面である。uv平面は、x軸401に平行なu軸801とy軸402に平行なv軸802とからなり、xy平面からz軸403に沿ってdだけ離れた距離にあるz軸403に垂直な平面である。ライトフィールドL(x、y、u、v)は、xy平面上の点(x、y)とuv平面上の点(u,v)とを通過する光線の強度を表す。また、本実施例において、xy平面は撮像装置107が存在する平面に対応し、uv平面は画像表示面の存在する平面に対応する。
ここでは、複数の撮像画像データ208とそれに対応する撮像パラメータ207とを基に生成するライトフィールドについて説明する。ライトフィールドとは、光線の強度を2つの平面上の座標で表す関数である。本実施例では、撮像画像の画素値を光線の強度とみなし、図8に示すxy平面上の座標(x、y)とuv平面上の座標(u,v)とを、撮像画像の画素値と対応付けた関数をライトフィールドL(x、y、u、v)として扱う。ここで、xy平面は、x軸401とy軸402とからなる平面である。uv平面は、x軸401に平行なu軸801とy軸402に平行なv軸802とからなり、xy平面からz軸403に沿ってdだけ離れた距離にあるz軸403に垂直な平面である。ライトフィールドL(x、y、u、v)は、xy平面上の点(x、y)とuv平面上の点(u,v)とを通過する光線の強度を表す。また、本実施例において、xy平面は撮像装置107が存在する平面に対応し、uv平面は画像表示面の存在する平面に対応する。
以下、ライトフィールドL(x、y、u、v)と画素値I(i,j)とを対応付ける方法について述べる。本実施例では、撮像画像に対応する撮像位置はxy平面上に存在する。このためL(x、y、u、v)の変数のうち(x、y)は撮像位置に対応する。そこで、まずは複数の撮像画像データ208の中から撮像位置が(x、y)であるものを求める。次に、求めた撮像画像データ208から(u,v)に対応する画素(i、j)を求める。撮像位置(x、y)で撮像された撮像画像の画素(i、j)とuv平面上の座標(u、v)との関係は下記の式により算出される。
ここで、θwは撮像装置107の水平画角を表し、θhは撮像装置107の垂直画角を表す。また、wは撮像画像の水平画素数を表し、hは撮像画像の垂直画素数を表す。これより、L(x、y、u、v)から画素値I(i、j)への参照は、下記のように表すことができる。
このように、L(x、y、u、v)から撮像画像内の画素値I(i,j)への参照が可能となる。以上、複数の撮像画像データ208とそれに対応する撮像パラメータ207とを基にライトフィールドを生成する方法について述べた。
なお、撮像位置(x,y)に対応する撮像画像データ208が存在しない場合は、(x,y)に最も近い撮像位置で撮像された撮像画像データ208を用いてもよい。あるいは、(x,y)の周囲で撮像された撮像位置に対応する撮像画像データ208から、(x,y)に対応する画像を補間処理等により求めてもよい。
また、本実施例では、撮像画像データ208を用いてライトフィールドを生成したが、相対的な位置関係が本実施例と同じになるように設定した仮想カメラを用いて3Dモデルをレンダリングした複数のCG画像を用いてもよい。
<仮想視点画像生成処理>
ここでは、図3のステップS304で行う仮想視点画像生成処理について詳しく説明する。ステップS304では、ステップS301で記憶した撮像パラメータ207、ステップS302で記憶した撮像画像データ208、およびステップS303で記憶した画像処理パラメータ209を用い、仮想視点位置に対応する仮想視点画像データ210を生成する。ここでは、複数の撮像画像データ208とそれに対応する撮像パラメータ207とを基にライトフィールドを生成する。次いで、uv平面上に設定したサンプリング点と仮想視点位置とを基に仮想視点画像の各画素に対応する光線を選択することで仮想視点画像データ210を生成する。以下、図9に示すフローチャートを用い、仮想視点画像生成処理の詳細を説明する。
ここでは、図3のステップS304で行う仮想視点画像生成処理について詳しく説明する。ステップS304では、ステップS301で記憶した撮像パラメータ207、ステップS302で記憶した撮像画像データ208、およびステップS303で記憶した画像処理パラメータ209を用い、仮想視点位置に対応する仮想視点画像データ210を生成する。ここでは、複数の撮像画像データ208とそれに対応する撮像パラメータ207とを基にライトフィールドを生成する。次いで、uv平面上に設定したサンプリング点と仮想視点位置とを基に仮想視点画像の各画素に対応する光線を選択することで仮想視点画像データ210を生成する。以下、図9に示すフローチャートを用い、仮想視点画像生成処理の詳細を説明する。
まず、ステップS900では、画像処理部204は、全ての画像処理パラメータ209について仮想視点画像データ210を生成したか否かを判断する。全ての画像処理パラメータ209について仮想視点画像データ210を生成した場合、仮想視点画像生成処理は終了し、全ての画像処理パラメータ209について仮想視点画像データ210を生成していない場合、仮想視点画像生成処理はステップS901に進む。
ステップS901において、画像処理部204は、画像処理パラメータ209に含まれるウインドウサイズ(s、t)および生成画像サイズ(w’、h’)を基に、仮想視点画像の各画素に対応するuv平面上のサンプリング点を設定する。図10に示すように、uv平面の原点を中心としてu軸方向に幅sを持ち、v軸方向に幅t持つ矩形領域を設定する。次いで、矩形領域内においてu軸方向に等間隔になるようにw’個、v軸方向に等間隔になるようにh’個のサンプリング点を設定する。なお、ここで設定した各サンプリング点は、仮想視点画像の各画素に対応している。以降、仮想視点画像の画素p=(ip,jp)に対応するサンプリング点を(up、vp)とする。設定したサンプリング点は、RAM102やHDD105などの記憶装置に記憶される。
次にステップS902において、画像処理部204は、S901で設定した複数のサンプリング点に対応するxy平面上の点をそれぞれ算出し、各サンプリング点に対応した画素値を算出する。uv平面上のサンプリング点(up、vp)に対するxy平面上の点(xp、yp)は、仮想視点位置(x1、y1、z1)を用いて以下の式に従い算出する。
そして、これまでに得られた(up、vp)および(xp、yp)を用いて、仮想視点画像の画素値H(ip,jp)は、以下の式を用いて算出することができる。
上記の処理を全てのサンプリング点に対して行うことにより、画像処理部204は、仮想視点画像データ210を生成する。
次にステップS903において、画像処理部204は、ステップS902で生成した仮想視点画像データ210を画像処理パラメータ209と対応付け、RAM102やHDD105などの記憶装置に記憶する。次いで、仮想視点画像生成処理は、ステップS900に戻る。
以上、ステップS901からステップS903までの処理を画像処理パラメータ209ごとに行い、全ての画像処理パラメータ209に対して仮想視点画像データ210を記憶すると、仮想視点画像生成処理は、終了する。
以上説明した処理制御を行うことで、任意の視点位置から撮像被写体を眺めた様子を画像表示面に表示することが可能となる。
なお、ステップS305の位置情報取得処理を定期的に行い、視点位置(x2、y2、z2)の値が変化する度にステップS306の画像表示処理を行い出力画像データ212を変更すれば、視聴者の視点位置の変化に応じて表示画像を逐次切り替えることができる。また、本実施例では複数の位置から被写体を撮像するために、姿勢制御装置109を用いて撮像装置107を平行移動させたが、撮像方法はこれに限らない。例えば、図12に示すような複数のカメラユニット1201〜1209からなる撮像装置107を用いても構わない。ただし、カメラユニットの数はこれに限るものではない。あるいは、撮像装置107を固定し、相対的な位置関係が本実施例と同じになるように姿勢制御装置109を用いて被写体の位置を変更しても同様の効果が得られる。
また、本実施例では予め記録しておいた複数の仮想視点画像データ210の中から出力画像データ212を選択しているが、ステップS305で得られる視点位置を基にステップS304の方法を用いて出力画像データを生成してもよい。
[実施例2]
以下、本発明の第2の実施例(実施例2)について説明する。実施例1では1つの視点位置に応じて仮想視点画像データ210から出力画像データ212を選択した。実施例2では、視聴者の左右の目に対応する2つの視点位置に応じた仮想視点画像データ210から出力画像データ212を生成する。
以下、本発明の第2の実施例(実施例2)について説明する。実施例1では1つの視点位置に応じて仮想視点画像データ210から出力画像データ212を選択した。実施例2では、視聴者の左右の目に対応する2つの視点位置に応じた仮想視点画像データ210から出力画像データ212を生成する。
実施例2は実施例1と比較すると、位置検出装置115で検出する視点位置の数、出力デバイス113、ステップS306の処理(画像表示処理)が異なる。以下、実施例2と実施例1との相違点について述べる。
図13に示すように、位置検出装置115は、視聴者の左右の目に対応する2つの視点位置をそれぞれ検出する。そして、検出した2つの視点位置を含む位置パラメータ211がステップS305において位置情報取得部205から入力される。出力デバイス113は、画像表示面の偶数ラインと奇数ラインとにそれぞれ異なる偏光特性を有する偏光フィルタを備える。また、視聴者は左右で異なる偏光特性を有する偏光メガネを装着して画像表示面を観察する。本実施例では、偏光メガネの左目と画像表示面の奇数ラインとが同じ偏光特性を有し、偏光メガネの右目と画像表示面の偶数ラインとが同じ偏光特性を有し、右目では偶数ラインのみが見え、左目では奇数ラインのみが見えるものとする。以上、本実施例に係る位置検出装置115および出力デバイス113に関する実施例1との相違点について述べた。以下、本実施例に係るステップS306の処理について述べる。
ステップS306では、ステップS305において位置情報取得部205から取得した位置パラメータ211に含まれる左右の目に対応する2つの位置情報をもとに、それぞれ実施例1と同様の方法で2つの仮想視点画像データ210を選択する。そして、選択した2つの仮想視点画像データ210を用いて出力画像データ212を生成する。ここで、左目の位置情報に対応する仮想視点画像を仮想視点画像A、右目の位置情報に対応する仮想視点画像を仮想視点画像Bとする。
出力画像データ212の生成方法について図14を用いて説明する。ここでは、仮想視点画像Aの奇数ラインを出力画像の奇数ラインに、仮想視点画像Bの偶数ラインを出力画像の偶数ラインにすることで出力画像データ212を生成する。そして、生成した出力画像データ212を出力デバイス113へ出力し、画像を表示する。
以上説明した処理制御を行うことで、任意の視点位置から撮像被写体を眺めた様子をステレオ3Dで画像表示面に表示することが可能となる。
なお、本実施例では、出力デバイス113は、画像表示面の偶数ラインと奇数ラインとにそれぞれ異なる偏光特性を有する偏光フィルタを備えるものとしたが、出力デバイス113の形態はこれにかぎらない。例えば、図15に示すような2台の画像投影装置を用いて同一の画像表示面に映像を投影する出力デバイス113を用いても構わない。ここで画像投影装置Aは偏光フィルムA越しに画像表示面に対して画像を投影し、画像投影装置Bは偏光フィルムB越しに画像表示面に対して画像を投影するものとする。この場合は、ステップS306において仮想視点画像Aと仮想視点画像Bとを出力画像として選択する。そして、画像投影装置Aに仮想視点画像Aを、画像投影装置Bに仮想視点画像Bをそれぞれ表示する。以上の方法によっても、任意の視点位置から撮像被写体を眺めた様子をステレオ3Dで画像表示面に表示することが可能となる。
また、画像表示面にレンチキュラーレンズを備えた出力デバイス113を用いても構わない。この場合は、仮想視点画像Aと仮想視点画像Bとを縦方向のライン毎に交互に配置した出力画像データ212を生成し出力する。これにより、偏光メガネを使用することなく、任意の視点位置から撮像被写体を眺めた様子をステレオ3Dで画像表示面に表示することが可能となる。
[実施例3]
以下、本発明の第3の実施例(実施例3)について説明する。実施例1、2では、仮想視点画像の各画素に対しライトフィールドから1つの光線を選択した。実施例3では、仮想視点画像の各画素に対しライトフィールドから複数の光線を選択し被写体の奥行に応じてぼけを付与する。このぼけ付与の処理を行うことにより、被写体を任意の深度で表示できるとともに、被写体と背景との距離が大きい場合においても仮想視点画像の画質を保つことができる。
以下、本発明の第3の実施例(実施例3)について説明する。実施例1、2では、仮想視点画像の各画素に対しライトフィールドから1つの光線を選択した。実施例3では、仮想視点画像の各画素に対しライトフィールドから複数の光線を選択し被写体の奥行に応じてぼけを付与する。このぼけ付与の処理を行うことにより、被写体を任意の深度で表示できるとともに、被写体と背景との距離が大きい場合においても仮想視点画像の画質を保つことができる。
実施例1、2と比べて、実施例3は、ステップS902における画素値H(ip,jp)の算出方法が異なる。具体的には下記の式を用いて画素値H(ip,jp)を算出する。
ここでα、βは光線を積分する範囲を決めるための値であり、αはx軸方向の積分範囲を表し、βはy軸方向の積分範囲を表す。A(s、t)はボケの形状を決めるための関数である。例えば、関数A(s、t)を原点を中心として半径rの範囲だけ1となり、そのほかの範囲は0となる関数にすることにより、円形のぼけを付与することができる。Bは光線の強度を正規化するための値である。例えば、A(s、t)の内、値が1となる領域の面積をBとしてもよい。以上の処理により、図8に示すuv平面から離れるほど大きなぼけを付与することができる。具体的に説明すると、例えば、図16に示すように撮像装置107からz軸方向に距離dだけ離れた位置に被写体を置いて撮影した場合、被写体をぼかさずに背景のみをぼかすことができる。ステップS902で生成する仮想視点画像は、背景が被写体から離れるほど画質の劣化が生じるが、本処理によって背景をぼかすことにより画質の劣化を抑制することができる。
なお、α、βの値は仮想視点位置に応じて変化させても構わない。例えば、仮想視点位置がxy平面から離れるほどα、βの値を大きくするなどしてもよい。
以上説明した処理制御を行うことで、任意の視点位置から撮像被写体を眺めた様子を任意の深度で画像表示面に表示することが可能となる。
なお、本実施例では複数の光線を積分することで奥行に応じてぼけを付与したが、ぼけを付与する方法はこれに限らない。例えば、予め複数の撮像画像データ208に対し奥行に応じてボケを付与する処理を施しておくなどしても構わない。具体的な処理としては、まず複数の撮像画像データ208に対してステレオマッチングを行い被写体と背景との間の距離を推定する。そして、被写体からの距離に応じて異なる大きさのフィルタを用いてフィルタリングをすることでボケを付与するなどしてもよい。あるいは、撮像パラメータ207に含まれるF値を小さな値に設定することで背景をぼかして撮像してもよい。
[その他の実施例]
また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施例の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。
また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施例の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。
Claims (7)
- ライトフィールドを用いることにより、複数の仮想視点位置に対応する複数の仮想視点画像データを生成する画像処理手段と、
視聴者の視点位置を取得する位置情報取得手段と、
前記視点位置を基に前記複数の仮想視点画像データから出力画像データを選択する出力手段と
を備えたことを特徴とする画像処理装置。 - 前記出力手段は、前記出力画像データを出力デバイスに出力することにより、前記出力デバイスの画像表示面に表示させ、
前記画像処理手段は、前記画像表示面に対応する平面上にサンプリング点を設定し、前記サンプリング点と前記仮想視点位置とを基に、前記ライトフィールドから前記仮想視点画像データを生成することを特徴とする請求項1に記載の画像処理装置。 - 前記位置情報取得手段は、視聴者の左右の目に対応する複数の視点位置を取得し、
前記出力手段は、前記複数の仮想視点画像データから前記複数の視点位置に対応する複数の画像データを選択することを特徴とする請求項1または2に記載の画像処理装置。 - 前記画像処理手段は、被写体の奥行に応じて画像をぼかすことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
- 前記画像処理手段は、複数の撮像位置と前記撮像位置に対応する複数の撮像画像データを基に前記ライトフィールドを生成することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
- 画像処理手段が、ライトフィールドを用いることにより、複数の仮想視点位置に対応する複数の仮想視点画像データを生成するステップと、
位置情報取得手段が、視聴者の視点位置を取得するステップと、
出力手段が、前記視点位置を基に前記複数の仮想視点画像データから出力画像データを選択するステップと
を備えたことを特徴とする画像処理方法。 - コンピュータを請求項1乃至5の何れか1項に記載の画像処理装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013003465A JP2014135006A (ja) | 2013-01-11 | 2013-01-11 | 画像処理装置、画像処理方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013003465A JP2014135006A (ja) | 2013-01-11 | 2013-01-11 | 画像処理装置、画像処理方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014135006A true JP2014135006A (ja) | 2014-07-24 |
Family
ID=51413205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013003465A Pending JP2014135006A (ja) | 2013-01-11 | 2013-01-11 | 画像処理装置、画像処理方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014135006A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019198784A1 (ja) * | 2018-04-12 | 2019-10-17 | 凸版印刷株式会社 | ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法 |
WO2023201864A1 (zh) * | 2022-04-22 | 2023-10-26 | 南方科技大学 | 图像显示方法、图像显示装置、设备及存储介质 |
-
2013
- 2013-01-11 JP JP2013003465A patent/JP2014135006A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019198784A1 (ja) * | 2018-04-12 | 2019-10-17 | 凸版印刷株式会社 | ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法 |
JPWO2019198784A1 (ja) * | 2018-04-12 | 2021-04-30 | 凸版印刷株式会社 | ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法 |
JP7377413B2 (ja) | 2018-04-12 | 2023-11-10 | Toppanホールディングス株式会社 | ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、ライトフィールド画像生成方法及び画像表示方法 |
WO2023201864A1 (zh) * | 2022-04-22 | 2023-10-26 | 南方科技大学 | 图像显示方法、图像显示装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6363863B2 (ja) | 情報処理装置および情報処理方法 | |
JP2019511024A (ja) | パノラマフレームを生成するプロセスにおけるフレームの適応ステッチング | |
JP2019510311A (ja) | 平面の鏡を用いたステレオ画像システムを較正するための方法およびコンピュータプログラム製品 | |
KR102316061B1 (ko) | 화상 처리장치, 방법 및 컴퓨터 프로그램 | |
KR102539427B1 (ko) | 화상 처리장치, 화상 처리방법, 및 기억매체 | |
JP6253280B2 (ja) | 撮像装置およびその制御方法 | |
JPWO2018235163A1 (ja) | キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法 | |
KR102387891B1 (ko) | 화상 처리장치, 화상 처리장치의 제어방법, 및 컴퓨터 판독가능한 기억매체 | |
US20150177062A1 (en) | Information processing apparatus, information processing method, and storage medium | |
GB2567530A (en) | Virtual reality parallax correction | |
JP2011253376A (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP2016085379A (ja) | 制御装置、制御方法、及び、プログラム | |
JP2018113683A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2016085380A (ja) | 制御装置、制御方法、及び、プログラム | |
TWI501193B (zh) | Computer graphics using AR technology. Image processing systems and methods | |
JPWO2012111404A1 (ja) | 画像処理装置、そのプログラム、および画像処理方法 | |
JP2019029721A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2016126673A (ja) | 情報処理装置及びその制御方法、並びに、ビデオカメラ | |
JP2014135006A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
KR101208767B1 (ko) | 곡면 투사를 이용한 입체 영상 생성 방법, 장치 및 시스템, 이를 위한 기록 매체 | |
KR101632514B1 (ko) | 깊이 영상 업샘플링 방법 및 장치 | |
JP4781981B2 (ja) | 動画像生成方法及びシステム | |
JP5868055B2 (ja) | 画像処理装置および画像処理方法 | |
JP6073121B2 (ja) | 立体表示装置及び立体表示システム | |
JP2015216542A (ja) | 情報処理装置、情報処理方法およびプログラム |