JP2005174148A - 撮像装置及び方法、撮像システム - Google Patents
撮像装置及び方法、撮像システム Download PDFInfo
- Publication number
- JP2005174148A JP2005174148A JP2003415740A JP2003415740A JP2005174148A JP 2005174148 A JP2005174148 A JP 2005174148A JP 2003415740 A JP2003415740 A JP 2003415740A JP 2003415740 A JP2003415740 A JP 2003415740A JP 2005174148 A JP2005174148 A JP 2005174148A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- information
- light
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Circuits (AREA)
- Studio Devices (AREA)
Abstract
【課題】 複数のカメラにより互いに異なる視点から撮像した画像を相対的な位置情報に応じて再構成する際に、特にカメラ間のキャリブレーションを高精度でリアルタイムに実現する。
【解決手段】 撮影対象5を互いに異なる視点から少なくとも2以上の撮像素子を介して撮像するとともに、撮影対象5を含む実空間において規則的に配置された既知のパターンからの情報光を同時に受光し、また撮像した各画像を受光した情報光に基づいて補正し、補正した各画像間において撮影対象5と関連させつつ画素位置毎に対応付けを行い、仮想的に設置される仮想カメラにおける光学中心の上記各撮像素子の光学中心に対する相対的な位置関係を示す相対位置情報を生成し、互いに対応付けした画素位置並びにその輝度成分から、生成された相対位置情報に応じて仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める。
【選択図】図1
【解決手段】 撮影対象5を互いに異なる視点から少なくとも2以上の撮像素子を介して撮像するとともに、撮影対象5を含む実空間において規則的に配置された既知のパターンからの情報光を同時に受光し、また撮像した各画像を受光した情報光に基づいて補正し、補正した各画像間において撮影対象5と関連させつつ画素位置毎に対応付けを行い、仮想的に設置される仮想カメラにおける光学中心の上記各撮像素子の光学中心に対する相対的な位置関係を示す相対位置情報を生成し、互いに対応付けした画素位置並びにその輝度成分から、生成された相対位置情報に応じて仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める。
【選択図】図1
Description
本発明は、複数の視点から撮像した画像を相対的な位置情報に応じて仮想視点画像を構成する撮像装置及び方法、撮像システムに関する。
サッカー等のスポーツ中継の臨場感を高めるために、任意の視点で映像中継することができる撮像システムが近年において望まれている。即ち、スポーツ興業等を行うスタジアムにおける三次元実空間中の任意地点にカメラを設置し、試合展開に応じてそのカメラの視点を変えていくことにより、中継そのもののリアリティを向上させることができる。
しかしながら、物理的な制約により、実際に三次元空間中の任意地点にカメラを設定することや、膨大なカメラを同時に使用することは困難である。このため、任意視点から被写体を撮像したのと同様な効果を得るべく、設置された最小限のカメラにより撮像された画像に基づいて被写体の仮想視点画像を再構成する撮像システムが必要となる。特に従来において、モデルベースの手法や映像ベースの手法による仮想視点画像生成技術を用いた撮像システムが提案されている(例えば、非特許文献1〜4参照。)。
ところで、上述の如き複数のカメラを用いることにより違和感のない仮想視点画像を作り出すためには、各カメラ間につき高精度のキャリブレーションが必要となる。かかるキャリブレーションは、所望の被写体画像を撮像する前に、チェッカパターン等に代表される特殊な画像パターンを用いることにより実行する(例えば、非特許文献5参照。)。即ち、当該被写体を含む実空間において規則的に配置された画像パターンから情報を取得し、取得した情報に基づいて、カメラの焦点距離,レンズ歪み,歪み中心,アスペクト比等を反映させた内部パラメータや、カメラの位置や姿勢等を反映させた外部パラメータを推定することにより、キャリブレーションを行う。
しかしながら、上記従来の技術では、事前に行ったキャリブレーションを基にカメラの位置や倍率等を固定した上で撮像を行わなければならない。このため、被写体や周囲の環境の変化にリアルタイムに対応することができず、臨場感の高い仮想視点画像やそれを利用した魅力的なコンテンツを作成することができないという問題点があった。
また、各カメラにより撮像された画像から自動的に判別した特徴点を用いることによりカメラ間のキャリブレーションのリアルタイム化を図らんとした手法が提案されている(例えば、非特許文献6参照。)。
しかしながら、実際に撮像された画像から特徴点を随時判別しなければならないためシステム全体の負担が過大となり、またこれら特徴点を高精度に検出することにより、撮影環境へリアルタイムに対応したキャリブレーションを実現することは困難を極めていた。
多視点画像の融合によるスポーツシーンの自由視点画像生成、画像の認識・理解シンポジウム(MIRU2000)
Spatio-Temporal View Interpolation, Tech Report CMU-RI-TR-01-35, Robotics Institute, CMU
View Morphing,Siggraph'96 Processing,pp.21-30, (1996)
Light Field Rendering,Siggraph'96 Processing,pp.31-42, (1996)
An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision, Proc. Of IEEE Conference on Computer Vision and Pattern Recognition, pp. 364-374,(1996)
Determining the Epipolar Geometry and its Uncertainty: A Review,INRIA Research Report,(1996)
そこで、本発明は上述した問題点に鑑みて案出されたものであり、その目的とするところは、複数のカメラにより互いに異なる視点から撮像した画像を相対的な位置情報に応じて再構成する際に、特にカメラ間のキャリブレーションをリアルタイムに実現することができる撮像装置及び方法、撮像システムを提供することにある。
本発明を適用した撮像装置及び方法、撮像システムでは、上述した課題を解決するために、撮影対象を互いに異なる視点から少なくとも2以上の撮像素子を介して撮像するとともに、撮影対象を含む実空間において規則的に配置された既知のパターンからの情報光を同時に受光し、また撮像した各画像を受光した情報光に基づいて補正し、補正した各画像間において撮影対象と関連させつつ画素位置毎に対応付けを行い、仮想的に設置される仮想カメラにおける光学中心の上記各撮像素子の光学中心に対する相対的な位置関係を示す相対位置情報を生成し、互いに対応付けした画素位置並びにその輝度成分から、生成された相対位置情報に応じて仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める。
即ち、本発明を適用した撮像装置は、撮影対象を互いに異なる視点から撮像する少なくとも2以上のカメラにそれぞれ設けられる撮像処理手段と、上記撮影対象を含む実空間において規則的に配置された既知のパターンからの情報光を上記撮像と同時に受光する受光手段と、上記各撮像処理手段により撮像された各画像を上記受光手段により受光した情報光に基づいて補正する画像補正手段と、上記画像補正手段により補正された各画像間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、仮想的に設置される仮想カメラにおける光学中心の上記各カメラに対する相対的な位置関係を示す相対位置情報を生成する情報生成手段と、上記マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、上記仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段とを備える。
また、本発明を適用した撮像方法では、撮影対象を互いに異なる視点から少なくとも2以上の撮像素子を介して撮像する撮像ステップと、撮影対象を含む実空間において規則的に配置された既知のパターンからの情報光を上記撮像と同時に受光する受光ステップと、上記撮像ステップにおいて撮像した各画像を上記受光ステップにおいて受光した情報光に基づいて補正する画像補正ステップと、上記画像補正ステップにより補正した各画像間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチングステップと、仮想的に設置される仮想カメラにおける光学中心の上記各撮像素子の光学中心に対する相対的な位置関係を示す相対位置情報を生成する情報生成ステップと、上記マッチングステップにおいて互いに対応付けした画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、上記仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成ステップとを有する。
また、本発明を適用した撮像システムでは、撮影対象を互いに異なる視点から撮像する少なくとも2以上のカメラにそれぞれ設けられる撮像処理手段と、上記撮影対象を含む実空間において規則的に配置された既知のパターンと、上記パターンからの情報光を上記撮像と同時に受光する受光手段と、上記各撮像処理手段により撮像された各画像を上記受光手段により受光した情報光に基づいて補正する画像補正手段と、上記画像補正手段により補正された各画像間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、仮想的に設置される仮想カメラにおける光学中心の上記各カメラに対する相対的な位置関係を示す相対位置情報を生成する情報生成手段と、 上記マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、上記仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段とを備える。
本発明では、複数のカメラにより互いに異なる視点から画像を撮像するとともに、規則的に配置された既知のパターンからの情報光を上記撮像と同時に受光する。そして、撮像した各画像を情報光に基づいて補正する。これにより、本発明では、パターンを利用したキャリブレーションを得られる画像毎に高精度でリアルタイムに行うことができる。
また本発明では、事前に行ったキャリブレーションを基にカメラの位置や倍率等を固定することなく、被写体や周囲の環境の変化にリアルタイムに対応したキャリブレーションを実現することができるため、臨場感の高い仮想視点画像やそれを利用した魅力的なコンテンツを作成することが可能となる。
以下、本発明を実施するための最良の形態について図面を参照しながら詳細に説明する。
本発明を適用した撮像システム1は、例えば図1に示すように、複数台のカメラを有する撮像装置2により所望の撮影対象5を撮像し、更に撮影対象5を含む実空間において規則的に配置された既知のパターン6からの情報光を上記撮像と同時に取得する。
この撮像装置2は、互いに異なる視点から同一の撮影対象5を撮像するn台(nは2以上)のカメラ11_1〜11_nと、各カメラ11_1〜11_nより撮像された画像Pa1,Pa2,・・,Panが供給されるID画像収録部18と、ID画像収録部18に接続されてなる画像補正部20並びにID情報検出部25と、ID情報検出部25並びに画像補正部20に接続されるパラメータ推定部26と、画像補正部20に接続されるマッチング部29と、さらにこのマッチング部29に接続される仮想視点画像生成部30と、仮想視点画像生成部30により生成された仮想視点画像Imaを図示しないディスプレイ上に表示し、又はネットワークを介して他の端末装置へ送信するための出力制御部31と、各カメラ11_1〜11_nに対する仮想カメラの相対的な位置関係を示す相対位置情報を生成する情報生成部33とを備えている。
カメラ11_1〜11_nは、図示しないカメラ制御部から供給された動作信号に基づき、自動絞り制御動作や自動焦点制御動作等を実行する。また、このカメラ11_1〜11_nは、撮像した撮影対象5の光学像を、そのままCCDへ入射させることにより、これを電気信号に変換する。このカメラ11_1〜11_nは、変換した電気信号により表される画像Pa1,Pa2,・・,PanをそれぞれID画像収録部18へ供給する。
また、このカメラ11_1〜11_nは、パターン6からの情報光を上記撮像と同時に受光し、これを光電変換する。カメラ11_1〜11_nは、光電変換した電気信号として表されるID信号をそれぞれID画像収録部18へ供給する。ちなみに、カメラ11_1〜11_nは、所望の撮影対象5に応じて撮影方向、撮影画角が固定された状態で設置されるが、固定視点である場合に限定されるものではなく、例えば、ユーザから入力される情報に基づき、これら撮影方向、撮影画角を自在に変更するようにしてもよい。
図2は、この撮影対象5を含む実空間を互いに異なる撮影方向から撮像するカメラ11_1〜11_nの配置例を示している。この図2に示すように、カメラ11_1〜11_nは、固定視点とする場合において、撮影対象5を中心として互いに円弧を描くように配設される。これにより、各カメラ11_1〜11_nの光軸を同一の撮影対象5における同一位置に合わせる場合においても、撮像距離を揃えることができ、後段における画像内挿により生成される画像の違和感を解消することができる。ちなみに、このカメラ11_1〜11_nは、図2の如く1列に並べて配設する場合のみならず、2列以上に並べてもよい。
ID画像収録部18は、各カメラ11_1〜11_nから送信される画像Pa1〜PanやID信号をそれぞれ図示しないメモリ等に格納する。ID画像収録部18は、所定のタイミングに基づいて画像Pa1〜Panを後段の補正部20へ送信する。また、ID画像収録部18は、所定のタイミングに基づいてID信号をID情報検出部25へ送信する。
補正部20は、各カメラ11_1〜11_nから送信される画像Pa1〜Panにつき幾何学的な画像補正を施すための幾何学的画像補正部21_1,21_2,・・,21_nと、これら幾何学的画像補正部21_1〜21_nにより画像補正が施された画像を正規化するための正規化処理部24とを備えている。
幾何学的画像補正部21_1〜21_nは、パラメータ推定部26から送信される、上記カメラ11_1〜11_nの幾何学的な位置関係を含むパラメータに基づいて、各画像Pa1〜Panを補正する。
正規化処理部24は、各幾何学的画像補正部21_1〜21_nにおいて補正された画像がそれぞれ供給され、これらにつき幾何学的正規化処理を施す。この正規化処理部24は、各カメラにより撮像された各画像Pa1〜Panの法線方向を合わせる。即ち、この正規化処理部24は、各画像Pa1〜Panの法線方向を仮想的に設定された仮想平面πの法線方向に合わせることによりこれを正規化し、それぞれ正規化画像Pm1,Pm2,・・,Pmnを生成する。かかる場合において、正規化処理部24は、各カメラ11_1〜11_nにより撮像された各画像Pa1〜Panを上記仮想平面πへ射影するための射影変換行列を求め、求めた射影変換行列に基づいて上記各画像の法線方向を上記仮想平面πの法線方向に合わせる。
ID情報検出部25は、ID画像収録部18から送信されるID信号から各種情報を取得する。また、このID情報検出部25は、この取得したID信号間の対応付けを行う。ID情報検出部25は、これらの対応付け処理の結果をカメラパラメータ推定部26へ通知する。
カメラパラメータ推定部26は、ID情報検出部25からの対応付け処理の結果に基づいて、各カメラ11_1〜11_nの特性を示す内部パラメータ、及び/又は上記各カメラ間の幾何学的な位置関係を示す外部パラメータを推定する。カメラパラメータ推定部26は、上記撮像時に生じる歪み要因を示す歪曲収差パラメータを推定する。カメラ推定部26は、これら推定した各パラメータを補正部20へ送信する。
ちなみに、これらID情報検出部25並びにカメラパラメータ推定部26は、カメラ11_1〜11_nとしていわゆる固定視点カメラを適用する場合には、予め画像Pa1〜Panの法線方向を取得するようにしてもよい。また、各カメラ11_1〜11_nの撮影方向及び/又は撮影画角を変更しつつ撮像を実行する場合には、ID情報検出部25並びにカメラパラメータ推定部26においてこれらをデータ化し、画像を正規化する際にこれらのデータを制御情報に含めるようにしてもよい。これにより、仮想カメラの位置に応じて撮影方向等を順次変更しつつ撮像を行う場合においても柔軟に対応することができる。
また、このID情報検出部25並びにカメラパラメータ推定部26において、これらのデータを図示しないROMやRAMへ格納しておくことにより、補正部20は、状況に応じて随時これらを参照することができ、高速な補正処理を実現することができる。
マッチング部29は、正規化処理部24において生成された正規化画像Pm1〜Pmnがそれぞれ供給される。このマッチング部29は、これら正規化画像Pm1〜Pmnを構成する各画素位置につき対応関係を求める。
このマッチング部29では、例えば、上記撮影対象5としてユーザaの顔を捉えているときに、これら対応付けは、ユーザaの顔を構成する同一の箇所にある画素位置と輝度成分を正規化画像Pmn間で抽出して対応をとるようにする。例えば正規化画像Pm1,Pm2間で対応付けを行う場合には、図3に示すように、正規化画像Pm1のエピポーラ線L1上にある画素P11の対応点については、正規化画像Pm2のエピポーラ線L1’上に存在することとなり、そのL1’上を探索することにより、最も類似する画素位置P11’を対応点として検出することができる。ちなみにマッチング部29は、この対応付けにつき特徴抽出した箇所のみについて実行してもよいし、正規化画像Pm1,Pm2を構成する全ての画素に対して実行してもよい。
情報生成部33は、画素位置毎に対応関係を求める際に必要な情報を生成し、これをマッチング部29へ供給する。情報生成部33は、この生成すべき相対位置情報をカメラ11_1〜11_nから被写体としてのユーザaに至るまでの距離を識別し、これに基づく視差情報を生成するようにしてもよい。かかる距離の識別については、各カメラ11_1〜11_nにより生成された画像情報からDepth情報を取得することにより実行してもよい。
また、この情報生成部33は、生成すべき相対位置情報をユーザaのディスプレイ5aに対する視線方向に基づいて生成してもよい。かかる場合において情報生成部30は、カメラ11_1〜11_nから供給される画像Pa1〜Panからユーザaの視線方向を取得し、これに基づいて相対位置情報を生成する。これにより、いわば仮想カメラの撮影方向をユーザaの視線方向に合わせ込むことと同様の処理を実現することができる。
仮想視点画像生成部30は、マッチング部29により互いに対応付けされた画素位置並びにその輝度成分がそれぞれ入力される。また、仮想視点画像生成部30は、互いに対応付けされた画素位置並びにその輝度成分から、情報生成部33より生成された相対位置情報に応じて、新たに生成すべき仮想視点画像Imaを構成する画素位置並びにその輝度成分を求める。仮想視点画像生成部30は、求めた画素位置並びにその輝度成分により構成される仮想視点画像Imaを出力制御部31へ供給する。
パターン6は、図4に示すように、白黒の市松模様等に代表されるような所定の幾何学的形状に対応させて規則的に配列された光ビーコン61により構成されている。即ち、このパターン6を白黒の市松模様として構成した場合には、かかる白黒領域の境界や交点等にこの光ビーコン61を設置する。そして、この市松模様に応じた情報光を各光ビーコン61から発振させる。
ここで、光ビーコン61を図4に示すようにパターン6上にある白黒領域の交点に配列した場合に、それぞれ光ビーコン61a,・・,61hと定義する。各光ビーコン61a〜61hは、かかる交点位置の座標に応じた情報光を発振する。これら情報光を受信したカメラ11_1〜11_nは、結果として白黒の市松模様からなるパターン画像を取得することと同等の効果を得ることができる。
図5(a)は、パターン6の実空間設置時までにID信号を予め蓄積しておく光ビーコン61aの構成を示している。この光ビーコン61aは、データ保存用メモリ62と、このデータ保存用メモリ62に接続されてなる点滅制御部63と、点滅制御部63に接続される光源64とを備えている。
データ保存用メモリ62は、光ビーコン61aの情報光として重畳するためのID信号を所定のアドレスに格納する。このデータ保存用メモリ62に格納されているID信号は、図示しない制御部による制御の下、順次読み出されて点滅制御部63へ供給されることになる。
点滅制御部63は、データ保存メモリ62から供給されるID信号の内容に基づいて光源を点滅させるためのデバイスである。また、光源64は、点滅制御部63による制御に基づいて高速に点滅する光源であり、可視光に限定されることなく、赤外光を発光するようにしてもよい。この光源64からID信号の内容が重畳された情報が発振されることになる。ちなみにこの情報光の点滅周期は、カメラ11_1〜11_nにおいてこれを受光するセンサの周波数に支配されることになる。なお、シャノンの標本化定理により、カメラ11_1〜11_nのセンサのサンプリングレートは、光源の点滅周期の2倍以上が必要とされることから、以下の説明では、光源の点滅周期がセンサのサンプリングレートの3倍である場合を例にとり説明をする。
図5(b)は、撮影中においても送信するID信号を順次変更可能な光ビーコン61bを示している。この光ビーコン61bは、外部通信を実現するためのデータ送受信部65と、このデータ送受信部65に接続されてなる点滅制御部63と、点滅制御部63に接続される光源64とを備えている。なお、上述した光ビーコン61aと同一の構成については同一の番号を付して説明を省略する。
データ送受信部65は、データ通信用のドライバやIC等により構成され、通信路67を介してID信号を受信する。このデータ送受信部65により受信されたID信号は、そのまま点滅制御部63へ出力され、上述の如く光源64を点滅させることになる。
通信路67は、有線又は無線による通信回線であり、例えば電話回線、TA/モデムと接続されるISDN(Integrated Services Digital Network)、RS−422、RS−232C、USB、IEEE1394等である。
このような構成からなる光ビーコン61をパターン6上に設けることにより、事前に格納されたID信号に加えて、通信路67を介して随時供給されるID信号を情報光に重畳させることができる。また、これらID信号を白黒の市松模様からなるパターン画像が構成されるように定義することにより、これらを含む情報光を受信したカメラ11_1〜11_nは、当該パターン画像を撮影中においてもリアルタイムに取得することができる。このため、状況に応じてパターン画像を変化させる必要が生じた場合であっても、カメラ11_1〜11_n側において、これを随時取得することができる。
図6は、これら情報光を受光するとともに画像を撮像するためのカメラ11の構成を示している。
カメラ11_1〜11_nは、受光部41と、この受光部41に接続される画像信号処理部42とを備えており、画像信号処理部42は、受光部41により光電変換された電気信号を増幅するための増幅部43と、この増幅部43に接続されてなる画像処理部44並びにフレームメモリ45と、フレームメモリ45に対して順次接続される比較部46,デコード処理部47とを備えている。
受光部41は、CCD等に代表されるようなイメージセンサの2次元の受光アレイであるが、かかる場合に限定されるものではなく、例えばCMOS(Complementary Metal-Oxide Semicondactor)等のように低消費電力であり演算回路を持たせることができるセンサを適用することにより、点滅周期の短い情報光を高速に受光するとともに、増幅部43,フレームメモリ45,比較部46のような演算回路をこれに実装することにより、回路構成をより簡略化することができる。
図7(a)は、かかる受光部41の詳細な構成を示している。この受光部41は、レンズ系411と、同時撮像センサ412と、制御部413とを備えている。互いに同一方向から受光部41に対して入射される上記画像Pmを構成するための撮像光並びに情報光は、レンズ系411を介して光束を制御され、それぞれ同一の同時撮像センサ412により光電変換される。ちなみに、レンズ系411におけるズームや撮像時における同期については、制御部413により随時制御されることになる。
図7(b)は、かかる撮像光並びに情報光が互いに異なる方向から入射される受光部41の詳細な構成を示している。この受光部41は、レンズ系411と、同時撮像センサ412と、制御部413に加え、さらにプリズム414を備えている。
プリズム414は、互いに異なる方向から入射される撮像光及び情報光が入射される。この図7(b)に示す例では、入射された撮像光をそのまま直進させ、情報光の伝搬方向を折り曲げることにより、同一のレンズ系411に入射されるように制御される。即ち、この受光部41は、情報光や撮像光の入射角が異なる場合であっても、このプリズム414を配設することにより対応することが可能となる。なお、このプリズム414を例えばハーフミラー等に代替してもよいことは勿論である。
カメラ11_1〜11_nの構成の説明に戻る。増幅部43は、センサにより光電変換された電気信号を増幅する。この増幅部43により増幅された電気信号により表される画像Pa1〜Panを画像処理部44及びフレームメモリ45へ供給し、また増幅部43により増幅された電気信号として表されるID信号をフレームメモリ45へ供給する。
画像処理部44は、増幅部43より供給される画像Pa1〜Panにつきカラーの復元処理(デモザイク処理)、ガンマ補正、オートホワイトバランス処理等を施す。画像処理部44は、これらの各処理が施された画像Pa1〜Panを上述したID画像収録部18へ送信する。
フレームメモリ45は、2フレーム以上の画像間においてID信号等の比較演算を行うべく、増幅部43より供給される画像Pa1〜Panを格納するためのメモリである。このフレームメモリ45は、例えば4フレームを格納することができるように構成される。
比較部46は、フレームメモリ45から読み出した複数フレーム間につきID信号の差分値を求める。この比較部46は、求めた差分値を所定の閾値と比較した結果を出力する。本実施の形態においては、この比較部46において4フレーム間で差分値を比較する。
デコード処理部47は、比較部46における比較結果が通知される。このデコード処理部47は、ID信号の復元及びエラー検出処理を行う。デコード処理部47は、これら復元したID信号並びにその座標に関する情報をID画像収録部18へ送信する。
なお、上述したカメラ11_1〜11_nの構成では、あくまで同一の同時撮像センサ412により撮像光と情報光を取得する場合を例にとり説明をしたが、かかる場合に限定されるものではなく、例えば図8に示すように互いに異なるセンサによりそれぞれの光を受光する受光部141を適用するようにしてもよい。
この受光部141は、例えば図8(a)に示すように、レンズ系411と、プリズム415と、画像撮像センサ416と、ID撮像センサ417と、受光部全体を制御する制御部413を備えている。互いに同一方向から受光部141に対して入射される撮像光並びに情報光は、レンズ系411を介して光束を制御された後、プリズム415によりそれぞれ分離される。ここで撮像光はこのプリズム415をそのまま直進して画像撮像センサ416により光電変換される。また情報光はプリズム415により光路が折り曲げられID撮像センサ417により光電変換される。
図8(b)は、かかる撮像光並びに情報光が互いに異なる方向から入射される受光部141の詳細な構成を示している。この受光部141は、レンズ系411と、プリズム415と、画像撮像センサ416と、ID撮像センサ417と、制御部413に加え、さらにプリズム418を備えている。
プリズム418は、互いに異なる方向から入射される撮像光及び情報光が入射される。この図8(b)に示す例では、入射された撮像光をそのまま直進させ、情報光の伝搬方向を折り曲げることにより、同一のレンズ系411に入射されるように制御される。即ち、この受光部141は、情報光や撮像光の入射角が異なる場合であっても、このプリズム418を配設することにより対応することが可能となる。
次に、この撮像装置2における具体的な動作につき説明をする。
撮影対象5(ユーザa)は、カメラ11_1〜11_nにより互いに異なる角度から撮影される。このような画像Pa1〜Panは、カメラ11_1〜11_n内の同時撮像センサ412を介して取得される。その結果、カメラ11_1〜11_nにより生成される画像Pa1〜Pan上の撮影対象5の向きや明るさは、互いに異なる状態となる。
また、この撮影対象5の撮像と同時にパターン6上に配置された光ビーコン61からID信号が重畳された情報光が発振される。かかる情報光に重畳されるID信号は、カメラ11_1〜11_n側において安定した受信を実現できるように、光ビーコン61においてマンチェスタ符号化される。このマンチェスタ符号化は、例えば、データ“0”に対してID信号を“10”とし、またデータ“1”に対してID信号を“01”とする符号化であり、これを用いることにより、光ビーコン61が有効なID信号を送信している間は、必ず光の輝度変化が生じていることになる。
例えば固定長8ビットのデータからなるID信号をフレーム単位で送信する場合には、図9に示すように、1フレームの先頭であることを受信側に知らせるためのスタートコード領域68にビット“0001”を割り当てる。またID信号は、上述したスタートコード領域68に続く送信データ領域69において“10010010”からなる8ビットデータをマンチェスタ符号化した16ビットデータで割り当てる。
図10は、これら16ビットデータとしてのID信号に基づいて、上記情報光に重畳させるための点滅信号を生成する例を示している。この図10に示すように、固定長8ビットのデータをマンチェスタ符号化した16ビットデータは、“Hi”と“Low”からなる点滅信号に変換される。これら点滅信号が重畳された情報光を受光する同時撮像センサ412のサンプリングレートは、光源の点滅周期よりも大きいことから、情報光を受光することにより得られるセンサ出力としてこれを捉えることができる。
同時撮像センサ412により光電変換される各画像Pa1〜PanやID信号は、例えば図11に示すように、1/30秒毎のフレーム単位で切り替えられて構成される。画像Pa1〜画像Panが割り当てられる画像フレームと、ID信号が割り当てられるIDフレームとを1対1で対応させることにより、画像Pa1〜Panの1フレーム毎に応じたID信号を割り当てることができる。ちなみに、これら各画像Pa1〜Pan並びにID信号は、この図11に示すように時間で区切る場合に限定されるものではない。
同時撮像センサ412により、各画像Pa1〜Panを15fpsで、またID信号を15fpsで取得することになる。なお、このID信号については、図11に示すように、IDデコード処理区間501とID重心区間502の2つに分けられる。
これらID信号は、デコード処理部47において上述したIDデコード処理区間501を介してデコードされる結果、図10に示すようなb0,b1,b2,b3,b4,b5,b6,b7の各ビットにおいて“10010010”からなる8ビットデータを復元することができる。
このように復元されたID信号は、ID画像収録部18を介してID情報検出部25へ送信される。このID情報検出部25において、各カメラ11_1〜11_nにおいて取得されたID信号は、互いに対応付けされる。例えばカメラ11_1により取得されたID信号と、カメラ11_2により取得されたID信号との間で対応付けを行う場合には、例えば図12に示すように、カメラ11_1により取得されたID信号に基づくID観測画像と、カメラ11_2により取得されたID信号に基づくID観測画像を生成する。得られるID観測画像の光ビーコン61a〜61hに応じた位置62a〜62hの輝度データは、互いに異なるID信号が上記情報光に重畳される結果、互いに異なるものとなる。
次に、各ID観測画像につき、カメラ11_1によるID観測画像上の各位置81a〜81hに割り振られたID信号並びにその座標を検出する。同様に、カメラ11_1によるID観測画像上の各位置81a’〜81h’に割り振られたID信号並びにその座標を検出する。そして検出したID信号につき、互いのID観測画像における同一座標位置81a〜81h、81a’〜81h’毎に対応付けを行う。
カメラパラメータ推定部26では、これらID観測画像における対応付け処理の結果に基づき、例えば特開2000−350239号公報や、特開平11−53549号公報に示されているカメラキャリブレーション手法に基づくパラメータ化を行う。カメラパラメータ推定部26は、歪曲収差パラメータとして歪み係数κ、歪み中心(cx,cy)アスペクト比sxを求める。また、このカメラパラメータ推定部26は、内部パラメータとして、換言すればカメラ11_1〜11_n固有のパラメータとして、u軸スケール因子αと、v軸スケール因子βと、画像中心(u0,v0)を求める。更に、このカメラパラメータ推定部26は、外部パラメータRtとして、回転行列Rや並進ベクトルtを求める。これら推定された各パラメータを補正部20へ送信される。
このような各パラメータが送信される補正部20では、これらに基づいて、ID画像収録部18から供給される各画像Pa1〜Panを補正する。即ち、幾何学的画像補正部21において、各画像Pa1〜Panは、送信されたパラメータに基づいて、各カメラ11_1〜11_nからの画像Pa1〜Panを射影変換することにより基準となる画像へ合わせ込まれる。輝度成分等についても同様にカメラ11_1〜11_nからの画像Pa1〜Pan間において輝度の誤差が最小となるような射影変換行列を用いることにより互いの調整が図られることになる。
これら幾何学的画像補正部21において補正された各画像Pa1〜Panは、正規化処理部24へ供給されると以下に示される方法に基づいて正規化されることになる。
図13は、各カメラ11_1〜11_nにより撮像した画像Pa1〜Panのうち、画像Pa1,Pa2を正規化する場合につき示している。この図13に示されるように、各カメラ11a,12aの光学中心C1,C2により互いに異なる視点から撮影対象のM点へ光軸を合わせて撮像を行うと、これにより生成される画像Pa1,Pa2は、各カメラ11a,12aの撮像面に対して平行となる。ここで各カメラ11a,12aと、M点を結ぶ直線の方向は、各カメラにより撮像された各画像Pa1,Pa2の法線方向k1,k2に一致するが、これらは互いに異なる方向を指している。これら各画像Pa1,Pa2の法線方向k1,k2が同一方向となるように幾何学的正規化を行うことにより、画像面が互いに平行な正規化画像Pm1,Pm2を作り出す。
この幾何学的正規化は、パラメータ推定部26において求められた射影行列P1,P2を用いて、内部パラメータA、回転行列R、転移行列tを推定することにより実現する。その結果、補正後の画像撮像面の法線方向k1’,k2’が平行化された正規化画像Pm1,Pm2を生成することができる。
正規化処理部24において上述の如く射影変換された正規化画像Pm1,Pm2は、マッチング部29において撮影対象と関連させつつ、画素位置毎に対応付けされる。本発明においては、マッチング部29の前段にある正規化処理部24において予め正規化され、エピポーラ線が平行化されているため、画素探索のロバスト性を向上させることができる。
ちなみに、これら正規化画像Pm1とPm2につき、このマッチング部29において対応付けを行う場合において、図13に示すように正規化画像Pm1のエピポーラ線L1上にある画素P11の対応点については、正規化画像Pm2のエピポーラ線L1’上に存在することとなり、そのL1’上を探索することにより、対応点としての画素P11’を検出することができる。
例えば図14(a)に示すように、被写体としてのユーザaがそれぞれ写し出された正規化画像Pm1におけるエピポーラ線L1上の画素と、正規化画像Pm2におけるエピポーラ線L1’上の画素とを対応付けする場合に、エピポーラ線L1上の特徴点の点列R1を左から順に{a1,a2,a3,a4,a5}とし、またエピポーラ線L1’の特徴点の点列R2を左から順に{b1,b2,b3,b4,b5}とする。ここで、互いのエピポーラ線L1,L1’上にある特徴点R1,R2を被写体との関係において対応付けるとき、先ず、a1に対してL1’上の特徴点はb1が該当し1:1で対応することとなるが、ユーザaの右耳を構成する特徴点a2,a3に対してL1’上の特徴点はb2が該当し、2:1で対応することとなる。同様に、ユーザaの左耳を構成する特徴点a4に対してL1’上の特徴点はb3,b4が該当し、1:2で対応することとなる。なお、a5に対してL1’上の特徴点はb5が該当し1:1で対応することとなる。
このように、異なる視点から撮像することにより得られる正規化画像Pm1,Pm2では、被写体からカメラに至るまでの距離に基づく視差により、ユーザaの耳の部分等において表示される内容が異なってくる。以下、このような領域をオクリュージョン領域という。かかるオクリュージョン領域では、上記視差により、一方の正規化画像に表示されている被写体の対応点が他方の正規化画像にて隠れてしまうため、従来と同様に、{(a1, b1)、(a2, b2)、(a3, b3)、(a4, b4)、(a5, b5)}と対応付けてしまうと、誤差が生じることになる。
このため、本発明を適用した画像処理装置2aにおけるマッチング部29では、かかる視差を識別することにより、図14(a)に示される正規化画像の特徴点の点列R1,R2を、結果的に図14(b)に示されるように{(a1, b1)、(a2, b2)、(a3, b2)、(a4, b3)、(a4, b4)、(a5, b5)}と対応付けられるように制御する。
具体的には、各正規化画像Pm1,Pm2におけるエピポーラ線上にある全ての画素につき、図14(c)に示すようなDynamic Programming(DP:最短経路探索)を利用した動的な対応付けを行う。
この図14(c)におけるx軸にエピポーラ線L1上の特徴点の点列R1{a1,a2,a3,a4,a5}を配列し、またy軸をエピポーラ線L1’上の特徴点の点列R2{b1,b2,b3,b4,b5}とするとき、図14(b)に示される対応関係をこのグラフにあてはめると、図14(c)に示される太線で示される経路をとることになる。以下、この太線で示される対応点を結ぶ直線を最適経路という。
この最適経路において右上に線形増加する場合には、エピポーラ線L1,L1’上を左から右へシフトさせて対応付けする際に、互いの特徴点を1:1で順次シフトさせて対応させることを示している。右上に線形増加する最適経路の例として、エピポーラ線L1,L1’上の特徴点(a1, b1)から左から右へそれぞれ一つずつシフトさせることにより特徴点(a2, b2)を正確に対応付けすることができる。
また、この最適経路において水平方向にシフトする場合には、正規化画像Pm1,Pm2間において視差が生じた結果、正規化画像Pm1において示されている特徴点が正規化画像Pm2において隠れてしまったことを示唆している。かかる場合には、正規化画像Pm2上にある1の特徴点に対して、正規化画像Pm1上にある複数の特徴点を対応付ける。この水平方向にシフトする最適経路の例として、エピポーラ線L1,L1’上の特徴点(a2, b2)においてユーザaの右耳を示すb2は、上述した視差により更にa3とも対応するため、b2をそのまま維持しつつこれにa3を対応付ける。
また、この最適経路において垂直方向へシフトする場合には、正規化画像Pm1,Pm2間において視差が生じた結果、正規化画像Pm2において示されている特徴点が正規化画像Pm1において隠れてしまったことを示唆している。かかる場合には、正規化画像Pm1上にある1の特徴点に対して、正規化画像Pm2上にある複数の特徴点を対応付ける。この垂直方向にシフトする最適経路の例として、エピポーラ線L1,L1’上の特徴点(a4, b3)においてユーザaの左耳を示すa4は、上述した視差により更にb4とも対応するため、a4をそのまま維持しつつこれにb4を対応付ける。
マッチング部29は、これら対応付けを、互いの正規化画像Pm1,Pm2を構成する全てを構成する、或いは一部を構成するエピポーラ線L1,L1’間において実行する。そしてエピポーラ線L1,L1’毎に上述した最適経路を求めることにより、特徴点の点列R1,R2間における対応付けを行う。
図15は、エピポーラ線L1,L1’上の任意の特徴点(x,y)に至るまでの最適経路を求める場合につき示している。
この特徴点(x,y)に至る最適経路は、特徴点(x−1,y−1)から左から右へそれぞれ一つずつシフトさせることにより図15に示されるグラフにおいて右上に線形増加し、或いは特徴点(x−1,y)においてyをそのまま維持しつつ水平方向に1シフトさせることにより図15に示されるグラフにおいて特徴点(x−1,y)から水平方向へ移動する。さらに、この特徴点(x,y)に至る最適経路は、特徴点(x,y−1)においてxをそのまま維持しつつ垂直方向へ1シフトさせることにより図15に示されるグラフにおいて特徴点(x,y−1)から垂直方向へ移動することになる。
即ち、特徴点(x,y)を通る最適経路は、図15に示すグラフにおいて、その左,左下,下に位置する特徴点(x−1,y),(x−1,y−1),(x,y−1)の何れかを経ることになる。本発明マッチング部29は、何れの特徴点(x−1,y),(x−1,y−1),(x,y−1)を経て特徴点(x,y)へ至るのかにつき、以下に説明する関数を順次求めてゆくことにより決定する。
マッチング部29は、以下に示すマッチングコスト関数d(x,y)と、動的なオクリュージョンコスト関数dx(x,y),dy(x,y)を求め、求めた各関数に応じて上述した最適経路を求める。マッチングコスト関数d(x,y)は、対応関係を求める各画素位置間における輝度成分及び色成分の類似度を示す関数であり、またオクリュージョンコスト関数dx(x,y)は、正規化画像Pm1の正規化画像Pm2に対する被写体画像の隠れ度合いを示す関数であり、またオクリュージョンコスト関数dy(x,y)は、正規化画像Pm2の正規化画像Pm1に対する被写体画像の隠れ度合いを示す関数である。これらオクリュージョンコスト関数dx(x,y),dy(x,y)は、被写体の各画像間における視差が反映される形となる。
先ず、マッチングコスト関数d(x,y)を求める方法につき説明をする。
d(x,y)につき、比較する輝度成分又は色成分のうち何れに重み付けをするか決定する。この重み付けは、重み付け係数αを用いて、以下の式(1)に基づいて行う。
dk(s,t)=α×dYk(s,t)+(1−α)dCk(s,t)・・・・・(1)
ここで(s,t)は、特徴点(x,y)に対応する正規化画像Pm1、正規化画像Pm2における画素位置を表している。またkは、正規化画像Pm1、正規化画像Pm2の何行目に該当するかを示している。この式(1)においてdYk(s,t)は、正規化画像Pm1と正規化画像Pm2との座標(s,t)間における輝度成分の差分絶対値を表し、以下の(2)式で定義される。
dYk(s,t)=|Y1k(s,t)−Y2k(s,t)|・・・・・(2)
また、この式(1)においてdCk(s,t)は、正規化画像Pm1と正規化画像Pm2との間における色成分の差分絶対値を表し、以下の(3)式で定義される。
dCk(s,t)=|C1k(s,t)−C2k(s,t)|・・・・・(3)
即ち、上記式(1)においてαをより高く設定することにより、求めるdk(s,t)につき、輝度成分の差分絶対値dYk(s,t)の成分をより反映させることができる。また上記式(1)においてαをより小さく設定することにより、求めるdk(s,t)につき、色成分の差分絶対値dCk(s,t)の成分をより反映させることができる。ちなみに、このαについては、色成分のマッチングコストと、輝度成分のマッチングコストとの平均値を割り当てるようにしてもよい。
dk(s,t)=α×dYk(s,t)+(1−α)dCk(s,t)・・・・・(1)
ここで(s,t)は、特徴点(x,y)に対応する正規化画像Pm1、正規化画像Pm2における画素位置を表している。またkは、正規化画像Pm1、正規化画像Pm2の何行目に該当するかを示している。この式(1)においてdYk(s,t)は、正規化画像Pm1と正規化画像Pm2との座標(s,t)間における輝度成分の差分絶対値を表し、以下の(2)式で定義される。
dYk(s,t)=|Y1k(s,t)−Y2k(s,t)|・・・・・(2)
また、この式(1)においてdCk(s,t)は、正規化画像Pm1と正規化画像Pm2との間における色成分の差分絶対値を表し、以下の(3)式で定義される。
dCk(s,t)=|C1k(s,t)−C2k(s,t)|・・・・・(3)
即ち、上記式(1)においてαをより高く設定することにより、求めるdk(s,t)につき、輝度成分の差分絶対値dYk(s,t)の成分をより反映させることができる。また上記式(1)においてαをより小さく設定することにより、求めるdk(s,t)につき、色成分の差分絶対値dCk(s,t)の成分をより反映させることができる。ちなみに、このαについては、色成分のマッチングコストと、輝度成分のマッチングコストとの平均値を割り当てるようにしてもよい。
d(x,y)は、(1)式により求められるdk(s,t)に基づいて、更に以下の(4)式により求められる。
d(x,y)=(Σdk(s,t))/2K k=−K,・・,K−1
・・・・・・・・・(4)
この(4)式は、エピポーラ線の上下に位置する各画素との間で平均をとることにより、d(x,y)を求めることができることを意味している。この(4)式により、求めるd(x,y)につきエピポーラ線の上下に位置する各画素との相関関係を反映させることができる。これにより対応付け精度を大幅に向上させることが可能となる。
d(x,y)=(Σdk(s,t))/2K k=−K,・・,K−1
・・・・・・・・・(4)
この(4)式は、エピポーラ線の上下に位置する各画素との間で平均をとることにより、d(x,y)を求めることができることを意味している。この(4)式により、求めるd(x,y)につきエピポーラ線の上下に位置する各画素との相関関係を反映させることができる。これにより対応付け精度を大幅に向上させることが可能となる。
即ち、上述の方法により求められるマッチングコストd(x,y)は、正規化画像Pm1と正規化画像Pm2の画素位置(s,t)における輝度成分、或いは色成分の差分絶対値が大きくなるにつれて増加する。換言すれば、正規化画像Pm2と正規化画像Pm1の画素位置(s,t)における輝度成分、或いは色成分の差異が大きくなるにつれて増加し、またこれらが類似するにつれて小さくなる。即ち、このマッチングコストd(x,y)により、正規化画像Pm1と正規化画像Pm2の画素位置(s,t)における輝度成分、或いは色成分の類似度を識別することが可能となる。
次にオクリュージョンコスト関数dx(x,y),dy(x,y)を求める方法につき説明をする。
これら各オクリュージョンコスト関数dx(x,y),dy(x,y)は、情報生成部33におより生成される視差情報に基づいて生成される。カメラ11a,12aから被写体としてのユーザaに至るまでの距離が小さくなるにつれて(視差が大きくなるにつれて)、オクリュージョン領域の発生する確率が高くなる。かかる場合において、マッチング部29は、オクリュージョンコスト関数dx(x,y),dy(x,y)を下げることにより対応する。一方、カメラ11a,12aから被写体としてのユーザaに至るまでの距離が長くなるにつれて(視差が小さくなるにつれて)、オクリュージョン領域の発生する確率が小さくなる。かかる場合において、マッチング部29は、オクリュージョンコスト関数dx(x,y),dy(x,y)を上げることにより対応する。
各オクリュージョンコスト関数dx(x,y),dy(x,y)は、以下の式(5)、(6)に基づいて求めることができる。
dx(x,y)=β×dp(x,y)+T0・・・・・・・・(5)
dy(x,y)=γ×dp(x,y)+T1・・・・・・・・(6)
ここで、dp(x,y)は、上記取得される視差情報に支配され、視差がより大きくなるにつれて減少し、また視差がより小さくなるにつれて増加する。β、γは、dp(x,y)の変化率を表しており、予め実験的に求めることができる。またT0、T1は、初期オクリュージョンコスト定数であり、これについても予め実験的に求めることができる。
dx(x,y)=β×dp(x,y)+T0・・・・・・・・(5)
dy(x,y)=γ×dp(x,y)+T1・・・・・・・・(6)
ここで、dp(x,y)は、上記取得される視差情報に支配され、視差がより大きくなるにつれて減少し、また視差がより小さくなるにつれて増加する。β、γは、dp(x,y)の変化率を表しており、予め実験的に求めることができる。またT0、T1は、初期オクリュージョンコスト定数であり、これについても予め実験的に求めることができる。
マッチング部29は、これら各関数dx(x,y),d(x,y),dy(x,y)を求めた後、それぞれ以下の式(7)〜式(9)に基づいて累積マッチングコストC(x−1,y),C(x−1,y−1),C(x,y−1)を加算し、総コストk1,k2,k3を算出する。
k1=C(x−1,y)+dx(x,y)・・・・・・・・(7)
k2=C(x−1,y−1)+d(x,y)・・・・・・・(8)
k3=C(x,y−1)+dy(x,y)・・・・・・・・(9)
ここでC(x−1,y),C(x−1,y−1),C(x,y−1)は、それぞれ特徴点(x−1,y),(x−1,y−1),(x,y−1)において求められた累積マッチングコストを示している。ちなみに、特徴点(x,y)における累積マッチングコストC(x,y)は、以下の式(10)に示すように、求めたk1,k2,k3の中から最小となるものが割り当てられる。
C(x,y)=min{k1,k2,k3}・・・・・・・(10)
マッチング部29は、求めた総コストk1,k2,k3の中から最小となるものを選択することにより最適経路を求める。
k1=C(x−1,y)+dx(x,y)・・・・・・・・(7)
k2=C(x−1,y−1)+d(x,y)・・・・・・・(8)
k3=C(x,y−1)+dy(x,y)・・・・・・・・(9)
ここでC(x−1,y),C(x−1,y−1),C(x,y−1)は、それぞれ特徴点(x−1,y),(x−1,y−1),(x,y−1)において求められた累積マッチングコストを示している。ちなみに、特徴点(x,y)における累積マッチングコストC(x,y)は、以下の式(10)に示すように、求めたk1,k2,k3の中から最小となるものが割り当てられる。
C(x,y)=min{k1,k2,k3}・・・・・・・(10)
マッチング部29は、求めた総コストk1,k2,k3の中から最小となるものを選択することにより最適経路を求める。
ここで、k1が最小となる場合には、視差が大きくなることにより、正規化画像Pm1において示されている特徴点が正規化画像Pm2において遮蔽されたことを意味している。かかる場合には、図15矢印J1に示すように特徴点(x−1,y)から水平方向にシフトさせることにより特徴点(x,y)に至るように最適経路が求められることになる。
またk3が最小となる場合には、視差が大きくなることにより、正規化画像Pm2において示されている特徴点が正規化画像Pm1において遮蔽されたことを意味している。かかる場合には、図15矢印J3に示すように、特徴点(x,y−1)から垂直方向にシフトさせることにより特徴点(x,y)に至るように最適経路が求められることになる。
即ち、このマッチング部29では、上記各正規化画像Pm1,Pm2間における対応関係を求める際に、識別した類似度及び視差のうち何れを優先させるか決定し、類似度を優先させる場合には、水平ライン上にある同一画素位置間において対応付け、視差を優先させる場合には、一の画素位置に対し同一の水平ライン上にある複数の画素位置を対応付ける。これにより、オクリュージョン領域が存在する場合においてもより正確な対応付けを行うことができる。また、上述の手法に基づいて対応付けを行うことにより、例えば両目部分等の繰り返しパターンや、輝度変化が殆ど生じないいわゆる非特徴点(例えば壁の部分)においても対応付けの精度を向上させることができる。
仮想視点画像生成部30では、上述の如くマッチング部29において求められた対応関係に基づいて、仮想視点画像Imaを生成する。例えばマッチング部29において、正規化画像Pm1における画素位置P11に対して、正規化画像Pm2における画素位置P11’がその対応点として特定されていた場合に、かかる画素位置P11の座標を図16に示すように(x1,y1)とし、また画素位置P11’の座標を(x2,y2)とする。仮想視点画像生成部31は、かかる画素位置P11、P11’に対応する仮想視点画像Ima上の画素位置の座標(xt,yt)を、相対位置情報としてのmに基づいて以下の式(11)により決定することができる。
(xt,yt)=(1−m)×(x1,y1)+m×(x2,y2)・・・(11)
また画素位置P11、P11’における輝度成分をそれぞれJ11, J11’としたときに、かかる仮想視点画像Ima上の画素位置Phにおける輝度成分Ptを以下の式(12)により決定することができる。
(xt,yt)=(1−m)×(x1,y1)+m×(x2,y2)・・・(11)
また画素位置P11、P11’における輝度成分をそれぞれJ11, J11’としたときに、かかる仮想視点画像Ima上の画素位置Phにおける輝度成分Ptを以下の式(12)により決定することができる。
Pt=(1−m)×J11+m×J11’ ・・・(12)
このように仮想視点画像生成部31は、仮想視点画像Imaを構成する各画素の座標並びにその輝度成分につき、相対位置情報としてのmに応じて決定することができる。
このように仮想視点画像生成部31は、仮想視点画像Imaを構成する各画素の座標並びにその輝度成分につき、相対位置情報としてのmに応じて決定することができる。
ここでmは、仮想カメラにおける仮想視点がカメラ11aに近くなるにつれて小さくなり、また仮想視点がカメラ12aに近くなるにつれて大きくなる。
このため、式(11)に基づいて決定される座標(xt,yt)は、仮想視点がカメラ11aに近づくにつれて画素位置P11の座標(x1,y1)に近づき、また仮想視点がカメラ12aに近づくにつれて画素位置P12の座標(x2,y2)に近づくことになる。即ち、座標(xt,yt)を、仮想カメラの位置に応じて自在に決定することができるため、仮想視点画像Ima上に表示させるユーザaの位置を自在に変化させることができる。
また、式(12)に基づいて決定される輝度成分Ptは、仮想視点がカメラ11aに近づくにつれて画素位置P11の輝度成分J11に近づき、仮想視点がカメラ12aに近づくにつれて画素位置P11’の輝度成分J11’に近づくことになる。即ち、仮想カメラの位置に応じて、仮想視点画像Ima上のユーザaを構成する画素を輝度成分J11、又は輝度成分J11’に近づけることができる。
特に、カメラ11aとカメラ12aは互いに撮影方向が異なるため、正規化画像Pm1上にある画素位置P11と、これに対応する正規化画像Pm2上にある画素位置P11’との間では、輝度成分が互いに異なる。この互いに異なる輝度成分の何れか一方を最小値とし、他方が最大値となるようにして、相対位置情報としてのmに応じて輝度成分Ptを線形に増減させることにより、仮想カメラの位置に応じて仮想視点画像Ima上に表示させるユーザaを構成する画素の輝度成分を決定することが可能となる。また、この生成される仮想支点画像Imaは、上述したマッチング部29において対応付けられた関係に基づいて生成されるため、得られる画像の画質劣化をより減少させることができる。
上述のようにして画素位置Phにおける座標(xt,yt)並びにその輝度成分Ptを順次決定することにより、生成した仮想視点画像Imaは、表示されるユーザaの視線方向、顔の向き等は互いに異なっていた正規化画像Pm1,Pm2に対して、常時正面を向いている状態となる。
即ち、本発明を適用した撮像システム1においては、複数のカメラ11_1〜11_nにより互いに異なる視点から画像Pa1〜Panを撮像するとともに、規則的に配置された既知のパターン6からの情報光を上記撮像と同時に受光する。そして、撮像した各画像を情報光に基づいて補正する。これにより、本発明を適用した撮像システム1では、パターン6を利用したキャリブレーションを得られる画像Pa1〜Pan毎にリアルタイムに行うことができる。
これにより、事前に行ったキャリブレーションを基にカメラの位置や倍率等を固定することなく、被写体や周囲の環境の変化にリアルタイムに対応したキャリブレーションを実現することができるため、臨場感の高い仮想視点画像やそれを利用した魅力的なコンテンツを作成することが可能となる。
また本発明を適用した撮像システム1では、実際に撮像された画像から特徴点を随時判別することなく、光ビーコン61から発せられるID信号に基づきキャリブレーションを行うことができるため、得られる画像から特徴点を抽出するステップを省略することができることから、撮影環境へのリアルタイムに対応を実現することができる。
本発明を例えばテレビ会議システムに適用する場合に、図17に示すA地点に設置された撮像装置2において生成された仮想視点画像Imaは、出力制御部31による制御の下、ネットワーク7へ送出される。そしてB地点にある相手側の画像処理装置120へ送信された仮想視点画像Imaは、ディスプレイ5b上へ表示されることになる。ユーザbは、ディスプレイ5bに表示される仮想視点画像Ima上のユーザaを視認しつつ対話をすることになるが、ユーザaの顔、視線方向は正面を向いている状態にあるため、あたかも画面中央付近に設置された仮想カメラで撮像されたような画像を視認しているような感覚を味わうことができる。ユーザaについても同様にディスプレイ5aに表示される仮想視点画像Imb上のユーザbを視認しつつ対話をすることになるが、正面を向いているユーザbを視認することができる。即ち、この通信システム1では、いわば対話するユーザ間において常時視線を一致させたビジュアルコミュニケーションを実現することができ、よりリアルで臨場感のある遠隔対話を実現することができる。
また、本発明では、ハーフミラーやホログラムスクリーン、更にはプロジェクタ等のような特殊装置を用いる必要もなく、簡易で安価なシステムを構成することができる。
なお、本発明を適用した通信システムは、上述した実施の形態に限定されるものではなく、例えば図18に示すように、得られた画像につき複眼立体視を可能とすべく処理を施すための撮像システム7に適用してもよい。この撮像システム7において上述した通信システム1と同一の構成については、当該同一の番号を付して説明を省略する。
この撮像システム7は、互いに異なる視点から同一の撮影対象5を撮像するn台(nは2以上)のカメラ11_1〜11_nと、各カメラ11_1〜11_nより撮像された画像Pa1〜Panが供給されるID画像収録部18と、ID画像収録部18に接続されてなる画像補正部20並びにID情報検出部25と、ID情報検出部25並びに画像補正部20に接続されるパラメータ推定部26と、画像補正部20に接続されるマッチング部29と、さらにこのマッチング部29に接続される仮想視点画像生成部30と、立体視ディスプレイ80を視認するユーザの頭部位置を検出し、これに基づいてユーザの相対的な視点位置を推定するための両眼位置推定部75と、両眼位置推定部75により推定されたユーザの視点位置に応じて、立体視ディスプレイ80に対するユーザの視点位置における相対的な位置関係を示す相対位置情報を生成する情報生成部76と、マッチング部29並びに情報生成部76にそれぞれ接続されてなり、ユーザの左眼により視認される左眼用視差画像と、ユーザの右眼により視認される右眼用視差画像とを生成する仮想視点画像生成部30と、仮想視点画像生成部30により生成された左眼用視差画像と右眼用視差画像とを、接続された立体視ディスプレイ80上へ表示させるための表示制御部79とを備えている。
両眼位置推定部75は、立体視ディスプレイ80を視認するユーザの頭部における3次元的な位置やサイズを、当該立体視ディスプレイ80との間で相対的に検出する。この両眼位置推定部75は、例えばステレオ視方式やレンジファインダ方式に基づいてリアルタイムな位置検出を行う距離計測装置等により適用される。この両眼位置推定部75は、検出したユーザの頭部における3次元的な位置やサイズに基づき、三次元空間座標の下、ユーザの左眼位置並びに右眼位置を推定する。この両眼位置の推定については、例えば、人間の頭部と両眼の相対的な位置関係に関する統計的な計測データを参照しつつリアルタイムに実行するようにしてもよい。
情報生成部76は、両眼位置推定部75において推定された、ユーザの左眼位置並びに右眼位置をパラメータ化した相対位置情報を生成し、これを仮想視点画像生成部30へ送信する。
仮想視点画像生成部30は、マッチング部29により互いに対応付けされた画素位置並びにその輝度成分がそれぞれ入力される。また、仮想視点画像生成部30は、互いに対応付けされた画素位置並びにその輝度成分から、情報生成部76より生成された相対位置情報に応じて、上記仮想視点画像Imaの代替として、左眼用視差画像並びに右眼用視差画像を生成する。
表示制御部79は、仮想視点画像生成部30により生成された左眼用視差画像と右眼用視差画像につき、立体視ディスプレイ80における表示方法に応じて、各画素位置における輝度レベル(RGB)を割り当てる。
立体視ディスプレイ80は、液晶パネル上に光学素子を組み合わせ、互いに異なる左眼用視差画像と右眼用視差画像を表示させる表示面であり、ユーザに対して専用眼鏡の着用を義務付ける必要がない点において優れている。
図19(a)は、点線で示される撮影対象5に対する各カメラ71の相対的な位置関係を、実線で示される立体視ディスプレイ80に対するユーザの視点の位置関係にそのまま重ね合わせて表示したものである。立体視ディスプレイ80では、この撮影対象5に対する各カメラ71の光学中心の相対的な位置関係が、立体視ディスプレイ80を視認するユーザの左眼、右眼の視点位置の位置関係に合致する場合のみ立体視が実現されることになる。
ここで、座標(0,0,0)上に位置する撮影対象5のM点へカメラ71_1〜71_8の光軸を合わせて撮像を行う場合に、これに立体視ディスプレイ80の中心を重ね合わせることにより、その中心の座標が原点(0,0,0)に位置するように設定する。また両眼位置推定部75により計測されたユーザの頭部位置の座標(xn,yn,zn)をこの原点座標(0,0,0)に基づき特定する。ちなみにユーザの頭部位置をいかに定義するかについては、撮像システム7側において任意に決定することができるが、例えば、ユーザの眉間中心を頭部位置として定義するようにしてもよい。
仮にユーザの頭部が位置Aにあるとき、両眼位置推定部75はその座標(xa,ya,za)を特定する。またユーザの頭部が位置Bにあるとき、両眼位置推定部75はその座標(xb,yb,zb)を特定する。またユーザの頭部が位置Cにあるとき、両眼位置推定部75はその座標(xc,yc,zc)をそれぞれ特定する。ちなみに両眼位置推定部75は、かかる座標の特定と同時に、ユーザの頭部のサイズを同時に識別する。
両眼位置推定部75は、これら特定したユーザの頭部位置(xn,yn,zn)の座標に基づき、ユーザの左眼位置並びに右眼位置を推定する。この推定は、例えば頭部位置Aにつき特定した座標(xa,ya,za)と、識別したユーザ頭部のサイズに基づき、統計的な計測データを参照しつつ、図19(b)に示すように、ユーザの左眼位置の座標(xaL,yaL,zaL)並びに右眼位置の座標(xaR,yaR,zaR)を推定する。これにより、立体視ディスプレイ20の中心座標(0,0,0)に基づいた左眼位置の座標(xaL,yaL,zaL)並びに右眼位置の座標(xaR,yaR,zaR)を相対的に求めることが可能となる。
ちなみに、推定した左眼位置の座標(xaL,yaL,zaL)と、右眼位置の座標(xaR,yaR,zaR)が、それぞれ図19(a)の点線で示されるカメラ71_1〜71_8の光学中心に位置している場合には、かかるカメラから取得される画像をそのまま左眼用視差画像と右眼用視差画像とすれば立体視が実現されることになる。しかし、それ以外の場合には、撮影対象5に対する各カメラ71の相対的な位置関係から外れることになり、ユーザによる立体視の実現が困難となる。
ここで、推定した左眼位置の座標(xaL,yaL,zaL)と、右眼位置の座標(xaR,yaR,zaR)が、カメラ71_1〜71_8の光学中心以外に位置している場合であって、かつ図19(a)に示すカメラ71間の光学中心を結ぶラインLc上に位置している場合には、左眼用視差画像(右眼用視差画像)を構成することのみで、かかる位置関係の調整を図る。
例えば図20に示すように、ユーザの頭部が位置Dにあり、また推定した左眼位置,右眼位置がそれぞれVcL1,VcR1にあるとき、このVcL1,VcR1に仮想的にカメラを設置して撮影対象5のM点(立体視ディスプレイ20の中心座標(0,0,0)に相当する)を撮像した結果得られる画像が左眼用視差画像(右眼用視差画像)となるように調整する。
かかる場合において、情報生成部76は、上述の如く両眼位置推定部75により推定された左眼位置VcL1,右眼位置VcR1をそれぞれ取得する。そして、この取得した左眼位置VcL1を仮想的にカメラを設置する仮想位置WL1とし、これを実際に撮影対象5との間で相対的な位置関係を保ちつつ設置されているカメラ71_1〜カメラ71_8の位置関係に当てはめる。同様にして、取得した右眼位置VcR1を仮想的にカメラを設置する仮想位置WR1とし、これを実際に撮影対象5との間で相対的な位置関係を保ちつつ設置されているカメラ71_1〜カメラ71_8の位置関係に当てはめる。
例えば図20に示すように、左眼位置VcL1,右眼位置VcR1の双方がカメラ71_4、71_5の間にある場合に、情報生成部76は、カメラ71_4、71_5に対する左眼位置VcL1並びに右眼位置VcR1の位置関係を相対的に識別し、これに応じた相対位置情報としてkL1、kR1をそれぞれ生成する。この相対位置情報としてのkL1は、仮想位置WL1が、カメラ71_4から71_5にかけてkL1:1−kL1の位置にあることを意味している。同様に、この相対位置情報としてのkR1は、仮想位置WR1が、カメラ71_4から71_5にかけてkR1:1−kR1の位置にあることを意味している。即ち、この相対位置情報としてのkL1、kR1が小さくなるにつれて、仮想位置WL1,仮想位置WR1はカメラ71_4に近づき、またこの相対位置情報としてのkL1、kR1が大きくなるにつれて仮想位置WL1,仮想位置WR1はカメラ71_5に近づくことになる。
このため仮想視点画像生成部18において、式(11)に基づいて決定される左眼用視差画像(右眼用視差画像)上の画素mv’の座標(xt,yt)は、仮想位置WL1(仮想位置WR1)がカメラ71_4に近づくにつれて(x1,y1)に近づき、また仮想位置WL1(仮想位置WR1)がカメラ71_5に近づくにつれて(x2,y2)に近づくことになる。
また、式(12)に基づいて決定される左眼用視差画像(右眼用視差画像)上の画素mv’における輝度成分Ptは、仮想位置WL1(仮想位置WR1)がカメラ71_4に近づくにつれてJ11に近づき、また仮想位置WL1(仮想位置WR1)がカメラ71_5に近づくにつれてJ11’に近づくことになる。
得られた左眼用視差画像(右眼用視差画像)は、VcL1(VcR1)に仮想的にカメラを設置した結果得られる画像に相当する。これらを表示制御部79を介して立体視ディスプレイ80へ表示させることにより、推定した左眼位置,右眼位置VcL1,VcR1にカメラを設置した結果得られる画像を左眼用視差画像,右眼用視差画像として出力することができる。
図21は、これら左眼用視差画像(右眼用視差画像)の構成例につき示している。仮に撮影対象5が人物の顔である場合において、カメラ71_4,71_5においてこれを撮影する。かかる場合にカメラ71_4は、撮影範囲の右端付近において捉えた撮影対象5としての人物を撮像し、またカメラ71_5は、撮影範囲の左端付近において捉えた撮影対象5としての人物を、カメラ71_4と異なる視点から撮像することになる。その結果、カメラ71_4により撮像される画像は、図21に示すように右端付近において右側を向いている人物が示されている状態となり、またカメラ71_5により撮像される画像は、左端付近において左側を向いている人物が示されている状態となる。
相対位置情報としてのkが小さい場合(k1の場合)において、仮想位置WL1a(仮想位置WR1a)は、カメラ71_4により近くなる。またこの仮想位置WL1aにつき、上記(11),(12)式から求められる左眼用視差画像(右眼用視差画像)は、カメラ71_4に近い内容となる。
また相対位置情報がk2からk4へと徐々に大きくなるにつれて、仮想位置は、WL1b(仮想位置WR1b)からWL1d(仮想位置WR1d)へと、徐々にカメラ71_5へ近くなる。これに伴って、左眼用視差画像(右眼用視差画像)に示される画像は、右端付近から左端付近へ徐々に移り、また人物が向いている方向も右から左へ徐々に変化することになる。
なお、推定した左眼位置の座標(xaL,yaL,zaL)と、右眼位置の座標(xaR,yaR,zaR)が、ラインLc上に位置していない場合には、構成した左眼用視差画像(右眼用視差画像)の視野を拡大又は縮小することにより位置関係の調整を図るようにしてもよい。
このような立体視を実現する撮像システム1において、視差によるオクリュージョン領域が発生する場合であっても、マッチング部29により精度良く対応付けを行うことができる。このため、立体視ディスプレイ20を視認するユーザの視点位置に支配されることなく、視差のズレを高精度かつスムーズに解消することができ、ユーザに対してより自然な立体画像を常時提供することが可能となる。
また、上述したカメラ中心を結ぶ線上での任意の仮想視点画像生成を利用することにより、視差のズレ等を解消させたホログラム立体写真を作成することも可能となる。
また、本発明を適用した撮像システム1を更に図22に示すようなスポーツ興業等を行うスタジアムに設置してもよいことは勿論である。かかる場合において、グラウンドに上述した光ビーコン61を埋め込み、各カメラ11_1〜11_nにより、実際のプレーを撮影するとともに、これら光ビーコン61からの情報光を受光する。もちろん、グラウンドではなく、例えば、スタジアムの天井に上述した光ビーコン61を埋め込み、図7に示すようなカメラユニットで光ビーコン61からの情報光と選手を同時に撮影することも可能である。これにより、事前に行ったキャリブレーションを基にカメラの位置や倍率等を固定することなく、試合展開にリアルタイムに対応したキャリブレーションを実現することができるため、臨場感のスポーツ中継を実現することが可能となる。
1 撮像システム、2 撮像装置、5 撮影対象、6 パターン、11 カメラ、18 ID画像収録部、20画像補正部、25 ID情報検出部、26 パラメータ推定部、29 マッチング部、30 仮想視点画像生成部、31 出力制御部、33 情報生成部
Claims (15)
- 撮影対象を互いに異なる視点から撮像する少なくとも2以上のカメラにそれぞれ設けられる撮像処理手段と、
上記撮影対象を含む実空間において規則的に配置された既知のパターンからの情報光を上記撮像と同時に受光する受光手段と、
上記各撮像処理手段により撮像された各画像を上記受光手段により受光した情報光に基づいて補正する画像補正手段と、
上記画像補正手段により補正された各画像間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、
仮想的に設置される仮想カメラにおける光学中心の上記各カメラに対する相対的な位置関係を示す相対位置情報を生成する情報生成手段と、
上記マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、上記仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段とを備えること
を特徴とする撮像装置。 - 上記情報光に基づいて、上記各カメラの特性を示す内部パラメータ、及び/又は上記各カメラ間の幾何学的な位置関係を示す外部パラメータを推定するパラメータ推定手段をさらに備え、
上記画像補正手段は、上記パラメータ推定手段において推定された各パラメータに応じた射影変換行列により上記撮像された各画像を仮想的に設定された仮想平面へ射影すること
を特徴とする請求項1記載の撮像装置。 - 上記パラメータ推定手段は、上記情報光に基づいて、上記撮像時に生じる歪み要因を示す歪曲収差パラメータを推定し、
上記画像補正手段は、上記パラメータ推定手段において推定された歪曲収差パラメータに応じて上記各撮像処理手段により撮像された各画像の歪みを除去すること
を特徴とする請求項2記載の撮像装置。 - 上記受光手段は、上記パターンから上記情報光として発せられた赤外光を受光すること
を特徴とする請求項1記載の撮像装置。 - 上記受光手段は、上記パターンに応じた点滅信号が重畳された上記情報光を受光し、
上記画像補正手段は、上記各カメラにより撮像された各画像を、上記情報光に重畳された点滅信号に基づいて補正すること
を特徴とする請求項1記載の撮像装置。 - 上記撮像処理手段と、上記受光手段とは、同一のカメラ内に設けられてなること
を特徴とする請求項1記載の撮像装置。 - 上記カメラユニットは、上記撮影対象を撮像するための撮像光と上記情報光を分離するための分離手段を備えること
を特徴とする請求項6記載の撮像装置。 - 上記撮像処理手段と、上記受光手段とは、同一のセンサとして構成されてなること
を特徴とする請求項6記載の撮像装置。 - 撮影対象を互いに異なる視点から少なくとも2以上の撮像素子を介して撮像する撮像ステップと、
撮影対象を含む実空間において規則的に配置された既知のパターンからの情報光を上記撮像と同時に受光する受光ステップと、
上記撮像ステップにおいて撮像した各画像を上記受光ステップにおいて受光した情報光に基づいて補正する画像補正ステップと、
上記画像補正ステップにより補正した各画像間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチングステップと、
仮想的に設置される仮想カメラにおける光学中心の上記各撮像素子の光学中心に対する相対的な位置関係を示す相対位置情報を生成する情報生成ステップと、
上記マッチングステップにおいて互いに対応付けした画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、上記仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成ステップとを有すること
を特徴とする撮像方法。 - 上記撮像素子を搭載する各カメラの特性を示す内部パラメータ、及び/又は上記各カメラ間の幾何学的な位置関係を示す外部パラメータを、上記情報光に基づいて推定するパラメータ推定ステップをさらに有し、
上記画像補正ステップでは、上記パラメータ推定ステップにおいて推定した各パラメータに応じた射影変換行列により上記撮像された各画像を仮想的に設定された仮想平面へ射影すること
を特徴とする請求項9記載の撮像方法。 - 上記パラメータ推定ステップでは、上記情報光に基づいて、上記撮像時に生じる歪み要因を示す歪曲収差パラメータを推定し、
上記画像補正ステップでは、上記パラメータ推定ステップにおいて推定した歪曲収差パラメータに応じて上記各撮像処理手段により撮像された各画像の歪みを除去すること
を特徴とする請求項10記載の撮像方法。 - 上記受光ステップでは、上記パターンから上記情報光として発せられた赤外光を受光すること
を特徴とする請求項9記載の撮像方法。 - 上記受光ステップでは、上記パターンに応じた点滅信号が重畳された上記情報光を受光し、
上記画像補正ステップでは、上記各撮像素子を介して撮像された各画像を、上記情報光に重畳された点滅信号に基づいて補正すること
を特徴とする請求項9記載の撮像方法。 - 撮影対象を互いに異なる視点から撮像する少なくとも2以上のカメラにそれぞれ設けられる撮像処理手段と、
上記撮影対象を含む実空間において規則的に配置された既知のパターンと、
上記パターンからの情報光を上記撮像と同時に受光する受光手段と、
上記各撮像処理手段により撮像された各画像を上記受光手段により受光した情報光に基づいて補正する画像補正手段と、
上記画像補正手段により補正された各画像間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、
仮想的に設置される仮想カメラにおける光学中心の上記各カメラに対する相対的な位置関係を示す相対位置情報を生成する情報生成手段と、
上記マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、上記仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段とを備えること
を特徴とする撮像システム。 - 上記パターンは、点滅信号を重畳した情報光を発振する光源が規則的に配置されていること
を特徴とする請求項14記載の撮像システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003415740A JP2005174148A (ja) | 2003-12-12 | 2003-12-12 | 撮像装置及び方法、撮像システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003415740A JP2005174148A (ja) | 2003-12-12 | 2003-12-12 | 撮像装置及び方法、撮像システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005174148A true JP2005174148A (ja) | 2005-06-30 |
Family
ID=34735140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003415740A Withdrawn JP2005174148A (ja) | 2003-12-12 | 2003-12-12 | 撮像装置及び方法、撮像システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005174148A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005229369A (ja) * | 2004-02-13 | 2005-08-25 | Hitachi Ltd | マルチカメラシステム |
JP2007156170A (ja) * | 2005-12-06 | 2007-06-21 | Canon Inc | 画像撮影システム |
JP2016009245A (ja) * | 2014-06-23 | 2016-01-18 | 日本電信電話株式会社 | 中間視点画像生成装置 |
US20170293413A1 (en) * | 2016-04-08 | 2017-10-12 | Canon Kabushiki Kaisha | Virtual viewpoint image generation system, virtual viewpoint image generation apparatus, and method of controlling same |
JPWO2018147329A1 (ja) * | 2017-02-10 | 2019-11-21 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 自由視点映像生成方法及び自由視点映像生成システム |
CN111429513A (zh) * | 2020-04-26 | 2020-07-17 | 广西师范大学 | 一种可优化视觉遮挡场景的光场绘制的方法 |
US10922839B2 (en) | 2017-11-07 | 2021-02-16 | Casio Computer Co., Ltd. | Location obtaining system, location obtaining device, location obtaining method, and non-transitory computer-readable recording medium |
WO2023042429A1 (ja) * | 2021-09-14 | 2023-03-23 | 日立Astemo株式会社 | 車載カメラ校正装置、制御装置、およびビーコン付パターン |
-
2003
- 2003-12-12 JP JP2003415740A patent/JP2005174148A/ja not_active Withdrawn
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005229369A (ja) * | 2004-02-13 | 2005-08-25 | Hitachi Ltd | マルチカメラシステム |
JP2007156170A (ja) * | 2005-12-06 | 2007-06-21 | Canon Inc | 画像撮影システム |
JP4667220B2 (ja) * | 2005-12-06 | 2011-04-06 | キヤノン株式会社 | 画像撮影システムおよび撮像装置 |
JP2016009245A (ja) * | 2014-06-23 | 2016-01-18 | 日本電信電話株式会社 | 中間視点画像生成装置 |
US20170293413A1 (en) * | 2016-04-08 | 2017-10-12 | Canon Kabushiki Kaisha | Virtual viewpoint image generation system, virtual viewpoint image generation apparatus, and method of controlling same |
US10666924B2 (en) | 2016-04-08 | 2020-05-26 | Canon Kabushiki Kaisha | Virtual viewpoint image generation system based on captured images, virtual viewpoint image generation apparatus, and method of controlling same |
JPWO2018147329A1 (ja) * | 2017-02-10 | 2019-11-21 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 自由視点映像生成方法及び自由視点映像生成システム |
JP7159057B2 (ja) | 2017-02-10 | 2022-10-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 自由視点映像生成方法及び自由視点映像生成システム |
US10922839B2 (en) | 2017-11-07 | 2021-02-16 | Casio Computer Co., Ltd. | Location obtaining system, location obtaining device, location obtaining method, and non-transitory computer-readable recording medium |
CN111429513A (zh) * | 2020-04-26 | 2020-07-17 | 广西师范大学 | 一种可优化视觉遮挡场景的光场绘制的方法 |
CN111429513B (zh) * | 2020-04-26 | 2022-09-13 | 广西师范大学 | 一种可优化视觉遮挡场景的光场绘制的方法 |
WO2023042429A1 (ja) * | 2021-09-14 | 2023-03-23 | 日立Astemo株式会社 | 車載カメラ校正装置、制御装置、およびビーコン付パターン |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4069855B2 (ja) | 画像処理装置及び方法 | |
KR102417177B1 (ko) | 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이 | |
US8897502B2 (en) | Calibration for stereoscopic capture system | |
JP5414947B2 (ja) | ステレオ撮影装置 | |
US8704881B2 (en) | Stereoscopic image display apparatus | |
JP3728160B2 (ja) | 奥行き画像計測装置及び方法、並びに複合現実感提示システム | |
JP5204350B2 (ja) | 撮影装置、再生装置、および画像処理方法 | |
JP5320524B1 (ja) | ステレオ撮影装置 | |
JP5204349B2 (ja) | 撮影装置、再生装置、および画像処理方法 | |
JPWO2012029298A1 (ja) | 撮影装置および画像処理方法 | |
JP4432462B2 (ja) | 撮像装置及び方法、撮像システム | |
TWI788739B (zh) | 3d顯示設備、3d圖像顯示方法 | |
JP2005174148A (ja) | 撮像装置及び方法、撮像システム | |
JP6768933B2 (ja) | 情報処理装置、情報処理システム、および画像処理方法 | |
JP2000222116A (ja) | 表示画像の位置認識方法とその位置認識装置および仮想画像立体合成装置 | |
JP6257260B2 (ja) | 撮像装置及びその制御方法 | |
KR20110025083A (ko) | 입체 영상 시스템에서 입체 영상 디스플레이 장치 및 방법 | |
JP5088973B2 (ja) | 立体撮像装置およびその撮像方法 | |
JP5689693B2 (ja) | 描画処理装置 | |
CN214756700U (zh) | 3d显示设备 | |
JP2006024141A (ja) | 画像処理装置及び方法、プログラム | |
KR20190065736A (ko) | 3d 이미지를 생성하기 위한 전자 장치 및 방법 | |
JP2006024142A (ja) | 画像処理装置及び方法、プログラム | |
JP2024011041A (ja) | 撮像方法、学習方法、学習データ生成装置、及びデータ構造 | |
JP2021007231A (ja) | 情報処理装置、情報処理システム、および画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070306 |