JP2011165081A - 画像生成方法、画像生成装置、及びプログラム - Google Patents

画像生成方法、画像生成装置、及びプログラム Download PDF

Info

Publication number
JP2011165081A
JP2011165081A JP2010029386A JP2010029386A JP2011165081A JP 2011165081 A JP2011165081 A JP 2011165081A JP 2010029386 A JP2010029386 A JP 2010029386A JP 2010029386 A JP2010029386 A JP 2010029386A JP 2011165081 A JP2011165081 A JP 2011165081A
Authority
JP
Japan
Prior art keywords
image
important part
subject
region
reference viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010029386A
Other languages
English (en)
Other versions
JP5361758B2 (ja
Inventor
Yutaka Kunida
豊 國田
Jin Niigaki
仁 新垣
Ai Isogai
愛 磯貝
Hideaki Kimata
英明 木全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010029386A priority Critical patent/JP5361758B2/ja
Publication of JP2011165081A publication Critical patent/JP2011165081A/ja
Application granted granted Critical
Publication of JP5361758B2 publication Critical patent/JP5361758B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

【課題】計算機リソースを節約しつつ、被写体以外の場所の見栄えを悪くすることなく、適切に画像を生成する。
【解決手段】被写体を複数の視点位置から撮影した元画像中から、被写体の重要部位が撮影されている領域を検出し(ステップS2)、重要部位が撮影されている検出領域と複数の視点位置の幾何的な条件とから空間中重要部位領域を推定し(ステップS3)、空間中重要部位領域が空間中で被写体が存在する被写体存在領域であると想定し、基準視点から見た被写体の中間画像を生成する(ステップS4)。中間画像中から重要部位領域を切り出し画像として切り出す(ステップS5)。元画像からベース画像を選択し(ステップS6)、ベース画像の重要部位が存在する領域に、切り出し画像を合成する(ステップS7)。
【選択図】図2

Description

本発明は、複数の異なる視点位置から被写体を撮影した画像を元に、所望の視点位置にて被写体を撮影したのと同等の画像を生成する画像生成方法、画像生成装置、及びプログラムに関する。
近年,コンピュータグラフィックス(CG)やバーチャルリアリティ(VR)の分野では、カメラが設置された視点位置からだけでなく、利用者が望む視点位置から見た被写体の画像をコンピュータにより生成する技術が盛んに研究されている。これらの技術の代表的なものとして、被写体の形状を推定し、所望の視点位置からレンダリングする幾何ベースの方法と、被写体から飛来する光線を所望の視点位置で再サンプリングする光線ベースの方法とがある。
幾何ベースの方法としては、被写体の幾何形状を推定するために、画像間のステレオ対応を用いる方法(例えば、非特許文献1参照)や、視体積交差法を用いる方法(例えば、非特許文献2参照)などがある。
また、光線ベースの方法としては、光線の強度を位置、方向、時間、波長に対する関数であるplenoptic functionにより記述されることに基づき、その次元を落とし、ある視点位置を与えたときに、そこを通る光線群を再サンプリングするのに適した表現方法として、いくつかの方式が提案されている(例えば、非特許文献3、4参照)。
光線ベースの方法では、一般的に、計算機負荷は小さく、実時間処理が求められるアプリケーションに適している。しかしながら、光線ベースの方法では、被写体が存在すると仮定した面の付近でしか、正しく画像生成できないことが知られている(例えば、非特許文献5、6参照)。
そのため、あらかじめ被写体の位置を、利用者が仮定する必要があるため、利便性が悪く、また、被写体が動いた場合に正しく画像生成できないという欠点があった。そこで、多層の投影面を設定し、被写体が存在すると仮定する範囲を拡げる手法が提案されている(例えば、非特許文献7参照)。
T. Kanade, P. J. Narayanan, and P. W.Rander: "Virtualized Reality: Concepts and Early Results", In Proc. of IEEE Workshop on the Representation of Visual Scenes, pp.69-76 (1995). W. Matusik, C. Buehler, R. Raskar, S. J. Gortler, and L. McMillan: "Image-Based Visual Hulls", In Proc. of SIGGRAPH 2000, pp.369-374 (2000). M. Levoy and P. Hanrahan: "Light Field Rendering" In Proc. of SIGGRAPH ’96, pp. 31-41 (1996). S. J. Gortler, R. Grzeszczuk, R. Szeliski, and M. F. Cohen: "The Lumigraph", In Proc. of SIGGRAPH ’96, pp.43-54 (1996). Y. Kunita, M. Inami, T. Maeda, and S. Tachi: "Realtime Rendering System of Moving Objects", In Proc. of the 1999 IEEE Workshop on Multi-View Modeling & Analysis of Visual Scenes (MVIEW’99), pp.81-88 (1999). J.-X. Chai, X. Tong, S.-C. Chan, and H.-Y. Shum: "Plenoptic Sampling", In Proc. of SIGGRAPH 2000, pp.307-318 (2000). 特許第4052331号(WO2004/114224):仮想視点画像生成方法及び3次元画像表示方法並びに装置
上述したように、光線ベースの方法(非特許文献3、4)では、被写体が存在すると仮定した面の付近でしか、正しく画像生成できないため、あらかじめ被写体の位置を、利用者が仮定する必要があるので、利便性が悪く、また、被写体が動いた場合に正しく画像生成できないという問題があった。
また、上述した従来技術(非特許文献7)においても、利用者が多層の投影面の位置を決定する必要があった。そして、被写体が動く範囲を、多層の投影面でカバーしきれていない場合、適切に画像生成ができないという問題があった。
また、例え、多層の投影面が被写体をカバーしたとしても、投影面の数が多すぎると、メモリなどの計算機リソースを多く消費し、また、必要以上に多層の投影面の範囲が広いと、生成画像の劣化を招いていた。また、多層投影面がカバーできていない被写体以外の場所には、多重像などが生じ、生成画像の見た目を悪くしてしまうという問題があった。
本発明は、このような事情を考慮してなされたものであり、その目的は、被写体の存在する場所が未知であっても、計算機リソースを節約しつつ、被写体以外の場所の見栄えを悪くすることなく、適切に画像を生成することができる画像生成方法、画像生成装置、及びプログラムを提供することにある。
上述した課題を解決するために、本発明は、被写体を複数の撮影手段による視点位置から撮影した元画像に基づいて、所望の基準視点から被写体を見た画像を生成する画像生成方法であって、前記元画像中から、被写体のうち特に重要と定められた重要部位が撮影されている領域を検出する第1のステップと、前記重要部位が撮影されている検出領域と前記複数の撮影手段の幾何的な条件とから、被写体の存在する空間中で重要部位が存在する空間中重要部位領域を推定する第2のステップと、前記空間中重要部位領域が空間中で被写体が存在する被写体存在領域であると想定し、前記元画像の色または輝度情報に基づいて、前記被写体存在領域中の小領域毎の色または輝度を決定して基準視点から見た写像を得ることで、前記基準視点から見た被写体の中間画像を生成する第3のステップと、前記中間画像中において重要部位が存在する重要部位領域を特定し、当該重要部位領域を切り出し画像として切り出す第4のステップと、前記複数の撮影手段により撮影された元画像のうちの1つをベース画像として選択する第5のステップと、前記ベース画像のうち、重要部位が存在する領域に、前記切り出し画像を合成して最終的な生成画像を生成する第6のステップとを含むことを特徴とする画像生成方法である。
本発明は、上記の発明において、前記第5のステップは、前記複数の撮影手段により撮影された元画像のうちの1つをベース画像として選択する第7のステップと、前記選択したベース画像に前記基準視点から見た射影変換を施す第8のステップとを含み、前記射影変換後の画像を前記ベース画像として用いることを特徴とする。
本発明は、上記の発明において、前記第3のステップは、前記被写体存在領域にまたがって配列された多層の投影面を仮定し、当該多層投影面中の各画素の色または輝度、及び存在確率を推定し、前記基準視点を通る直線と前記多層投影面との交点の色を、前記存在確率に応じた重みを付けて加算することで前記基準視点から見た被写体の中間画像を生成する、ことを特徴とする。
また、上述した課題を解決するために、本発明は、被写体を複数の撮影手段による視点位置から撮影した元画像に基づいて、所望の基準視点から被写体を見た画像を生成する画像生成装置であって、前記元画像中から、被写体のうち特に重要と定められた重要部位が撮影されている領域を検出する重要部位検出手段と、前記重要部位検出手段により検出された重要部位が撮影されている検出領域と前記複数の撮影手段の幾何的な条件とから、被写体の存在する空間中で重要部位が存在する空間中重要部位領域を推定する重要部位位置推定手段と、前記重要部位位置推定手段により推定された空間中重要部位領域が空間中で被写体が存在する被写体存在領域であると想定し、前記元画像の色または輝度情報に基づいて、前記被写体存在領域中の小領域毎の色または輝度を決定して基準視点から見た写像を得ることで、前記基準視点から見た被写体の中間画像を生成する中間画像生成手段と、前記中間画像生成手段により生成された中間画像中において重要部位が存在する重要部位領域を特定し、当該重要部位領域を切り出し画像として切り出す重要部位切り出し手段と、前記複数の撮影手段により撮影された元画像のうちの1つをベース画像として選択するベース画像選択手段と、前記ベース画像選択手段により選択されたベース画像のうち、重要部位が存在する領域に、前記重要部位切り出し手段により切り出した切り出し画像を合成して最終的な生成画像を生成する合成手段とを含むことを特徴とする画像生成装置である。
本発明は、上記の発明において、前記ベース画像選択手段は、前記複数の撮影手段により撮影された元画像のうちの1つをベース画像として選択し、当該選択したベース画像に前記基準視点から見た射影変換を施し、当該射影変換後の画像を前記ベース画像として用いることを特徴とする。
本発明は、上記の発明において、前記中間画像生成手段は、前記被写体存在領域にまたがって配列された多層の投影面を決定する投影面決定手段と、前記投影面決定手段により決定された多層投影面中の各画素の色または輝度、及び存在確率を推定する色/輝度情報推定手段と、前記基準視点を通る直線と前記多層投影面との交点の色を、前記色/輝度情報推定手段により推定された存在確率に応じた重みを付けて加算することで前記基準視点から見た被写体の中間画像を生成する中間画像レンダリング手段とからなることを特徴とする。
本発明は、上記の発明において、前記複数の撮影手段は、前記表示手段の表示面の外側に配置されており、前記複数の撮影手段により元画像を撮影し、同一の装置もしくは同様の構成の他の装置における表示手段に、前記基準視点から画像を表示することを特徴とする。
本発明は、上記の発明において、前記複数の撮影手段は、前記表示手段の表示面の外側に配置された1つ以上の外側撮影手段と、前記表示手段の内側に配置された少なくとも1つの内側撮影手段とを備え、前記中間画像生成手段は、前記外側撮影手段により撮影された元画像から、前記基準視点からの中間画像を生成し、前記ベース画像選択手段は、前記内側撮影手段により撮影された元画像をベース画像として選択し、前記合成手段は、前記中間画像生成手段により生成された中間画像と前記ベース画像選択手段により選択されたベース画像とを合成する、ことを特徴とする。
本発明は、上記の発明において、前記複数の撮影手段は、前記表示手段の表示面の外側に配置された1つ以上の外側撮影手段と、前記表示手段の背面に配置された少なくとも1つの背面撮影手段とを備え、前記中間画像生成手段は、前記外側撮影手段により撮影された元画像から、前記基準視点からの中間画像を生成し、前記ベース画像選択手段は、前記背面撮影手段により撮影された元画像をベース画像として選択し、前記合成手段は、前記中間画像生成手段により生成された中間画像と前記ベース画像選択手段により選択されたベース画像とを合成する、ことを特徴とする。
また、上述した課題を解決するために、本発明は、被写体を複数の視点位置から撮影した元画像に基づいて、所望の基準視点から被写体を見た画像を生成する画像生成装置のコンピュータに、前記元画像中から、被写体のうち特に重要と定められた重要部位が撮影されている領域を検出する重要部位検出機能、前記重要部位が撮影されている検出領域と前記複数の撮影手段の幾何的な条件とから、被写体の存在する空間中で重要部位が存在する空間中重要部位領域を推定する重要部位位置推定機能、前記空間中重要部位領域が空間中で被写体が存在する被写体存在領域であると想定し、前記元画像の色または輝度情報に基づいて、前記被写体存在領域中の小領域毎の色または輝度を決定して基準視点から見た写像を得ることで、前記基準視点から見た被写体の中間画像を生成する基準視点画像生成機能、前記中間画像中において重要部位が存在する重要部位領域を特定し、当該重要部位領域を切り出し画像として切り出す重要部位切り出し機能、前記複数の撮影手段により撮影された元画像のうちの1つをベース画像として選択するベース画像選択機能、前記ベース画像のうち、重要部位が存在する領域に、前記切り出し画像を合成して最終的な生成画像を生成する合成機能、を実行させることを特徴とするプログラムである。
この発明によれば、複数の異なる視点位置から被写体を撮影した画像を元に、所望の視点位置にて被写体を撮影したのと同等の画像を生成する場合に、被写体の存在する場所が未知であっても、計算機リソースを節約しつつ、被写体以外の場所の見栄えを悪くすることなく、適切に画像を生成することができる。
本発明の第1実施形態による画像生成方法での被写体とカメラとの位置関係を示す概念図である。 本第1実施形態による画像生成方法の動作を説明するためのフローチャートである。 本第1実施形態において、カメラ毎の重要部位とそれを投影面に投影し、論理積をとった様子を示す概念図である。 本第1実施形態において、重要部位の位置の推定例を示す概念図である。 本第1実施形態において、色のブレンディングに用いる角度情報の一例を示す概念図である。 本第2実施形態による画像生成方法の動作を説明するためのフローチャートである。 本第3実施形態による代表的な画像生成装置の構成を示す機能ブロック図である。 本第4実施形態による、カメラの配置例を示す模式図である。 本第5実施形態による、カメラの配置例を示す模式図である。 本第6実施形態による、カメラの配置例を示す模式図である。
以下、本発明の一実施形態を、図面を参照して説明する。
本発明は、画像から被写体の中の重要部位をあらかじめ検出し、重要部位が存在する3次元領域のみ、指定された任意の視点からの画像を作成し、この作成した画像を、あらかじめ準備したベース画像(あるいは、撮影した画像の中の1つ)の中で重要部位が映り込む位置に嵌め込むことにより、重要部分については、指定した視点で画像を生成するため、指定した任意の視点で忠実に描画が可能になり、また、重要部分以外は、画像生成を行わないため、計算量を抑えることができるとともに、合成による多重像や画像劣化を防止できるという特徴がある。以下、詳細に説明する。
A.第1実施形態
図1は、本発明の第1実施形態による画像生成方法での被写体とカメラとの位置関係を示す概念図である。ここで、カメラの集合を{C|i∈N}、カメラCにより撮影された元画像をI(m)とおく(mは行列)。m≡[u,v]は、画像座標系であり、画像の画素の位置を表している。また、以下では、次式(1)のように、チルダ記号(〜)を付けた場合には、拡張ベクトルを示すものとする。
Figure 2011165081
また、コンピュータビジョンの分野でよく用いられるように、焦点距離や画像中心、画素サイズなどのカメラ固有の情報を含む3×3の行列(内部行列)をAとおき、世界座標系からカメラのローカル座標系への回転行列、及び並進ベクトルをRi←W,ti←Wとおく。
したがって、世界座標系の3次元の点からカメラの画像座標上の2次元の点への射影変換は、次式(2)で示す行列の式で表すことができる。
Figure 2011165081
ここで、本発明における目的は、複数のカメラ映像{I(m)|i∈N}に基づいて、図1に示す基準視点Vから見た画像I(m)を推定して生成することである。また、ここでは、各カメラの内部行列、及び外部行列は、何らかのキャリブレーション手段により求められているものとする。キャリブレーション方法の代表的なものとしては、例えば、「Tsaiの方法」や「Zhangの方法」を用いることができる。
図2は、本第1実施形態による画像生成方法の動作を説明するためのフローチャートである。まず、複数の視点位置から被写体を撮影した画像(元画像:複数)を得る(ステップS1)。次に、元画像中から、被写体のうち、特に重要と定められた部位(重要部位)を検出する(ステップS2)。
その方法としては、テンプレートマッチングやパターンマッチングと呼ばれるように、重要部位の濃淡パターンと照合する方法、また、重要部位が特定の色分布を持つ場合に色で判断する方法、あらかじめ重要部位を含まない画像を背景として撮影しておき、重要部位を含んだ画像との差分をとる方法などがある。
また、元画像を撮影するカメラとは別に、例えば、赤外線イメージを撮影可能な装置を用いて、画像中で熱を持つ領域を重要部位として検出することができる。
以下、説明のため、元画像I(m)の重要部位が存在する領域をΓ(m)にて表し、Γ(m)=1なる画像座標では、被写体が存在し、Γ(m)=0なる画像座標では、被写体が存在しないものとする。
次に、ステップ2の検出領域と撮影時のカメラの幾何的な条件とから、被写体の存在する空間中で重要部位が存在する領域を推定する(ステップS3)。例えば、次のような方法がある。
まず、被写体の空間中に投影面を想定し、これをスクリーンと見立てて前後に走査しつつ、元画像中の重要部位Γ(m)を投影していく。元画像の撮影位置を中心として、撮影時と同じ画角で検出領域を投影し、これを基準視点から見ると、射影変換となり、ホモグラフィと呼ばれる行列により対応付けられる。すなわち、カメラCの画像I(m)上の点mから、投影面Lを介して基準カメラCの画像I(m)上の点mへの写像は、次式(3)、(4)により表される。
Figure 2011165081
Figure 2011165081
但し、基準カメラCの座標系において、投影面Lの正規ベクトルをn、原点からの距離をdで表している。また、RV←i,tV←iは、カメラCの座標系における点Xを、基準カメラCの座標系における点Xに変換し、X=RV←i+tV←iなる関係がある。
投影面LにΓ(m)を投影し、基準視点から見たものを次式(5)とおくと、次式(6)で表される、全てのカメラによる論理積が「1」となるmを持つとき、その投影面上に重要部位が存在する可能性がある。
Figure 2011165081
Figure 2011165081
投影面を手前から奥に(あるいは、その逆に奥から手前に)走査していき、そのような投影面群{L}の範囲が、重要部位が存在する領域として推定できる。ここで、多層の投影面Lの走査間隔は、基準視点から見たときに、各カメラから投影された点が1画素以内で移動する間隔にすることが1つの目安となる。
図3は、本第1実施形態において、カメラ毎の重要部位とそれを投影面に投影し、論理積をとった様子を示す概念図である。上記の例では、投影面の決定のために、元画像中の被写体の領域を投影面に射影変換する手法を用いたが、画像の射影変換処理は、計算機の負荷が高い。また、投影面を走査する区間は、あらかじめ設定する必要があり、それ以外の区間にある被写体は、検出できない。
そこで、カメラの視点と検出された重要部位の中心点とを通る直線の交点として、重要部位の位置を求め、その点を含む投影面を設定する方法を示す。
図4は、本第1実施形態において、重要部位の位置の推定例を示す概念図である。図4に示すように、世界座標上における重要部位のある点Pが、複数のカメラ{C|i∈N}により画像座標上で、次式(7)で表される位置Qに写像されたとする。
Figure 2011165081
点Pが未知で、数式(7)が既知のとき、カメラ中心と像を結ぶ直線Cの集合{l|i∈N}の交点として点Pの位置を求めることができる。
しかし、実際の状況においては、撮影時の雑音や量子化誤差、パラメータの推定誤差を含むため、一般に{l|i∈N}は、1点で交わることがない。そこで、直線lとの距離の2乗和が最小となる点として、P:X=[X,Y,Zを求めることにする。
カメラCiにおける投影の数は、数式(2)の通り、次式(8)と表される。
Figure 2011165081
世界座標系で表される点X=[X,Y,ZがカメラCにより撮影され、画像座標系の斉次座標で、数式(9)で表される位置に写像される。
Figure 2011165081
逆に、画像上の点、チルダ(〜)mが与えられたとき、数式(8)をX=[X,Y,Zについて解くと、次式(10)で表される。
Figure 2011165081
これが、すなわち、直線liの式である。このとき、−Ri←W −1i←Wは、世界座標系におけるカメラCの投影中心であり、直線は、必ず、この点を通る。また、Ri←W −1 −1[u,v,1]は、直線の向きを表すベクトルであり、sは、媒介変数である。
以下,表現の簡略化のため数式(10)を、次式(11)とおく。
Figure 2011165081
sは媒介変数であり、X=[X,Y,Z],a=[a,b,c,X=[X,Y,Zである。このとき、点Pと直線lとの距離を、Dとおくと、次式(12)となる。
Figure 2011165081
以下、評価関数を点Pと各直線lとの距離の2乗和として、次式(13)とおき、これが最小となる点としてPを求める。
Figure 2011165081
Jが最小となるのは、次式(14)となるときである。
Figure 2011165081
まず、XPによる偏微分を計算すると、次式(15)となる。
Figure 2011165081
ここで、次式(16)、また、次式(17)より、数式(18)となる。
Figure 2011165081
Figure 2011165081
Figure 2011165081
そこで、数式(16)、(18)に、数式(15)を代入し、数式(19)を得る。
Figure 2011165081
同様にして、Y,Zの偏微分についても計算すると、次式(20)、(21)のようになる。
Figure 2011165081
Figure 2011165081
数式(19)、(20)、(21)を代入すると、数式(14)は、X=[X,Y,Zの1次形式で表すことができ、数式(22)となる。
Figure 2011165081
これをXについて解くことにより、点Pの座標を求めることができる。この点Pが重要部位の中心的な位置となる。こうして、重要部位の中心的な位置を求めた後、その点を含むように投影面を設定することができる。そして、基準視点から見た画像を生成する(ステップS4)。その際、ステップ3で推定した被写体の重要部位のおよその位置を用いる。その方法としては、例えば、以下のような方法がある。
<単一投影面による方法>
1つの投影面を仮定して、カメラで撮影した画像を投影し、それらを混色することで基準視点から見た画像を生成する方法である。
投影面の決定方法として、次式(23)となる面積が最大となる投影面Lを採用することができる。
Figure 2011165081
また、数式(22)により求めた、およその位置を通る投影面とすることができる。このように決定した投影面に対し、全ての元画像を投影し、基準視点から見た、次式(24)で表される画像を、次式(25)のように求める。
Figure 2011165081
Figure 2011165081
これを混色して、次式(26)ように基準視点から見た画像を得る。
Figure 2011165081
次式(27)で表される、混色の重み関数は、単純に{C|i∈N}の数Num(N)により平均をとり、数式(28)で表す定数に設定してもよいし、カメラの視点と着目する点と基準視点とによりなす角度に依存して決定することもできる。
Figure 2011165081
Figure 2011165081
ここで、図5は、本第1実施形態において、色のブレンディングに用いる角度情報の一例を示す概念図である。例えば、図5に示すように基準視点V、基準視点の画像座標mにおける投影面Lの点、カメラCの視点のなす角を、次式(29)とおいて、次式(30)のようにすることができる。
Figure 2011165081
Figure 2011165081
ここで、normは、次式(31)のような正規化演算を行うものとする。
Figure 2011165081
<デプスマップによる方法>
また、平板な投影面を用いる代わりに、被写体の形状を推定し、その形状に応じた凹凸のある面を、CGで用いられるポリゴンで描画することにより、基準視点から見た画像を生成する方法を用いることができる。このような被写体形状を反映した凹凸面を推定する方法は、いくつかあるが、例えば、画像間の相関を利用し、三角測量の原理により、距離を求めるステレオマッチングと呼ばれる方法がある。
そのうち、Plane Sweep と呼ばれる方法を例にとると、投影面を奥行き方向に走査しつつ、そこに複数のカメラからの画像を写像し、投影面上の各画素で画像間の色、もしくは輝度の相関をとる。
すなわち、基準視点の画像面に平行で距離dにある投影面へのカメラCの画像I(m)の写像を数式(25)により求めると、次式(32)、(33)により画像の分散値V(m)を求めることができる。そして、mの画素毎に、この分散値が最小となる位置として、被写体表面の奥行き情報を求めることができる。
Figure 2011165081
Figure 2011165081
色については、1枚の平坦な投影面を用いた場合と同様、着目する画素の奥行きに相当する各カメラの画像の画素の色を混色することで決定することができる。
<多層投影面による方法>
また、別の方法として、多層の投影面を仮定し、多層投影面中の各画素の色または輝度、及び存在確率を推定し、基準視点を通る直線と多層投影面の交点との色を、存在確率に応じた重みを付けて加算することで基準視点から見た画像を得る方法もある。多層投影面の範囲は、重要部位が存在する範囲に設定する。
例えば、既に述べた通り、数式(6)が数式(34)となるmを持つ投影面群{L}の範囲が、重要部位が存在する領域として推定できる。
Figure 2011165081
また、重要部位の大きさが想定できる場合には、数式(22)により、重要部位の中心を求めておき、その前後に投影面を設定することができる。このようにして、多層の投影面{L|j∈M}を決定したのち、投影面上での被写体の存在確率を求める。
存在確率の推定方法として、例えば、数式(33)の分散値を元に、次式(35)のように求めることができる。但し、normは正規化を示す。
Figure 2011165081
このような数式(35)で示す存在確率と、数式(25)、(30)の基準視点から見た画像、混色の重み関数を用いて、次式(36)のように、基準視点から見た中間画像を得ることができる。
Figure 2011165081
図2の説明を戻すと、次に、中間画像中において重要部位が存在する領域を特定し、その領域を切り出した画像(切り出し画像)を得る(ステップS5)。領域の特定方法としては、元画像中で重要部位が存在する領域を投影面に射影し、その論理積をとった、数式(37)を用いる方法がある。また,論理積以外にも論理和をとるなど,特定の演算に限定されるものではない。
Figure 2011165081
また、新たに中間画像中からパターンマッチングにより重要部位を検出してもよい。
次に、元画像のうちの1つをベース画像として選択する(ステップS6)。利用者により選択されてもよいし、あらかじめ設計者により設定されていてもよい。
そして、ベース画像のうち、重要部位が存在する領域に切り出し画像を合成する(ステップS7)。ベース画像中の重要部位は、ステップ5で選択されている。ここに切り出し画像を合成する。その際、切り出し画像とベース画像との境界を目立たなくするために、サイズの調整や変形を行ってもよいし、境界付近の色をブレンドしてもよい。
B.第2実施形態
次に、本発明の第2実施形態について説明する。
図6は、本第2実施形態による画像生成方法の動作を説明するためのフローチャートである。なお、図2に対応する部分には同一の符号を付けて説明を省略する。図2との違いは、ステップ6が、元画像のうちの1つをベース画像として選択するサブステップS6aと、選択したベース画像に基準位置から見た射影変換を施すサブステップS6bとから構成される点にある。射影変換に用いる投影面は、被写体の重要領域がある付近に設定するのがよい。
このような投影面の位置の求め方として、例えば、数式(6)で全てのカメラによる論理積が「1」となる面積が最大となる投影面を用いることができる。もしくは、数式(22)で求められる光線の交点を通る投影面を用いることができる。
C.第3実施形態
次に、本発明の第3実施形態について説明する。
図7は、本第3実施形態による代表的な画像生成装置の構成を示す機能ブロック図である。図7において、視点位置入力手段1は、視点位置を入力する。被写体撮影手段2は、複数の視点位置から被写体を撮影する。基準視点決定手段3は、基準視点を決定する。被写体画像(元画像)取得手段4は、撮影された被写体から、画像(元画像:複数)を取得する。
元画像中重要部位検出手段5は、元画像中から、被写体のうち、特に重要と定められた部位(重要部位)を検出する。3次元空間中重要部位検出手段6は、検出された重要部位と撮影時のカメラの幾何的な条件(基準視点)とから、被写体の存在する3次元空間中で重要部位が存在する領域を推定する。
中間画像生成手段7は、投影面決定手段8、テクスチャ配列確保手段9、色/輝度情報決定手段10及び中間画像レンダリング手段11からなる。投影面決定手段8は、元画像中で重要部位が存在する領域を射影する投影面を決定する。テクスチャ配列確保手段9は、投影面へのテクスチャマッピングを行うためのテクスチャ配列を確保する。色/輝度情報決定手段10は、元画像の色または輝度情報に基づいて、被写体の存在する3次元空間中で重要部位が存在する領域の色、もしくは輝度を決定する。
中間画像レンダリング手段11は、中間画像に対して、決定された色または輝度によりレンダリングする。画像切り出し手段12は、中間画像中において重要部位が存在する領域を特定し、その領域を切り出した画像(切り出し画像)を取得する。
ベース画像選択手段13は、元画像のうちの1つをベース画像として選択する。画像合成手段14は、ベース画像のうち、重要部位が存在する領域に切り出し画像を合成する。生成画像出力手段15は、合成した画像を生成画像として出力する。画像表示手段16は、最終的に出力される生成画像を表示する。
なお、本第3実施形態では、中間画像の生成方法として、投影面へのテクスチャマッピングを用いる方法を示しているが、本発明はその限りではない。
D.第4実施形態
次に、本発明の第4実施形態について説明する。
図8は、本第4実施形態による、カメラの配置例を示す模式図である。図8に示すように、本発明の画像生成装置がネットワーク22を介して接続されている。本第4実施形態では、図示するように、ディスプレイ20の周囲に複数のカメラ21a〜21dを配置し、ディスプレイ23の周囲に複数のカメラ24a〜24dを配置している。同一装置のディスプレイ20a、20bに、本発明の方法により画像生成した人物像の鏡像を映すことで、電子的な鏡を実現することができる。このようにして実現した鏡は、視点の移動が可能であるため、例えば、横顔や上向き、下向きの顔など、様々な方向から利用者自身の姿を観察することが可能となる。また、通信経路を介した2つ以上の同種の端末を使用し、遠隔地の利用者同士を正面から観た映像を交換することで、視線一致が可能なテレビ電話を実現することができる。
E.第5実施形態
次に、本発明の第5実施形態について説明する。
図9は、本第5実施形態による、カメラの配置例を示す模式図である。本第5実施形態では、図示するように、ディスプレイ30の外周、及び内部に複数のカメラ31a〜31gを配置している。外周のカメラ31a〜31dは、高品位な映像を取得可能な大型のカメラであり、内部のカメラ32a〜32cは、映像品質は低いが小型である。このように、ディスプレイ30内部に配置したカメラ32a〜32cを小型にすることで、表示面を大きく遮蔽しない。また、表示面の内部にあるため、観察者の比較的正面から映像を撮影できる。
一方で、外周のカメラ31a〜31dは、大きさを気にすることなく、高品位なものを使うことで、解像度の高い映像を取得することが可能である。ゆえに、周囲の高品位なカメラ31a〜31dで顔の表情を合成し、比較的正面から撮影した小型のカメラ32a〜32cの映像に合成し、表情などの重要な部位の品質を補いつつ、正面から見た映像を生成することができる。
ここで、正面から見た映像と記述したが、必ずしも利用者の真正面からでなく、ディスプレイ30の内部、もしくは外部の任意の位置から見た映像が合成できることは言うまでもない。例えば、利用者の頭部の位置を検出することで、その位置を基準視点として用いることができる。頭部位置の検出は、利用者の顔を重要部位として数式(22)の方法で求めることもできるし、超音波や磁気や光を用いた他の位置検出センサを用いることもできる。また、ここでは、一例として、被写体を人物として説明したが、被写体は人物に限定するものでもない。
F.第6実施形態
次に、本発明の第6実施形態について説明する。
図10は、本第6実施形態による、カメラの配置例を示す模式図である。本第6実施形態では、図示するように、透過ディスプレイ40の背面、及びその外周に複数のカメラ41、42a〜42dを配置している。透過ディスプレイ40とは、表示面が透過、もしくは半透過なディスプレイであり、ホログラフィックスクリーンに斜め方向から映像を投影したり、また、透明電極を用いた有機発光ディスプレイなどでも実現できる。
透過ディスプレイ40の背面にあるカメラ41は、比較的正面から利用者を撮影可能である。しかし、透過ディスプレイ40を介して撮影しているため、その映像は、ボケなどの画像の劣化が生じる。一方、表示面の外周に配置したカメラ42a〜42dは、遮蔽物がないので、高品位な映像を取得可能であるが、撮影できる方向が斜め方向からとなってしまう。
そこで、背面から撮影した劣化があるものの、比較的正面のカメラ41からの映像をベース画像として、そこに周囲のカメラ42a〜42dで生成した中間画像を合成することで、表情などの重要な部位の品質を補いつつ、正面から見た映像を生成できる。
また、重要でない背景などは、ボケる(劣化する)ために、重要な部位が引き立つという副次的な効果も生じる。
ここで、正面から見た映像と記述したが、必ずしも利用者の真正面からでなく、ディスプレイの内部、もしくは外部の任意の位置から見た映像が合成できることは言うまでもない。また、ここでは、一例として、被写体を人物として説明したが、被写体は人物に限定するものでもない。
上述した第1から第6実施形態によれば、被写体中の特に重要な部位がある奥行き範囲を限定することで、中間画像では、重要部位を良好に、かつ計算機負荷をかけずに描画することができる。さらに、奥行き範囲にない被写体に関しては、ある1つの元画像をベース画像として用いることにより、そもそも多重像を生じない。その両者を嵌め込み合成をすることで、忠実に描画されている重要部位と、忠実ではないものの多重像や劣化のないその他の部位とを共存させ、1つの画像として得ることができる。
また、ベース画像中と中間画像中とで重要部位が存在する場所が一致し、ベース画像と切り出し画像との合成時の位置合わせが容易となり、また、両者のテクスチャ(模様)の連続性が増し、繋ぎ目が目立ち難くすることができる。
また、被写体の重要部位が存在する範囲を投影面がカバーされ、重要部位の中間画像が再現できる範囲を広くすることができる。また、投影面上で推定した存在確率に応じた明瞭さで重要部位を描画するため、テクスチャが一様である場合やノイズを含む場合など、推定の困難な場合でも、目立った画像の損傷のない中間画像の生成が可能となり、画質が向上させることができる。
また、ディスプレイの表示面の外側に複数のカメラを配置し、当該カメラにより元画像を撮影し、同一の装置、もしくは同様の構成の他の装置における映像ディスプレイに基準視点から画像を表示することで、ディスプレイの内部や背後や手前にカメラを置いて撮影したかのような映像を取得しつつ、ディスプレイを遮蔽することなく、そのような映像を提示することができる。例えば、利用者がディスプレイを見た場合に、周囲のカメラでは、視線の合っていない画像が撮影されるが、これらの画像を用いて、実際にはディスプレイがあるために置けない位置から撮影したかのような視線の合った画像を合成することができる。
また、透過スクリーン、もしくはディスプレイの表示面の外側、及び内側にカメラを配置し、外側のカメラを含む元画像により基準視点からの中間画像を生成し、内側のカメラの1つをベース画像として選択し、両者を合成することにより、背景部分は、所望の視点位置からのずれが少なく、重要部位は高精細な、ディスプレイの内部や背後や手前の所望の視点から見たかのような高画質な画像を取得することができる。
すなわち、一般に、サイズの大きなカメラほど、受光面積の大きな素子と大口径の明るいレンズとを用いるため、高画質な画像を取得することができるが、サイズが大きいことにより、表示面の手前に置くと、表示面を大きく遮蔽してしまい、表示面の内部にある所望の視点位置からは大きく外れた映像しか取得できない。本発明では、外側に配置するカメラは、表示面を遮蔽することはなく、大型の高品位のものを用いて重要な部位を生成し、内部に配置するカメラを小型のものにして遮蔽を少なくし、かつ所望の視点に近い背景画像を合成することができる。
また、透過スクリーン、もしくはディスプレイの表示面の外側、及び背面にカメラを配置し、外側のカメラを含む元画像により基準視点からの画像を生成し、背面のカメラの1つをベース画像として選択し、両者を合成することにより、背景部分は、所望の視点位置からのずれが少なく、重要部位は高精細な、ディスプレイの内部や背後や手前の所望の視点から見たかのような映像を得ることができる。
すなわち、透過スクリーン、もしくはディスプレイの背面から撮影した場合、ボケや表示画像の映り込みが生じてしまうが、重要な部位は、周辺に配置したカメラを用いて生成することにより明瞭な画像が描画できる。一方、重要でない部位に関しては、背面に配置したカメラで撮影した画像をベース画像としてそのまま用いることで、画像生成に伴う目障りな多重像や雑音は生じず、自然なボケが生じた画像となるため、全体として違和感のある画像とはならない。
なお、上述した第1から第6実施形態において、画像生成方法での各ステップは、その機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、その機能を実現するようにしてもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
1 視点位置入力手段
2 被写体撮影手段
3 基準視点決定手段
4 被写体画像(元画像)取得手段
5 元画像中重要部位検出手段
6 3次元空間中重要部位検出手段
7 中間画像生成手段
8 投影面決定手段
9 テクスチャ配列確保手段
10 色/輝度情報決定手段
11 中間画像レンダリング手段
12 画像切り出し手段
13 ベース画像選択手段
14 画像合成手段
15 生成画像出力手段
16 画像表示手段
20、23、30、40 ディスプレイ
21a〜21d、24a〜24d、31a〜31d、32a〜32c、41、42a〜42d、 カメラ

Claims (10)

  1. 被写体を複数の撮影手段による視点位置から撮影した元画像に基づいて、所望の基準視点から被写体を見た画像を生成する画像生成方法であって、
    前記元画像中から、被写体のうち特に重要と定められた重要部位が撮影されている領域を検出する第1のステップと、
    前記重要部位が撮影されている検出領域と前記複数の撮影手段の幾何的な条件とから、被写体の存在する空間中で重要部位が存在する空間中重要部位領域を推定する第2のステップと、
    前記空間中重要部位領域が空間中で被写体が存在する被写体存在領域であると想定し、前記元画像の色または輝度情報に基づいて、前記被写体存在領域中の小領域毎の色または輝度を決定して基準視点から見た写像を得ることで、前記基準視点から見た被写体の中間画像を生成する第3のステップと、
    前記中間画像中において重要部位が存在する重要部位領域を特定し、当該重要部位領域を切り出し画像として切り出す第4のステップと、
    前記複数の撮影手段により撮影された元画像のうちの1つをベース画像として選択する第5のステップと、
    前記ベース画像のうち、重要部位が存在する領域に、前記切り出し画像を合成して最終的な生成画像を生成する第6のステップと
    を含むことを特徴とする画像生成方法。
  2. 前記第5のステップは、
    前記複数の撮影手段により撮影された元画像のうちの1つをベース画像として選択する第7のステップと、
    前記選択したベース画像に前記基準視点から見た射影変換を施す第8のステップと
    を含み、
    前記射影変換後の画像を前記ベース画像として用いることを特徴とする請求項1に記載の画像生成方法。
  3. 前記第3のステップは、
    前記被写体存在領域にまたがって配列された多層の投影面を仮定し、
    当該多層投影面中の各画素の色または輝度、及び存在確率を推定し、
    前記基準視点を通る直線と前記多層投影面との交点の色を、前記存在確率に応じた重みを付けて加算することで前記基準視点から見た被写体の中間画像を生成する、
    ことを特徴とする請求項1に記載の画像生成方法。
  4. 被写体を複数の撮影手段による視点位置から撮影した元画像に基づいて、所望の基準視点から被写体を見た画像を生成する画像生成装置であって、
    前記元画像中から、被写体のうち特に重要と定められた重要部位が撮影されている領域を検出する重要部位検出手段と、
    前記重要部位検出手段により検出された重要部位が撮影されている検出領域と前記複数の撮影手段の幾何的な条件とから、被写体の存在する空間中で重要部位が存在する空間中重要部位領域を推定する重要部位位置推定手段と、
    前記重要部位位置推定手段により推定された空間中重要部位領域が空間中で被写体が存在する被写体存在領域であると想定し、前記元画像の色または輝度情報に基づいて、前記被写体存在領域中の小領域毎の色または輝度を決定して基準視点から見た写像を得ることで、前記基準視点から見た被写体の中間画像を生成する中間画像生成手段と、
    前記中間画像生成手段により生成された中間画像中において重要部位が存在する重要部位領域を特定し、当該重要部位領域を切り出し画像として切り出す重要部位切り出し手段と、
    前記複数の撮影手段により撮影された元画像のうちの1つをベース画像として選択するベース画像選択手段と、
    前記ベース画像選択手段により選択されたベース画像のうち、重要部位が存在する領域に、前記重要部位切り出し手段により切り出した切り出し画像を合成して最終的な生成画像を生成する合成手段と
    を含むことを特徴とする画像生成装置。
  5. 前記ベース画像選択手段は、
    前記複数の撮影手段により撮影された元画像のうちの1つをベース画像として選択し、当該選択したベース画像に前記基準視点から見た射影変換を施し、当該射影変換後の画像を前記ベース画像として用いることを特徴とする請求項4に記載の画像生成装置。
  6. 前記中間画像生成手段は、
    前記被写体存在領域にまたがって配列された多層の投影面を決定する投影面決定手段と、
    前記投影面決定手段により決定された多層投影面中の各画素の色または輝度、及び存在確率を推定する色/輝度情報推定手段と、
    前記基準視点を通る直線と前記多層投影面との交点の色を、前記色/輝度情報推定手段により推定された存在確率に応じた重みを付けて加算することで前記基準視点から見た被写体の中間画像を生成する中間画像レンダリング手段と
    からなることを特徴とする請求項4に記載の画像生成装置。
  7. 前記複数の撮影手段は、
    前記表示手段の表示面の外側に配置されており、
    前記複数の撮影手段により元画像を撮影し、同一の装置もしくは同様の構成の他の装置における表示手段に、前記基準視点から画像を表示することを特徴とする請求項4から請求項6のいずれかに記載の画像生成装置。
  8. 前記複数の撮影手段は、
    前記表示手段の表示面の外側に配置された1つ以上の外側撮影手段と、
    前記表示手段の内側に配置された少なくとも1つの内側撮影手段と
    を備え、
    前記中間画像生成手段は、
    前記外側撮影手段により撮影された元画像から、前記基準視点からの中間画像を生成し、
    前記ベース画像選択手段は、
    前記内側撮影手段により撮影された元画像をベース画像として選択し、
    前記合成手段は、
    前記中間画像生成手段により生成された中間画像と前記ベース画像選択手段により選択されたベース画像とを合成する、
    ことを特徴とする請求項4から請求項6のいずれかに記載の画像生成装置。
  9. 前記複数の撮影手段は、
    前記表示手段の表示面の外側に配置された1つ以上の外側撮影手段と、
    前記表示手段の背面に配置された少なくとも1つの背面撮影手段と
    を備え、
    前記中間画像生成手段は、
    前記外側撮影手段により撮影された元画像から、前記基準視点からの中間画像を生成し、
    前記ベース画像選択手段は、
    前記背面撮影手段により撮影された元画像をベース画像として選択し、
    前記合成手段は、
    前記中間画像生成手段により生成された中間画像と前記ベース画像選択手段により選択されたベース画像とを合成する、
    ことを特徴とする請求項4から請求項6のいずれかに記載の画像生成装置。
  10. 被写体を複数の視点位置から撮影した元画像に基づいて、所望の基準視点から被写体を見た画像を生成する画像生成装置のコンピュータに、
    前記元画像中から、被写体のうち特に重要と定められた重要部位が撮影されている領域を検出する重要部位検出機能、
    前記重要部位が撮影されている検出領域と前記複数の撮影手段の幾何的な条件とから、被写体の存在する空間中で重要部位が存在する空間中重要部位領域を推定する重要部位位置推定機能、
    前記空間中重要部位領域が空間中で被写体が存在する被写体存在領域であると想定し、前記元画像の色または輝度情報に基づいて、前記被写体存在領域中の小領域毎の色または輝度を決定して基準視点から見た写像を得ることで、前記基準視点から見た被写体の中間画像を生成する基準視点画像生成機能、
    前記中間画像中において重要部位が存在する重要部位領域を特定し、当該重要部位領域を切り出し画像として切り出す重要部位切り出し機能、
    前記複数の撮影手段により撮影された元画像のうちの1つをベース画像として選択するベース画像選択機能、
    前記ベース画像のうち、重要部位が存在する領域に、前記切り出し画像を合成して最終的な生成画像を生成する合成機能、
    を実行させることを特徴とするプログラム。
JP2010029386A 2010-02-12 2010-02-12 画像生成方法、画像生成装置、及びプログラム Expired - Fee Related JP5361758B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010029386A JP5361758B2 (ja) 2010-02-12 2010-02-12 画像生成方法、画像生成装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010029386A JP5361758B2 (ja) 2010-02-12 2010-02-12 画像生成方法、画像生成装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2011165081A true JP2011165081A (ja) 2011-08-25
JP5361758B2 JP5361758B2 (ja) 2013-12-04

Family

ID=44595663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010029386A Expired - Fee Related JP5361758B2 (ja) 2010-02-12 2010-02-12 画像生成方法、画像生成装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP5361758B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161391A (ja) * 2012-02-08 2013-08-19 Sony Corp 情報処理装置、情報処理方法およびコンピュータプログラム
JP2016001386A (ja) * 2014-06-11 2016-01-07 日本電信電話株式会社 画像生成方法、画像生成装置、コンピュータプログラム及び記録媒体
WO2018151038A1 (ja) * 2017-02-17 2018-08-23 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
WO2018225518A1 (ja) * 2017-06-07 2018-12-13 ソニー株式会社 画像処理装置、画像処理方法、プログラム、およびテレコミュニケーションシステム
WO2019123548A1 (ja) * 2017-12-19 2019-06-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
WO2019123547A1 (ja) * 2017-12-19 2019-06-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、基準画像データ生成装置、画像生成方法、および基準画像データ生成方法
JP2019149112A (ja) * 2018-02-28 2019-09-05 Kddi株式会社 合成装置、方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005142765A (ja) * 2003-11-05 2005-06-02 Sony Corp 撮像装置及び方法
JP2008187678A (ja) * 2007-01-31 2008-08-14 Nippon Hoso Kyokai <Nhk> 映像生成装置及び映像生成プログラム
JP2009116532A (ja) * 2007-11-05 2009-05-28 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法および仮想視点画像生成装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005142765A (ja) * 2003-11-05 2005-06-02 Sony Corp 撮像装置及び方法
JP2008187678A (ja) * 2007-01-31 2008-08-14 Nippon Hoso Kyokai <Nhk> 映像生成装置及び映像生成プログラム
JP2009116532A (ja) * 2007-11-05 2009-05-28 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法および仮想視点画像生成装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161391A (ja) * 2012-02-08 2013-08-19 Sony Corp 情報処理装置、情報処理方法およびコンピュータプログラム
JP2016001386A (ja) * 2014-06-11 2016-01-07 日本電信電話株式会社 画像生成方法、画像生成装置、コンピュータプログラム及び記録媒体
WO2018151038A1 (ja) * 2017-02-17 2018-08-23 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP2018133063A (ja) * 2017-02-17 2018-08-23 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
US11120613B2 (en) 2017-02-17 2021-09-14 Sony Interactive Entertainment Inc. Image generating device and method of generating image
US11068699B2 (en) 2017-06-07 2021-07-20 Sony Corporation Image processing device, image processing method, and telecommunication system to generate an output image for telecommunication
WO2018225518A1 (ja) * 2017-06-07 2018-12-13 ソニー株式会社 画像処理装置、画像処理方法、プログラム、およびテレコミュニケーションシステム
WO2019123547A1 (ja) * 2017-12-19 2019-06-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、基準画像データ生成装置、画像生成方法、および基準画像データ生成方法
JPWO2019123547A1 (ja) * 2017-12-19 2020-12-17 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、基準画像データ生成装置、画像生成方法、および基準画像データ生成方法
JPWO2019123548A1 (ja) * 2017-12-19 2021-03-11 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
WO2019123548A1 (ja) * 2017-12-19 2019-06-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
US11210853B2 (en) 2017-12-19 2021-12-28 Sony Interactive Entertainment Inc. Image generation apparatus and image generation method
US11430412B2 (en) 2017-12-19 2022-08-30 Sony Interactive Entertainment Inc. Freely selected point of view image generating apparatus, reference image data generating apparatus, freely selected point of view image generating method, and reference image data generating method
JP2019149112A (ja) * 2018-02-28 2019-09-05 Kddi株式会社 合成装置、方法及びプログラム

Also Published As

Publication number Publication date
JP5361758B2 (ja) 2013-12-04

Similar Documents

Publication Publication Date Title
Mori et al. A survey of diminished reality: Techniques for visually concealing, eliminating, and seeing through real objects
JP4828506B2 (ja) 仮想視点画像生成装置、プログラムおよび記録媒体
JP5361758B2 (ja) 画像生成方法、画像生成装置、及びプログラム
JP7007348B2 (ja) 画像処理装置
KR101643607B1 (ko) 영상 데이터 생성 방법 및 장치
US20130335535A1 (en) Digital 3d camera using periodic illumination
JP5093053B2 (ja) 電子カメラ
Pollefeys et al. Three-dimensional scene reconstruction from images
JP6669063B2 (ja) 画像処理装置および方法
WO2016107635A1 (en) Method and system for generating at least one image of a real environment
JP5015126B2 (ja) 画像生成方法、画像認証方法、画像生成装置、画像認証装置、プログラム、および記録媒体
WO2008029345A1 (en) Method for determining a depth map from images, device for determining a depth map
JP7123736B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JPWO2004114224A1 (ja) 仮想視点画像生成方法及び3次元画像表示方法並びに装置
US10453244B2 (en) Multi-layer UV map based texture rendering for free-running FVV applications
Meerits et al. Real-time diminished reality for dynamic scenes
US11967094B2 (en) Detecting device, information processing device, detecting method, and information processing program
KR20220012375A (ko) 어라운드뷰 제공 장치 및 방법
Krolla et al. Spherical Light Fields.
Lin et al. A low-cost portable polycamera for stereoscopic 360 imaging
JP6974978B2 (ja) 画像処理装置、画像処理方法、及びプログラム
Schenkel et al. Natural scenes datasets for exploration in 6DOF navigation
JP2007053621A (ja) 画像生成装置
US20230005213A1 (en) Imaging apparatus, imaging method, and program
Farin et al. View interpolation along a chain of weakly calibrated cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130221

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130605

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130903

R150 Certificate of patent or registration of utility model

Ref document number: 5361758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees