JP2018067106A - 画像処理装置、画像処理プログラム、及び画像処理方法 - Google Patents

画像処理装置、画像処理プログラム、及び画像処理方法 Download PDF

Info

Publication number
JP2018067106A
JP2018067106A JP2016204603A JP2016204603A JP2018067106A JP 2018067106 A JP2018067106 A JP 2018067106A JP 2016204603 A JP2016204603 A JP 2016204603A JP 2016204603 A JP2016204603 A JP 2016204603A JP 2018067106 A JP2018067106 A JP 2018067106A
Authority
JP
Japan
Prior art keywords
surface information
moving
image
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016204603A
Other languages
English (en)
Inventor
都市 雅彦
Masahiko Toshi
雅彦 都市
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016204603A priority Critical patent/JP2018067106A/ja
Publication of JP2018067106A publication Critical patent/JP2018067106A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】複数の撮影装置の画像を用いて自由視点から見た画像を生成する処理の負荷を軽減する。【解決手段】抽出部111は、複数の撮影装置によって空間を撮影した複数の画像それぞれから動領域を抽出する。表面情報生成部112は、空間内の注目領域に対応する動領域から物体の表面情報を生成し、注目領域に対応する動領域から物体の表面情報を生成する頻度よりも少ない頻度で、注目領域以外の非注目領域に対応する動領域と、静止領域とから物体の表面情報を生成する。画像生成部113は、注目領域に対応する動領域から生成された表面情報と、非注目領域に対応する動領域から生成された表面情報と、静止領域から生成された表面情報とを用いて、空間内の所定位置から見た画像を生成する。【選択図】図1

Description

本発明は、画像処理装置、画像処理プログラム、及び画像処理方法に関する。
次世代の画像コンテンツとして、3次元空間における自由視点画像が注目されている。例えば、被写体の周囲に複数の固定視点カメラを配置し、それらのカメラによって撮影された多視点画像を用いて、カメラが配置されていない位置から見た画像を生成することで、自由視点映像を生成する技術が開発されている。複数のカメラの撮影画像から被写体の3次元形状を推定して自由視点映像を生成する方法として、被写体のシルエット画像を用いる方法と、被写体のテクスチャ情報を用いる方法とが知られている。
前者の方法は、視体積交差法(VisualHull:VH)と呼ばれている。この方法では、被写体を複数の視点から撮影した複数の画像それぞれから背景を取り除いて、シルエット画像が生成される。そして、カメラの焦点とシルエット画像とを結んでできるCone(視体積)が生成され、Cone同士の重なり領域が被写体の3次元形状として復元される。
後者の方法は、複数の視点間でテクスチャ情報を利用したステレオマッチングを行う方法である(例えば、特許文献1を参照)。この方法では、まず、被写体を複数の視点から撮影した撮影画像から、ハリスのコーナー検出、Difference of Gaussian(DOG)等の特徴量抽出処理を用いて、特徴点が抽出される。次に、視点間における特徴点同士の対応付けが行われ、被写体の表面を近似する接平面(パッチ)が求められる。そして、求めたパッチを拡張することで、被写体の3次元形状が復元される。
VH処理によれば、被写体の3次元形状を安定して得ることができるが、凹部分が再現されない等の理由から、3次元形状の精度が低くなる。そこで、VH処理とステレオマッチングとを組み合わせて、精度を向上させる方法が提案されている(例えば、非特許文献1を参照)。
被写体の3次元形状は、PointCloud(点群)、ポリゴン、デプスマップ等のデータ形式で表現される。複数の視点の撮影画像とデプスマップとを基に、仮想視点から見た画像を生成するアルゴリズムとして、view synthesis algorithm in view synthesis reference software 2.0(VSRS2.0)も知られている。
米国特許出願公開第2009/0052796号明細書
W. Matusik, C.Buehler, R.Raskar, S.Gortler and L.McMillan,"Image-Based Visual Hulls", SIGGRAPH 2000.
複数のカメラの撮影画像から自由視点映像を生成する際には、大量の映像データを転送する通信処理と、それらの映像データを用いた負荷の大きな演算処理とが行われる。このため、処理負荷が増大し、リアルタイム処理を行うことは困難である。
1つの側面において、本発明の目的は、複数の撮影装置の画像を用いて自由視点から見た画像を生成する処理の負荷を軽減することである。
1つの案では、画像処理装置は、抽出部、表面情報生成部、及び画像生成部を含む。抽出部は、複数の撮影装置によって空間を撮影した複数の画像それぞれから動領域を抽出する。表面情報生成部は、空間内の注目領域に対応する動領域から物体の表面情報を生成し、注目領域に対応する動領域から物体の表面情報を生成する頻度よりも少ない頻度で、注目領域以外の非注目領域に対応する動領域と、静止領域とから物体の表面情報を生成する。画像生成部は、注目領域に対応する動領域から生成された表面情報と、非注目領域に対応する動領域から生成された表面情報と、静止領域から生成された表面情報とを用いて、空間内の所定位置から見た画像を生成する。
実施形態によれば、複数の撮影装置の画像を用いて自由視点から見た画像を生成する処理の負荷を軽減することができる。
画像処理装置の機能的構成図である。 画像処理のフローチャートである。 画像処理システムの機能的構成図である。 カメラの配置を示す図である。 注目領域を示す図である。 入力映像処理部から複数の3次元形状推定部に対するマスク画像の転送を示す図である。 複数の入力映像処理部から3次元形状推定部に対するマスク画像の転送を示す図である。 複数の入力映像処理部から複数の3次元形状推定部に対するマスク画像の転送を示す図である。 入力映像処理部から複数の3次元形状推定部に対する撮影画像の転送を示す図である。 複数の入力映像処理部から3次元形状推定部に対する撮影画像の転送を示す図である。 複数の入力映像処理部から複数の3次元形状推定部に対する撮影画像の転送を示す図である。 自由視点映像生成処理のフローチャートである。 画像処理システムのハードウェア構成図である。 情報処理装置の構成図である。
以下、図面を参照しながら、実施形態を詳細に説明する。
図1は、実施形態の画像処理装置の機能的構成例を示している。図1の画像処理装置101は、抽出部111、表面情報生成部112、及び画像生成部113を含む。
図2は、図1の画像処理装置101が行う画像処理の例を示すフローチャートである。まず、抽出部は、複数の撮影装置によって空間を撮影した複数の画像それぞれから動領域を抽出する(ステップ201)。
次に、表面情報生成部112は、空間内の注目領域に対応する動領域から物体の表面情報を生成し、注目領域に対応する動領域から物体の表面情報を生成する頻度よりも少ない頻度で、注目領域以外の非注目領域に対応する動領域と、静止領域とから物体の表面情報を生成する(ステップ202)。そして、画像生成部113は、注目領域に対応する動領域から生成された表面情報と、非注目領域に対応する動領域から生成された表面情報と、静止領域から生成された表面情報とを用いて、空間内の所定位置から見た画像を生成する(ステップ203)。
このような画像処理装置101によれば、複数の撮影装置の画像を用いて自由視点から見た画像を生成する処理の負荷を軽減することができる。
図3は、図1の画像処理装置101を含む画像処理システムの機能的構成例を示している。図3の画像処理システムは、カメラ310−1〜カメラ310−N(Nは2以上の整数)、画像処理装置101、及び表示装置317を含む。画像処理装置101は、入力映像処理部311−1〜入力映像処理部311−N、通信部312、3次元形状推定部313−1〜3次元形状推定部313−N、通信部314、映像生成部315、及び位置指定部316を含む。
入力映像処理部311−i(i=1〜N)は、カメラ310−iに対応して設けられ、取得部321−i及び抽出部322−iを含む。3次元形状推定部313−iは、カメラ310−iに対応して設けられ、動領域位置生成部331−i、静止領域位置生成部332−i、記憶部333−i、及び合成部334−iを含む。
抽出部322−iは、図1の抽出部111に対応し、動領域位置生成部331−i及び静止領域位置生成部332−iは、表面情報生成部112に対応し、映像生成部315は、画像生成部113に対応する。カメラ310−iは、撮影装置に対応する。
図4は、カメラ310−iの配置例を示している。図4のカメラC1〜カメラC18は、カメラ310−1〜カメラ310−18(N=18)にそれぞれ対応し、被写体であるスポーツ競技のフィールドを囲むように、円状又は楕円状に一定間隔で固定して設置される。18台のカメラCiを一定間隔で設置した場合、隣接する2台のカメラCiの光軸がなす角度は約20度になる。
3次元形状を復元するためには、隣接する2台のカメラCiの光軸がなす角度が20度以下であることが好ましいが、十分な精度で3次元形状を復元可能である場合は、20度よりも大きくても構わない。したがって、カメラCiの台数は18台に限定されるものではなく、17台以下であってもよく、19台以上であってもよい。
カメラ310−1〜カメラ310−Nは、同一のフレーム開始信号に従って、時間同期した映像を撮影する。各カメラ310−iが撮影した映像は、入力映像処理部311−iへ出力される。
入力映像処理部311−iの取得部321−iは、カメラ310−iから映像を取得し、抽出部322−iは、映像に含まれる複数時刻の撮影画像それぞれから動領域を抽出することで、各撮影画像を動領域と静止領域とに分割する。各時刻の撮影画像は、フレームと呼ばれることもある。抽出部322−iは、撮影画像と、動領域と静止領域の分割結果を表すマスク画像とを、通信部312を介して3次元形状推定部313−iへ転送する。このとき、抽出部322−iは、撮影画像及びマスク画像を、3次元形状推定部313−i以外の複数の3次元形状推定部313−j(j≠i)へも転送する。
3次元形状推定部313−iは、カメラ310−iの撮影画像と、カメラ310−i以外の複数のカメラ310−j(j≠i)の撮影画像とを用いて、カメラ310−iの撮影対象である物体の表面の3次元形状を復元する。例えば、図4に示したカメラ配置の場合、カメラ310−i以外のすべてのカメラ310−jの撮影画像を参照する必要はなく、カメラ310−iに近い4台程度のカメラ310−jの撮影画像を参照すれば十分である。
3次元形状推定部313−iは、動領域及び静止領域それぞれに適した3次元形状推定処理を行って、物体の表面の3次元形状を表す表面情報を生成する。この表面情報は、例えば、デプスマップのようなデータ形式で表現される。デプスマップは、カメラ310−iの撮影画像の画素毎に、カメラ310−iの位置から見た奥行き情報を格納する配列である。
3次元形状推定部313−iは、3次元空間内で被写体を含む注目領域を特定し、注目領域に対応する動領域から表面情報を生成する頻度よりも少ない頻度で、非注目領域に対応する動領域と静止領域とから表面情報を生成する。そして、3次元形状推定部313−iは、カメラ310−iの撮影画像と、カメラ310−iから見た表面情報とを、通信部314を介して映像生成部315へ転送する。
自由視点映像生成処理においては、3次元形状推定処理の演算量が非常に大きいため、リアルタイム処理を行うためには、3次元形状推定処理の演算量を削減することが望ましい。3次元形状を表す表面情報としてデプスマップを用いる場合、画素毎に奥行き情報が計算されるため、画素数に比例して演算量が増加する。
しかし、撮影領域内の床、構造物等の静止物体は形状が変化しないため、静止領域に対して計算された奥行き情報は、再利用することが可能である。また、主観画質の観点から、非注目領域に対応する動領域の奥行き情報の更新頻度を削減しても、大幅な画質劣化にはならない。したがって、注目領域に対応する動領域については、表面情報を生成する頻度を高くし、非注目領域に対応する動領域と静止領域については、表面情報を生成する頻度を低くすることで、演算量を効果的に削減することができる。
また、カメラ310−iから見た表面情報をステレオマッチングによって生成する場合、カメラ310−iから見えない裏側の表面情報は計算されないため、すべてのカメラ310−jの撮影画像を参照する必要はない。さらに、ステレオマッチングを行う3次元形状推定部313−iをカメラ310−i毎に設けることで、撮影画像の転送処理に伴う負荷を分散させることが可能になる。
図5は、注目領域の例を示している。図5の注目領域501は、図4に示したスポーツ競技のフィールドを含む直方体であり、ユーザ又は画像処理システムの外部の装置によって、あらかじめ設定される。注目領域501以外の非注目領域には、例えば、ベンチ、観客席等が含まれる。注目領域501の形状としては、直方体以外に、平面又は曲面で囲まれた他の立体形状を用いてもよい。
位置指定部316は、3次元空間内の仮想カメラ位置を入力映像処理部311−i、3次元形状推定部313−i、及び映像生成部315へ出力する。仮想カメラ位置は、例えば、3次元空間内の所定位置を表す3次元座標であり、ユーザによって指定される。
映像生成部315は、位置指定部316から出力される仮想カメラ位置を視点として、仮想カメラ位置から撮影されるであろう画像を生成し、表示装置317へ出力する。映像生成部315は、仮想カメラ位置に近い複数のカメラ310−iの撮影画像及び表面情報を参照して、仮想カメラ位置から見た画像を合成する。例えば、図4に示したカメラ配置の場合、すべてのカメラ310−iの撮影画像を参照する必要はなく、仮想カメラ位置に近い4台程度のカメラ310−iの撮影画像を参照すれば十分である。
表示装置317は、映像生成部315が生成した画像を画面上に表示する。映像生成部315は、生成した画像を表示装置317へ出力する代わりに、不図示の記憶装置に格納してもよい。
次に、図3の画像処理装置101が行う画像処理について、より詳細に説明する。
入力映像処理部311−iの抽出部322−iは、カメラ310−iの映像から、背景差分法、フレーム間差分法等によって動領域を抽出する。そして、抽出部322−iは、各時刻の撮影画像に含まれる画素のうち、動領域の画素に論理“1”を設定し、それ以外の画素に論理“0”を設定した、2値のマスク画像を生成する。
図6〜図8は、入力映像処理部311−iと3次元形状推定部313−iとの間におけるマスク画像転送の例を示している。図6は、1つの入力映像処理部311−iから複数の3次元形状推定部313−iに対するマスク画像の転送を示し、図7は、複数の入力映像処理部311−iから1つの3次元形状推定部313−iに対するマスク画像の転送を示している。図8は、複数の入力映像処理部311−iから複数の3次元形状推定部313−iに対するマスク画像の転送を示している。
この例では、入力映像処理部311−pは、以下の5つの3次元形状推定部313−iに対してマスク画像を転送する。
3次元形状推定部313−(p−4)
3次元形状推定部313−(p−2)
3次元形状推定部313−p
3次元形状推定部313−(p+2)
3次元形状推定部313−(p+4)
ただし、3次元形状推定部313−1と3次元形状推定部313−Nとが隣接していると仮定して、次のような置き換えが行われる。
3次元形状推定部313−0→3次元形状推定部313−N
3次元形状推定部313−(−1)→3次元形状推定部313−(N−1)
3次元形状推定部313−(−2)→3次元形状推定部313−(N−2)
3次元形状推定部313−(−3)→3次元形状推定部313−(N−3)
3次元形状推定部313−(N+1)→3次元形状推定部313−1
3次元形状推定部313−(N+2)→3次元形状推定部313−2
3次元形状推定部313−(N+3)→3次元形状推定部313−3
3次元形状推定部313−(N+4)→3次元形状推定部313−4
そして、3次元形状推定部313−qは、以下の5つの入力映像処理部311−iからマスク画像を受信する。
入力映像処理部311−(q−4)
入力映像処理部311−(q−2)
入力映像処理部311−q
入力映像処理部311−(q+2)
入力映像処理部311−(q+4)
ただし、入力映像処理部311−1と入力映像処理部311−Nとが隣接していると仮定して、次のような置き換えが行われる。
入力映像処理部311−0→3次元形状推定部313−N
入力映像処理部311−(−1)→入力映像処理部311−(N−1)
入力映像処理部311−(−2)→入力映像処理部311−(N−2)
入力映像処理部311−(−3)→入力映像処理部311−(N−3)
入力映像処理部311−(N+1)→入力映像処理部311−1
入力映像処理部311−(N+2)→入力映像処理部311−2
入力映像処理部311−(N+3)→入力映像処理部311−3
入力映像処理部311−(N+4)→入力映像処理部311−4
3次元形状推定部313−iの動領域位置生成部331−iは、受信したマスク画像と、あらかじめ計算されているカメラパラメータとを用いてVH処理を行い、動領域に対応する物体の3次元形状を生成する。物体の3次元形状は、例えば、PointCloud、ポリゴン、デプスマップ等のデータ形式で表現される。このとき、動領域位置生成部331−iは、物体の3次元形状のうち、カメラ310−iの位置から見える部分の3次元形状を生成する。
例えば、3次元空間を表すXYZ座標系における点(X,Y,Z)は、次式によって、撮影画像を表すxy座標系における点(x,y)に変換することができる。
Figure 2018067106
式(1)のsは、カメラ310−iの焦点と撮影画像の投影面との距離を表し、3行3列の行列Aは、カメラ310−iの内部パラメータを表し、3行4列の行列(R|T)は、カメラ310−iの外部パラメータを表す。Rは回転行列を表し、Tは並進ベクトルを表す。式(2)のfは、カメラ310−iの焦点距離を表し、kxは、x方向の単位長さ当たりの画素数を表し、kyは、y方向の単位長さ当たりの画素数を表し、(ox,oy)は、撮影画像上でカメラ310−iの光軸に対応する位置の座標を表す。VH処理では、例えば、行列A及び行列(R|T)がカメラパラメータとして用いられる。
生成された3次元形状には、注目領域に対応する前景の3次元形状と、非注目領域に対応する背景の3次元形状とが含まれている。そこで、動領域位置生成部331−iは、あらかじめ指定された注目領域の3次元座標を用いて、3次元形状を前景と背景とに分割する。
そして、動領域位置生成部331−iは、前景及び背景の3次元形状を撮影画像上にそれぞれ投影して、前景マスク画像及び背景マスク画像を生成する。前景マスク画像では、前景の動領域の画素に論理“1”が設定され、それ以外の画素に論理“0”が設定される。また、背景マスク画像では、背景の動領域の画素に論理“1”が設定され、それ以外の画素に論理“0”が設定される。
図6〜図8に示したマスク画像転送によれば、3次元形状推定部313−qの動領域位置生成部331−qは、カメラ310−(q−4)〜カメラ310−(q+4)の範囲内のカメラ310−iのマスク画像を用いて、物体の3次元形状を生成する。図4に示したカメラ配置の場合、カメラ310−qの光軸とカメラ310−(q−4)の光軸がなす角度は約−80度であり、カメラ310−qの光軸とカメラ310−(q+4)の光軸がなす角度は約80度である。
カメラ310−qから見えない、物体の裏側の3次元形状を計算する必要はないため、カメラ310−qの光軸に対して−90度〜90度の範囲内の光軸を有するカメラ310−iのマスク画像を用いれば十分である。
図9〜図11は、入力映像処理部311−iと3次元形状推定部313−iとの間における撮影画像転送の例を示している。図9は、1つの入力映像処理部311−iから複数の3次元形状推定部313−iに対する撮影画像の転送を示し、図10は、複数の入力映像処理部311−iから1つの3次元形状推定部313−iに対する撮影画像の転送を示している。図11は、複数の入力映像処理部311−iから複数の3次元形状推定部313−iに対する撮影画像の転送を示している。
この例では、入力映像処理部311−pは、以下の3つの3次元形状推定部313−iに対して撮影画像を転送する。
3次元形状推定部313−(p−1)
3次元形状推定部313−p
3次元形状推定部313−(p+1)
そして、3次元形状推定部313−qは、以下の3つの入力映像処理部311−iから撮影画像を受信する。
入力映像処理部311−(q−1)
入力映像処理部311−q
入力映像処理部311−(q+1)
3次元形状推定部313−iの動領域位置生成部331−iは、受信した撮影画像の画素値とカメラパラメータとを用いてステレオマッチングを行うことで、VH処理よりも詳細に3次元形状を推定して、物体の表面情報を生成する。
このとき、動領域位置生成部331−iは、ステレオマッチングの探索範囲を前景マスク画像及び背景マスク画像の範囲内に制限することで、ステレオマッチングの演算量を削減することができる。前景マスク画像の範囲内のステレオマッチングによって、前景の動領域の表面情報が生成され、背景マスク画像の範囲内のステレオマッチングによって、背景の動領域の表面情報が生成される。
また、動領域位置生成部331−iは、前景の動領域についてはステレオマッチングの頻度を高くし、背景の動領域と静止領域についてはステレオマッチングの頻度を低くすることで、さらに演算量を削減することができる。例えば、動領域位置生成部331−iは、前景の動領域については、1フレーム毎にステレオマッチングを行い、背景の動領域については、M枚(Mは2以上の整数)のフレーム毎に1回のみステレオマッチングを行ってもよい。動領域位置生成部331−iは、前景の動領域の表面情報を合成部334−iへ出力し、背景の動領域の表面情報を記憶部333−iに格納する。
静止領域位置生成部332−iは、入力映像処理部311−iから受信したマスク画像及び撮影画像と、カメラパラメータとを用いて、ステレオマッチングを行うことで、静止領域に対応する物体の表面情報を生成し、記憶部333−iに格納する。
静止領域の表面情報は、1フレーム毎に生成する必要はなく、背景の動領域の表面情報と同じ頻度か、又はそれよりも少ない頻度で生成される。例えば、被写体がスポーツ競技のフィールドである場合、試合開始前に静止領域の表面情報を生成してもよい。試合開始前の場合、リアルタイム処理である必要はなく、時間をかけて静止領域の表面情報を生成することができる。
静止領域位置生成部332−iは、1フレームの撮影画像から静止領域の表面情報を生成してもよく、複数のフレームの撮影画像から複数の表面情報を生成して、それらの表面情報を平均した結果を出力してもよい。また、カメラ310−iとともに距離センサが設けられている場合、静止領域位置生成部332−iは、距離センサから出力される奥行き情報を用いて表面情報を生成してもよい。さらに、静止領域位置生成部332−iは、被写体であるスタジアム等の設計情報を基に3次元モデルを生成し、生成した3次元モデルから表面情報を生成してもよい。
図9〜図11に示した撮影画像転送によれば、動領域位置生成部331−q及び静止領域位置生成部332−qは、カメラ310−(q−1)〜カメラ310−(q+1)の範囲内のカメラ310−iの撮影画像を用いて、物体の表面情報を生成する。このように、ステレオマッチングでは、カメラ310−qの光軸に対して、VH処理よりも狭い範囲内の光軸を有するカメラ310−iの撮影画像を用いれば十分である。
記憶部333−iは、動領域位置生成部331−iが生成した背景の動領域の表面情報と、静止領域位置生成部332−iが生成した静止領域の表面情報とを記憶する。合成部334−iは、記憶部333−iから背景の動領域及び静止領域の表面情報を読み出し、読み出した表面情報と、動領域位置生成部331−iから出力される前景の動領域の表面情報とを合成して、1画面の表面情報を生成する。
例えば、M枚のフレーム毎に1回、背景の動領域のステレオマッチングが行われる場合、残りのM−1枚のフレームに対しては、記憶部333−iが記憶している背景の動領域の表面情報が読み出される。
合成部334−iは、前景マスク画像及び背景マスク画像の各画素の画素値に基づいて、前景の動領域の表面情報、背景の動領域の表面情報、又は静止領域の表面情報のいずれか1つを選択する。このとき、合成部334−iは、前景マスク画像の画素値が論理“1”の範囲については、前景の動領域の表面情報を選択し、背景マスク画像の画素値が論理“1”の範囲については、背景の動領域の表面情報を選択する。また、合成部334−iは、前景マスク画像及び背景マスク画像の画素値がともに論理“0”の範囲については、静止領域の表面情報を選択する。
そして、合成部334−iは、選択したそれぞれの画素の表面情報を合成して1画面の表面情報を生成し、カメラ310−iの撮影画像と生成した表面情報とを、通信部314を介して映像生成部315へ転送する。
映像生成部315は、仮想カメラ位置の周辺にある1台以上のカメラ310−iの撮影画像と、対応する合成部334−iが生成した表面情報とを参照して、仮想カメラ位置から見た画像を生成する。そして、映像生成部315は、生成した画像を表示装置317へ出力する。例えば、映像生成部315は、VSRS2.0等のアルゴリズムを用いて、仮想カメラ位置から見た画像を生成することができる。
表示装置317は、映像生成部315が生成した各時刻の画像を画面上に表示することで、自由視点映像を出力する。
図3の画像処理システムによれば、主観画質に影響のある前景の動領域については高い頻度で表面情報が生成され、主観画質に影響の少ない背景の動領域と静止領域については低い頻度で表面情報が生成される。これにより、主観画質を保ちつつ、演算量を削減することができる。
また、VH処理及びステレオマッチングを行う3次元形状推定部313−iをカメラ310−i毎に設けることで、マスク画像及び撮影画像の転送処理に伴う負荷を分散させることができる。これにより、自由視点映像生成処理をリアルタイムで行うことが可能になる。
図12は、図3の画像処理装置101が行う自由視点映像生成処理の例を示すフローチャートである。まず、画像処理装置101は、フレーム番号を示す制御変数kに0を設定し(ステップ1201)、入力映像処理部311−iの取得部321−iは、カメラ310−iからk番目の撮影画像を取得する(ステップ1202)。そして、抽出部322−iは、k番目の撮影画像から動領域を抽出してマスク画像を生成し、k番目の撮影画像及びマスク画像を複数の3次元形状推定部313−iへ転送する(ステップ1203)。
3次元形状推定部313−iの動領域位置生成部331−iは、受信したマスク画像とカメラパラメータとを用いてVH処理を行い、動領域に対応する物体の3次元形状を生成する(ステップ1204)。そして、動領域位置生成部331−iは、3次元形状を、注目領域に対応する前景と、非注目領域に対応する背景とに分割し(ステップ1205)、前景マスク画像及び背景マスク画像を生成する(ステップ1206)。
次に、動領域位置生成部331−iは、前景マスク画像の範囲内で、k番目の撮影画像とカメラパラメータとを用いてステレオマッチングを行い、前景の動領域の表面情報を生成する(ステップ1207)。
次に、動領域位置生成部331−iは、kをMで除算した剰余が0であるか否かをチェックする(ステップ1208)。Mとしては、例えば、2〜10の範囲の整数を用いることができる。
剰余が0である場合(ステップ1208,YES)、動領域位置生成部331−iは、背景マスク画像の範囲内で、k番目の撮影画像とカメラパラメータとを用いてステレオマッチングを行い、背景の動領域の表面情報を生成する(ステップ1210)。これにより、動領域位置生成部331−iは、M枚のフレーム毎に1回のみ、背景の動領域の表面情報を生成することができる。そして、動領域位置生成部331−iは、背景の動領域の表面情報を記憶部333−iに格納し、合成部334−iは、記憶部333−iから背景の動領域の表面情報を読み出す。
一方、剰余が0ではない場合(ステップ1208,NO)、合成部334−iは、記憶部333−iに既に格納されている背景の動領域の表面情報を読み出す(ステップ1209)。
次に、静止領域位置生成部332−iは、kの値をチェックする(ステップ1211)。kが0である場合(ステップ1211,YES)、静止領域位置生成部332−iは、入力映像処理部311−iから受信したマスク画像と、k番目の撮影画像と、カメラパラメータとを用いてステレオマッチングを行う(ステップ1213)。そして、静止領域位置生成部332−iは、静止領域の表面情報を生成して記憶部333−iに格納し、合成部334−iは、記憶部333−iから静止領域の表面情報を読み出す。
一方、kが1以上である場合(ステップ1208,NO)、合成部334−iは、記憶部333−iに既に格納されている静止領域の表面情報を読み出す(ステップ1212)。この場合、最初のフレームに対してのみ、静止領域の表面情報が生成される。
次に、合成部334−iは、前景の動領域の表面情報、背景の動領域の表面情報、及び静止領域の表面情報を合成して、1画面の表面情報を生成し、k番目の撮影画像と生成した表面情報とを映像生成部315へ転送する(ステップ1214)。
次に、映像生成部315は、仮想カメラ位置の周辺にある1台以上のカメラ310−iのk番目の撮影画像及び表面情報を参照して、仮想カメラ位置から見たk番目の画像を生成し、表示装置317へ出力する(ステップ1215)。
次に、画像処理装置101は、自由視点映像の出力を終了するか否かを判定する(ステップ1216)。例えば、画像処理装置101は、ユーザ又は画像処理システムの外部の装置から停止指示が入力された場合に、自由視点映像の出力を終了することができる。自由視点映像の出力を終了しない場合(ステップ1216,NO)、画像処理装置101は、kを1だけインクリメントして(ステップ1217)、ステップ1202以降の処理を繰り返す。一方、自由視点映像の出力を終了する場合(ステップ1216,YES)、画像処理装置101は、処理を終了する。
ところで、自由視点映像の視点となる仮想カメラ位置は、ユーザの操作又は所定のアルゴリズムによって変更することが可能である。例えば、仮想カメラ位置の変更方法として、3次元空間内の直線又は曲線に沿って仮想カメラ位置を連続的に移動させる方法と、次の仮想カメラ位置まで瞬間的に移動させる方法とが考えられる。
前者の方法を用いる場合、位置指定部316は、ある位置からユーザが指定した方向に向かって、複数の仮想カメラ位置を連続的に生成してもよい。また、位置指定部316は、ある位置からユーザが指定した最終位置までの間を滑らかに補間して、複数の仮想カメラ位置を連続的に生成してもよい。このように、仮想カメラ位置を連続的に移動させる場合は、仮想カメラ位置の移動経路を予測することができる。
そこで、位置指定部316は、仮想カメラ位置とその移動方向とを、入力映像処理部311−i及び3次元形状推定部313−iへ出力する。そして、移動方向が示す移動先の位置から所定範囲内に存在しないカメラ310−iに対応する入力映像処理部311−i及び3次元形状推定部313−iは、動作を停止する。これにより、画像処理装置101は、予測される移動先から遠いカメラ310−iの撮影画像を用いた処理を省略することができる。
後者の方法を用いる場合、仮想カメラ位置が指定された位置まで瞬間的に移動して、カメラが切り替わったような映像が生成される。したがって、次の仮想カメラ位置が事前に分かっている場合を除いて、仮想カメラ位置の予測が難しいため、すべての3次元形状推定部313−iを動作させておくことが望ましい。ただし、処理の遅延が許される場合には、仮想カメラ位置が変更される度に、変更後の位置に近いカメラ310−iに対応する3次元形状推定部313−iのみを起動して、他の3次元形状推定部313−iの動作を停止させることも可能である。
図1及び図3の画像処理装置101の構成は一例に過ぎず、画像処理装置101の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、処理の負荷を分散させる必要がない場合は、図3の入力映像処理部311−2〜入力映像処理部311−N、3次元形状推定部313−2〜3次元形状推定部313−N、通信部312、及び通信部314を省略することができる。この場合、入力映像処理部311−1及び3次元形状推定部313−1が、カメラ310−1〜カメラ310−Nの撮影画像に対する処理を行う。
図2及び図12のフローチャートは一例に過ぎず、画像処理装置101の構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、図12のステップ1204において、動領域位置生成部331−iは、VH処理以外の方法により3次元形状を生成してもよい。また、ステップ1207、ステップ1210、及びステップ1213において、動領域位置生成部331−i及び静止領域位置生成部332−iは、ステレオマッチング以外の方法により表面情報を生成してもよい。表面情報をデプスマップ以外のデータ形式で表現しても構わない。
図4のカメラ配置及び図5の注目領域は一例に過ぎず、被写体に応じて別のカメラ配置及び注目領域を用いてもよい。図6〜図11の転送処理は一例に過ぎず、画像処理装置101の構成又は条件に応じて、転送先の3次元形状推定部313−iの個数又は組み合わせを変更してもよい。
式(1)及び式(2)のカメラパラメータは一例に過ぎず、画像処理装置101の構成又は条件に応じて別のカメラパラメータを用いてもよい。
図13は、図3の画像処理装置101のハードウェア構成例を示している。図13の画像処理装置101は、計算装置1311−1〜計算装置1311−N、スイッチ1312、計算装置1313、及び計算装置1314−1〜計算装置1314−Nを含む。計算装置1311−1〜計算装置1311−N、計算装置1313、及び計算装置1314−1〜計算装置1314−Nは、スイッチ1312を介して互いに接続されている。
計算装置1311−i(i=1〜N)は、図3の入力映像処理部311−iに対応し、計算装置1313は、映像生成部315及び位置指定部316に対応し、計算装置1314−iは、3次元形状推定部313−iに対応する。スイッチ1312は、通信部312及び通信部314に対応し、例えば、Ethernet(登録商標)、InfiniBand(登録商標)等のスイッチであってもよい。
図14は、図1及び図3の画像処理装置101、図13の計算装置1311−i、計算装置1313、及び計算装置1314−iとして用いられる情報処理装置(コンピュータ)の構成例を示している。
図14の情報処理装置は、Central Processing Unit(CPU)1401、メモリ1402、入力装置1403、出力装置1404、補助記憶装置1405、媒体駆動装置1406、及びネットワーク接続装置1407を含む。これらの構成要素はバス1408により互いに接続されている。
情報処理装置が計算装置1311−iである場合、カメラ310−iは、映像用のインタフェースを介してバス1408に接続されていてもよい。
メモリ1402は、例えば、Read Only Memory(ROM)、Random Access Memory(RAM)、フラッシュメモリ等の半導体メモリであり、画像処理に用いられるプログラム及びデータを格納する。メモリ1402は、図3の記憶部333−iとして用いることができる。メモリ1402は、カメラパラメータ、カメラ310−iの撮影画像、抽出部322−iが生成するマスク画像、動領域位置生成部331−iが生成する前景マスク画像及び背景マスク画像等を記憶することもできる。
CPU1401(プロセッサ)は、例えば、メモリ1402を利用してプログラムを実行することにより、図1の抽出部111、表面情報生成部112、及び画像生成部113として動作する。CPU1401は、プログラムを実行することにより、図3の入力映像処理部311−i、3次元形状推定部313−i、映像生成部315、及び位置指定部316としても動作する。CPU1401は、プログラムを実行することにより、取得部321−i、抽出部322−i、動領域位置生成部331−i、静止領域位置生成部332−i、及び合成部334−iとしても動作する。
入力装置1403は、例えば、キーボード、ポインティングデバイス等であり、オペレータ又はユーザからの指示又は情報の入力に用いられる。出力装置1404は、例えば、表示装置、プリンタ、スピーカ等であり、オペレータ又はユーザへの問い合わせ又は指示、及び処理結果の出力に用いられる。処理結果は、仮想カメラ位置から見た画像であってもよい。出力装置1404は、図3及び図13の表示装置317として用いることができる。
補助記憶装置1405は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置1405は、ハードディスクドライブであってもよい。情報処理装置は、補助記憶装置1405にプログラム及びデータを格納しておき、それらをメモリ1402にロードして使用することができる。補助記憶装置1405は、図3の記憶部333−iとして用いることができる。
媒体駆動装置1406は、可搬型記録媒体1409を駆動し、その記録内容にアクセスする。可搬型記録媒体1409は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体1409は、Compact Disk Read Only Memory(CD−ROM)、Digital Versatile Disk(DVD)、Universal Serial Bus(USB)メモリ等であってもよい。オペレータ又はユーザは、この可搬型記録媒体1409にプログラム及びデータを格納しておき、それらをメモリ1402にロードして使用することができる。
このように、画像処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体は、メモリ1402、補助記憶装置1405、又は可搬型記録媒体1409のような、物理的な(非一時的な)記録媒体である。
ネットワーク接続装置1407は、図3の通信部312、通信部314、又は図13のスイッチ1312に接続され、通信に伴うデータ変換を行う通信インタフェースである。ネットワーク接続装置1407は、Local Area Network、Wide Area Network等の通信ネットワークに接続されてもよい。この場合、情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置1407を介して受信し、それらをメモリ1402にロードして使用することができる。
なお、情報処理装置が図14のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、情報処理装置が計算装置1311−i又は計算装置1314−iである場合は、入力装置1403及び出力装置1404を省略してもよい。情報処理装置が計算装置1313であり、表示装置317を含まない場合は、出力装置1404を省略してもよい。
可搬型記録媒体1409を使用しない場合は、媒体駆動装置1406を省略してもよい。処理の負荷を分散させる必要がなく、通信部312、通信部314、及びスイッチ1312を設けない場合は、ネットワーク接続装置1407を省略してもよい。
開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。
図1乃至図14を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
複数の撮影装置によって空間を撮影した複数の画像それぞれから動領域を抽出する抽出部と、
前記空間内の注目領域に対応する動領域から物体の表面情報を生成し、前記注目領域に対応する動領域から物体の表面情報を生成する頻度よりも少ない頻度で、前記注目領域以外の非注目領域に対応する動領域と、静止領域とから物体の表面情報を生成する表面情報生成部と、
前記注目領域に対応する動領域から生成された表面情報と、前記非注目領域に対応する動領域から生成された表面情報と、前記静止領域から生成された表面情報とを用いて、前記空間内の所定位置から見た画像を生成する画像生成部と、
を備えることを特徴とする画像処理装置。
(付記2)
前記表面情報生成部は、前記複数の画像を用いて、前記物体の3次元形状のうち、前記複数の撮影装置各々の位置から見える部分の3次元形状を生成し、生成した3次元形状を用いて前記部分の表面情報を生成することを特徴とする付記1記載の画像処理装置。
(付記3)
前記抽出部は、前記複数の画像各々の動領域と静止領域とを示すマスク画像を生成し、前記表面情報生成部は、前記マスク画像と前記複数の画像を参照して、前記部分の3次元形状と前記静止領域の表面情報とを生成し、前記部分の3次元形状から、前記注目領域に対応する動領域を示す第1マスク画像と、前記非注目領域に対応する動領域を示す第2マスク画像とを生成し、前記第1マスク画像と前記複数の画像を参照して前記注目領域に対応する動領域の表面情報を生成し、前記第2マスク画像と前記複数の画像を参照して前記非注目領域に対応する動領域の表面情報を生成することを特徴とする付記2記載の画像処理装置。
(付記4)
前記抽出部は、前記複数の撮影装置にそれぞれ対応して設けられた複数の抽出部を含み、
前記表面情報生成部は、前記複数の撮影装置にそれぞれ対応して設けられた複数の表面情報生成部を含み、
前記複数の抽出部各々は、前記複数の画像各々から動領域を抽出し、
前記複数の表面情報生成部各々は、前記複数の撮影装置各々が撮影した画像と、前記複数の撮影装置各々の位置から所定範囲内に存在する撮影装置が撮影した画像とを用いて、前記物体の表面情報を生成することを特徴とする付記1乃至3のいずれか1項に記載の画像処理装置。
(付記5)
前記所定位置を移動方向に沿って移動させる位置指定部をさらに備え、
前記複数の表面情報生成部のうち、前記移動方向が示す移動先の位置から所定範囲内に存在しない撮影装置が撮影した画像を用いて、前記物体の表面情報を生成する表面情報生成部は、動作を停止することを特徴とする付記4記載の画像処理装置。
(付記6)
複数の撮影装置によって空間を撮影した複数の画像それぞれから動領域を抽出し、
前記空間内の注目領域に対応する動領域から物体の表面情報を生成し、前記注目領域に対応する動領域から物体の表面情報を生成する頻度よりも少ない頻度で、前記注目領域以外の非注目領域に対応する動領域と、静止領域とから物体の表面情報を生成し、
前記注目領域に対応する動領域から生成された表面情報と、前記非注目領域に対応する動領域から生成された表面情報と、前記静止領域から生成された表面情報とを用いて、前記空間内の所定位置から見た画像を生成する、
処理をコンピュータに実行させる画像処理プログラム。
(付記7)
前記コンピュータは、前記複数の画像を用いて、前記物体の3次元形状のうち、前記複数の撮影装置各々の位置から見える部分の3次元形状を生成し、生成した3次元形状を用いて前記部分の表面情報を生成することを特徴とする付記6記載の画像処理装置。
(付記8)
前記コンピュータは、前記複数の画像各々の動領域と静止領域とを示すマスク画像を生成し、前記マスク画像と前記複数の画像を参照して、前記部分の3次元形状と前記静止領域の表面情報とを生成し、前記部分の3次元形状から、前記注目領域に対応する動領域を示す第1マスク画像と、前記非注目領域に対応する動領域を示す第2マスク画像とを生成し、前記第1マスク画像と前記複数の画像を参照して前記注目領域に対応する動領域の表面情報を生成し、前記第2マスク画像と前記複数の画像を参照して前記非注目領域に対応する動領域の表面情報を生成することを特徴とする付記7記載の画像処理装置。
(付記9)
前記コンピュータは、前記複数の撮影装置各々が撮影した画像と、前記複数の撮影装置各々の位置から所定範囲内に存在する撮影装置が撮影した画像とを用いて、前記物体の表面情報を生成することを特徴とする付記6乃至8のいずれか1項に記載の画像処理装置。
(付記10)
前記コンピュータは、前記所定位置を移動方向に沿って移動させ、前記移動方向が示す移動先の位置から所定範囲内に存在しない撮影装置が撮影した画像を用いて前記物体の表面情報を生成する処理を停止することを特徴とする付記9記載の画像処理装置。
(付記11)
コンピュータが、
複数の撮影装置によって空間を撮影した複数の画像それぞれから動領域を抽出し、
前記空間内の注目領域に対応する動領域から物体の表面情報を生成し、前記注目領域に対応する動領域から物体の表面情報を生成する頻度よりも少ない頻度で、前記注目領域以外の非注目領域に対応する動領域と、静止領域とから物体の表面情報を生成し、
前記注目領域に対応する動領域から生成された表面情報と、前記非注目領域に対応する動領域から生成された表面情報と、前記静止領域から生成された表面情報とを用いて、前記空間内の所定位置から見た画像を生成する、
ことを特徴とする画像処理方法。
(付記12)
前記コンピュータは、前記複数の画像を用いて、前記物体の3次元形状のうち、前記複数の撮影装置各々の位置から見える部分の3次元形状を生成し、生成した3次元形状を用いて前記部分の表面情報を生成することを特徴とする付記11記載の画像処理装置。
(付記13)
前記コンピュータは、前記複数の画像各々の動領域と静止領域とを示すマスク画像を生成し、前記マスク画像と前記複数の画像を参照して、前記部分の3次元形状と前記静止領域の表面情報とを生成し、前記部分の3次元形状から、前記注目領域に対応する動領域を示す第1マスク画像と、前記非注目領域に対応する動領域を示す第2マスク画像とを生成し、前記第1マスク画像と前記複数の画像を参照して前記注目領域に対応する動領域の表面情報を生成し、前記第2マスク画像と前記複数の画像を参照して前記非注目領域に対応する動領域の表面情報を生成することを特徴とする付記12記載の画像処理装置。
(付記14)
前記コンピュータは、前記複数の撮影装置各々が撮影した画像と、前記複数の撮影装置各々の位置から所定範囲内に存在する撮影装置が撮影した画像とを用いて、前記物体の表面情報を生成することを特徴とする付記11乃至13のいずれか1項に記載の画像処理装置。
(付記15)
前記コンピュータは、前記所定位置を移動方向に沿って移動させ、前記移動方向が示す移動先の位置から所定範囲内に存在しない撮影装置が撮影した画像を用いて前記物体の表面情報を生成する処理を停止することを特徴とする付記14記載の画像処理装置。
101 画像処理装置
111 抽出部
112 表面情報生成部
113 画像生成部
310−1〜310−N カメラ
311−1〜311−N 入力映像処理部
312、314 通信部
313−1〜313−N 3次元形状推定部
315 映像生成部
316 位置指定部
317 表示装置
321−1〜321−N 取得部
322−1〜322−N 抽出部
331−1〜331−N 動領域位置生成部
332−1〜332−N 静止領域位置生成部
333−1〜333−N 記憶部
334−1〜334−N 合成部
501 注目領域
1311−1〜1311−N、1313、1314−1〜1314−N 計算装置
1312 スイッチ
1401 CPU
1402 メモリ
1403 入力装置
1404 出力装置
1405 補助記憶装置
1406 媒体駆動装置
1407 ネットワーク接続装置
1408 バス
1409 可搬型記録媒体

Claims (7)

  1. 複数の撮影装置によって空間を撮影した複数の画像それぞれから動領域を抽出する抽出部と、
    前記空間内の注目領域に対応する動領域から物体の表面情報を生成し、前記注目領域に対応する動領域から物体の表面情報を生成する頻度よりも少ない頻度で、前記注目領域以外の非注目領域に対応する動領域と、静止領域とから物体の表面情報を生成する表面情報生成部と、
    前記注目領域に対応する動領域から生成された表面情報と、前記非注目領域に対応する動領域から生成された表面情報と、前記静止領域から生成された表面情報とを用いて、前記空間内の所定位置から見た画像を生成する画像生成部と、
    を備えることを特徴とする画像処理装置。
  2. 前記表面情報生成部は、前記複数の画像を用いて、前記物体の3次元形状のうち、前記複数の撮影装置各々の位置から見える部分の3次元形状を生成し、生成した3次元形状を用いて前記部分の表面情報を生成することを特徴とする請求項1記載の画像処理装置。
  3. 前記抽出部は、前記複数の画像各々の動領域と静止領域とを示すマスク画像を生成し、前記表面情報生成部は、前記マスク画像と前記複数の画像を参照して、前記部分の3次元形状と前記静止領域の表面情報とを生成し、前記部分の3次元形状から、前記注目領域に対応する動領域を示す第1マスク画像と、前記非注目領域に対応する動領域を示す第2マスク画像とを生成し、前記第1マスク画像と前記複数の画像を参照して前記注目領域に対応する動領域の表面情報を生成し、前記第2マスク画像と前記複数の画像を参照して前記非注目領域に対応する動領域の表面情報を生成することを特徴とする請求項2記載の画像処理装置。
  4. 前記抽出部は、前記複数の撮影装置にそれぞれ対応して設けられた複数の抽出部を含み、
    前記表面情報生成部は、前記複数の撮影装置にそれぞれ対応して設けられた複数の表面情報生成部を含み、
    前記複数の抽出部各々は、前記複数の画像各々から動領域を抽出し、
    前記複数の表面情報生成部各々は、前記複数の撮影装置各々が撮影した画像と、前記複数の撮影装置各々の位置から所定範囲内に存在する撮影装置が撮影した画像とを用いて、前記物体の表面情報を生成することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記所定位置を移動方向に沿って移動させる位置指定部をさらに備え、
    前記複数の表面情報生成部のうち、前記移動方向が示す移動先の位置から所定範囲内に存在しない撮影装置が撮影した画像を用いて、前記物体の表面情報を生成する表面情報生成部は、動作を停止することを特徴とする請求項4記載の画像処理装置。
  6. 複数の撮影装置によって空間を撮影した複数の画像それぞれから動領域を抽出し、
    前記空間内の注目領域に対応する動領域から物体の表面情報を生成し、前記注目領域に対応する動領域から物体の表面情報を生成する頻度よりも少ない頻度で、前記注目領域以外の非注目領域に対応する動領域と、静止領域とから物体の表面情報を生成し、
    前記注目領域に対応する動領域から生成された表面情報と、前記非注目領域に対応する動領域から生成された表面情報と、前記静止領域から生成された表面情報とを用いて、前記空間内の所定位置から見た画像を生成する、
    処理をコンピュータに実行させる画像処理プログラム。
  7. コンピュータが、
    複数の撮影装置によって空間を撮影した複数の画像それぞれから動領域を抽出し、
    前記空間内の注目領域に対応する動領域から物体の表面情報を生成し、前記注目領域に対応する動領域から物体の表面情報を生成する頻度よりも少ない頻度で、前記注目領域以外の非注目領域に対応する動領域と、静止領域とから物体の表面情報を生成し、
    前記注目領域に対応する動領域から生成された表面情報と、前記非注目領域に対応する動領域から生成された表面情報と、前記静止領域から生成された表面情報とを用いて、前記空間内の所定位置から見た画像を生成する、
    ことを特徴とする画像処理方法。
JP2016204603A 2016-10-18 2016-10-18 画像処理装置、画像処理プログラム、及び画像処理方法 Pending JP2018067106A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016204603A JP2018067106A (ja) 2016-10-18 2016-10-18 画像処理装置、画像処理プログラム、及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016204603A JP2018067106A (ja) 2016-10-18 2016-10-18 画像処理装置、画像処理プログラム、及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2018067106A true JP2018067106A (ja) 2018-04-26

Family

ID=62087167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016204603A Pending JP2018067106A (ja) 2016-10-18 2016-10-18 画像処理装置、画像処理プログラム、及び画像処理方法

Country Status (1)

Country Link
JP (1) JP2018067106A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3723365A1 (en) 2019-04-11 2020-10-14 Canon Kabushiki Kaisha Image processing apparatus, system that generates virtual viewpoint video image, control method of image processing apparatus and storage medium
JP2021051374A (ja) * 2019-09-20 2021-04-01 キヤノン株式会社 形状データ生成装置、形状データ生成方法、及び、プログラム
US11665332B2 (en) 2019-04-11 2023-05-30 Canon Kabushiki Kaisha Information processing apparatus, control method thereof and storage medium
WO2024034449A1 (ja) * 2022-08-06 2024-02-15 モルゲンロット株式会社 情報処理装置、及び情報処理方法
US11928831B2 (en) 2019-09-20 2024-03-12 Canon Kabushiki Kaisha Information processing apparatus, shape data generation method, and storage medium
JP7465234B2 (ja) 2021-03-11 2024-04-10 Kddi株式会社 3dモデル生成装置、方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331187A (ja) * 1999-05-18 2000-11-30 Nippon Telegr & Teleph Corp <Ntt> 運動像生成方法、装置、およびその方法を記録した記録媒体
JP2004514205A (ja) * 2000-11-07 2004-05-13 ザクセル システムズ インク インタネット仮想テレプレゼンスシステム
JP2004246667A (ja) * 2003-02-14 2004-09-02 Keiogijuku 自由視点動画像データ生成方法およびその処理をコンピュータに実行させるためのプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331187A (ja) * 1999-05-18 2000-11-30 Nippon Telegr & Teleph Corp <Ntt> 運動像生成方法、装置、およびその方法を記録した記録媒体
JP2004514205A (ja) * 2000-11-07 2004-05-13 ザクセル システムズ インク インタネット仮想テレプレゼンスシステム
JP2004246667A (ja) * 2003-02-14 2004-09-02 Keiogijuku 自由視点動画像データ生成方法およびその処理をコンピュータに実行させるためのプログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3723365A1 (en) 2019-04-11 2020-10-14 Canon Kabushiki Kaisha Image processing apparatus, system that generates virtual viewpoint video image, control method of image processing apparatus and storage medium
US11195322B2 (en) 2019-04-11 2021-12-07 Canon Kabushiki Kaisha Image processing apparatus, system that generates virtual viewpoint video image, control method of image processing apparatus and storage medium
US11665332B2 (en) 2019-04-11 2023-05-30 Canon Kabushiki Kaisha Information processing apparatus, control method thereof and storage medium
JP2021051374A (ja) * 2019-09-20 2021-04-01 キヤノン株式会社 形状データ生成装置、形状データ生成方法、及び、プログラム
US11928831B2 (en) 2019-09-20 2024-03-12 Canon Kabushiki Kaisha Information processing apparatus, shape data generation method, and storage medium
JP7475831B2 (ja) 2019-09-20 2024-04-30 キヤノン株式会社 形状データ生成装置、形状データ生成方法、及び、プログラム
JP7465234B2 (ja) 2021-03-11 2024-04-10 Kddi株式会社 3dモデル生成装置、方法及びプログラム
WO2024034449A1 (ja) * 2022-08-06 2024-02-15 モルゲンロット株式会社 情報処理装置、及び情報処理方法

Similar Documents

Publication Publication Date Title
JP6914926B2 (ja) Imuおよび画像データを使用した合成物体を含む多視点画像データの拡張
JP2018067106A (ja) 画像処理装置、画像処理プログラム、及び画像処理方法
JP6425780B1 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
CN110322542B (zh) 重建真实世界3d场景的视图
KR100721536B1 (ko) 2차원 평면상에서 실루엣 정보를 이용한 3차원 구조 복원방법
WO2021139549A1 (zh) 一种平面检测方法及装置、平面跟踪方法及装置
JP5039921B2 (ja) 圧縮システム、プログラムおよび方法
CN109906600B (zh) 模拟景深
US20110128286A1 (en) Image restoration apparatus and method thereof
JP6902881B2 (ja) 情報処理装置及び三次元モデルの生成方法
JP2008217593A (ja) 被写体領域抽出装置及び被写体領域抽出プログラム
WO2020184174A1 (ja) 画像処理装置および画像処理方法
Nonaka et al. Fast plane-based free-viewpoint synthesis for real-time live streaming
JP2019016230A (ja) 学習装置、画像合成装置、学習方法、画像合成方法、及びプログラム
US7907147B2 (en) Texture filtering apparatus, texture mapping apparatus, and method and program therefor
JP5413263B2 (ja) 画像生成方法
KR20170065208A (ko) 3d 이미지 처리 방법 및 장치, 및 그래픽 처리 장치
KR101566459B1 (ko) 이미지 기반의 비주얼 헐에서의 오목 표면 모델링
JP2017199285A (ja) 情報処理装置、情報処理方法、プログラム
EP4064193A1 (en) Real-time omnidirectional stereo matching using multi-view fisheye lenses
JP7265825B2 (ja) 生成装置、生成方法およびプログラム
KR20230015246A (ko) 다중시점 텍스처를 이용한 3d 폴리곤 메시 렌더링 방법 및 장치
JP6967150B2 (ja) 学習装置、画像生成装置、学習方法、画像生成方法及びプログラム
JP2016001386A (ja) 画像生成方法、画像生成装置、コンピュータプログラム及び記録媒体
JP2020035218A (ja) 画像処理装置、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200923

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210330