JP6759300B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP6759300B2
JP6759300B2 JP2018198368A JP2018198368A JP6759300B2 JP 6759300 B2 JP6759300 B2 JP 6759300B2 JP 2018198368 A JP2018198368 A JP 2018198368A JP 2018198368 A JP2018198368 A JP 2018198368A JP 6759300 B2 JP6759300 B2 JP 6759300B2
Authority
JP
Japan
Prior art keywords
information
dimensional position
distance
image
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018198368A
Other languages
English (en)
Other versions
JP2019061684A (ja
Inventor
康文 ▲高▼間
康文 ▲高▼間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018198368A priority Critical patent/JP6759300B2/ja
Publication of JP2019061684A publication Critical patent/JP2019061684A/ja
Application granted granted Critical
Publication of JP6759300B2 publication Critical patent/JP6759300B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、特に、仮想空間に設定された仮想カメラの仮想視点画像を生成するために用いて好適な情報処理装置、情報処理方法及びプログラムに関する。
実世界の複数の異なる位置・姿勢で設置されたカメラ(以下、実カメラ)により被写体を撮影して得られた画像から、仮想空間に任意の位置・姿勢で設定された仮想カメラの画像(以下、仮想視点画像とする)を実時間で生成したいというニーズがある。これが実現すれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することができるため、通常のテレビなどの視聴と比較してユーザは高臨場感を得ることができる。
しかし、複数の画像から被写体の3次元形状(以下、形状モデル)を推定する形状推定処理や、形状モデルがカメラから見えるか否かを判定する可視性判定処理に多くの時間を要するため、実時間で仮想視点画像を生成することは困難である。この課題を解決するために、特許文献1では、カメラと仮想カメラとの幾何関係を考慮して高速に仮想視点画像を生成する方法が提案されている。
特許第5945255号公報
仮想視点画像をユーザが視聴するケースとして、複数の仮想視点画像を視聴するケースがある。例えば、選手にクローズアップした仮想視点画像とグランド上の選手の動きを俯瞰した仮想視点画像とを同時に視聴するケースや、会場の多数の観客がスマートフォンなどでそれぞれに仮想カメラを操作して視聴するケースなどがある。同時に複数の仮想視点画像を生成するために、前述した形状推定処理や可視性判定処理を仮想視点毎に行うと、これらの処理を行うための情報量が膨大になる。特許文献1に記載の技術は、形状推定処理や可視性判定処理が仮想カメラに依存するため、複数の仮想視点画像を生成する場合には、その分必要な情報量が膨大になってしまう。特に、可視性判定処理に必要な距離画像は撮影画像のサイズやカメラ台数に応じて増加するので、複数の仮想視点画像を生成すると、転送時間の増加やデータ容量の増大化を招いてしまう。
本発明は前述の問題点に鑑み、複数の仮想視点画像を容易に生成できるようにすることを目的としている。
本発明に係る情報処理装置は、複数の撮影装置により撮影対象領域を複数の方向から撮影することで得られる複数の撮影画像に基づく仮想視点画像を生成するための処理を行う情報処理装置であって、前記撮影対象領域内に位置するオブジェクトの3次元形状モデルであって当該オブジェクトの3次元形状を3次元空間内の点の集まりとして表す3次元形状モデルに含まれる点の3次元位置を示すモデル情報を取得するモデル情報取得手段と、前記複数の撮影装置に含まれる撮影装置の3次元位置を示す撮影情報を取得する撮影情報取得手段と、前記複数の撮影装置に含まれる撮影装置の3次元位置と当該撮影装置による撮影に基づく撮影画像に含まれるオブジェクト上の3次元位置との距離を示す距離情報を取得する距離情報取得手段と、前記3次元形状モデルに含まれる所定のの3次元位置が前記複数の撮影装置に含まれる所定の撮影装置の3次元位置から見える位置か否かを、前記モデル情報取得手段により取得されたモデル情報が示す当該所定のの3次元位置と、前記撮影情報取得手段により取得された撮影情報が示す当該所定の撮影装置の3次元位置と、前記距離情報取得手段により取得された距離情報が示す当該所定の撮影装置の3次元位置と当該所定の撮影装置による撮影に基づく撮影画像に含まれるオブジェクト上の3次元位置との距離と、に基づいて判定する判定手段と、を有することを特徴とする。
本発明によれば、複数の仮想視点画像を容易に生成することができる。
実施形態に係る画像生成装置のハードウェア構成例を示す図である。 第1の実施形態に係る画像処理システムにおける機能構成例を示すブロック図である。 第1の実施形態における仮想視点画像を生成する処理手順の一例を示すフローチャートである。 可視性情報としてのビット配列の例を示す図である。 第2の実施形態に係る画像処理システムにおける機能構成例を示すブロック図である。 第2の実施形態における仮想視点画像を生成する処理手順の一例を示すフローチャートである。 距離画像の中の被写体領域を囲む矩形領域を説明するための図である。
(第1の実施形態)
本実施形態では、推定した被写体の形状モデルの可視性情報を保存した後、前記可視性情報を用いて複数の仮想視点画像を生成する例を示す。ここで、可視性情報とは、形状モデルを構成する要素が、実世界の複数の異なる位置・姿勢で設置されたカメラ(実カメラ)のそれぞれから見えているか否かを示す情報である。以下では、形状モデルを構成する要素を3次元の点として説明する。なお、形状モデルを構成する要素はこれに限定されず、被写体を表すのに、被写体の有無を1ビットのフラグで表したり、メッシュなどの情報で表現したりしても構わない。なお、本実施形態では、仮想視点画像が静止画である場合を中心に説明するが、仮想視点画像は動画であってもよい。
[システム構成]
以下、本発明の実施形態について図面を参照して説明する。まず、図1及び図2を用いて、仮想視点画像を生成し出力する画像処理システムの構成について説明する。図1は、本実施形態に係る画像生成装置1のハードウェア構成例を示す図である。図2は、本実施形態に係る画像処理システムにおける機能構成例を示すブロック図である。本実施形態における画像処理システムは、画像生成装置1、撮像装置群2、および表示装置3を有する。
まず、図1に示す画像生成装置1のハードウェア構成例について説明する。
画像生成装置1は、CPU101と、ROM102と、RAM103と、HDD104と、表示I/F105と、入力部106と、通信I/F107とを有している。CPU101は、ROM102に記憶された制御プログラムを読み出して各種処理を実行する。RAM103は、CPU101の主メモリ、ワークエリア等の一時記憶領域として用いられる。HDD104は、各種データや各種プログラム等を記憶する。表示I/F105は、各種情報を表示装置3に出力する。入力部106は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。
通信I/F107は、ネットワークを介して外部装置との通信処理を行う。また、他の例としては、通信I/F107は、無線により外部装置との通信を行ってもよい。
なお、後述する画像生成装置1の機能や処理は、CPU101がROM102又はHDD104に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。また、他の例としては、CPU101は、ROM102等に替えて、SDカード等の記録媒体に格納されているプログラムを読み出してもよい。
なお、本実施形態では、画像生成装置は、1つのプロセッサ(CPU101)が1つのメモリ(ROM102)を用いて後述するフローチャートに示す各処理を実行するものとするが、他の様態であっても構わない。例えば複数のプロセッサや複数のRAM、ROM及びストレージを協働させて後述するフローチャートに示す各処理を実行することもできる。また、ハードウェア回路を用いて一部の処理を実行するようにしても良い。また、CPU以外のプロセッサを用いて後述する画像生成装置1の機能や処理を実現することとしてもよい。(例えば、CPUに替えてGPU(Graphics Processing Unit)を用いることとしてもよい。)
次に、図2を参照しながら本実施形態に係る画像処理システムについて説明する。
画像生成装置1は、撮像装置群2で撮影した同時刻の画像と各実カメラのカメラパラメータとを通信I/F107から取得し、仮想視点画像を生成する。そして、表示I/F105を経由して、生成した仮想視点画像を表示装置3へ送信する。カメラパラメータは外部パラメータと内部パラメータとで構成される。外部パラメータはカメラの位置及び姿勢の情報とし、内部パラメータは実カメラの焦点距離及びイメージセンサの中心座標の情報とする。
撮像装置群2は、複数の実カメラを含み、各実カメラはそれぞれ異なる方向から被写体を撮影する。本実施形態において、撮像装置群2に含まれる複数の実カメラはカメラを識別するためのカメラ番号を持つ。各実カメラは画像生成装置1と接続され、各実カメラの撮像画像や各実カメラのカメラパラメータをそれぞれ画像生成装置1に送信する。また、これらの実カメラは現実世界の1つの時刻情報で同期され、撮影した画像には時刻情報が付与される。なお、カメラパラメータは撮像画像に同期して送信しても構わないし、撮影前や必要に応じて非同期で送信しても構わない。
表示装置3は、画像生成装置1で生成された画像を受信し、仮想視点画像を表示する。
画像生成装置1は、カメラ情報取得部200、形状推定部210、距離推定部220、可視性情報保存部230、及び仮想視点画像生成部240を備えている。
カメラ情報取得部200は、撮像装置群2からカメラ情報として複数の実カメラで撮影された同時刻の撮像画像と各実カメラのカメラパラメータとをそれぞれ通信I/F107を経由して取得する。形状推定部210から仮想視点画像生成部240までの各部は、カメラパラメータをカメラ情報取得部200から取得する。
形状推定部210は、撮像画像とカメラパラメータとを用いて被写体の3次元形状を推定する。そして、形状推定結果である形状モデルを距離推定部220、可視性情報保存部230、及び仮想視点画像生成部240へ出力する。
距離推定部220は、形状モデルとカメラパラメータとを用いて、形状モデルの各点と撮像面との距離を推定し、その距離情報を可視性情報保存部230へ出力する。
可視性情報保存部230は、形状モデルと距離情報とを用いて、形状モデルの各点が、各実カメラから見えているか否かを示す可視性を判定し、その結果をHDD104に保存する。
仮想視点画像生成部240は、1枚の仮想視点画像を生成するために、1つの仮想視点情報(仮想カメラのカメラパラメータ)の指定を受け付け、指定に応じて仮想視点画像を生成する。仮想視点情報は、仮想視点を指定するユーザ(操作者)が入力部106を操作することで指定される。なお、仮想視点情報の指定に関してはこれに限定されず、被写体を認識するなどにより指定しても構わない。生成した仮想視点画像は表示装置3へ出力される。
[動作フロー]
図3のフローチャートを用いて、画像生成装置1の処理の流れを詳細に説明する。本フローチャートでは、S310は複数の実カメラで撮影した同時刻の画像と各カメラのカメラパラメータを取得するステップ、S320は形状推定処理のステップ、S230は距離推定処理のステップである。そして、S340は可視性判定してその結果を保存する処理のステップ、S350は入力された複数の仮想視点画像を生成して出力する処理のステップである。以下に、詳細なフローを説明する。
<S310>
S310では、カメラ情報取得部200は、カメラ情報として同時刻の各実カメラの撮像画像とカメラパラメータとを取得する。そして、取得したカメラパラメータを形状推定部210、距離推定部220、可視性情報保存部230、及び仮想視点画像生成部240に送る。また、カメラ情報取得部200は、各実カメラの撮像画像を形状推定部210へ送る。
<S320>
S320では、形状推定部210は、各実カメラの撮像画像とカメラパラメータとを取得し、被写体の3次元形状を推定する。そして、推定した結果の形状モデルを距離推定部220、可視性情報保存部230、及び仮想視点画像生成部240へ送る。
ここで、3次元形状を推定する処理は、例えば、被写体のシルエット画像を生成する処理と3次元形状を推定する処理とで構成される。シルエット画像は被写体領域を白、それ以外の領域を黒で表現した2値画像である。シルエット画像は被写体を撮影した撮像画像から、被写体が存在しない時に予め撮影した背景画像との差分を算出し、閾値以上をシルエット(前景領域)とする背景差分法などの一般的な手法で生成できる。ただし、シルエット画像を生成する方法はこれに限定されない。例えば、人体を認識するなどの方法を用いても構わない。
次に形状推定部210は、生成した全実カメラのシルエット画像とカメラパラメータとを用いて、被写体の3次元形状を推定する。3次元形状の推定には、例えば、Visual Hull手法を用いる。この処理の結果、被写体の形状モデルを表現した3D点群(3次元座標を持つ点の集合)が得られる。3D点群の座標Xwは、例えば、実世界の任意の位置を原点とする3つの直交する軸(x軸,y軸,z軸)を持つ世界座標系で表現される。
<S330>
S330では、距離推定部220は、各実カメラのカメラパラメータと形状推定部210によって得られた3D点群とを取得し、実カメラから被写体までの距離を推定する。そして、推定した結果の距離画像を可視性情報保存部230へ送る。
ここで、実カメラから被写体までの距離を推定し、距離画像を生成する方法について説明する。距離画像は撮像画像と同じ幅、高さとし、各画素には距離値が格納される。例えば、まず、3D点群の点Pの座標Xwに、外部行列Teをかけることで、カメラ座標系のカメラ座標Xcに変換する。ここで外部行列Teは実カメラの外部パラメータから構成される行列である。カメラ位置を原点に実カメラのレンズが向く方向をカメラ座標系のz軸の正とすると、カメラ座標Xcのz座標がその点を実カメラから見た場合の距離値である。
次に、カメラ座標Xcの画像座標Xiを算出し、距離値を格納する距離画像の座標を求める。画像座標Xiはカメラ座標Xcをz座標で正規化した正規化カメラ座標に内部行列Tiをかけることで算出される。なお、内部行列Tiは実カメラの内部パラメータから構成される行列である。画像座標Xiの画素に既に計算した別の点の距離値が格納されている場合、その値と画像座標Xiのz座標とを比較する。そして、z座標の方が小さい場合に、z座標を画像座標Xiにおける画素値として新しく格納する。3D点群の全ての点Pにこれらの処理を実行することで1台の実カメラの距離画像を生成することができる。さらに、全ての実カメラについて処理することで、全実カメラの距離画像を生成することができる。
<S340>
S340では、可視性情報保存部230は、各実カメラの距離画像及びカメラパラメータと、3D点群とを取得し、3D点群を構成する全点について可視性を判定し、その結果をHDD104に保存する。また、その結果を仮想視点画像生成部240へ送る。
可視性を判定してその結果を保存する方法について述べる。まず、3D点群の点Pの座標Xwをカメラ座標系と画像座標系とに変換し、カメラ座標Xcと画像座標Xiとを算出する。そして、画像座標Xiにおける距離画像の画素値とカメラ座標Xcのz座標(実カメラから点までの距離)とを比較する。この比較の結果、その差分dが閾値以下である場合は点Pは実カメラから可視と判定し、差分dが閾値を超える場合は点Pはカメラから不可視と判定する。以上の処理を全実カメラについて処理することで、1つの点Pがそれぞれの実カメラから見えるか否かを判定できる。さらに、3D点群の全点について処理することで可視性情報を生成することができる。
各点の可視性情報は、例えば実カメラごとに可視性がわかるようにビット配列で保存される。図4には、可視性情報としてのビット配列400の例を示す。ビット配列400は、最下位ビット410を1台目の実カメラ、最上位ビット420を実カメラの台数番目の実カメラの可視性情報とする。各ビットは、対応する実カメラの可視性を示しており、不可視の場合は0で表現され、可視の場合は1で表現されている。例えば、図4に示すビット配列400の場合は、1,2,5,7,8台目の実カメラから該当する点が見え、3,4,6台目の実カメラからはその該当する点が見えないことを8ビットで表現している。このようなビット配列を3D点群の点数分設けることで点毎に関連付けて全点の可視性情報を保存できる。なお、図4に示す例では可視性情報を0か1で表現したが、差分dを用いて段階的に表現しても良い。この場合、各点は実カメラ台数分の差分dを持つように表現される。
<S350>
S350では、仮想視点画像生成部240は、各実カメラのカメラパラメータ、3D点群、及び可視性情報を取得し、1つ以上の仮想視点画像を生成する。1つ以上の仮想視点画像に係る仮想視点は、ユーザの操作により入力部106を介して取得しても良いし、1つ以上の仮想カメラの位置・姿勢に基づいて予め決めておいても良い。1つ以上の仮想視点の取得手段は他のいかなる方法であっても良い。最後に、生成した1つ以上の仮想視点画像を、表示I/F105を介して表示装置3へ出力する。
ここで、仮想視点画像生成部240が仮想視点画像を生成する方法について説明する。仮想視点画像生成部240は、まず、仮想カメラから見た前景画像(被写体領域の画像)を生成する処理と背景画像を生成する処理とを実行する。そして、生成した背景画像に前景画像を合成することで仮想視点画像を生成する。
まず、仮想視点画像の前景画像を生成する方法について説明する。仮想視点画像の前景画像は3D点群に色を付け、色が付いた点群を既存のCGレンダリング手法によりレンダリングすることで生成できる。3D点群に色を付けるために、まず、3D点群と可視性情報とを参照し、色を付けたい点Pの座標Xwと可視性情報とを取得する。S340において、可視性情報は3D点群の各点に付与されているので、点Pとその可視性とは同じ識別番号で取得できる。
次に、可視性情報のビット配列を参照し、点Pが見える実カメラを特定する。特定した実カメラの画像座標系に点Pの座標Xwを変換し、撮影したカメラ画像上の画像座標Xiの画素を点Pの色とする。点Pが複数の実カメラから見えている場合は、それぞれの実カメラで撮影した画像から画素値を取得し、例えば、それらの平均値を点Pの色とする。3D点群の全点について同じ処理を繰り返すことで全点に色を付けることができる。点Pの可視性情報が1または0のビット配列ではなく段階的な値で表現されている場合、可視と判定された実カメラから取得した画素値の重み付き平均値を点Pの色とする。可視の判定は、ビット配列の場合と同様に、閾値を設けて特定する。重みは可視と判定された実カメラの差分dの比を算出することで得ることができる。ただし、これらの方法に限定されない。例えば、平均値ではなく、最も距離に近い実カメラから取得した画素値を用いるなどの方法を用いても構わない。
次に、仮想視点画像の背景画像を生成する。まず、背景3Dモデルにおいて例えば競技場などの建物の頂点を設定する。背景3Dモデルは、競技場などのCGモデルを予め作成し、システム内に保存しておいたCGモデルを用いる。これらの頂点を仮想視点に近い2台の実カメラ(第1のカメラ、第2のカメラとする)のカメラ座標系と仮想視点のカメラ座標系とに変換する。次に、仮想視点と第1のカメラとの対応点と、仮想視点と第2のカメラとの対応点とを用いて、仮想視点と第1のカメラとの間の第1の変換行列と、仮想視点と第2のカメラとの間の第2の変換行列とを算出する。仮想視点の背景画像の各画素値を算出するために、各画素の座標を第1及び第2の変換行列を用いて、それぞれの背景画像の座標系に変換し、変換後の座標の画素値を取得する。得られた2つの画素値の平均を算出することで背景画像の画素値とする。ただし、使用する実カメラの台数はこれに限定されない。仮想視点に近いn台の実カメラを用いる場合は、同様の点順で第1〜第nの変換行列を算出し、これらの変換行列を用いて変換後の座標を取得する。そして、n個の画素値の平均を背景画像の画素値とする。
このようにして得られた仮想視点画像の背景画像上に前景画像を重ねることで仮想視点画像が生成できる。さらに、仮想視点に依存しない3D点群や可視性情報は変えずに、仮想視点情報だけを変えて同じ処理を繰り返すことで、同時刻の複数の仮想視点画像を生成することができる。
以上のように本実施形態によれば、全実カメラの距離画像を保存せず、形状モデルを表現した3D点群のすべての点に関する可視性情報を保存することでデータ量を削減することができる。また、取得した可視性情報は、3D点群のすべての点に対応しているため、同時刻の複数の仮想視点画像を生成する際は、保存した可視性情報を共用することができる。そして、仮想カメラに依存する仮想視点画像の生成処理だけを複数回処理することで処理負荷の増大を防ぐことができる。
(第2の実施形態)
第1の実施形態では、仮想視点画像を生成する前に可視性情報を生成して保存し、その可視性情報を用いて3D点群に色を付けることで仮想視点の前景画像を生成した。本実施形態では、データ量を削減した距離画像を用いて3D点群の可視性を判定しながら3D点群に色を付け、仮想視点の前景画像を生成する例を示す。なお、本実施形態における画像生成装置のハードウェア構成は図1と同様であるため、説明は省略する。
[システム構成]
図5は、本実施形態における仮想視点画像を生成し出力する画像処理システムの機能構成例を示すブロック図である。本実施形態における画像処理システムも第1の実施形態と同様に、画像生成装置1、撮像装置群2、および表示装置3を有する。
画像生成装置1は、カメラ情報取得部200、形状推定部210、距離推定部220、距離画像保存部530、及び仮想視点画像生成部540を有する。なお、カメラ情報取得部200、形状推定部210、及び距離推定部220は第1の実施形態と同様であるので説明は省略する。
距離画像保存部530は、距離推定部220で生成した、撮像画像と同じ画像サイズの距離画像から、被写体を囲む矩形領域の画像を矩形領域距離画像として生成し、HDD104に保存する。そして、全実カメラ分の矩形領域距離画像を仮想視点画像生成部540へ出力する。
仮想視点画像生成部540は、矩形領域距離画像を用いて1つ以上の仮想視点画像を生成する。本実施形態では、矩形領域距離画像を用いて各点の可視性を判定しながら点の色付け処理を進めることで、仮想視点画像の前景画像を生成する。この点が第1の実施形態の仮想視点画像生成部240の処理と異なっている。
[動作フロー]
次に、図6のフローチャートを用いて、本実施形態に係る画像生成装置1の処理の流れを説明する。本フローチャートにおけるS310、S320、及びS330は第1の実施形態で説明した図3と処理内容は同様であるため、説明は省略する。S640は距離画像から被写体を囲む矩形領域を算出し、画像取得処理として、距離画像を切り出して矩形領域距離画像を取得して保存するステップである。そして、S650は、切り出した距離画像を用いて可視判定を処理しながら、点に色を付けるステップである。以下に、S640及びS650の詳細な処理を説明する。
<S640>
S640では、距離画像保存部530は、距離推定部220から距離画像を取得する。そして、各実カメラの距離画像中の被写体領域を囲む矩形領域を算出し、該距離画像からその矩形領域の画像を切り出して矩形領域距離画像を生成し、HDD104に保存する。また、距離画像保存部530は、矩形領域の情報と矩形領域距離画像とを仮想視点画像生成部540へ送信する。
ここで、各実カメラの距離画像から矩形領域距離画像を生成し、保存する方法について説明する。図7は、距離画像の中の被写体領域を囲む矩形領域を説明するための図である。距離画像700は、S330で生成されたある実カメラの距離画像である。まず、距離画像700を既存のラベリング処理により被写体領域710、711がラベリングされたラベリング画像を生成する。この結果、被写体領域710の画素値は1、被写体領域711の画素値は2、それ以外の画素値は0にラベリングされる。
矩形領域720は、頂点730、731の2点で表現され、これらの座標は距離画像の座標系740で表現される。矩形領域721についても同様である。頂点730、731は、ラベリング画像の画素値が1である画素集合において、X座標の最小値Xmin及び最大値Xmaxと、Y座標の最小値Ymin及び最大値Ymaxとを算出することで得られる。この結果、頂点730の座標は(Xmin,Ymin)、頂点731は(Xmax,Ymax)と表現できる。なお、矩形領域はS320の形状推定処理で生成するシルエット画像を基に、前述と同様の処理で算出しても良い。
得られた矩形領域の大きさを画像サイズとする矩形領域距離画像は、距離画像の矩形領域内の画素値I(X,Y)を矩形領域距離画像の画素Ir(Xr,Yr)にコピーすることで生成される。Xr,Yrは、頂点730を原点とする矩形領域距離画像の座標系741で表現され、Xr=X−Xmin,Yr=Y−Yminとして算出できる。ラベルの数が2以上の場合、各ラベルにおいて、矩形領域情報と矩形領域距離画像とを生成する。実カメラ毎に生成された矩形領域の情報および矩形領域距離画像は、いずれの実カメラの距離画像かを識別できるように、各実カメラのカメラ番号を付与して保存する。
<S650>
S650では、仮想視点画像生成部540は、各実カメラのカメラパラメータ、3D点群、矩形領域情報、及び矩形領域距離画像を取得し、3D点群の各点の可視性情報を判定しながら仮想視点の前景画像を生成する。そして、仮想視点の背景画像を、S350と同じ方法で生成し、その背景画像上に前景画像を重畳することで仮想視点画像を生成する。仮想視点画像生成部540は、生成した仮想視点画像を表示装置3へ送信する。
ここで、矩形領域距離画像を用いて3D点群の各点の可視性を判定しながら仮想視点の前景画像を生成する方法について説明する。まず、S350と同様に、3D点群に色を付け、色が付いた点群を既存のCGレンダリング手法によりレンダリングすることで仮想視点画像の前景画像を生成する。3D点群に色を付けるために、まず、3D点群と矩形領域距離画像の情報とを参照し、色を付ける点Pの座標Xwの可視性を判定する。
可視性を判定する際には、まず、3D点群の点Pの座標Xwをカメラ座標系と画像座標系とに変換し、カメラ座標Xcと画像座標Xiとを算出する。さらに、画像座標Xiから矩形領域距離画像の矩形領域の開始点の座標を引くことで、矩形領域距離画像の座標Xjを算出する。座標Xjにおける矩形領域距離画像の画素値とXcのz座標(実カメラから点までの距離)とを比較する。この比較の結果、その差分dが閾値以下である場合は、点Pは実カメラから可視と判定し、差分dが閾値を超える場合は、点Pは実カメラから不可視と判定する。この処理を全ての実カメラについて繰り返すことで点Pの可視性情報を生成することができる。
以上のように可視性情報を生成することによって、S350と同様の方法で点Pの色を算出することができる。以上の処理を3D点群の全点について処理することで3D点群に色を付けることができる。背景画像の生成方法は第1の実施形態と同様の手順であり、背景画像上に前景画像を重畳することで仮想視点画像を生成する。
以上のように本実施形態によれば、実カメラで撮影した画像サイズの距離画像を保存せず、被写体領域を囲む矩形領域にデータ量を削減した矩形領域距離画像を保存するようにした。これにより、同時刻に複数の仮想視点画像を生成する場合に、この矩形領域距離画像を用いて可視性を判定し、データ転送時間の増大やデータ容量の増加を防ぐことができる。
(その他の実施形態)
前述した実施形態では、画像生成装置において被写体の形状モデルを推定したが、形状推定部210及び距離推定部220の処理を別の装置で行ってもよい。この場合、カメラ情報取得部200は、さらに被写体の形状モデルを表現する3D点群と、距離画像とをその装置から取得するようにする。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
230 可視性情報保存部
240 仮想視点画像生成部

Claims (16)

  1. 複数の撮影装置により撮影対象領域を複数の方向から撮影することで得られる複数の撮影画像に基づく仮想視点画像を生成するための処理を行う情報処理装置であって、
    前記撮影対象領域内に位置するオブジェクトの3次元形状モデルであって当該オブジェクトの3次元形状を3次元空間内の点の集まりとして表す3次元形状モデルに含まれる点の3次元位置を示すモデル情報を取得するモデル情報取得手段と、
    前記複数の撮影装置に含まれる撮影装置の3次元位置を示す撮影情報を取得する撮影情報取得手段と、
    前記複数の撮影装置に含まれる撮影装置の3次元位置と当該撮影装置による撮影に基づく撮影画像に含まれるオブジェクト上の3次元位置との距離を示す距離情報を取得する距離情報取得手段と、
    前記3次元形状モデルに含まれる所定のの3次元位置が前記複数の撮影装置に含まれる所定の撮影装置の3次元位置から見える位置か否かを、前記モデル情報取得手段により取得されたモデル情報が示す当該所定のの3次元位置と、前記撮影情報取得手段により取得された撮影情報が示す当該所定の撮影装置の3次元位置と、前記距離情報取得手段により取得された距離情報が示す当該所定の撮影装置の3次元位置と当該所定の撮影装置による撮影に基づく撮影画像に含まれるオブジェクト上の3次元位置との距離と、に基づいて判定する判定手段と、を有することを特徴とする情報処理装置。
  2. 前記3次元形状モデルに含まれる点に関する可視性情報であって、特定の時刻において当該の3次元位置が撮影装置の3次元位置から見える位置か否かを前記複数の撮影装置に含まれる2以上の撮影装置それぞれについて識別可能にする可視性情報を、前記判定手段による判定の結果に基づいて生成する情報生成手段を有することを特徴とする請求項1に記載の情報処理装置。
  3. 前記距離情報取得手段により取得される距離情報は、前記複数の撮影装置に含まれる撮影装置による撮影に基づく撮影画像の画素に対応する3次元位置と当該撮影装置の3次元位置との距離を、当該撮影画像の複数の画素それぞれについて示す情報であることを特徴とする請求項2に記載の情報処理装置。
  4. 前記距離情報取得手段により取得される距離情報は、前記複数の撮影装置に含まれる撮影装置による撮影画像全体の画素それぞれについて当該画素に対応する3次元位置と当該撮影装置の3次元位置との距離を示す情報から、前記撮影画像内の前記オブジェクトに応じた部分領域に対応する画素についての情報を抽出することで得られる情報であることを特徴とする請求項3に記載の情報処理装置。
  5. 前記特定の時刻における撮影に基づく複数の撮影画像のうちの1以上の撮影画像に基づいて前記3次元形状モデルを生成するモデル生成手段と、
    前記モデル生成手段により生成される前記3次元形状モデルと前記情報生成手段により生成される前記可視性情報とを関連付けて記憶部に記憶させる記憶制御手段とを有することを特徴とする請求項2乃至4の何れか1項に記載の情報処理装置。
  6. 前記情報生成手段により生成される前記可視性情報は、前記仮想視点画像の画素の値を何れの撮影装置による撮影に基づく画像を用いて決定するかを判断するために用いられる情報であることを特徴とする請求項2乃至5の何れか1項に記載の情報処理装置。
  7. 前記情報生成手段により生成される前記可視性情報は、前記複数の撮影装置の数に応じたビット配列で構成されることを特徴とする請求項2乃至の何れか1項に記載の情報処理装置。
  8. 前記3次元形状モデルに対応するオブジェクトには、前記撮影対象領域内に位置する人物が含まれることを特徴とする請求項2乃至の何れか1項に記載の情報処理装置。
  9. 前記情報生成手段は、前記3次元形状モデルに含まれる点それぞれに関する前記可視性情報であって、前記特定の時刻において当該の3次元位置が撮影装置の3次元位置から見える位置か否かを前記複数の撮影装置それぞれについて識別可能にする前記可視性情報を生成することを特徴とする請求項2乃至の何れか1項に記載の情報処理装置。
  10. 前記判定手段は、前記モデル情報取得手段により取得されたモデル情報が示す3次元位置と前記撮影情報取得手段により取得された情報が示す3次元位置との第1距離と、前記距離情報取得手段により取得された距離情報が示す第2距離とを比較することで、前記3次元形状モデルに含まれる前記所定のの3次元位置が前記所定の撮影装置の3次元位置から見える位置か否かを判定することを特徴とする請求項2乃至の何れか1項に記載の情報処理装置。
  11. 前記判定手段は、前記第1距離と前記第2距離との差が閾値以下である場合には前記所定のの3次元位置が前記所定の撮影装置の3次元位置から見える位置であると判定し、前記第1距離と前記第2距離との差が前記閾値より大きい場合には前記所定のの3次元位置が前記所定の撮影装置の3次元位置から見える位置でないと判定することを特徴とする請求項10に記載の情報処理装置。
  12. 複数の撮影装置により撮影対象領域を複数の方向から撮影することで得られる複数の撮影画像に基づく仮想視点画像を生成するための処理を行う情報処理方法であって、
    前記撮影対象領域内に位置するオブジェクトの3次元形状モデルであって当該オブジェクトの3次元形状を3次元空間内の点の集まりとして表す3次元形状モデルに含まれる点の3次元位置を示すモデル情報を取得するモデル情報取得工程と、
    前記複数の撮影装置に含まれる撮影装置の3次元位置を示す撮影情報を取得する撮影情報取得工程と、
    前記複数の撮影装置に含まれる撮影装置の3次元位置と当該撮影装置による撮影に基づく撮影画像に含まれるオブジェクト上の3次元位置との距離を示す距離情報を取得する距離情報取得工程と、
    前記3次元形状モデルに含まれる所定のの3次元位置が前記複数の撮影装置に含まれる所定の撮影装置の3次元位置から見える位置か否かを、前記モデル情報取得工程において取得されたモデル情報が示す当該所定のの3次元位置と、前記撮影情報取得工程において取得された撮影情報が示す当該所定の撮影装置の3次元位置と、前記距離情報取得工程において取得された距離情報が示す当該所定の撮影装置の3次元位置と当該所定の撮影装置による撮影に基づく撮影画像に含まれるオブジェクト上の3次元位置との距離と、に基づいて判定する判定工程と、を有することを特徴とする情報処理方法。
  13. 前記3次元形状モデルに含まれる点に関する可視性情報であって、特定の時刻において当該の3次元位置が撮影装置の3次元位置から見える位置か否かを前記複数の撮影装置に含まれる2以上の撮影装置それぞれについて識別可能にする可視性情報を、前記判定工程における判定の結果に基づいて生成する情報生成工程を有することを特徴とする請求項12に記載の情報処理方法。
  14. 前記距離情報取得工程において取得される距離情報は、前記複数の撮影装置に含まれる撮影装置による撮影に基づく撮影画像の画素に対応する3次元位置と当該撮影装置の3次元位置との距離を、当該撮影画像の複数の画素それぞれについて示す情報であることを特徴とする請求項13に記載の情報処理方法。
  15. 前記特定の時刻における撮影に基づく複数の撮影画像のうちの1以上の撮影画像に基づいて前記3次元形状モデルを生成するモデル生成工程と、
    前記モデル生成工程において生成される前記3次元形状モデルと前記情報生成工程において生成される前記可視性情報とを関連付けて記憶部に記憶させる記憶制御工程とを有することを特徴とする請求項13又は14に記載の情報処理方法。
  16. コンピュータを、請求項1乃至11の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2018198368A 2018-10-22 2018-10-22 情報処理装置、情報処理方法及びプログラム Active JP6759300B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018198368A JP6759300B2 (ja) 2018-10-22 2018-10-22 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018198368A JP6759300B2 (ja) 2018-10-22 2018-10-22 情報処理装置、情報処理方法及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017182795A Division JP6425780B1 (ja) 2017-09-22 2017-09-22 画像処理システム、画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019061684A JP2019061684A (ja) 2019-04-18
JP6759300B2 true JP6759300B2 (ja) 2020-09-23

Family

ID=66177492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018198368A Active JP6759300B2 (ja) 2018-10-22 2018-10-22 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6759300B2 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5295416B1 (ja) * 2012-08-01 2013-09-18 ヤフー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP5945255B2 (ja) * 2013-08-27 2016-07-05 日本電信電話株式会社 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム
US9905039B2 (en) * 2014-02-21 2018-02-27 Qualcomm Incorporated View independent color equalized 3D scene texturing

Also Published As

Publication number Publication date
JP2019061684A (ja) 2019-04-18

Similar Documents

Publication Publication Date Title
JP6425780B1 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
JP6948175B2 (ja) 画像処理装置およびその制御方法
JP6560480B2 (ja) 画像処理システム、画像処理方法、及びプログラム
JP5093053B2 (ja) 電子カメラ
JP6685827B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5945255B2 (ja) 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム
JP7027049B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6902881B2 (ja) 情報処理装置及び三次元モデルの生成方法
JP2019128641A (ja) 画像処理装置、画像処理方法及びプログラム
JP2004280776A (ja) 画像内のオブジェクトの形状を決定する方法
WO2021161878A1 (ja) 画像処理装置、画像処理方法、学習済みモデルの生成方法、およびプログラム
CN116342831A (zh) 三维场景重建方法、装置、计算机设备及存储介质
JP6759300B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2018063635A (ja) 画像処理装置、画像処理方法およびプログラム
JP6641313B2 (ja) 領域抽出装置及びプログラム
JP7197211B2 (ja) 三次元グラフィックスデータ作成方法、プログラム及び三次元グラフィックスデータ作成システム
JP7418107B2 (ja) 形状推定装置、形状推定方法及びプログラム
RU2778288C1 (ru) Способ и устройство для определения освещенности изображения лица, устройство и носитель данных
WO2020209108A1 (ja) 画像処理装置、3dモデル生成方法、およびプログラム
JP2023026244A (ja) 画像生成装置および画像生成方法、プログラム
JP2002222430A (ja) 3次元ポリゴンメッシュを生成する方法、装置、プログラム及びプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2022039374A (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
JP2021128673A (ja) 画像処理装置、画像処理方法及びプログラム
JP2023080290A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2021018570A (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200902

R151 Written notification of patent or utility model registration

Ref document number: 6759300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151