JP2023153534A - 画像処理装置、画像処理方法、およびプログラム - Google Patents
画像処理装置、画像処理方法、およびプログラム Download PDFInfo
- Publication number
- JP2023153534A JP2023153534A JP2022062867A JP2022062867A JP2023153534A JP 2023153534 A JP2023153534 A JP 2023153534A JP 2022062867 A JP2022062867 A JP 2022062867A JP 2022062867 A JP2022062867 A JP 2022062867A JP 2023153534 A JP2023153534 A JP 2023153534A
- Authority
- JP
- Japan
- Prior art keywords
- image
- shadow
- foreground object
- space
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 102
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000005286 illumination Methods 0.000 claims abstract description 59
- 239000002131 composite material Substances 0.000 claims abstract description 47
- 238000003384 imaging method Methods 0.000 claims description 91
- 238000009877 rendering Methods 0.000 claims description 25
- 230000015572 biosynthetic process Effects 0.000 claims description 18
- 238000003786 synthesis reaction Methods 0.000 claims description 18
- 238000012937 correction Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 abstract description 9
- 239000000203 mixture Substances 0.000 abstract description 8
- 238000000034 method Methods 0.000 description 50
- 238000010586 diagram Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/60—Shadow generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/507—Depth or shape recovery from shading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/564—Depth or shape recovery from multiple images from contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
【課題】データ量および演算量を抑制しながら、CG空間に合成されるオブジェクトの影を生成すること。【解決手段】画像処理装置は、仮想視点から前景オブジェクトを見た背景を含まない画像である前景オブジェクト画像を取得する第1の取得手段と、コンピュータグラフィックスを用いて背景が描画されたCG空間を前記仮想視点から見た画像である背景画像を取得する第2の取得手段と、前記CG空間に対応する前記前景オブジェクトの影を表す影画像を生成する影生成手段と、前記前景オブジェクト画像、前記背景画像、および前記影画像を1つの画像とした合成画像を生成する合成手段と、を有し、前記影生成手段は、前記前景オブジェクトの形状に関する二次元の情報と、前記CG空間における照明の情報と、に基づき前記影画像を生成する。【選択図】図1
Description
本開示は、撮像画像に基づくデータの生成に関する。
複数の視点で前景オブジェクトを時刻同期して撮像して得られた複数の撮影画像に基づき、前景オブジェクトの三次元形状をボクセルなどの要素群で表した三次元形状データ(三次元モデルともよぶ)を生成する方法がある。また、コンピュータグラフィックスを使用して生成された三次元空間に、前景オブジェクトの三次元モデルを合成する方法がある。さらに影を合成することでリアルな合成画像を生成することができる。
特許文献1には、前景オブジェクトの三次元モデルと、三次元モデルが投影される投影空間の光源情報に基づいて、オブジェクトの影を生成することが記載されている。
特許文献1のように前景オブジェクトの三次元モデルをそのまま用いて影を生成する方法では、三次元モデルの各要素の位置情報は三次元の情報となるため、影の生成のために使用されるデータ量が多くなり、影を生成する際の演算量が大きくなってしまう。
本開示は、データ量および演算量を抑制しながら、CG空間に合成される前景オブジェクトの影を生成することを目的とする。
本開示の画像処理装置は、仮想視点から前景オブジェクトを見た背景を含まない画像である前景オブジェクト画像を取得する第1の取得手段と、コンピュータグラフィックスを用いて背景が描画されたCG空間を前記仮想視点から見た画像である背景画像を取得する第2の取得手段と、前記CG空間に対応する前記前景オブジェクトの影を表す影画像を生成する影生成手段と、前記前景オブジェクト画像、前記背景画像、および前記影画像を1つの画像とした合成画像を生成する合成手段と、を有し、前記影生成手段は、前記前景オブジェクトの形状に関する二次元の情報と、前記CG空間における照明の情報と、に基づき前記影画像を生成することを特徴とする。
本開示によれば、データ量および演算量を抑制しながら、CG空間に合成される前景オブジェクトの影を生成することができる。
以下、図面を参照しながら、本開示の技術を実施するための形態について説明する。なお、以下の実施形態は本開示の技術を限定するものではなく、また、以下の実施形態で説明されている特徴の組み合わせの全てが本開示の技術の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。また、参照符号において番号の後ろに付与したアルファベットのみが異なる用語については、同一機能を持つ装置の別インスタンスを示すものとする。
<実施形態1>
[システム構成]
図1は、仮想視点から見た背景を含まない前景オブジェクトの画像をCG画像と合成して合成画像を生成するためのシステムの一例を示す図である。本システムは、撮像装置111、撮像情報入力装置110、CG情報入力装置120、画像処理装置100、および出力装置130を有する。
[システム構成]
図1は、仮想視点から見た背景を含まない前景オブジェクトの画像をCG画像と合成して合成画像を生成するためのシステムの一例を示す図である。本システムは、撮像装置111、撮像情報入力装置110、CG情報入力装置120、画像処理装置100、および出力装置130を有する。
撮像装置111は、複数の撮像装置で構成され、複数の撮像装置それぞれは、動画などの画像を撮像するデジタルビデオカメラなどの装置である。撮像装置111を構成する複数の撮像装置は全台が時刻同期して撮像を行う。撮像装置111は、複数方向から撮像空間内に存在するオブジェクトを様々な角度で撮像してその結果得られた画像を撮像情報入力装置110へ出力する。
図2(a)は、撮像装置111の配置等を説明するための図である。図2(a)における撮像装置111a~111gは、撮像装置111を構成する複数の撮像装置の一例である。図2(a)に示すように、撮像装置111a~111gは、例えば、スタジオの周囲に配置され、前景オブジェクト202を様々な角度から時刻同期して撮像する。撮像装置111の撮像対象となるオブジェクトを前景オブジェクトとよぶ。前景オブジェクトは、例えば、人物である。または前景オブジェクトは、動物、または、ボール、ゴール等、画像パターンが予め定められている物体であってもよい。
撮像情報入力装置110は、撮像装置111が異なる視点で前景オブジェクトを撮像して得られた複数の撮像画像と、撮像装置111の位置、姿勢、および画角などの視点情報と、を画像処理装置100へ出力する。撮像装置の視点情報には、例えば、撮像装置111の外部パラメータ、内部パラメータ、レンズの歪み、または焦点距離などが含まれる。撮像画像および撮像装置の視点情報は、撮像装置111から直接、画像処理装置100へ出力されてもよいし、撮像画像は他の蓄積装置から出力されてもよい。
CG情報入力装置120は、合成画像における背景となる三次元空間内の背景オブジェクトの位置、形状、マテリアル、アニメーション、エフェクト、および三次元空間内の照明の情報などの数値的な三次元情報を蓄積部から出力する。さらに三次元情報を制御するプログラムを蓄積部から出力する。背景となる三次元空間は、一般的なコンピュータグラフィックス(CG)を使用して生成される。本実施形態では、CGを使用して生成された背景となる三次元空間をCG空間ともよぶ。
画像処理装置100は、異なる視点で撮像して得られた複数の撮影画像に基づき、前景オブジェクトの三次元形状を表す三次元モデル(三次元形状データ)を生成する。さらに生成された三次元モデルを用いて、実際の撮像装置からの視点とは異なる仮想視点から見た前景オブジェクトの画像を生成するレンダリングを行う。
さらに画像処理装置100は、CG空間を仮想視点から見た画像に、同じ仮想視点から見た前景オブジェクトの画像を合成することで得られる合成画像を生成する。この合成により、前景オブジェクト画像に対する演出の効果を向上させることができ、より魅力的な画像とすることができる。なお、合成画像は、動画であっても、静止画であってもよい。画像処理装置100内の構成については後述する。
出力装置130は、合成部109によって生成された合成画像を出力し、ディスプレイなどの表示装置に表示する。また、サーバーなどの蓄積装置へ送信してもよい。なお、本システムは、図1のように複数の装置によって構成されてもよいし、一つの装置によって構成されてもよい。
[画像処理装置の機能構成]
次に、画像処理装置100の機能構成を、図1を用いて説明する。画像処理装置100は、前景抽出部101、三次元形状推定部103、仮想視点生成部102、仮想視点オブジェクト描画部104、CG空間描画部108、CG照明情報取得部106、前景マスク取得部105、影生成部107、および合成部109を有する。
次に、画像処理装置100の機能構成を、図1を用いて説明する。画像処理装置100は、前景抽出部101、三次元形状推定部103、仮想視点生成部102、仮想視点オブジェクト描画部104、CG空間描画部108、CG照明情報取得部106、前景マスク取得部105、影生成部107、および合成部109を有する。
前景抽出部101は撮像情報入力装置110から撮像画像を取得する。そして、撮像画像に含まれる前景オブジェクトが存在する領域を抽出して、前景オブジェクトの領域を表すシルエット画像を生成して出力する。
図2(b)のシルエット画像203は、前景オブジェクト202を撮像する撮像装置111bの撮像画像に基づき生成されたシルエット画像の一例である。図2(b)に示すように、シルエット画像は、前景オブジェクトの領域である前景領域を白で表し、前景領域以外の非前景領域を黒で表した二値画像として出力される。シルエット画像をマスク画像ともよぶ。このように仮想視点から見た前景オブジェクトの画像を生成するために、二次元の中間情報として、前景オブジェクトのシルエット画像が得られる。
前景領域を抽出する方法は、任意の既存の技術を用いればよいため限定しない。例えば、前景オブジェクトが存在しない時に撮像空間を撮像して得られた画像と撮像画像の差分を導出して、差分が閾値より高い領域を前景オブジェクトが存在する前景領域として抽出する方法を用いればよい。または、ディープニューラルネットワークを用いて前景領域が抽出されてもよい。
三次元形状推定部103は、前景オブジェクトの三次元モデルを生成する生成部である。三次元形状推定部103は、撮像画像、撮像装置111の視点情報、および前景抽出部101によって生成されたシルエット画像を用いて、前景オブジェクトの三次元形状を推定することで三次元モデルを生成する。本実施形態では、三次元形状を表すための要素群は、微小な直方体であるボクセル群であるものとして説明する。三次元形状の推定方法について限定しない、任意の既存の技術を用いて前景オブジェクトの三次元形状を推定することができる。
例えば、三次元形状推定部103は、視体積交差法を用いて前景オブジェクトの三次元形状を推定すればよい。視体積交差法では、撮像装置111を構成する複数の撮像装置それぞれに対応するシルエット画像の前景領域を、三次元の空間上で逆投影を行う。そして、それぞれの前景領域から導出される視体積の交差部分を求めることにより前景オブジェクトの三次元形状を得る方法である。または、三角測量の原理を用いて撮像装置から前景オブジェクトまでの距離を算出し、三次元形状を推定するステレオ法を用いてもよい。
仮想視点生成部102は、仮想視点から見た画像を描画するための仮想視点の情報として、仮想視点の位置、仮想視点における視線の向き、および画角などの仮想視点の視点情報を生成する。本実施形態では、仮想視点を仮想的なカメラ(仮想カメラ)に置き換えて説明する場合がある。このとき、仮想視点の位置は仮想カメラの位置、仮想視点からの視線の向きは仮想カメラの姿勢にそれぞれ対応する。
仮想視点オブジェクト描画部104は、仮想視点生成部102によって設定された仮想視点から見た前景オブジェクトの画像となるように、前景オブジェクトの三次元モデルに対してレンダリングを行う。仮想視点オブジェクト描画部104によるレンダリング結果として、仮想視点から見た前景オブジェクトのテスクチャ画像が得られる。
図3は、画像処理装置100によって生成される各画像を説明するための図である。図3(a)は仮想視点から見た前景オブジェクトのテクスチャ画像を表す図である。仮想視点から見た前景オブジェクトのテスクチャ画像を、仮想視点画像または前景オブジェクト画像とよぶことがある。
また、仮想視点オブジェクト描画部104によるレンダリングの結果として、仮想視点から前景オブジェクトまでの距離を表すデプス情報が得られる。また、デプス情報を画像として表したものをデプス画像とよぶ。
図3(e)は、図3(a)のテクスチャ画像に対応するデプス画像を示す図である。デプス画像は、各画素の画素値がカメラからの距離を表すデプス値である画像である。図3(e)のデプス画像は、仮想視点からの距離を表すデプス画像である。デプス画像において前景が存在しない領域の画素値は0となり、図3(e)では画素値が0の領域を黒で表している。また、図3(e)では、グレーの領域はデプス値が0でない領域を表し、濃いグレーほどデプス値が高いことを示している。デプス値は、値が大きいほど、その画素が表すオブジェクトの位置はカメラ(仮想視点)から離れていることを示す。このように仮想視点から見た前景オブジェクトの画像を生成する際に、二次元の中間情報として、前景オブジェクトのデプス情報(デプス画像)が得られることになる。
CG空間描画部108は、CG情報入力装置120から出力されたCG空間を、仮想視点から見た画像となるようにレンダリングをする。ここでCG空間の仮想視点とは仮想視点生成部102によって設定された仮想視点に対応する視点である。即ち、CG空間に合成された前景オブジェクトとの位置関係が、仮想視点オブジェクト描画部104がレンダリングする際に用いられた仮想カメラと前景オブジェクトとの位置関係と同じになるように設定された視点である。
レンダリングの結果、仮想視点からのCG空間を見たテスクチャ画像、および仮想視点からCG空間の各背景オブジェクトまでの距離を表すデプス情報(デプス画像)が得られる。なお、仮想視点から見たCG空間のテスクチャ画像を、単に背景画像とよぶことがある。
図3(b)は、仮想視点から見たCG空間のテクスチャ画像(背景画像)を表す図である。CG空間には立体形状の背景オブジェクトが配置されていることがあり、CG空間には、後述するCG照明に基づき背景オブジェクトの影が描画される。
CG照明情報取得部106は、背景として生成されたCG空間内の光源である照明(CG照明とよぶ)の情報をCG情報入力装置120から取得する。取得される情報には、CG照明の位置、方向などのCG空間における空間的な位置情報、およびCG照明の光学的情報が含まれる。CG照明の光学的情報は、例えば、照明の明るさ、色、またCG照明からの距離による減衰率などが含まれる。CG空間に複数のCG照明が存在する場合、それぞれのCG照明の情報が取得される。なお、CG照明の種類について特に限定しない。
前景マスク取得部105は、撮像装置111を構成する複数の撮像装置の中からCG照明の位置および向きに最も近い撮像装置を、CG照明情報取得部106が取得したCG照明の情報に基づき決定する。そして決定された撮像装置に対応する撮像画像から、前景抽出部101が前景オブジェクトを抽出して得られたシルエット画像を取得する。
図2(a)は、前景オブジェクト202を撮像する複数の撮像装置111a~111gの位置と、CG空間上に設定されたCG照明201の位置との関係を表している。図2(a)におけるCG照明201の位置は、CG空間内に合成された前景オブジェクトの位置に対応するCG照明201の位置を示している。図2(a)における撮像装置111a~111gの位置は、撮像情報入力装置110から出力された撮像装置の情報から導出された位置である。即ち、前景オブジェクト202を撮像した際の前景オブジェクト202に対する撮像装置111a~111gの位置を示している。このように撮像装置111の位置がCG空間に対応する位置となるように位置合わせされる。このため、前景マスク取得部105は、撮像装置111を構成する複数の撮像装置の中からCG照明の位置および向きに最も近い撮像装置を決定できる。
CG照明に近い撮像装置の決定する方法として、例えば、CG照明の位置と撮像装置の位置の差が最も小さくなる撮像装置を決定する。または、CG照明の向きと撮像装置の向きの差が最も小さくなる撮像装置を決定する。または、CG照明の位置および向きと撮像装置の位置および向きの差が最も小さくなる撮像装置を決定すればよい。
図2(a)の場合、CG照明201の位置および向きに近い撮像装置は、撮像装置111bと決定される。その場合、前景マスク取得部105は、撮像装置111bの撮像画像に基づき生成されたシルエット画像203を取得する。
影生成部107は、CG空間に前景オブジェクトが配置された場合の影を、仮想視点から見た画像である影のテクスチャ画像を生成する。影生成部が生成した影のテスクチャ画像を、単に影画像と呼ぶことがある。さらに、影生成部107は、仮想視点から影の距離を表すデプス情報(デプス画像)を生成する。影生成部107の処理の詳細は後述する。
図3(c)は、CG空間に対応するように投影された前景オブジェクトの影を仮想視点から見たテクスチャ画像(影画像)を表す図である。CG空間上のCG照明に合わせてオブジェクトの影を描画することで合成画像をよりリアルな画像とすることができる。
合成部109は、合成画像を生成する。即ち、仮想視点オブジェクト描画部104によって生成された前景オブジェクト画像、CG空間描画部108よって生成された背景画像、および影生成部107によって生成された影画像を、1つの画像とする合成画像を生成する。合成部109は、仮想視点オブジェクト描画部104、CG空間描画部108、および影生成部107によって生成されたそれぞれのデプス画像を用いて、画像を合成する。図3(d)は、図3(a)の前景オブジェクト画像、図3(b)の背景画像、および図3(c)の影画像を1つの画像となるように合成して得られた合成画像を表す図である。合成画像の生成方法の詳細は、後述する。
このように、CG空間にCG照明が設定されており、CG照明に基づきCG空間に影が描かれている場合、CG空間に合成される前景オブジェクトについても、図3(d)のようにCG空間に合わせて影を生成することで、不自然が画像となることが抑制される。
[ハードウェア構成]
図4は、画像処理装置100のハードウェア構成を説明するためブロック図である。
画像処理装置100は、GPU(Graphics Processing Unit)410、CPU(Central Processing Unit)411を含む演算部を有する。演算部は、例えば、画像処理および三次元形状生成を行う。さらに画像処理装置100は、ROM(Read Only Memory)412、RAM(Random access memory)413、補助記憶装置414を含む記憶部、表示部415、操作部416、通信I/F417、及びバス418を有する。
図4は、画像処理装置100のハードウェア構成を説明するためブロック図である。
画像処理装置100は、GPU(Graphics Processing Unit)410、CPU(Central Processing Unit)411を含む演算部を有する。演算部は、例えば、画像処理および三次元形状生成を行う。さらに画像処理装置100は、ROM(Read Only Memory)412、RAM(Random access memory)413、補助記憶装置414を含む記憶部、表示部415、操作部416、通信I/F417、及びバス418を有する。
CPU411は、ROM412やRAM413に格納されているコンピュータプログラムまたはデータを用いて画像処理装置100の全体を制御する。またCPU411は、表示部415を制御する表示制御部、及び操作部416を制御する操作制御部としても動作する。
GPU410は、データを多く並列処理することで効率的な演算を行うことができる。プログラムを実行する場合、CPU411およびGPU410の一方のみにより演算を行ってもよいし、CPU411およびGPU410が協働して演算を行ってもよい。
なお、画像処理装置100は、CPU411とは異なる1又は複数の専用のハードウェアを有し、CPU411による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。
ROM412は、変更を必要としないプログラムなどを格納する。RAM413は、補助記憶装置414から供給されるプログラムやデータ、及び通信I/F417を介して外部から供給されるデータなどを一時記憶する。補助記憶装置414は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。
表示部415は、例えば液晶ディスプレイやLED等で構成され、ユーザが画像処理装置100を操作するためのGUI(Graphical User Interface)などを表示する。操作部416は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受け付けて各種の指示をCPU411に入力する。
通信I/F417は、画像処理装置100の外部の装置との通信に用いられる。例えば、画像処理装置100が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F617に接続される。画像処理装置100が外部の装置と無線通信する機能を有する場合には、通信I/F617はアンテナを備える。バス418は、画像処理装置100の各部をつないで情報を伝達する。
図1の画像処理装置100内の各機能部は、画像処理装置100のCPU411が所定のプログラムを実行することにより実現されるが、これに限られるものではない。他にも例えば、GPU411、または不図示のFPGAなどのハードウェアが利用されてもよい。各機能部は、ソフトウエアと専用ICなどのハードウェアとの協働で実現されてもよいし、一部またはすべての機能がハードウェアのみで実現されてもよい。例えば、画像処理装置100における前景抽出部101、三次元形状推定部103、仮想視点オブジェクト描画部104、CG空間描画部108、影生成部107、および合成部109による処理には、CPU411に加えてGPU410が用いられる。
[影の生成方法について]
図5は、本実施形態の影生成処理の処理手順を説明するフローチャートである。図5のフローチャートで示される一連の処理は、画像処理装置100のCPUおよびGPUの少なくとも一方がROMに記憶されているプログラムコードをRAMに展開し実行することにより行われる。また、図5におけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。なお、各処理の説明における記号「S」は、当該フローチャートにおけるステップであることを意味し、以後のフローチャートにおいても同様とする。
図5は、本実施形態の影生成処理の処理手順を説明するフローチャートである。図5のフローチャートで示される一連の処理は、画像処理装置100のCPUおよびGPUの少なくとも一方がROMに記憶されているプログラムコードをRAMに展開し実行することにより行われる。また、図5におけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。なお、各処理の説明における記号「S」は、当該フローチャートにおけるステップであることを意味し、以後のフローチャートにおいても同様とする。
S501において影生成部107は、前景マスク取得部105が特定した撮像装置のシルエット画像に対して、CG照明の位置からの見た前景オブジェクトのシルエット画像となるように補正を行う。
例えば、CG照明を仮想カメラとみなし、その仮想カメラの視点情報と前景マスク取得部105が特定した撮像装置の視点情報とを用いて、前景マスク取得部105が特定したシルエット画像をCG照明から見た場合のシルエット画像に変換することで補正する。変換は、式(1)によって行われる。
I´=P-1IP´ 式(1)
I´=P-1IP´ 式(1)
式(1)におけるIおよびI´は一つ一つの要素が画素値を表す行列であり、Iは前景マスク取得部105が特定した撮像装置のシルエット画像の画像全体の画素値を表す行列である。I´は補正後のシルエット画像の画像全体の画素値を表す行列である。P-1は前景マスク取得部105が特定した撮像装置の視点情報Pの逆行列である。P´はCG照明の位置を仮想カメラの位置、CG照明の向きを仮想カメラの向きとした場合の仮想カメラの視点情報を示す行列である。
例えば、CG照明201に最も近い撮像装置111bのシルエット画像として図2(b)のシルエット画像203が前景マスク取得部105によって特定されたとする。この場合、CG照明201の位置および向きからの見えとなるように、シルエット画像203はシルエット画像204に変換される。
S502において影生成部107は、S501で得られた補正後のシルエット画像204の前景領域を影の領域として用いて、CG空間の投影面へ影の領域を投影する。
図6は、影生成処理を説明するための模式図である。影生成部107は、CG照明201の位置を仮想カメラの位置、CG照明201の向きを仮想カメラの向きとした仮想カメラから見たCG空間のデプス画像601を取得する。そして影生成部107は、そのデプス画像601に基づき投影面を算出する。影の投影方法は、投射テクスチャマッピング法を使用する、または、シャドウボリューム法やシャドウマップ法を用いてもよい。複数のCG照明が存在する場合、それぞれの照明により投影し、その後すべて影を統合する。
影生成部107は、投影される影の明るさを、CG照明の明るさおよび環境照明の明るさに基づき、式(2)によって算出する。
Lは投影面における影の明るさである。また、Leは環境照明の明るさである。Siは投影後の領域が影であるか否か示す値であり、CG照明iに対して投影後の領域が影となる場合は0となり、影ではない場合は1になる。LiはCG照明iが照射する明るさである。
S503において影生成部107は、S502で投影面に投影された影を、仮想視点生成部102によって設定された仮想視点から見た画像となるようにレンダリングする。レンダリングの結果として、仮想視点から見た影のテクスチャ画像(影画像)および仮想視点から影の距離を表すデプス情報(デプス画像)が得られる。生成されるデプス画像は、影が存在しない領域の画素値は0であり、影が存在する領域の画素値は投影面のデプス値である画像となる。
レンダリングの方法は、仮想視点オブジェクト描画部104およびCG空間描画部108における仮想視点からの見えを表すためのレンダリングと同じ方法でよい。または、例えばCG空間描画部108が用いるレンダリング方法よりも、簡易な方法で、影生成部107は、レンダリングを行ってもよい。
[合成について]
図7は、本実施形態の合成画像を生成するための合成処理の処理手順を説明するフローチャートである。
図7は、本実施形態の合成画像を生成するための合成処理の処理手順を説明するフローチャートである。
以下のS701~S706の処理は、合成画像における注目画素の1画素分の画素値を決定する処理である。以下の処理で、影のテクスチャ画像および影のデプス画像は、図5のフローチャートのS503で生成された仮想視点から見た影のテクスチャ画像およびデプス画像である。また、CG空間のテクスチャ画像およびデプス画像は、仮想視点から見たCG空間のテクスチャ画像およびデプス画像である。前景オブジェクトのテクスチャ画像およびデプス画像は、仮想視点から見た前景オブジェクトのテクスチャ画像およびデプス画像である。ここでの仮想視点は、仮想視点生成部102が設定した仮想視点またはその仮想視点に対応する視点である。また、それぞれの画像における注目画素とは、合成画像の注目画素に対応する画素を指すものとする。
S701において合成部109は、前景オブジェクトのデプス画像における注目画素のデプス値が0かを判定する。本ステップでは、注目画素が前景オブジェクトの領域以外の領域であるかの判定が行われることになる。
デプス値が0の場合(S701がYES)、S702に進む。S702において合成部109は、影のデプス画像における注目画素のデプス値と、CG空間のデプス画像における注目画素のデプス値は、一致しないかを判定する。
影のデプス値とCG空間のデプス値が一致する場合(S702がNO)、合成画像における注目画素は、前景オブジェクトの影の領域を構成する画素となるため、合成画像における前景オブジェクトの影を表す画素の画素値を決定するためにS703に進む。
S703において合成部109は、影のテクスチャ画像における注目画素の画素値とCG空間のテクスチャ画像における注目画素の画素値をアルファブレンドして、合成画像における注目画素の画素値を決定する。アルファ値は、注目画素の影画像の輝度とCG画像の輝度の比率から得られる。
一方、影のデプス値とCG空間のデプス値が一致しない場合(S702がYES)、S704に進む。影のデプス値とCG空間のデプス値が一致しない場合、注目画素は影も前景オブジェクトも存在しない領域の画素である。このため、S704で合成部109は、CG空間のテクスチャ画像における注目画素の画素値を、合成画像における注目画素の画素値に使用すると決定する。
一方、前景オブジェクトのデプス画像における注目画素のデプス値が0でない場合(S701がNO)、S705に進む。S705において合成部109は、前景オブジェクトのデプス画像における注目画素のデプス値が、CG空間のデプス画像における注目画素のデプス値より小さいかを判定する。
前景オブジェクトのデプス値が、CG空間のデプス値より小さい場合(S705がYES)、S706に進む。この場合、仮想視点から見て、前景オブジェクトはCG空間内の背景オブジェクトの手前にいることになる。このため、合成画像における注目画素は前景オブジェクトが存在する領域の画素となる。よって、合成部109は、前景オブジェクトのテクスチャ画像における注目画素の画素値を、合成画像における注目画素の画素値に使用すると決定する。
前景オブジェクトのデプス値が、CG空間のデプス値以上の場合(S705がNO)、CG空間の背景オブジェクトは前景オブジェクトの手前にいることになる。このためS704において合成部109は、CG空間のテクスチャ画像における注目画素の画素値を、合成画像における注目画素の画素値に使用すると決定する。または、半透明の背景オブジェクトが前景オブジェクトと仮想視点の間にいる場合がある。この場合は、その背景オブジェクトの透過性に応じて、前景オブジェクトのテクスチャ画像における注目画素の画素値とCG空間のテクスチャ画像における注目画素の画素値をアルファブレンドして、合成画像における注目画素の画素値を決定する。
以上説明したように本実施形態によれば、前景オブジェクトの二次元の情報であるシルエット画像を用いてCG照明に応じた前景オブジェクトの影を生成する。二次元の情報を用いることで、メッシュポリゴンのような三次元も情報を用いた影生成と比べ、演算リソースの使用量を軽減できる。このため、撮像とリアルタイムに影の生成する場合のように処理時間に制限がある場合でも、CG照明に合わせたリアルな影を生成することが可能となる。
なお、本実施形態の説明では、入力画像である撮像画像は静止画であることを想定して説明した。しかしながら、本実施形態の入力画像は動画であってもよい。入力画像が動画である場合、例えば、画像処理装置100は、動画のタイムコードなどの時間情報に従ってフレーム毎に処理すればよい。
<実施形態2>
実施形態1では、前景オブジェクトの二次元の情報として前景オブジェクトのシルエット画像に基づき影を生成する方法を説明した。しかしながら、スタジオなどの撮像空間において前景オブジェクトが前景オブジェクト以外のオブジェクトによって遮蔽されると、シルエット画像の前景領域は、前景オブジェクトの形状を適切に表していないことがある。この場合、前景オブジェクトの影の形状を適切に再現できないことがある。本実施形態では、前景オブジェクトの二次元の情報として前景オブジェクトのデプス画像を用いる方法を説明する。本実施形態については、実施形態1からの差分を中心に説明する。特に明記しない部分については実施形態1と同じ構成および処理である。
実施形態1では、前景オブジェクトの二次元の情報として前景オブジェクトのシルエット画像に基づき影を生成する方法を説明した。しかしながら、スタジオなどの撮像空間において前景オブジェクトが前景オブジェクト以外のオブジェクトによって遮蔽されると、シルエット画像の前景領域は、前景オブジェクトの形状を適切に表していないことがある。この場合、前景オブジェクトの影の形状を適切に再現できないことがある。本実施形態では、前景オブジェクトの二次元の情報として前景オブジェクトのデプス画像を用いる方法を説明する。本実施形態については、実施形態1からの差分を中心に説明する。特に明記しない部分については実施形態1と同じ構成および処理である。
図8は、本実施形態における画像処理装置100の機能構成図である。同一の構成については、同じ符号を付して説明する。実施形態1との異なるのは、前景デプス取得部801を有し、影生成部802の機能が異なる点である。前景デプス取得部801および影生成部802の機能の詳細は、フローチャートの説明と合わせて行う。
図9は、本実施形態の影生成処理の処理手順を説明するフローチャートである。図9を用いて本実施形態の影生成の処理の説明をする。
S901において前景デプス取得部801は、CG照明からの見た前景オブジェクトのデプス画像を生成して、影生成部802はそのデプス画像を取得する。
図10は、S901で取得されるデプス画像を説明するための図である。図10(a)は、図2(a)と同様の図であり、前景オブジェクトに合わせて位置合わせされた、撮像装置111a~111gおよびCG照明201の位置を表す図である。前景オブジェクト202を撮像する複数の撮像装置111a~111gの撮像画像から得られたシルエット画像を用いて、図10(b)に示す前景オブジェクト202の三次元形状1001が推定されて三次元モデル生成される。三次元形状1001は、仮想視点オブジェクト描画部104のレンダリングで使われる中間情報となる。
そして、前景デプス取得部801は、CG照明201の位置を仮想カメラの位置、CG照明201の向きを仮想カメラの向きとした仮想カメラから前景オブジェクトの三次元形状1001を見た場合のデプス画像1002を生成する。生成されたデプス画像1002では、前景オブジェクト202が存在する領域(デプス画像1002のグレーの領域)の画素値は前景オブジェクト202とCG照明201と間の距離を表すデプス値となる。また、前景オブジェクトが存在しない領域(デプス画像1002の黒の領域)の画素値は、0となる。このように、CG照明情報取得部106によって得られたCG照明201の位置をおよびCG照明201の向きに基づく前景オブジェクトのデプス画像が取得される。
S902において影生成部802は、S901で取得されたデプス画像1002における前景オブジェクト202の領域(デプス画像1002の黒以外のグレーの領域)を影の領域として用いて、投影面へ、その影の領域を投影する。影の投影方法および影の明るさの算出方法は、S502と同様であるため説明を省略する。
S903において影生成部802は、S902で投影面に投影された影を、仮想視点生成部102によって設定された仮想視点から見た画像となるようにレンダリングする。レンダリング方法はS503と同様であるため説明を省略する。
以上説明したように本実施形態においては、前景オブジェクトの2次元の情報であるデプス画像に基づき影を表す画像を生成する。デプス画像では、前景オブジェクトの領域が他のオブジェクトによって遮蔽されないため、より忠実に前景オブジェクトの形状を再現できる。このため、前景オブジェクトの影の形状を適切に生成することが可能となる。
<実施形態3>
本実施形態では、前景オブジェクトの姿勢情報を用いて影を生成する方法を説明する。本実施形態については、実施形態1からの差分を中心に説明する。特に明記しない部分については実施形態1と同じ構成および処理である。
本実施形態では、前景オブジェクトの姿勢情報を用いて影を生成する方法を説明する。本実施形態については、実施形態1からの差分を中心に説明する。特に明記しない部分については実施形態1と同じ構成および処理である。
図11は、本実施形態の画像処理装置100の機能構成図である。実施形態1と同一の構成については、同じ符号を付して説明する。本実施形態では、CG空間に対応する前景オブジェクトの影を生成するための機能部として、姿勢推定部1101、およびCGメッシュ配置部1102を有する点が実施形態1とは異なる。本実施形態における前景オブジェクトは人物であるものとして説明する。
姿勢推定部1101は、三次元形状推定部103が生成した前景オブジェクトの三次元モデルを用いて前景オブジェクトの姿勢を推定して、推定した姿勢を表す情報である姿勢情報を生成する。
図12は、姿勢情報を説明するための図である。姿勢推定部1101は、図12(a)の前景オブジェクトに対して、図12(b)のような骨格モデルを生成することで姿勢を推定する。骨格モデルの生成方法について任意の既存の方法を用いればよい。
CGメッシュ配置部1102は、CG空間における前景オブジェクトが合成される位置に、前景オブジェクトと同じ姿勢としたメッシュを配置する。
例えば、以下の方法で、前景オブジェクトと同じ姿勢とするメッシュを配置する。CGメッシュ配置部1102は、事前に、前景オブジェクトと同じ又は前景オブジェクトに近い形状のメッシュを準備する。メッシュには、姿勢推定部1101によって推定される姿勢(骨格)を適応できるようにする。本実施形態における前景オブジェクトは人物であることから、例えば、マネキンのような人物モデルのメッシュが準備される。そしてCGメッシュ配置部1102は、準備したメッシュにスケルトンを設定する。
そして、CGメッシュ配置部1102は、姿勢推定部1101が推定した姿勢(骨格)をメッシュに適応する。最後に、CGメッシュ配置部1102は、前景オブジェクトが合成されるCG空間上の位置を示す三次元位置情報を取得して、三次元位置情報に基づいてメッシュをCG空間に配置する。これにより、前景オブジェクトが合成される位置と同じ位置で、前景オブジェクトと同じ姿勢となる人物モデルのメッシュがCG空間に配置される。姿勢推定部1101が推定した姿勢(骨格)をメッシュに適応する際、姿勢(骨格)に応じて、事前に準備したメッシュのスケールを調整してもよい。
CG空間描画部108は、CG情報入力装置120から得た情報に基づいて、CG空間内を仮想視点から見た画像となるようにレンダリングする。レンダリングする際、CGメッシュ配置部1102が配置した人物モデルのメッシュの影はレンダリングするが、人物モデルのメッシュ本体のレンダリングは行わない。これにより、CG空間内の背景オブジェクトと前景オブジェクトに対応するオブジェクトの影がレンダリングされた、仮想視点から見たCG空間の画像が生成される。レンダリングの結果得られるCG空間の画像は、仮想視点から見たCG空間のテスクチャ画像およびデプス画像となる。
図13は、本実施形態の合成処理の手順を説明するフローチャートである。以下のS1301~S1304の処理は、合成画像における注目画素の1画素分の画素値を決定する処理である。以下の処理で、前景オブジェクトのテクスチャ画像およびデプス画像は、仮想視点から見た前景オブジェクトのテクスチャ画像およびデプス画像である。CG空間のテクスチャ画像およびデプス画像は、仮想視点から見たCG空間のテクスチャ画像およびデプス画像である。本実施形態では、仮想視点から見たCG空間のテクスチャ画像には、前景オブジェクトに対応する影画像が描画されているテクスチャ画像が用いられることになる。
S1301において合成部109は、前景オブジェクトのデプス画像における注目画素のデプス値が0かを判定する。
デプス値が0の場合(S1301がYES)、S1302に進む。デプス値が0の場合、注目画素は前景オブジェクトが存在しない領域の画素である。このため、S1302で合成部109は、CG空間のテクスチャ画像における注目画素の画素値を、合成画像における注目画素の画素値に使用すると決定する。
一方、前景オブジェクトのデプス画像における注目画素のデプス値が0でない場合(S1301がNO)、S1303に進む。S1303において合成部109は、前景オブジェクトのデプス画像における注目画素のデプス値が、CG空間のデプス画像における注目画素のデプス値より小さいかを判定する。
前景オブジェクトのデプス値が、CG空間のデプス値より小さい場合(S1305がYES)、S1304に進む。この場合、仮想視点から見て、前景オブジェクトはCG空間内の背景オブジェクトの手前にいることになる。よって、合成部109は、前景オブジェクトのテクスチャ画像における注目画素の画素値を、合成画像における注目画素の画素値に使用すると決定する。
前景オブジェクトのデプス値が、CG空間のデプス値以上の場合(S1305がNO)、CG空間の背景オブジェクトは前景オブジェクトの手前にいることになる。このためS1302において合成部109は、CG空間のテクスチャ画像における注目画素の画素値を、合成画像における注目画素の画素値に使用すると決定する。
このように、合成部109は、前述した実施形態と異なり、合成画像を生成するために、仮想視点から見た前景オブジェクトの画像と、仮想視点から見たCG空間の画像と、を合成すればよい。
以上説明したように本実施形態によれば、前景オブジェクトに対応するCG空間内の影を適切にレンダリングすることができる。また、本実施形態では、CG空間描画部108がメッシュを他のCG物体と同時にレンダリングすることにより、CG空間内の反射やブルームなどの効果の影響もレンダリングされることになる。このため本実施形態によれば、CG空間に自然でかつCG空間の背景オブジェクトとも統一的な影が生成されるため、よりリアルな影を生成することが可能となる。また、前景オブジェクトの三次元モデルをそのまま配置して影をレンダリングすることも考えられるが、この場合は、レンダリングするために伝送するデータは三次元モデルである。一方、本実施形態では、レンダリングするために伝送するデータは姿勢情報であるため、伝送するデータ量のサイズを抑制することができる。
<その他の実施形態>
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<その他>
上述した実施形態の開示は、以下の構成、方法、およびプログラムを含む。
上述した実施形態の開示は、以下の構成、方法、およびプログラムを含む。
(構成1)
仮想視点から前景オブジェクトを見た背景を含まない画像である前景オブジェクト画像を取得する第1の取得手段と、
コンピュータグラフィックスを用いて背景が描画されたCG空間を前記仮想視点から見た画像である背景画像を取得する第2の取得手段と、
前記CG空間に対応する前記前景オブジェクトの影を表す影画像を生成する影生成手段と、
前記前景オブジェクト画像、前記背景画像、および前記影画像を1つの画像とした合成画像を生成する合成手段と、を有し、
前記影生成手段は、
前記前景オブジェクトの形状に関する二次元の情報と、前記CG空間における照明の情報と、に基づき前記影画像を生成する
ことを特徴とする画像処理装置。
仮想視点から前景オブジェクトを見た背景を含まない画像である前景オブジェクト画像を取得する第1の取得手段と、
コンピュータグラフィックスを用いて背景が描画されたCG空間を前記仮想視点から見た画像である背景画像を取得する第2の取得手段と、
前記CG空間に対応する前記前景オブジェクトの影を表す影画像を生成する影生成手段と、
前記前景オブジェクト画像、前記背景画像、および前記影画像を1つの画像とした合成画像を生成する合成手段と、を有し、
前記影生成手段は、
前記前景オブジェクトの形状に関する二次元の情報と、前記CG空間における照明の情報と、に基づき前記影画像を生成する
ことを特徴とする画像処理装置。
(構成2)
前記二次元の情報は、前記前景オブジェクトの領域を表すシルエット画像である
ことを特徴とする構成1に記載の画像処理装置。
前記二次元の情報は、前記前景オブジェクトの領域を表すシルエット画像である
ことを特徴とする構成1に記載の画像処理装置。
(構成3)
前記前景オブジェクト画像は、複数の撮像装置が前記前景オブジェクトを撮像して得られた複数の撮像画像に基づき生成された画像であり、
前記影生成手段は、
前記複数の撮像装置から決定された撮像装置の撮像画像に基づき生成された前記シルエット画像と、前記照明の情報と、に基づき前記影画像を生成する
ことを特徴とする構成2に記載の画像処理装置。
前記前景オブジェクト画像は、複数の撮像装置が前記前景オブジェクトを撮像して得られた複数の撮像画像に基づき生成された画像であり、
前記影生成手段は、
前記複数の撮像装置から決定された撮像装置の撮像画像に基づき生成された前記シルエット画像と、前記照明の情報と、に基づき前記影画像を生成する
ことを特徴とする構成2に記載の画像処理装置。
(構成4)
前記影生成手段は、
前記複数の撮像装置の位置を前記CG空間に対応する位置となるように位置合わせをした場合に、前記照明の位置と最も近い位置にある撮像装置を前記複数の撮像装置から決定する
ことを特徴とする構成3に記載の画像処理装置。
前記影生成手段は、
前記複数の撮像装置の位置を前記CG空間に対応する位置となるように位置合わせをした場合に、前記照明の位置と最も近い位置にある撮像装置を前記複数の撮像装置から決定する
ことを特徴とする構成3に記載の画像処理装置。
(構成5)
前記影生成手段は、
前記複数の撮像装置から決定された前記撮像装置に対応する前記シルエット画像を、前記照明の位置から見た前記前景オブジェクトの領域を表す画像となるように補正して、
前記補正の結果得られたシルエット画像と、前記照明の情報と、に基づき前記影画像を生成する
ことを特徴とする構成3または4に記載の画像処理装置。
前記影生成手段は、
前記複数の撮像装置から決定された前記撮像装置に対応する前記シルエット画像を、前記照明の位置から見た前記前景オブジェクトの領域を表す画像となるように補正して、
前記補正の結果得られたシルエット画像と、前記照明の情報と、に基づき前記影画像を生成する
ことを特徴とする構成3または4に記載の画像処理装置。
(構成6)
前記影生成手段は、
前記照明の情報および前記複数の撮像装置から決定された前記撮像装置の情報に基づいて、前記複数の撮像装置から決定された前記撮像装置に対応する前記シルエット画像を補正する
ことを特徴とする構成5に記載の画像処理装置。
前記影生成手段は、
前記照明の情報および前記複数の撮像装置から決定された前記撮像装置の情報に基づいて、前記複数の撮像装置から決定された前記撮像装置に対応する前記シルエット画像を補正する
ことを特徴とする構成5に記載の画像処理装置。
(構成7)
前記影生成手段は、
前記シルエット画像における前記前景オブジェクトの領域を影の領域として用いて、前記影画像を生成する
ことを特徴とする構成2から6のいずれか1項に記載の画像処理装置。
前記影生成手段は、
前記シルエット画像における前記前景オブジェクトの領域を影の領域として用いて、前記影画像を生成する
ことを特徴とする構成2から6のいずれか1項に記載の画像処理装置。
(構成8)
前記影生成手段は、
前記影の領域を、前記CG空間に対応する投影面に投影して、前記仮想視点から見た画像となるようにレンダリングすることで前記影画像を生成する
ことを特徴とする構成7に記載の画像処理装置。
前記影生成手段は、
前記影の領域を、前記CG空間に対応する投影面に投影して、前記仮想視点から見た画像となるようにレンダリングすることで前記影画像を生成する
ことを特徴とする構成7に記載の画像処理装置。
(構成9)
前記二次元の情報は、前記照明と前記前景オブジェクトとの距離を表す前記前景オブジェクトのデプス画像である
ことを特徴とする構成1から8のいずれか1項に記載の画像処理装置。
前記二次元の情報は、前記照明と前記前景オブジェクトとの距離を表す前記前景オブジェクトのデプス画像である
ことを特徴とする構成1から8のいずれか1項に記載の画像処理装置。
(構成10)
前記影生成手段は、
前記前景オブジェクトのデプス画像における前記前景オブジェクトの領域を影の領域として用いて、前記影画像を生成する
ことを特徴とする構成9に記載の画像処理装置。
前記影生成手段は、
前記前景オブジェクトのデプス画像における前記前景オブジェクトの領域を影の領域として用いて、前記影画像を生成する
ことを特徴とする構成9に記載の画像処理装置。
(構成11)
前記影生成手段は、
前記影の領域を、前記CG空間に対応する投影面に投影して、前記仮想視点から見た画像となるようにレンダリングすることで前記影画像を生成する
ことを特徴とする構成10に記載の画像処理装置。
前記影生成手段は、
前記影の領域を、前記CG空間に対応する投影面に投影して、前記仮想視点から見た画像となるようにレンダリングすることで前記影画像を生成する
ことを特徴とする構成10に記載の画像処理装置。
(構成12)
前記合成手段は、
前記前景オブジェクト画像、前記背景画像、および前記影画像に対応する夫々のデプス画像を用いて、前記合成画像を生成する
ことを特徴とする構成1から11のいずれか1項に記載の画像処理装置。
前記合成手段は、
前記前景オブジェクト画像、前記背景画像、および前記影画像に対応する夫々のデプス画像を用いて、前記合成画像を生成する
ことを特徴とする構成1から11のいずれか1項に記載の画像処理装置。
(構成13)
前記合成手段は、
前記夫々のデプス画像の注目画素のデプス値を比べることで、前記合成画像における前記注目画素の画素値を決定するために用いる画像を、前記前景オブジェクト画像、前記背景画像、および前記影画像から決定する
ことを特徴とする構成12に記載の画像処理装置。
前記合成手段は、
前記夫々のデプス画像の注目画素のデプス値を比べることで、前記合成画像における前記注目画素の画素値を決定するために用いる画像を、前記前景オブジェクト画像、前記背景画像、および前記影画像から決定する
ことを特徴とする構成12に記載の画像処理装置。
(構成14)
人物である前景オブジェクトを仮想視点から見た背景を含まない画像である前景オブジェクト画像を取得する第1の取得手段と、
コンピュータグラフィックスを用いて背景が描画されたCG空間を前記仮想視点から見た画像である背景画像を取得する第2の取得手段と、
前記CG空間に対応する前記前景オブジェクトの影を表す影画像を生成するための処理をする影生成手段と、
前記前景オブジェクト画像、前記背景画像、および前記影画像を1つの画像とした合成画像を生成する合成手段と、を有し、
前記影生成手段は、
前記前景オブジェクトの姿勢情報、および前記CG空間に基づき前記影画像を生成するための処理をする
ことを特徴とする画像処理装置。
人物である前景オブジェクトを仮想視点から見た背景を含まない画像である前景オブジェクト画像を取得する第1の取得手段と、
コンピュータグラフィックスを用いて背景が描画されたCG空間を前記仮想視点から見た画像である背景画像を取得する第2の取得手段と、
前記CG空間に対応する前記前景オブジェクトの影を表す影画像を生成するための処理をする影生成手段と、
前記前景オブジェクト画像、前記背景画像、および前記影画像を1つの画像とした合成画像を生成する合成手段と、を有し、
前記影生成手段は、
前記前景オブジェクトの姿勢情報、および前記CG空間に基づき前記影画像を生成するための処理をする
ことを特徴とする画像処理装置。
(構成15)
前記前景オブジェクト画像は、前記前景オブジェクトの三次元形状を表す三次元形状データに基づき生成された画像であり、
前記影生成手段は、
前記三次元形状データに基づいて前記前景オブジェクトの姿勢を推定して、前記姿勢情報を取得する
ことを特徴とする構成14に記載の画像処理装置。
前記前景オブジェクト画像は、前記前景オブジェクトの三次元形状を表す三次元形状データに基づき生成された画像であり、
前記影生成手段は、
前記三次元形状データに基づいて前記前景オブジェクトの姿勢を推定して、前記姿勢情報を取得する
ことを特徴とする構成14に記載の画像処理装置。
(構成16)
前記影生成手段は、
前記CG空間における前記前景オブジェクトが合成される位置に人物モデルを配置して、前記姿勢情報に基づいて前記人物モデルの姿勢を変更し、前記CG空間に描画された前記人物モデルの影を前記影画像として用いる
ことを特徴とする構成14または15に記載の画像処理装置。
前記影生成手段は、
前記CG空間における前記前景オブジェクトが合成される位置に人物モデルを配置して、前記姿勢情報に基づいて前記人物モデルの姿勢を変更し、前記CG空間に描画された前記人物モデルの影を前記影画像として用いる
ことを特徴とする構成14または15に記載の画像処理装置。
(方法1)
前記合成手段は、
前記前景オブジェクト画像と、前記影画像が含まれる前記背景画像と、を合成して前記合成画像を生成する
ことを特徴とする構成14から16のいずれか1項に記載の画像処理装置。
前記合成手段は、
前記前景オブジェクト画像と、前記影画像が含まれる前記背景画像と、を合成して前記合成画像を生成する
ことを特徴とする構成14から16のいずれか1項に記載の画像処理装置。
(構成18)
仮想視点から前景オブジェクトを見た背景を含まない画像である前景オブジェクト画像を取得する第1の取得ステップと、
コンピュータグラフィックスを用いて背景が描画されたCG空間を前記仮想視点から見た画像である背景画像を取得する第2の取得ステップと、
前記CG空間に対応する前記前景オブジェクトの影を表す影画像を生成する影生成ステップと、
前記前景オブジェクト画像、前記背景画像、および前記影画像を1つの画像とした合成画像を生成する合成ステップと、を含み、
前記影生成ステップでは、
前記前景オブジェクトの形状に関する二次元の情報と、前記CG空間における照明の情報と、に基づき前記影画像を生成する
ことを特徴とする画像処理方法。
仮想視点から前景オブジェクトを見た背景を含まない画像である前景オブジェクト画像を取得する第1の取得ステップと、
コンピュータグラフィックスを用いて背景が描画されたCG空間を前記仮想視点から見た画像である背景画像を取得する第2の取得ステップと、
前記CG空間に対応する前記前景オブジェクトの影を表す影画像を生成する影生成ステップと、
前記前景オブジェクト画像、前記背景画像、および前記影画像を1つの画像とした合成画像を生成する合成ステップと、を含み、
前記影生成ステップでは、
前記前景オブジェクトの形状に関する二次元の情報と、前記CG空間における照明の情報と、に基づき前記影画像を生成する
ことを特徴とする画像処理方法。
(方法2)
人物である前景オブジェクトを仮想視点から見た背景を含まない画像である前景オブジェクト画像を取得する第1の取得ステップと、
コンピュータグラフィックスを用いて背景が描画されたCG空間を前記仮想視点から見た画像である背景画像を取得する第2の取得ステップと、
前記CG空間に対応する前記前景オブジェクトの影を表す影画像を生成するための処理をする影生成ステップと、
前記前景オブジェクト画像、前記背景画像、および前記影画像を1つの画像とした合成画像を生成する合成ステップと、を有し、
前記影生成ステップでは、
前記前景オブジェクトの姿勢情報、および前記CG空間に基づき前記影画像を生成するための処理をする
ことを特徴とする画像処理方法。
人物である前景オブジェクトを仮想視点から見た背景を含まない画像である前景オブジェクト画像を取得する第1の取得ステップと、
コンピュータグラフィックスを用いて背景が描画されたCG空間を前記仮想視点から見た画像である背景画像を取得する第2の取得ステップと、
前記CG空間に対応する前記前景オブジェクトの影を表す影画像を生成するための処理をする影生成ステップと、
前記前景オブジェクト画像、前記背景画像、および前記影画像を1つの画像とした合成画像を生成する合成ステップと、を有し、
前記影生成ステップでは、
前記前景オブジェクトの姿勢情報、および前記CG空間に基づき前記影画像を生成するための処理をする
ことを特徴とする画像処理方法。
(プログラム)
コンピュータを、上記の構成1から17のいずれか1項に記載の画像処理装置の各手段とし機能させるためのプログラム。
コンピュータを、上記の構成1から17のいずれか1項に記載の画像処理装置の各手段とし機能させるためのプログラム。
100 画像処理装置
104 仮想視点オブジェクト描画部
108 CG空間描画部
107 影生成部
109 合成部
104 仮想視点オブジェクト描画部
108 CG空間描画部
107 影生成部
109 合成部
Claims (21)
- 仮想視点から前景オブジェクトを見た背景を含まない画像である前景オブジェクト画像を取得する第1の取得手段と、
コンピュータグラフィックスを用いて背景が描画されたCG空間を前記仮想視点から見た画像である背景画像を取得する第2の取得手段と、
前記CG空間に対応する前記前景オブジェクトの影を表す影画像を生成する影生成手段と、
前記前景オブジェクト画像、前記背景画像、および前記影画像を1つの画像とした合成画像を生成する合成手段と、を有し、
前記影生成手段は、
前記前景オブジェクトの形状に関する二次元の情報と、前記CG空間における照明の情報と、に基づき前記影画像を生成する
ことを特徴とする画像処理装置。 - 前記二次元の情報は、前記前景オブジェクトの領域を表すシルエット画像である
ことを特徴とする請求項1に記載の画像処理装置。 - 前記前景オブジェクト画像は、複数の撮像装置が前記前景オブジェクトを撮像して得られた複数の撮像画像に基づき生成された画像であり、
前記影生成手段は、
前記複数の撮像装置から決定された撮像装置の撮像画像に基づき生成された前記シルエット画像と、前記照明の情報と、に基づき前記影画像を生成する
ことを特徴とする請求項2に記載の画像処理装置。 - 前記影生成手段は、
前記複数の撮像装置の位置を前記CG空間に対応する位置となるように位置合わせをした場合に、前記照明の位置と最も近い位置にある撮像装置を前記複数の撮像装置から決定する
ことを特徴とする請求項3に記載の画像処理装置。 - 前記影生成手段は、
前記複数の撮像装置から決定された前記撮像装置に対応する前記シルエット画像を、前記照明の位置から見た前記前景オブジェクトの領域を表す画像となるように補正して、前記補正の結果得られたシルエット画像と、前記照明の情報と、に基づき前記影画像を生成する
ことを特徴とする請求項3に記載の画像処理装置。 - 前記影生成手段は、
前記照明の情報および前記複数の撮像装置から決定された前記撮像装置の情報に基づいて、前記複数の撮像装置から決定された前記撮像装置に対応する前記シルエット画像を補正する
ことを特徴とする請求項5に記載の画像処理装置。 - 前記影生成手段は、
前記シルエット画像における前記前景オブジェクトの領域を影の領域として用いて、前記影画像を生成する
ことを特徴とする請求項2に記載の画像処理装置。 - 前記影生成手段は、
前記影の領域を、前記CG空間に対応する投影面に投影して、前記仮想視点から見た画像となるようにレンダリングすることで前記影画像を生成する
ことを特徴とする請求項7に記載の画像処理装置。 - 前記二次元の情報は、前記照明と前記前景オブジェクトとの距離を表す前記前景オブジェクトのデプス画像である
ことを特徴とする請求項1に記載の画像処理装置。 - 前記影生成手段は、
前記前景オブジェクトのデプス画像における前記前景オブジェクトの領域を影の領域として用いて、前記影画像を生成する
ことを特徴とする請求項9に記載の画像処理装置。 - 前記影生成手段は、
前記影の領域を、前記CG空間に対応する投影面に投影して、前記仮想視点から見た画像となるようにレンダリングすることで前記影画像を生成する
ことを特徴とする請求項10に記載の画像処理装置。 - 前記合成手段は、
前記前景オブジェクト画像、前記背景画像、および前記影画像に対応する夫々のデプス画像を用いて、前記合成画像を生成する
ことを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。 - 前記合成手段は、
前記夫々のデプス画像の注目画素のデプス値を比べることで、前記合成画像における前記注目画素の画素値を決定するために用いる画像を、前記前景オブジェクト画像、前記背景画像、および前記影画像から決定する
ことを特徴とする請求項12に記載の画像処理装置。 - 人物である前景オブジェクトを仮想視点から見た背景を含まない画像である前景オブジェクト画像を取得する第1の取得手段と、
コンピュータグラフィックスを用いて背景が描画されたCG空間を前記仮想視点から見た画像である背景画像を取得する第2の取得手段と、
前記CG空間に対応する前記前景オブジェクトの影を表す影画像を生成するための処理をする影生成手段と、
前記前景オブジェクト画像、前記背景画像、および前記影画像を1つの画像とした合成画像を生成する合成手段と、を有し、
前記影生成手段は、
前記前景オブジェクトの姿勢情報、および前記CG空間に基づき前記影画像を生成するための処理をする
ことを特徴とする画像処理装置。 - 前記前景オブジェクト画像は、前記前景オブジェクトの三次元形状を表す三次元形状データに基づき生成された画像であり、
前記影生成手段は、
前記三次元形状データに基づいて前記前景オブジェクトの姿勢を推定して、前記姿勢情報を取得する
ことを特徴とする請求項14に記載の画像処理装置。 - 前記影生成手段は、
前記CG空間における前記前景オブジェクトが合成される位置に人物モデルを配置して、前記姿勢情報に基づいて前記人物モデルの姿勢を変更し、前記CG空間に描画された前記人物モデルの影を前記影画像として用いる
ことを特徴とする請求項14に記載の画像処理装置。 - 前記合成手段は、
前記前景オブジェクト画像と、前記影画像が含まれる前記背景画像と、を合成して前記合成画像を生成する
ことを特徴とする請求項14から16のいずれか1項に記載の画像処理装置。 - 仮想視点から前景オブジェクトを見た背景を含まない画像である前景オブジェクト画像を取得する第1の取得ステップと、
コンピュータグラフィックスを用いて背景が描画されたCG空間を前記仮想視点から見た画像である背景画像を取得する第2の取得ステップと、
前記CG空間に対応する前記前景オブジェクトの影を表す影画像を生成する影生成ステップと、
前記前景オブジェクト画像、前記背景画像、および前記影画像を1つの画像とした合成画像を生成する合成ステップと、を含み、
前記影生成ステップでは、
前記前景オブジェクトの形状に関する二次元の情報と、前記CG空間における照明の情報と、に基づき前記影画像を生成する
ことを特徴とする画像処理方法。 - 人物である前景オブジェクトを仮想視点から見た背景を含まない画像である前景オブジェクト画像を取得する第1の取得ステップと、
コンピュータグラフィックスを用いて背景が描画されたCG空間を前記仮想視点から見た画像である背景画像を取得する第2の取得ステップと、
前記CG空間に対応する前記前景オブジェクトの影を表す影画像を生成するための処理をする影生成ステップと、
前記前景オブジェクト画像、前記背景画像、および前記影画像を1つの画像とした合成画像を生成する合成ステップと、を有し、
前記影生成ステップでは、
前記前景オブジェクトの姿勢情報、および前記CG空間に基づき前記影画像を生成するための処理をする
ことを特徴とする画像処理方法。 - コンピュータに請求項18に記載の画像処理方法を実行させるためのプログラム。
- コンピュータに請求項19に記載の画像処理方法を実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022062867A JP2023153534A (ja) | 2022-04-05 | 2022-04-05 | 画像処理装置、画像処理方法、およびプログラム |
US18/163,915 US20230316640A1 (en) | 2022-04-05 | 2023-02-03 | Image processing apparatus, image processing method, and storage medium |
EP23155781.0A EP4258221A3 (en) | 2022-04-05 | 2023-02-09 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022062867A JP2023153534A (ja) | 2022-04-05 | 2022-04-05 | 画像処理装置、画像処理方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023153534A true JP2023153534A (ja) | 2023-10-18 |
Family
ID=85222466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022062867A Pending JP2023153534A (ja) | 2022-04-05 | 2022-04-05 | 画像処理装置、画像処理方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230316640A1 (ja) |
EP (1) | EP4258221A3 (ja) |
JP (1) | JP2023153534A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240124137A1 (en) * | 2022-10-13 | 2024-04-18 | Wing Aviation Llc | Obstacle avoidance for aircraft from shadow analysis |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5737031A (en) * | 1996-07-30 | 1998-04-07 | Rt-Set | System for producing a shadow of an object in a chroma key environment |
WO2019031259A1 (ja) | 2017-08-08 | 2019-02-14 | ソニー株式会社 | 画像処理装置および方法 |
-
2022
- 2022-04-05 JP JP2022062867A patent/JP2023153534A/ja active Pending
-
2023
- 2023-02-03 US US18/163,915 patent/US20230316640A1/en active Pending
- 2023-02-09 EP EP23155781.0A patent/EP4258221A3/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
EP4258221A2 (en) | 2023-10-11 |
US20230316640A1 (en) | 2023-10-05 |
EP4258221A3 (en) | 2024-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112150638B (zh) | 虚拟对象形象合成方法、装置、电子设备和存储介质 | |
JP6425780B1 (ja) | 画像処理システム、画像処理装置、画像処理方法及びプログラム | |
US20210134049A1 (en) | Image processing apparatus and method | |
CN112784621B (zh) | 图像显示方法及设备 | |
JP2013235537A (ja) | 画像作成装置、画像作成プログラム、及び記録媒体 | |
JP2000512833A (ja) | 単眼視キューの統合による奥行き知覚の改善 | |
JP2017204673A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2021179835A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP7197451B2 (ja) | 画像処理装置、方法及びプログラム | |
US11941729B2 (en) | Image processing apparatus, method for controlling image processing apparatus, and storage medium | |
CN113628327A (zh) | 一种头部三维重建方法及设备 | |
CN113826144B (zh) | 使用单幅彩色图像和深度信息的面部纹理贴图生成 | |
US11450068B2 (en) | Method and device for processing image, and storage medium using 3D model, 2D coordinates, and morphing parameter | |
KR20190062102A (ko) | 비디오 영상기반 2d/3d ar 실감체험 방법 및 장치 | |
KR20230032893A (ko) | 화상처리장치, 화상처리방법 및 기억 매체 | |
JP2023527438A (ja) | リアルタイム深度マップを用いたジオメトリ認識拡張現実効果 | |
JP2023153534A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN113989434A (zh) | 一种人体三维重建方法及设备 | |
JP7476511B2 (ja) | 画像処理システム、画像処理方法及びプログラム | |
JP6898264B2 (ja) | 合成装置、方法及びプログラム | |
CN109816765A (zh) | 面向动态场景的纹理实时确定方法、装置、设备和介质 | |
JP2022093262A (ja) | 画像処理装置、画像処理装置の制御方法およびプログラム | |
JP2024512672A (ja) | 複数のカメラからの表面テクスチャリング | |
Cho et al. | Depth image processing technique for representing human actors in 3DTV using single depth camera | |
JP5865092B2 (ja) | 画像処理装置、画像処理方法及びプログラム |