JP2013152683A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2013152683A
JP2013152683A JP2012014200A JP2012014200A JP2013152683A JP 2013152683 A JP2013152683 A JP 2013152683A JP 2012014200 A JP2012014200 A JP 2012014200A JP 2012014200 A JP2012014200 A JP 2012014200A JP 2013152683 A JP2013152683 A JP 2013152683A
Authority
JP
Japan
Prior art keywords
data
subject
environment map
environment
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012014200A
Other languages
English (en)
Other versions
JP5865092B2 (ja
Inventor
Ai Miyoshi
愛 三好
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012014200A priority Critical patent/JP5865092B2/ja
Priority to US13/744,933 priority patent/US20130194254A1/en
Publication of JP2013152683A publication Critical patent/JP2013152683A/ja
Application granted granted Critical
Publication of JP5865092B2 publication Critical patent/JP5865092B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】仮想被写体の位置に応じた適切なライティングを容易に行う。
【解決手段】画像処理装置であって、2つ以上の視点からなる環境マップデータから周辺環境の三次元形状データを生成する周辺環境三次元形状データ生成手段と、
前記周辺環境三次元形状データを光源として、仮想被写体を背景画像データに合成する仮想被写体合成手段とを備えたことを特徴とする。
【選択図】図3

Description

本発明は、実写の背景画像と三次元CGオブジェクトとの合成画像データを生成する画像処理装置、画像処理方法及びプログラムに関する。
CG(Computer Graphics)を用いて実在しない仮想被写体を背景画像に合成することは、映像制作においてよく行われている。その際、合成後の映像を自然なものとするためには、仮想被写体へのライティングと背景画像のライティングとが一致している必要がある。ライティングを一致させる手法としては、ライティング環境を3Dモデル化する方法がある。その場合、光の経路を計算するレイトレーシングやラジオシティを用いてライティングすることがよく行われている。
また、背景画像を撮像した現場の全周囲画像(環境マップ)を撮像し、得られた環境マップを光源画像として用いライティング効果を施す、イメージベースドライティングという手法も用いられている(非特許文献1、非特許文献2)。
また、遠方の光源をイメージベースドライティングで行い、近傍の光源については3Dモデルを利用し、ライティング効果を施すことも行われている(非特許文献3)。
特開2005−275789号公報
Peter-Pike Sloan and Ben Luna and John Snyder"Local, Deformable Precomputed Radiance Transfer" SIGGRAPH ACM ACM SIGGRAPH 2005 Papers Zhong Ren and Rui Wang and John Snyder and Kun Zhou and Xinguo Liu and Bo Sun and Peter-Pike Sloan and Hujun Bao and Qunsheng Peng and Baining Guo"Real-time Soft Shadows in Dynamic Scenes using Spherical Harmonic Exponentiation", SIGGRAPH ACM SIGGRAPH 2006 Papers 古矢志帆、伊藤貴之"近傍光源を含むシーンのイメージベースドライティグ"情報処理学会全国大会講演論文集
上記従来のイメージベースドライティングを用いた手法では、仮想被写体の位置を変更した場合に、変更後の位置に応じた環境マップをあらかじめ用意しておく必要がある。これは仮想被写体の位置が変化すると、仮想被写体と光源の位置関係も変化するためである。予め仮想被写体の変更後の位置が分かっていれば、その変更後の位置に応じた有限個の環境マップを用意しておけばよい。しかし、仮想被写体の置かれる位置は無数に考えられるため、その考え得る位置のすべてに対応した環境マップを予め用意しておくことは不可能である。
また、上記従来のレイトレーシングやラジオシティを用いた手法では、背景画像を撮像した現場の照明環境を手作業で3Dモデル化しなければならず手間がかかってしまう。
本発明に係る画像処理装置は、2つ以上の視点からなる環境マップデータから周辺環境の三次元形状データを生成する周辺環境三次元形状データ生成手段と、前記周辺環境三次元形状データを光源として、仮想被写体を背景画像データに合成する仮想被写体合成手段とを備えたことを特徴とする。
本発明によれば、背景画像と仮想被写体との合成画像データを生成する際に、仮想被写体の位置に応じた適切なライティングを容易に行うことができる。
実施例1に係る画像処理装置のシステム構成例を示す図である。 実施例1に係る画像処理装置の機能構成図である。 実施例1に係る画像処理装置において実行される画像処理の全体の流れを示すフローチャートである。 実施例1に係る、背景画像及び環境マップを撮像する撮像装置の外観図である。 (a)は背景画像の一例を示す図、(b)は環境マップの一例を示す図、(c)は(b)の環境マップの撮像状況を示す図である。 距離の算出方法を説明する図である。 距離マップ生成処理の流れを示すフローチャートである。 距離マップの一例を示す図である。 近接被写体を除去する場合の不要被写体除去処理の流れを示すフローチャートである。 距離マップ上の除去領域に設定されたブロック内の画素値が参照領域に設定されたブロックの内の画素値に置き換わる様子を示す図である。 不要被写体除去処理によって人物の顔が除去された環境マップ及び距離マップの一例を示す図である。 周辺環境の三次元形状データ生成処理の流れを示すフローチャートである。 (a)は、環境マップと3次元座標EVDataとの関係を示す図であり、(b)は図5の(c)で示した部屋の中心で撮像された環境マップの場合における3次元座標EVDataを示す図である。 ポリゴンデータの一例を示す図である。 ポリゴンデータのファイル形式の一例を示す図である。 修正環境マップがポリゴンデータに転写されるように指定される様子を説明する図である。 仮想被写体合成処理の流れを示すフローチャートである。 仮想被写体の色信号値を算出する処理の流れを示すフローチャートである。 発射された光線と仮想被写体との関係を示す模式図である。 (a)は本実施例におけるライティングに用いられる周辺環境三次元形状と仮想被写体との関係を表した図であり、(b)は、仮想被写体を背景画像に合成した合成画像の一例を示す図である。 実施例2に係る、より多くの環境マップ撮像部を備えた撮像装置を示す図である。(a)は、筐体の上部と下部にそれぞれ環境マップ撮像部が2つずつ配置された撮像装置を示す図である。(b)は、画角90°の環境マップ撮像部を計12個備えた撮像装置を示す図である。(c)は、環境マップ撮像部を筐体の角に配置した撮像装置を示す図である。 従来技術を説明する図であり、(a)は従来技術における仮想被写体と環境マップとの関係を表す図、(b)は仮想被写体を背景画像に合成して得られた結果を示す図である。
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
(実施例1)
<従来技術>
図22の(a)は、従来技術における仮想被写体と環境マップとの関係を表す図である。ライト101のある環境下で撮像装置100を用いて周辺環境の画像を撮像して環境マップ102を作成し、仮想被写体103〜105のライティングに用いている様子を示している。どの仮想被写体にも同じ環境マップが用いられるため、仮想被写体をどの位置においてもライト101の方向が等しくなる。この状況で、仮想カメラの位置を視点として仮想被写体103〜105を背景画像に合成して得られた結果が図22の(b)である。仮想被写体103〜105のいずれについても同じ陰影(ライト101で照らされる領域110及びその影の部分111が全ての仮想被写体で共通)となっているのが分かる。光源が無限遠でない限り、現実においてこのような陰影とはならないので、不自然な合成画像となってしまっている。
本実施例に係る方法によれば、仮想被写体の配置に応じた自然なライティングが実現される。以下、詳しく説明する。
<システム構成例>
図1は、本実施例に係る画像処理装置のシステム構成例を示す図である。
画像処理装置100は、CPU101、RAM102、ROM103、HDD104、入力I/F105、出力I/F106、システムバス107を備える。画像処理装置100における処理の概略は以下のとおりである。
CPU101は、RAM102をワークメモリとして、ROM103及びHDD104に格納されたプログラムを実行し、システムバス107を介して後述の各部を制御する。これにより、後述する様々な処理が実行される。
CPU101は、出力インタフェイス(I/F)106を介して撮像装置110を制御し、撮像することが可能である。さらに、CPU101は、入力インタフェイス(I/F)105を介して、撮像装置110で撮像された画像データを読み込むことが可能である。
CPU101は、HDD104からのデータの読み出しや、HDD104へのデータの書き込みが可能である。さらにCPU101は、HDD104に格納されたデータをRAM102に展開し、同様に、RAM102に展開されたデータをHDD104に保存することが可能である。そして、CPU101は、RAM102に展開したデータをプログラムとみなし、実行することができる。
入力I/F105は、キーボードやマウスなどの入力デバイス108を接続する、例えばUSBやIEEE1394等のシリアルバスインタフェイスである。CPU101は、入力I/F105を介して入力デバイス108からデータを読み込むことが可能である。
出力I/F106は、ディスプレイ等の出力デバイス109を接続する。例えばDVIやHDMI等の映像出力インタフェイスである。CPU101は、出力I/F106を介して出力デバイス109にデータを送り、表示を実行させることができる。
図2は、本実施例に係る画像処理装置の機能構成図である。この図2に示される構成は、画像処理アプリケーションソフトウェアとして実現される。すなわち、CPU101がHDD104等に格納された各種ソフトウェア(コンピュータプログラム)を動作させることで実現される。
画像処理装置100は、背景画像、環境マップ、撮像装置情報、仮想カメラ情報、仮想被写体情報などの各種のデータを受け取り、距離マップの生成、不要被写体の除去、周辺環境の三次元形状データ生成を行う。そして、背景画像に仮想被写体を合成した合成画像データを出力データとして出力する。ここで、撮像装置情報とは、撮像装置110に関する情報であって、後述の環境マップ撮像部のレンズデータや環境マップ撮像部間の距離に関する情報などを含む。仮想カメラ情報とは、仮想空間中に置く仮想カメラの情報であり、その位置を示す三次元座標(位置情報)の他、仮想カメラの向き、画角などの情報が含まれる。仮想被写体情報とは、背景画像に合成する仮想被写体の詳細を示すデータであり、少なくとも仮想被写体の形状データ及びその置かれる位置を特定する位置データを含む。勿論、仮想被写体を好適に再現するための色データや反射特性に関する情報なども含まれ得る。
背景画像、環境マップ、撮像装置情報、仮想カメラ情報、仮想被写体情報などの各種のデータは、入力デバイス108からのユーザ指示に基づき、撮像装置110、HDD104、外部メモリ等から入力される。
距離マップ生成部201は、入力された環境マップデータ及び撮像装置情報に基づき、ステレオマッチングにより全方位の距離を推定し、距離マップデータを生成する処理を行う。
不要被写体除去部202は、入力された環境マップデータおよび距離マップデータに対し、不要な被写体を除去する処理を行う。なお、この不要被写体除去処理によって生成される修正された環境マップを「修正環境マップ」、修正された距離マップを「修正距離マップ」と呼ぶこととする。
三次元形状データ生成部203は、入力された修正環境マップデータおよび修正距離マップデータに基づいて、周辺環境の三次元形状データを生成する。三次元形状データとしては、NURBS形式のデータ、例えばポリゴンデータが挙げられる。本実施例では、以下、ポリゴンデータの場合を例に説明する。
仮想被写体合成部204は、背景画像データ、周辺環境の三次元形状データ、仮想カメラ情報、仮想被写体情報に基づいて、仮想被写体を背景画像データに合成する。生成された合成画像データは、出力デバイス109へ出力、或いはHDD104に保存される。
図3は、本実施例に係る画像処理装置100において実行される画像処理の全体の流れを示すフローチャートである。実際には、以下に示す手順を記述したコンピュータ実行可能なプログラムをROM103等からRAM102上に読み込んだ後に、CPU101によって該プログラムを実行することによって当該処理が実行される。
ステップ301において、画像処理装置100は、撮影撮像装置110の背景画像撮像部についての設定内容(撮像条件)を取得し、その内容を環境マップ撮像部の撮影撮像条件として設定する。その理由は、画像を合成した時の違和感を生じにくくするためである。例えば、背景画像に比べて環境マップが暗い場合、仮想被写体へのライティングが暗くなり、仮想被写体と背景の明度のバランスが合わなくなる。これを避けるために背景画像と環境マップとが同じ露出で撮像されるように撮像条件を設定する。図4は、背景画像及び環境マップを撮像する、本実施例に係る撮像装置110の外観図である。撮像装置110は、カラー画像を撮像する3個の撮像部401、402、403及び撮像ボタン404を備えている。3個の撮像部のうち401は背景撮像部であり、402及び403は環境マップ撮像部である。環境マップ撮像部402/403の上下軸、左右軸、光軸は全て同じ方向であり筐体上部に上向きに配置されている。環境マップ撮像部が2つ存在する理由は、撮像された環境マップにおける撮像装置からの距離を算出するためであり、環境マップ撮像部402/403は画角180°以上の超広角レンズを備えている。本ステップでは、背景画像撮像部401について設定されたISO感度、露光時間、絞り値などの撮像条件を取得し、同内容の撮像条件を環境マップ撮像部402及び403について設定する。なお、本ステップを省略し、撮像後に、異なる露出で撮像された両画像の明度などを手動で調整するようにしてもよい。
ステップ302において、画像処理装置100は、撮像装置110に対し撮像を指示し、撮像された背景画像および環境マップのデータを取得する。図5の(a)は本ステップで取得する背景画像の一例、図5の(b)は本ステップで取得する環境マップの一例をそれぞれ示している。図5の(c)は(b)の環境マップの撮像状況を示す図であり、実空間503において部屋の中央位置504から撮像を行ったことを示している。
図5の(b)において、501が環境マップ撮像部402で撮像された環境マップ、502が環境マップ撮像部403で撮像された環境マップである。取得した背景画像データは仮想被写体合成部204に送られ、環境マップデータは距離マップ生成部201及び不要被写体除去部202に送られる。
ステップ303において、距離マップ生成部201は、取得した環境マップデータを用いて、距離マップデータを生成する。距離マップ生成処理の詳細については後述する。
ステップ304において、不要被写体除去部202は、環境マップデータ及び距離マップデータに対して不要被写体除去処理を行い、修正環境マップデータおよび修正距離マップデータを生成する。不要被写体除去処理の詳細については後述する。
ステップ305において、三次元形状データ生成部203は、周辺環境の三次元形状データ(本実施例ではポリゴンデータ)を生成する。周辺環境の三次元形状データ生成処理の詳細については後述する。
ステップ306において、画像処理装置100は、仮想カメラ情報及び仮想被写体情報を取得する。取得した仮想カメラ情報及び仮想被写体情報は、仮想被写体合成部204に送られる。
ステップ307において、仮想被写体合成部204は、背景画像データと仮想被写体とを合成する仮想被写体合成処理を行って合成画像データを生成する。仮想被写体合成処理の詳細については後述する。
ステップ308において、画像処理装置100は、生成された合成画像データを出力デバイス109もしくはHDD104に出力する。
<距離マップ生成処理>
距離マップ生成部201は、撮像装置110(より厳密には、環境マップ撮像部402/403の光学中心)から周辺環境(撮像対象)までの距離を算出して、距離マップデータを生成する。
ここでの距離の算出には、例えば特許文献1に開示された手法が適用可能である。図6は、特許文献1に係る三次元構造抽出方法を適用した場合の距離の算出方法を説明する図である。図6中の2つの球体画像601及び602は、それぞれ環境マップ501及び502に対応する。なお、球体画像601及び602の下半分については、例えば、球体の上半分に相当する環境マップ501及び502に基づき対称となるような中心からの一定の距離を仮定することで得ることができる。球体画像601を表示する第1の座標系21をx1軸、y1軸、z1軸で示し、球体画像602を表示する第2の座標系31をx2軸、y2軸、z2軸で示す。原点O1は環境マップ501を撮像した環境マップ撮像部402の光学中心、原点O2は環境マップ502を撮像した環境マップ撮像部403の光学中心に対応する。撮像対象上の物点Piは、2つの球体画像の表面に物点像p1i、p2iとしてそれぞれ現れている。ここで、物点Piの第1の座標系21における位置ベクトルをm1iとし、物点Piの第2の座標系31における位置ベクトルをm2iとする。また、第2の座標系31から第1の座標系21へ変換するための回転行列をRとし、第1の座標系21から第2の座標系31へ変換するための並進ベクトルをtとする。すると、撮像対象の各物点Piまでの原点O1からの距離Dpiは以下の式(1)によって求めることができる。
このようにして、撮像対象までの距離を算出する。
なお、以下の図7のフローチャートの説明では環境マップ501を基準とした場合について説明するが、環境マップ502を基準としてもよい。その場合、後述する不要被写体除去処理において、環境マップ502から不要被写体が除去される。また、後述する周辺環境の三次元形状データ生成処理においても、環境マップ502から不要被写体を除去した画像が用いられることになる。
図7は、距離マップ生成処理の流れを示すフローチャートである。
ステップ701において、距離マップ生成部201は、環境マップ501と環境マップ502において互いに対応する特徴点(図6中のp1i、p2i)を抽出する。
ステップ702において、距離マップ生成部201は、抽出された特徴点に対応する環境マップ501/502の位置ベクトルm1n、m2nから並進ベクトルt及び回転行列Rを算出する。なお、nは特徴点の数である。
ステップ703において、距離マップ生成部201は、並進ベクトルt及び回転行列Rを用いて、環境マップ501/502において互いに対応する他の特徴点をエピポーラ線に基づいて抽出する。
ステップ704において、距離マップ生成部201は、抽出された特徴点に対応する位置ベクトルm1n、m2nを式1に代入して、特徴点に対応する物点Pinの三次元位置を算出する。すなわち、物点Pinの座標系21における原点O1からの距離Dpiを算出する。これにより、特徴点についての距離が算出される。
ステップ705において、距離マップ生成部201は、特徴点として抽出されなかった画素について原点O1からの距離を算出する。具体的には、環境マップ501における各画素のうち特徴点として抽出されなかった画素について、当該画素の周囲にある特徴点から補間処理によって値を取得し、得られた値を当該画素の距離値とする。補間処理には線形補間やバイキュービック補間など既知の手法を用いればよい。
ステップ706において、距離マップ生成部201は、環境マップ501の各画素の距離値をマップ化した距離マップデータを生成する。
図8は、距離マップ生成部201で生成される距離マップの一例を示す図である。環境マップ501の各画素について、環境マップ撮像部402からの距離が近いほど高い画素値となって白に近い色となり、距離が遠いほど低い画素値となって黒に近い色となっている。
以上のようにして、環境マップの各画素における撮像装置110の光学中心からの距離を表した距離マップデータが生成される。生成された距離マップデータは、不要被写体除去部202に送られる。
<不要被写体除去処理>
撮像者が撮像を行う際には、図4に示されるような撮像装置110を用いて背景画像及び環境マップを撮像する。環境マップは画角180°以上の超広角画像であり、意図しない被写体が入り込む可能性が高い。例えば、撮像者自身の顔やカメラを持つ手が環境マップに写り込んだり、偶然通りがかった人物が写ったりする場合がある。そのような環境マップをそのまま仮想被写体へのライティングに使用すると、例えば、仮想被写体が写り込みを伴う材質の場合、合成画像に意図しない被写体が描画されてしまうことになる。仮想被写体へのライティングに意図しない被写体が影響を及ぼすのを防ぐために、本実施例では、不要な被写体を環境マップデータから除去する処理を行う。また、併せて距離マップデータからも不要な被写体の除去を行う。本実施例では、不要被写体除去処理として、2種類の手法を紹介する。
まず、カメラを持つ手などの近接被写体を除去する手法について説明する。図9は、近接被写体を除去する場合の不要被写体除去処理の流れを示すフローチャートである。
ステップ901において、不要被写体除去部202は、入力された環境マップデータ及び距離マップ生成部201から受け取った距離マップデータを、ブロックに分割する。分割される各ブロックのサイズは、例えば、8×8(画素)である。
ステップ902において、不要被写体除去部202は、距離マップの分割された所定のブロック(注目ブロック)内に予め定められた閾値Dm以上の画素値を持つ画素が存在するかどうかを判定する。閾値Dm以上の画素値を持つ画素が存在すればステップ903に進む。一方、閾値Dm以上の画素値を持つ画素が存在しなければステップ904に進む。
ステップ903において、不要被写体除去部202は、注目ブロックを除去対象の領域(除去領域)に設定する。
ステップ904において、不要被写体除去部202は、すべてのブロックについて処理が終了したかどうかを判定する。未処理のブロックがあればステップ902に戻る。すべてのブロックについて処理が終了していれば、ステップ905に進む。
ステップ905において、不要被写体除去部202は、除去領域に設定されたブロックに隣接するブロックを、不要被写体が除去された後の代替の画素値を設定するための参照領域に設定する。
ステップ906において、不要被写体除去部202は、除去領域に設定されたすべてのブロックについて参照領域の設定処理が終了したかどうかを判定する。参照領域の設定がなされていない除去領域(ブロック)があれば、ステップ905に戻る。一方、すべての除去領域について参照領域の設定が終了していればステップ907に進む。
ステップ907において、不要被写体除去部202は、距離マップの各ブロックについて、除去領域に設定されたブロック内の画素値を参照領域に設定されたブロックの内の画素値に置き換える。図10は、距離マップ上の除去領域に設定されたブロック内の画素値が参照領域に設定されたブロックの内の画素値に置き換わる様子を示す図である。置き換え後の距離マップにおいては、不要被写体の存在したブロックの画素値が不要被写体の存在しないブロックの画素値によって置き換わることで、不要被写体が消失していることが分かる。
ステップ908において、不要被写体除去部202は、環境マップにおける対応する各ブロックについて、距離マップの場合と同様に画素値の置き換え処理を行う。
ステップ909において、不要被写体除去部202は、距離マップ及び環境マップのすべての除去領域について、画素値の置き換え処理が完了したかどうかを判定する。置き換えが済んでいない除去領域があればステップ907に戻る。一方、置き換え処理がすべて完了していれば本処理を終了する。
次に、撮像者等の人物を顔認識によって除去する手法について簡単に説明する。
顔認識によって人物を除去する場合、まず、環境マップの中から顔領域が抽出される。具体的には、顔テンプレートとのパターンマッチングにより、入力された環境マップデータから人物の顔に相当する領域を検出する。これ以外にも、画像内の肌色成分を抽出して肌色範囲と判断された測光点のクラスタを顔として抽出する方法や、測光データを色相と彩度に変換してその二次元ヒストグラムを作成・解析して顔領域を判断する方法がある。さらに、人の顔の形状に相当する顔候補領域を抽出してその領域内の特徴量から顔領域を決定する方法や、画像から人の顔の輪郭を抽出して顔領域を決定する方法等、様々な手法が適用可能である。
そして、抽出された顔領域が距離マップ及び環境マップにおいて除去領域に設定され、後は上記図9のフローの場合と同様、その周辺領域の画素値との置き換えがなされる。
図11は、不要被写体除去処理によって人物の顔が除去された環境マップ及び距離マップの一例を示す図である。図11の(a)は不要被写体除去前の人の顔が写り込んだ状態の環境マップ、図11の(c)はその環境マップに対応する距離マップを示している。そして、図11の(b)は不要被写体除去処理によって人の顔が除去された環境マップ、図11の(d)はその環境マップに対応する距離マップを示している。
以上の処理により、環境マップ及び距離マップから不要被写体を除去された修正環境マップ及び修正距離マップが生成される。
<周辺環境三次元形状データ生成処理>
図12は、図3のステップ305における周辺環境の三次元形状データ生成処理の流れを示すフローチャートである。
ステップ1201において、三次元形状データ生成部203は、環境マップデータ及び距離マップデータから、環境マップの各画素に対応する被写体の3次元座標EVDataを算出する。図13の(a)は、環境マップと3次元座標EVDataとの関係を示す図である。図13の(a)において原点O1は、図6と同様、環境マップを撮像した環境マップ撮像部の光学中心である。図13の(b)は、図5の(c)で示した部屋の中心で撮像された環境マップの場合における3次元座標EVDataを示している。3次元座標EVDataは、図13の(b)において黒丸で示される点群の三次元座標群、例えば各点のXYZ座標を順に記載した形式で扱われる。
ステップ1202において、三次元形状データ生成部203は、算出されたEVDataを頂点データとして、周辺環境の三次元形状データ(具体的にはポリゴンデータ)を生成する。頂点は、図13の(a)に示されるように環境マップ上で隣接画素となる頂点同士を結ぶ。例えば、13の(b)に示すEVDataの場合であれば、図14に示すようなポリゴンデータが得られる。ここで、頂点のカラー情報は環境マップの画素値とする。
このようにして生成されるポリゴンデータは、例えばOBJ形式と呼ばれる図15に示すようなファイル形式で扱われる。OBJ形式は多くのCGソフトがサポートしており、CGソフトの中間ファイルフォーマットとして広く使用されるものである。ファイルの記載内容には、形状の色を指定するマテリアルファイルへのパス、頂点データの数、三角形(ポリゴン)の数、EVDataである各頂点の座標値、各三角形(ポリゴン)の法線ベクトルが含まれる。ここでマテリアルファイルは、ポリゴンデータの色を指定するファイルである。この指定される色が合成処理部においてライトの色として扱われる。マテリアルファイルでは、ポリゴンデータに張り付けるイメージデータのパスとUVデータが記載される。図16はそれらの関係を示す図である。ポリゴンデータには修正環境マップが転写されるように指定され、UVデータはポリゴン単位にテクスチャ画像の任意の位置を指定する。
以上の処理により、撮像装置の周辺環境のポリゴンデータを生成することが出来る。
<仮想被写体合成処理>
図17は、図3のステップ307における仮想被写体合成処理の流れを示すフローチャートである。この仮想被写体合成処理において、環境マップデータの代わりに周辺環境の三次元形状データ(ポリゴンデータ)をライティングに用いる。
ステップ1701において、仮想被写体合成部204は、三次元形状データ生成部203で生成したポリゴンデータ及び背景画像撮像部401で撮像された背景画像データを取得する。
ステップ1702において、仮想被写体合成部204は、仮想カメラ情報及び仮想被写体情報を取得する。
ステップ1703において、仮想被写体合成部204は、処理対象となる画素を選択する。
ステップ1704において、仮想被写体合成部204は、取得した仮想カメラ情報に含まれる仮想カメラの位置及び向きによって特定される点を視点とし、当該視点から選択された処理対象の画素へ向けて光線を発射する。
ステップ1705において、仮想被写体合成部204は、発射した光線が仮想被写体と交差するか否かを判定する。交差する場合はステップ1406に進む。一方、交差しない場合はステップ1407に進む。
ステップ1706において、仮想被写体合成部204は、ステップ1401で取得したポリゴンデータに基づいて、仮想被写体の色信号値を算出する。図18は、仮想被写体の色信号値を算出する処理(オブジェクトレンダリング処理)の流れを示すフローチャートである。
ステップ1801において、仮想被写体合成部204は、光線と仮想被写体との交点における法線ベクトルを求める。図19は発射された光線と仮想被写体との関係を示す模式図である。図19において1901は光線を発射する視点(仮想カメラ)であり、1902は光線が交差する仮想被写体、1903は仮想被写体を照明する光源を示している。求める法線ベクトルNは、光線と仮想被写体との交点Pにおける仮想被写体の面に垂直なベクトルである。
ステップ1802において、仮想被写体合成部204は、求めた法線ベクトルNに基づいて、交点Pから光源1603に向かって光線を発射する。一般に、交点Pから発射する光線数が多いほど精度よく画素の色信号値を算出することが可能である。また、発射する光線の方向は法線ベクトルNと発射する光線のベクトルLとのなす角φが90°より小さい範囲で決定される。尚、光線は、所定の角度範囲内を所望の光線数で等分して飛ばしても良いし、ランダムに飛ばしても良い。
ステップ1803において、仮想被写体合成部204は、発射した光線とポリゴンデータによって特定される周辺環境三次元形状との交点の色信号値を求める。すなわち、光源としての周辺環境三次元形状に衝突する光線に対応した色信号値が取得される。
ステップ1804において、仮想被写体合成部204は、すべての光線について周辺環境三次元形状との交点の色信号値が取得が終了したかどうかを判定する。終了していればステップ1805に進む。一方、終了していなければステップ1802に戻り、次の光線を発射する。
ステップ1805において、仮想被写体合成部204は、取得された色信号値の総和を算出する。各光線について取得された色信号値をri、gi、bi、光線数をnとすると、算出される色信号値の総和(Rray、Gray、Bray)は、次の式(2)で表される。
ステップ1806において、仮想被写体合成部204は、算出された色信号値の総和を正規化する。本来、光線の強度は各光線の和で求められるが画素毎や光線の衝突点毎に発射する光線の数が異なったりすると光線毎の相対的な強度の関係が保てなくなる。また、光線数が多くなると出力画像の出力範囲(例えば8ビットの画像であればRGB各成分で256階調)では光線の強度を再現できなくなる。そのため、得られた色信号値の総和の正規化を行う。正規化方法は所望の方法で構わない。例えば、次の式(3)によって正規化した色信号値(Rp、Gp、Bp)を求めることができる。
ステップ1807において、仮想被写体合成部204は、正規化された色信号値と仮想被写体の反射特性から画素値を算出する。色信号の各成分に対応する仮想被写体の反射特性をそれぞれRref、Gref、Brefとすると、求める画素値(Rpixel、Gpixel、Bpixel)は、次の式(4)によって表される。
このようにして、仮想被写体の色信号値が算出される。
図17のフローチャートの説明に戻る。
ステップ1707において、仮想被写体合成部204は、ステップ1701で取得した背景画像データとステップ1404で発射した光線との交点を求め、当該交点における色信号値を取得する。
ステップ1708において、仮想被写体合成部204は、全画素について色信号値の算出が終了したか否かを判定する。終了していれば本処理を終了する。終了していなければステップ1703に戻り、次の処理対象の画素を選択する。
以上のように、周辺環境の三次元形状データを光源に用いた仮想被写体の合成処理が行われる。
図20の(a)は本実施例におけるライティングに用いられる周辺環境三次元形状と仮想被写体との関係を表した図である。撮像装置100において環境マップ2001及び2002を取得すると、距離マップ生成処理及び周辺環境三次元形状データ生成処理を経て、破線2003で示すポリゴンデータが生成される。ライト2004の三次元座標が分かっているため、各仮想被写体2005〜2007に対してライト2004で照らされる領域が適切に変化することになる。図20の(b)は、本実施例に係る方法によって仮想被写体を背景画像に合成した合成画像の一例を示している。従来例である図22の(b)と比較してみると、図20の(b)では仮想被写体2005〜2007の各位置に応じて適切な陰影2010ができ、より自然な合成画像となっているのが分かる。
なお、静止画像に静止被写体を合成する場合で説明したが、静止画像に動く被写体を合成する場合においても同様の効果を得ることができる。例えば、一秒間に30フレームの環境マップデータを取得し、各フレームに対して上述した処理を行うようにすればよい。その際に起こる問題として、ポリゴンデータの形状が誤差を含み時間方向に変形を繰り返すことにより、仮想被写体へのライティングがチラつく場合がある。よって、3次元座標EVDataには時間方向に特徴点を追跡し平滑化処理を行うことが効果的である。これにより、仮想被写体の位置の変遷に応じて陰影が変化する自然な合成画像を得ることができる。
以上説明したとおり、本実施例によれば、実写の背景画像データに仮想被写体を合成する際に、仮想被写体の位置に応じた適切なライティングによる自然な合成画像データを容易に生成すること可能となる。
<実施例2>
実施例1では、1つの背景撮像部と2つの環境マップ撮像部を備えた撮像装置を用いていた。次に、より多くの環境マップ撮像部を備えた撮像装置を用いる態様について、実施例2として説明する。
実施例1において紹介した想像装置110では、筐体の上部に2つの環境マップ撮像部402及び403が配置されていた。この場合、上半分の環境しか撮像することができない。この撮像装置110によって撮像された環境マップのみをそのまま用いるとすれば、仮想被写体へのライティングは上方からに限られることになる。
図21の(a)〜(c)で示すようなより多くの環境マップ撮像部を備えた撮像装置を用いることで、実施例1で説明したような一定の距離を仮定して下半分の環境を補うような作業も不要となる。
図21の(a)は、背景画像撮像部2101の他、筐体の上部と下部にそれぞれ環境マップ撮像部2102が2つずつ配置された撮像装置2100を示している。筐体の下部に設けられた環境マップ撮像部2102で撮像された環境マップ画像データを用いて距離マップデータやポリゴンデータを生成することにより、仮想被写体に対する下方向からの正確なライティング環境を構築することが可能となる。
図21の(b)は、背景画像撮像部2111の他、画角90°の環境マップ撮像部2112を計12個備えた撮像装置2110を示している。撮像装置2110の場合、筐体の上下、左右、前後の計6方向に2個1組の環境マップ撮像部2112が配置されている。1組の撮像部の上下軸、左右軸、光軸は全て同じ方向である。
図21の(c)は、背景画像撮像部2121の他、環境マップ撮像部2122を筐体の角に配置した撮像装置2120を示している。この場合は、各環境マップ撮像部2122から得られた画像データのうち、撮像領域が互いに重なる画像同士を用いて周囲の距離を算出することで、同様にポリゴンデータを生成することができる。
(その他の実施形態)
また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。

Claims (7)

  1. 2つ以上の視点からなる環境マップデータから周辺環境の三次元形状データを生成する周辺環境三次元形状データ生成手段と、
    前記周辺環境三次元形状データを光源として、仮想被写体を背景画像データに合成する仮想被写体合成手段と
    を備えたことを特徴とする画像処理装置。
  2. 前記周辺環境三次元形状データ生成手段は、前記環境マップデータから距離マップを生成することにより周辺環境三次元形状データを生成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記環境マップデータから、不要な被写体を除去する不要被写体除去手段をさらに備えたことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記不要な被写体は、所定の距離よりも近い距離に存在する被写体であることを特徴とする請求項3に記載の画像処理装置。
  5. 前記不要な被写体は、人物であることを特徴とする請求項3に記載の画像処理装置。
  6. 2つ以上の視点からなる環境マップデータから周辺環境の三次元形状データを生成する周辺環境三次元形状データ生成ステップと、
    前記周辺環境三次元形状データを光源として、仮想被写体を背景画像データに合成する仮想被写体合成ステップと
    を含むことを特徴とする画像処理方法。
  7. コンピュータを請求項1〜5のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2012014200A 2012-01-23 2012-01-26 画像処理装置、画像処理方法及びプログラム Active JP5865092B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012014200A JP5865092B2 (ja) 2012-01-26 2012-01-26 画像処理装置、画像処理方法及びプログラム
US13/744,933 US20130194254A1 (en) 2012-01-23 2013-01-18 Image processing apparatus, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012014200A JP5865092B2 (ja) 2012-01-26 2012-01-26 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2013152683A true JP2013152683A (ja) 2013-08-08
JP5865092B2 JP5865092B2 (ja) 2016-02-17

Family

ID=49048957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012014200A Active JP5865092B2 (ja) 2012-01-23 2012-01-26 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5865092B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015080199A (ja) * 2013-09-11 2015-04-23 ソニー株式会社 画像処理装置および方法
JP2015095000A (ja) * 2013-11-08 2015-05-18 キヤノン株式会社 画像処理装置および画像処理方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099801A (ja) * 2001-09-25 2003-04-04 Toyota Motor Corp 三次元モデルの画像表示方法、装置、プログラム及び記録媒体
JP2007018173A (ja) * 2005-07-06 2007-01-25 Canon Inc 画像処理方法、画像処理装置
JP2008033531A (ja) * 2006-07-27 2008-02-14 Canon Inc 情報処理方法
JP2008282171A (ja) * 2007-05-09 2008-11-20 Sony Computer Entertainment Inc グラフィックスプロセッサおよび描画処理方法
WO2010070536A1 (en) * 2008-12-19 2010-06-24 Koninklijke Philips Electronics N.V. Controlling of display parameter settings
JP2011095797A (ja) * 2009-10-27 2011-05-12 Sony Corp 画像処理装置、画像処理方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099801A (ja) * 2001-09-25 2003-04-04 Toyota Motor Corp 三次元モデルの画像表示方法、装置、プログラム及び記録媒体
JP2007018173A (ja) * 2005-07-06 2007-01-25 Canon Inc 画像処理方法、画像処理装置
JP2008033531A (ja) * 2006-07-27 2008-02-14 Canon Inc 情報処理方法
JP2008282171A (ja) * 2007-05-09 2008-11-20 Sony Computer Entertainment Inc グラフィックスプロセッサおよび描画処理方法
WO2010070536A1 (en) * 2008-12-19 2010-06-24 Koninklijke Philips Electronics N.V. Controlling of display parameter settings
JP2011095797A (ja) * 2009-10-27 2011-05-12 Sony Corp 画像処理装置、画像処理方法及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
目黒淳一, 外5名: ""ロボットと時空間GISの連携による段階的な震災データ収集システムの開発"", 計測自動制御学会論文集, vol. 第41巻, 第12号, JPN6015037376, 31 December 2005 (2005-12-31), JP, pages 981 - 988, ISSN: 0003155551 *
長原一, 外2名: ""超臨場感ビジュアライゼーションシステム"", 情報処理学会研究報告, vol. 第2003巻, 第88号, JPN6015037375, 9 September 2003 (2003-09-09), JP, pages 95 - 102, ISSN: 0003155550 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015080199A (ja) * 2013-09-11 2015-04-23 ソニー株式会社 画像処理装置および方法
US10587864B2 (en) 2013-09-11 2020-03-10 Sony Corporation Image processing device and method
JP2015095000A (ja) * 2013-11-08 2015-05-18 キヤノン株式会社 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
JP5865092B2 (ja) 2016-02-17

Similar Documents

Publication Publication Date Title
EP3614340B1 (en) Methods and devices for acquiring 3d face, and computer readable storage media
CN110148204B (zh) 用于在真实环境的视图中表示虚拟对象的方法和系统
JP4284664B2 (ja) 三次元形状推定システム及び画像生成システム
WO2019035155A1 (ja) 画像処理システム、画像処理方法、及びプログラム
JP2006053694A (ja) 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
JP6073858B2 (ja) 顔の位置検出
JP2013127774A (ja) 画像処理装置、画像処理方法及びプログラム
US6515658B1 (en) 3D shape generation apparatus
AU2017279672A1 (en) Alignment of captured images by fusing colour and geometrical information.
JPH11175762A (ja) 光環境計測装置とそれを利用した仮想画像への陰影付与装置及び方法
CN111382618B (zh) 一种人脸图像的光照检测方法、装置、设备和存储介质
Queguiner et al. Towards mobile diminished reality
CN109064533B (zh) 一种3d漫游方法及系统
US20230394740A1 (en) Method and system providing temporary texture application to enhance 3d modeling
US20130194254A1 (en) Image processing apparatus, image processing method and program
CN110533762B (zh) 三维头像的生成方法及电子装置
JP6762570B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN109427089B (zh) 基于环境光照条件的混合现实对象呈现
KR102291162B1 (ko) 인공 지능 학습용 가상 데이터 생성 장치 및 방법
US20210209347A1 (en) Texture map generation using multi-viewpoint color images
JP5865092B2 (ja) 画像処理装置、画像処理方法及びプログラム
Schwandt et al. Glossy reflections for mixed reality environments on mobile devices
JP2007272847A (ja) 照明シミュレーション方法及び画像合成方法
CA3155612A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP2002092625A (ja) 画像処理装置および方法、並びに記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151225

R151 Written notification of patent or utility model registration

Ref document number: 5865092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151