JP2014006658A - 陰影情報導出装置、陰影情報導出方法及びプログラム - Google Patents

陰影情報導出装置、陰影情報導出方法及びプログラム Download PDF

Info

Publication number
JP2014006658A
JP2014006658A JP2012141254A JP2012141254A JP2014006658A JP 2014006658 A JP2014006658 A JP 2014006658A JP 2012141254 A JP2012141254 A JP 2012141254A JP 2012141254 A JP2012141254 A JP 2012141254A JP 2014006658 A JP2014006658 A JP 2014006658A
Authority
JP
Japan
Prior art keywords
shadow information
reference object
scene image
shadow
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012141254A
Other languages
English (en)
Other versions
JP5795556B2 (ja
Inventor
Yasuhiro Yao
泰洋 八尾
Harumi Kawamura
春美 川村
Akira Kojima
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012141254A priority Critical patent/JP5795556B2/ja
Publication of JP2014006658A publication Critical patent/JP2014006658A/ja
Application granted granted Critical
Publication of JP5795556B2 publication Critical patent/JP5795556B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】陰影を付与したコンピュータグラフィックスオブジェクトを手軽にシーン画像に合成できる環境をユーザに提供できるようにする。
【解決手段】シーンとしての画像内容を有するシーン画像に対応するデプスマップに基づいてシーン画像が示すシーンの法線マップを導出する。また、シーン画像とデプスマップと法線マップとの少なくともいずれか1つに基づいて参照物体の領域部分である参照物体領域を抽出する。そして、シーン画像と法線マップと前記参照物体領域とに基づいて陰影情報を導出する。
【選択図】図1

Description

本発明は、陰影情報を導出する技術に関する。
拡張現実においては、例えば仮想物体などのCG(コンピュータグラフィックス)オブジェクトをシーン画像に合成する際に、そのCGオブジェクトに陰影を付与することが行われている。このように、CGオブジェクトに対応して陰影を付加することによって、シーン画像においてそのCGオブジェクトが実際に存在しているかのように見せることができる。
上記のように陰影を付加するのにあたっては陰影情報が利用される。陰影情報とは、シーン画像におけるCGオブジェクトの合成位置に対応させて実シーンにCGオブジェクトの実体を位置させたとした場合に生じる陰影が、シーン画像においてはどのように表現されるのかを示す情報である。
陰影情報の導出は、例えば、シーンにおける光源に関する情報(光源情報)を推定し、この光源情報に基づいてCGオブジェクトのレンダリングを行うことにより実現されている。
光源情報を推定するにあたり、例えば全方位を撮像する全方位カメラを利用するというものが知られている(例えば、非特許文献1および非特許文献2参照)。この手法は、全方位を撮像した画像のいずれかの部分において光源が撮像されていることを前提としている。そのうえで、この手法は、全方位カメラにより撮像した画像に基づいて、シーン画像に対応する光源の位置、色、位置、強度などを推定するというものである。
また、金属球を利用する手法が知られている(例えば、非特許文献3参照)。この手法は、上記の全方位カメラに準じた考え方に基づいている。つまり、この手法は、金属球に映った周囲のシーンの映像において光源も含まれていることを前提とする。そのうえで、この手法は、周囲のシーンが映り込んでいる金属球の画像に基づいて光源の位置、色、位置、強度などを推定するものである。
また、拡散反射面を有する白色球を利用する手法が知られている(例えば、非特許文献4参照)。この手法では、白色球の画像において現れている陰影に基づいて、その白色球の周囲における光源の色、強度、方向等を推定するものである。
さらに、反射特性が既知の平面において生じる形状が既知の物体の影に基づいて光源分布を推定するという手法も知られている(例えば、非特許文献5参照)。
Imari Sato, Yoichi Sato, and Katsushi Ikeuchi, Acquiring a radiance distribution to superimpose virtual objects onto a real scene, IEEE Transactions on Visualization and Computer Graphics, Volume 5, Issue 1, pages 1-12, 1999. 佐藤いまり,林田守広,甲斐郁代,佐藤洋一,池内克史,実光環境下での画像生成 : 基礎画像の線形和による高速レンダリング手法, 電子情報通信学会論文誌. D−II,情報・システム,II−パターン処理 J84−D−II(8),pages 1864−1872,2001. Kusuma Agusanto, Li Li, Zhu Chuangui, and Ng Wan Sing, Photorealistic rendering for augmented reality using environment illumination, Proceedings of the Second IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR), pages 208-216, 2003. Miika Aittala, Inverse lighting and photorealistic rendering or augmented reality, The Visual Computer, Volume 26, Issue 6, pages 669-678, 2010. 佐藤いまり,佐藤洋一,池内克史,物体の陰影に基づく光源環境の推定,情報処理学会誌:コンピュータビジョンとイメージメディア,Volume 41,Number SIG 10(CVIM 1),pages 31−40,2000.
非特許文献1、2による手法を利用する場合には全方位カメラが必要である。この全方位カメラは、例えば魚眼レンズを備える特殊な機器であって、例えばコンシューマなどともいわれる一般のエンドユーザが手軽に入手できるものではない。
また、非特許文献3、4による手法の場合にも、金属球あるいは拡散反射面を有する白色球を準備する必要がある。このような金属球や白色球も器具としては特殊でありエンドユーザが容易に入手できるものではない。
また、非特許文献5による手法の場合、物体の形状と平面の反射特性が既知である必要がある。この場合、ユーザは、これらの物体の形状と平面の反射特性を測定しなければならず、このためには、一定以上の専門知識を必要とする。
このように、非特許文献1〜5によるいずれの手法も、例えば一般的でない装置や器具を必要としたり、あるいは、専門知識を必要とする。したがって、非特許文献1〜5のいずれの手法によっても、例えば拡張現実において陰影のあるCGオブジェクトをシーン画像に合成できるような環境をエンドユーザに提供することは難しい。
本発明は、このような事情に鑑みてなされたもので、陰影を付与したCGオブジェクトを手軽にシーン画像に合成できる環境をユーザに提供可能とする技術の提供を目的とする。
上述した課題を解決するために、本発明の一態様としての陰影情報導出装置は、シーンとしての画像内容を有するシーン画像に対応するデプスマップに基づいて前記シーン画像が示すシーンの法線マップを導出する法線マップ導出部と、前記シーン画像と前記デプスマップと前記法線マップとの少なくともいずれか1つに基づいて参照物体の領域部分である参照物体領域を抽出する参照物体領域抽出部と、前記シーン画像と前記法線マップと前記参照物体領域とに基づいて陰影情報を導出する陰影情報導出部とを備える。
また、本発明の陰影情報導出装置は、正則化された陰影情報が導出されるように、陰影情報の導出に利用する所定のパラメータを補正する陰影情報正則化部をさらに備える。
また、本発明の一態様としての陰影導出方法は、シーンとしての画像内容を有するシーン画像に対応するデプスマップに基づいて前記シーン画像が示すシーンの法線マップを導出する法線マップ導出ステップと、前記シーン画像と前記デプスマップと前記法線マップとの少なくともいずれか1つに基づいて参照物体の領域部分である参照物体領域を抽出する参照物体領域抽出ステップと、前記シーン画像と前記法線マップと前記参照物体領域とに基づいて陰影情報を導出する陰影情報導出ステップとを備える。
また、本発明の陰影情報導出装置は、正則化された陰影情報が導出されるように、陰影情報の導出に利用する所定のパラメータを補正する陰影情報正則化ステップをさらに備える。
また、本発明の一態様としてのプログラムは、コンピュータを、上記の陰影情報導出装置として機能させるためのものである。
以上説明したように、本発明によれば、陰影を付与したCGオブジェクトを手軽にシーン画像に合成できる環境をユーザに提供できるという効果が得られる。
本発明の第1の実施形態における陰影情報導出装置の構成例を示す図である。 シーン画像の一例を示す図である。 デプスマップの一例を示す図である。 法線マップを可視化して示す図である。 参照物体領域の抽出結果を示す図である。 本実施形態において利用する球面調和関数を可視化して示す図である。 本実施形態における陰影情報を可視化して示す図である。 陰影情報により陰影を付与したCGオブジェクトの一例を示す図である。 陰影情報により陰影を付与したCGオブジェクトが合成されたシーン画像の一例を示す図である。 第1の実施形態における陰影情報導出装置が実行する処理手順例を示す図である。 第2の実施形態における陰影情報導出装置の構成例を示す図である。 シーン画像の一例を示す図である。 デプスマップの一例を示す図である。 本実施形態の陰影情報正則化部により正則化されていない陰影情報を可視化して示す図である。 本実施形態の陰影情報正則化部により正則化された陰影情報を可視化して示す図である。 第2の実施形態における陰影情報導出装置が実行する処理手順例を示す図である。
<第1の実施形態>
[陰影情報導出装置の構成例]
以下、本発明の第1の実施形態の陰影情報導出装置について説明する。本実施形態の陰影情報導出装置は、シーン画像と、このシーン画像についてのデプスマップを入力して陰影情報を導出する。
本実施形態において、陰影情報とは、シーン画像におけるCG(コンピュータグラフィックス)オブジェクトの合成位置に対応させて実シーンにCGオブジェクトの実体を位置させたとした場合に生じる陰影を、シーン画像において表現するための情報である。この陰影情報は、CGオブジェクトを合成したシーン画像において、CGオブジェクトの位置やシーンの照明に応じた陰影を与えるのに利用される。このようにして陰影が与えられることで、シーン画像においてCGオブジェクトが自然に見えることになり、CGオブジェクトが合成されたシーン画像の現実感が向上する。
図1は、第1の実施形態における陰影情報導出装置100の構成例を示している。この図に示す陰影情報導出装置100は、シーン画像入力部101、デプスマップ入力部102、法線マップ導出部103、参照物体領域抽出部104、陰影情報導出部105の各機能部を備える。なお、これらの機能部は、例えばCPU(Central Processing Unit)などがプログラムを実行することにより実現される。また、陰影情報導出装置100は、記憶部106、表示部107および操作部108などのデバイスを備える。
シーン画像入力部101は、シーンとしての画像内容を有するシーン画像201を外部から入力し、記憶部106に記憶させる。
本実施形態におけるシーン画像201は、例えば現実の或る環境を撮像して得られた画像であればよい。
図2は、上記のように現実の或る環境を撮像して得られたシーン画像201の画像内容の一例を示している。
デプスマップ入力部102は、シーン画像201に対応するデプスマップ202を外部から入力し、記憶部106に記憶させる。このデプスマップ202は、シーン画像201における被写空間に含まれる被写体や背景などの対象物に対する視点からの距離を示す信号値(デプス値)を二次元平面に配置された画素ごとの画素値(輝度)とする画像信号である。このデプスマップ202を形成する画素は、シーン画像201を形成する画素と対応する。
図3は、図2のシーン画像201に対応するデプスマップ202の例を示している。この図に示すデプスマップ202において、各画素に対応する位置の被写体は、その輝度値が高くなるほど撮影位置(視点)との間の距離が長くなっていくことを示す。
なお、シーン画像入力部101が入力するシーン画像201とデプスマップ入力部102が入力するデプスマップ202は、コンシューマ(エンドユーザ)向けのRGBカメラとデプスセンサを備えた撮影装置により撮影を行って得ることができる。このような撮影装置の1つとして、例えば、Microsoft CorporationのKinect(登録商標)が知られている。
法線マップ導出部103は、記憶部106に記憶されるデプスマップ202に基づいてシーン画像201が示すシーンの法線マップを導出する。ここでの法線マップは、画素ごとに正則化された物体表面の法線を格納したデータである。
このために、法線マップ導出部103は、記憶部106からデプスマップ202を読み込む。次に、法線マップ導出部103は、デプスマップ202を形成する各画素の座標(画素座標)とデプス値(画素値)とを利用して、シーンにおける3次元頂点の位置(画素座標)を算出する。次に、法線マップ導出部103は、算出した3次元頂点の1つに注目し、デプスマップ202においてその注目した3次元頂点から縦に隣接する3次元頂点に向かうベクトルと、横に隣接する3次元頂点へと向かうベクトルとを求める。そして、法線マップ導出部103は、これら2つのベクトルの外積を求めることにより、注目した頂点における法線を導出する。
法線マップ導出部103は、上記の手順により画素ごとに法線を求め、これらの法線により法線マップ203を生成する。このように、法線マップ導出部103は法線マップ203を導出する。そして、法線マップ導出部103は、導出した法線マップ203を記憶部106に記憶させる。
具体例として、法線マップ導出部103は、以下の式(1)により、画素座標(u,v)における法線n(u,v)を求める。
式(1)によっては、法線ベクトルとしての法線n(u,v)が求められる。なお、式(1)において、d(u,v)は(u,v)における奥行値(デプス)であり、Kはデプスマップ202を撮像した撮像装置(デプスセンサ)の内部パラメータ行列である。この内部パラメータ行列Kは、撮像装置により撮像される撮像平面上の実世界座標を画素座標に変換する行列である。また、撮像平面上の実世界座標の原点は撮影位置であり、撮像平面上の実世界座標の奥行きは、デプスマップ202が示す画素ごとのデプス値に対応する。
図4は、図3に示したデプスマップ202から導出された法線マップ203を画像により可視化した例を示している。この図に示す法線マップ203は、現実にはRGBにより表現されるカラー画像である。そのうえで、この図の法線マップ203は、例えば、上記のように画素座標ごとに求められた3次元の法線ベクトル成分の値が、それぞれ、対応の画素座標の画素のRGBの各成分の値に変換されている。つまり、図4の法線マップ203の画像は、画素ごとの法線ベクトル成分の値を、色により表現するように可視化している。
参照物体領域抽出部104は、シーン画像201とデプスマップ202と法線マップ203との少なくともいずれか1つに基づいて参照物体の領域部分である参照物体領域を抽出する。なお、参照物体は、シーンにおいてCGオブジェクトが配置される位置の光源情報を取得するにあたって陰影情報導出部105が参照する物体である。
参照物体領域抽出部104は、例えば以下のように参照物体領域を抽出する。つまり、参照物体領域抽出部104は、記憶部106から、シーン画像201とデプスマップ202と法線マップ203のうちのいずれか1つを抽出対象データとして読み込む。参照物体領域抽出部104は、このように読み込まれた抽出対象データの画像を、例えば表示部107に表示させる。
ユーザは、表示された画像の被写体のうちから参照物体とする物体を決定する。この際、ユーザは、シーン画像に合成するCGオブジェクトにできるだけ近く、また、できるだけ陰影が明確に現れている物体を参照物体として決定するとよい。そして、ユーザは、表示された画像から参照物体が表示されている領域を選択するための所定の操作を操作部108に対して行う。
参照物体領域抽出部104は、読み込みを行った抽出対象データから、上記の操作により選択された領域を参照物体領域204として抽出する。参照物体領域抽出部104は、抽出した参照物体領域204を記憶部106に記憶する。
または、参照物体領域抽出部104は、以下のように参照物体領域204を抽出してもよい。つまり、参照物体領域抽出部104は、記憶部106から、シーン画像201とデプスマップ202と法線マップ203をそれぞれ抽出対象データとして読み込む。そして、参照物体領域抽出部104は、例えば、読み込んだシーン画像201とデプスマップ202と法線マップ203のいずれかの画像を表示部107に表示させる。一例として、ユーザにとっては、シーン画像201が最もシーンを見やすいので、参照物体領域抽出部104は、シーン画像201を表示させればよい。
この場合、ユーザは、表示された画像から参照物体として決定した領域における一部領域を指定する操作を操作部108に対して行う。
参照物体領域抽出部104は、抽出対象データであるシーン画像201とデプスマップ202と法線マップ203のそれぞれに対して個別に閾値を設定している。そのうえで、参照物体領域抽出部104は、操作により指定された一部領域において決定した代表点を起点として、シーン画像201とデプスマップ202と法線マップ203のそれぞれを対象として隣接する画素を探索していく。
そして、参照物体領域抽出部104は、探索過程において、シーン画像201とデプスマップ202と法線マップ203のうちのいずれかにおいて、隣接する画素同士の画素値の差が閾値以上となった場合に、その隣接する画素の境界を、参照物体領域とそれ以外の領域との境界部分として決定する。そして、参照物体領域抽出部104は、シーン画像201とデプスマップ202と法線マップ203との間で上記のように決定された境界部分を総合することにより、参照物体領域としての輪郭の画素座標を特定する。このようにしても、参照物体領域抽出部104は、参照物体領域204を抽出することができる。
なお、参照物体領域抽出部104は、上記のようにデータに閾値を設定して参照物体領域204を抽出する処理について、例えばシーン画像201とデプスマップ202と法線マップ203のうちの2つ以下の組み合わせを対象として行ってもよい。ただし、シーン画像201とデプスマップ202と法線マップ203をすべて利用たほうが、輝度とデプス値と法線方向のすべての情報の組み合わせにより参照物体領域204と背景との境界を特定できるので、参照物体領域204の抽出精度は高くなる。
図5は、参照物体領域抽出部104による参照物体領域204の抽出結果を画像として示す図である。この図において、参照物体領域204に該当する部分は、黒色の背景画像において白色となっている部分である。この白色の部分は、例えば、図2のシーン画像における人の左上腕部分である。
陰影情報導出部105は、シーン画像201と法線マップ203と参照物体領域204とに基づいて陰影情報を導出する。
一具体例として、陰影情報導出部105は、以下のように陰影情報を導出する。
まず、陰影情報導出部105は、記憶部106からシーン画像201と法線マップ203と参照物体領域204とを読み出す。
陰影情報導出部105は、読み出した参照物体領域204に含まれる画素ごとに番号n(n=1・・・N)を付す。なお、参照物体領域204に含まれる画素の配列と番号nとの対応は演算結果には影響を及ぼさないので、参照物体領域204に含まれる画素に対する番号nの付与規則については特に限定されない。
陰影情報導出部105は、陰影情報を導出するのに、球面調和関数を用いる。球面調和関数を用いることによっては、例えば光源数が増加しても問題が複雑にならない、また、少数の基底によって拡散反射の陰影を高精度で表現できるなどの利点がある。
球面調和関数は、球面座標(θ,φ)についての関数であり、以下の式(2)により定義される。
式(2)において、l、mは整数であり、例えば、l≧0、−1≦m≦1である。lは次数を示す。つまり、この例では、「0≦l≦2」の3次による9つの球面調和関数を用いる。また、Klmは正則化係数であり、Plmはルジャンドル(Legendre)陪関数である。
本実施形態においては、球面調和関数を例えば上記のように9つとするように一定数以下に限定することによって、未知の反射特性の物体から拡散反射の陰影を導出するにあたってのロバスト性を向上させることができる。
図6は、図5に示した参照物体領域204に対応する9つの球面調和関数の例を画像により可視化して示している。
陰影情報導出部105は、図6のように表現される9つの球面調和関数を統合するにあたり、球面調和関数ごとに係数(重み)を設定する。このために、例えば、陰影情報導出部105は、以下の式(3)により表される誤差関数E(w)を最小にするような重みwを求める。式(3)において、Inは参照物体領域204中のn番目の画素の輝度値であり、(θn,φn)は同画素の位置における法線ベクトルである。
なお、陰影情報導出部105は、例えばQR分解などの手法を利用した演算により厳密にE(w)の最小化を行うことができる。
そして、陰影情報導出部105は、式(3)により算出した整数l、mの組み合わせごとの重みwmlと球面調和関数とを利用して、以下の式(4)により陰影情報I(θ,φ)を求める。
陰影情報導出部105は、上記のように求めた陰影情報I(θ,φ)を、陰影情報205として記憶部106に記憶させる。
図7は、これまでの説明にしたがって求められた陰影情報205を画像により可視化して示したものである。
上記のように導出された陰影情報205は、例えば拡張現実に対応するレンダリングエンジンが、CGオブジェクトをシーン画像201に合成するのに利用することができる。この際、例えばレンダリングエンジンは、CGオブジェクトの法線方向(θ,φ)にしたがってI(θ,φ)を陰影として適用する。
図8は、図7に示した陰影情報205を適用して陰影を付与したCGオブジェクトの例を示している。
図9は、図8のように陰影を付与したCGオブジェクトを元のシーン画像201に合成した合成画像201Aを示している。
このように、陰影情報205を適用して陰影を付与することで、例えば図9にも示されるように、CGオブジェクトの陰影はシーンにおける光源の状態にほぼ合致することになる。これにより、合成画像201Aのシーンにおいて存在するCGオブジェクトの実在感が向上する。
また、図1において、記憶部106は、これまでの説明から理解されるように、シーン画像201、デプスマップ202、法線マップ203、参照物体領域204および陰影情報205などの陰影情報の導出に利用するデータを記憶する。なお、記憶部106に対応するデバイスとしては、例えば、HDD(Hard Disc Drive)やフラッシュメモリなどを採用できる。
また、表示部107は、参照物体領域抽出部104の制御に応じて、抽出対象データなどの画像を表示する。
操作部108は、例えばユーザが参照物体の領域を表示部107に表示された画像から選択するための操作に使用される操作子や操作デバイスを一括して示したものである。このような操作部108の操作子や操作デバイスには、例えばマウスやキーボードなどが含まれる。
[処理手順例]
図10のフローチャートは、第1の実施形態の陰影情報導出装置100が実行する処理手順例を示している。
まず、シーン画像入力部101は、シーン画像201を入力して記憶部106に記憶させる(ステップS101)。
また、デプスマップ入力部102は、デプスマップ202を入力して記憶部106に記憶させる(ステップS102)。
次に、法線マップ導出部103は、記憶部106からデプスマップ202を読み込む(ステップS103)。
法線マップ導出部103は、読み込んだデプスマップ202を利用して前述のように法線マップ203を導出する(ステップS104)。法線マップ導出部103は、導出した法線マップ203を記憶部106に記憶させる(ステップS105)。
次に、参照物体領域抽出部104は、抽出対象データを入力する(ステップS106)。抽出対象データは前述のように、シーン画像201とデプスマップ202と法線マップ203の少なくともいずれか1つである。
参照物体領域抽出部104は、前述のように、例えばユーザの操作に応じて抽出対象データから参照物体領域204を抽出する(ステップS107)。参照物体領域抽出部104は、抽出した参照物体領域204を記憶部106に記憶させる(ステップS108)。
次に、陰影情報導出部105は、シーン画像201と法線マップ203と参照物体領域204とを入力する(ステップS109)。
陰影情報導出部105は、入力したシーン画像201と法線マップ203と参照物体領域204とを利用して、前述のように、陰影情報205を導出する(ステップS110)。
陰影情報導出部105は、このように導出した陰影情報205を記憶部106に記憶させる(ステップS111)。
<第2の実施形態>
[陰影情報導出装置の構成例]
次に、第2の実施形態について説明する。
図11は、第2の実施形態における陰影情報導出装置100Aの構成例を示している。なお、この図において、図1と同一部分には同一符号を付して、ここでの説明は省略する。
図11に示す陰影情報導出装置100Aは、図1の陰影情報導出装置100の構成に対して、陰影情報正則化部109をさらに備える。
陰影情報正則化部109は、正則化された陰影情報205が導出されるように、陰影情報205の導出に利用する所定のパラメータを補正する。ここでの正則化は、導出された陰影が拡散反射の陰影に適合するように制約を加えることをいう。また、陰影情報正則化部109が補正対象とするパラメータは、球面調和関数の係数(重みw)である。
なお、この陰影情報正則化部109は、例えばCPUがプログラムを実行することにより実現できる。
例えば、参照物体が鏡面反射するものであったり、デプスマップ202が示すデプス値に誤差が生じていることなどが要因となって、式(3)に基づいて求めた重みwの次数間での比が、拡散反射の陰影には好ましくない結果となる可能性がある。このような結果が生じた場合、陰影情報205自体も、拡散反射の陰影に適合しないものとなってしまう。
拡散反射の陰影に適合していない陰影情報205により生じる不具合の一具体例として、例えばリンギングアーティファクトが生じる場合がある。
図14は、図12に示すシーン画像201と、図13に示すデプスマップ202を入力し、図12において白抜きの矢印で示す球の領域を参照物体領域204として抽出した場合に導出される陰影情報205を画像により可視化したものである。
図14に示す陰影情報205においては、白抜きの矢印で示すように、円の左下の縁に沿うようにして明線が生じている。この明線がリンギングアーティファクトである。このリンギングアーティファクトとしての明線は、実世界の拡散反射では観察されないものである。このようなリンギングアーティファクトが生じないような陰影情報205を導出することができれば、これによりCGオブジェクトに付与される陰影についての実シーンとの合致度がさらに高くなる。
第2の実施形態における陰影情報正則化部109は、図14に示したようなリンギングアーティファクトなどの現象を低減するために、以下のように陰影情報を正則化する。
つまり、陰影情報正則化部109は、先の式(3)により表されるエラー関数E(w)に対して正則化項を加算したエラー関数E’(w)を最小化する重みwを求めるものである。エラー関数E’(w)を以下の式(5)に示す。
なお、式(5)における2つの正則化項におけるλとλは、それぞれ、制約の強さを調節するための正則化係数である。
拡散反射の陰影を表現した際の球面調和関数の重みwの次数間の関係は、1次(l=1)の重みの絶対値が0次(l=0)の重みの絶対値の「2/3」程度であり、2次(l=2)の重みの絶対値が0次の重みの絶対値の「1/4」程度であることが知られている。
このことに基づいて、球面調和関数の次数間の2乗和の関係は以下のように求めることができる。
つまり、0次に対する1次の重みの2乗和は、1次に対応する球面調和関数の数である「3」と、1次の重みの絶対値に対する0次(l=0)の重みの絶対値の比である「2/3」とにより、3×(2/3)=4/3倍である。
また、0次に対する2次の重みの2乗和は、2次に対応する球面調和関数の数である「5」と、2次(l=1)の重みの絶対値に対する0次(l=0)の重みの絶対値の比である「1/4」とにより、5×(1/4)=5/16倍である。
式(5)のエラー関数E’(w)は、上記のように求められた2乗和の倍数が示す係数比を維持するように制約を与えたものである。このように制約を与えることは、すなわち、拡散反射の陰影を表現した際の球面調和関数の重みwの比により制約を与えることを意味する。
陰影情報正則化部109は、例えば、陰影情報導出部105が求めた式(3)のエラー関数E(w)についての最小化結果を初期値として利用して、式(5)のエラー関数E’(w)を最小化する重みwを求めることができる。このように求められた球面調和関数の重みwは、拡散反射の陰影を表現するのに適した比を有している。
なお、陰影情報正則化部109は、例えば、式(3)のエラー関数E(w)についての最小化結果を初期値として利用してNewton法により式(5)のエラー関数E’(w)を最小化する重みwを求めてもよい。
第2の実施形態において、陰影情報導出部105は、上記のように陰影情報正則化部109により求められたエラー関数E’(w)に対応する重みwを利用して、式(4)の演算によって正則化陰影情報205Aを求める。このように導出された正則化陰影情報205Aは、例えば第1の実施形態における陰影情報205が正則化されたものであり、拡散反射の陰影の表現に適合したものとなっている。
図15は、上記のように導出された正則化陰影情報205Aを画像により可視化して示したものである。なお、この図15に示す正則化陰影情報205Aは、図14と同様に、図12に示すシーン画像201と、図13に示すデプスマップ202を入力し、図12において白抜きの矢印で示す球の領域を参照物体領域204として抽出した場合に導出されるものである。
図15と図14を比較して分かるように、図15に示す正則化陰影情報205Aでは、白抜きの矢印により示される箇所におけるリンギングアーティフェクトが大幅に低減されている。
そして、この正則化陰影情報205Aにより拡散反射のCGオブジェクトに陰影を付与することによっては、そのCGオブジェクトのシーンにおける実在感が高まる。
[処理手順例]
図16のフローチャートは、第2の実施形態における陰影情報導出装置100Aが実行する処理手順例を示している。なお、この図に示すステップにおいて、図10と同じ処理のものについては同一符号を付し、ここでの説明を省略する。
陰影情報導出部105は、シーン画像201と法線マップ203と参照物体領域204とを入力した後(ステップS109)、式(3)のエラー関数E(w)を最小化する重みwを算出する(ステップS110A)。
次に、陰影情報正則化部109は、ステップS110Aにより求められた重みwについて、式(5)のエラー関数E’(w)を最小化する重みwを求めることにより補正する(ステップS110B)。
そして、陰影情報導出部105は、ステップS110Bにより補正された重みwを利用して、正則化陰影情報205Aを算出する(ステップS110C)。これにより、陰影情報導出部105は正則化された陰影情報を導出したことになる。そして、陰影情報導出部105は、算出した正則化陰影情報205Aを記憶部106に記憶させる(ステップS111)。このような処理によって、第2の実施形態における陰影情報導出装置100Aは、拡散反射に対応して正則化された陰影情報を得ることができる。
なお、図1や図11における各機能部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより本実施形態の陰影情報の導出を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
100、100A…陰影情報導出装置, 101…シーン画像入力部, 102…デプスマップ入力部, 103…法線マップ導出部, 104…参照物体領域抽出部, 105…陰影情報導出部, 106…記憶部, 107…表示部, 108…操作部, 109…陰影情報正則化部, 201…シーン画像, 201A…合成画像, 202…デプスマップ, 203…法線マップ, 204…参照物体領域, 205…陰影情報, 205A…正則化陰影情報

Claims (5)

  1. シーンとしての画像内容を有するシーン画像に対応するデプスマップに基づいて前記シーン画像が示すシーンの法線マップを導出する法線マップ導出部と、
    前記シーン画像と前記デプスマップと前記法線マップとの少なくともいずれか1つに基づいて参照物体の領域部分である参照物体領域を抽出する参照物体領域抽出部と、
    前記シーン画像と前記法線マップと前記参照物体領域とに基づいて陰影情報を導出する陰影情報導出部と、
    を備える陰影情報導出装置。
  2. 正則化された陰影情報が導出されるように、陰影情報の導出に利用する所定のパラメータを補正する陰影情報正則化部をさらに備える、
    請求項1に記載の陰影情報導出装置。
  3. シーンとしての画像内容を有するシーン画像に対応するデプスマップに基づいて前記シーン画像が示すシーンの法線マップを導出する法線マップ導出ステップと、
    前記シーン画像と前記デプスマップと前記法線マップとの少なくともいずれか1つに基づいて参照物体の領域部分である参照物体領域を抽出する参照物体領域抽出ステップと、
    前記シーン画像と前記法線マップと前記参照物体領域とに基づいて陰影情報を導出する陰影情報導出ステップと、
    を備える陰影情報導出方法。
  4. 正則化された陰影情報が導出されるように、陰影情報の導出に利用する所定のパラメータを補正する陰影情報正則化ステップをさらに備える、
    請求項3に記載の陰影情報導出方法。
  5. コンピュータを、請求項1または2に記載の陰影情報導出装置として機能させるためのプログラム。
JP2012141254A 2012-06-22 2012-06-22 陰影情報導出装置、陰影情報導出方法及びプログラム Expired - Fee Related JP5795556B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012141254A JP5795556B2 (ja) 2012-06-22 2012-06-22 陰影情報導出装置、陰影情報導出方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012141254A JP5795556B2 (ja) 2012-06-22 2012-06-22 陰影情報導出装置、陰影情報導出方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2014006658A true JP2014006658A (ja) 2014-01-16
JP5795556B2 JP5795556B2 (ja) 2015-10-14

Family

ID=50104330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012141254A Expired - Fee Related JP5795556B2 (ja) 2012-06-22 2012-06-22 陰影情報導出装置、陰影情報導出方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5795556B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106408647A (zh) * 2016-09-20 2017-02-15 广州视睿电子科技有限公司 一种图像阴影添加方法及装置
US9961319B2 (en) 2015-03-11 2018-05-01 Canon Kabushiki Kaisha Image processing apparatus and control method thereof
JP2019096044A (ja) * 2017-11-22 2019-06-20 富士ゼロックス株式会社 画像処理装置及びプログラム
CN111462295A (zh) * 2020-03-27 2020-07-28 咪咕文化科技有限公司 增强现实合拍中的阴影处理方法、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067772A (ja) * 2001-08-30 2003-03-07 Canon Inc 画像処理装置及び方法
JP2004021388A (ja) * 2002-06-13 2004-01-22 Nippon Hoso Kyokai <Nhk> 画像処理装置及びそれを備えた撮影システム
WO2010087164A1 (ja) * 2009-01-29 2010-08-05 日本電気株式会社 カラー画像処理方法、カラー画像処理装置および記録媒体
JP2011210237A (ja) * 2010-03-26 2011-10-20 Mitsubishi Electric Research Laboratories Inc 物体クラスからの物体の新たな画像を合成するための方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067772A (ja) * 2001-08-30 2003-03-07 Canon Inc 画像処理装置及び方法
JP2004021388A (ja) * 2002-06-13 2004-01-22 Nippon Hoso Kyokai <Nhk> 画像処理装置及びそれを備えた撮影システム
WO2010087164A1 (ja) * 2009-01-29 2010-08-05 日本電気株式会社 カラー画像処理方法、カラー画像処理装置および記録媒体
JP2011210237A (ja) * 2010-03-26 2011-10-20 Mitsubishi Electric Research Laboratories Inc 物体クラスからの物体の新たな画像を合成するための方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
八尾泰洋, 外3名: ""反射特性の未知の物体からの光源環境推定についての検討"", 電子情報通信学会技術研究報告, vol. 第111巻, 第235号, JPN6015021133, 6 October 2011 (2011-10-06), JP, pages 43 - 48, ISSN: 0003130508 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9961319B2 (en) 2015-03-11 2018-05-01 Canon Kabushiki Kaisha Image processing apparatus and control method thereof
CN106408647A (zh) * 2016-09-20 2017-02-15 广州视睿电子科技有限公司 一种图像阴影添加方法及装置
JP2019096044A (ja) * 2017-11-22 2019-06-20 富士ゼロックス株式会社 画像処理装置及びプログラム
JP7020075B2 (ja) 2017-11-22 2022-02-16 富士フイルムビジネスイノベーション株式会社 画像処理装置及びプログラム
CN111462295A (zh) * 2020-03-27 2020-07-28 咪咕文化科技有限公司 增强现实合拍中的阴影处理方法、设备及存储介质
CN111462295B (zh) * 2020-03-27 2023-09-05 咪咕文化科技有限公司 增强现实合拍中的阴影处理方法、设备及存储介质

Also Published As

Publication number Publication date
JP5795556B2 (ja) 2015-10-14

Similar Documents

Publication Publication Date Title
JP7403528B2 (ja) シーンの色及び深度の情報を再構成するための方法及びシステム
EP3139589B1 (en) Image processing apparatus and image processing method
US9607429B2 (en) Relightable texture for use in rendering an image
KR101885090B1 (ko) 영상 처리 장치, 조명 처리 장치 및 그 방법
EP3561777B1 (en) Method and apparatus for processing a 3d scene
US8040352B2 (en) Adaptive image interpolation for volume rendering
EP2692140A2 (en) Real-time depth extraction using stereo correspondence
JP5795556B2 (ja) 陰影情報導出装置、陰影情報導出方法及びプログラム
CN110555903A (zh) 图像处理方法和装置
JP5909176B2 (ja) 陰影情報導出装置、陰影情報導出方法及びプログラム
US20210312647A1 (en) Detecting device, information processing device, detecting method, and information processing program
CN115239861A (zh) 人脸数据增强方法、装置、计算机设备和存储介质
CN107564085B (zh) 图像扭曲处理方法、装置、计算设备及计算机存储介质
US20130182944A1 (en) 2d to 3d image conversion
WO2018127364A1 (en) Method and device for applying an effect of an augmented or mixed reality application
US20210209347A1 (en) Texture map generation using multi-viewpoint color images
CN114913287B (zh) 一种三维人体模型重建方法及系统
JP5661381B2 (ja) 画像処理装置およびその方法
Noh et al. Soft shadow rendering based on real light source estimation in augmented reality
JP2013253946A (ja) 光源分布推定装置、光源分布推定方法及び光源分布推定プログラム
CN115272575A (zh) 图像生成方法及装置、存储介质和电子设备
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
JP6341540B2 (ja) 情報端末装置、方法及びプログラム
JP5865092B2 (ja) 画像処理装置、画像処理方法及びプログラム
Yao et al. Shading derivation from an unspecified object for augmented reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150813

R150 Certificate of patent or registration of utility model

Ref document number: 5795556

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees