JP4718491B2 - 画像における主光源の方向を求めるための方法 - Google Patents

画像における主光源の方向を求めるための方法 Download PDF

Info

Publication number
JP4718491B2
JP4718491B2 JP2006549741A JP2006549741A JP4718491B2 JP 4718491 B2 JP4718491 B2 JP 4718491B2 JP 2006549741 A JP2006549741 A JP 2006549741A JP 2006549741 A JP2006549741 A JP 2006549741A JP 4718491 B2 JP4718491 B2 JP 4718491B2
Authority
JP
Japan
Prior art keywords
albedo
matrix
intensity
illumination
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006549741A
Other languages
English (en)
Other versions
JP2008530628A (ja
Inventor
モグハッダム、ババック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2008530628A publication Critical patent/JP2008530628A/ja
Application granted granted Critical
Publication of JP4718491B2 publication Critical patent/JP4718491B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Collating Specific Patterns (AREA)

Description

本発明は、包括的には画像処理に関し、より詳細には、対象物の画像を測光法で正規化することに関する。
多くのコンピュータビジョンシステム、具体的には、顔識別システムでは、任意の照明に対して不変のシステムを設計することは非常に困難である。確かに、多くの独立した米国政府の試験によって、任意の照明を用いて得られる画像における顔の識別が、制御された照明で得られる画像における顔の成功率を達成できないことが結論付けられている。これについては、Phillips著「Face Recognition Vendor Test (FRVT) 2002 report」(Technical report, National Institute of Standards and Technology, March 2003)およびPhillips他著「The FERET evaluation methodology for face-recognition algorithms」(IEEE Trans. on Pattern Analysis and Machine Intelligence, 22(10), pp. 1090-1104, 2000)を参照願いたい。
本発明は、アクセス制御の用途および監視の用途に適用されるような顔識別の、困難ではあるが日常的な問題に対する解決策を提供する。
このような用途では、任意の照明の下での任意のシーンにおけるおそらく未知の個人の顔の画像が取得される。固定姿勢、たとえば正面姿勢のカメラが画像を取得する。カメラは、較正されず、未知の固有パラメータを有する。画像は、ビデオ、アーカイブ写真、ウェブ画像、家族の写真アルバム、身分証明写真等から得ることができる。
個人またはシーンの3D測定が何らない場合、問題は、単一画像における顔を、データベースに記憶された既知の個人の画像と照合することである。記憶された画像は、固定照明、たとえば、拡散照明または正面照明の下で取得されたものである。
この問題を解決するには、すべての画像を幾何学的にかつ測光法で正規化して、ロバストなパターンマッチングおよび照明不変の顔識別に適した単一の固定照明テンプレートを提供する必要がある。当然ながら、照明の基準となる選択肢には、顔の重要なすべての特徴の可視性を最大にする非指向性照明または拡散照明、または、少なくとも正面照明が含まれる。
焦点は、照明不変性にあるので、幾何学的正規化は、前処理ステップにおいて実行されるものと仮定する。この前処理は、画像における顔のロケーションを検出すること、目等の顔の特徴を検出すること、並びに固定変換、すなわち、拡大縮小、回転、および平行移動を行って、検出した特徴を位置合わせすることを含むことができる。また、何らかの単純な測光的正規化、たとえば非空間的グローバル変換は、すでに行われている場合があるものと仮定する。非空間的グローバル変換は、強度のみの関数であり、たとえばゲイン、コントラスト、および明るさの関数である。
照明をモデル化することについての従来技術の多くは、コンパクトな低次元部分空間を見つけて、すべての照明の変動をモデル化することに焦点を当てていた。理論的なランバート仮説の下では、すべての可能な照明条件の下での対象物の画像集合は、画像空間において多面体の「照明錐」を形成する。これについては、Belhumeur他著「What is the set of images of an object under all possible lighting conditions」(Int'l J. Computer Vision, volume 28, pp. 245-260, 1998)に記載されている。
上記理論を顔認識に適用するその後の研究は、Basri他によって「Lambertian reflectance and linear subspaces」(Int'l Conf. on Computer Vision, volume 2, pages 383-390, 2001)に記載されている。Basri他は、低次元線形部分空間が顔認識に有効であると明らかにされている球面調和基底を使用して照明を表している。
ある方法は、球面調和関数を用いて低次元部分空間を解析的に求めるものである。これについては、Ramamoorthi著「Analytic PCA construction for theoretical analysis of lighting variability in images of a Lambertian object」(IEEE Trans. on Pattern Analysis and Machine Intelligence, 24, October, 2002)に記載されている。別の方法は、認識用の等価な基底画像を最も良く生成するように照明を配置するものである。これについては、Lee他著「Nine points of light: Acquiring subspaces for face recognition under variable lighting」(Proc. IEEE Conf. on Computer Vision & Pattern Recognition, pages 519-526, 2001)に記載されている。
補完的な手法は、照明不変な「シグネチャ」画像を生成することである。その技法は、大きな照明の変化に対処できないが、1つの対象物につき1つの画像しかデータベースに必要とされないという利点を有する。
他の従来技術の正規化技法は、ヒストグラム均等化または線形ランプ減算を使用することによって、不変テンプレートを生成するものである。これについては、Rowley他著「Neural network-based face detection」(IEEE Trans. on Pattern Analysis and Machine Intelligence, 20(1), pp. 23-38, 1998)に記載されている。
画像勾配が照明の影響を受けず、画像勾配を確率論的枠組みで使用して、2つの画像が同じ対象物から取得された尤度を求めることができることが知られている。これについては、Chen他著「In search of illumination invariants」(Proc. IEEE Conf. on Computer Vision & Pattern Recognition, pages 1-8, 2000)に記載されている。
顔がほぼ対称であることを使用して、アルベド(albedo)を回復することなく個人の照明不変プロトタイプ画像を求めることができる。これについては、Zhao他著「Symmetric shape-from-shading using self-ratio image」(Int'l J. Computer Vision, 45(1), pp. 55-75, 2001)に記載されている。
別の方法は、異なる顔が、共通の形状を有するが異なるテキスチャを有するものと仮定して、照明不変シグネチャとしてアルベド比(albedo ratio)を求めるものである。これについては、Shashua他著「The quotient image: Class-based rerendering and recognition with varying illuminations」(IEEE Trans. on Pattern Analysis and Machine Intelligence, 23(2), pp. 129-139, 2001)に記載されている。
対象物再照明方法も、コンピュータグラフィックアプリケーションについて記載されてきた。あるアプリケーションは、角膜画像化を使用して、たとえば顔といった現実的な仮想対象物をシーンに埋め込み、その結果、推定された環境照明に従って適切に「再照明」された合成顔が得られる。これについては、Nishino他著「Eyes for relighting」(Proceedings of SIGGRAPH, 2004)に記載されている。
別の方法は、放射輝度環境マップを使用するものである。これについては、Wen他著「Face relighting with radiance environment maps」(Proc. IEEE Conf. on Computer Vision & Pattern Recognition, 2003)に記載されている。この方法は、球面調和関数を使用して、比較的高い品質の顔をレンダリングする。球面調和関数については、Rammamoorthi他著「A signal processing framework for inverse rendering」(Proceedings of SIGGRAPH, 2001)に記載されている。
しかしながら、顔識別については、高品質のレンダリングもフォトリアリズムも必要ではない。実際には、ほとんどの既知の2D顔識別システムは、たとえば顔全体にわたって100ピクセル以下といった低解像度から中程度の解像度で動作する。
本発明は、たとえば顔といった対象物の較正されていない画像における指向性照明を推定するための方法を提供する。この逆問題は、形状および反射率について制約付き最小二乗およびクラス特有の優先を使用して解かれる。
簡単にするために、主指向性発光体は、ランバート成分および周囲成分を組み合わせたものとしてモデル化される。対象物の「一般」3D形状および平均2Dアルベドを使用することによって、本方法は、影を有する場合も有しない場合も、入射する指向性照明を高精度でリアルタイムに効率的に推定することができる。
指向性照明の推定は、フォワードレンダリングステップで使用されて、対象物の任意に照明された入力画像は、照明不変対象物識別に必要とされるような基準拡散形式に「再照明」される。
照明の推定
図1に示すように、本発明は、一般3D形状モデル101およびランバートモデルまたは拡散反射照明モデル102を使用して、たとえば、顔といった対象物の画像を測光法で正規化する。照明モデル102の拡散反射率は、一定の双方向反射率分布関数(BRDF)を有する。これらのモデルは、対象物の識別に使用される。本発明を説明するのに使用される用途の例は、顔識別および/または顔検証である。その点で、問題は、未知の顔画像を既知の顔画像のデータベースにおける画像と照合することである。
顔は、皮膚の皮脂腺による皮脂オイルの分泌によって、多少の正反射を有することがある。しかしながら、正反射は、常に一貫しているとは限らない。したがって、正反射は、顔識別ではほとんど役立っていない。それゆえに、本発明の照明モデル102は、ランバート成分および周囲成分のみを含む。
図2に示すように、I(x,y)を、たとえば、顔といった凸状対象物の表面上の点、または、ランバート表面反射率102を有する等価な3D形状モデル101の表面上の点に対応する入力画像201のピクセル(x,y)における強度とする。この点は、周囲光と、強度|s|を有する方向s∈Rの無限遠の単一の主光源103とを混合したものによって照明される。
本発明では、単位面法線n=s/|s|を、その点から主光源への方向、すなわち、指し示すものと呼ぶ。たとえば、アジマス角/仰角におけるこの方向は、本発明の対象となる主要な推定目標である。光源の大きさは、ゲインおよび露出をモデル化する画像システムパラメータによって吸収できるので、本発明の方法においてはほとんど重要ではない。
ρ(x,y)を皮膚表面のアルベド221とする。アルベド221は、既知であるか、そうでない場合には推定される。アルベドとは、表面によって反射された入射光の一部分であり、顔の場合、アルベドは、拡散皮膚テキスチャを表す。したがって、アルベドマップおよびテキスチャマップは同義語である。
n(x,y)231を、正射影法の下で画像のピクセルI(x,y)に射影する顔表面上の点の単位面法線とする。
定数BRDFを有するランバートモデルの下で、ピクセルのモノクロ強度は、下式(1)によって与えられる。
Figure 0004718491
ここで、αおよびβは、固有のカメラシステムパラメータを表す。すなわち、レンズ口径およびゲインを表す。本発明の解析では、パラメータαおよびβは、基本的には撹乱母数であり、これらの撹乱母数によって、ピクセル強度のダイナミックレンジまたは(ゲイン)およびオフセット(露出バイアス)のみがもたらされるが、照明方向はもたらされない。したがって、本発明では、(α,β)を、適切な正規化により、それらのデフォルト値である(1,0)に設定することができる。パラメータcは、後述するように、周囲照明の相対強度を表し、必要ならば、0に設定することができる。項max(n(x,y)s、0)は、影にある表面の点について、ランバートコサイン因子の負の値を0に設定する。
簡単にするために、本発明では、単一の主光源103のみが、画像において観測される指向性照明の大部分、すなわち、拡散減衰および/またはシャドーイングを担うものと仮定する。シーンに存在する他のあらゆる周囲光源、たとえば、拡散光源または指向性光源は、支配的ではない。したがって、それら他の周囲光源の全体的な寄与は、上式(1)における相対強度cを有するグローバル周囲成分によって表される。
ほぼすべての2Dビューベース顔識別システムは、指向性照明によって悪影響を受けるが、僅かな周囲照明の効果によって悪影響を受ける範囲は、はるかに小さい。これについては、上記Phillips他を参照願いたい。したがって、ほとんどの場合、主照明源への方向が、他のどの照明現象よりも重要であり、特に、他の光源が支配的でない場合に重要である。
したがって、本発明は、主照明の効果を逆にする。これによって、任意に照明される対象物を識別する性能が改善される。
主照明源への方向251は、上式(1)によって表されるような照明モデル102に基づく簡単な仮定を有する最小二乗定式化によって推定される。より重要なことは、本発明では、基本行列演算およびドット積を用いて閉じた形でこの問題を効率的に解法するということである。
光源の方向の推定
具体的には、図2に示すように、本発明では、入力画像I(x,y)201のすべての非ゼロの値を「スタック」することによってピクセル強度の列強度ベクトルI(→)211を構成する(210)。なお、(→)は、かっこの前の記号の上部に→が付されていることを意味している。対象物が、主光源103によってのみ照明されると仮定する場合、すなわち、周囲光がないと仮定する場合、ゼロ強度ピクセルは、おそらく影に存在する。したがって、これらのピクセルは、レイキャスティングが光源の位置を突き止めるのに使用されない限り、主光源への方向を示すことができない。実際の用途では、ある量の周囲光が常に存在する。したがって、本発明では、ピクセルを選択するための所定の非ゼロのしきい値または所定のマスクを使用して、強度ベクトルI(→)にスタックすることができる。
同様に、本発明では、アルベドベクトルρ(→)222を、対応するベクトル化されたアルベドマップまたは拡散テキスチャ221となるように構成する(220)。
本発明では、形状モデル101の対応する面法線の行ごとのスタックによって3列の形状行列N231を生成する(230)。次に、本発明では、形状アルベド行列A∈Rp×3を構成する(240)。ここで、行列A241の各行αは、アルベドと、アルベドベクトルρ(→)222の対応する行の単位面法線と、形状行列N231との積である。これは、要素ごとのアダマール行列積演算子oに対応する。すなわち、下式の関係となる。
Figure 0004718491
主光源への未知の方向s251を求める(250)ために、本発明では、ベクトル化された形の上式(1)の近似誤差の最小二乗を最小化するための行列方程式として下式(2)を使用する。
Figure 0004718491
これは、下式(3)の解を与える。ここで、Tは、転置演算子を表す。
Figure 0004718491
本発明では、光源ベクトルの大きさではなく、方向を得るために、推定された単位光源ベクトルs/|s|にのみ関心があることに留意願いたい。大きさは、特定のカメラのゲインおよび露出に依存する。この推定問題は、非常に過制約であるので、「良性(well-behaved)」である。すなわち、I(→)の「観察結果」における非ゼロの要素の個数は、sの3つの未知のものと比較すると、およそO(10)である。実際には、本発明では、主光源への方向しか使用しないので、アジマス角および仰角の2つの角度の推定目標のみが存在する。主照明の方向の推定は、したがって、入力I(→)の雑音および小さな変動に対してかなり安定している。
アルベド形状行列A241は、一般形状モデル101およびアルベド221から得られることに留意願いたい。したがって、形状アルベド行列A241は、対象物のクラス全体、たとえば、すべての正面顔を表している。
モデル101が十分代表的なものであるものと仮定すると、照明方向が関係している距離では、すべての形状およびアルベドが1次にほぼ等しい限りは、個人の正確な形状を測定する必要もなければ、個人の正確なアルベドも測定する必要がない。
さらに、上式(3)における擬似逆行列(AA)−1は、ガウス雑音の下で最小二乗推定sの誤差共分散に正比例する。
次元p×3の行列P=A(AA)−1を定義する場合、上式(3)のオンライン計算のみが、行列Pの3つの列における強度ベクトルI(→)211の射影であることが分かる。これら3つの列は、線形独立である。実際には、これら3つの列は、本発明の一般的な顔モデルの照明部分空間の基底関数である。
その上、本発明では、QR因子分解P=QRを使用して、この部分空間の等価な直交基底も常に見つけることができる。ここで、ユニタリ行列Qは、行列Pと同じ部分空間にわたる3つの正規直交列を有する。R−1は、誤差共分散のコレスキー因子、すなわち行列平方根であるので、3×3の上三角行列Rは、推定したものの品質を定義する。QR因子分解によって、入力画像は、正規直交基底Qに直接射影されて、主光源103への方向251が推定されるので、ピクセルおよびベースの点で、推定の解釈および解析が支援される。また、QR分解によって、より大きな問題における計算も節減される。
行列PおよびQは、入力データから独立しているので、後に使用するためにあらかじめ求めるとともに記憶することができる。また、上式(3)を使用する計算コストは最小である。この計算には、画像サイズの3つのドット積しか必要とされない。後述するその後の再照明には、単一のドット積しか必要とされない。したがって、本発明による照明正規化は、リアルタイムのインプリメンテーションにとって実用的である。
顔の再照明
図3に示すように、入力画像201における指向性照明の推定s251が与えられると、本発明では、顔のアルベド311または拡散皮膚テキスチャを推定すること(310)によって、照明を近似的に「取り消す」ことができ、次いで、一般形状モデル101と組み合わせて、たとえば、正面照明または純粋な拡散照明といった所望のどの照明の下でも、この特定のアルベドを再照明すること(320)ができる。
一般形状およびアルベドの双方は、指向性照明を推定する逆問題で使用されたのに対して、入力画像201を再照明する順問題には、入力画像201自体がアルベド情報を提供するので、一般形状101しか必要とされない。ここでの基本仮定は、すべての対象物が、一般形状モデル101によって定義されるものとほとんど同じ3D幾何学形状を有するということである。
この基本仮定を多少違反しても、それが決定的なものではないことが分かる。その理由は、実際に再照明されて照明不変テンプレート画像を生成するものが、入力画像201に見られるようなテキスチャであるからである。このテキスチャは、2D対象物の識別のための情報のほとんどを運ぶ。実際には、わずかに異なる3D顔形状を使用しても、入力画像のアルベドを大幅に変更することはできない。したがって、顔の場合、異なる個々人の幾何学形状が小さく変動しても、顔のテキスチャが保持されている限り、個人の同一性は実質的に維持される。
上式(1)を再び参照すると、照明推定s251および本発明の「プラグイン」された形状、すなわち、一般的な顔モデル101の面法線n231を有することになった後、下式(4)を使用してアルベドについて直接解くことができる。
Figure 0004718491
ここで、明確にするために、空間インデックス(x,y)は、すべての2D配列(I,ρ,n)について表されていない。この点で、強度は、非ゼロであるものと仮定され、nは、0よりも大きいものと仮定される。点(x,y)における推定されたアルベドρ311は、入力画像201の対応するピクセル強度I(x,y)および面法線n(x,y)231にのみ依存することに注意願いたい。したがって、対象物上の点が影にあり、かつ、周囲照明がない場合、Iはゼロであり、nは負である。この場合、対応するアルベドは、上式(4)を用いて推定することができず、デフォルトの平均アルベドが、その点に対応するピクセルの代わりに用いられる。
推定されたアルベド311は、その後、下式(5)で表される本発明の不変(固定照明)画像I322を生成する(320)のに使用される。
Figure 0004718491
上式(5)において、変数s321は、所望の主照明源への不変の方向を示す。デフォルトの方向は、対象物の直前にあり、対象物を通る水平軸と位置合わせされている。すなわち、軸上の正面照明である。cは、出力画像322の周囲成分である。同様に、αおよびβは、出力表示デバイスのフォーマットパラメータを示す。
周囲照明
また、パラメータcによって表されるような任意の周囲照明をモデル化することも可能である。代表的な一組のN個のトレーニング画像を使用することによって、本発明では、下式(6)の最適性基準を使用して周囲照明の成分を数値的に推定することができる。
Figure 0004718491
ここで、ρ(c)は、上式(3)で定義されたような相対周囲強度cを用いて推定されるi番目のトレーニング画像のアルベドを示す。
発明の効果
本発明は、測光法で較正されていない顔等の対象物の入力画像における主光源の方向を推定するための簡単でかつ実用的な方法を提供する。対象物の正確な形状およびアルベド(表面テクスチャ)は未知であるが、対象物のクラスの一般的な形状およびアルベドは既知である。さらに、この方法は、照明不変テンプレート照合および対象物識別のために、入力画像を測光法で正規化する。必要な計算は、入力画像の各ピクセルについて5つのドット積よりも少なくてすむ。
この方法は、現実的なアクセス制御画像のデータセットについて、より良い性能を有する。この現実的なアクセス制御画像は、複雑な実世界の照明環境を示す。性能の増大は、画像空間における個人の画像のクラスタリングをより密にすることに直接起因する。これによって、高度な画像照合/識別システムが照明不変性を達成することが支援される。
結果は、照明方向の推定が比較的ロバストであり、その後の再照明正規化が、数個の単純なドット積演算のみを用いてリアルタイムで実現可能であることを示している。本発明による照明正規化は、従来技術の線形ランプ技法およびヒストグラム均等化技法に対して実用的かつ優れた代替物となる。
本発明による形状モデルおよび照明モデルの図である。 本発明による、画像における主光源の方向を求めるための方法のフロー図である。 本発明による、対象物の画像を測光法で正規化するためのフロー図である。

Claims (12)

  1. 画像における主光源の方向を求めるための方法であって、
    未知の方向sから主光源によって照明される対象物であり、ピクセルの配列で構成され、各ピクセルが強度I(x,y)を有する入力画像Iを、カメラを用いて取得することと、
    前記入力画像における非ゼロの強度をスタックすることで、前記入力画像の前記強度から強度ベクトルI(→)を構成することと、
    前記対象物のアルベドマップρを定義することと、
    前記アルベドマップに対応するベクトル化されたアルベドマップからアルベドベクトルρ(→)を構成することと、
    前記対象物の形状行列Nを生成することと、
    形状アルベド行列Aを得るために、前記アルベドベクトルρ(→)に前記形状行列Nを乗算することと、
    前記強度ベクトルI(→)、前記アルベドベクトルρ(→)、および前記形状アルベド行列Aから、前記主光源への推定された方向sを、最適化
    Figure 0004718491
    に従って求めることと
    を含み、
    ここで、αは前記カメラの強度ゲイン、cは、相対周囲照明成分であり、
    前記対象物は、前記形状行列Nによって表されるような一般形状モデルにより表される対象物のクラスに属し、
    前記一般形状モデルの面法線をスタックすることによって、前記形状行列を生成し、
    前記乗算することは、要素ごとのアダマール行列積o、すなわち、
    Figure 0004718491
    に対応する
    画像における主光源の方向を求めるための方法。
  2. 前記最適化
    Figure 0004718491
    は、解
    Figure 0004718491
    を有し、ここで、Tは転置演算子である請求項1に記載の方法。
  3. 前記対象物は、顔である請求項1に記載の方法。
  4. パラメータcによって表されるような任意の周囲照明によって前記対象物を照明することをさらに含む請求項1に記載の方法。
  5. 所定のしきい値に従って前記非ゼロの強度を選択することをさらに含む請求項に記載の方法。
  6. マスクに従って前記非ゼロの強度を選択することをさらに含む請求項に記載の方法。
  7. 拡散テキスチャから前記アルベドベクトルρ(→)を構成することをさらに含む請求項1に記載の方法。
  8. 公式
    Figure 0004718491
    を使用して、前記入力画像から未知のアルベドを直接推定することをさらに含み、ここで、αおよびβは、それぞれ前記カメラの強度ゲインおよび強度オフセットを合同でモデル化し、cは、相対周囲照明成分であり、nは、単位面法線であり、Tは、転置演算子である請求項1に記載の方法。
  9. 特定のピクセルの前記強度が0である場合に、該特定のピクセルに平均アルベドを割り当てることをさらに含む請求項に記載の方法。
  10. 公式
    Figure 0004718491
    を使用して、所望の照明の下での照明不変出力画像を生成することをさらに含み、ここで、αは、出力表示デバイスのゲインであり、βは、出力表示デバイスのオフセットであり、cは、前記照明不変出力画像において照明を行う所望の相対周囲照明の強度であり、nは、面法線であり、sは、前記照明不変出力画像において照明を行う前記所望の相対周囲照明の方向であり、Tは、転置演算子である請求項1に記載の方法。
  11. 前記対象物の一組のN個のトレーニング画像を取得することと、
    最適性基準
    Figure 0004718491
    を使用して、前記パラメータcによって表されるような前記任意の周囲照明の特性を推定することと
    をさらに含み、ここで、cは、前記未知の周囲照明の強度であり、ρ(c)は、i番目のトレーニング画像のアルベドを示す請求項に記載の方法。
  12. 行列P=A(AA)−1を定義することと、
    前記行列Pの等価な直交基底を推定し、QR因子分解P=QRを適用することと
    をさらに含み、
    前記ユニタリ行列Qは、前記行列Pのような部分空間にわたる3つの正規直交列を有し、R−1は、誤差共分散の行列平方根であるので、3×3の上三角行列Rは、前記推定の品質を定義する請求項2に記載の方法。
JP2006549741A 2005-02-14 2006-02-06 画像における主光源の方向を求めるための方法 Expired - Fee Related JP4718491B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/057,828 US7324688B2 (en) 2005-02-14 2005-02-14 Face relighting for normalization of directional lighting
US11/057,828 2005-02-14
PCT/JP2006/302398 WO2006085629A2 (en) 2005-02-14 2006-02-06 Method for determining direction of principal light source in image

Publications (2)

Publication Number Publication Date
JP2008530628A JP2008530628A (ja) 2008-08-07
JP4718491B2 true JP4718491B2 (ja) 2011-07-06

Family

ID=36649046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006549741A Expired - Fee Related JP4718491B2 (ja) 2005-02-14 2006-02-06 画像における主光源の方向を求めるための方法

Country Status (6)

Country Link
US (1) US7324688B2 (ja)
EP (1) EP1776656B1 (ja)
JP (1) JP4718491B2 (ja)
CN (1) CN100555309C (ja)
DE (1) DE602006006888D1 (ja)
WO (1) WO2006085629A2 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7227977B1 (en) * 2003-01-10 2007-06-05 L-I Identity Solutions, Inc. Lighting correction for the outdoor environment with extension to the self adjusting algorithm for general lighting conditions
US20110102553A1 (en) * 2007-02-28 2011-05-05 Tessera Technologies Ireland Limited Enhanced real-time face models from stereo imaging
WO2008085815A1 (en) * 2007-01-05 2008-07-17 Objectvideo, Inc. Video-based sensing for lighting controls
DE602008001607D1 (de) 2007-02-28 2010-08-05 Fotonation Vision Ltd Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen
US8009880B2 (en) * 2007-05-11 2011-08-30 Microsoft Corporation Recovering parameters from a sub-optimal image
US20090172756A1 (en) * 2007-12-31 2009-07-02 Motorola, Inc. Lighting analysis and recommender system for video telephony
US8463072B2 (en) * 2008-08-29 2013-06-11 Adobe Systems Incorporated Determining characteristics of multiple light sources in a digital image
WO2010026983A1 (ja) * 2008-09-03 2010-03-11 日本電気株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
KR101375186B1 (ko) 2009-07-14 2014-04-01 삼성테크윈 주식회사 감시 카메라 교란 검출 방법
US8194072B2 (en) * 2010-03-26 2012-06-05 Mitsubishi Electric Research Laboratories, Inc. Method for synthetically relighting images of objects
CN101872491B (zh) * 2010-05-21 2011-12-28 清华大学 基于光度立体的自由视角重光照方法和系统
CN101917637B (zh) * 2010-06-24 2012-10-10 清华大学 基于自由视角光照传输矩阵的重光照方法及系统
US9224233B2 (en) * 2012-05-24 2015-12-29 Google Inc. Blending 3D model textures by image projection
JP6360200B2 (ja) 2014-05-13 2018-07-18 ナント・ホールデイングス・アイ・ピー・エル・エル・シー アルベドモデルにより拡張現実コンテンツをレンダリングするシステムおよび方法
CN104331919B (zh) * 2014-11-02 2017-04-19 北京理工大学 光动力治疗中投光方向的优化方法
CN104639843B (zh) * 2014-12-31 2017-12-05 小米科技有限责任公司 图像处理方法及装置
US9866816B2 (en) * 2016-03-03 2018-01-09 4D Intellectual Properties, Llc Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
CN106407977B (zh) * 2016-09-05 2020-01-03 广东小天才科技有限公司 目标内容的定位搜索的方法和装置
US10491808B1 (en) * 2017-06-27 2019-11-26 Amazon Technologies, Inc. Detecting sunlight in images
JP7084616B2 (ja) * 2018-06-20 2022-06-15 国立大学法人 筑波大学 画像処理装置、画像処理方法、及び画像処理プログラム
RU2697627C1 (ru) 2018-08-01 2019-08-15 Самсунг Электроникс Ко., Лтд. Способ корректировки освещенности объекта на изображении в последовательности изображений и вычислительное устройство пользователя, реализующее упомянутый способ
WO2020056693A1 (zh) * 2018-09-20 2020-03-26 太平洋未来科技(深圳)有限公司 一种图片合成方法、装置及电子设备
US11361511B2 (en) * 2019-01-24 2022-06-14 Htc Corporation Method, mixed reality system and recording medium for detecting real-world light source in mixed reality
US11532400B2 (en) 2019-12-06 2022-12-20 X Development Llc Hyperspectral scanning to determine skin health
CN112102462B (zh) 2020-09-27 2023-07-21 北京百度网讯科技有限公司 图像的渲染方法、装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6947579B2 (en) * 2002-10-07 2005-09-20 Technion Research & Development Foundation Ltd. Three-dimensional face recognition
US7319467B2 (en) * 2005-03-29 2008-01-15 Mitsubishi Electric Research Laboratories, Inc. Skin reflectance model for representing and rendering faces
US7609859B2 (en) * 2005-06-14 2009-10-27 Mitsubishi Electric Research Laboratories, Inc. Method and system for generating bi-linear models for faces
RU2367577C1 (ru) * 2005-08-12 2009-09-20 Рик Б. ЙЕГЕР Система и способ для нанесения изменяющего отражательную способность вещества в целях улучшения визуальной привлекательности человеческой кожи
EP2293222A1 (en) * 2006-01-23 2011-03-09 Digimarc Corporation Methods, systems, and subcombinations useful with physical articles

Also Published As

Publication number Publication date
DE602006006888D1 (de) 2009-07-02
EP1776656B1 (en) 2009-05-20
US20060182367A1 (en) 2006-08-17
EP1776656A2 (en) 2007-04-25
WO2006085629A2 (en) 2006-08-17
WO2006085629A3 (en) 2006-10-19
CN100555309C (zh) 2009-10-28
US7324688B2 (en) 2008-01-29
CN101006451A (zh) 2007-07-25
JP2008530628A (ja) 2008-08-07

Similar Documents

Publication Publication Date Title
JP4718491B2 (ja) 画像における主光源の方向を求めるための方法
Chen et al. Deep photometric stereo for non-lambertian surfaces
Peng et al. Optimized 3D lighting environment estimation for image forgery detection
US8090160B2 (en) Automated method for human face modeling and relighting with application to face recognition
Sheikh et al. Exploring the space of a human action
US7932913B2 (en) Method and apparatus for collating object
Knorr et al. Real-time illumination estimation from faces for coherent rendering
Wu et al. Simultaneous localization and appearance estimation with a consumer RGB-D camera
US20070080967A1 (en) Generation of normalized 2D imagery and ID systems via 2D to 3D lifting of multifeatured objects
WO2010026983A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
Han et al. 3D face texture modeling from uncalibrated frontal and profile images
Malassiotis et al. Robust face recognition using 2D and 3D data: Pose and illumination compensation
Kumar et al. Non-Lambertian reflectance modeling and shape recovery of faces using tensor splines
Lee et al. A practical face relighting method for directional lighting normalization
Ono et al. Practical BRDF reconstruction using reliable geometric regions from multi-view stereo
Singh et al. Face liveness detection through face structure analysis
Fanfani et al. FISH: Face intensity-shape histogram representation for automatic face splicing detection
Ibikunle et al. Face recognition using line edge mapping approach
Seuffert et al. Towards forensic exploitation of 3-D lighting environments in practice
Kakadiaris et al. Face recognition using 3D images
Shim Probabilistic approach to realistic face synthesis with a single uncalibrated image
Mazumdar et al. Estimation of lighting environment for exposing image splicing forgeries
Riess Physical Integrity
Nirmalkar et al. Illumination Color Classification Based Image Forgery Detection: A Review
Jiang et al. Learning from real images to model lighting variations for face images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110329

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110331

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140408

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees