JP2006510985A - 照明不変条件での顔認識 - Google Patents

照明不変条件での顔認識 Download PDF

Info

Publication number
JP2006510985A
JP2006510985A JP2004561908A JP2004561908A JP2006510985A JP 2006510985 A JP2006510985 A JP 2006510985A JP 2004561908 A JP2004561908 A JP 2004561908A JP 2004561908 A JP2004561908 A JP 2004561908A JP 2006510985 A JP2006510985 A JP 2006510985A
Authority
JP
Japan
Prior art keywords
image
pixels
algorithm
random sample
face recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004561908A
Other languages
English (en)
Inventor
トライコヴィッチ,ミロスラフ
ギュッタ,スリニヴァス
フィロミン,ヴァサント
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of JP2006510985A publication Critical patent/JP2006510985A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Abstract

無作為のサンプルサブセットが画像から選択される。RANSACアルゴリズムが、捕捉された画像サンプルと保存されていた同様のサンプルとの堅牢な整合を実行するために使用される。十分なサンプルを選択することで、すべてのサンプルが照明条件の変化の影響を受ける可能性をより低くし、それゆえに、捕捉された画像での照明条件が保存されていた画像のものと異なる場合であっても、より高い確率で整合を見つけ得る。さらに、照明条件の変動に影響される可能性に基づいてサンプルを選択する加重サンプリング技術が使用される。

Description

本発明は、一般に顔認識に関し、特に照明不変条件での顔認識に関する。
顔認識システムは、施設へ入る際の識別、ホームネットワーク環境のようなところでサービスを個別化するための人々の認識、及び公共施設において探索中の個人の所在を確認するといったような多くの異なる用途で、個人の識別及び確認に使用される。如何なる顔認識システムの設計においても、究極の目的は、最良の分類(予測)能力を実現することである。顔認識システムの用途にもよるが、比較が高精度であることを確認することは、多かれ少なかれ重要である。指名手配中の人物を識別するというような高いセキュリティが求められる用途では、捕捉した画像と保存されていた画像とのわずかな違いを無視する識別を実現することが非常に重要である。
顔認識の処理は典型的には、人間の1又は複数の画像の捕捉を要し、画像の処理及びその後の保存されていた画像との比較を要する。保存されていた画像と捕捉された画像との間に肯定的な整合がある場合に、個人の識別が見つけ出され、或いは確認され得る。米国特許第6292575号明細書は係るシステムを説明し、該明細書は参照することにより本明細書に含まれるものとする。
米国特許第6292575号明細書
画像処理は標準化を含む。標準化は、捕捉された画像にある顔のサイズが保存されていた画像にあるものと比較的同一のサイズになることを保証する。この標準化は、捕捉された画像では現れるが保存されていた画像には見つからない(又はその逆の場合もある。)差異を制御する試みである。これらの差異は、2つの顔が比較されるが実際には同一人物が両画像に現れている場合に、誤った否定的な識別の結果を生じさせる。
多くのシステムもまた、捕捉された画像の照明を制御し、保存されていた画像の照明と類似するようになることを保証するようにする。個人が適切に位置付けられるとすぐ、カメラは単一の又は複数の個人写真を撮影し、保存されていた写真との比較が行われる。これらのシステムの問題は、セキュリティ適用のような多くの適用において、捕捉された画像の照明が保存されていた画像に使用されていた照明と時々異なることにある。捕捉された画像の照明と保存されていた画像の照明とが異なる場合には、誤った否定的な識別結果が生じる機会がある。同一の照明を得ることが必ずしも可能とは限らないので、システムは異なる照明を考慮に入れる必要がある。
結果として、本発明の目的は、照明の変化で生じる誤差に左右されない顔識別/確認を実行するシステムを提供することである。
この目的は、顔の中にあるピクセルの無作為のサンプルを採取し、保存されていた画像の同じ無作為のサンプルと比較を行うことで実現される。比較は、ほとんどすべての顔認識方法を使用して実行される。RANSACアルゴリズムは堅牢な整合を行うために使用される。RANSACアルゴリズムは、誤った否定的な結果を生じさせる顔の影領域の存在可能性の除去に役立つ。
本発明の1実施例では、単に無作為のサンプルを採取する代わりに、加重サンプリングが使用される。加重サンプリングでは、照明の影響をあまり受けない顔の領域が加重される。判断は、顔のどの領域が照明の影響をより受け易いかによりなされる。その後サンプリングは、照明の変化の可能性がより低い領域において加重される。これら加重サンプルはその後、類似点を判断する顔認識を使用して保存されていた画像の類似のピクセルと比較される。
他の目的および利点は明細書および特許請求の範囲に照らして明らかとなる。
本発明のより良い理解のために添付図面が参照される。
典型的な顔認識プログラムでは、捕捉された画像のピクセルが顔認識方法を使用して、保存されていた画像のピクセルと比較される。特定比率のピクセルが保存されていた画像の同じピクセルと整合する場合には、当該画像は整合し、確認又は識別が生じたものとみなされる。画像間の類似点を判断する周知の顔認識方法が多く存在する。本出願において使用する用語“整合”は、見込みのある整合、正確な整合、所定の閾値以上の十分なピクセルが整合し識別があり得るとされる整合を意味し、さらに、これらサンプルで顔認識実行後に見られる類似指標が所定の閾値以上の可能性があるような整合をも意味する。問題は、捕捉された画像の顔の部分が照明源による影を有し、かつ、データベースに保存されていたこの人物の画像が影を有さず、2つの画像のピクセルが比較される場合には、影の中にあるそれらのピクセルが保存されていた画像の対応するピクセルに整合しないことが起こり得るという点にある。これは、異なる人物の画像による顔であるためよりもむしろ、同条件でない照明により非整合ピクセルの占める割合が大きいことによる。適切な識別とみなされるために所定比率のピクセルが整合しなければならない場合に、非整合ピクセルの比率が大きいと誤った否定的な整合を生じさせる。
顔認識は、顔全体よりもむしろ顔の部分で実行され得るということが見出されている。本発明は、顔の中の無作為のピクセルサンプルを選択するが、これら無作為のサンプルは、“外れ値”すなわち大多数のデータ点の外にあるデータ点を無視するアルゴリズムの一部として選択される。RANSACアルゴリズムは、選択されたサンプルからの“外れ値”が不正確な整合を生じさせることを回避する堅牢な評価アルゴリズムであり、本発明の好適な実施例において使用される。最小メジアン平方法(LmedS)のような他のこのようなアルゴリズムもまた使用され得る。RANSACアルゴリズムは、より詳細が以下に説明されるが、無作為にピクセルを選択し、かつ、本発明では影領域にあたる“外れ値”を検出する。
本発明の好適な実施例では、捕捉された画像が、顔認識アルゴリズムを使用して保存されていた画像と比較され、整合が見つからなければ、捕捉された画像は無作為にサンプルされ、ピクセルTの無作為のサンプルが顔認識アルゴリズムを使用して、保存されていた画像の同じ無作為のサンプルと比較される。選択された無作為のサンプルの数は、演算能力及び特定用途で必要とされる精度により決定される。好適な実施例では、100から1000又はそれ以上の間のサンプルセットが選択される。顔認識はすべてのサンプルで実行される。最適な結果を提供するサンプル(すなわち保存されていた画像の同じサンプルに最も近く整合するサンプル)が選択され、サンプル比較の結果が閾値と比較される。捕捉された画像のサンプルが保存されていた画像の同じサンプルと整合する場合には、当該保存されていた画像が、捕捉された画像と同一人物を示しているとみなされる。この整合を与える当該保存されていた画像は、捕捉された画像と同じ顔である可能性が高い。サンプルの1つは比較的外れ値がないものであると思われるからである。これは誤った否定的な結果になることがほとんどない。無作為のサンプルが、照明の影響を受けた顔の部分をあまり含んでいないと思われるからである。
図2は、本発明の好適な方法のフローチャートを示す。(10)において、画像が取得される。(12)において、I=1がI=Xとなるまで、無作為のサンプルサブセットが創出される(20)。Iはインクリメントであり、Xは演算能力及び必要とされる精度により決定される。RANSACアルゴリズムが当該サブセット及びサブセット数の選択に使用される。RANSACはRandom Sample Consensus(ランダムサンプルコンセンサス)の略語であり、ここでは線評価の観点で説明される。画像のような他のケースにおいても同様に有効である。点の無作為のサンプルが図1aで示すように存在し、線Aはこれらの点を通り抜けるようにしなければならない場合を仮定する。外れ値が存在する場合には(図1aには、2つの外れ値O、Oが北西象限に存在する。)、線Aは本来の位置から有意にシフトされる。図1bはこの点の同じ無作為サンプルを示すが、線AはRANSACアルゴリズムを使用して適合されている。O及びOを誤りのあるデータ点であると仮定するならば、図1bにおいて線Aは図1aより良い線評価となる。RANSACは、以下の方法によりもたらされる。
1.線を評価するために必要な最小数の点(2つ)を無作為に採取する。
2.これらの点を通るように線を適合させる。
3.線に近い集合の点の数をカウントする(所定の基準、すなわち3ピクセルより近いすべての点が該当し、モデルをサポートするとの基準に従うものとする。)。Nで表される数は、線近くの点の集中を量的に表す。
4.選択された少なくとも2つの点が点集合の有効な表現であることを所定の確率(一般的には95乃至99%)で保証するまで、ステップ1乃至3を十分な回数繰り返す。
5.すべてのNで最も有効なもの、及び、このNを生成する線を見つけ出す。この線をサポートするすべてのNの点を使用し、普通の最小二乗法を用いた最適な線を評価する。
画像中のピクセルの一般的な無作為サンプリングを実行するために、画像をベクトルとして表示する。すなわち各ピクセルは表1に示されるように固有の数字が割り当てられる。
Figure 2006510985
表1で与えられる例では、サンプル数100の無作為のピクセルを創出するために、1から4616の間の乱数のサンプルを創出し、その後単に、100の乱数に対応するピクセルを選択する。図3aは、画像のサイズが64×72で、サンプルサイズが1000である無作為のサンプルの画像を示す。図3bは、現実の画像のサイズが133×100で、画像の40%を無作為にサンプルした、無作為のピクセルサンプルを示す。大多数のアルゴリズムは、如何なるプログラム言語(C/C++、Fortran)又は如何なるプログラムパッケージ(MATLAB、Mathematicaなど)でも利用可能な乱数表を創出する。
本発明の好適な実施例では、後述のような顔認識を実行すべく適用されるRANSAC方法の無作為サンプリングが使用される。
1.所定数のピクセルを顔のテスト画像(T)から無作為に採取する。
2.Tとデータベースにある顔の対応するピクセルとを(位置関係において)比較し、類似度sを計算する(sは元のRANSACアルゴリズムのNに対応することに留意する。)。
3.サンプル点のすべてが照明条件の変動による有意な影響を受けていないことを所定の確率(一般的には95乃至99%)で保証するまで、ステップ1乃至2を十分な回数繰り返す。Xは実験的に、或いは後述のように計算され得る。
問題になっている顔の画像が1000ピクセルから生成され、そのうちの50が照明条件の変動の影響を受けていると仮定する。さらに、顔の100ピクセルだけが顔認識を実行するために選択され得ると仮定する。100ピクセルのすべてが照明条件の変動の影響を受けていない950ピクセルからのものである場合には、有効な認識結果となるであろう。選択された100ピクセルのすべてが照明条件の変動の影響を受けている場合の確率は次式により与えられる。
Figure 2006510985
少なくとも1つのサンプルが99%の確率で外れ値のないことを保証する必要がある場合には、選択される必要のあるサンプル数Xは次式により取得できる。
Figure 2006510985
4.類似度はこれよりs=max(s)として取得される。
5.sがある所定の閾値より高い場合には整合が存在するとし、そうでなければ整合が存在しないものとする。
上記で説明したように、領域セットが無作為に選択される。十分に大きなXならば、少なくとも1つの領域は、データベースにある領域の対応するセットに良く整合する一貫した照明条件を有する可能性がある。高い類似性がある場合には、捕捉された画像と保存されていた画像との間に高い類似性のある整合が存在する。
図2に戻って参照すると、(10)で画像が取得された後、X=1がX=1000になるまで無作為のサンプルのサブセットが選択される(20)。それぞれのサンプルに対し、RANSAC又は他の外れ値検出アルゴリズムを使用して、保存されていた画像の同じ無作為サンプルと捕捉された画像のサンプルとを(30)において比較することにより当該サンプル上で顔認識が実行される。2つのサンプルの間に高い類似性が存在する場合には(32)、顔の間に整合が存在するものとみなされる(33)。最も高い整合の数を有するサブセットを記憶し、当該数が画像間に整合が存在すると宣言するに足りるほど十分高いものであるか否かを判断する。そうでなければ整合は存在しないものとされる(34)。第1の実施例では、顔認識は整合が見つかるまで、或いは、Xに到達するまで実行される。第2の実施例では、すべてのサンプルが比較され、整合が存在するか否かを判断すべく、最も高い類似度を有するサンプルが閾値と比較される。
(照明不変条件での認識のための加重サンプリング)
均一のサンプリングではすべてのピクセルが同一の確率で選択されるが、加重サンプリングでは、いくつかのピクセルは他のピクセルよりも選択される可能性が高い。加重サンプリングはまた文字通り広範囲にわたって研究されており、加重サンプリングと均一サンプリングとの間の違いを後述の例を通して説明する。
1乃至5のうち1つの数字が選択される必要があり(配列X)、サンプリングは均一ではなく表2に示すように加重されるものと仮定する。
Figure 2006510985
表2で説明される加重を使用した加重サンプリングを実行する方法の1つは、補助配列Y={1、2、2、3、3、3、4、4、5、5}を形成することである。
この配列は10個の要素を有し、均一サンプリングが配列Yに対し実行される場合には、それはXの加重サンプリングと同等である。この例では、2が1の2倍の確率で発生し、3が30%の確率で最も発生しやすい。
照明不変条件での顔認識のための加重サンプリングは単に、顔認識におけるRANSACアルゴリズムの使用を拡張したものである。前述のケースでは、サンプリングは均一に実行され、すなわちセットTのそれぞれのピクセルは、1/(顔のピクセルの数)の同じ確率で選択される。加重サンプリングでは、以下の基準に基づいていくつかのピクセルは他のピクセルよりもより多く選択される可能性がある。
100の異なる照度で撮影された顔写真があると仮定する。元の顔画像(すなわち均一の照度を有するもの。)のそれぞれのピクセルPと、異なる照度の下で取得された画像の同じピクセルとを比較し、それらの間の差が何回所定の閾値を下回ったかをカウントする。その数をnで示し、以下に合計を示す。
Figure 2006510985
より高いnのピクセル群は、それらが照明変動の影響をあまり受けないのでより有用であり、そのためこれらのピクセルは、それらが比較対象の一部である場合には、より高い精度に帰着する。言い換えると、これらのピクセルを使用することで、照明条件不変での対照をより見つけ易くなる。従って、本発明の加重サンプリングの実施例では、これらの“照明条件不変ピクセル”がより頻繁にTの一部として選択される。加重サンプルで選択されるピクセルの確率は均一でなく、以下の公式で与えられる。
Figure 2006510985
当該アルゴリズムはこれより、前述のRANSACによる照明条件不変での認識と同じ方法で進行する。
もう1つの方法として、サンプリングのための加重を計算するためにコンピュータグラフィックが使用されてもよい。頭の3次元モデルが異なる方向に置かれる光源と共に創出される。多くのコンピュータグラフィックパッケージソフトウェアはその後、3次元画像を2次元に戻すことが可能であり、当該2次元画像は該2次元画像上に異なる効果を創出する異なる光源を伴う。その後、顔のどの領域が異なる光源で変化する可能性がより高いかを判断することができる。顔の部分で変化の可能性の低い部分はその後、より高い加重を受けることができ、或いは、変化の可能性が高いピクセルよりも選択される可能性がより高くなり得る。このタイプの光線追跡を実行するプログラムの例には、POV−Ray又はOpenGLがある。
図4は、加重サンプリングが使用されるこの発明に係る方法のフローチャートを示す。このケースでは、画像が(10)で取得される。光の影響を最も受ける画像部分が(15)で判断される。その後ピクセルは、照明条件不変ピクセルを支持して(35)で加重される。(12)において、I=1がI=Xになるまでの間、加重サンプルのサブセットが(45)で選択される。(55)において、加重サブセットが、顔認識と同じ方法を使用して、保存されていた画像の同じ加重サンプルと比較される。その後、最良の結果を有するサブセットに基づいて整合の可能性が判断される。
図5は、本発明に従ったセキュリティアプリケーションを示す。部屋に歩きながら入ってくる人物72の画像が頭上の光源71を伴い画像化デバイス70により捕捉される。本発明に従って、当該画像はコンピュータ73に保存されていた画像と比較される。
本発明の好適な実施例とされるものが示され、或いは説明されたが、当然のことながら形式上の或いは細部にわたった様々な改良及び変更が、本発明の精神から逸脱することなく容易になされ得る。それゆえ本発明は、説明又は図解のされた形態そのものに限定されることはなく、添付の特許請求の範囲内に属するすべての改良に及ぶべく構成されることを目的とする。
外れ値の存在する点集合を経た線の選択を示す図である。 RANSACアルゴリズムを使用して外れ値の存在する点集合を経た線の選択を示す図である。 RANSACアルゴリズムを使用して堅牢な顔認識を実行する好適な実施例のフローチャートを示す図である。 画像サイズが64×72で、無作為ピクセルのサンプルサイズが1000である画像を示す図である。 実際の画像サイズが133×100で、無作為サンプルが画像の40%である無作為ピクセルのサンプルを示す図である。 本発明の典型的な実施例で加重サンプリングがどのように使用されるかを表すフローチャートを示す図である。 本発明の好適な実施例に従ったセキュリティシステムを示す図である。

Claims (20)

  1. 整合性を検出すべく捕捉された画像と保存されていた画像との比較を行う比較方法であって:
    捕捉された画像を取り出す取り出しステップ;
    初期の類似指標を設定する設定ステップ;
    I=1からI=Xの間、前記捕捉された画像のピクセルの無作為のサンプルを採取する採取ステップ;
    前記捕捉された画像のピクセルの無作為のサンプルと前記保存されていた画像のピクセルの対応する無作為のサンプルとの間で顔認識を実行する実行ステップ;
    前記捕捉された画像の前記無作為のサンプルのための新しい類似指標を計算し、新しい類似指標がより高い場合に、前記類似指標を置き換える計算置換ステップ;
    Iをインクリメントするインクリメントステップ;及び、
    前記類似指標が所定の閾値より高いか否かを整合性のために判断する判断ステップ;
    を有することを特徴とする比較方法。
  2. 前記画像をサンプリングし、前記比較の結果に影響を与えないよう外れ値を実質的に取り除くことで顔認識を実行する堅牢なアルゴリズムが使用されることを特徴とする請求項1に記載の比較方法。
  3. 前記アルゴリズムがRANSACアルゴリズムであることを特徴とする請求項2に記載の比較方法。
  4. 前記アルゴリズムが最小メジアン平方アルゴリズムであることを特徴とする請求項2に記載の比較方法。
  5. 照明に影響される可能性の低いピクセルが加重される加重サンプルが使用されることを特徴とする請求項1に記載の比較方法。
  6. 前記インクリメントステップの前に前記判断ステップが発生し、整合性がある場合には追加的に無作為のサンプルが採取される必要がなく、かつ、比較される必要もないことを特徴とする請求項1に記載の比較方法。
  7. Xの値が好適な精度に基づくことを特徴とする請求項1に記載の比較方法。
  8. Xの値がコンピュータ要件に基づくことを特徴とする請求項1に記載の比較方法。
  9. 整合性を検出すべく捕捉された画像と保存されていた画像との比較を行う比較デバイスであって:
    捕捉された画像を受けるデバイス;を有し、
    プロセッサであって、
    初期の類似指標を創出し;
    I=1からI=Xの間、前記捕捉された画像のピクセルを無作為にサンプルし;
    前記捕捉された画像のピクセルの無作為のサンプルと前記保存されていた画像のピクセルの対応する無作為のサンプルとの間で顔認識を実行し;
    新しい類似指標を計算し、新しい類似指標がより高い場合に、前記類似指標を前記新しい類似指標で置き換えし;
    Iをインクリメントし;かつ、
    前記類似指標が閾値より高いか否かを整合性のために判断する;
    機能を果たすプロセッサ:
    を有することを特徴とする比較デバイス。
  10. 前記プロセッサが、実質的に外れ値が不正確な結果を生じさせる可能性を低下させるアルゴリズムを使用して画像比較を実行することを特徴とする請求項9に記載の比較デバイス。
  11. 前記アルゴリズムがRANSACアルゴリズムであることを特徴とする請求項10に記載の比較デバイス。
  12. 前記アルゴリズムが最小メジアン平方アルゴリズムであることを特徴とする請求項10に記載の比較デバイス。
  13. 照明に影響される可能性の低いピクセルが加重される加重無作為サンプルが使用されることを特徴とする請求項9に記載の比較デバイス。
  14. 前記インクリメントステップの前に前記判断ステップが発生し、整合性がある場合には追加的に無作為のサンプルが採取される必要がないことを特徴とする請求項9に記載の比較デバイス。
  15. Xの値が演算能力に基づくことを特徴とする請求項9に記載の比較デバイス。
  16. Xの値が好適な精度に基づくことを特徴とする請求項9に記載の比較デバイス。
  17. 画像比較デバイスであって、
    捕捉された画像からのピクセルの複数の無作為サンプルを選択する無作為サンプル器;
    前記無作為サンプルと保存されていた画像にある対応する無作為サンプルとの顔認識で、前記無作為サンプルの影領域が外れ値として扱われ、かつ、実質的に前記顔認識の結果に影響しないように前記顔認識を実行する比較器;
    類似指標を計算し、かつ、前記捕捉された画像と前記保存されていた画像との間に整合性が存在するか否かを判断するプロセッサ;
    を有することを特徴とする画像比較デバイス。
  18. 複数の無作為サンプルが選択され、かつ、比較され、
    最も高い類似指標を有する無作為サンプルが前記捕捉された画像と前記保存されていた画像との間に整合性が存在するか否かを判断すべく使用される
    ことを特徴とする請求項17に記載の画像比較デバイス。
  19. 画像比較方法であって、
    堅牢なサンプリングアルゴリズムを使用して、捕捉された画像から無作為サンプルのピクセルを選択する選択ステップ;
    実質的に画像の影領域を無視するこのアルゴリズムを使用して、前記無作為サンプルと、保存されていた画像の同じ無作為サンプルとで顔認識を実行する顔認識実行ステップ;
    このアルゴリズムを使用して類似指標を計算し、前記捕捉された画像と前記保存されていた画像との間に整合性が存在するか否かを判断する計算判断ステップ;
    を有することを特徴とする画像比較方法。
  20. 前記選択ステップが複数の無作為サンプルを選択し、
    前記顔認識実行ステップが、前記複数の無作為サンプルと前記保存されていた画像の同じ無作為サンプルとを比較し、かつ、類似指標を計算し、
    最も高い類似指標が前記捕捉された画像と前記保存されていた画像との間に整合性が存在するか否かを判断すべく使用される
    ことを特徴とする請求項19に記載の画像比較方法。
JP2004561908A 2002-12-20 2003-12-17 照明不変条件での顔認識 Withdrawn JP2006510985A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US43524702P 2002-12-20 2002-12-20
PCT/IB2003/006108 WO2004057522A1 (en) 2002-12-20 2003-12-17 Illumination invariant face recognition

Publications (1)

Publication Number Publication Date
JP2006510985A true JP2006510985A (ja) 2006-03-30

Family

ID=32682201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004561908A Withdrawn JP2006510985A (ja) 2002-12-20 2003-12-17 照明不変条件での顔認識

Country Status (9)

Country Link
US (1) US20060251327A1 (ja)
EP (1) EP1579371B1 (ja)
JP (1) JP2006510985A (ja)
KR (1) KR20050084448A (ja)
CN (1) CN1729471A (ja)
AT (1) ATE349739T1 (ja)
AU (1) AU2003286377A1 (ja)
DE (1) DE60310766T2 (ja)
WO (1) WO2004057522A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0502844D0 (en) 2005-02-11 2005-03-16 Univ Edinburgh Storing digital content for access using a captured image
KR100847142B1 (ko) * 2006-11-30 2008-07-18 한국전자통신연구원 얼굴 인식을 위한 전처리 방법, 이를 이용한 얼굴 인식방법 및 장치
KR102170689B1 (ko) 2014-01-14 2020-10-27 한화테크윈 주식회사 영상 정합을 위한 특징점 샘플링 방법
US10417824B2 (en) 2014-03-25 2019-09-17 Apple Inc. Method and system for representing a virtual object in a view of a real environment
US9679212B2 (en) 2014-05-09 2017-06-13 Samsung Electronics Co., Ltd. Liveness testing methods and apparatuses and image processing methods and apparatuses
JP2016174203A (ja) * 2015-03-16 2016-09-29 株式会社東芝 半導体装置及びカメラ端末
CN112115740B (zh) * 2019-06-19 2024-04-09 京东科技信息技术有限公司 用于处理图像的方法和装置
CN111862172B (zh) * 2020-08-07 2023-08-01 成都交大光芒科技股份有限公司 变电所辅助监控系统状态指示灯全天候识别方法及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5416851A (en) * 1991-07-30 1995-05-16 Xerox Corporation Image analysis based on location sampling
US5450504A (en) * 1992-05-19 1995-09-12 Calia; James Method for finding a most likely matching of a target facial image in a data base of facial images
US6128398A (en) * 1995-01-31 2000-10-03 Miros Inc. System, method and application for the recognition, verification and similarity ranking of facial or other object patterns
US6151073A (en) * 1996-03-28 2000-11-21 Fotonation, Inc. Intelligent camera flash system
US6072496A (en) * 1998-06-08 2000-06-06 Microsoft Corporation Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects
US6292575B1 (en) * 1998-07-20 2001-09-18 Lau Technologies Real-time facial recognition and verification system
US6353678B1 (en) * 1999-07-14 2002-03-05 Sarnoff Corporation Method and apparatus for detecting independent motion in three-dimensional scenes
US6751348B2 (en) * 2001-03-29 2004-06-15 Fotonation Holdings, Llc Automated detection of pornographic images

Also Published As

Publication number Publication date
DE60310766T2 (de) 2007-10-11
US20060251327A1 (en) 2006-11-09
CN1729471A (zh) 2006-02-01
DE60310766D1 (de) 2007-02-08
KR20050084448A (ko) 2005-08-26
EP1579371A1 (en) 2005-09-28
EP1579371B1 (en) 2006-12-27
AU2003286377A1 (en) 2004-07-14
WO2004057522A1 (en) 2004-07-08
ATE349739T1 (de) 2007-01-15

Similar Documents

Publication Publication Date Title
US9818023B2 (en) Enhanced face detection using depth information
JP4241763B2 (ja) 人物認識装置及びその方法
JPH10177650A (ja) 画像特徴抽出装置,画像特徴解析装置,および画像照合システム
KR20040086252A (ko) 얼굴 메타 데이터 생성
KR20020028146A (ko) 홍채를 이용한 신원 확인 시스템 및 방법과 그 방법에대한 컴퓨터 프로그램 소스를 저장한 기록매체
Thabet et al. Enhanced smart doorbell system based on face recognition
CN108875549B (zh) 图像识别方法、装置、系统及计算机存储介质
WO2008047136A1 (en) Biometric matching method and apparatus
JPWO2013122009A1 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
EP3869448A1 (en) Iris authentication device, iris authentication method, and recording medium
JP6908843B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2006510985A (ja) 照明不変条件での顔認識
US11488417B2 (en) Iris and periocular region biometric recognition
JP7083788B2 (ja) 情報処理装置及び組合せ特定方法
US11216639B2 (en) Template matching of a biometric object
Zhou et al. Orientation analysis for rotated human face detection
CN108446737B (zh) 用于识别对象的方法和装置
JP2006277146A (ja) 照合方法および照合装置
Hasan et al. Dual iris matching for biometric identification
WO2022049704A1 (ja) 情報処理システム、情報処理方法、及びコンピュータプログラム
Hassen A Pragmatic Evaluation of Face Smile Detection
KR101884874B1 (ko) 부분 이미지 기반 객체 판별 방법 및 장치
WO2022110121A1 (en) Method for biometric analysis about a user of an electronic device
Tommandru et al. An Automated Framework for Patient Identification and Verification Using Deep Learning.
WO2023105635A1 (ja) 判定装置、判定方法、および判定プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061214

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20080116