JP2006510985A - 照明不変条件での顔認識 - Google Patents
照明不変条件での顔認識 Download PDFInfo
- Publication number
- JP2006510985A JP2006510985A JP2004561908A JP2004561908A JP2006510985A JP 2006510985 A JP2006510985 A JP 2006510985A JP 2004561908 A JP2004561908 A JP 2004561908A JP 2004561908 A JP2004561908 A JP 2004561908A JP 2006510985 A JP2006510985 A JP 2006510985A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixels
- algorithm
- random sample
- face recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Abstract
無作為のサンプルサブセットが画像から選択される。RANSACアルゴリズムが、捕捉された画像サンプルと保存されていた同様のサンプルとの堅牢な整合を実行するために使用される。十分なサンプルを選択することで、すべてのサンプルが照明条件の変化の影響を受ける可能性をより低くし、それゆえに、捕捉された画像での照明条件が保存されていた画像のものと異なる場合であっても、より高い確率で整合を見つけ得る。さらに、照明条件の変動に影響される可能性に基づいてサンプルを選択する加重サンプリング技術が使用される。
Description
本発明は、一般に顔認識に関し、特に照明不変条件での顔認識に関する。
顔認識システムは、施設へ入る際の識別、ホームネットワーク環境のようなところでサービスを個別化するための人々の認識、及び公共施設において探索中の個人の所在を確認するといったような多くの異なる用途で、個人の識別及び確認に使用される。如何なる顔認識システムの設計においても、究極の目的は、最良の分類(予測)能力を実現することである。顔認識システムの用途にもよるが、比較が高精度であることを確認することは、多かれ少なかれ重要である。指名手配中の人物を識別するというような高いセキュリティが求められる用途では、捕捉した画像と保存されていた画像とのわずかな違いを無視する識別を実現することが非常に重要である。
顔認識の処理は典型的には、人間の1又は複数の画像の捕捉を要し、画像の処理及びその後の保存されていた画像との比較を要する。保存されていた画像と捕捉された画像との間に肯定的な整合がある場合に、個人の識別が見つけ出され、或いは確認され得る。米国特許第6292575号明細書は係るシステムを説明し、該明細書は参照することにより本明細書に含まれるものとする。
米国特許第6292575号明細書
画像処理は標準化を含む。標準化は、捕捉された画像にある顔のサイズが保存されていた画像にあるものと比較的同一のサイズになることを保証する。この標準化は、捕捉された画像では現れるが保存されていた画像には見つからない(又はその逆の場合もある。)差異を制御する試みである。これらの差異は、2つの顔が比較されるが実際には同一人物が両画像に現れている場合に、誤った否定的な識別の結果を生じさせる。
多くのシステムもまた、捕捉された画像の照明を制御し、保存されていた画像の照明と類似するようになることを保証するようにする。個人が適切に位置付けられるとすぐ、カメラは単一の又は複数の個人写真を撮影し、保存されていた写真との比較が行われる。これらのシステムの問題は、セキュリティ適用のような多くの適用において、捕捉された画像の照明が保存されていた画像に使用されていた照明と時々異なることにある。捕捉された画像の照明と保存されていた画像の照明とが異なる場合には、誤った否定的な識別結果が生じる機会がある。同一の照明を得ることが必ずしも可能とは限らないので、システムは異なる照明を考慮に入れる必要がある。
結果として、本発明の目的は、照明の変化で生じる誤差に左右されない顔識別/確認を実行するシステムを提供することである。
この目的は、顔の中にあるピクセルの無作為のサンプルを採取し、保存されていた画像の同じ無作為のサンプルと比較を行うことで実現される。比較は、ほとんどすべての顔認識方法を使用して実行される。RANSACアルゴリズムは堅牢な整合を行うために使用される。RANSACアルゴリズムは、誤った否定的な結果を生じさせる顔の影領域の存在可能性の除去に役立つ。
本発明の1実施例では、単に無作為のサンプルを採取する代わりに、加重サンプリングが使用される。加重サンプリングでは、照明の影響をあまり受けない顔の領域が加重される。判断は、顔のどの領域が照明の影響をより受け易いかによりなされる。その後サンプリングは、照明の変化の可能性がより低い領域において加重される。これら加重サンプルはその後、類似点を判断する顔認識を使用して保存されていた画像の類似のピクセルと比較される。
他の目的および利点は明細書および特許請求の範囲に照らして明らかとなる。
本発明のより良い理解のために添付図面が参照される。
典型的な顔認識プログラムでは、捕捉された画像のピクセルが顔認識方法を使用して、保存されていた画像のピクセルと比較される。特定比率のピクセルが保存されていた画像の同じピクセルと整合する場合には、当該画像は整合し、確認又は識別が生じたものとみなされる。画像間の類似点を判断する周知の顔認識方法が多く存在する。本出願において使用する用語“整合”は、見込みのある整合、正確な整合、所定の閾値以上の十分なピクセルが整合し識別があり得るとされる整合を意味し、さらに、これらサンプルで顔認識実行後に見られる類似指標が所定の閾値以上の可能性があるような整合をも意味する。問題は、捕捉された画像の顔の部分が照明源による影を有し、かつ、データベースに保存されていたこの人物の画像が影を有さず、2つの画像のピクセルが比較される場合には、影の中にあるそれらのピクセルが保存されていた画像の対応するピクセルに整合しないことが起こり得るという点にある。これは、異なる人物の画像による顔であるためよりもむしろ、同条件でない照明により非整合ピクセルの占める割合が大きいことによる。適切な識別とみなされるために所定比率のピクセルが整合しなければならない場合に、非整合ピクセルの比率が大きいと誤った否定的な整合を生じさせる。
顔認識は、顔全体よりもむしろ顔の部分で実行され得るということが見出されている。本発明は、顔の中の無作為のピクセルサンプルを選択するが、これら無作為のサンプルは、“外れ値”すなわち大多数のデータ点の外にあるデータ点を無視するアルゴリズムの一部として選択される。RANSACアルゴリズムは、選択されたサンプルからの“外れ値”が不正確な整合を生じさせることを回避する堅牢な評価アルゴリズムであり、本発明の好適な実施例において使用される。最小メジアン平方法(LmedS)のような他のこのようなアルゴリズムもまた使用され得る。RANSACアルゴリズムは、より詳細が以下に説明されるが、無作為にピクセルを選択し、かつ、本発明では影領域にあたる“外れ値”を検出する。
本発明の好適な実施例では、捕捉された画像が、顔認識アルゴリズムを使用して保存されていた画像と比較され、整合が見つからなければ、捕捉された画像は無作為にサンプルされ、ピクセルTjの無作為のサンプルが顔認識アルゴリズムを使用して、保存されていた画像の同じ無作為のサンプルと比較される。選択された無作為のサンプルの数は、演算能力及び特定用途で必要とされる精度により決定される。好適な実施例では、100から1000又はそれ以上の間のサンプルセットが選択される。顔認識はすべてのサンプルで実行される。最適な結果を提供するサンプル(すなわち保存されていた画像の同じサンプルに最も近く整合するサンプル)が選択され、サンプル比較の結果が閾値と比較される。捕捉された画像のサンプルが保存されていた画像の同じサンプルと整合する場合には、当該保存されていた画像が、捕捉された画像と同一人物を示しているとみなされる。この整合を与える当該保存されていた画像は、捕捉された画像と同じ顔である可能性が高い。サンプルの1つは比較的外れ値がないものであると思われるからである。これは誤った否定的な結果になることがほとんどない。無作為のサンプルが、照明の影響を受けた顔の部分をあまり含んでいないと思われるからである。
図2は、本発明の好適な方法のフローチャートを示す。(10)において、画像が取得される。(12)において、I=1がI=Xとなるまで、無作為のサンプルサブセットが創出される(20)。Iはインクリメントであり、Xは演算能力及び必要とされる精度により決定される。RANSACアルゴリズムが当該サブセット及びサブセット数の選択に使用される。RANSACはRandom Sample Consensus(ランダムサンプルコンセンサス)の略語であり、ここでは線評価の観点で説明される。画像のような他のケースにおいても同様に有効である。点の無作為のサンプルが図1aで示すように存在し、線Aはこれらの点を通り抜けるようにしなければならない場合を仮定する。外れ値が存在する場合には(図1aには、2つの外れ値O1、O2が北西象限に存在する。)、線Aは本来の位置から有意にシフトされる。図1bはこの点の同じ無作為サンプルを示すが、線AはRANSACアルゴリズムを使用して適合されている。O1及びO2を誤りのあるデータ点であると仮定するならば、図1bにおいて線Aは図1aより良い線評価となる。RANSACは、以下の方法によりもたらされる。
1.線を評価するために必要な最小数の点(2つ)を無作為に採取する。
2.これらの点を通るように線を適合させる。
3.線に近い集合の点の数をカウントする(所定の基準、すなわち3ピクセルより近いすべての点が該当し、モデルをサポートするとの基準に従うものとする。)。Njで表される数は、線近くの点の集中を量的に表す。
4.選択された少なくとも2つの点が点集合の有効な表現であることを所定の確率(一般的には95乃至99%)で保証するまで、ステップ1乃至3を十分な回数繰り返す。
5.すべてのNjで最も有効なもの、及び、このNjを生成する線を見つけ出す。この線をサポートするすべてのNjの点を使用し、普通の最小二乗法を用いた最適な線を評価する。
画像中のピクセルの一般的な無作為サンプリングを実行するために、画像をベクトルとして表示する。すなわち各ピクセルは表1に示されるように固有の数字が割り当てられる。
1.線を評価するために必要な最小数の点(2つ)を無作為に採取する。
2.これらの点を通るように線を適合させる。
3.線に近い集合の点の数をカウントする(所定の基準、すなわち3ピクセルより近いすべての点が該当し、モデルをサポートするとの基準に従うものとする。)。Njで表される数は、線近くの点の集中を量的に表す。
4.選択された少なくとも2つの点が点集合の有効な表現であることを所定の確率(一般的には95乃至99%)で保証するまで、ステップ1乃至3を十分な回数繰り返す。
5.すべてのNjで最も有効なもの、及び、このNjを生成する線を見つけ出す。この線をサポートするすべてのNjの点を使用し、普通の最小二乗法を用いた最適な線を評価する。
画像中のピクセルの一般的な無作為サンプリングを実行するために、画像をベクトルとして表示する。すなわち各ピクセルは表1に示されるように固有の数字が割り当てられる。
本発明の好適な実施例では、後述のような顔認識を実行すべく適用されるRANSAC方法の無作為サンプリングが使用される。
1.所定数のピクセルを顔のテスト画像(Tj)から無作為に採取する。
2.Tjとデータベースにある顔の対応するピクセルとを(位置関係において)比較し、類似度sjを計算する(sjは元のRANSACアルゴリズムのNjに対応することに留意する。)。
3.サンプル点のすべてが照明条件の変動による有意な影響を受けていないことを所定の確率(一般的には95乃至99%)で保証するまで、ステップ1乃至2を十分な回数繰り返す。Xは実験的に、或いは後述のように計算され得る。
1.所定数のピクセルを顔のテスト画像(Tj)から無作為に採取する。
2.Tjとデータベースにある顔の対応するピクセルとを(位置関係において)比較し、類似度sjを計算する(sjは元のRANSACアルゴリズムのNjに対応することに留意する。)。
3.サンプル点のすべてが照明条件の変動による有意な影響を受けていないことを所定の確率(一般的には95乃至99%)で保証するまで、ステップ1乃至2を十分な回数繰り返す。Xは実験的に、或いは後述のように計算され得る。
問題になっている顔の画像が1000ピクセルから生成され、そのうちの50が照明条件の変動の影響を受けていると仮定する。さらに、顔の100ピクセルだけが顔認識を実行するために選択され得ると仮定する。100ピクセルのすべてが照明条件の変動の影響を受けていない950ピクセルからのものである場合には、有効な認識結果となるであろう。選択された100ピクセルのすべてが照明条件の変動の影響を受けている場合の確率は次式により与えられる。
上記で説明したように、領域セットが無作為に選択される。十分に大きなXならば、少なくとも1つの領域は、データベースにある領域の対応するセットに良く整合する一貫した照明条件を有する可能性がある。高い類似性がある場合には、捕捉された画像と保存されていた画像との間に高い類似性のある整合が存在する。
図2に戻って参照すると、(10)で画像が取得された後、X=1がX=1000になるまで無作為のサンプルのサブセットが選択される(20)。それぞれのサンプルに対し、RANSAC又は他の外れ値検出アルゴリズムを使用して、保存されていた画像の同じ無作為サンプルと捕捉された画像のサンプルとを(30)において比較することにより当該サンプル上で顔認識が実行される。2つのサンプルの間に高い類似性が存在する場合には(32)、顔の間に整合が存在するものとみなされる(33)。最も高い整合の数を有するサブセットを記憶し、当該数が画像間に整合が存在すると宣言するに足りるほど十分高いものであるか否かを判断する。そうでなければ整合は存在しないものとされる(34)。第1の実施例では、顔認識は整合が見つかるまで、或いは、Xに到達するまで実行される。第2の実施例では、すべてのサンプルが比較され、整合が存在するか否かを判断すべく、最も高い類似度を有するサンプルが閾値と比較される。
(照明不変条件での認識のための加重サンプリング)
均一のサンプリングではすべてのピクセルが同一の確率で選択されるが、加重サンプリングでは、いくつかのピクセルは他のピクセルよりも選択される可能性が高い。加重サンプリングはまた文字通り広範囲にわたって研究されており、加重サンプリングと均一サンプリングとの間の違いを後述の例を通して説明する。
(照明不変条件での認識のための加重サンプリング)
均一のサンプリングではすべてのピクセルが同一の確率で選択されるが、加重サンプリングでは、いくつかのピクセルは他のピクセルよりも選択される可能性が高い。加重サンプリングはまた文字通り広範囲にわたって研究されており、加重サンプリングと均一サンプリングとの間の違いを後述の例を通して説明する。
1乃至5のうち1つの数字が選択される必要があり(配列X)、サンプリングは均一ではなく表2に示すように加重されるものと仮定する。
この配列は10個の要素を有し、均一サンプリングが配列Yに対し実行される場合には、それはXの加重サンプリングと同等である。この例では、2が1の2倍の確率で発生し、3が30%の確率で最も発生しやすい。
照明不変条件での顔認識のための加重サンプリングは単に、顔認識におけるRANSACアルゴリズムの使用を拡張したものである。前述のケースでは、サンプリングは均一に実行され、すなわちセットTjのそれぞれのピクセルは、1/(顔のピクセルの数)の同じ確率で選択される。加重サンプリングでは、以下の基準に基づいていくつかのピクセルは他のピクセルよりもより多く選択される可能性がある。
100の異なる照度で撮影された顔写真があると仮定する。元の顔画像(すなわち均一の照度を有するもの。)のそれぞれのピクセルPjと、異なる照度の下で取得された画像の同じピクセルとを比較し、それらの間の差が何回所定の閾値を下回ったかをカウントする。その数をnjで示し、以下に合計を示す。
もう1つの方法として、サンプリングのための加重を計算するためにコンピュータグラフィックが使用されてもよい。頭の3次元モデルが異なる方向に置かれる光源と共に創出される。多くのコンピュータグラフィックパッケージソフトウェアはその後、3次元画像を2次元に戻すことが可能であり、当該2次元画像は該2次元画像上に異なる効果を創出する異なる光源を伴う。その後、顔のどの領域が異なる光源で変化する可能性がより高いかを判断することができる。顔の部分で変化の可能性の低い部分はその後、より高い加重を受けることができ、或いは、変化の可能性が高いピクセルよりも選択される可能性がより高くなり得る。このタイプの光線追跡を実行するプログラムの例には、POV−Ray又はOpenGLがある。
図4は、加重サンプリングが使用されるこの発明に係る方法のフローチャートを示す。このケースでは、画像が(10)で取得される。光の影響を最も受ける画像部分が(15)で判断される。その後ピクセルは、照明条件不変ピクセルを支持して(35)で加重される。(12)において、I=1がI=Xになるまでの間、加重サンプルのサブセットが(45)で選択される。(55)において、加重サブセットが、顔認識と同じ方法を使用して、保存されていた画像の同じ加重サンプルと比較される。その後、最良の結果を有するサブセットに基づいて整合の可能性が判断される。
図5は、本発明に従ったセキュリティアプリケーションを示す。部屋に歩きながら入ってくる人物72の画像が頭上の光源71を伴い画像化デバイス70により捕捉される。本発明に従って、当該画像はコンピュータ73に保存されていた画像と比較される。
本発明の好適な実施例とされるものが示され、或いは説明されたが、当然のことながら形式上の或いは細部にわたった様々な改良及び変更が、本発明の精神から逸脱することなく容易になされ得る。それゆえ本発明は、説明又は図解のされた形態そのものに限定されることはなく、添付の特許請求の範囲内に属するすべての改良に及ぶべく構成されることを目的とする。
Claims (20)
- 整合性を検出すべく捕捉された画像と保存されていた画像との比較を行う比較方法であって:
捕捉された画像を取り出す取り出しステップ;
初期の類似指標を設定する設定ステップ;
I=1からI=Xの間、前記捕捉された画像のピクセルの無作為のサンプルを採取する採取ステップ;
前記捕捉された画像のピクセルの無作為のサンプルと前記保存されていた画像のピクセルの対応する無作為のサンプルとの間で顔認識を実行する実行ステップ;
前記捕捉された画像の前記無作為のサンプルのための新しい類似指標を計算し、新しい類似指標がより高い場合に、前記類似指標を置き換える計算置換ステップ;
Iをインクリメントするインクリメントステップ;及び、
前記類似指標が所定の閾値より高いか否かを整合性のために判断する判断ステップ;
を有することを特徴とする比較方法。 - 前記画像をサンプリングし、前記比較の結果に影響を与えないよう外れ値を実質的に取り除くことで顔認識を実行する堅牢なアルゴリズムが使用されることを特徴とする請求項1に記載の比較方法。
- 前記アルゴリズムがRANSACアルゴリズムであることを特徴とする請求項2に記載の比較方法。
- 前記アルゴリズムが最小メジアン平方アルゴリズムであることを特徴とする請求項2に記載の比較方法。
- 照明に影響される可能性の低いピクセルが加重される加重サンプルが使用されることを特徴とする請求項1に記載の比較方法。
- 前記インクリメントステップの前に前記判断ステップが発生し、整合性がある場合には追加的に無作為のサンプルが採取される必要がなく、かつ、比較される必要もないことを特徴とする請求項1に記載の比較方法。
- Xの値が好適な精度に基づくことを特徴とする請求項1に記載の比較方法。
- Xの値がコンピュータ要件に基づくことを特徴とする請求項1に記載の比較方法。
- 整合性を検出すべく捕捉された画像と保存されていた画像との比較を行う比較デバイスであって:
捕捉された画像を受けるデバイス;を有し、
プロセッサであって、
初期の類似指標を創出し;
I=1からI=Xの間、前記捕捉された画像のピクセルを無作為にサンプルし;
前記捕捉された画像のピクセルの無作為のサンプルと前記保存されていた画像のピクセルの対応する無作為のサンプルとの間で顔認識を実行し;
新しい類似指標を計算し、新しい類似指標がより高い場合に、前記類似指標を前記新しい類似指標で置き換えし;
Iをインクリメントし;かつ、
前記類似指標が閾値より高いか否かを整合性のために判断する;
機能を果たすプロセッサ:
を有することを特徴とする比較デバイス。 - 前記プロセッサが、実質的に外れ値が不正確な結果を生じさせる可能性を低下させるアルゴリズムを使用して画像比較を実行することを特徴とする請求項9に記載の比較デバイス。
- 前記アルゴリズムがRANSACアルゴリズムであることを特徴とする請求項10に記載の比較デバイス。
- 前記アルゴリズムが最小メジアン平方アルゴリズムであることを特徴とする請求項10に記載の比較デバイス。
- 照明に影響される可能性の低いピクセルが加重される加重無作為サンプルが使用されることを特徴とする請求項9に記載の比較デバイス。
- 前記インクリメントステップの前に前記判断ステップが発生し、整合性がある場合には追加的に無作為のサンプルが採取される必要がないことを特徴とする請求項9に記載の比較デバイス。
- Xの値が演算能力に基づくことを特徴とする請求項9に記載の比較デバイス。
- Xの値が好適な精度に基づくことを特徴とする請求項9に記載の比較デバイス。
- 画像比較デバイスであって、
捕捉された画像からのピクセルの複数の無作為サンプルを選択する無作為サンプル器;
前記無作為サンプルと保存されていた画像にある対応する無作為サンプルとの顔認識で、前記無作為サンプルの影領域が外れ値として扱われ、かつ、実質的に前記顔認識の結果に影響しないように前記顔認識を実行する比較器;
類似指標を計算し、かつ、前記捕捉された画像と前記保存されていた画像との間に整合性が存在するか否かを判断するプロセッサ;
を有することを特徴とする画像比較デバイス。 - 複数の無作為サンプルが選択され、かつ、比較され、
最も高い類似指標を有する無作為サンプルが前記捕捉された画像と前記保存されていた画像との間に整合性が存在するか否かを判断すべく使用される
ことを特徴とする請求項17に記載の画像比較デバイス。 - 画像比較方法であって、
堅牢なサンプリングアルゴリズムを使用して、捕捉された画像から無作為サンプルのピクセルを選択する選択ステップ;
実質的に画像の影領域を無視するこのアルゴリズムを使用して、前記無作為サンプルと、保存されていた画像の同じ無作為サンプルとで顔認識を実行する顔認識実行ステップ;
このアルゴリズムを使用して類似指標を計算し、前記捕捉された画像と前記保存されていた画像との間に整合性が存在するか否かを判断する計算判断ステップ;
を有することを特徴とする画像比較方法。 - 前記選択ステップが複数の無作為サンプルを選択し、
前記顔認識実行ステップが、前記複数の無作為サンプルと前記保存されていた画像の同じ無作為サンプルとを比較し、かつ、類似指標を計算し、
最も高い類似指標が前記捕捉された画像と前記保存されていた画像との間に整合性が存在するか否かを判断すべく使用される
ことを特徴とする請求項19に記載の画像比較方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US43524702P | 2002-12-20 | 2002-12-20 | |
PCT/IB2003/006108 WO2004057522A1 (en) | 2002-12-20 | 2003-12-17 | Illumination invariant face recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006510985A true JP2006510985A (ja) | 2006-03-30 |
Family
ID=32682201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004561908A Withdrawn JP2006510985A (ja) | 2002-12-20 | 2003-12-17 | 照明不変条件での顔認識 |
Country Status (9)
Country | Link |
---|---|
US (1) | US20060251327A1 (ja) |
EP (1) | EP1579371B1 (ja) |
JP (1) | JP2006510985A (ja) |
KR (1) | KR20050084448A (ja) |
CN (1) | CN1729471A (ja) |
AT (1) | ATE349739T1 (ja) |
AU (1) | AU2003286377A1 (ja) |
DE (1) | DE60310766T2 (ja) |
WO (1) | WO2004057522A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0502844D0 (en) | 2005-02-11 | 2005-03-16 | Univ Edinburgh | Storing digital content for access using a captured image |
KR100847142B1 (ko) * | 2006-11-30 | 2008-07-18 | 한국전자통신연구원 | 얼굴 인식을 위한 전처리 방법, 이를 이용한 얼굴 인식방법 및 장치 |
KR102170689B1 (ko) | 2014-01-14 | 2020-10-27 | 한화테크윈 주식회사 | 영상 정합을 위한 특징점 샘플링 방법 |
US10417824B2 (en) | 2014-03-25 | 2019-09-17 | Apple Inc. | Method and system for representing a virtual object in a view of a real environment |
US9679212B2 (en) | 2014-05-09 | 2017-06-13 | Samsung Electronics Co., Ltd. | Liveness testing methods and apparatuses and image processing methods and apparatuses |
JP2016174203A (ja) * | 2015-03-16 | 2016-09-29 | 株式会社東芝 | 半導体装置及びカメラ端末 |
CN112115740B (zh) * | 2019-06-19 | 2024-04-09 | 京东科技信息技术有限公司 | 用于处理图像的方法和装置 |
CN111862172B (zh) * | 2020-08-07 | 2023-08-01 | 成都交大光芒科技股份有限公司 | 变电所辅助监控系统状态指示灯全天候识别方法及系统 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5416851A (en) * | 1991-07-30 | 1995-05-16 | Xerox Corporation | Image analysis based on location sampling |
US5450504A (en) * | 1992-05-19 | 1995-09-12 | Calia; James | Method for finding a most likely matching of a target facial image in a data base of facial images |
US6128398A (en) * | 1995-01-31 | 2000-10-03 | Miros Inc. | System, method and application for the recognition, verification and similarity ranking of facial or other object patterns |
US6151073A (en) * | 1996-03-28 | 2000-11-21 | Fotonation, Inc. | Intelligent camera flash system |
US6072496A (en) * | 1998-06-08 | 2000-06-06 | Microsoft Corporation | Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects |
US6292575B1 (en) * | 1998-07-20 | 2001-09-18 | Lau Technologies | Real-time facial recognition and verification system |
US6353678B1 (en) * | 1999-07-14 | 2002-03-05 | Sarnoff Corporation | Method and apparatus for detecting independent motion in three-dimensional scenes |
US6751348B2 (en) * | 2001-03-29 | 2004-06-15 | Fotonation Holdings, Llc | Automated detection of pornographic images |
-
2003
- 2003-12-17 AU AU2003286377A patent/AU2003286377A1/en not_active Abandoned
- 2003-12-17 KR KR1020057011631A patent/KR20050084448A/ko not_active Application Discontinuation
- 2003-12-17 CN CNA2003801068285A patent/CN1729471A/zh active Pending
- 2003-12-17 WO PCT/IB2003/006108 patent/WO2004057522A1/en active IP Right Grant
- 2003-12-17 JP JP2004561908A patent/JP2006510985A/ja not_active Withdrawn
- 2003-12-17 US US10/539,692 patent/US20060251327A1/en not_active Abandoned
- 2003-12-17 EP EP03777122A patent/EP1579371B1/en not_active Expired - Lifetime
- 2003-12-17 AT AT03777122T patent/ATE349739T1/de not_active IP Right Cessation
- 2003-12-17 DE DE60310766T patent/DE60310766T2/de not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
DE60310766T2 (de) | 2007-10-11 |
US20060251327A1 (en) | 2006-11-09 |
CN1729471A (zh) | 2006-02-01 |
DE60310766D1 (de) | 2007-02-08 |
KR20050084448A (ko) | 2005-08-26 |
EP1579371A1 (en) | 2005-09-28 |
EP1579371B1 (en) | 2006-12-27 |
AU2003286377A1 (en) | 2004-07-14 |
WO2004057522A1 (en) | 2004-07-08 |
ATE349739T1 (de) | 2007-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9818023B2 (en) | Enhanced face detection using depth information | |
JP4241763B2 (ja) | 人物認識装置及びその方法 | |
JPH10177650A (ja) | 画像特徴抽出装置,画像特徴解析装置,および画像照合システム | |
KR20040086252A (ko) | 얼굴 메타 데이터 생성 | |
KR20020028146A (ko) | 홍채를 이용한 신원 확인 시스템 및 방법과 그 방법에대한 컴퓨터 프로그램 소스를 저장한 기록매체 | |
Thabet et al. | Enhanced smart doorbell system based on face recognition | |
CN108875549B (zh) | 图像识别方法、装置、系统及计算机存储介质 | |
WO2008047136A1 (en) | Biometric matching method and apparatus | |
JPWO2013122009A1 (ja) | 信頼度取得装置、信頼度取得方法および信頼度取得プログラム | |
EP3869448A1 (en) | Iris authentication device, iris authentication method, and recording medium | |
JP6908843B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP2006510985A (ja) | 照明不変条件での顔認識 | |
US11488417B2 (en) | Iris and periocular region biometric recognition | |
JP7083788B2 (ja) | 情報処理装置及び組合せ特定方法 | |
US11216639B2 (en) | Template matching of a biometric object | |
Zhou et al. | Orientation analysis for rotated human face detection | |
CN108446737B (zh) | 用于识别对象的方法和装置 | |
JP2006277146A (ja) | 照合方法および照合装置 | |
Hasan et al. | Dual iris matching for biometric identification | |
WO2022049704A1 (ja) | 情報処理システム、情報処理方法、及びコンピュータプログラム | |
Hassen | A Pragmatic Evaluation of Face Smile Detection | |
KR101884874B1 (ko) | 부분 이미지 기반 객체 판별 방법 및 장치 | |
WO2022110121A1 (en) | Method for biometric analysis about a user of an electronic device | |
Tommandru et al. | An Automated Framework for Patient Identification and Verification Using Deep Learning. | |
WO2023105635A1 (ja) | 判定装置、判定方法、および判定プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061214 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20080116 |