JP2004005456A - 構成成分基盤pca/icaを利用した顔認識方法及びその装置 - Google Patents
構成成分基盤pca/icaを利用した顔認識方法及びその装置 Download PDFInfo
- Publication number
- JP2004005456A JP2004005456A JP2003056873A JP2003056873A JP2004005456A JP 2004005456 A JP2004005456 A JP 2004005456A JP 2003056873 A JP2003056873 A JP 2003056873A JP 2003056873 A JP2003056873 A JP 2003056873A JP 2004005456 A JP2004005456 A JP 2004005456A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- information
- ica
- feature information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2134—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis
- G06F18/21342—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis using statistical independence, i.e. minimising mutual information or maximising non-gaussianity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
【解決手段】(a)入力された所定の原顔映像を顔映像に含まれた顔の構成成分別に分割して分割映像を生成する段階、(b)分割映像にPCAを行って分割映像から高周波成分が除去された低帯域フィルタリング映像を生成する段階、(c)分割映像からそれに対応する前記低帯域フィルタリング映像を減算し、前記分割映像で高周波成分だけ残っている残余映像を生成する段階及び(d)残余映像にさらにICAを行って分割映像に対応する第1特徴情報を生成し、第1特徴情報の集合である第2特徴情報を発生させる段階を含むことを特徴とする。よって、ポーズ変化はそれぞれの顔成分内での関係において変化がほとんどないので、本発明の方法はポーズ変化に堅実な結果をもたらす。
【選択図】 図9
Description
【発明の属する技術分野】
本発明は構成成分基盤の主成分分析(PCA:Principal Component Analysis)/独立成分分析(ICA:Independent Component Analysis)を利用した顔認識/検索方法及びその装置に関する。
【0002】
【従来の技術】
映像処理と解釈において、人間の顔は視覚的な判別と身元確認(identification)に関する重要な要素である。1990年代初頭から、顔認識と顔表情解釈に関する分析研究が広範囲にすすめられてきた。最近では、一連の映像の中から顔を検索し身元を確認するために、MPEG−7顔叙述子が提案されている。前記顔叙述子の主要な機能は、従来の顔認識アルゴリズムに比べ、できる限り迅速で効果的に照会イメージと同じ顔イメージを検索することである。ここで解決すべき問題のひとつに、前記顔叙述子が光(明るさ、照度:illumination)と姿勢(ポーズ)に大きい変化のあるイメージの組み合わせに対しても適確に作動せねばならないということがあり、この問題を解決するためのさまざまな提案がなされている。
【0003】
照明変化(明るさilluminationの違い)を克服するために、WangとTanとは2次固有顔(アイゲンフェースeigenface)法を提示し、KameiとYamadaとは照明変化に起因した顔の対称(symmetry)と輝度変化を描写するために信頼因子を使用するところまで作業領域を広める。NefianとDaviesとは顔叙述のためにDCT(Discrete Cosine Transform)に基づいたeHMM(embedded Hidden Markov Model)を使用し、KimらはPMM(PCA Mixture Model)法を開発した。残念なことに、eHMMを除き、顔叙述子は姿勢変化に関して弱いようである。eHMMアルゴリズムは、複数の顔領域の各々に対応する識別できない埋没状態(embedded states)を使用し、イメージを、オーバーラップしたイメージブロックに区分するものである。しかし、このようなHMMアルゴリズムには、初期の解が全体の最小閾値に近接しない限り、局所的な最小値に依存しがちであるという問題点がある。
【0004】
先導的な固有値(leading eigenvalues)に対応する主成分(principal component)は身元確認よりは照明変化を記述するものであるという観察に基づき、WangとTanとは2次PCA法を提案した。第一に、PCAは1セットのトレーニングイメージ(training images)に対して実行される。最初の10個の固有値に対応する先導的な主成分から再構成されたイメージは低周波数成分を代表する。従って先導的な固有値は、照明変化に敏感である。次に、トレーニングイメージに対応する先導的な主成分を、再構成されたイメージから減算して、照明変化を減ずる。それらは残りのイメージと呼ばれ、照明変化により変動しにくい高周波数成分を含む。最後に、照明に変化する因子を減じて得られた残りのイメージに、PCAがさらに適用される。また、Kimらは、顔イメージ空間のさまざまな模様(パターン)の可能性分布を評価するために2次PMM法を導入し、KameiとYamadaは、2次PCA法に照明変化に起因した顔対称と輝度とを記述するための信頼因子を追加した。
【0005】
Bartlettは、ICAが、より高次の画素間関係を有する、顔イメージ空間の重要情報を抽出するので、ICAがPCAより顔描写により良い基礎イメージを提供すると主張し、その証拠は、FARET顔データシート上の実験的な結果を通じて示されている。図1にて示すように、ICA表現における改善点は、PCAとICA間の基礎ベクトル選択での差により説明することができる。図1の(a)はPCAを、(b)はICAを示す。すなわち、データがガウス分布でないときには、基礎ベクトルが直交するゆえにPCAはそのデータを記述できず、一方ICAは適切にデータを記述することができる。
【0006】
一方、顔認識においてポーズ(姿勢)変化に起因した問題点を克服するために、いくつかの成分基盤の技術、すなわち顔イメージを顔の要素(成分)の集合として表現する方法が開発されてきた。IEEE国際音声音響信号処理学術大会(IEEE International Conference on Acoustics, Speech and Signal Processing)において、NefianとDaviesは、顔モデリングのためにeHMM技術を使用することを提案している。顔成分は内部的にはHMMによりモデリングされ、最適化技法を使用して顔イメージからセグメントされたイメージブロックにマッチされる。IEEEパターン分析及び機械知能誌(IEEE Transactions on Pattern Analysis and Machine Intelligence)で、Wiskottらは顔成分をガーバー・ウェーブレット変換(Gabor wavelet transform)に基づいたラベルされたグラフによる顔成分で表現し、複素ガーバー・ウェーブレット係数の位相を用いて顔の特徴に関するノードの正確な位置を推算することを提案している。また、IEEEコンピュータビジョン国際学術大会(IEEE International Conference on Computer Vision)で、Heiseleらはポーズの変化を補償するために顔成分を独立的に検出し、支持ベクトルマシン(SVM:Support Vector Machine)幾何学的構成分類子(geometrical configuration classifier)に基づいて、検出した成分の幾何学的な構成をモデルと照合することを提案している。
【0007】
しかし、一般的に、従来のPCAとICA方法はあらゆる画素間の位置関係をエンコーディングする。従って、統計的にポーズ変化による位置構成変化が顔表現の深刻な変化を招く点が問題となる。
【0008】
【発明が解決しようとする課題】
本発明が解決しようとする技術的課題は、構成成分基盤PCA/ICAを利用して所定の顔映像に対する特徴情報を生成する方法及びその装置を提供することである。また、本発明が解決しようとする他の技術的課題は、構成成分基盤PCA/ICAを利用して顔を認識する方法及びその装置を提供することである。本発明が解決しようとするさらに他の技術的課題は、構成成分基盤PCA/ICAを利用して顔を検索する方法及びその装置を提供することである。
【0009】
【課題を解決するための手段】
前記課題を解決するための本発明による所定の顔映像に対する構成成分基盤PCA/ICAを利用した特徴情報生成方法は、(a)入力された所定の原顔映像情報を前記顔映像情報に含まれた顔の構成成分別に分割して分割映像情報を生成する段階、(b)前記分割映像情報にPCAを行い、前記分割映像情報にて高周波成分が除去された低帯域フィルタリング映像情報を生成する段階、(c)前記分割映像情報からそれに対応する前記低帯域フィルタリング映像情報を減算し、前記分割映像情報にて高周波成分だけ残っている残余映像情報を生成する段階及び(d)前記残余映像情報にさらにICAを行い、前記分割映像情報に対応する第1特徴情報を生成し、前記第1特徴情報の集合である第2特徴情報を発生させる段階を含むことを特徴とする。
【0010】
前記課題を解決するための本発明による所定の顔映像に対する構成成分基盤PCA/ICAを利用した顔認識方法は、(a)認識する対象になる第1顔映像情報と前記第1顔映像情報と比較するのに基準になる第2顔映像情報とを入力される段階、(b)前記第1及び第2顔映像情報それぞれに構成成分基盤PCA/ICAを行い、前記第1及び第2顔映像情報に対応する第2特徴情報を抽出する段階及び(c)前記第1及び第2顔映像に対応する第2特徴情報間に類似性があるか否かを判断して出力する段階を含むことを特徴とする。
【0011】
ここで、前記(b)段階は(b1)前記第1及び第2顔映像情報を前記顔映像情報に含まれた顔の構成成分別に分割して第1及び第2分割映像情報を生成する段階、(b2)前記第1及び第2分割映像情報にPCAを行い、前記第1及び第2分割映像情報にて高周波成分が除去された第1及び第2低帯域フィルタリング映像情報を生成する段階、(b3)前記第1及び第2分割映像情報からそれに対応する前記第1及び第2低帯域フィルタリング映像情報を減算し、前記第1及び第2分割映像情報にて高周波成分だけ残っている第1及び第2残余映像情報を生成する段階及び(b4)前記第1及び第2残余映像情報にさらにICAを行い、前記第1及び第2分割映像情報に対応する第1特徴情報を生成し、前記第1及び第2分割映像情報にそれぞれ対応する第1特徴情報の集合である第2特徴情報を発生させる段階を含むことを特徴とする。
【0012】
そして、前記(c)段階は(c1)前記第1及び第2顔映像情報の構成成分により分割された分割映像情報それぞれに対応する第1特徴情報をベクトルで表示する段階、(c2)前記第1及び第2顔映像情報間の同じ構成成分別に対応する1対のベクトルの内積値を前記ベクトルの大きさ値で割った値である第1結果値を求める段階及び(c3)前記第1結果値の和を求め、前記和が所定の基準値より大きい場合には前記第1及び第2顔映像情報が同一人のものであると判断する段階を含むことを特徴とできる。
【0013】
ここで、前記(c3)段階は前記第1結果値それぞれに所定の加重値をかけた結果値を求め、前記和が所定の基準値より大きい場合には前記第1及び第2顔映像情報が同一人のものであると判断する段階を含むことを特徴とできる。
【0014】
前記課題を解決するための本発明による所定の顔映像に対する構成成分基盤PCA/ICAを利用した顔検索方法は、(a)少なくとも一人以上の人物の顔を撮影した顔映像情報及び前記人物の身上(identification)に関する情報を保存したデータベースを備える段階、(b)前記データベースから検索する任意の顔映像を入力される段階、(c)前記検索する顔映像情報に関して構成成分基盤PCA/ICAを行って第2特徴情報を発生させる段階、(d)順次前記データベースに保存されている顔映像情報を読み込み、前記顔1映像情報に構成成分基盤PCA/ICAを行って第2特徴情報を発生させる段階、(e)前記検索する顔映像情報に対応する第2特徴情報と前記DBの顔映像情報に対応する第2特徴情報とを比較して前記2つの顔映像が同一人のものであるか否かを判断する段階及び(f)前記判断結果、前記2つの顔映像が同一人のものであると判断されれば、前記データベースに保存されている前記顔映像に対応する身上情報を読み込んで出力する段階を含むことを特徴とする。
【0015】
ここで、前記(c)段階及び(d)段階にて所定の顔映像情報から構成成分基盤PCA/ICAを行って発生される第2特徴情報は、(aa)前記顔映像情報を前記顔映像の構成成分別に分割して分割映像情報を生成する段階、(ab)前記分割映像情報にPCAを行い、前記分割映像情報にて高周波成分を除去した低帯域フィルタリング映像情報を生成する段階、(ac)前記分割映像情報から前記分割映像情報に対応する低帯域フィルタリング映像情報を減算し、前記分割映像情報に対応する残余映像情報を発生させる段階、(ad)前記分割映像情報にそれぞれ対応する残余映像情報にICAを行い、ICA係数行列である第1特徴情報を生成し、前記第1特徴情報の集合を第2特徴情報とする段階を含むことを特徴とできる。
【0016】
また、前記(e)段階は(e1)前記検索する顔映像情報及び前記DBの顔映像情報の構成成分により分割された分割映像情報それぞれに対応する第1特徴情報をベクトルで表示する段階、(e2)前記検索する顔映像情報及び前記DBの顔映像情報間の同じ構成成分別に対応する1対のベクトルの内積値を前記ベクトルの大きさ値で割った値である第1結果値を求める段階及び(e3)前記第1結果値の和を求め、前記和が所定の基準値より大きい場合には前記第1及び第2顔映像情報が同一人のものであると判断する段階を含むことを特徴とできる。
【0017】
また、前記(e3)段階は前記第1結果値それぞれに所定の加重値をかけた結果値を求め、前記和が所定の基準値より大きい場合には前記検索する顔映像情報及び前記DBの顔映像情報が同一人のものであると判断する段階を含むことを特徴とできる。
【0018】
前記課題を解決するための本発明による所定の顔映像に対する構成成分基盤PCA/ICAを利用した顔検索方法は、(a)少なくとも一人以上の人物の顔映像に対応する第2特徴情報とそれに対応する前記人物の身上(identification)情報とを保存しているデータベースを備える段階、(b)前記データベースから検索する任意の顔映像を入力される段階、(c)前記検索する顔映像に関して構成成分基盤PCA/ICAを行って第2特徴情報を求める段階及び(d)前記データベースに保存されている第2特徴情報と検索する顔映像に対応する第2特徴情報間の類似程度により前記検索する顔映像の人と同じ人の顔映像に対応する第2特徴情報を検索して出力する段階を含むことを特徴とできる。
【0019】
前記特徴情報生成方法、顔認識方法及び顔検索方法は、それぞれ、コンピュータで実行可能なプログラムとして提供することが可能であり、そのようなコンピュータプログラムを記録したコンピュータ読取可能な記録媒体(または伝送媒体)で提供可能である。
【0020】
前記課題を解決するための本発明による所定の顔映像に対する構成成分基盤PCA/ICAを利用した特徴情報生成装置は、入力された所定の原顔映像情報を前記顔映像情報に含まれた顔の構成成分別に分割して分割映像情報を生成する映像分割部、前記分割映像情報にPCAを行い、前記分割映像情報にて高周波成分が除去された低帯域フィルタリング映像情報を生成する低帯域フィルタリング部、前記分割映像情報からそれに対応する前記低帯域フィルタリング映像情報を減算し、前記分割映像情報にて高周波成分だけ残っている残余映像情報を生成する残余イメージ生成部及び前記残余映像情報にさらにICAを行い、前記分割映像情報に対応する第1特徴情報を生成し、前記第1特徴情報の集合である第2特徴情報を発生させるICA係数行列計算部を含むことを特徴とする。
【0021】
前記課題を解決するための本発明による所定の顔映像に対する構成成分基盤PCA/ICAを利用した顔認識装置は、認識する対象になる第1顔映像情報と前記第1顔映像情報と比較するのに基準になる第2顔映像情報とを入力される入力部、前記第1及び第2顔映像情報それぞれに構成成分基盤PCA/ICAを行い、前記構成成分に対応するICA係数行列の集合である第2特徴情報を抽出する特徴情報生成部、前記第1及び第2顔映像に対応する第2特徴情報間に類似性があるか否かを判断して出力する比較部を含むことを特徴とする。
【0022】
ここで、前記特徴情報生成部は入力された原顔映像情報を顔構成成分別に分割して分割映像情報を発生させる映像分割部、前記分割映像情報にPCAを行い、前記分割映像情報にて高周波成分が除去された低帯域フィルタリング映像情報を生成する低帯域フィルタリングイメージ生成部、前記分割映像情報から前記低帯域フィルタリング映像情報を減算し、前記分割映像情報にて高周波成分だけ残っている残余イメージ情報を生成する残余イメージ生成部及び前記残余映像情報にさらにICAを行い、前記分割映像情報に対応するICA係数行列である第1特徴情報を発生させ、前記第1特徴情報の集合である第2特徴情報を生成するICA係数行列計算部を含むことを特徴とする。
【0023】
前記課題を解決するための本発明による所定の顔映像に対する構成成分基盤PCA/ICAを利用した顔検索装置は、顔を検索するのに必要な顔映像情報DBを構築するのに使われる顔映像情報または前記DB構築するのに使われる顔映像情報のうち検索する対象になる顔映像を入力される入力部、前記入力部から前記DBを構築するのに使われる顔映像情報または前記検索する対象になる顔映像情報を提供され、前記顔映像情報に構成成分基盤PCA/ICAを行い、前記顔映像情報に対応する第2特徴情報を生成する特徴情報生成部、前記特徴情報生成部から前記DBを構築するのに使われる顔映像情報に対応する第2特徴情報を提供されてそれをDBに保存するDB管理部、前記特徴情報生成部から前記検索する対象になる顔映像情報に対応する第2特徴情報を提供され、前記DBに保存されている第2特徴情報のうち前記提供された第2特徴情報と類似した程度が所定の基準値より大きい第2特徴情報を検索し、前記第2特徴情報に対応する人と前記検索する対象になる顔映像の人とが同じ人と判断する比較部を含むことを特徴とする。
【0024】
ここで、前記顔検索装置において、前記DB管理部は前記入力部から前記DBを構築する顔映像情報を提供されて保存し、前記比較部は前記DBに保存されている顔映像情報を順次読み込んで特徴情報生成部に提供した後で前記特徴情報生成部から前記顔映像情報に対応する第2特徴情報を提供され、前記検索する対象になる顔映像情報の第2特徴情報と比較して前記顔映像情報間の類似程度を判断し、前記顔映像情報が同じ人のものであるか否かを判断して出力し、前記特徴情報生成部は前記入力部から前記検索する対象になる顔映像情報及び前記比較部から前記DBから読み込まれた顔映像情報を提供され、前記顔映像情報に構成成分基盤PCA/ICAを行い、前記顔映像情報に対応する第2特徴情報を生成して前記比較部に提供することを特徴とできる。
【0025】
また、前記特徴情報生成部は、前記DBを構築するのに使われる顔映像または前記検索する対象になる顔映像を前記顔映像に含まれた顔の構成成分別に分割して分割映像を生成する映像分割部と、前記分割映像にPCAを行い、前記分割映像から高周波成分が除去された低帯域フィルタリング映像を生成する低帯域フィルタリング部と、前記分割映像からそれに対応する前記低帯域フィルタリング映像を減算し、前記分割映像で高周波成分だけ残っている残余映像を生成する残余イメージ生成部と、前記残余映像に再びICAを行い、前記分割映像に対応する第1特徴情報を生成し、前記第1特徴情報の集合である第2特徴情報を発生させるICA係数行列計算部とを含むことを特徴とする。
【0026】
【発明の実施の形態】
以下、添付された図面を参照しつつ本発明の実施例を詳細に説明する。本発明は姿勢変化、また照明変化をも扱う新しい接近法を提示する。
【0027】
第一に、顔イメージ空間を描写して照明変化と組み合わせることによって判別性を向上させるために、2次ICAを採択している。さらに、姿勢変化を克服するために、構成成分に基づいた設計として、MPEG−7顔叙述子の利用を提示している。構成成分基盤のMPEG−7顔叙述子とは、姿勢/照明変化を効果的に補償して顔イメージをフルイメージ解像度で暗号化するために顔領域を目、鼻、額、口のような顔成分で分割するものである。
【0028】
以下では、本発明で使用する2次ICA叙述子について、詳細に説明する。
【0029】
元来のICAがグレースケールイメージから独立成分(すなわち、独立的基礎要素)を減じたものであった一方、提示された2次ICAは残りのイメージを高帯域−通過周波数成分に対応すべく適用されるので、それは照明変化に強い。
【0030】
まずICAについて説明すれば、M個のイメージの組み合わせが基礎イメージを抽出するトレーニングイメージとして与えられると仮定し、φiをi番目トレーニングイメージに対応するラスタスキャン(raster−scan)されたベクトルとする。このとき、ベクトル次元はイメージの画素の数であり、これをNとすると、典型的に、M<Nとなる。イメージ組み合わせの平均ベクトルは
である。平均ベクトルから全てのイメージを除いた後、すなわちXi=φi−m平均列を有したM×N行列 X=[x1,...,xM]Tを有し、データの共分散行列はXTXと表現される。一般的に、ICAはN×Nが逆の行列W(0)を発見することを目標とし、それはU(0)=W(0)Xの列は統計的に独立であり、顔イメージXは基礎イメージとして使用される。すなわち、W(0)−1U(0)は独立的な列U(0 )により表現される。顔イメージxのICA表現は、図2に示すように、基礎イメージui=(i=1,...,N)の線形組み合わせとして表現される。本発明では照明に変わらない顔表現をなすために元来のICAを2次ICAに拡張する。
【0031】
以下では、本発明に適用される2次ICAを詳細に説明する。
【0032】
元来の顔イメージであるXに関してPCAを行って、M個のトレーニングイメージの固有値及び固有ベクトルを抽出する。顔イメージの低周波成分を表現するためにM1<Mである第1最大固有ベクトルが選択され、M1に対するデータの投影であるリーディング固有ベクトルは次の数式1のように表現される。
【0033】
【数1】
【0034】
ここで、
は選択された固有ベクトルの集合を示し、Piはi番目の最大固有値に該当する固有ベクトルを示す。独立ソースの数字を学習可能で扱いやすい(tractable)数字に減少させ、単純な再構成を提供するためにICAはXの代わりに
に関して行われる。これはM1に次の数式2で表現される
を提供する。
【0035】
【数2】
【0036】
ここで、
統計的に独立となるよう変換可能なマトリックスM1×M1を示す。
BellとSejnowskiとのアルゴリズムにより評価され、
トレーニングイメージの低帯域フィルタリングされたバージョンの統計的に独立的な基礎イメージを含む。
数式1の両辺に
をかけ合わせることにより計算され、それは次の数式3のように表現される。
【0037】
【数3】
【0038】
すなわち、
の一例を図3に示す。
【0039】
次に、高域フィルタリングされたイメージに該当する残余イメージは低域フィルタリングされたイメージに該当する再構成されたイメージから原顔イメージを減算することにより計算され、ICAは残余イメージに関して行われる。i番目の残余イメージは
と表現される。残余イメージに該当する残余マトリックスは
#15
と定義される。1次ICA変換と類似し、
に関してICAを行う時、P′iは残余データΓのi番目最大固有値に該当する固有ベクトルを示し、
次の数式4のように表現される。
【0040】
【数4】
【0041】
ここで
独立基礎イメージM2を示し、
が互いに統計的に独立的であるべく変換可能なウエートマトリックスM2×M2を示す。
から、上の数式4は原マトリックスXに関して次の数式5のように表現される。
【0042】
【数5】
【0043】
すなわち、
従って、2次ICA変換マトリックスは
と表現される。図4の(a)は原顔映像Xを示しており、図4の(b)は
を示しており、図4の(c)は残余イメージГを示している。
【0044】
ビット率を下げ、ICA表現の性能を改善するために、クラス間対クラス内分散の比により定義される最高クラス分別度K1,K2を有するICA係数の部分集合が
とそれぞれ表現される。
【0045】
【数6】
【0046】
その意味は同一である。図5Aは2次PCA基本イメージを示し、図5BはICAの基本イメージを示す。
【0047】
最終的に2次ICA表現は基本イメージである
と係数行列とより構成される。この時の係数行列を数式7に示す。
【0048】
【数7】
【0049】
ここで、
は変換行列を示す。従って、基本イメージUが固定されていれば、顔イメージXは数式7から2次ICA係数Bにより表現される。この時、Tはトレーニングイメージセットからあらかじめ計算された値である。以下では、上のICA係数行列を第1特徴情報とも呼ぶ。
【0050】
ICA係数b1,b2(b1=x1T,b2=x2T)により表現される2つの顔イメージx1,x2が与えられたとすると、類似性d(b1,b2)はそれらの交差相関を次の数式8を通じて計算することにより測定される。
【0051】
【数8】
【0052】
ここでb1・b2はベクトルb1とb2の内積を示し、
ベクトルb1とb2の大きさ(norm)をそれぞれ示す。
【0053】
以下では、顔認識において姿勢変化に強靭な構成成分基盤のPCA/ICA顔認識方法及びその装置に関して説明する。
【0054】
本発明では顔認識におけるポーズ変化を処理して顔イメージを効果的に表現するために成分基盤の技術を2次のICAと結合させた。そして、顔イメージを顔成分、すなわち額、目、鼻、頬、あご、そして口に分離した。それぞれの成分は該当する2次のICA基本イメージで投影されるが、これは以前のトレーニングセットにより得られる。
【0055】
図6Aは元来の顔イメージを示し、図6Bは上の図6Aの元来の顔イメージのうち選択された14個の顔構成成分を示している。
【0056】
図6A及び図6Bに示すように、本発明では顔イメージを14個の顔成分に分離した。データ集合での従属性を避けるために、IEEEコンピュータビジョン国際学術大会のHeiseleらにより定義されたた成分が主に使われた(すなわち、眉毛、目、鼻、口)。それ以外の成分である額、頬、そしてあごはIEEE国際音声音響信号処理学術大会のNefianとDaviesとが定義したものと類似しているとして選択された。成分の位置が意味のある顔特徴を含まねばならないので、いくつかの基準点を手で直接位置させねばならず、顔成分の平均位置がこれを基に計算される。計算はただトレーニングデータセットにより行われる。
【0057】
イメージXが与えられ、このイメージがL個の顔成分に分離されていると仮定する。2次のICAがイメージXのi番目顔成分C(i)にて行われる時、成分は2次のICA変換T(i)による基本イメージ行列U(i)を有した係数ベクトルb(i )により表現される。この時、U(i)とT(i)とはi番目顔成分のトレーニングセットから計算される。結果的に、顔イメージXは基本イメージであるU(1),...,U(L)を有した係数ベクトルb(1),...,b(L)の集合と表現される。以下では、上の顔イメージXの構成成分別のICA係数行列の集合を上の顔イメージXを特徴づける第2特徴情報とも呼ぶ。
【0058】
ICA係数b1,b2と表現された2つの顔イメージX1,X2が与えられると、類似性d(b1,b2)は次の数式9を利用して該当成分間の相互関係を計算することにより測定される。
【0059】
【数9】
【0060】
ここで、b1 (1),b2 (1)はそれぞれ顔イメージX1,X2のi番目顔成分の2次ICA係数を示し、Wiはi番目顔成分の加重成分を示す。
【0061】
加重成分を決定するために、成分はクラス分別度により整列されるが、クラス間とクラス内との偏差比により決められたクラス分別度はトレーニングデータセットからだけ計算される独立された基本イメージから選択される。
【0062】
成分を順に累積させてトレーニングデータセットから抽出性能を計算する時、その部分での激しい表情変化に起因した口成分を追加することを除き、成分が多いほどANMRR(Average Normalized Modified Retrieval Rank)とFIR(Formula Image Retrieval)において一層よい性能を示す。現在、本発明では口を除いてはあらゆる成分を同等に選択した。すなわちWi=1,(i=1,...,13)であり、W14(口に関する加重成分)=0である。成分数と加重成分とは今後最適化される予定である。
【0063】
図7はICAの効果的な顔イメージ表現方法を説明するための概念図である。
【0064】
以下では、本発明を実験した結果について説明する。
【0065】
本実験の構成を、表1に要約して示す。そして、2次ICA顔叙述子に基づいた構成成分と2次ICAとの2実験結果を開始する。付加的に、本構成成分基盤アプローチのポテンシャル・パフォーマンス・インプルーブメントを調べるために、手動ランドマークにより行われたあらゆる構成成分が検出されることを意味するシミュレーションされた結果を提示する。実験1と2とを通じて本願の他提案、すなわちNECとPOSTECHそれぞれの結果を比較対照することとする。トレーニングセットのように200イメージがバージョン1の叙述子(face_0066_01〜face_0085_5そしてface_0181_01〜face_0200_5)により使われるトレーニングセットに使われる。表1に示すように各テストセットは各実験により変えてある。他の実験はVCE−4に拡張されたMPEG−7faceデータセット上で行われる。一方、以前の実験と同じ試験セットを実験3で使用し、実験4は KameiによりVCE−4 reflectorとして提案された新しく定義されたトレーニングセットを行う。
【0066】
【表1】
【0067】
表2及び3は、本発明にて提案された方法と異なる提案に関する実験1と実験2の結果を比較している。実験1及び実験2にて2次ICA顔叙述子の結果は pose setにおいてはいくつかの他の提案ほどよくないが、illumination setにおいては他の提案(バージョン1,NECそして POSTECH)の結果より良い。しかし、構成成分基盤顔叙述子の結果は両データセットにおいて他の提案よりすぐれる。そして、手動調整により達成される結果は調整のない component−based face descriptorの結果よりすぐれる。従って、構成成分基盤2次ICA顔叙述子は照度変化において最善の結果を提供し、2次ICA顔叙述子は他の提案と対等な結果を提供すると結論づけられる。ポーズデータセットにおいて、2次ICAがよくない結果を与える理由は、バージョン1での定義されたトレーニングデータセットはテストデータセットに姿勢変化が分かるのに十分な姿勢データセットを含んでいないということである。表4に開示されているように、もしトレーニングデータセットの更新なしにテストデータセットを拡張するならば、似たような結果を得る。
【0068】
【表2】
【0069】
【表3】
【0070】
【表4】
【0071】
上の表4は第3実験の結果を示しており、上の表4にてトレーニングデータセットはVCE reflectorで提案されたKameiのように拡張される。次のような理由に基づいてトレーニング及びテストデータセットの新しい定義が妥当となる。
【0072】
第一に、トレーニングデータセットは学習されるのに十分な姿勢変化情報を含む。第二に、照度変化と姿勢変化データセットとは区別されず、そして実際の応用での観点からみてもこれが自然である。
【0073】
表5は実験4の結果を示し、2nd order ICA及び構成成分に基づいた 2nd order ICA顔叙述子いずれでも改善されることは明確である。特徴摘出複合性を減らすためには、構成成分に基づいたICA方法での実験は128×128(1/4)及び64×64の(1/16 times)画素まで256×256の画素に元来のイメージの副標本を作った後で実行される。
【0074】
【表5】
【0075】
上述の通り、本発明による照度及び姿勢変化に強靭な2次ICA及び構成成分基盤の2次ICA顔叙述子は、本発明にて採択したアルゴリズムの正確性と強靭性を示す実験結果を示している。
【0076】
以下では、図面を参照して本発明の望ましい実施例を詳細に説明する。
【0077】
図8は本発明による2次ICA特徴情報を求める方法を示した望ましい実施例のフローチャートである。まず原映像Xを入力される(801)。そして、原映像XにPCAを行って
を得る(802)。その後、原映像Xの情報から
の情報を減算して残余イメージΓを得る(803)。そして、残余イメージΓにさらにICAを行い、前記の原映像Xを特徴づける2次ICA特徴情報である基本イメージ及びICA係数行列(前記顔映像に対応する第1特徴情報)を求める(804)。
【0078】
ここで、801段階ないし804段階までのプロセスの細部については、前記の数式1ないし数式8を参照してすでに詳細に説明した。
【0079】
図9は本発明による構成成分基盤PCA/ICAを利用した顔映像の第2特徴情報を抽出するフローチャートである。まず、所定の顔映像を入力される(901)。そして、前記の顔映像を構成成分別に分離する映像分割を実施する(902)。その後、分割された顔映像の構成成分別に前記の図8にて説明した2次ICAを行って構成成分別のICA係数行列(第1特徴情報)を抽出する(903)。そして、前記の第1特徴情報を前記顔映像を特徴づける第2特徴情報と認識する(904)。
【0080】
図10は本発明による構成成分基盤PCA/ICAを利用した顔映像の顔を認識する方法のフローチャートである。
【0081】
認識する対象になる顔映像と前記の顔映像とを比較して認識の基準になる顔映像を入力される(1001)。そして、前記の2つの顔映像に関して前記図9の902段階でのように前記の2つの顔を構成成分別に分割する(1002)。そして、前記2つの顔映像別に各構成成分に関して2次ICAを行って前記の2つの顔映像の構成成分別にICA係数行列(第1特徴情報)を得、各顔映像に対応する第2特徴情報を抽出する(1003)。その後、前記2つの顔の第2特徴情報に基づいて前記2つの顔が同一人のものであるか否かを判断する(1004)。
【0082】
ここで、前記2つの顔映像が同一人を撮影したものであるか否かは上の数式9を計算して行い、前記数式9の計算結果値が所定の値以上の場合には前記2つの顔映像が同一人のものであると判断できる。
【0083】
図11は本発明による構成成分基盤PCA/ICAを利用して顔を検索する方法の望ましい一実施例のフローチャートである。
【0084】
まず、少なくとも一人以上の人物の顔映像及び前記人物の身上(identification)に関する情報である身上情報を保存したDBを備える(1101)。そして、検索する任意の顔映像を入力される(1102)。その後、前記検索する顔映像に関して上の図10にて説明した構成成分基盤PCA/ICAを行って第2特徴情報を抽出する(1103)。そして、前記DBの顔映像に順次構成成分基盤PCA/ICAを行って第2特徴情報を抽出し、前記検索する顔映像の第2特徴情報と比較して前記の検索する任意の顔映像と同一人を撮影した顔映像とが前記のDBにあるか否かを判断する(1104)。そして、前記DBに同一人のものであると判断される顔映像がある場合、それに対応する前記のDB上の身上情報を出力する(1105)。
【0085】
ここで、2つの顔映像が同一人のものであるか否かを判断する方法は前記の数式9を利用し、前記の数式9の結果が所定の一定値以上になれば同一人のものであると判断できる。
【0086】
図12は本発明による構成成分基盤PCA/ICAを利用して顔を検索する方法の望ましい他の実施例のフローチャートである。
【0087】
まず、少なくとも一人以上の人物の顔映像及び前記人物の身上(identification)に関する情報である身上情報を入力される(1201)。そして、上の顔映像に関して構成成分基盤PCA/ICAを行って前記の顔映像に対応する第2特徴情報を求め、前記の第2特徴情報と前記身上情報とを連繋させて保存してDBを備える(1202)。その後、検索する任意の顔映像を入力される(1203)。そして、検索する顔映像に関して構成成分基盤PCA/ICAを行って第2特徴情報を求める(1204)。そして、前記検索する顔映像に対応する第2特徴情報と類似性がある前記DB上の第2特徴情報を検索してその検索された結果を出力する(1205)。
【0088】
図13は本発明による2次ICAを利用した顔映像の第1特徴情報を抽出する装置のブロック構成図である。
【0089】
本発明による所定の映像から2次ICA特徴情報を求める装置は低帯域フィルタリングイメージ生成部1301、残余イメージ生成部1302、ICA係数行列計算部1303を含む。
【0090】
低帯域フィルタリングイメージ生成部1301は任意の映像情報を入力され、これにPCAを行って前記の入力された映像から高周波成分が除去された低帯域フィルタリングイメージを生成する機能を行う。
【0091】
残余イメージ生成部1302は前記の入力された映像情報から前記の低帯域フィルタリングイメージ生成部901にて生成された低帯域フィルタリングイメージ映像情報を減算して残余イメージを生成する機能を行う。
【0092】
ICA係数行列生成部1303は前記の残余イメージにICAを行って基本イメージ及びICA係数行列を求める機能を行う。
【0093】
図14Aは本発明による構成成分基盤PCA/ICAを利用した顔映像の第2特徴情報を抽出する装置の望ましい実施例のブロック構成図である。
【0094】
本発明による構成成分基盤PCA/ICAを利用した顔映像の第2特徴情報生成装置は映像分割部1411、2次ICA実行部1412より構成される。
【0095】
映像分割部1411は入力された顔映像に含まれた顔の構成成分別に前記の顔映像を分割する機能を行う。ここで、顔映像を分割する方法は前述の通りIEEEコンピュータビジョン国際学術大会の Heiseleらにより定義された成分とIEEE国際音声音響信号処理学術大会の Nefianと Daviesとが定義したものとを選択でき、前記構成成分の位置が意味のある顔特徴を含まねばならないので、いくつかの基準点を手作業で入力されうる。
【0096】
2次ICA実行部1412は前記の図13にて示された2次ICAを利用した第1特徴情報抽出装置と同じ機能を行うが、ただここでは前記の映像分割部1411にて分割された構成成分別顔映像情報それぞれに関して前記の2次ICAを行うことに差がある。
【0097】
図14Bは図14Aのブロック構成図を細部的に示した細部ブロック構成図であり、映像分割部1421、低帯域フィルタリング部1422、残余イメージ生成部1423及びICA係数行列計算部1424を含み、それらブロックは図13及び図14Aに示された対応するブロックと同じ機能を行う。
【0098】
図15は本発明による構成成分基盤PCA/ICAを利用した顔認識装置の望ましい実施例のブロック構成図である。
【0099】
本発明による構成成分基盤PCA/ICAを利用した顔認識装置は入力部1501、特徴データ生成部1502、比較部1503を含む。
【0100】
入力部1501は外部から認識対象になる任意の顔映像及び前記認識の基準になる顔映像(前記の認識対象になる顔映像が同一人のものであるか否かを判断するのに基準になる顔映像)を入力されて特徴データ生成部1502に提供する機能を行う。
【0101】
特徴データ生成部1502は前記2つの顔映像に関して前記の図14Aまたは図14Bにて示されている本発明による構成成分基盤PCA/ICAを利用した第2特徴情報を生成する装置と同じ構成及び機能を行う。すなわち、前記の特徴データ生成部1502は前記の入力部1001から提供された2つの原顔映像に関して構成成分別に前記の顔映像を分割し、前記の構成成分別に分割された顔映像それぞれに関してPCAを行って低帯域フィルタリングイメージを生成させ、前記2つの原顔映像から前記それぞれの低帯域フィルタリングイメージを減算して残余イメージをそれぞれ生成させた後、前記の残余イメージにICAをさらに行って前記の構成成分別顔映像それぞれに対応する基本イメージ及びICA係数行列(第1特徴情報)を求める機能を行う。そして、前記2つの全体顔映像に対応する第1特徴情報の集合である第2特徴情報を抽出する。
【0102】
比較部1503は前記の比較対象になる顔映像の第2特徴情報と前記の比較基準になる顔映像の第2特徴情報とを比較して前記の2映像が同一人のものであるか否かを判断してその結果を出力する機能を行う。
【0103】
図16は本発明による構成成分基盤PCA/ICAを利用した顔検索装置の望ましい実施例のブロック構成図である。
【0104】
入力部1601は顔を検索するのに必要な顔映像情報DBを構築するのに必要な顔映像を入力されてDB管理部1603、あるいは特徴情報生成部1602に提供する機能を行う。
【0105】
また、入力部1601は検索する対象になる顔映像を入力されて前記の特徴情報生成部1602に提供する機能を行う。
【0106】
特定情報生成部1602は前記の入力部1601から提供された顔映像から前記の図9にて示されている過程を通じて第2特徴情報を抽出する。ただし、前記の提供された顔映像が顔映像情報DBに保存するためのものである場合には前記の第2特徴情報を前記のDB管理部1603に提供し、そうでない場合には前記の第2特徴情報を比較部1604に提供する機能を行う。また、比較部1604から前記顔映像情報DBから読み込まれた顔映像情報を提供され、前記の顔映像に対する第2特定情報を抽出して前記の比較部1604にさらに提供する機能を行う。
【0107】
DB管理部1603は前記の入力部1601から提供された顔映像情報または前記の特徴情報生成部1602から提供された第2特徴情報を顔映像情報DBに保存して管理する機能を行う。
【0108】
比較部1604は前記の特徴情報生成部1602から提供された検索対象になる顔映像の第2特徴情報を提供され、前記の第2特徴情報をもとに顔映像情報DBにて前記の顔映像と同一人の顔映像を検索する機能を行う。この時、前記の顔映像情報DBに顔映像情報だけ保存されている場合には、前記の顔映像情報を読み込み、前記の特徴情報生成部1602に提供した後で前記の提供した顔映像情報に対応する第2特徴情報を提供されて前記の検索対象になる顔映像と同一人のものであるか否かを確認し、前記の顔映像情報DBにそれぞれの顔映像に対応する第2特徴情報を保存している場合には、前記の第2特徴情報だけを読ん込んで前記の検索対象になる顔映像情報の第2特徴情報と比較して前記の2映像が同一人を撮影したものであるか否かを確認する。
【0109】
図17はポーズ別顔成分の移動値を計算する方法を説明するためのフローチャートである。
【0110】
まず、さまざまなポーズの顔映像を入力され(1701)、前記の入力された顔映像のポーズを判別して(1702)ポーズ別に分類された顔映像情報を得る。この時、顔映像のポーズ判別は外部の人から入力され、所定方法で自動的に判別できる。
【0111】
その後、前記判別されたポーズにより前記の顔映像の顔特徴点を抽出して(1703)それぞれの映像別に特徴点の集合を得る。この時もやはり、外部の人から前記の顔映像の特徴点に関する情報を入力され、所定方法により自動的に判別できる。
【0112】
その後、前記判別されたポーズ別顔映像の顔特徴点の平均位置を計算して(1704)ポーズ別顔特徴点の平均値情報を得る。そして、前記の平均値情報をふまえてポーズの変化による顔の構成成分の移動値情報を計算して(1705)ポーズ別顔成分の移動値情報を得る。
【0113】
一方、前述した本発明の実施例はコンピュータにて実行できるプログラムに作成可能であり、コンピュータで読み取り可能な記録媒体を利用して前記プログラムを動作させる汎用ディジタルコンピュータにて具現できる。
【0114】
前記コンピュータで読み取り可能な記録媒体は磁気記憶媒体(例えばROM、フロッピーディスク、ハードディスクなど)、光学的判読媒体(例えば、CDROM、DVDなど)及びキャリアウェーブ(例えば、インターネットを介した伝送)のような媒体を含む。
【0115】
今まで本発明に関してその望ましい実施例を中心で説明した。本発明が属する技術分野にて当業者は本発明が本発明の本質的な特性から外れない範囲で変形された形態で具現できることが理解される。従って、開示された実施例は限定的な観点でなく説明的な観点で考慮さるべきである。本発明の範囲は前述した説明ではなくして特許請求範囲に示されており、それと同等な範囲内にあるあらゆる差異点は本発明に含まれたものと解釈さるべきである。
【0116】
【発明の効果】
本発明でのように、2次のICA/PCAを有した構成成分基盤の技術は顔成分を分離してエンコーディングするので、ポーズ変化はそれぞれの顔成分中での関係において変化がほとんどないので、本発明の方法はポーズ変化に堅実な結果をもたらす。その上、構成成分の位置が顔成分感知技術を使用して整列されている時は性能が向上されうる。
【0117】
一方、分離された顔成分は他の成分とオーバーラップされ、隣接した顔成分間の関係を部分的にエンコーディングするので、それぞれの個人を区別するのに必要な特性を表現するための重要な関係が保存される。従って、本発明の叙述子では個人の同一性を表現するのに最小限の幾何学的情報だけ保存されるのに比べ、ポーズ変化による幾何学的情報は削除されてもよい効果がある。
【0118】
そして、顔成分の全体顔イメージより統計的な複雑度があまり高くないために、ICAを学習することが全体顔領域を学習することよりさらにやさしい効果もある。
【0119】
図18は顔映像を構成成分別に分割する方法による性能改善を説明するための参考図である。図18を参照すれば、全体映像の参照番号1801を構成成分別に分割した例が参照番号1802,1803,1804である。参照番号1802は全体映像の参照番号1801と同じであり、参照番号1803は全体映像の参照番号1801の鼻と口部分の映像で、参照番号1804は全体映像である参照番号1801の目部分の映像である。本発明によれば、参照番号1802のように全体映像を一つの構成成分として取扱って処理する既存の方法より、顔映像のような部分を分割して使用する場合にも改善された効果があり、顔映像をその構成成分別に分割して処理するが、顔映像のポーズ変化に対する補償がない場合にも既存の方法より改善された効果がある。
【図面の簡単な説明】
【図1】(a)はPCAを示す図面であり、(b)はICAを示す図面である。
【図2】ICAを概念的に示した図面である。
【図3】上列は1次PCAの最初10個の基礎イメージを示し、下列は1次ICAの最初10個の基礎イメージを示した図面である。
【図4】(a)は元来の顔イメージを示し、(b)はICAの最初10個の重要な構成成分を通じて再構成されたイメージを示し、(c)はICAの残りのイメージを示す図面である。
【図5A】2次PCAの選択された30個の基礎イメージを図示する図面である。
【図5B】2次ICAの選択された30個の基礎イメージを図示する図面である。
【図6A】元来の顔イメージを図示する図面である。
【図6B】Aの元来の顔イメージのうち選択された14個の顔構成成分を示す図面である。
【図7】ICAの効果的な顔イメージ表現方法を説明するための概念図である。
【図8】本発明による2次ICAを利用した所定映像の第1特徴情報を求める方法を示した望ましい実施例のフローチャートである。
【図9】本発明による構成成分基盤PCA/ICAを利用した顔映像の第2特徴情報を抽出するフローチャートである。
【図10】本発明による構成成分基盤PCA/ICAを利用した顔映像の顔を認識する方法のフローチャートである。
【図11】本発明による構成成分基盤PCA/ICAを利用して顔を検索する方法の望ましい一実施例のフローチャートである。
【図12】本発明による構成成分基盤PCA/ICAを利用して顔を検索する方法の望ましい他の実施例のフローチャートである。
【図13】本発明による2次ICAを利用した顔映像の第1特徴情報を抽出する装置のブロック構成図である。
【図14A】本発明による構成成分基盤PCA/ICAを利用した顔映像の第2特徴情報を抽出する装置の望ましい実施例のブロック構成図である。
【図14B】Aのブロック構成図を細部的に示した細部ブロック構成図である。
【図15】本発明による構成成分基盤PCA/ICAを利用した顔認識装置の望ましい実施例のブロック構成図である。
【図16】本発明による構成成分基盤PCA/ICAを利用した顔検索装置の望ましい実施例のブロック構成図である。
【図17】ポーズ別顔成分の移動値を計算する方法を説明するためのフローチャートである。
【図18】顔映像を構成成分別に分割する方法による性能改善を説明するための参考図である。
Claims (17)
- (a)入力された所定の原顔映像を前記顔映像に含まれた顔の構成成分別に分割して分割映像を生成する段階と、
(b)前記分割映像に主成分分析(PCA)を行い、前記分割映像から高周波成分が除去された低帯域フィルタリング映像を生成する段階と、
(c)前記分割映像からそれに対応する前記低帯域フィルタリング映像を減算し、前記分割映像で高周波成分だけ残っている残余映像を生成する段階と、
(d)前記残余映像にさらに独立成分分析(ICA)を行い、前記分割映像に対応する第1特徴情報を生成し、前記第1特徴情報の集合である第2特徴情報を発生させる段階と、を含むことを特徴とする構成成分基盤PCA/ICAを利用した特徴情報生成方法。 - (a)認識する対象になる第1顔映像と前記第1顔映像と比較するのに基準になる第2顔映像とを入力される段階と、
(b)前記第1及び第2顔映像それぞれに構成成分基盤PCA/ICAを行い、前記第1及び第2顔映像に対応する第2特徴情報を抽出する段階と、
(c)前記第1及び第2顔映像に対応する第2特徴情報間に類似性があるか否かを判断して出力する段階と、を含むことを特徴とする構成成分基盤PCA/ICAを利用した顔認識方法。 - 前記(b)段階は、
(b1)前記第1及び第2顔映像を前記顔映像に含まれた顔の構成成分別に分割して第1及び第2分割映像を生成する段階と、
(b2)前記第1及び第2分割映像にPCAを行い、前記第1及び第2分割映像から高周波成分が除去された第1及び第2低帯域フィルタリング映像を生成する段階と、
(b3)前記第1及び第2分割映像からそれに対応する前記第1及び第2低帯域フィルタリング映像を減算し、前記第1及び第2分割映像で高周波成分だけ残っている第1及び第2残余映像を生成する段階と、
(b4)前記第1及び第2残余映像にさらにICAを行い、前記第1及び第2分割映像に対応する第1特徴を生成し、前記第1及び第2分割映像情報にそれぞれ対応する第1特徴情報の集合である第2特徴情報を発生させる段階と、を含むことを特徴とする請求項2に記載の2次ICAを利用した顔認識方法。 - 前記(c)段階は、
(c1)前記第1及び第2顔映像情報の構成成分により分割された分割映像情報それぞれに対応する第1特徴情報をベクトルで表示する段階と、
(c2)前記第1及び第2顔映像情報間の同じ構成成分別に対応する1対のベクトルの内積値を前記ベクトルの大きさ値で割った値である第1結果値を求める段階と、
(c3)前記第1結果値の和を求め、前記和が所定の基準値より大きい場合には前記第1及び第2顔映像情報が同一人のものであると判断する段階と、を含むことを特徴とする請求項2に記載の構成成分基盤PCA/ICAを利用した顔認識方法。 - 前記(c3)段階は、
所定の加重値がそれぞれかけ合わされた第1結果の和を求め、前記和が所定の基準値より大きい場合には前記第1及び第2顔映像情報が同一人のものであると判断する段階を含むことを特徴とする請求項4に記載の構成成分基盤PCA/ICAを利用した顔認識方法。 - (a)少なくとも一人以上の人物の顔を撮影した顔映像情報及び前記人物の身上に関する情報を保存したデータベースを備える段階と、
(b)前記データベースから検索する任意の顔映像を入力される段階と、
(c)前記検索する顔映像情報に関して構成成分基盤PCA/ICAを行って第2特徴情報を発生させる段階と、
(d)順次前記データベースに保存されている顔映像情報を判読し、前記顔映像に構成成分基盤PCA/ICAを行って第2特徴情報を発生させる段階と、
(e)前記検索する顔映像に対応する第2特徴情報と前記DBの顔映像情報に対応する第2特徴情報とを比較して前記2つの顔映像が同一人のものであるか否かを判断する段階と、
(f)前記判断結果、前記2つの顔映像が同一人のものであると判断されれば、前記データベースに保存されている前記顔映像に対応する身上情報を読み込んで出力する段階と、を含むことを特徴とする構成成分基盤PCA/ICAを利用した顔検索方法。 - 前記第2特徴情報は、
(aa)前記顔映像を前記顔映像の構成成分別に分割して分割映像を生成する段階と、
(ab)前記分割映像にPCAを行い、前記分割映像から高周波成分を除去した低帯域フィルタリング映像を生成する段階と、
(ac)前記分割映像から前記分割映像に対応する低帯域フィルタリング映像を減算し、前記分割映像に対応する残余映像を発生させる段階と、
(ad)前記分割映像にそれぞれ対応する残余映像にICAを行い、ICA係数行列である第1特徴情報を生成し、前記第1特徴情報の集合を第2特徴情報とする段階と、を含むことを特徴とする請求項6に記載の構成成分基盤PCA/ICAを利用した顔検索方法。 - 前記(e)段階は、
(e1)前記検索する顔映像及び前記DBの顔映像の構成成分により分割された分割映像それぞれに対応する第1特徴情報をベクトルで表示する段階と、
(e2)前記検索する顔映像及び前記DBの顔映像間の同じ構成成分別に対応する1対のベクトルの内積値を前記ベクトルの大きさ値で割った値である第1結果値を求める段階と、
(e3)前記第1結果値の和を求め、前記和が所定の基準値より大きい場合には前記第1及び第2顔映像が同一人のものであると判断する段階と、を含むことを特徴とする請求項6に記載の構成成分基盤PCA/ICAを利用した顔検索方法。 - 前記(e3)段階は、
所定の加重値がそれぞれかけ合わされた第1結果値の和を求め、前記和が所定の基準値より大きい場合には前記検索する顔映像及び前記DBの顔映像が同一人のものであると判断する段階と、を含むことを特徴とする請求項8に記載の構成成分基盤PCA/ICAを利用した顔検索方法。 - (a)少なくとも一人以上の人物の顔映像に対応する第2特徴情報とそれに対応する前記人物の身上情報とを保存しているデータベースを備える段階と、
(b)前記データベースから検索する任意の顔映像を入力される段階と、
(c)前記検索する顔映像に関して構成成分基盤PCA/ICAを行って第2特徴情報を求める段階と、
(d)検索する顔映像に対応する第2特徴情報と類似した第2特徴情報を検索して出力する段階と、を含むことを特徴とする構成成分基盤PCA/ICAを利用した顔検索方法。 - 入力された所定の原顔映像情報を前記顔映像情報に含まれた顔の構成成分別に分割して分割映像情報を生成する映像分割部と、
前記分割映像情報にPCAを行い、前記分割映像情報にて高周波成分が除去された低帯域フィルタリング映像情報を生成する低帯域フィルタリング部と、
前記分割映像情報からそれに対応する前記低帯域フィルタリング映像情報を減算し、前記分割映像情報にて高周波成分だけ残っている残余映像情報を生成する残余イメージ生成部と、
前記残余映像情報にICAを行い、前記分割映像情報に対応する第1特徴情報を生成し、前記第1特徴情報の集合である第2特徴情報を発生させるICA係数行列計算部と、を含むことを特徴とする構成成分基盤PCA/ICAを利用した特徴情報生成装置。 - 認識する対象になる第1顔映像情報と前記第1顔映像情報と比較するのに基準になる第2顔映像情報とを入力される入力部と、
前記第1及び第2顔映像情報それぞれに構成成分基盤PCA/ICAを行い、前記構成成分に対応するICA係数行列の集合である第2特徴情報を抽出する特徴情報生成部と、
前記第1及び第2顔映像に対応する第2特徴情報間に類似性があるか否かを判断して出力する比較部と、を含むことを特徴とする構成成分基盤PCA/ICAを利用した顔認識装置。 - 前記特徴情報生成部は、
入力された原顔映像情報を顔構成成分別に分割して分割映像情報を発生させる映像分割部と、
前記分割映像情報にPCAを行い、前記分割映像情報にて高周波成分が除去された低帯域フィルタリング映像情報を生成する低帯域フィルタリングイメージ生成部と、
前記分割映像情報から前記低帯域フィルタリング映像情報を減算し、前記分割映像情報にて高周波成分だけ残っている残余イメージ情報を生成する残余イメージ生成部と、
前記残余映像情報にICAを行って前記分割映像情報に対応するICA係数行列である第1特徴情報を発生させ、前記第1特徴情報の集合である第2特徴情報を生成するICA係数行列計算部と、を含むことを特徴とする請求項12に記載の構成成分基盤PCA/ICAを利用した顔認識装置。 - 顔を検索するのに必要な顔映像情報DBを構築するのに使われる顔映像または前記DB構築するのに使われる顔映像のうち検索する対象になる顔映像を入力される入力部と、
前記入力部から顔映像を提供され、前記顔映像に構成成分基盤PCA/ICAを行い、前記顔映像に対応する第2特徴情報を生成する特徴情報生成部と、
前記特徴情報生成部から前記DBを構築するのに使われる顔映像に対応する第2特徴情報を提供されてそれをDBに保存するDB管理部と、
前記特徴情報生成部から前記検索する対象になる顔映像に対応する第2特徴情報を提供され、前記DBに保存されている第2特徴情報のうち前記提供された第2特徴情報と類似した程度が所定の基準値より大きい第2特徴情報を検索し、前記第2特徴情報に対応する人と前記検索する対象になる顔映像の人とが同じ人と判断する比較部とを含むことを特徴とする構成成分基盤PCA/ICAを利用した顔検索装置。 - 前記DB管理部は前記入力部から前記DBを構築する顔映像を提供されて保存し、
前記比較部は前記DBに保存されている顔映像を順次判読して特徴情報生成部に提供した後で前記特徴情報生成部から前記顔映像に対応する第2特徴情報を提供され、前記検索する対象になる顔映像の第2特徴情報と比較して前記顔映像間の類似程度を判断し、前記顔映像が同じ人のものであるか否かを判断して出力し、
前記特徴情報生成部は前記入力部から前記検索する対象になる顔映像及び前記比較部から前記DBから読み込まれた顔映像を提供され、前記顔映像に構成成分基盤PCA/ICAを行い、前記顔映像に対応する第2特徴情報を生成して前記比較部に提供することを特徴とする請求項14に記載の2次ICAを利用した顔検索装置。 - 前記特徴情報生成部は、
前記DBを構築するのに使われる顔映像または前記検索する対象になる顔映像を前記顔映像に含まれた顔の構成成分別に分割して分割映像を生成する映像分割部と、
前記分割映像にPCAを行い、前記分割映像から高周波成分が除去された低帯域フィルタリング映像を生成する低帯域フィルタリング部と、
前記分割映像からそれに対応する前記低帯域フィルタリング映像を減算し、前記分割映像で高周波成分だけ残っている残余映像を生成する残余イメージ生成部と、
前記残余映像に再びICAを行い、前記分割映像に対応する第1特徴情報を生成し、前記第1特徴情報の集合である第2特徴情報を発生させるICA係数行列計算部と、を含むことを特徴とする請求項14に記載の構成成分基盤PCA/ICAを利用した顔検索装置。 - 請求項1ないし9のうちいずれの1項の方法をコンピュータで実行するためのプログラムを記録したコンピュータで読取可能な記録媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20020011428 | 2002-03-04 | ||
KR10-2002-0059401A KR100480783B1 (ko) | 2002-03-04 | 2002-09-30 | 구성요소 기반 pca/ica를 이용한 얼굴 인식 방법및 그 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004005456A true JP2004005456A (ja) | 2004-01-08 |
JP4271964B2 JP4271964B2 (ja) | 2009-06-03 |
Family
ID=27759815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003056873A Expired - Fee Related JP4271964B2 (ja) | 2002-03-04 | 2003-03-04 | 構成成分基盤pca/icaを利用した顔認識方法及びその装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7254257B2 (ja) |
EP (1) | EP1343107A3 (ja) |
JP (1) | JP4271964B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010097610A (ja) * | 2008-10-16 | 2010-04-30 | Xerox Corp | 複数の画像モデルの混合としての画像のモデリング |
KR20100131060A (ko) * | 2009-06-05 | 2010-12-15 | 삼성전자주식회사 | 인체 동작 및 얼굴 표정 모델링 및 인식을 위한 비디오 센서 기반의 장치 및 방법 |
JP2012043151A (ja) * | 2010-08-18 | 2012-03-01 | Canon Inc | 画像処理装置及びその方法、プログラム、並びに撮像装置 |
US9898157B2 (en) | 2014-05-08 | 2018-02-20 | International Business Machines Corporation | Generation of a filter that separates elements to be displayed from elements constituting data |
Families Citing this family (99)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7574016B2 (en) | 2003-06-26 | 2009-08-11 | Fotonation Vision Limited | Digital image processing using face detection information |
US8896725B2 (en) | 2007-06-21 | 2014-11-25 | Fotonation Limited | Image capture device with contemporaneous reference image capture mechanism |
US7844076B2 (en) | 2003-06-26 | 2010-11-30 | Fotonation Vision Limited | Digital image processing using face detection and skin tone information |
US7471846B2 (en) | 2003-06-26 | 2008-12-30 | Fotonation Vision Limited | Perfecting the effect of flash within an image acquisition devices using face detection |
US7587068B1 (en) | 2004-01-22 | 2009-09-08 | Fotonation Vision Limited | Classification database for consumer digital images |
US8494286B2 (en) | 2008-02-05 | 2013-07-23 | DigitalOptics Corporation Europe Limited | Face detection in mid-shot digital images |
US8498452B2 (en) | 2003-06-26 | 2013-07-30 | DigitalOptics Corporation Europe Limited | Digital image processing using face detection information |
US8948468B2 (en) | 2003-06-26 | 2015-02-03 | Fotonation Limited | Modification of viewing parameters for digital images using face detection information |
US7565030B2 (en) | 2003-06-26 | 2009-07-21 | Fotonation Vision Limited | Detecting orientation of digital images using face detection information |
US9692964B2 (en) | 2003-06-26 | 2017-06-27 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US7792970B2 (en) | 2005-06-17 | 2010-09-07 | Fotonation Vision Limited | Method for establishing a paired connection between media devices |
US7269292B2 (en) | 2003-06-26 | 2007-09-11 | Fotonation Vision Limited | Digital image adjustable compression and resolution using face detection information |
US8553949B2 (en) | 2004-01-22 | 2013-10-08 | DigitalOptics Corporation Europe Limited | Classification and organization of consumer digital images using workflow, and face detection and recognition |
US7792335B2 (en) * | 2006-02-24 | 2010-09-07 | Fotonation Vision Limited | Method and apparatus for selective disqualification of digital images |
US8330831B2 (en) | 2003-08-05 | 2012-12-11 | DigitalOptics Corporation Europe Limited | Method of gathering visual meta data using a reference image |
US9129381B2 (en) | 2003-06-26 | 2015-09-08 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US8593542B2 (en) | 2005-12-27 | 2013-11-26 | DigitalOptics Corporation Europe Limited | Foreground/background separation using reference images |
US7440593B1 (en) * | 2003-06-26 | 2008-10-21 | Fotonation Vision Limited | Method of improving orientation and color balance of digital images using face detection information |
US8155397B2 (en) | 2007-09-26 | 2012-04-10 | DigitalOptics Corporation Europe Limited | Face tracking in a camera processor |
US8363951B2 (en) | 2007-03-05 | 2013-01-29 | DigitalOptics Corporation Europe Limited | Face recognition training method and apparatus |
US8682097B2 (en) | 2006-02-14 | 2014-03-25 | DigitalOptics Corporation Europe Limited | Digital image enhancement with reference images |
US8989453B2 (en) | 2003-06-26 | 2015-03-24 | Fotonation Limited | Digital image processing using face detection information |
US7620218B2 (en) | 2006-08-11 | 2009-11-17 | Fotonation Ireland Limited | Real-time face tracking with reference images |
US7643684B2 (en) * | 2003-07-15 | 2010-01-05 | Samsung Electronics Co., Ltd. | Apparatus for and method of constructing multi-view face database, and apparatus for and method of generating multi-view face descriptor |
JP2005044330A (ja) * | 2003-07-24 | 2005-02-17 | Univ Of California San Diego | 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置 |
JP2005197792A (ja) * | 2003-12-26 | 2005-07-21 | Canon Inc | 画像処理方法、画像処理装置、プログラム、記憶媒体及び画像処理システム |
US7551755B1 (en) | 2004-01-22 | 2009-06-23 | Fotonation Vision Limited | Classification and organization of consumer digital images using workflow, and face detection and recognition |
US7555148B1 (en) | 2004-01-22 | 2009-06-30 | Fotonation Vision Limited | Classification system for consumer digital images using workflow, face detection, normalization, and face recognition |
US7564994B1 (en) | 2004-01-22 | 2009-07-21 | Fotonation Vision Limited | Classification system for consumer digital images using automatic workflow and face detection and recognition |
US7558408B1 (en) | 2004-01-22 | 2009-07-07 | Fotonation Vision Limited | Classification system for consumer digital images using workflow and user interface modules, and face detection and recognition |
US7242810B2 (en) * | 2004-05-13 | 2007-07-10 | Proximex Corporation | Multimodal high-dimensional data fusion for classification and identification |
GB2414328A (en) * | 2004-05-17 | 2005-11-23 | Mitsubishi Electric Inf Tech | Discrimination transforms applied to frequency domain derived feature vectors |
US7623685B2 (en) * | 2004-08-20 | 2009-11-24 | The Regents Of The University Of Colorado | Biometric signatures and identification through the use of projective invariants |
US7956890B2 (en) * | 2004-09-17 | 2011-06-07 | Proximex Corporation | Adaptive multi-modal integrated biometric identification detection and surveillance systems |
US8320641B2 (en) | 2004-10-28 | 2012-11-27 | DigitalOptics Corporation Europe Limited | Method and apparatus for red-eye detection using preview or other reference images |
US8503800B2 (en) | 2007-03-05 | 2013-08-06 | DigitalOptics Corporation Europe Limited | Illumination detection using classifier chains |
US7715597B2 (en) * | 2004-12-29 | 2010-05-11 | Fotonation Ireland Limited | Method and component for image recognition |
US8488023B2 (en) * | 2009-05-20 | 2013-07-16 | DigitalOptics Corporation Europe Limited | Identifying facial expressions in acquired digital images |
US7315631B1 (en) | 2006-08-11 | 2008-01-01 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US7409375B2 (en) * | 2005-05-23 | 2008-08-05 | Knowmtech, Llc | Plasticity-induced self organizing nanotechnology for the extraction of independent components from a data stream |
JP2006254229A (ja) * | 2005-03-11 | 2006-09-21 | Fuji Photo Film Co Ltd | 撮像装置、撮像方法及び撮像プログラム |
US7496549B2 (en) * | 2005-05-26 | 2009-02-24 | Yahoo! Inc. | Matching pursuit approach to sparse Gaussian process regression |
KR100745980B1 (ko) * | 2006-01-11 | 2007-08-06 | 삼성전자주식회사 | 분류기 통합을 위한 스코어 합성 방법 및 장치 |
US7804983B2 (en) | 2006-02-24 | 2010-09-28 | Fotonation Vision Limited | Digital image acquisition control and correction method and apparatus |
US7965875B2 (en) | 2006-06-12 | 2011-06-21 | Tessera Technologies Ireland Limited | Advances in extending the AAM techniques from grayscale to color images |
EP2050043A2 (en) | 2006-08-02 | 2009-04-22 | Fotonation Vision Limited | Face recognition with combined pca-based datasets |
US7403643B2 (en) | 2006-08-11 | 2008-07-22 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US7916897B2 (en) | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
US7684651B2 (en) * | 2006-08-23 | 2010-03-23 | Microsoft Corporation | Image-based face search |
US7724960B1 (en) * | 2006-09-08 | 2010-05-25 | University Of Central Florida Research Foundation Inc. | Recognition and classification based on principal component analysis in the transform domain |
KR100846500B1 (ko) * | 2006-11-08 | 2008-07-17 | 삼성전자주식회사 | 확장된 가보 웨이브렛 특징 들을 이용한 얼굴 인식 방법 및장치 |
US20080167842A1 (en) * | 2007-01-04 | 2008-07-10 | Honeywell International Inc. | Method and system for detecting, analyzing and subsequently recognizing abnormal events |
US8055067B2 (en) | 2007-01-18 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Color segmentation |
DE602008001607D1 (de) | 2007-02-28 | 2010-08-05 | Fotonation Vision Ltd | Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen |
WO2008109622A1 (en) | 2007-03-05 | 2008-09-12 | Fotonation Vision Limited | Face categorization and annotation of a mobile phone contact list |
KR101247147B1 (ko) | 2007-03-05 | 2013-03-29 | 디지털옵틱스 코포레이션 유럽 리미티드 | 디지털 영상 획득 장치에서의 얼굴 탐색 및 검출 |
US9544563B1 (en) | 2007-03-23 | 2017-01-10 | Proximex Corporation | Multi-video navigation system |
US7777783B1 (en) | 2007-03-23 | 2010-08-17 | Proximex Corporation | Multi-video navigation |
US7916971B2 (en) | 2007-05-24 | 2011-03-29 | Tessera Technologies Ireland Limited | Image processing method and apparatus |
US7991199B2 (en) * | 2007-06-29 | 2011-08-02 | Microsoft Corporation | Object identification and verification using transform vector quantization |
US8064697B2 (en) * | 2007-10-12 | 2011-11-22 | Microsoft Corporation | Laplacian principal components analysis (LPCA) |
US8750578B2 (en) | 2008-01-29 | 2014-06-10 | DigitalOptics Corporation Europe Limited | Detecting facial expressions in digital images |
US8233676B2 (en) * | 2008-03-07 | 2012-07-31 | The Chinese University Of Hong Kong | Real-time body segmentation system |
US7855737B2 (en) | 2008-03-26 | 2010-12-21 | Fotonation Ireland Limited | Method of making a digital camera image of a scene including the camera user |
KR101446975B1 (ko) | 2008-07-30 | 2014-10-06 | 디지털옵틱스 코포레이션 유럽 리미티드 | 얼굴 검출 기능을 사용한 얼굴 및 피부의 자동 미화 |
US8200017B2 (en) * | 2008-10-04 | 2012-06-12 | Microsoft Corporation | Face alignment via component-based discriminative search |
ATE549693T1 (de) * | 2008-10-06 | 2012-03-15 | Xerox Corp | Modellierung von bildern als mischungen aus bildmodellen |
WO2010063463A2 (en) | 2008-12-05 | 2010-06-10 | Fotonation Ireland Limited | Face recognition using face tracker classifier data |
JP2010186216A (ja) * | 2009-02-10 | 2010-08-26 | Seiko Epson Corp | 顔画像における特徴部位の位置の特定 |
US8379917B2 (en) | 2009-10-02 | 2013-02-19 | DigitalOptics Corporation Europe Limited | Face recognition performance using additional image features |
JP5524692B2 (ja) * | 2010-04-20 | 2014-06-18 | 富士フイルム株式会社 | 情報処理装置および方法ならびにプログラム |
US8792728B2 (en) * | 2010-09-27 | 2014-07-29 | Hewlett-Packard Development Company, L.P. | Near-duplicate image detection |
CN102567706A (zh) * | 2010-12-24 | 2012-07-11 | 汉王科技股份有限公司 | 一种人脸识别装置和方法 |
US9251402B2 (en) | 2011-05-13 | 2016-02-02 | Microsoft Technology Licensing, Llc | Association and prediction in facial recognition |
US9323980B2 (en) | 2011-05-13 | 2016-04-26 | Microsoft Technology Licensing, Llc | Pose-robust recognition |
KR101901591B1 (ko) * | 2011-11-01 | 2018-09-28 | 삼성전자주식회사 | 얼굴 인식 장치 및 그 제어방법 |
CN102819842A (zh) * | 2012-07-30 | 2012-12-12 | 桂林电子科技大学 | 基于条件共生概率矩阵的移位jpeg双压缩篡改盲检测方法 |
CN102915436B (zh) * | 2012-10-25 | 2015-04-15 | 北京邮电大学 | 基于类内变化字典和训练图像的稀疏表示人脸识别方法 |
CN103247032B (zh) * | 2013-04-26 | 2015-12-02 | 中国科学院光电技术研究所 | 一种基于姿态补偿的微弱扩展目标定位方法 |
CN103258209A (zh) * | 2013-05-16 | 2013-08-21 | 桂林电子科技大学 | 基于三阶统计特征和组合分类器的数字图像篡改盲检测方法 |
US9614724B2 (en) | 2014-04-21 | 2017-04-04 | Microsoft Technology Licensing, Llc | Session-based device configuration |
US9639742B2 (en) | 2014-04-28 | 2017-05-02 | Microsoft Technology Licensing, Llc | Creation of representative content based on facial analysis |
US9773156B2 (en) | 2014-04-29 | 2017-09-26 | Microsoft Technology Licensing, Llc | Grouping and ranking images based on facial recognition data |
US10111099B2 (en) | 2014-05-12 | 2018-10-23 | Microsoft Technology Licensing, Llc | Distributing content in managed wireless distribution networks |
US9874914B2 (en) | 2014-05-19 | 2018-01-23 | Microsoft Technology Licensing, Llc | Power management contracts for accessory devices |
US10037202B2 (en) | 2014-06-03 | 2018-07-31 | Microsoft Technology Licensing, Llc | Techniques to isolating a portion of an online computing service |
US9367490B2 (en) | 2014-06-13 | 2016-06-14 | Microsoft Technology Licensing, Llc | Reversible connector for accessory devices |
US9717006B2 (en) | 2014-06-23 | 2017-07-25 | Microsoft Technology Licensing, Llc | Device quarantine in a wireless network |
CN104268585A (zh) * | 2014-10-10 | 2015-01-07 | 浪潮集团有限公司 | 一种使用二维主元-独立元综合分析技术的移动设备人脸识别方法 |
CN104778462A (zh) * | 2015-04-28 | 2015-07-15 | 哈尔滨理工大学 | 一种人脸识别方法及装置 |
JP6573311B2 (ja) * | 2015-06-15 | 2019-09-11 | パナソニック株式会社 | 顔認識システム、顔認識サーバ及び顔認識方法 |
CN107194335B (zh) * | 2017-05-12 | 2020-09-25 | 南京工程学院 | 一种复杂光照场景下的人脸识别方法 |
CN109389015A (zh) * | 2017-08-10 | 2019-02-26 | 丽宝大数据股份有限公司 | 脸部相似度评估方法与电子装置 |
CN107348958B (zh) * | 2017-08-15 | 2019-12-24 | 安徽大学 | 一种鲁棒扫视eog信号识别方法及系统 |
CN108647613B (zh) * | 2018-04-28 | 2021-11-16 | 东莞市华睿电子科技有限公司 | 一种应用于考场的考生查验方法 |
US10936178B2 (en) | 2019-01-07 | 2021-03-02 | MemoryWeb, LLC | Systems and methods for analyzing and organizing digital photos and videos |
CN111767756A (zh) * | 2019-03-29 | 2020-10-13 | 丽宝大数据股份有限公司 | 自动检测脸部瑕疵的方法 |
CN110399862A (zh) * | 2019-08-06 | 2019-11-01 | 南京邮电大学 | 一种基于ICA-DeepPCA的人脸识别方法 |
CN111125398A (zh) * | 2019-12-19 | 2020-05-08 | 云粒智慧科技有限公司 | 一种图片信息检索方法、装置、设备和介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5710833A (en) * | 1995-04-20 | 1998-01-20 | Massachusetts Institute Of Technology | Detection, recognition and coding of complex objects using probabilistic eigenspace analysis |
US6826300B2 (en) * | 2001-05-31 | 2004-11-30 | George Mason University | Feature based classification |
-
2003
- 2003-03-04 US US10/377,748 patent/US7254257B2/en active Active
- 2003-03-04 JP JP2003056873A patent/JP4271964B2/ja not_active Expired - Fee Related
- 2003-03-04 EP EP03251286A patent/EP1343107A3/en not_active Ceased
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010097610A (ja) * | 2008-10-16 | 2010-04-30 | Xerox Corp | 複数の画像モデルの混合としての画像のモデリング |
US8463051B2 (en) | 2008-10-16 | 2013-06-11 | Xerox Corporation | Modeling images as mixtures of image models |
KR20100131060A (ko) * | 2009-06-05 | 2010-12-15 | 삼성전자주식회사 | 인체 동작 및 얼굴 표정 모델링 및 인식을 위한 비디오 센서 기반의 장치 및 방법 |
KR101640077B1 (ko) | 2009-06-05 | 2016-07-15 | 삼성전자주식회사 | 인체 동작 및 얼굴 표정 모델링 및 인식을 위한 비디오 센서 기반의 장치 및 방법 |
US9489568B2 (en) | 2009-06-05 | 2016-11-08 | Samsung Electronics Co., Ltd. | Apparatus and method for video sensor-based human activity and facial expression modeling and recognition |
JP2012043151A (ja) * | 2010-08-18 | 2012-03-01 | Canon Inc | 画像処理装置及びその方法、プログラム、並びに撮像装置 |
US8861881B2 (en) | 2010-08-18 | 2014-10-14 | Canon Kabushiki Kaisha | Image processing apparatus, method thereof, program, and image capturing apparatus |
US9898157B2 (en) | 2014-05-08 | 2018-02-20 | International Business Machines Corporation | Generation of a filter that separates elements to be displayed from elements constituting data |
Also Published As
Publication number | Publication date |
---|---|
EP1343107A2 (en) | 2003-09-10 |
EP1343107A3 (en) | 2005-03-23 |
US7254257B2 (en) | 2007-08-07 |
US20030169908A1 (en) | 2003-09-11 |
JP4271964B2 (ja) | 2009-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4271964B2 (ja) | 構成成分基盤pca/icaを利用した顔認識方法及びその装置 | |
JP4210137B2 (ja) | 2次icaを利用した顔認識法及びその装置 | |
US7864989B2 (en) | Method and apparatus for adaptive context-aided human classification | |
US7920745B2 (en) | Method and apparatus for performing constrained spectral clustering of digital image data | |
US7715597B2 (en) | Method and component for image recognition | |
US8184914B2 (en) | Method and system of person identification by facial image | |
KR100860989B1 (ko) | 얼굴 영상의 유사도 산출 방법 및 장치와 이를 이용한 얼굴영상 검색 방법 및 장치 그리고 얼굴 합성 방법 | |
JP2007272897A (ja) | 文脈支援型人間識別のためのデジタル画像処理方法および装置 | |
JP2004005622A (ja) | 顔要素に基づく顔記述子を用いた顔認識方法及びその装置 | |
JP5787686B2 (ja) | 顔認識装置、及び顔認識方法 | |
Cornejo et al. | Emotion recognition from occluded facial expressions using weber local descriptor | |
CN108564061A (zh) | 一种基于二维主元分析的图像识别方法和系统 | |
Kapoor et al. | Which faces to tag: Adding prior constraints into active learning | |
KR100480783B1 (ko) | 구성요소 기반 pca/ica를 이용한 얼굴 인식 방법및 그 장치 | |
Chandaliya et al. | Child face age progression and regression using self-attention multi-scale patch gan | |
Pauca et al. | Challenging ocular image recognition | |
Perronnin et al. | A probabilistic model of face mapping with local transformations and its application to person recognition | |
JP5538781B2 (ja) | 画像検索装置及び画像検索方法 | |
JP2004272326A (ja) | 部分空間成分特徴を用いた顔面描写および認識用の確率的顔面成分融合方法 | |
Maureira et al. | Synthetic periocular iris pai from a small set of near-infrared-images | |
JP2004038937A (ja) | 高次固有成分を用いる顔の記述および認識のための方法および装置 | |
Pyataeva et al. | Video based face recognition method | |
Reddy et al. | Face Recognition Using Gradient Texture Features | |
Patil et al. | Analysis of Facial Expression using Deep Learning Techniques | |
Dadgar et al. | Approaches, Challenges and Framework of Age Invariant Face Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051012 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20061101 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20061107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080610 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080903 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080930 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090127 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090226 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120306 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4271964 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120306 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130306 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140306 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |