JP2005149506A - 対象物自動認識照合方法および装置 - Google Patents

対象物自動認識照合方法および装置 Download PDF

Info

Publication number
JP2005149506A
JP2005149506A JP2004331172A JP2004331172A JP2005149506A JP 2005149506 A JP2005149506 A JP 2005149506A JP 2004331172 A JP2004331172 A JP 2004331172A JP 2004331172 A JP2004331172 A JP 2004331172A JP 2005149506 A JP2005149506 A JP 2005149506A
Authority
JP
Japan
Prior art keywords
interest
recognition
class
automatic
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004331172A
Other languages
English (en)
Other versions
JP4543423B2 (ja
Inventor
Sergey Ioffe
イオッフェ セルゲイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Publication of JP2005149506A publication Critical patent/JP2005149506A/ja
Application granted granted Critical
Publication of JP4543423B2 publication Critical patent/JP4543423B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/84Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks

Abstract

【課題】デジタル画像における対象物を自動的に認識あるいは照合する方法および装置を提供する。
【解決手段】確率モデルを用いてデジタル画像における対象物を自動的に認識あるいは照合する方法および装置であって、関心ある対象物を有するデジタル画像データにアクセス(S212)し、前記画像中の関心ある対象物を検出し、前記対象物を正規化して正規化された対象物表現を生成し(S214)、前記正規化された対象物表現から複数の特徴を抽出し(S216)、および特徴の各々を予め決められた付加確率モデルに適用して(S218)前記関心ある対象物が既存のクラスに属する尤度を決定する(S222)ことによって、デジタル画像における対象物を自動的に認識あるいは照合する方法および装置である。
【選択図】図3

Description

本発明はデジタル画像処理、特に確率モデルを用いるデジタル画像における対象物の認識あるいは照合のための方法および装置に関する。
顔認識はコンピュータ映像の応用分野として、特にセキュリティのような分野においてその重要性が増してきている。しかしながら精度の高い顔認識は、人の顔はポーズや表情や照明および顔に装用するアクセサリーによって非常に異なって見えるという事実の所為で、しばしば困難となる。顔認識は3次元モデルに基づいた手法や特徴に基づいた方法等によって研究されてきた。すべての顔認識システムにおける本質的な特徴は、類似性の測定、すなわち、もし複数の顔が同一人物の顔に属しているものなら、それらは類似していると考えられる。この類似性測定は、2つの顔画像が同一人に属するものであることを照合したり、新たな標本例が所与の顔のどれに最も類似しているかを判定することによって新規な画像を分類するために使用される。しかしながら、良好な類似性測定を計画デザインすることは難しい。たとえば画素空間におけるユークリッド距離に基づいた簡易な類似性測定は、概してうまく機能しない。というのは画像がクラス(級)間のばらつき(個々人の間の違いに起因する)よりもクラス(級)内のばらつき(表情とかポーズのような)により大きく影響を受けるからである。それゆえ顔認識アルゴリズムは、クラス内の差に対して相対的にクラス間の差を最大化する画像特徴を抽出できることが必要である。
新たな顔標本のアイデンティティについて最良の決定をするためには、理想的なシステムは、その顔およびその環境についてのモデルとしてか、あるいは各顔についての多数のビュー(view)として、各人の顔の外観における可能なばらつきの全てについての表現を有していることになる。もし各人についての多数の実例がギャラリーで利用できるなら、各人についてのモデルが計算算出でき、新しい顔のビュー(view)を分類することに用いることができる。しかしながら実際にはギャラリーは各人の少数の実例を有しているにすぎない。
本発明はこのような事情に鑑みてなされたもので、デジタル画像における対象物を自動的に認識あるいは照合する方法および装置を提供することを目的とする。
本発明は、デジタル写真のようなデジタル画像における顔の自動的認識又は照合のための方法および装置を対象としている。
本発明は, デジタル画像における対象物を自動的に認識あるいは照合する方法であって、関心ある対象物を有するデジタル画像データにアクセスするステップと、前記デジタル画像中の関心ある対象物を検出するステップと、前記関心ある対象物を正規化して正規化された対象物表現を生成するステップと、前記正規化された対象物表現から複数の特徴を抽出するステップと、抽出された特徴の各々を予め決められた付加確率モデルに適用して該前記関心ある対象物が既存のクラスに属する尤度を決定するステップとを有することを特徴とする対象物自動認識照合方法 である。
一実施態様においては、前記予め決められた付加確率モデルは対象物の外観をクラス(すなわちアイデンティティ)とビュー(ポーズ、表情、その他)に対応する成分に分解する付加ガウスモデルである。一実施例においては、前記方法は複数のクラスに対して予め決められた付加確率モデルに基づいてデジタル画像中に現れている顔を分類する。
また本発明は,デジタル画像における対象物を自動的に認識あるいは照合する装置であって、デジタル画像データを供給する画像データユニットと、前記デジタル画像データ中の関心ある対象物を検出するための対象物検出器と、前記関心ある対象物を正規化して正規化された対象物表現を生成するための正規化ユニットと、前記正規化された対象物表現から複数の特徴を抽出するための特徴抽出ユニットと、抽出された特徴の各々を予め決められた付加確率モデルに適用して前記関心ある対象物が既存のクラスに属する尤度を決定するための類似性決定ユニットとを有することを特徴とする対象物自動認識照合装置である。
本発明の一実施態様においては、前記予め決められた付加確率モデルは対象物の外観をクラス(すなわち アイデンティティ)とそのビュー(ポーズ、表情、その他)に対応する成分に分解する付加ガウスモデルである。一実施例では、前記装置は複数のクラスに対して予め決められた付加確率モデルに基づいてデジタル画像中に現れている顔を分類する。
本発明の特徴とするところは以下に図面を参照しながらより具体的に開示する。以下に述べられる実施態様の詳細は、顔の認識あるいは照合に関するものであるが、ここにおいて記述される本発明の原理はデジタル画像中に見える他の異なる対象物にも適用できるものである。
図1は本発明の実施態様に従った対象物認識又は照合のためのシステムのブロック図を示している。
図1におけるシステム100は下記の構成要素、すなわち、画像入力デバイス20、画像処理ユニット30、ユーザー入力ユニット50およびディスプレイ60を備えている。図1において示される各構成要素の作用(操作)および要素間の機能的な相互作用に関しては、以下の説明から明らかになる。
実施例においては、画像入力デバイス20はデジタル画像データ(たとえば関心のある対象(たとえば顔)を含んでいる写真を表している)を供給するものである。画像入力デバイス20はたとえばペーパーやフィルム上に記録された画像をスキャンするスキャナーであり、たとえば、フィルムあるいはペーパーから1フレームづつR(赤), G(緑), B(青)各色の画像情報を光電的に読み取るCCDセンサーを有している。画像入力デバイス20としてはデジタル画像データを供給するものならどのようなものでも、たとえばCD-R、フロッピーディスクその他の記録媒体やネットワーク接続によるもの等がある。画像処理ユニット30は画像入力デバイス20からデジタル画像データを受けとり、以下に詳細に説明されるやり方で対象物の認識/照合を実行するものである。
図1に示す実施態様においてはユーザー入力ユニット50はキーボード52およびマウス54である。
本発明の実施態様に従った対象物認識を実行することに加えて、画像処理ユニット30は、色/濃度補正、圧縮、その他の付加機能を実行することができる。
図2は、デジタル画像に見られる顔を分類(classifies)あるいは照合する本発明の実施態様に従って図1に示されたシステムにおける画像処理ユニット30をより詳細を示すブロック図である。図2に示されるように、この実施態様における画像処理ユニット30は、画像メモリー32、 顔検出ユニット34、正規化ユニット36、特徴抽出ユニット37、画像処理コントロールユニット38及び類似性抽出ユニット39を有している。
この図2の種々の構成要素は一つ一つ分離した形で図示されているが、この図示は説明を容易にするためであり、当然のことながら、種々の構成要素のある幾つかの作用操作は同じ物理的デバイスによって、たとえばパソコンのマイクロプロセッサーによって、実行され得るものである。画像処理ユニット30の複数構成要素のある幾つかの作用操作は、次に図3から図8までを参照して説明される。
画像処理ユニット30の作用操作は一般に2段階に分割される。すなわち、(1)トレーニングおよび(2)自動的対象物認識又は照合に分けられる。本発明の実施のためのこれら両方の段階に関与する原理は以下に説明される。
図3のフローダイアグラムにおいて示されるように、顔認識のために画像処理コントロールユニット38が最初に、たとえば画像メモリー32あるいは画像入力デバイス20から直接に、少なくとも一つの顔を有するデジタル画像を入力する(ステップS212)。次に顔検出ユニット34がデジタル画像データを受け取り、その入力されたデジタル画像(たとえば図4における顔図4(a))における顔を検出し、正規化ユニット36は前記顔検出ユニット34によって検出されたその顔を正規化する(ステップS214)。正規化された顔の実例(example)は図4の図(b)として示されている。次に特徴抽出ユニット37が認識のために使用される予定のその正規化された顔表現(描写)から特徴を抽出する(ステップS216)。一実施例においては、この抽出された特徴は離散ウェーブレット変換係数である。認識のために顔検出し正規化し特徴抽出を行うための種々の手法が知られていて、画像処理ユニット30で使用可能だが、以下に画像処理ユニット30の学習(トレーニング)段階に関連して、顔の検出/正規化および特徴検出のための特定の具体的手法が説明される。類似性判定ユニット39は特徴抽出ユニット37によって抽出された複数の特徴量を受け取り、複数の既存クラスの各々に対してあらかじめ決められた付加ガウスモデルへこれらの特徴量を適用し(ステップS218)、正規化された顔が複数の既存のクラスの各々に属する尤度を決定する。正規化された顔がどの既存クラスに属するかを決定するために、類似性判定ユニット39は算出された最も高い尤度値を有するクラスを選択する(ステップS222)。本発明の原理に従って顔認識のための画像処理構成要素の作用操作の概要を述べてきたが、顔認識用の用いられる付加ガウスモデルの具体的説明が、顔と学習のための付加ガウスモデルを導出するプロセスを含めて以下に示される。
[概要]
本発明の一つの特徴によれば、そのシステムは、様々な照明、表情およびポーズにわたっているモデルに対して単一のビューを生成することができる。システムは、非常に多数の個人の顔からなるトレーニングセットを通じて、ひとりの人の顔の外観におけるばらつきに対して相対的に、人々の間の分離を最大化する特徴について学習する。その特徴は、各特徴の寄与がその識別能力に依存するように付加ガウスモデルに組み込むことができる。付加ガウスモデル(AGM)は、システムに外観におけるクラス内およびクラス間ばらつき(変動)の両方をモデル化させ、たった一つあるいは少数の実例から、種々のポーズ、表情および照明を有している各個人に関するモデルを作り出すために用いられる。認識のためにAGMを用いることは、各顔の一つの実例しか用いない認識にたいしてもパワフルな方法であり、一方多数の実例を原理に則ってより正確な顔モデルに組み込んでもよい。このモデルは頑健(robust)で正面および非正面の顔の両方に対して適用出来る。
[付加ガウスモデル]
本発明に従って付加ガウスモデルを明らかにするために、幾つかのクラスからの実例を有する訓練(トレーニング)データセットを考えてみる。顔認識の背景には各クラスはひとりの人に対応し、そのクラスにおける各実例はその人の顔の或るビューである。本発明の一実施例においては、クラス間およびクラス内変動(それぞれ異なる人における外観の差および同一人における異なるビューに対応する)に対するモデルを学習しながら、トレーニング用の実例から識別力のある特徴のセットを抽出し、そしてこれらのモデルを以前には見たことのない人々の実例と組み合わせる。このようにして、このシステムは人のたった一つの実例からさえ、その人の外観における変動(ばらつき)の範囲にわたってのモデルを生成することが出来る。
一実施例においては各々の顔はベクトルとして表現される。しかしながら、多変量ケースを扱う前に、本発明の原理は、各実例は単一の数字で表現されている単純なケースの状況において説明される。
初めに全ての顔セットおよび同一クラスに属する顔セットの両方ともその確立分布はガウス分布であると仮定する。一般的には真ではないけれども、この仮定はしばしば適用可能であり、特に顔に関して学習された識別力のある特徴のセット(後で説明される)に対して適用できる。更に認識問題を取り扱い易いものにし、以前には見たことのない個人に対して一般化することが出来るように、異なるクラスに対応する前記分布が同じ分散をもっていると仮定する。
かくて、そのデータは、全てのクラス内分布が下記単位(unit)分散を持つように、再調整(rescaled)される。
Figure 2005149506
ここで、Nは正規分布でyはクラス中心である。z = x ( yをそのクラスの中心と実例との差とすることは都合がよく、それから、zはyに対して独立であり(そしてそれゆえx=y+zについても)ゼロ平均(zero mean)と単位分散に関してノーマルである。最後にxおよびzはノーマルで独立していると仮定しているので、yも同様にガウシアン(Gaussian)である。( 2 を分散としデータをその平均がゼロとなるようにシフトする。その結果、以下を得る。
Figure 2005149506
ここで、Nは正規分布を表し、xはデータサンプルであり(適当にシフトされ調整された(scaled))、yはクラス(たとえば顔認識のケースにおける人)を表し、zはビュー、すなわちサンプルとクラス中心の間の残差を表す。これを付加ガウスモデルと呼ぶことにする。それは概念的に図5(a)及び図5(b)に図示されている。図5(b)は二つの実例のための付加ガウスモデルの概念を示していて、同じクラスyのx1およびx2(たとえば、異なった時刻に、場合によったら数年も離れて、撮られた同じ顔についての二つの画像)で、それぞれは残差成分z1、z2を有する。
図5(a)及び図5(b)に図示されているように、モデル(1)はデータを内容とスタイルに対応した成分に分解する。このアプローチにおいて各実例はクラスラベルとのみ関連付けられ、ビューラベルとは関連付けない。この手法はビューラベルを作成する必要がないし、解釈するためのビューを具体的にモデル化(作成)する(クラスとビューを対称的に処理することが必ずしも認識のためには最適でないけれども)ので、これは好都合である。
以下にどのように付加ガウスモデルが学習されるか、すなわちデータをどのように再調整(rescale)しシフトし、(を見出し、そして各実例xをモデル(1)に適合するようにクラスyとビューzに分離するか、が以下に説明される。しかし先ず第一に次のセクションでは、AGMが認識のための画像処理ユニット30によってどのように用いられるかを示す。
[顔分類]
多クラス認識問題を考えてみよう。そこでは画像処理ユニット30に入力された新規な実例は、M既存クラス(たとえば、各々異なる人に対応する)の一つに割り当てられる必要がある。各クラスに対して確率分布P(x|class)として表されるモデルがあるとされる。それからその新実例xを分類するために、類似性判定ユニットが尤度P(x|class1),…,P(x|classM)を計算する。各クラスiは単位(unit)分散と既知の平均yi,を有する正規分布によってモデル化されると仮定すると、尤度は P(x|classi) = N(x(yi, 1)となる。どのクラスにその実例が属するかを決定するために、類似性判定ユニット39は単純に最も高い尤度を有するクラスを選択する。
しかし実際にはクラスの真の平均は未知である。事実、そのギャラリーにはしばしばクラス当たりたった一つの実例しかないことがあり、それでは平均yiの正確な推定を与えることが出来ない。しかしながら付加ガウスモデルに関してはこの不確実性はモデルの中に表現されている。
より具体的にはn個の実例xi...xn.が利用できるクラスを考えてみる。これらの実例は分布N(x(y, 1)から独立に導きだされたものとみなされる。yはまだ未知であるが、その事後(確率)分布(posterior distribution)を計算するため推論が実行される。このことは図7において概念的に図示されている。上記モデル(1)によって規定されるAGMによれば、
Figure 2005149506
である。ここでyの事後確率分布は、平均を{σ2/(1+nσ2)}Σii、分散をσ2/(1+nσ2)とするガウス分布であることは容易に理解される。データ点の数nが増加するに従って、予想されるように、分散はゼロに近づき、平均値は実例のサンプル平均値に近づく。もしごく少数の実例しか利用できない場合、yの条件付分散は増加し、その平均はよりあいまいなゼロに向かって(すなわち全てのデータの中心)シフトする。
もし新しい実例xが同一のクラスx1... xn,から独立に導かれたものならば、x = y + zここで P(z) = N(z(0,1). 故に、xに対する尤度?x1...xn の各々と同じ顔を有することを条件とする実例を観測することの確率分布?は
Figure 2005149506
である。もし実例の幾つかのグループが存在し、各々が特定のクラスに対応するなら、その尤度(必要に応じてそのクラス事前分布(priors)によって重み付けされる)を最大化することによって新しい実例に対してどのクラスに最も属しそうかが決定される。
[二つの顔セットの比較]
二つの実例のクラスター(clusters)(各クラスターにおいて全ての実例は同じ人についてであるような)を考えてみる。目標はその二つのクラスターが実際に同じ人物の実例を有しているかどうかを決定することである。
この問題は幾つかの応用例を有する。一つはある個人が誰であるかを述べる照合であり、システム100はその人物の顔をデータベース(たとえば画像メモリー32)に保存されている顔と合わせる事によって照合を行う。もう一つは画像の組織化整理である。そこで顔はクラスター当たり一つの顔から始まって小さいセットのクラスターにグループ化され、それからそれらクラスターをその数が十分小さくなるまでクラスター同志を合併してゆく。類似の画像を一緒にクラスター化することによって、たとえば同時係属出願の発明名称“Method and Apparatus for Organizing Digital Media Based on Face Recognition”で本件と同時に出願され、出願の参照による援用(incorporated by reference)がされるているものに述べられているように、画像収集のブラウジングが促進される。仮に二つのクラスターi = 1, 2の各々が一人の人物についてのni 個の実例 xi1,..., xini を有するとしよう。システムはそれらクラスターによって表されている二人の人が同一人物かどうかを対数(log)尤度
Figure 2005149506
を計算することによって決定することができる。ここでL1は二つのクラスターが一致する場合に相当し、L0は二つのクラスターが一致するかも知れないし一致しないかもしれない一般的な場合に相当する。二つのクラスターが同一の顔を有する事後確率分布はL1 - L0の単調増加関数であり、それ故もし差L1 - L0が閾値より大きければ、システムはその二つのクラスターが同一人物を表しているということを決定できる。この閾値はROC(receiver operating characteristic)曲線に沿って、偽陽性と偽陰性とのバランスを取りながら調整される。
L1とL0を計算するために、そのクラスター対数尤度は、一人の人物のランダムビューにおいて実例セットを見る対数確率:
Figure 2005149506
であるように定義される。そして二つのクラスターが一致するかどうかを決定するために計算された値は
Figure 2005149506
である。
ここで
Figure 2005149506
である事実を利用して
Figure 2005149506
を計算する。ここで、s=x1+…+xn and q=x2 1+…+x2 nについて対数をとるとクラスター対数尤度は数10式のように表される。
Figure 2005149506
これを方程式(3)に代入し二つのクラスターが一致するかを決定する。qは方程式(3)においてキャンセルされるので実際は計算する必要はない。
クラスターマッチング(一致)は、上述したどの既存クラスターに新規な実例を割り当てるかを決定するための方法を導き出す一つの代替的方法である。既存クラスターの各々は方程式(3)を使って新規な実例を有するクラスターに一致させられ、その実例はL1 - L0の値が最大になるクラスターに割り当てられる。加えて、もしL1 - L0の最大値があまりに小さい場合にはその実例を外れ値(outlier)に割り当てることが出来る。
画像の組織化整理のためには、方程式(3)は集積的なクラスター化(agglomerative clustering)において用いられ、そこでは当初クラスター当たり一つの画像があり、それから一対のクラスターを連続的に合併する操作が実行される。もし目標が顔セットの尤度を最大化するクラスターのセットを見つけることであり、欲張り法がそのために用いられるのなら、各ステップで合併されるクラスター対は差L1 - L0が最大化されているものの筈である。合併はL1 - L0があまりに小さいかあるいは望ましい数のクラスターが得られたときに完了する。
全ての画像のセットがグループにクラスター化され得るように(おそらくブラウズィングやラベリング(browsing and labeling)を促進するため)、このことは特定の個人としてラベルのつけられた顔セットに対してもなされる。このことは上述した集積的クラスター化(agglomerative clustering)を用いてなされる。期待値最大化(Expectation Maximization (EM))のような他の方法もクラスター化のために用いることが出来るが、その最終結果は同一人物の顔のグループへの分離である。これは混合モデル(mixture model)を招来する。すなわち特定個人に対するその確率分布は全てのラベル付けされた顔に基づいた単一(ガウシアン)モデルではなく、各クラスターに対する分離ガウスモデルを有する混合モデルである。この混合モデルに対して顔のスコアー(score)(あるいは確率)を計算するため、各混合成分に対して類似性スコアーが算出され、そして単一スコアーを得るために結合される。これを実行するための最も単純な方法は最大値をとることによってなされる。
たとえばある人の5歳のときの幾つかの顔と10歳の時の幾つかの顔を考えてみる。二つのグループへのクラスター化はそれら年齢の異なる顔を分離するかもしれない。上述した方法を用いて各クラスターからガウスモデルが計算される。残りの顔をソート(sort)するため、両方のモデルに対して各顔のスコアーを計算し、二つのうちの最大値をとることが可能で、その結果としてのスコアーはソートするために用いられる。
[モデルパラメーターの学習]
今までは実例xは、x = y + zここでP(y)=N(y|0,σ2)andP(z)−N(0,1)として表される仮定されてきた。このような表現は一般性を失うことにはならない、なぜならそのデータは必要に応じてyおよびzがゼロ平均を持つようにシフトされ、そしてそのデータはzが単一の分散を持つように調整される(scaled)からである。しかしながらこれを行うためには各実例xは、x = y + z,となるように、クラス変数yとビュー変数zに分離されなければならない。
i番目のクラスにni 個の実例xi1…xin1を有するk 個のクラスからの実例のセットを考えてみる。システムは、クラスター中心y1…yk.という変数を欠いている尤度最大化問題を解くことが出来る。このシステムは、欠けている変数と同様に平均m 、分散u、およびvを決定しなければならず、それが完全尤度
Figure 2005149506
を最大にする。この完全データ尤度を欠けている変数[yi] とパラメーターm, u, vの両方にわたって最適化する必要がある以上、期待値最大化方法を用いることは当然のことであり、それはたとえば C. Bishop, Neural networks for pattern recognition, Oxford University Press, 1995, に記載されていて、これは参照による援用(incorporated by reference)がされる。
期待値(E)ステップにおいて、システムは完全データ尤度(4)から、データ[xij]と、パラメータm, u, vの現在の推定値を条件としての欠けている変数y1… ykを導き出す。yiの暫定的分布はガウシアンであり、次の平均と分散を有する。
Figure 2005149506
このEステップを完成するために、期待される完全対数尤度が暫定的分布
Figure 2005149506
に関して計算される。ここで簡単のため定数付加項は省略されている。
最大化(M)ステップにおいて、期待される完全対数尤度を最大化するm, u, v の値が、対応する導関数をゼロとすることで見出される。この結果
Figure 2005149506
となる。
このEステップとMステップの間で繰り返すことによりm, u, v の値は収束する。最終的に各実例xは、それによって所望の付加モデル(1)を完成する数15式で置き換えられる。
Figure 2005149506
[多変量の場合]
実際には、顔や他の対象物は一つより多い数字によって表現されるだろう。今までの解析は一変量の場合を取り扱ってきたが、多次元に一般化される必要がある。この問題は変数独立(variable independence)を仮定することによって著しく単純化される。換言すれば各実例はフォーム(x(1)…x(D))を有し、ここでDは次元の数で、x(j) = y(j) + z(j),j = 1...D,であり、(y(1) ... y(D))はそのクラス(individual)を表し、(z(1)…z(D))はそのクラス内における対象物のビューを表し、全てのy(j)とz(j)は互いに独立である。これらの変数は分布
Figure 2005149506
を持っていて、各変数はそのクラス内分散を1とするように独立して再調整されるが、異なる変数は、より識別力のある変数に相当するより大きなσ(j)に関して、異なるクラス中心分散σ2 (j)を持っている。この独立性仮定の下では、個々の変数に対応する尤度は単純に掛け合わせることが出来、解析に用いられる他の全ての量は同様に影響される。
たとえば、方程式(2)、それはn個の既知の実例として同じクラスに属している新しい実例の尤度を計算するために用いられ、かくて、どの既知の個人にその新しい実例が相当するかを決定する。多変量ケースの場合においては、その新規な実例はベクトルx = (x(1) ... x(D)),であり、既知の実例の各々はベクトルxi = (xi(1) ...xi(D)), i = 1...n.である。変数独立の仮定ゆえ、方程式(2)は以下のように多変量の場合に変換される。
Figure 2005149506
[AGMを用いた顔認識システムの実行]
今まで述べてきた付加ガウスモデルにおいては、データは固定した数の独立したおよび略ガウシアンの変数によって表現されることが前提とされてきた。以下のセクションではそのような表現が顔に関して如何に導き出されるかが説明される。この手法は画像処理ユニット30の各要素に対するトレーニング手順(sequence)を示す図6のフローダイアグラムを参照して説明される。
[顔検出]
画像処理ユニット30は個々の顔の特徴というよりは、顔全体画像を解析できる。それゆえ二つの顔を比較するに当たり、正規化ユニット36は、画像中において略同じ位置を占めている二つの顔上の対応する点に関して、それらが同一のサイズとなるように正規化する。最初に、図6のフローダイアグラムを参照するに、画像が入力され(ステップS302)顔検出ユニット34がそれら画像から顔を抽出する(ステップS304A)。そして正規化ユニット36が孤立分離された顔を受け取り(ステップS306)、各顔に対して、たとえば学習訓練された(trained)検出器を用いて、顔の特徴点(たとえば目や口の角や中心)を検出する(ステップS308A)。この正規化ユニット36は、検出された特徴点を出来るだけその標準の位置に近づけて図示する類似性変換を計算し(ステップS312)正規化された顔を出力する(ステップS314)。このような変換(ワープ、“warping“)を各顔に適用することは、顔を正規化するとともにその画像中における対応する画素が同様の顔の特徴点に対応することを確実にする。
一実施例において、顔検出ユニットは、ブースティング(boosting)を用いて学習訓練され(ステップS304B)量子化された離散ウェーブレット変換係数を顔を表現するために使用する。顔検出に対するこのような手法は、ブースティングに関して米国出願10/440,173、発明名称“Method and Apparatus for Red-Eye Detection" に記述されているが、これは前記出願の参照による援用(incorporated by reference)がされる。顔の特徴の各々に対して検出器は似たように訓練される(ステップS308B)、たとえば学習訓練用顔画像(顔認識モジュールの訓練に用いる画像とは異なる)において手でマークされた顔特徴の位置を中心とする画像パッチのセットからに基づいて訓練される例である。顔における特徴を検出すると(たとえば目や口の角(corners)や中心)、これらの特徴点(ステップS310)は正規化ユニットによって、回転や平行移動して、出来るだけ標準の位置に近づけて特徴を図示するスケールを最小二乗法的に決定するために用いられる。
このようにして、正規化ユニット36は顔を、略標準の位置に特徴を有する固定サイズに変換(ワープ、warps)する(ステップS312)。一実施例において、各顔は32 x 32のグレースケール画像に変換される。幾何学的な正規化に加えて、正規化ユニット36は、各ピクセルをその周囲のピクセルの標準偏差で除することによって画像コントラストを正規化することができ、このようにして照明の変動による影響を減少する。
顔検出ユニット34は目、その他を以下のように検出する。初めに学習訓練用実例(ポジおよびネガ)が離散した特徴のセット(たとえば離散ウェーブレット変換係数の組み合わせ)を用いて表される。各特徴に対して顔検出ユニット34はネガ画像と同じくポジに対してその確率分布(ヒストグラムとして表現されている)を計算し、一つのヒストグラムを他のヒストグラムで除して尤度比の値を有するテーブルを各特徴に対して作成する。
P(feature eye)
P(feature non-eye)
特徴の独立を仮定して(この仮定は事実上は正しくないが、無視し得る)顔検出ユニット34は全てのDWT基準の特徴を計算し、対応する尤度比を調べ、そしてそれらを一緒に掛け合わせることによって、各候補画像パッチに対して目らしさの程度を計算する。パッチは、結果としてのスコアー(score)が十分高ければ、そのパッチは目であると判断され、また、目サーチが実行された領域においてこのスコアーの最大値が選択される(すなわち、最も高スコアーの位置を選択することによるローカライズがされる)。これはS. Ioffe, Automatic Red-Eye Reduction, In Proc. Int. Conf. Image Processing, 2003,(参照による援用(incorporated by reference)がされる)に記載されている顔検出方法に似ている。
実際には、この方法は、各特徴が各画像パッチに対して評価される必要があり、パッチ当たりの特徴の数は高い(たとえば数千)ので時間がかかる(slow)。この問題を克服するため、顔検出ユニット34は早期棄却(early rejection)を利用する。訓練用画像を用いて、特徴は、承認率を固定して(たとえば99%)、各特徴に関してシステムが最大数の非目(non-eye)パッチを棄却することができるように、ソートされる(sorted)。特徴を整理することに加えて、システムは中間閾値のセットを計算し、検出における候補パッチの評価の間に、顔検出ユニット34は学習中に決定された順番で特徴を良く調べ、対応する尤度比を調べそしてそれらを累積和に加える。各特徴を評価した後、この累積和は対応する閾値(訓練中に決定された)と比較され、その候補は、その和が閾値より下なら、棄却される。
顔の特徴を得ると、正規化ユニット36はアフィン変換を既知の手法を用いて、顔特徴が間違いのない標準の位置に出来るだけ近いようにマッピング(mapping)しながら計算する。同様にその変換を用いて顔をワーピング(warping)する。この顔表現は多スケールと方向において特徴を捕捉するべきである。一実施例において、正規化された顔画像は特徴抽出ユニット37に与えられ(ステップS314)、離散ウェーブレット変換が計算される(ステップS316)。S. Ioffe, Automatic Red-Eye Reduction, In Proc. Int. Conf. Image Processing, 2003, に開示されている手法は手本になるものであり、副サンプル化される前にその変換の各レベルを記録しながら超完全DWT(over complete DWT)も用いられる。一実施例においては、特徴抽出ユニット37はハール基底(Haar basis)を用いて3スケールでDWTを計算し、HH成分を切り捨て結果としての特徴は水平および垂直のエッジ強調をする。二つのエッジ方向の各々に対して、最も細かいスケールでの32×32マトリックスのレスポンスが得られ、次の2スケールで16×16や8×8マトリックスが得られる。加えて、能力は、もし非線形性が導入され各DWT係数cはポジティブおよびネガティブチャンネルc+=max(c,0)およびc-=max(c,0)に分離される。そのため、顔は3スケールにおける5376DWT係数、2方向および2チャンネルで表される。
[モデルの学習]
上述してきた多次元付加ガウスモデルは変数独立を仮定していて、その特性は過完全DWTには欠けている。それゆえ、モデル(1)を適用するまえに、システムは独立な特徴を抽出すべきであり、更にはこれらの特徴はクラス間の識別力において出来るだけ良好であるべきである。C. Bishop, Neural networks for pattern recognition, Oxford University Press, 1995,に記載されているような、フィッシャー線形判別(FLD)がこの目的のために用いられる。高いクラス間分散と低いクラス内分散を有する特徴の一次結合が、クラス間およびクラス内共分散マトリックスSbおよびSwを計算し、一般化固有値問題Sbv = λSwvを解くことによって、見出される。特徴の最適射影は最も高い固有値に対応する固有値ベクトルによって与えられる。
しかしながら、5367次元データを扱いながら、共分散マトリックスを推定するのは困難である。他の問題は、訓練セットに存在するクラス以上の固有値は存在し得ないということである。これらの問題は回避可能で、より良い性能が、線形変換を、特徴の全セットに対してではなく、それらの位置とスケールに従って一緒にグループ化された特徴のブロック(blocks)に対して計算することによって達成される。21の特徴ブロック(たとえば図4(c)に示されている)の各々に対して、FLD(ステップS318B)がベスト50のDWT係数の一次結合を見出すために使われ(ステップS318A)、結果としてもたらされる1050の射影のうち、最も高い固有値に対応する600が保存される(ステップS320)。その結果残っている特徴は、それらの相関を計算し、特徴ヒストグラムを見て、それらが事実ガウシアンで独立であることを示すことによって経験的に解析され、かくて付加ガウスモデルに役立つ。最も高い固有値に対応する600の特徴の各々は再スケールされ(rescaled)、対応するクラスター中心分散(2が、上記で概略説明された方法を用いて計算される。このようにして、確率分布が各特徴に対して計算される。(ステップS322)。そして異なる特徴の寄与が上述したように結合される。特徴抽出ユニット37によって抽出された特徴の数とタイプは様々である。
[顔照合]
上述してきた手法は、たとえば許可されていないのにアクセスしようとする詐欺師を防ぐ方法として、顔照合にも使用できる。人がその人の身分(identity)を述べ提示する時、画像処理装置はその人の顔を身分証明のためギャラリーに保存記憶されている映像と比較し、その人がその人が申し立てている人自身かどうかの決定がなされる。応用次第で、このシステムは偽陽性(誤った承認)あるいは偽陰性(誤った拒否)を許容するようになる。それゆえ照合性能を表す最良の方法は、ROC曲線を持って偽陽性および偽陰性両方の割合を示すことである。その曲線にそって動いて、一致スコアー(match score)(方程式(3))が比較されるところの閾値が変化する。顔照合は図8に概念的に図示されている。図8に示されるように、画像処理ユニット30は、与えられた実例x1およびx2が同一人物に属する可能性の方が高いか(図8(a))あるいは異なる人物に属する可能性のほうが高いか(図8(b))を決定することによって、顔照合を実行する。このことが抽出された特徴の各々に対して独立に決定される。
以上、本発明の詳細な実施態様および実施例が説明されてきたが、本発明の本質と範囲を逸脱することなく種々の変更修正等が可能なことはもちろんである。
本発明の更なる特徴と利点は、添付の図面に沿った以下の詳細な記載を読めば明らかになる。
図1は本発明の実施態様に従った対象物認識又は照合を実行するシステムのブロック図である。 図2は本発明の実施態様に従って図1に示されたシステムにおける画像処理ユニットのより詳細な特徴を示すブロック図である。 図3は本発明の実施態様に従った確率モデルを用いて顔の分類を実行する操作手順を示すフローダイアグラムである。 図4は本発明の具体例に従って顔正規化と特徴抽出を示す。 図5(a)および図5(b)は本発明の原理に従って認識又は照合のために利用される付加ガウスモデルの概念(対象物の外観をクラス(級)とビュー(view)に対応した成分に分解する)を示す。 図6は本発明の実施態様に従って対象物認識又は照合のための特徴を識別判定するためのトレーニング(学習)用操作手順をしめすフローダイアグラムである。 図7は本発明の実施態様に従って既存のクラス(級)に対する確率分布の計算の概念図である。 図8は本発明の実施態様に従っての対象物照合をしめす概念図である。

Claims (32)

  1. デジタル画像における対象物を自動的に認識又は照合する対象物自動識別照合方法であって、
    関心ある対象物を有するデジタル画像データにアクセスするステップと、
    前記デジタル画像中の関心ある対象物を検出するステップと、
    前記関心ある対象物を正規化して正規化された対象物表現を生成するステップと、
    前記正規化された対象物表現から複数の特徴を抽出するステップと、
    抽出された特徴の各々を予め決められた付加確率モデルに適用して前記関心ある対象物が既存のクラスに属する尤度を決定するステップと、
    を有することを特徴とする対象物自動認識照合方法。
  2. 前記予め決められた付加確率モデルは対象物の外観をクラスとビューに対応する成分に分解する付加ガウスモデルである、
    ことを特徴とする請求項1記載の対象物自動認識照合方法。
  3. 前記尤度に基づいて前記関心ある対象物に対する既存クラスを選択するステップと、
    付加確率モデルを前記選択されたクラスに対して前記関心ある対象物の特徴量を用いて再計算するステップと、を更に有する、
    ことを特徴とする請求項1記載の対象物自動認識照合方法。
  4. 前記関心ある対象物は顔であり、
    前記対象物自動認識照合方法は顔認識を実行する、
    ことを特徴とする請求項1記載の対象物自動認識照合方法。
  5. 前記関心ある対象物は顔であり、
    前記対象物自動認識照合方法は前記尤度に基づいて顔照合を実行する、
    ことを特徴とする請求項1記載の対象物自動認識照合方法。
  6. 前記関心ある対象物は顔であり、
    前記関心ある対象物を検出するステップは前記デジタル画像データにおける顔の特徴を検出する、
    ことを特徴とする請求項1記載の対象物自動認識照合方法。
  7. 前記関心ある対象物を検出するステップは画像領域が顔の特徴には対応してないことを決定する早期棄却を利用する、
    ことを特徴とする請求項6記載の対象物自動認識照合方法。
  8. 前記関心ある対象物はデジタル写真における顔である、
    ことを特徴とする請求項1記載の対象物自動認識照合方法。
  9. 前記クラスに属する対象物についての特徴量に基づいて複数のクラスの各々に対して付加確率モデルを生成するステップを更に有する、
    ことを特徴とする請求項1記載の対象物自動認識照合方法。
  10. 前記特定のクラスに対して付加確率モデルを生成するステップは、検出された関心ある対象物が前記対応するクラスに加えられる度に繰り返される、
    ことを特徴とする請求項9記載の対象物自動認識照合方法。
  11. 前記付加確率モデルを生成するステップは、多数の付加確率モデルを各クラスアイデンティティに対して生成できるように、単一のクラスに属する実例をクラスター化する、
    ことを特徴とする請求項9記載の対象物自動認識照合方法。
  12. 前記付加確率モデルを生成するステップは、少なくとも一つの実例特徴量から特徴量平均に対する事後分布を計算する、
    ことを特徴とする請求項9記載の対象物自動認識照合方法。
  13. 前記付加確率モデルは前記特徴量平均の分散を作成する、
    ことを特徴とする請求項12記載の対象物自動認識照合方法。
  14. 前記特徴量平均の前記分散は、より多くの実例が前記対応するクラスに関連付けられるに従ってゼロに近づく、
    ことを特徴とする請求項13記載の対象物自動認識照合方法。
  15. クラス間を区別する独立した特徴のセットを識別する訓練段階を実行するステップを更に有する、
    ことを特徴とする請求項1記載の対象物自動認識照合方法。
  16. 前記デジタル画像データはデジタル写真を表している、
    ことを特徴とする請求項1記載の対象物自動認識照合方法。
  17. デジタル画像における対象物を自動的に認識あるいは照合する装置であって、
    関心ある対象物を有するデジタル画像データにアクセスするためのデジタル画像データ入力部と、
    前記デジタル画像データ中の関心ある対象物を検出するための対象物検出器と、
    前記関心ある対象物を正規化して正規化された対象物表現を生成するための正規化ユニットと、
    前記正規化された対象物表現から複数の特徴を抽出するための特徴抽出ユニットと、
    抽出された特徴の各々を予め決められた付加確率モデルに適用して前記関心ある対象物が既存のクラスに属する尤度を決定するための尤度決定ユニットと、
    を有することを特徴とする対象物自動認識照合装置。
  18. 前記予め決められた付加確率モデルは対象物の外観をクラスとビューに対応する成分に分解する付加ガウスモデルである、
    ことを特徴とする請求項17記載の対象物自動認識照合装置。
  19. 前記尤度決定ユニットは、前記尤度に基づいて前記関心ある対象物に対する既存クラスを選択し、および付加確率モデルを前記選択されたクラスに対して前記分類された関心ある対象物の特徴量を用いて再計算する、
    ことを特徴とする請求項17記載の対象物自動認識照合装置。
  20. 前記関心ある対象物は顔であり、前記対象物自動認識照合装置は顔認識を実行することであることを特徴とする請求項17記載の対象物自動認識照合装置。
  21. 前記関心ある対象物は顔であり、前記対象物自動認識照合装置は前記尤度に基づいて顔照合を実行することであることを特徴とする請求項17記載の対象物自動認識照合装置。
  22. 前記関心ある対象物は顔であり、前記対象物検出器は前記デジタル画像データにおける顔の特徴を検出する、
    ことを特徴とする請求項17記載の対象物自動認識照合装置。
  23. 前記対象物検出器は、画像領域が顔の特徴には対応してないことを決定する早期棄却を利用して関心ある対象物を検出する、
    ことを特徴とする請求項22記載の対象物自動認識照合装置。
  24. 前記関心ある対象物はデジタル写真における顔である、
    ことを特徴とする請求項17記載の対象物自動認識照合装置。
  25. 前記対象物自動認識照合装置は、前記クラスに属する対象物についての特徴量に基づいて複数のクラスの各々に対して付加確率モデルを生成する、
    ことを特徴とする請求項17記載の対象物自動認識照合装置。
  26. 前記対象物自動認識照合装置は、検出された関心ある対象物が前記対応するクラスに加えられる度に特定のクラスに対して付加確率モデルの生成を繰り返す、
    ことを特徴とする請求項25記載の対象物自動認識照合装置。
  27. 前記対象物自動認識照合装置は、多数の付加確率モデルを各クラスアイデンティティに対して生成できるように、単一のクラスに属する実例をクラスター化することによって付加確率モデルを生成する、
    ことを特徴とする請求項25記載の対象物自動認識照合装置。
  28. 前記対象物自動認識照合装置は、少なくとも一つの実例特徴量から特徴量平均に対する事後分布を計算することによって付加確率モデルを生成する、
    ことを特徴とする請求項25記載の対象物自動認識照合装置。
  29. 前記付加確率モデルは前記特徴量平均の分散を作成する、
    ことを特徴とする請求項28記載の対象物自動認識照合装置。
  30. 前記特徴量平均の前記分散は、より多くの実例が前記対応するクラスに関連付けられるに従ってゼロに近づく、
    ことを特徴とする請求項29記載の対象物自動認識照合装置。
  31. 前記装置は、クラス間を区別する独立した特徴のセットを識別する訓練段階を実行する、
    ことを特徴とする請求項17記載の対象物自動認識照合装置。
  32. 前記デジタル画像データはデジタル写真を表している、
    ことを特徴とする請求項17記載の対象物自動認識照合装置。
JP2004331172A 2003-11-14 2004-11-15 対象物自動認識照合方法および装置 Expired - Fee Related JP4543423B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US51963903P 2003-11-14 2003-11-14
US10/734,258 US7596247B2 (en) 2003-11-14 2003-12-15 Method and apparatus for object recognition using probability models

Publications (2)

Publication Number Publication Date
JP2005149506A true JP2005149506A (ja) 2005-06-09
JP4543423B2 JP4543423B2 (ja) 2010-09-15

Family

ID=34576863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004331172A Expired - Fee Related JP4543423B2 (ja) 2003-11-14 2004-11-15 対象物自動認識照合方法および装置

Country Status (2)

Country Link
US (1) US7596247B2 (ja)
JP (1) JP4543423B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293783A (ja) * 2005-04-12 2006-10-26 Fuji Photo Film Co Ltd 画像処理装置及び画像処理プログラム
JP2007058401A (ja) * 2005-08-23 2007-03-08 Konica Minolta Holdings Inc 認証装置、認証方法及びプログラム
WO2007089020A1 (en) * 2006-01-31 2007-08-09 Fujifilm Corporation Method and apparatus for automatic eyeglasses detection and removal
JP2009534902A (ja) * 2006-04-21 2009-09-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 精度平滑特性を増大させる画像改善
WO2011061943A1 (ja) * 2009-11-20 2011-05-26 日本電気株式会社 画像修復システム、画像修復方法及び画像修復プログラム
WO2013122009A1 (ja) * 2012-02-16 2013-08-22 日本電気株式会社 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
US9218531B2 (en) 2013-01-11 2015-12-22 Fuji Xerox Co., Ltd. Image identification apparatus, image identification method, and non-transitory computer readable medium
JP2016535888A (ja) * 2013-11-07 2016-11-17 同方威視技術股▲分▼有限公司 検出方法及びその機器

Families Citing this family (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9129381B2 (en) 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7471846B2 (en) 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US8989453B2 (en) 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US8498452B2 (en) 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US8155397B2 (en) 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US7565030B2 (en) * 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US7269292B2 (en) 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
KR100839772B1 (ko) * 2003-07-15 2008-06-20 오므론 가부시키가이샤 대상 결정 장치 및 촬상 장치
GB2409027A (en) * 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
US7460737B2 (en) 2004-02-12 2008-12-02 Hoshiko Llc Method and apparatus for photograph finding
JP2005346806A (ja) * 2004-06-02 2005-12-15 Funai Electric Co Ltd Dvdレコーダおよび記録再生装置
JP5002811B2 (ja) * 2004-10-26 2012-08-15 国立大学法人横浜国立大学 多変数モデル解析システム、方法、プログラム、およびプログラム媒体
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US7315631B1 (en) * 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US20070009159A1 (en) * 2005-06-24 2007-01-11 Nokia Corporation Image recognition system and method using holistic Harr-like feature matching
US8326775B2 (en) * 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
JP4756589B2 (ja) * 2005-12-07 2011-08-24 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
US7657086B2 (en) * 2006-01-31 2010-02-02 Fujifilm Corporation Method and apparatus for automatic eyeglasses detection using a nose ridge mask
US7684594B2 (en) * 2006-02-08 2010-03-23 Fujifilm Corporation Method and apparatus for estimating object part location in digital image data using feature value analysis
US7957555B2 (en) * 2006-02-08 2011-06-07 Fujifilm Corporation Method and apparatus for localizing an object part in digital image data by updating an initial position estimate based on a displacement of the object part
EP2033142B1 (en) 2006-06-12 2011-01-26 Tessera Technologies Ireland Limited Advances in extending the aam techniques from grayscale to color images
US8467570B2 (en) * 2006-06-14 2013-06-18 Honeywell International Inc. Tracking system with fused motion and object detection
US7684595B2 (en) * 2006-06-23 2010-03-23 The United States Of America As Represented By The Secretary Of The Navy Method of facial recognition
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
GB0616293D0 (en) 2006-08-16 2006-09-27 Imp Innovations Ltd Method of image processing
US8031914B2 (en) * 2006-10-11 2011-10-04 Hewlett-Packard Development Company, L.P. Face-based image clustering
US8315463B2 (en) * 2006-11-14 2012-11-20 Eastman Kodak Company User interface for face recognition
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
JP2008191816A (ja) * 2007-02-02 2008-08-21 Sony Corp 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
EP2115662B1 (en) 2007-02-28 2010-06-23 Fotonation Vision Limited Separating directional lighting variability in statistical face modelling based on texture space decomposition
JP4970557B2 (ja) 2007-03-05 2012-07-11 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド デジタル画像取込装置における顔検索及び検出
WO2008126790A1 (ja) * 2007-04-09 2008-10-23 Nec Corporation 物体認識システム、物体認識方法および物体認識用プログラム
KR100876786B1 (ko) * 2007-05-09 2009-01-09 삼성전자주식회사 조명 마스크를 이용하는 사용자 얼굴 검증 시스템 및 방법
US7916971B2 (en) * 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US8031970B2 (en) * 2007-08-27 2011-10-04 Arcsoft, Inc. Method of restoring closed-eye portrait photo
JP5231827B2 (ja) * 2008-02-04 2013-07-10 富士フイルム株式会社 画像表示装置、表示制御方法及び表示制御プログラム
US7855737B2 (en) 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
WO2009148731A1 (en) * 2008-06-02 2009-12-10 Massachusetts Institute Of Technology Fast pattern classification based on a sparse transform
JP5127583B2 (ja) * 2008-06-20 2013-01-23 株式会社豊田中央研究所 対象物判定装置及びプログラム
US8189930B2 (en) * 2008-07-17 2012-05-29 Xerox Corporation Categorizer with user-controllable calibration
WO2010012448A2 (en) 2008-07-30 2010-02-04 Fotonation Ireland Limited Automatic face and skin beautification using face detection
US9202137B2 (en) 2008-11-13 2015-12-01 Google Inc. Foreground object detection from multiple images
TWI382354B (zh) * 2008-12-02 2013-01-11 Nat Univ Tsing Hua 臉部辨識方法
US8213691B2 (en) * 2008-12-30 2012-07-03 Mitsubishi Electric Research Laboratories, Inc. Method for identifying faces in images with improved accuracy using compressed feature vectors
US8121358B2 (en) * 2009-03-06 2012-02-21 Cyberlink Corp. Method of grouping images by face
US8531478B2 (en) * 2009-03-19 2013-09-10 Cyberlink Corp. Method of browsing photos based on people
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
US8170332B2 (en) * 2009-10-07 2012-05-01 Seiko Epson Corporation Automatic red-eye object classification in digital images using a boosting-based framework
US9189137B2 (en) * 2010-03-08 2015-11-17 Magisto Ltd. Method and system for browsing, searching and sharing of personal video by a non-parametric approach
US9502073B2 (en) 2010-03-08 2016-11-22 Magisto Ltd. System and method for semi-automatic video editing
US9554111B2 (en) 2010-03-08 2017-01-24 Magisto Ltd. System and method for semi-automatic video editing
US8948515B2 (en) * 2010-03-08 2015-02-03 Sightera Technologies Ltd. Method and system for classifying one or more images
US8311337B2 (en) 2010-06-15 2012-11-13 Cyberlink Corp. Systems and methods for organizing and accessing feature vectors in digital images
EP2721582A4 (en) 2011-06-20 2015-03-25 Nokia Corp METHODS, DEVICES AND COMPUTER PROGRAM PRODUCTS FOR IMPLEMENTING DETAILED POSITION PROVISIONS OF OBJECTS
TWI479435B (zh) * 2012-04-03 2015-04-01 Univ Chung Hua 人臉辨識方法
US8655029B2 (en) * 2012-04-10 2014-02-18 Seiko Epson Corporation Hash-based face recognition system
US8942468B1 (en) 2012-04-17 2015-01-27 Google Inc. Object recognition
US9158970B2 (en) * 2012-11-16 2015-10-13 Canon Kabushiki Kaisha Devices, systems, and methods for visual-attribute refinement
US9530052B1 (en) * 2013-03-13 2016-12-27 University Of Maryland System and method for sensor adaptation in iris biometrics
WO2014159943A2 (en) * 2013-03-14 2014-10-02 Bitvore Corp. Dynamically loaded plugin architecture
CN104951769B (zh) * 2015-07-02 2018-11-30 京东方科技集团股份有限公司 活体识别装置、活体识别方法和活体认证系统
CN106874921B (zh) 2015-12-11 2020-12-04 清华大学 图像分类方法和装置
US10311290B1 (en) * 2015-12-29 2019-06-04 Rogue Capital LLC System and method for generating a facial model
US9971847B2 (en) 2016-01-07 2018-05-15 International Business Machines Corporation Automating browser tab groupings based on the similarity of facial features in images
US10043058B2 (en) * 2016-03-09 2018-08-07 International Business Machines Corporation Face detection, representation, and recognition
US20170323149A1 (en) * 2016-05-05 2017-11-09 International Business Machines Corporation Rotation invariant object detection
CN106407912B (zh) * 2016-08-31 2019-04-02 腾讯科技(深圳)有限公司 一种人脸验证的方法及装置
US10198626B2 (en) * 2016-10-19 2019-02-05 Snap Inc. Neural networks for facial modeling
CN106682613B (zh) * 2016-12-27 2020-01-03 北京航空航天大学 一种基于人脸显著性的图像压缩方法
US11275819B2 (en) 2018-12-05 2022-03-15 Bank Of America Corporation Generative adversarial network training and feature extraction for biometric authentication
CN111709344B (zh) * 2020-06-09 2023-10-17 上海海事大学 一种基于高斯混合模型的epll图像去光照识别处理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10149192A (ja) * 1996-09-20 1998-06-02 Nippon Telegr & Teleph Corp <Ntt> パターン認識方法、装置およびその記憶媒体
JP2001331799A (ja) * 2000-03-16 2001-11-30 Toshiba Corp 画像処理装置および画像処理方法
JP2001357404A (ja) * 2000-06-14 2001-12-26 Minolta Co Ltd 画像抽出装置
US20020122596A1 (en) * 2001-01-02 2002-09-05 Bradshaw David Benedict Hierarchical, probabilistic, localized, semantic image classifier
US20040264780A1 (en) * 2003-06-30 2004-12-30 Lei Zhang Face annotation for photo management

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004004320A1 (en) * 2002-07-01 2004-01-08 The Regents Of The University Of California Digital processing of video images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10149192A (ja) * 1996-09-20 1998-06-02 Nippon Telegr & Teleph Corp <Ntt> パターン認識方法、装置およびその記憶媒体
JP2001331799A (ja) * 2000-03-16 2001-11-30 Toshiba Corp 画像処理装置および画像処理方法
JP2001357404A (ja) * 2000-06-14 2001-12-26 Minolta Co Ltd 画像抽出装置
US20020122596A1 (en) * 2001-01-02 2002-09-05 Bradshaw David Benedict Hierarchical, probabilistic, localized, semantic image classifier
US20040264780A1 (en) * 2003-06-30 2004-12-30 Lei Zhang Face annotation for photo management

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293783A (ja) * 2005-04-12 2006-10-26 Fuji Photo Film Co Ltd 画像処理装置及び画像処理プログラム
JP2007058401A (ja) * 2005-08-23 2007-03-08 Konica Minolta Holdings Inc 認証装置、認証方法及びプログラム
JP4539494B2 (ja) * 2005-08-23 2010-09-08 コニカミノルタホールディングス株式会社 認証装置、認証方法及びプログラム
WO2007089020A1 (en) * 2006-01-31 2007-08-09 Fujifilm Corporation Method and apparatus for automatic eyeglasses detection and removal
JP2009525517A (ja) * 2006-01-31 2009-07-09 富士フイルム株式会社 眼鏡を自動的に検出し、削除する方法、及び装置
JP4778072B2 (ja) * 2006-01-31 2011-09-21 富士フイルム株式会社 眼鏡を自動的に検出し、削除する方法、及び装置
JP2009534902A (ja) * 2006-04-21 2009-09-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 精度平滑特性を増大させる画像改善
JP5673550B2 (ja) * 2009-11-20 2015-02-18 日本電気株式会社 画像修復システム、画像修復方法及び画像修復プログラム
WO2011061943A1 (ja) * 2009-11-20 2011-05-26 日本電気株式会社 画像修復システム、画像修復方法及び画像修復プログラム
US8798373B2 (en) 2009-11-20 2014-08-05 Nec Corporation Image restoration system, image restoration method, and image restoration program
WO2013122009A1 (ja) * 2012-02-16 2013-08-22 日本電気株式会社 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JPWO2013122009A1 (ja) * 2012-02-16 2015-05-11 日本電気株式会社 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
US9858501B2 (en) 2012-02-16 2018-01-02 Nec Corporation Reliability acquiring apparatus, reliability acquiring method, and reliability acquiring program
US9218531B2 (en) 2013-01-11 2015-12-22 Fuji Xerox Co., Ltd. Image identification apparatus, image identification method, and non-transitory computer readable medium
JP2016535888A (ja) * 2013-11-07 2016-11-17 同方威視技術股▲分▼有限公司 検出方法及びその機器
US10013615B2 (en) 2013-11-07 2018-07-03 Nuctech Company Limited Inspection methods and devices

Also Published As

Publication number Publication date
US20050105780A1 (en) 2005-05-19
US7596247B2 (en) 2009-09-29
JP4543423B2 (ja) 2010-09-15

Similar Documents

Publication Publication Date Title
JP4543423B2 (ja) 対象物自動認識照合方法および装置
US7912246B1 (en) Method and system for determining the age category of people based on facial images
Sung et al. Example-based learning for view-based human face detection
Torralba Contextual priming for object detection
JP3903783B2 (ja) 顔メタデータ生成方法および装置、並びに顔類似度算出方法および装置
US7869657B2 (en) System and method for comparing images using an edit distance
Sahbi et al. A Hierarchy of Support Vector Machines for Pattern Detection.
KR20080033486A (ko) 서포트 벡터 머신 및 얼굴 인식에 기초한 자동 생체 식별
Mady et al. Face recognition and detection using Random forest and combination of LBP and HOG features
Sahbi et al. Coarse to fine face detection based on skin color adaption
Mohamed et al. Automated face recogntion system: Multi-input databases
Agrawal et al. An efficient approach for face recognition in uncontrolled environment
Sidibe et al. A simple and efficient eye detection method in color images
Curran et al. The use of neural networks in real-time face detection
Jagadeesh et al. DBC based Face Recognition using DWT
WO2009047561A1 (en) Value determination
Fritz et al. Rapid object recognition from discriminative regions of interest
KR100711223B1 (ko) 저니키(Zernike)/선형 판별 분석(LDA)을 이용한얼굴 인식 방법 및 그 방법을 기록한 기록매체
Ozkaya et al. Intelligent face border generation system from fingerprints
Dubey et al. A review of face recognition using SIFT feature extraction
Yang et al. Gait recognition based on difference motion slice
Vilaplana et al. Face recognition using groups of images in smart room scenarios
Fondje Bridging Domain Gaps for Cross-Spectrum and Long-range Face Recognition Using Domain Adaptive Machine Learning
Shah et al. Biometric authentication based on detection and recognition of multiple faces in image
Mohamed Product of likelihood ratio scores fusion of dynamic face and on-line signature based biometrics verification application systems

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20070214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100607

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100620

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees