JP3986583B2 - 確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置 - Google Patents

確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置 Download PDF

Info

Publication number
JP3986583B2
JP3986583B2 JP10002396A JP10002396A JP3986583B2 JP 3986583 B2 JP3986583 B2 JP 3986583B2 JP 10002396 A JP10002396 A JP 10002396A JP 10002396 A JP10002396 A JP 10002396A JP 3986583 B2 JP3986583 B2 JP 3986583B2
Authority
JP
Japan
Prior art keywords
image
input
main
subspace
input vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP10002396A
Other languages
English (en)
Other versions
JPH08339445A (ja
Inventor
ババック・モグハダム
アレックス・ペントランド
Original Assignee
マサチューセッツ・インスティテュート・オブ・テクノロジー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マサチューセッツ・インスティテュート・オブ・テクノロジー filed Critical マサチューセッツ・インスティテュート・オブ・テクノロジー
Publication of JPH08339445A publication Critical patent/JPH08339445A/ja
Application granted granted Critical
Publication of JP3986583B2 publication Critical patent/JP3986583B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • G06F16/739Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、自動視覚学習に関し、特に、人間の顔のような、各種のタイプの複雑で多特徴のある実体を検出、認識、及び符号化するための、デジタル的に表された画像の解析に関する。
【0002】
【従来の技術】
視覚学習システムは、観察された光景をデジタル表現へと符号化して、ある目的のために、これらの表現を解析する。1つの重要な目的には、特定のタイプ、又は類別の対象物の存在に対して、光景を走査し、次に、検出された対象物に基づいて、更なる解析を実行して、それらを識別、又は少なくとも更に分類することが必然的に含まれる。視覚学習システムのこの応用により、機密保護、法執行、国境管理、又は他の目的のために、顔を検出、及び識別するシステムにおける用途が、最近では見出されている。
【0003】
この解析には、問題とするパターンを系統的に特徴付けて、比較的大きな集合のデータ内に弁別することが可能である、パターン認識技法が要求される。最も成功した技法の幾つかは、本質的に統計的なものである。しかし、生データ(すなわち、画素点、或いは「ピクセル」の格子として、デジタル的に表現される光景)に関してこれらの操作を実行することは、計算上桁外れなものとなる。その代わりに、通常、データは、請け負うべき解析に適した、系統的な表現にされる。予備解析データ処理の1つの技法は、Karhunen-Loeve変換(「KLT」) であり、これは、統計的解析に馴染みのある表現を与えるために、データの分散行列の固有値、及び固有ベクトル解析を伴う(例えば、Kirby 他による、12 IEEE Transactions on Pattern Analysis and Machine Intelligence 103 (1990)を参照されたい)。更に詳細には、対象物は、非常に大きな座標空間内で表現され、そこにおいて、対象物の各ピクセルは、空間の次元に対応するので、対象物は、その空間におけるベクトル(又は、点)に対応する。KLTによれば、調査中の指向(training)集合の、或いは集団の実体画像は、指向画像を、集団の分散行列の固有ベクトルとして表現する、数学的変換を被る。元の指向画像の各々は、各種の固有ベクトルの総和として、正確に表現可能である。
【0004】
かかる固有空間分解は、テンプレート整合、又は正規化相関のような、標準的な検出技法よりも強力であるが、推定技法を、画像の高次元空間に適用すべきである場合、手に負えない計算上の重荷を依然として呈示する。データを効率的に解析するためには、探索が、データ空間の最も顕著な領域に限定可能なように、分割せねばならない。かかる領域を識別する1つの方法は、「主成分解析」(「PCA」) を必要とし、これは、多次元画像空間内の対象物の分布が、特徴領域内にグループ化される傾向を有することを認識して、この領域を規定するために、固有ベクトルの主成分を利用する。固有ベクトルは各々、指向集合の画像間における異なる量の変化の原因となり、画像間の変化のモードを共に特徴付ける、特徴集合と見なすことができる。各対象画像は、指向画像の集合内の最大分散量の原因となる、「最良の」、或いは主成分固有ベクトル(すなわち、それらは、最大固有値を有する)の一次結合により、近似的に表現することができる。米国特許第5,164,992 号(その開示全体を参照として、本明細書に取り入れる)において、例えば、上記の立案が、顔認識システムに使用され、そこでは、主成分が、主部分空間を、すなわち指向画像が群をなす高次元画像空間の「顔空間」領域を規定する。入力画像(又は、画像領域)が走査されて、その画像を顔空間上に数学的に投影することにより、顔の存在が検出される。顔空間からの入力画像(高次元画像空間における点として表現される)の距離を利用して、顔と顔でない間が弁別される。すなわち、計算された距離が、予め選択された閾値より下になった場合、入力画像はおそらく顔である。もう少し一般的には、米国特許第5,164,992 号に記載の技法は、「対象空間からの距離」(「DFOS」)の大きさを利用して、入力画像が、対象物の実体を含むか否かを判定する、ということが言える。
【0005】
計算上は扱い易いが、米国特許第5,164,992 号の手法は、主成分以外の固有ベクトルが、対象空間を規定する際に廃除されるので、基本的には不完全なものである。結果としての局所密度関数は、対象空間を単一の完全体として扱う。すなわち、DFOS計量法は、内部変化がないと仮定した空間からの絶対距離を与える。しかし、対象空間における全パターンが、おそらく等しいと仮定することにおいて、この解析は、ある間違った結果となる傾向がある。例えば、人間の目は、対象物が実存しないと瞬時に認識するが、その指向画像との特定の類似点を共有するパターンは、PCAを用いると、対象分類の構成要素として、間違った類別化を容易になす可能性がある。
【0006】
対象空間が、PCAを用いて規定される、この制限された手法は、対象空間の密度が変動する場合だけでなく、対象空間が多モードである場合にも制限を課す。例えば、指向画像が、異なる視野角で、又は異なる照明条件の下でとられた、顔の写真からなると想定してみる。顔空間における指向の視野の分布は、単一モードにはならず、実際、対象空間において、複雑、且つ分離不可能な多様体上に存在する傾向となる。PCAは、かかる空間配置内において、正確な推定を与えることができない。PCAをかかる多モード環境に適応させるためには、各々異なる視野に対応する、個別の固有空間においてPCAが実行される、視野基準の(又は、対象物基準の)立案を構築すること、或いはスプライン、又は局所基準関数を用いて、普遍の、又は母集団の固有空間に、対象空間多様体の複雑性の捕捉を試行すること、といった方策に頼らねばならない。しかし、これらの適応の何れもが、複雑であり、且つ解析の精度を最終的に劣化させる可能性がある。
【0007】
【発明が解決しようとする課題】
本発明は、推定を導出するために、主成分だけでなく、全ての固有ベクトルを利用する、対象物検出、及び認識に対する手法を提供する。対象空間内の全てのパターンが、ほぼ等しいと仮定する代わりに、対象空間内の確率分布を捕捉する。このようにして、本発明は、対象空間内に入る入力画像に対する、パターン間のより緻密な識別、推論、対象空間内のその代表値の測定を容易にする。換言すると、パターンが、対象空間内に存在するが、指向画像が、群をなす傾向を有する、対象空間の領域近傍のどこにも存在しない場合、本発明は、そのパターンを「代表値ではなく」、おそらく、対象物分類の構成要素ではないと識別する。本発明は、人間の顔、その特徴(例えば、目)といった、実質的に任意の多特徴のある実体だけでなく、また人間の手といった、柔軟で関節のある対象物の検出、及び認識に有益である。
【0008】
本発明は、主固有ベクトル成分に対する解析に限定されないので、多モード分布に容易に適合する。実際、本発明により、異なる対象物視野を表す指向画像の集合が与えられる限り、本発明は、ある範囲の入力パターン配向にわたって、価値のある認識性能をもたらすことが可能である。換言すると、本発明は、内部分布が一様でないだけでなく、多モードでもある対象空間内の弁別が可能である。更に、本発明は、検出が、入力画像内の特徴的パターンの大きさにほとんど独立であるような、縮尺の範囲にわたって動作可能である。本発明により利用される表現は、基本的にはデータ圧縮形式の、高効率なモデル・ベース符号化、機能に向いている。対象物の分類を表す、基本固有ベクトルの集合が、基本ベクトルの重み付け一次結合として表現される、新しい対象物を符号化するための基準として使用され得る。このようにして、新しい対象物が、少数のバイトを用いて表現可能であり、最小限の必要記憶容量で、大画像データベースの効率的な符号化が容易になる。圧縮は、量子化により更に増強され得る。
【0009】
【課題を解決するための手段】
従って、1つの態様において、本発明は、本明細書に記載する原理に従って、散乱した光景において、(顔といった)複雑で多特徴のある対象物、又は実体を検出するための設備である。走査モジュールが、ピクセルの矩形近傍を系統的に識別して、検出モジュールに、各ピクセルに関連した値(例えば、輝度レベル)を渡す。検出モジュールは、ピクセル値を、高次元画像空間(各空間軸に沿ったベクトル成分の長さに対応する、ピクセル値を備えた)におけるベクトルとして表現し、以下で説明するように、このベクトルを固有空間分解上に投影して、ベクトルが、検出すべき対象物のタイプのパターン特徴を含むか否かを判定し(すなわち、ベクトルが、対象空間内に入るかだけでなく、代表値であるか否かも)、もし含む場合、認識モジュールは、入力パターンが、指向画像の集合のうちのいずれの特定ものに対応するかを判定する。更に特定として、本発明は、入力画像が、指向画像集合の全ての固有ベクトル成分に対して考慮されるが、高次元画像空間を通して、明示的な解析を計算する必要のないような、PCA手法に及ぶ。代わりに、本発明は、PCAの部分空間結果を、画像空間における対象物の確率密度の周辺成分の推定として取り扱い、PCA部分空間結果を足場として、統計的に矛盾のない推定枠組みに、PCA投影、及び残りの(主成分でない)固有ベクトル上への入力画像の投影を別個に取り込むことにより、確率密度の完全な推定を達成する。これは、主成分の、及び残りの固有ベクトル空間に関連した、確率密度は、互いと容易には相関しない、ということに関するので、本発明の重要な要素を表す。
【0010】
全体の対象物検出に加えて、本発明は、対象特徴(例えば、顔全体の代わりに、顔の特徴)を自動的に検出、及び識別するように、実施可能である。この機能により、全体の対象物を基準にして、多モードの対象空間密度が何を表すかという、個性が表現される。説明の便宜上、「特徴」という用語は、対象物全体、又はその特徴を意味するために、本明細書において一般的に使用する。
【0011】
他の態様において、本発明は、検出に付随して、又はその代替として、固有対象物、又は固有特徴テンプレート(例えば、固有の顔、固有の目、固有の鼻、固有の口、等)の一次結合に基づいて、対象物、又は特定の対象特徴のモデル・ベース符号化を提供する。固有特徴の表現において、特徴空間からの等価距離(「DFFS」)計量法を用いて、入力画像の各ピクセルの解析から、特徴距離マップが構築される。n個の固有ベクトルを用いた場合、これには、n個の畳み込み(これは、高速フーリエ変換(「FFT」)を用いて、効率的に計算可能である)に加えて、付加的な局所エネルギー計算が必要とされる。次に、この距離マップの大域的最小値が、最良の特徴整合として選択される。この技法の性能は、最近、約8000枚の「警察の記録用の顔(mugshot)」写真のデータベース上で試験され、それに伴い、94%の検出率(標準のテンプレート整合よりも、ほぼ完全な程度の大きさの改善を表す)を達成した。
【0012】
本発明は又、主成分空間内、及びその外側の確率を相関するための、統計的原理を与える、最大公算(「ML」)を用いて、対象物の自動視覚学習、特徴検出、及び識別のための装置を具体化する。好適な実施例において、この装置には、多数の縮尺で画像を走査し、各縮尺において、好適には並列に、ML解析(対象物、又は特徴レベル、或いはその両方での)を実施して、目標特徴の実体を検出する手段と、多次元画像空間における固有ベクトルの集合として、好適には配向、及び照度が一致する、指向画像集合を表現する手段と、指向画像集合と幾何形状、及びグレースケール・コントラストを一致させるために、入力画像の検出成分を調整する手段と、認識を目的として、指向集合の固有空間表現上に、検出された特徴を投影する手段と、固有ベクトル投影係数に関連して、元の画像を再構成するための任意の再構成モジュールと、量子化固有ベクトル投影係数の集合として、調整、及び/又は再構成画像を効率的に表現するための、符号化モジュールとが含まれる。
【0013】
【発明の実施の形態】
以上の説明は、添付図面と関連してなされる、以下の詳細な説明から、更に容易に理解されるであろう。
【0014】
1.画像解析
本発明の手法は、密度推定に基づくものであり、固有空間分解を利用して、高次元画像空間が、計算上で管理可能な部分空間に縮小される。各々が対象物分類Ωの構成要素である、指向画像の集合
【0015】
【数1】
Figure 0003986583
【0016】
に関して、本発明は、分類メンバーシップ関数、又は公算関数P(x|Ω)を推定、すなわち入力画像xが、その分類の構成要素であることを推定する、という課題を提言することができる。
【0017】
この課題に対するPCA手法は、以下の通りである。m×n画像の集合
【0018】
【数2】
Figure 0003986583
【0019】
が与えられると、各画像It のピクセル要素の辞書的な順番により、xが次元mnである(すなわち、x∈RN=mn)、指向集合のベクトル{xt} を形成することが可能である。KLTにおける基本関数は、固有値問題を解くことにより得られる。
【0020】
【数3】
Figure 0003986583
【0021】
ここで、Σは、データの分散で、Φは、Σの固有ベクトル行列で、Λは、固有値の対応する対角行列である。PCAを用いて、局所KLTが、最大固有値の固有ベクトルを識別して、主成分の特徴ベクトル
【0022】
【数4】
Figure 0003986583
【0023】
を得るために実行され、ここで
【0024】
【数5】
Figure 0003986583
【0025】
は、平均正規化画像ベクトルであり、ΦM は、主固有ベクトルを含む、Φの部分行列である。PCAは、最大固有値(すなわち、主成分)に対応する、KLの原理のより低い次元の部分空間を抽出する、一次変換y=T(x):RN→RMとして説明できる。図1に示すように、説明目的のために、表現、及びその特徴(対象物とは反対である)レベルでの解析を仮定するが、これは、領域10内に群をなす主成分を含む超平面である、主部分空間(又は、特徴空間)
【0026】
【数6】
Figure 0003986583
【0027】
、及び図1に直交相補成分で示す残りの成分
【0028】
【数7】
Figure 0003986583
【0029】
からなる、2つの相互に排他的で、且つ相補的な特徴空間への、ベクトル空間RN の直交分解に対応する。特徴空間からの距離(「DFFS」)の大きさは、入力画像xに対して、主特徴部分空間Fからのその画像空間ベクトルの距離を表し、米国特許第5,164,992 号に使用されるような技法は、DFFSが、所定の誤差範囲内にあるか否かを判断し、もし範囲内にある場合、入力画像は、特徴の場合であると見なされる。換言すると、空間F/は、残留再構成誤差を計算するためにだけ用いられる。F/空間にある関連特徴ベクトルに対する、xの関係だけでなく、主ベクトルの群からの、主特徴空間Fにおけるxの投影距離も無視され、すなわち、この後者の「特徴空間の距離」(「DIFS」)パラメータは、最も典型的な特徴が、領域10内、又はその近くに入ることになるので、検討中の特徴タイプの典型的な構成要素として、xが見なせるかどうかの度合いを示す。
【0030】
局所KLを展開すると、残留再構成誤差は、以下のように定義される。
【0031】
【数8】
Figure 0003986583
【0032】
ここで、各量yは、成分固有ベクトル上への投影係数を表し(すなわち、yi は、入力画像に対する、i番目の固有ベクトルの相対分布を意味し、F空間におけるある点を表す)、残留誤差は、平均正規化画像xのM個の主成分、及びL2 ノルム(すなわち、長さを表す、2乗和)から、直接的に計算可能である。図1を参照すると、直交部分空間F/におけるDFFS成分は、単純なユークリッド距離となり、この残留誤差に等しい。DIFS成分(すなわち、特徴空間F内にあるxの成分)は、一般的には、距離に基づいたノルムではないが、Fにおけるyの確率分布に関連して、解釈可能である。
【0033】
与えられた指向集合{xt} から、分布の平均x/、及び分散Σの推定値が与えられると、例えば、米国特許第5,164,992 号で概略示される統計的技法を用いて、公算関数P(x|Ω)は、以下のように表現可能となる。
【0034】
【数9】
Figure 0003986583
【0035】
この関数を特徴付けるのに十分な統計量は、いわゆるMahalanobis 距離であり、これは、多次元の正規化、すなわち互いに、異なる値範囲を有する変数のノルムに関する統計的な縮尺係数を与え、このようにして、「代表値」が、異なる値に及ぶ変数に対し一貫して表現可能となる。Mahalanobis 距離は、以下で与えられる。
【0036】
【数10】
Figure 0003986583
【0037】
Σの固有ベクトル、及び固有値を用いると、以下の直交化形式でΣ-1を書き直すことが可能である。
【0038】
【数11】
Figure 0003986583
【0039】
ここで、y=ΦTx は、KLTにおける座標の変更により得られる、新しい変数である。直交化形式のために、Mahalanobis 距離は又、以下の総和の項で表現可能となる。
【0040】
【数12】
Figure 0003986583
【0041】
以下のように、M個の主投影のみを用いて、d(x)を推定可能である。
【0042】
【数13】
Figure 0003986583
【0043】
ここで、項
【0044】
【数14】
Figure 0003986583
【0045】
は、DFFS残留誤差ε2(x) であり、最初のM個の主成分を用いて計算可能である。従って、P(x|Ω)は、2つの周辺、及び独立ガウス密度の積として、
【0046】
【数15】
Figure 0003986583
【0047】
から推定可能となる。
【0048】
【数16】
Figure 0003986583
【0049】
ここで、PF(x|Ω) は、F空間における真の周辺密度で、
【0050】
【数17】
Figure 0003986583
【0051】
は、直交相補F/空間における推定される周辺密度である。
【0052】
ρの最適値は、Kullback-Leibler発散、又は真の密度とその推定値間の「相対エントロピー」とすべきである、以下の適切な費用関数J(ρ)を最小化することにより決定できる。
【0053】
【数18】
Figure 0003986583
【0054】
【数19】
Figure 0003986583
【0055】
最適な重みρ* は、ρに関して上記関数を最小化することにより、見出し得る。式δJ/δρ=0を解くと、以下の結果が得られる。
【0056】
【数20】
Figure 0003986583
【0057】
これは、直交部分空間F/における固有値の単純な算術平均となる。その最適性に加えて、ρ* は又、結果として以下のように、Mahalanobis 距離の不偏推定値となる。
【0058】
【数21】
Figure 0003986583
【0059】
従って、M次元の主部分空間が定義されると(例えば、PCAにより)、主部分空間だけでなく、全体の画像空間を包囲する、最適密度推定値
【0060】
【数22】
Figure 0003986583
【0061】
は、式11で与えられるρを備えた、式8で与えられる形式を有する。
【0062】
指向集合が、変化する照明条件の下での多数の視野、又は多数の対象物を表す場合、指向視野の分布は、もはや単一モードでなく、例えば、図2に示す任意の多モード密度に類似することになる。空間Fの単一領域10を占有する代わりに、主ベクトルは、領域12、14、16の群を占有する。このタイプの分布をモデル化する1つの手法は、各種の領域が、特定のタイプの画像変化(例えば、頭上、及び左右の輪郭視野)を系統的に反映すると仮定し、画像をグループ内に隔離することにより、解析を分割することである。
【0063】
本発明は、分割といった方策を必要とすることなく、多モードの固有ベクトル空間における、入力画像の唯一の解析を容易にする。F/空間成分が、ガウス状で、F空間における主要特徴とは独立であると仮定すると(これは、例えば、CCDカメラに本質的な「ショット雑音」に起因した、純粋な観測雑音の場合には、真実であろう)、主成分ベクトルyにおける任意の密度P(y)として、PF(x|Ω) を取り扱うことにより、式8の密度推定値
【0064】
【数23】
Figure 0003986583
【0065】
の分離可能形式を依然として利用することが可能になる。図2に示すように、DFFSは、残留誤差ε2(x) に依然として対応するが、DIFSは、もはや単純なMahalanobis 距離として表現することはできない。しかしながら、DIFSをP(y)と関連させることにより、「距離」として、例えばDIFS=−logP(y)として、DIFSを表現することが可能である。
【0066】
主成分ベクトルの密度P(y)は、母数混合モデルを用いて推定可能である。特に、任意の複合密度は、ガウスの混合法を用いて、以下のようにモデル化可能である。
【0067】
【数24】
Figure 0003986583
【0068】
ここで、g(y;μi,Σi)は、平均ベクトルμ、及び分散Σを有する、M次元ガウス密度であり、πi 変数は、制約条件Σπi =1を満足する、成分の混合母数である。この混合は、母数
【0069】
【数25】
Figure 0003986583
【0070】
により完全に指定される。画像の多モード指向集合
【0071】
【数26】
Figure 0003986583
【0072】
が与えられると、混合母数は、ML原理を用いて、以下のように推定可能となる。
【0073】
【数27】
Figure 0003986583
【0074】
この推定問題は、周知の期待値最大化(「EM」)アルゴリズム(例えば、Dempster他による、「EMアルゴリズムによる不完全データからの最大公算(Maximum Likelihood from Incomplete Data via the EM Algorithm)」,Journal of the Royal Statistical Society B, vol.39, 1977、及び Render他による、「混合密度、最大公算、及びEMアルゴリズム(Mixture Densities, Maximum Likelihood and the EM Algorithm)」,26 SIAM Review 195 (1984)を参照されたい。これらの参考文献の各々の内容を参照として、本明細書に取り込む。)を使用して、直接に解かれる。EMアルゴリズムは、公算において単一的収束性であり、従って指向集合の公算全体において、局所最大値を見つけるのが保証される。
【0075】
指向データが、真にM次元(最大で)であり、白色ガウス測定雑音に起因した摂動を除いて、主部分空間Fに唯一属するという、すなわち等価的に、指向データのF/空間成分自体が、分離可能なガウス密度を表すという、動作仮定を与えると、完全公算関数P(x|Ω)の推定値が、以下により与えられる。
【0076】
【数28】
Figure 0003986583
【0077】
単一モード、及び多モードの両方の場合において、密度推定値
【0078】
【数29】
Figure 0003986583
【0079】
は、入力画像(画像空間のベクトルxとして表現される)が、指向画像集合の事例を表すか否かの信頼性のある指示を与える。すなわち、推定値は、DFFSから導出される残留再構成誤差、及びDIFSにより表現される分類代表値の両方を反映する。更に密度推定値
【0080】
【数30】
Figure 0003986583
【0081】
は又、縮小化に向いているので、確率推定値は、画像全体ではなく、画像成分に対して展開可能である。特に、密度推定値を用いて、以下のように、多縮尺の突出マップが形成され、ここで、線形縮小型の入力画像に関して、公算計算が(並列に)実行される。
【0082】
【数31】
Figure 0003986583
【0083】
ここで、xijk は、多縮尺表現において、入力画像の局所的な部分画像から得られるベクトルである。対象物Ωの空間位置、及び縮尺のML推定値は、以下のように得られる。
【0084】
【数32】
Figure 0003986583
【0085】
ここで、i、jは、画像成分を識別し、kは縮尺水準である。
【0086】
対象物、又は特徴のグレースケール出現における多様性は、照明、及びコントラスト変化から生じる。以下で更に詳細に説明するように、各部分画像をその平均、及び標準偏差により正規化することによって、広域的な照度変化に対して(それと同時に、特定のカメラの線形応答特性に対しても)、正規化することが可能である。この照明の正規化は、指向、及び入力画像解析時に、通常実施される。
【0087】
2.ハードウェア実施例
ここで、本発明を取り入れたハードウェア・システムを、ブロック図形式で示す図3を参照する。そこで示されるように、このシステムは、ビデオ源150(例えば、電荷結合素子、すなわち「CCD」カメラ)を含み、それは、解析すべき静止入力画像を供給する。ビデオ源150の出力は、デジタイザ152により、ピクセルマップへとフレームとしてデジタル化される。デジタル化ビデオフレームは、それを介して全ての構成要素が通信を行う、システムバス155上に、ビットストリームとして送られて、大容量記憶装置(ハードディスク、又は光学式記憶ユニットといった)だけでなく、主システムメモリ160(特定として、一連の等サイズの入力画像バッファ162を規定する区分内の)にも格納される。
【0088】
図示のシステムの動作は、中央処理ユニット(「CPU」)170により指令される。以下で説明する、画像処理動作の高速実行を容易にするために、このシステムは、好適には、グラフィック、又は画像処理ボード172を含むが、これは、当業者には周知の標準的な構成要素である。
【0089】
ユーザは、キーボード180、及び位置検知装置(例えば、マウス)182を用いて、システムと対話する。どちらかの装置の出力を用い、情報を指示、又はスクリーンディスプレイ184の特定区域を選択して、システムにより実施されるべき機能が指令される。
【0090】
主メモリ160は、CPU170の動作、及び他のハードウェア構成要素との対話を制御する、一群のモジュールを含む。オペレーティング・システム190が、メモリ割当て、ファイル管理、及び大容量記憶装置157の動作といった、低レベルの基本システム機能を指令する。より高レベルにおいては、一連の格納された命令として実施される、解析モジュール192が、以下で説明するように、本発明により遂行される主要機能の実行を指令し、ユーザインターフェース194を規定する命令が、スクリーンディスプレイ184を介して、直接の対話を可能にする。ユーザインターフェース194は、ユーザによる動作を促すために、言語を、又はディスプレイ上にグラフィック画像を生成して、キーボード180、及び/又は位置検知装置から、ユーザ・コマンドを受け取る。最後に、メモリ160は、大容量記憶装置157に格納されている、固有テンプレートに関して、以前に説明したように、符号化された対象物、又は特徴の画像データベースを格納するための区分196を含む。
【0091】
各画像バッファ162の内容は、「ラスター」、すなわち集合的に1つの画像を表す、離散ピクセル位置の規則的な2次元パターンを規定し、その画像を表示するために、スクリーンディスプレイ184を駆動する(例えば、画像処理ボード172、又は画像サーバの手段により)ためにも使用できる。フレームバッファ 内の各メモリ配置の内容は、ディスプレイ184上において、対応するピクセルの出現を直接支配する。
【0092】
主メモリ160のモジュールを個別に説明したが、これは、呈示を明瞭にするためだけであり、システムが、全ての必要な機能を遂行する限り、それらが、システム、及びそのプログラミング・アーキテクチャー内で、如何に配分されるかは重要ではない、ということを理解されたい。同様に、格子として概念的に構成したが、ピクセルマップは、実際には、この様にして、デジタル的に格納される必要はない。むしろ、メモリ利用、及び転送を簡便にするために、ラスターパターンは、通常、ピクセルの順序アレーとして符号化される。
【0093】
上記のように、本発明に関連した重要なタスクの実行は、CPU170の動作を支配し、且つ対象物、又は特徴を検出、認識、及び符号化するのに必要なステップを遂行する際には、主メモリ160とのその対話を制御する、解析モジュール192により指令される。このモジュールの好適な実施例の構成要素は、図4に示されている。図示の解析モジュール192は、最大推定精度のために、対象物、及び特徴レベルの両方において動作する。しかしながら、これらの機能は、本発明の完全な可能性を明示するが、本発明は、代替として、その両方ではなく、対象物、又は特徴レベルのどちらかにおいても動作可能である(例えば、計算資源を保護するため、又は実時間動作を容易にするために)、ということを理解されたい。
【0094】
図4に示すように、アテンション副システム200、及び対象物中心の表現ステージ(「OCRS」)202が協働して、対象物の可能性のある事例を検出するために、入力画像に関する多縮尺の探索を遂行する。説明上の目的のために、この対象物は、顔であると想定する。本発明の重要な適用は、検出ステージにおいてもたらされる。すなわち、ML解析を用いて、入力画像が、とにかく顔を含むか否かが判定される。
【0095】
副システム200、及びOCRS202の好適な動作モードが、図5に示されている。第1のステップ300において、粗い固有ベクトル顔表現(例えば、10次元の主部分空間、すなわち、最も高い関連性のある固有ベクトルを有する、「固有の顔」の10個の固有ベクトルから構成される「顔空間」を備えた)、及び各種の顔特徴(例えば、目、鼻、及び口)の固有ベクトル表現が、一連の指向画像(好適には、単一の視野角で生成された)から確立される。適切なユーザ・コマンドに応答して、ステップ302において、入力画像が、第1のバッファ162内にロードされて、それを、解析モジュール192が利用可能となる。次に、入力画像は、入力画像よりも小さな複数のレベル(例えば、1/2×、1/4×、等)に、線形縮小されて、k個の縮小画像の各々が、画像バッファ162のうちの異なるバッファに格納される。
【0096】
ステップ304において、各縮小化された入力画像(例えば、20×30ピクセル)の矩形の「ウィンドウ」領域が、通常は画像の角部において規定される。ウィンドウ内のピクセルは、画像空間内の点としてベクトル化され、主部分空間F、及び直交部分空間F/上に投影されて、ステップ306において、式8及び11に従って、確率推定値が得られる。画像の走査が、完全に完了していないならば(ステップ308)、ウィンドウは、同じウィンドウ寸法であるが、既に解析済みのウィンドウから、1ピクセルの距離だけ変移した、新しい領域を規定することにより、「移動」される(ステップ310)。入力画像の縁部に到達した場合、ウィンドウは、1ピクセルの距離だけ垂直に移動されて、走査は、反対方向に再開する。画像走査が完了すると、顔を含む確率の最も高いウィンドウが、式16に従って識別される(ステップ312)。全ての縮尺kに対して、ステップ304−312が繰り返され、それによって、多縮尺の突出マップが生成される。
【0097】
所望ならば、任意の数の適切な方法で、入力画像を予めフィルタリングするように、アテンション副システム200を構成することも可能である。例えば、米国特許第5,164,992 号に記載されるように、動き検出を用いて、光景内の人の存在を識別することが可能であり、また突き止められる人の顔のテンプレート整合解析を用いて、顔がありそうな位置を予測することも可能である。
【0098】
全ての縮小化画像の解析に続いて、最も高い関連性のある確率推定値、及びそれに関連した縮尺kを有する、ウィンドウi、jが、識別されて、翻訳、及び縮尺に対して正規化される(ステップ314)。標準的な画像加工技法を利用して、検出された顔が、束縛ボックスに配置される。ステップ316において、束縛ボックス内の画像が走査されて、顔の特徴(例えば、目、鼻、及び口)の位置が検出される。これは、もう一度、局所ウィンドウ移動、及び固有特徴ベクトルに対する確率推定を行うことにより達成される。束縛ボックス内のこれら特徴の位置を用いて、まず、検出された顔の幾何形状が有効化され、次に、ステップ320において、その顔が、「歪曲(warp)」、すなわち認識の目的のために、指向集合において利用された視野と、その顔が空間的に整合するように、幾何的に変形される。
【0099】
最後に、ステップ322において、束縛画像が、顔の内部のみを含むようにマスキングされ、それにより、最も突出した顔の部位上に、KLTの記述力が集中される。指向ステップ300は、特徴抽出モジュール(「FEM」)204により遂行され、ステップ314−320は、OCRS202により実行され、主部分空間、及び直交部分空間上への入力画像の投影を含む、残りのステップは、アテンション副システム200により実行される。
【0100】
コントラスト正規化モジュール206は、中央化され、マスキングされた顔を処理して、広域的な照度変化、及び/又は特定のCCDカメラの線形応答特性に起因した、入力画像における変動を補償する。というのは、これらの変動は、認識、及び符号化精度に影響を与えることになるためである。標準範囲(すなわち、それ自体が、モジュール206により固定標準に正規化される、指向画像に関連した範囲)に対して、入力画像のグレースケール範囲を正規化することにより、モジュール206は動作する。コントラスト調整に使用される正規化係数は、メモリ内に格納されて、後に、元のコントラストを有する画像の再構成が可能になる。
【0101】
コントラスト正規化に続いて、認識、すなわち指向画像の1つとの顔の整合の目的のために、固有の顔の集合上に顔ベクトルを投影するFEM204により、顔が処理される。このステップは、例えば、米国特許第5,164,992 号に従って実行可能であり、その場合には、固有の顔は、主成分を表し空間Fを規定する。認識、及び学習モジュール(「RLM」)208が、結果としての投影係数を利用して、画像データベース196から顔を突き止め、ここで、顔は、それ自身の投影係数により表される。RLM208は、データベース196から最も近い顔、及び整合のための信頼レベルを戻す。
【0102】
元の画像は、再構成モジュール210により、認識を目的として使用される調整された画像から再構成され、再構成モジュールは、ステップ314、及び318で使用される正規化、及び変形係数だけでなく、モジュール206により使用されるコントラスト調整値も累算して、反対にこれらを適用して、元の入力画像において表されるような顔に到達する。
【0103】
調整された顔画像(、及び/又は再構成された顔、及び/又はFEMにより、投影係数へと処理された入力画像)は、表現効率を最大にするために、符号器モジュール212により符号化することができ、これは、例えば画像を転送すべき、又は放送すべき場合に、特に重要となる。投影係数は、それ自体、ピクセルマップのかなりの圧縮を表すが、符号器212は、その係数の標準偏差(KLTにより計算された固有値の平方根)により、係数を正規化して、その正規化された係数を量子化することによって、投影係数を尚も更に圧縮する。量子化は、例えば、正規化された係数を、離散範囲「容器(bin)」内に割当てる、ガウス源に対するLloyd-Max 量子化器を用いて達成可能であり、ここで、各容器は、対応する浮動小数点係数よりも、小さな量の情報により表すことができ、容器の数(すなわち、量子化レベル)は、量子化された符号化の精細度を決定する。当然ながら、より少ないレベルは、符号化された画像が、固有の顔から再構成された場合に、より貧弱な画像忠実度を意味する。しかしながら、関連した固有の顔が、画像に寄与する度合い、従って、投影係数の重要性を反映する、固有値に従って、投影係数をランク付けすることにより、異なる係数に対して、可変数の量子化レベルを利用する(例えば、所与の係数に割当てられたレベルの数を、その固有値に比例させる)ことで、最小限のメモリ費用と共に忠実度を保持することが可能となる。
【0104】
以前に説明したように、ここでも、本発明の手法は、対象物、又は特徴レベルにおいて有効であることを強調する。これら対象物、及び特徴レベルは、上述のように、特定の用途に依存して、組み合わせるか、又は別個に実施することが可能である。例えば、本発明は、顔により表される多特徴のある実体の「履歴調査」を行って、特定の顔特徴を突き止めることができ、探索された対象特徴が、特に識別可能な特性を具体化する場合、特徴指定の探索は、対象物全体の探索よりも、正確で、且つある場合には高速であることを実証可能である。
【0105】
本発明の固有空間の密度推定技法は、顔といった質感のある、又は細部の対象物には限定されない。例えば、その多様性が、質感ではなく形状から生じる、手といった、本質的に質感のない対象物に、本発明は首尾良く適用された。照度、コントラスト、及びシーン背景に関して不変である、手の形状のエッジに基づく表現を利用することにより、ジェスチャー形式で純粋に表現される、対象物の同一性に関して動作する本発明の能力が明示された。
【0106】
この実施例において、まず、手振りの指向集合が、黒の背景に対してデジタル的に捕捉された。次に、手の2次元輪郭が、Canny エッジ・オペレータを用いて、抽出された。しかし、結果としての2値のエッジ・マップは、その散在した分布に起因して、互いにほとんど相関がなく、それにより非常に高次元の主部分空間となった。本来の次元の数を縮小するために、空間相関を、2値のエッジ・マップ上で、拡散処理を介して導入した。この処理は、効果的にエッジを広げ、「ぼかし(smears)」て、それにより、エッジの空間分布に関連して、対象形状を表す、連続的な値のついた輪郭画像がもたらされる。この表現は、米国特許第5,164,992 号に開示されている認識手法が、16次元の主部分空間の高精度で、手振り(それらは、生成された拡散エッジ・マップに対して、前処理されるが)を入力するために、ジェスチャー分類を割当てるように、計算上扱いやすいレベルにまで主部分空間を縮小した。
【0107】
本発明は、検出(アテンション、及び表現)ステージ、すなわち散乱したシーンにおいて、手(その関節状態の何れかにおける)を発見し、その縮尺を明らかにし、それを、認識の前に、基準フレームに対して整合させるためのステージにおいて、上記の環境に適用された。この局所化は、手の基礎をなす画像表現が、グレースケール画像ではなく、拡散エッジ・マップであったことを除いて、上記のシステムにより達成された。
【0108】
しかし、この場合、指向データの分布は、各ジェスチャーに対して、基本的に異なる手の形状に起因して、多モードであった。従って、アテンション副システムは、式8及び11ではなく、式13−15と関連して説明した手法を利用した。この推定値のパラメータは、EMアルゴリズムの20の交互作用により得られた。各入力シーンは、まず、拡散エッジ・マップを生成するために前処理され、次に、多縮尺の突出計算を容易にするために、上記のように縮小化された。本発明は、散乱した背景シーンを含む画像において、手を十分な精度で、検出、及び局所化するために見出された。
【0109】
従って、以上のことは、対象物、及びその特徴の検出、認識、及び符号化に対して、非常に拡張性があり、且つ有利な手法を表すことが、理解されるであろう。本明細書において用いた用語、及び表現は、限定としてではなく、説明の用語として用いたものであり、また、かかる用語、及び表現を用いる際に、図示、及び記載した特徴の何れの等価物、及びその部分を包含しない、という意図はなく、各種の修正が、特許請求の範囲で規定される、本発明の範囲内で可能である、ということを認識されたい。例えば、本発明の各種のモジュールが、適切なソフトウェア命令を用いる汎用のコンピュータ上で、又はハードウェア回路として、或いはハードウェア・ソフトウェアを混合した組合せとして実施可能である(ここで、例えば、ピクセル加工、及びレンダリングは、専用ハードウェア構成要素により実行される)。
【0110】
【発明の効果】
本発明は上述のように、対象空間内の全てのパターンが、ほぼ等しいと仮定する代わりに、対象空間内の確率分布を捕捉する。このようにして、本発明は、対象空間内に入る入力画像に対する、パターン間のより緻密な識別、推論、対象空間内のその代表値の測定を容易にする。換言すると、パターンが、対象空間内に存在するが、指向画像が、群をなす傾向を有する、対象空間の領域近傍のどこにも存在しない場合、本発明は、そのパターンを「代表値ではなく」、おそらく、対象物分類の構成要素ではないと識別する。本発明は、人間の顔、その特徴(例えば、目)といった、実質的に任意の多特徴のある実体だけでなく、また人間の手といった、柔軟で関節のある対象物の検出、及び認識に有益である。
【0111】
本発明は、主固有ベクトル成分に対する解析に限定されないので、多モード分布に容易に適合する。実際、本発明により、異なる対象物視野を表す指向画像の集合が与えられる限り、本発明は、ある範囲の入力パターン配向にわたって、価値のある認識性能をもたらすことが可能である。換言すると、本発明は、内部分布が一様でないだけでなく、多モードでもある対象空間内の弁別が可能である。更に、本発明は、検出が、入力画像内の特徴的パターンの大きさにほとんど独立であるような、縮尺の範囲にわたって動作可能である。本発明により利用される表現は、基本的にはデータ圧縮形式の、高効率なモデル・ベース符号化、機能に向いている。対象物の分類を表す、基本固有ベクトルの集合が、基本ベクトルの重み付け一次結合として表現される、新しい対象物を符号化するための基準として使用され得る。このようにして、新しい対象物が、少数のバイトを用いて表現可能であり、最小限の必要記憶容量で、大画像データベースの効率的な符号化が容易になる。圧縮は、量子化により更に増強され得る。
【図面の簡単な説明】
【図1】単一モード分布における主成分を含む主部分空間、及び残りの成分を含む直交部分空間において、特徴、又は対象物を示す。
【図2】多モード分布における主成分を含む主部分空間、及び残りの成分を含む直交部分空間において、特徴、又は対象物を示す。
【図3】本発明のための代表的なハードウェア環境を概略的に示す。
【図4】ブロック図形式で、更に詳細な解析モジュールを示す。
【図5】解析モジュールのアテンション副システム、及び対象物中心の表現の構成要素の動作を示す、フローチャートである。
【符号の説明】

Claims (20)

  1. デジタル的に表現された入力画像において、選択された特徴を検出する方法であって
    a.多次元画像空間内における固有ベクトルの集合として、選択された特徴の事例の指向集合を表し、
    b.前記画像空間内における入力ベクトルとして、前記入力画像の部分を表し、
    c.前記選択された特徴の事例を含んでいる画像部分に前記入力ベクトルが対応する可能性を示す確率レベルを、各入力ベクトルごとに推定するために、公算関数を用いて、前記入力ベクトルについての密度推定解析を実行し、及び、
    d.最も高い関連性のある確率レベルを有する画像部分を、前記密度推定解析によって得られた推定値からピーク確率を決定することによって識別する
    といった各ステップを含み、
    前記密度推定解析は、M個の主固有ベクトル成分と、残りのN個の固有ベクトル成分とを含めた全固有ベクトル成分を利用して、次式で表わされた前記公算関数によって実施され、
    Figure 0003986583
    ここで、λ i は分散の固有値を表し、xは入力画像を表し、y i は成分固有ベクトル上への投影係数を表し、及び、
    ρは次式で表わされた最適な重み値を表し、
    Figure 0003986583
    その結果、前記識別のために最適密度推定値が用いられることからなる、方法。
  2. 前記密度推定解析を実行するステップは、
    a.前記画像空間を、主部分空間と、該主部分空間に直交した部分空間である直交部分空間とに分割し、該主部分空間は、主固有ベクトルの単一モード集合を含
    b.1つの入力ベクトルにより識別された点と、前記主部分空間との間の距離を計算
    c.前記入力ベクトルを、前記主部分空間上に投影
    d.前記主固有ベクトルに関して、前記入力ベクトルの投影の確率分布を計算し、及び、
    e.前記選択された特徴の事例を含んでいる画像部分に前記入力ベクトルが対応する可能性を示す確率レベルを、前記公算関数を用いて、計算された距離、及び計算された確率分布から、推定す
    といった各ステップを含むことからなる、請求項1に記載の方法。
  3. 前記推定するステップは、前記主部分空間における第1の周辺確率密度、及び前記直交部分空間における第2の周辺確率密度とを計算して、該第1及び第2の確率密度を乗算することを含み、前記第1の確率密度は、真の密度であり、前記第2の確率密度は、前記主部分空間とは相補的な前記直交部分空間において推定される密度であることからなる、請求項2に記載の方法。
  4. 前記密度推定解析を実行するステップは、
    a.前記画像空間を、主部分空間と、該主部分空間に直交した部分空間である直交部分空間とに分割し、該主部分空間は、主固有ベクトルの多モード集合を含
    b.1つの入力ベクトルにより識別された点と、前記主部分空間との間の距離を計算
    c.前記入力ベクトルを、前記主部分空間上に投影
    d.パラメータ混合モデルを用いて、前記主固有ベクトルに関して、前記入力ベクトルの投影の確率分布を計算し、及び
    e.前記選択された特徴の事例を含んでいる画像部分に前記入力ベクトルが対応する可能性を示す確率レベルを、前記公算関数を用いて、前記計算された距離、及び前記計算された確率分布から推定す
    といった各ステップを含むことからなる、請求項1に記載の方法。
  5. 各識別された画像部分に対して、該識別された画像部分に含まれる事例が、もしあれば、前記選択された特徴のデジタル的に表現された事例の基準集合のうちの、何れのものに類似するかを認識モジュールが、画像データベース内に格納された画像データを用いて判定する認識ステップを更に含む、請求項1に記載の方法。
  6. 前記デジタル的に表現された事例の基準集合は、前記主部分空間内における複数のベクトルにより表現され、前記認識ステップは、前記入力ベクトルを、主部分空間上に投影することと、そこに最も近い事例ベクトルを突き止めることとを含むことからなる、請求項5に記載の方法。
  7. 各識別された画像部分を、量子化された投影係数の集合として、符号化するステップを更に含む、請求項1に記載の方法。
  8. 前記選択された特徴は、顔であることからなる、請求項1に記載の方法。
  9. 前記選択された特徴は、顔の特徴であることからなる、請求項1に記載の方法。
  10. デジタル的に表現された入力画像において、選択された特徴を検出するための装置であって、
    a.前記入力画像を格納するためのコンピュータ・メモリと、
    b.多次元画像空間内における固有ベクトルの集合として、前記選択された特徴の事例の指向集合を表すための手段と、
    c.前記格納された入力画像の少なくとも一部を分離して、それを、前記画像空間における入力ベクトルとして表すための手段と、
    d.前記選択された特徴の事例を含んでいる画像部分に前記入力ベクトルが対応する可能性を示す確率レベルを推定するために、公算関数を用いて、前記入力ベクトルを解析するための画像処理手段
    とを備え、
    前記手段はいずれも、前記コンピュータ・メモリ内に格納された解析モジュール内に含まれ、該解析モジュールが、CPUの制御下において解析を実行し、
    前記解析は、M個の主固有ベクトル成分と、残りのN個の固有ベクトル成分とを含めた全固有ベクトル成分を利用して、次式で表わされた前記公算関数によって実施され、
    Figure 0003986583
    ここで、λ i は分散の固有値を表し、xは入力画像を表し、y i は成分固有ベクトル上への投影係数を表し、及び、
    ρは次式で表わされた最適な重み値を表し、
    Figure 0003986583
    その結果、最適密度推定値が得られることからなる、装置。
  11. 各入力画像は、複数のピクセルとして表現されるものであり、
    a.複数の縮尺率で、前記入力画像を表すための手段と、
    b.各縮尺率の画像に対して、該画像の固定数のピクセルを含むウィンドウを画定して、各ウィンドウごとの確率レベルを生成するために、前記画像処理手段に各ウィンドウの内容を転送するための手段と、
    c.最も高い関連性のある確率を有するウィンドウを、前記解析によって得られた推定値からピーク確率を決定することによって識別するための手段
    とを前記解析モジュールが更に備えることからなる、請求項10に記載の装置。
  12. 前記画像処理手段は、
    a.前記画像空間を、主部分空間と、該主部分空間に直交した部分空間である直交部分空間とに分割する目的であって、該主部分空間は、主固有ベクトルの単一モード集合を含むことからなる、目的と、
    b.1つの入力ベクトルにより識別された点と、前記主部分空間との間の距離を計算する目的と、
    c.前記入力ベクトルを、前記主部分空間上に投影する目的と、
    d.前記主固有ベクトルに関して、前記入力ベクトルの投影の確率分布を計算する目的と、
    e.前記選択された特徴の事例を含んでいる画像部分に前記入力ベクトルが対応する可能性を示す確率レベルを、前記公算関数を用いて、前記計算された距離、及び前記計算された確率分布から推定する目的
    とからなる目的のために構成されることからなる、請求項10に記載の装置。
  13. 前記画像処理手段は、最大公算解析法(ML法)を用いて、確率レベルを推定する、請求項12に記載の装置。
  14. 確率レベルに基づいて、前記選択された特徴の事例を含んでいる可能性のある少なくとも1つの入力ベクトルを前記公算関数によって得られた推定値から識別するための手段を前記解析モジュールが更に備える、請求項10に記載の装置。
  15. 特徴事例の前記指向集合は、単一の視野角において生成されるものであり、
    各識別された入力ベクトルに対応する、入力画像の部分を、分離して、処理するための手段であって、
    a.翻訳及び縮尺に関連して、前記入力画像の部分を正規化するための手段と、
    b.前記入力画像の部分内における、複数の部分特徴を識別するための手段と、
    c.格納されているテンプレートとの幾何的一致について、識別された部分特徴を解析するための有効化手段と、
    d.前記視野角との一致のために、有効化された入力画像の部分を空間的に整合させるための歪曲手段と、
    e.前記整合された入力画像の部分のうち、前記特徴事例に対応しない部分をマスクするためのマスキング手段
    とを含むことからなる手段を、前記解析モジュールが更に備えることからなる、請求項14に記載の装置。
  16. コントラストの変動を補償するために、マスキングされた画像を処理するための、コントラスト正規化手段を前記解析モジュールが更に備える、請求項15に記載の装置。
  17. a.指向画像の各々を、固有ベクトルの集合上への投影係数の集合として、格納するためのデータベースと、
    b.識別手段であって、
    (i) 入力投影係数の集合を得るために、固有ベクトルの集合上に、マスクされた画像を投影するための手段と、
    (ii)投影係数が前記入力投影係数と最も近く整合する前記指向画像を突き止めるための手段
    とを含むことからなる、識別手段
    とを、前記解析モジュールが更に備えることからなる、請求項15に記載の装置。
  18. 前記識別手段は、選択された指向画像の係数と、可能性を示す確率レベルの推定値に基づいて得られた前記入力投影係数と整合する度合いを示す信頼レベルを前記データベースに基づいて計算するための手段を含む、請求項17に記載の装置。
  19. 前記分離して、処理された入力画像の部分から、前記解析によって得られた正規化係数、変形係数、及びコントラスト調整値を累積することによって、元の入力画像を再構成するための再構成モジュールを更に備える、請求項15に記載の装置。
  20. 符号器モジュールであって、それ自体が、
    a.入力投影係数の集合を得るために、固有ベクトルの集合上に、マスクされた画像を投影するための手段と、
    b.前記入力投影係数を量子化するための手段
    とを含む該符号器モジュールを、更に備えることからなる、請求項15に記載の装置。
JP10002396A 1995-04-20 1996-04-22 確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置 Expired - Lifetime JP3986583B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/425,579 US5710833A (en) 1995-04-20 1995-04-20 Detection, recognition and coding of complex objects using probabilistic eigenspace analysis
US425579 2003-04-29

Publications (2)

Publication Number Publication Date
JPH08339445A JPH08339445A (ja) 1996-12-24
JP3986583B2 true JP3986583B2 (ja) 2007-10-03

Family

ID=23687155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10002396A Expired - Lifetime JP3986583B2 (ja) 1995-04-20 1996-04-22 確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置

Country Status (2)

Country Link
US (1) US5710833A (ja)
JP (1) JP3986583B2 (ja)

Families Citing this family (196)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE48056E1 (en) 1991-12-23 2020-06-16 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
USRE46310E1 (en) 1991-12-23 2017-02-14 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US6850252B1 (en) * 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
USRE47908E1 (en) 1991-12-23 2020-03-17 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US6418424B1 (en) 1991-12-23 2002-07-09 Steven M. Hoffberg Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
US5903454A (en) 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US5799301A (en) * 1995-08-10 1998-08-25 International Business Machines Corporation Apparatus and method for performing adaptive similarity searching in a sequence database
US6430307B1 (en) * 1996-06-18 2002-08-06 Matsushita Electric Industrial Co., Ltd. Feature extraction system and face image recognition system
US5901244A (en) * 1996-06-18 1999-05-04 Matsushita Electric Industrial Co., Ltd. Feature extraction system and face image recognition system
US5940825A (en) * 1996-10-04 1999-08-17 International Business Machines Corporation Adaptive similarity searching in sequence databases
US6041147A (en) * 1996-10-15 2000-03-21 Hughes Electronics Corporation Content-based indexing of images by coding levels defined as a function of reduced entropy
US6345109B1 (en) * 1996-12-05 2002-02-05 Matsushita Electric Industrial Co., Ltd. Face recognition-matching system effective to images obtained in different imaging conditions
US6185337B1 (en) * 1996-12-17 2001-02-06 Honda Giken Kogyo Kabushiki Kaisha System and method for image recognition
US6526156B1 (en) * 1997-01-10 2003-02-25 Xerox Corporation Apparatus and method for identifying and tracking objects with view-based representations
US5917927A (en) * 1997-03-21 1999-06-29 Satake Corporation Grain inspection and analysis apparatus and method
US5983218A (en) * 1997-06-30 1999-11-09 Xerox Corporation Multimedia database for use over networks
DE19731111B4 (de) * 1997-07-19 2005-10-27 Eads Deutschland Gmbh Verfahren zur Identifizierung sowie Klassifizierung eines Zieles
US6141463A (en) * 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
WO1999019840A1 (en) * 1997-10-15 1999-04-22 Electric Planet, Inc. A system and method for generating an animatable character
GB2330679B (en) * 1997-10-21 2002-04-24 911 Emergency Products Inc Warning signal light
US6035055A (en) * 1997-11-03 2000-03-07 Hewlett-Packard Company Digital image management system in a distributed data access network system
US6539103B1 (en) * 1997-11-12 2003-03-25 The University Of Utah Method and apparatus for image reconstruction using a knowledge set
US6272230B1 (en) * 1998-02-11 2001-08-07 Analogic Corporation Apparatus and method for optimizing detection of objects in computed tomography data
US6466894B2 (en) * 1998-06-18 2002-10-15 Nec Corporation Device, method, and medium for predicting a probability of an occurrence of a data
DE19832974A1 (de) * 1998-07-22 2000-01-27 Siemens Ag Vorrichtung und Verfahren zur Erstellung eines virtuellen Anlagenmodells
US6466685B1 (en) * 1998-07-14 2002-10-15 Kabushiki Kaisha Toshiba Pattern recognition apparatus and method
US6292575B1 (en) 1998-07-20 2001-09-18 Lau Technologies Real-time facial recognition and verification system
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US20010008561A1 (en) * 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6265993B1 (en) * 1998-10-01 2001-07-24 Lucent Technologies, Inc. Furlable keyboard
US6463163B1 (en) * 1999-01-11 2002-10-08 Hewlett-Packard Company System and method for face detection using candidate image region selection
KR100671098B1 (ko) * 1999-02-01 2007-01-17 주식회사 팬택앤큐리텔 모양정보를 이용한 멀티미디어 데이터의 검색 방법 및 장치
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
WO2000046736A1 (en) * 1999-02-05 2000-08-10 Yoav Smith Similarity measurement method for the classification of medical images into predetermined categories
US8095581B2 (en) * 1999-02-05 2012-01-10 Gregory A Stobbs Computer-implemented patent portfolio analysis method and apparatus
US6647139B1 (en) * 1999-02-18 2003-11-11 Matsushita Electric Industrial Co., Ltd. Method of object recognition, apparatus of the same and recording medium therefor
US6360013B1 (en) * 1999-03-16 2002-03-19 Academia Sinica Fast method and system for template matching acquiring global optima
JP2000275757A (ja) * 1999-03-24 2000-10-06 Fuji Photo Film Co Ltd 画像評価方法及び装置
US6320976B1 (en) * 1999-04-01 2001-11-20 Siemens Corporate Research, Inc. Computer-assisted diagnosis method and system for automatically determining diagnostic saliency of digital images
US6337927B1 (en) * 1999-06-04 2002-01-08 Hewlett-Packard Company Approximated invariant method for pattern detection
US6400846B1 (en) * 1999-06-04 2002-06-04 Mitsubishi Electric Research Laboratories, Inc. Method for ordering image spaces to search for object surfaces
JP4332649B2 (ja) 1999-06-08 2009-09-16 独立行政法人情報通信研究機構 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
AUPQ136299A0 (en) * 1999-07-02 1999-07-22 Microsystem Controls Pty Ltd Coin validation
US6501857B1 (en) * 1999-07-20 2002-12-31 Craig Gotsman Method and system for detecting and classifying objects in an image
US6850891B1 (en) 1999-07-23 2005-02-01 Ernest H. Forman Method and system of converting data and judgements to values or priorities
US7468677B2 (en) * 1999-08-04 2008-12-23 911Ep, Inc. End cap warning signal assembly
US6547410B1 (en) * 2000-07-28 2003-04-15 911 Emergency Products, Inc. LED alley/take-down light
US6990217B1 (en) * 1999-11-22 2006-01-24 Mitsubishi Electric Research Labs. Inc. Gender classification with support vector machines
US6975755B1 (en) 1999-11-25 2005-12-13 Canon Kabushiki Kaisha Image processing method and apparatus
GB2359885B (en) * 1999-11-25 2004-09-29 Canon Kk Image processing method and apparatus
GB2359883B (en) * 1999-11-25 2004-05-12 Canon Kk Image processing method and apparatus
GB2359884B (en) * 1999-11-25 2004-06-30 Canon Kk Image processing method and apparatus
KR100343223B1 (ko) * 1999-12-07 2002-07-10 윤종용 화자 위치 검출 장치 및 그 방법
US6940545B1 (en) 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
US7212668B1 (en) * 2000-08-18 2007-05-01 Eastman Kodak Company Digital image processing system and method for emphasizing a main subject of an image
US6853745B1 (en) * 2000-11-03 2005-02-08 Nec Laboratories America, Inc. Lambertian reflectance and linear subspaces
US7439847B2 (en) * 2002-08-23 2008-10-21 John C. Pederson Intelligent observation and identification database system
JP4590717B2 (ja) * 2000-11-17 2010-12-01 ソニー株式会社 顔識別装置及び顔識別方法
EP1217574A3 (en) * 2000-12-19 2004-05-19 Matsushita Electric Industrial Co., Ltd. A method for lighting- and view-angle-invariant face description with first- and second-order eigenfeatures
US6829384B2 (en) 2001-02-28 2004-12-07 Carnegie Mellon University Object finder for photographic images
EP2246799A1 (en) 2001-05-15 2010-11-03 Psychogenics Inc. Systems and methods for monitoring behaviour informatics
US7027620B2 (en) * 2001-06-07 2006-04-11 Sony Corporation Method of recognizing partially occluded and/or imprecisely localized faces
US6859210B2 (en) 2001-07-06 2005-02-22 Eastman Kodak Company Method for representing a digital color image using a set of palette colors based on detected important colors
US7085774B2 (en) * 2001-08-30 2006-08-01 Infonox On The Web Active profiling system for tracking and quantifying customer conversion efficiency
US7237115B1 (en) * 2001-09-26 2007-06-26 Sandia Corporation Authenticating concealed private data while maintaining concealment
US20040201738A1 (en) * 2001-11-13 2004-10-14 Tabula Rasa, Inc. Method and apparatus for providing automatic access to images captured at diverse recreational venues
AUPR899401A0 (en) 2001-11-21 2001-12-13 Cea Technologies Pty Limited Method and apparatus for non-motion detection
AU2002342393B2 (en) * 2001-11-21 2007-01-25 Iomniscient Pty Ltd Non-motion detection
US7054468B2 (en) 2001-12-03 2006-05-30 Honda Motor Co., Ltd. Face recognition using kernel fisherfaces
US7050636B2 (en) * 2001-12-07 2006-05-23 Eastman Kodak Company Method and system for improving an image characteristic based on image content
US7092573B2 (en) * 2001-12-10 2006-08-15 Eastman Kodak Company Method and system for selectively applying enhancement to an image
JP3903783B2 (ja) * 2001-12-14 2007-04-11 日本電気株式会社 顔メタデータ生成方法および装置、並びに顔類似度算出方法および装置
US20030113002A1 (en) * 2001-12-18 2003-06-19 Koninklijke Philips Electronics N.V. Identification of people using video and audio eigen features
US7472062B2 (en) * 2002-01-04 2008-12-30 International Business Machines Corporation Efficient recursive clustering based on a splitting function derived from successive eigen-decompositions
US7035431B2 (en) * 2002-02-22 2006-04-25 Microsoft Corporation System and method for probabilistic exemplar-based pattern tracking
US20030161507A1 (en) * 2002-02-28 2003-08-28 Spectra Systems Corporation Method and apparatus for performing facial recognition with a hand-held imaging device
EP1343107A3 (en) * 2002-03-04 2005-03-23 Samsung Electronics Co., Ltd. Method and apparatus for recognising faces using principal component analysis and second order independent component analysis on parts of the image faces
JP4210137B2 (ja) * 2002-03-04 2009-01-14 三星電子株式会社 2次icaを利用した顔認識法及びその装置
JP3873793B2 (ja) * 2002-03-29 2007-01-24 日本電気株式会社 顔メタデータ生成方法および顔メタデータ生成装置
US7199793B2 (en) 2002-05-21 2007-04-03 Mok3, Inc. Image-based modeling and photo editing
US7379602B2 (en) * 2002-07-29 2008-05-27 Honda Giken Kogyo Kabushiki Kaisha Extended Isomap using Fisher Linear Discriminant and Kernel Fisher Linear Discriminant
US7035461B2 (en) * 2002-08-22 2006-04-25 Eastman Kodak Company Method for detecting objects in digital images
US7283664B2 (en) * 2002-09-25 2007-10-16 Southwest Research Institute Interactive computer aided analysis of images from sensor combinations
US7130474B2 (en) * 2002-09-27 2006-10-31 Eastman Kodak Company Method and system for generating digital image files for a limited display
US7194114B2 (en) * 2002-10-07 2007-03-20 Carnegie Mellon University Object finder for two-dimensional images, and system for determining a set of sub-classifiers composing an object finder
JP4080843B2 (ja) * 2002-10-30 2008-04-23 株式会社東芝 不揮発性半導体記憶装置
KR100473598B1 (ko) * 2002-11-04 2005-03-11 삼성전자주식회사 가려진 얼굴영상을 판단하는 시스템 및 방법
US20040196282A1 (en) * 2003-02-14 2004-10-07 Oh Byong Mok Modeling and editing image panoramas
US7039222B2 (en) * 2003-02-28 2006-05-02 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
US7327374B2 (en) * 2003-04-30 2008-02-05 Byong Mok Oh Structure-preserving clone brush
US7317815B2 (en) * 2003-06-26 2008-01-08 Fotonation Vision Limited Digital image processing composition using face detection information
US8330831B2 (en) * 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US8498452B2 (en) * 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US7616233B2 (en) * 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US8682097B2 (en) * 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US7362368B2 (en) * 2003-06-26 2008-04-22 Fotonation Vision Limited Perfecting the optics within a digital image acquisition device using face detection
US7315630B2 (en) 2003-06-26 2008-01-01 Fotonation Vision Limited Perfecting of digital image rendering parameters within rendering devices using face detection
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US8593542B2 (en) * 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7565030B2 (en) * 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US7269292B2 (en) * 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8989453B2 (en) * 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US9129381B2 (en) * 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7587068B1 (en) 2004-01-22 2009-09-08 Fotonation Vision Limited Classification database for consumer digital images
US7792970B2 (en) * 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7844076B2 (en) * 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US8155397B2 (en) * 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US8553949B2 (en) * 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US7792335B2 (en) 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US8363951B2 (en) 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
US7471846B2 (en) * 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
WO2005036877A1 (en) 2003-09-12 2005-04-21 Nielsen Media Research, Inc. Digital video signature apparatus and methods for use with video program identification systems
US7388971B2 (en) * 2003-10-23 2008-06-17 Northrop Grumman Corporation Robust and low cost optical system for sensing stress, emotion and deception in human subjects
KR100543706B1 (ko) * 2003-11-28 2006-01-20 삼성전자주식회사 비젼기반 사람 검출방법 및 장치
GB2409027A (en) * 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
US7555148B1 (en) 2004-01-22 2009-06-30 Fotonation Vision Limited Classification system for consumer digital images using workflow, face detection, normalization, and face recognition
US7558408B1 (en) 2004-01-22 2009-07-07 Fotonation Vision Limited Classification system for consumer digital images using workflow and user interface modules, and face detection and recognition
US7564994B1 (en) * 2004-01-22 2009-07-21 Fotonation Vision Limited Classification system for consumer digital images using automatic workflow and face detection and recognition
US7551755B1 (en) 2004-01-22 2009-06-23 Fotonation Vision Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7430315B2 (en) * 2004-02-13 2008-09-30 Honda Motor Co. Face recognition system
US7224831B2 (en) * 2004-02-17 2007-05-29 Honda Motor Co. Method, apparatus and program for detecting an object
EP1743277A4 (en) 2004-04-15 2011-07-06 Gesturetek Inc MONITORING OF BI-MANUAL MOVEMENTS
US20060056667A1 (en) * 2004-09-16 2006-03-16 Waters Richard C Identifying faces from multiple images acquired from widely separated viewpoints
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US8503800B2 (en) * 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7715597B2 (en) * 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
US7315631B1 (en) * 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
HUE049974T2 (hu) * 2005-01-07 2020-11-30 Qualcomm Inc Képeken lévõ objektumok észlelése és követése
EP1851749B1 (en) * 2005-01-21 2012-03-28 Qualcomm Incorporated Motion-based tracking
US8235725B1 (en) * 2005-02-20 2012-08-07 Sensory Logic, Inc. Computerized method of assessing consumer reaction to a business stimulus employing facial coding
US20060193520A1 (en) * 2005-02-28 2006-08-31 Takeshi Mita Object detection apparatus, learning apparatus, object detection system, object detection method and object detection program
US7961937B2 (en) * 2005-10-26 2011-06-14 Hewlett-Packard Development Company, L.P. Pre-normalization data classification
US7783092B2 (en) * 2006-01-17 2010-08-24 Illinois Institute Of Technology Method for enhancing diagnostic images using vessel reconstruction
US7804983B2 (en) 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
EP2033142B1 (en) * 2006-06-12 2011-01-26 Tessera Technologies Ireland Limited Advances in extending the aam techniques from grayscale to color images
JP4663013B2 (ja) * 2006-06-29 2011-03-30 富士通株式会社 色類別方法、色認識方法及び色認識装置
WO2008015586A2 (en) * 2006-08-02 2008-02-07 Fotonation Vision Limited Face recognition with combined pca-based datasets
US7403643B2 (en) * 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7916897B2 (en) * 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
CN101636745A (zh) * 2006-12-29 2010-01-27 格斯图尔泰克股份有限公司 使用增强型交互系统操纵虚拟对象
US8055067B2 (en) * 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
DE602008001607D1 (de) * 2007-02-28 2010-08-05 Fotonation Vision Ltd Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen
US8649604B2 (en) 2007-03-05 2014-02-11 DigitalOptics Corporation Europe Limited Face searching and detection in a digital image acquisition device
WO2008109622A1 (en) 2007-03-05 2008-09-12 Fotonation Vision Limited Face categorization and annotation of a mobile phone contact list
US11265082B2 (en) 2007-05-24 2022-03-01 Federal Law Enforcement Development Services, Inc. LED light control assembly and system
US9100124B2 (en) 2007-05-24 2015-08-04 Federal Law Enforcement Development Services, Inc. LED Light Fixture
US9455783B2 (en) 2013-05-06 2016-09-27 Federal Law Enforcement Development Services, Inc. Network security and variable pulse wave form with continuous communication
US7916971B2 (en) * 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US8031961B2 (en) * 2007-05-29 2011-10-04 Hewlett-Packard Development Company, L.P. Face and skin sensitive image enhancement
US20090030676A1 (en) * 2007-07-26 2009-01-29 Creative Technology Ltd Method of deriving a compressed acoustic model for speech recognition
CN101414348A (zh) * 2007-10-19 2009-04-22 三星电子株式会社 多角度人脸识别方法和系统
US8744775B2 (en) * 2007-12-28 2014-06-03 Weyerhaeuser Nr Company Methods for classification of somatic embryos comprising hyperspectral line imaging
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US8165354B1 (en) * 2008-03-18 2012-04-24 Google Inc. Face recognition with discriminative face alignment
US7855737B2 (en) * 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
US8208709B2 (en) * 2008-04-17 2012-06-26 The Ohio State University Research Foundation System and method for improved real-time cine imaging
CN103402070B (zh) 2008-05-19 2017-07-07 日立麦克赛尔株式会社 记录再现装置及方法
US8131063B2 (en) * 2008-07-16 2012-03-06 Seiko Epson Corporation Model-based object image processing
JP5547730B2 (ja) 2008-07-30 2014-07-16 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド 顔検知を用いた顔及び肌の自動美化
WO2010063463A2 (en) * 2008-12-05 2010-06-10 Fotonation Ireland Limited Face recognition using face tracker classifier data
US8260039B2 (en) * 2009-02-25 2012-09-04 Seiko Epson Corporation Object model fitting using manifold constraints
US8204301B2 (en) * 2009-02-25 2012-06-19 Seiko Epson Corporation Iterative data reweighting for balanced model learning
US8260038B2 (en) * 2009-02-25 2012-09-04 Seiko Epson Corporation Subdivision weighting for robust object model fitting
US8208717B2 (en) * 2009-02-25 2012-06-26 Seiko Epson Corporation Combining subcomponent models for object image modeling
US8890773B1 (en) 2009-04-01 2014-11-18 Federal Law Enforcement Development Services, Inc. Visible light transceiver glasses
US8600100B2 (en) * 2009-04-16 2013-12-03 Sensory Logic, Inc. Method of assessing people's self-presentation and actions to evaluate personality type, behavioral tendencies, credibility, motivations and other insights through facial muscle activity and expressions
US20100295782A1 (en) * 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US8326002B2 (en) * 2009-08-13 2012-12-04 Sensory Logic, Inc. Methods of facial coding scoring for optimally identifying consumers' responses to arrive at effective, incisive, actionable conclusions
US8379917B2 (en) * 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
US8811743B2 (en) 2010-06-09 2014-08-19 Microsoft Corporation Resource-aware computer vision
US8836777B2 (en) 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
US20140093142A1 (en) * 2011-05-24 2014-04-03 Nec Corporation Information processing apparatus, information processing method, and information processing program
US20130201316A1 (en) 2012-01-09 2013-08-08 May Patents Ltd. System and method for server based control
US8559684B1 (en) * 2012-08-15 2013-10-15 Google Inc. Facial recognition similarity threshold adjustment
US9269049B2 (en) 2013-05-08 2016-02-23 Exelate, Inc. Methods, apparatus, and systems for using a reduced attribute vector of panel data to determine an attribute of a user
WO2015017868A1 (en) * 2013-08-02 2015-02-05 Emotient Filter and shutter based on image emotion content
US9466009B2 (en) 2013-12-09 2016-10-11 Nant Holdings Ip. Llc Feature density object classification, systems and methods
US20150198941A1 (en) 2014-01-15 2015-07-16 John C. Pederson Cyber Life Electronic Networking and Commerce Operating Exchange
EP4250738A3 (en) 2014-04-22 2023-10-11 Snap-Aid Patents Ltd. Method for controlling a camera based on processing an image captured by other camera
WO2016207875A1 (en) 2015-06-22 2016-12-29 Photomyne Ltd. System and method for detecting objects in an image
US20170046950A1 (en) 2015-08-11 2017-02-16 Federal Law Enforcement Development Services, Inc. Function disabler device and system
US11386636B2 (en) 2019-04-04 2022-07-12 Datalogic Usa, Inc. Image preprocessing for optical character recognition
CN112070114B (zh) * 2020-08-03 2023-05-16 中国科学院信息工程研究所 基于高斯约束注意力机制网络的场景文字识别方法及系统
CN113918753B (zh) * 2021-07-23 2024-05-28 腾讯科技(深圳)有限公司 基于人工智能的图像检索方法及相关设备

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4259661A (en) * 1978-09-01 1981-03-31 Burroughs Corporation Apparatus and method for recognizing a pattern
JPS6057475A (ja) * 1983-09-07 1985-04-03 Toshiba Corp パタ−ン認識方式
US4998286A (en) * 1987-02-13 1991-03-05 Olympus Optical Co., Ltd. Correlation operational apparatus for multi-dimensional images
DE3724110A1 (de) * 1987-07-21 1989-02-02 Fraunhofer Ges Forschung Einweg-airless-spruehdose mit druckgasantrieb
US4838644A (en) * 1987-09-15 1989-06-13 The United States Of America As Represented By The United States Department Of Energy Position, rotation, and intensity invariant recognizing method
JP2885823B2 (ja) * 1989-04-11 1999-04-26 株式会社豊田中央研究所 視覚認識装置
DK163212C (da) * 1989-07-10 1992-07-13 Tunetanken As Blandetank, fortrinsvis til oploesning af ferrosulfatgranulat i vand
WO1991001183A1 (en) * 1989-07-14 1991-02-07 Karagandinsky Gosudarstvenny Universitet Device for cleaning internal surface of pipes
US5101446A (en) * 1990-05-31 1992-03-31 Aware, Inc. Method and apparatus for coding an image
FR2667711B1 (fr) * 1990-10-09 1992-11-27 Thomson Csf Procede de reconnaissance d'objets dans des images et son application au suivi d'objets dans des sequences d'images.
US5164992A (en) * 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
US5432864A (en) * 1992-10-05 1995-07-11 Daozheng Lu Identification card verification system

Also Published As

Publication number Publication date
JPH08339445A (ja) 1996-12-24
US5710833A (en) 1998-01-20

Similar Documents

Publication Publication Date Title
JP3986583B2 (ja) 確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置
Sung et al. Example-based learning for view-based human face detection
Makinen et al. Evaluation of gender classification methods with automatically detected and aligned faces
US7853085B2 (en) Viewpoint-invariant detection and identification of a three-dimensional object from two-dimensional imagery
JP4543423B2 (ja) 対象物自動認識照合方法および装置
US7831087B2 (en) Method for visual-based recognition of an object
US8855363B2 (en) Efficient method for tracking people
Sahbi et al. A Hierarchy of Support Vector Machines for Pattern Detection.
Barnouti et al. Face recognition: A literature review
US20080219516A1 (en) Image matching apparatus, image matching method, computer program and computer-readable storage medium
US20100067799A1 (en) Globally invariant radon feature transforms for texture classification
Hu et al. Active wavelet networks for face alignment.
Fadaifard et al. Multiscale 3D feature extraction and matching with an application to 3D face recognition
Sahbi et al. Coarse-to-fine support vector classifiers for face detection
Sahbi et al. Coarse to fine face detection based on skin color adaption
JP3729581B2 (ja) パターン認識・照合装置
Gül Holistic face recognition by dimension reduction
Rajwade et al. Facial pose from 3D data
Deepa et al. Challenging aspects for facial feature extraction and age estimation
KR100711223B1 (ko) 저니키(Zernike)/선형 판별 분석(LDA)을 이용한얼굴 인식 방법 및 그 방법을 기록한 기록매체
Chang et al. Feature patch illumination spaces and Karcher compression for face recognition via Grassmannians
Sehad et al. Face recognition under varying views
JP2004038937A (ja) 高次固有成分を用いる顔の記述および認識のための方法および装置
Ge et al. Multi-view based face chin contour extraction
Keche et al. Facial feature expression based approach for human face recognition: A review

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060516

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20060816

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20060821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070509

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070711

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100720

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110720

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110720

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120720

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120720

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130720

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term