JPH08339445A - 確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置 - Google Patents

確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置

Info

Publication number
JPH08339445A
JPH08339445A JP8100023A JP10002396A JPH08339445A JP H08339445 A JPH08339445 A JP H08339445A JP 8100023 A JP8100023 A JP 8100023A JP 10002396 A JP10002396 A JP 10002396A JP H08339445 A JPH08339445 A JP H08339445A
Authority
JP
Japan
Prior art keywords
image
input
input vector
subspace
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8100023A
Other languages
English (en)
Other versions
JP3986583B2 (ja
Inventor
Moghadam Babak
ババック・モグハダム
Pentrand Alex
アレックス・ペントランド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Massachusetts Institute of Technology
Original Assignee
Massachusetts Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Massachusetts Institute of Technology filed Critical Massachusetts Institute of Technology
Publication of JPH08339445A publication Critical patent/JPH08339445A/ja
Application granted granted Critical
Publication of JP3986583B2 publication Critical patent/JP3986583B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • G06F16/739Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Abstract

(57)【要約】 (修正有) 【課題】人間の顔のような多種多様な実体を検出認識し
て符号化する。 【解決手段】多数の縮尺で画像を走査し、好適には並列
に、最大公算解析を実施して目標特徴の実体を検出する
手段、多次元画像空間における固有ベクトルの集合とし
て、好適には配向及び照度が一致する指向画像集合を表
現する手段、指向画像集合、幾何形状、及びグレースケ
ール・コントラストを一致させるために、入力画像の検
出成分を調整する手段、認識のために、指向集合の固有
空間表現上に、検出された特徴を投影する手段、並びに
固有ベクトル投影係数に関連して、元の画像を再構成す
るための任意の再構成モジュールを備え、量子化固有ベ
クトル投影係数の集合として、調整、及び/又は再構成
画像を効率的に表現する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、自動視覚学習に関
し、特に、人間の顔のような、各種のタイプの複雑で多
特徴のある実体を検出、認識、及び符号化するための、
デジタル的に表された画像の解析に関する。
【0002】
【従来の技術】視覚学習システムは、観察された光景を
デジタル表現へと符号化して、ある目的のために、これ
らの表現を解析する。1つの重要な目的には、特定のタ
イプ、又は類別の対象物の存在に対して、光景を走査
し、次に、検出された対象物に基づいて、更なる解析を
実行して、それらを識別、又は少なくとも更に分類する
ことが必然的に含まれる。視覚学習システムのこの応用
により、機密保護、法執行、国境管理、又は他の目的の
ために、顔を検出、及び識別するシステムにおける用途
が、最近では見出されている。
【0003】この解析には、問題とするパターンを系統
的に特徴付けて、比較的大きな集合のデータ内に弁別す
ることが可能である、パターン認識技法が要求される。
最も成功した技法の幾つかは、本質的に統計的なもので
ある。しかし、生データ(すなわち、画素点、或いは
「ピクセル」の格子として、デジタル的に表現される光
景)に関してこれらの操作を実行することは、計算上桁
外れなものとなる。その代わりに、通常、データは、請
け負うべき解析に適した、系統的な表現にされる。予備
解析データ処理の1つの技法は、Karhunen-Loeve変換
(「KLT」) であり、これは、統計的解析に馴染みのあ
る表現を与えるために、データの分散行列の固有値、及
び固有ベクトル解析を伴う(例えば、Kirby 他による、
12 IEEE Transactions on Pattern Analysis and Machi
ne Intelligence 103 (1990)を参照されたい)。更に詳
細には、対象物は、非常に大きな座標空間内で表現さ
れ、そこにおいて、対象物の各ピクセルは、空間の次元
に対応するので、対象物は、その空間におけるベクトル
(又は、点)に対応する。KLTによれば、調査中の指
向(training)集合の、或いは集団の実体画像は、指向
画像を、集団の分散行列の固有ベクトルとして表現す
る、数学的変換を被る。元の指向画像の各々は、各種の
固有ベクトルの総和として、正確に表現可能である。
【0004】かかる固有空間分解は、テンプレート整
合、又は正規化相関のような、標準的な検出技法よりも
強力であるが、推定技法を、画像の高次元空間に適用す
べきである場合、手に負えない計算上の重荷を依然とし
て呈示する。データを効率的に解析するためには、探索
が、データ空間の最も顕著な領域に限定可能なように、
分割せねばならない。かかる領域を識別する1つの方法
は、「主成分解析」(「PCA」) を必要とし、これは、
多次元画像空間内の対象物の分布が、特徴領域内にグル
ープ化される傾向を有することを認識して、この領域を
規定するために、固有ベクトルの主成分を利用する。固
有ベクトルは各々、指向集合の画像間における異なる量
の変化の原因となり、画像間の変化のモードを共に特徴
付ける、特徴集合と見なすことができる。各対象画像
は、指向画像の集合内の最大分散量の原因となる、「最
良の」、或いは主成分固有ベクトル(すなわち、それら
は、最大固有値を有する)の一次結合により、近似的に
表現することができる。米国特許第5,164,992 号(その
開示全体を参照として、本明細書に取り入れる)におい
て、例えば、上記の立案が、顔認識システムに使用さ
れ、そこでは、主成分が、主部分空間を、すなわち指向
画像が群をなす高次元画像空間の「顔空間」領域を規定
する。入力画像(又は、画像領域)が走査されて、その
画像を顔空間上に数学的に投影することにより、顔の存
在が検出される。顔空間からの入力画像(高次元画像空
間における点として表現される)の距離を利用して、顔
と顔でない間が弁別される。すなわち、計算された距離
が、予め選択された閾値より下になった場合、入力画像
はおそらく顔である。もう少し一般的には、米国特許第
5,164,992 号に記載の技法は、「対象空間からの距離」
(「DFOS」)の大きさを利用して、入力画像が、対象物
の実体を含むか否かを判定する、ということが言える。
【0005】計算上は扱い易いが、米国特許第5,164,99
2 号の手法は、主成分以外の固有ベクトルが、対象空間
を規定する際に廃除されるので、基本的には不完全なも
のである。結果としての局所密度関数は、対象空間を単
一の完全体として扱う。すなわち、DFOS計量法は、
内部変化がないと仮定した空間からの絶対距離を与え
る。しかし、対象空間における全パターンが、おそらく
等しいと仮定することにおいて、この解析は、ある間違
った結果となる傾向がある。例えば、人間の目は、対象
物が実存しないと瞬時に認識するが、その指向画像との
特定の類似点を共有するパターンは、PCAを用いる
と、対象分類の構成要素として、間違った類別化を容易
になす可能性がある。
【0006】対象空間が、PCAを用いて規定される、
この制限された手法は、対象空間の密度が変動する場合
だけでなく、対象空間が多モードである場合にも制限を
課す。例えば、指向画像が、異なる視野角で、又は異な
る照明条件の下でとられた、顔の写真からなると想定し
てみる。顔空間における指向の視野の分布は、単一モー
ドにはならず、実際、対象空間において、複雑、且つ分
離不可能な多様体上に存在する傾向となる。PCAは、
かかる空間配置内において、正確な推定を与えることが
できない。PCAをかかる多モード環境に適応させるた
めには、各々異なる視野に対応する、個別の固有空間に
おいてPCAが実行される、視野基準の(又は、対象物
基準の)立案を構築すること、或いはスプライン、又は
局所基準関数を用いて、普遍の、又は母集団の固有空間
に、対象空間多様体の複雑性の捕捉を試行すること、と
いった方策に頼らねばならない。しかし、これらの適応
の何れもが、複雑であり、且つ解析の精度を最終的に劣
化させる可能性がある。
【0007】
【発明が解決しようとする課題】本発明は、推定を導出
するために、主成分だけでなく、全ての固有ベクトルを
利用する、対象物検出、及び認識に対する手法を提供す
る。対象空間内の全てのパターンが、ほぼ等しいと仮定
する代わりに、対象空間内の確率分布を捕捉する。この
ようにして、本発明は、対象空間内に入る入力画像に対
する、パターン間のより緻密な識別、推論、対象空間内
のその代表値の測定を容易にする。換言すると、パター
ンが、対象空間内に存在するが、指向画像が、群をなす
傾向を有する、対象空間の領域近傍のどこにも存在しな
い場合、本発明は、そのパターンを「代表値ではな
く」、おそらく、対象物分類の構成要素ではないと識別
する。本発明は、人間の顔、その特徴(例えば、目)と
いった、実質的に任意の多特徴のある実体だけでなく、
また人間の手といった、柔軟で関節のある対象物の検
出、及び認識に有益である。
【0008】本発明は、主固有ベクトル成分に対する解
析に限定されないので、多モード分布に容易に適合す
る。実際、本発明により、異なる対象物視野を表す指向
画像の集合が与えられる限り、本発明は、ある範囲の入
力パターン配向にわたって、価値のある認識性能をもた
らすことが可能である。換言すると、本発明は、内部分
布が一様でないだけでなく、多モードでもある対象空間
内の弁別が可能である。更に、本発明は、検出が、入力
画像内の特徴的パターンの大きさにほとんど独立である
ような、縮尺の範囲にわたって動作可能である。本発明
により利用される表現は、基本的にはデータ圧縮形式
の、高効率なモデル・ベース符号化、機能に向いてい
る。対象物の分類を表す、基本固有ベクトルの集合が、
基本ベクトルの重み付け一次結合として表現される、新
しい対象物を符号化するための基準として使用され得
る。このようにして、新しい対象物が、少数のバイトを
用いて表現可能であり、最小限の必要記憶容量で、大画
像データベースの効率的な符号化が容易になる。圧縮
は、量子化により更に増強され得る。
【0009】
【課題を解決するための手段】従って、1つの態様にお
いて、本発明は、本明細書に記載する原理に従って、散
乱した光景において、(顔といった)複雑で多特徴のあ
る対象物、又は実体を検出するための設備である。走査
モジュールが、ピクセルの矩形近傍を系統的に識別し
て、検出モジュールに、各ピクセルに関連した値(例え
ば、輝度レベル)を渡す。検出モジュールは、ピクセル
値を、高次元画像空間(各空間軸に沿ったベクトル成分
の長さに対応する、ピクセル値を備えた)におけるベク
トルとして表現し、以下で説明するように、このベクト
ルを固有空間分解上に投影して、ベクトルが、検出すべ
き対象物のタイプのパターン特徴を含むか否かを判定し
(すなわち、ベクトルが、対象空間内に入るかだけでな
く、代表値であるか否かも)、もし含む場合、認識モジ
ュールは、入力パターンが、指向画像の集合のうちのい
ずれの特定ものに対応するかを判定する。更に特定とし
て、本発明は、入力画像が、指向画像集合の全ての固有
ベクトル成分に対して考慮されるが、高次元画像空間を
通して、明示的な解析を計算する必要のないような、P
CA手法に及ぶ。代わりに、本発明は、PCAの部分空
間結果を、画像空間における対象物の確率密度の周辺成
分の推定として取り扱い、PCA部分空間結果を足場と
して、統計的に矛盾のない推定枠組みに、PCA投影、
及び残りの(主成分でない)固有ベクトル上への入力画
像の投影を別個に取り込むことにより、確率密度の完全
な推定を達成する。これは、主成分の、及び残りの固有
ベクトル空間に関連した、確率密度は、互いと容易には
相関しない、ということに関するので、本発明の重要な
要素を表す。
【0010】全体の対象物検出に加えて、本発明は、対
象特徴(例えば、顔全体の代わりに、顔の特徴)を自動
的に検出、及び識別するように、実施可能である。この
機能により、全体の対象物を基準にして、多モードの対
象空間密度が何を表すかという、個性が表現される。説
明の便宜上、「特徴」という用語は、対象物全体、又は
その特徴を意味するために、本明細書において一般的に
使用する。
【0011】他の態様において、本発明は、検出に付随
して、又はその代替として、固有対象物、又は固有特徴
テンプレート(例えば、固有の顔、固有の目、固有の
鼻、固有の口、等)の一次結合に基づいて、対象物、又
は特定の対象特徴のモデル・ベース符号化を提供する。
固有特徴の表現において、特徴空間からの等価距離(「D
FFS」)計量法を用いて、入力画像の各ピクセルの解析
から、特徴距離マップが構築される。n個の固有ベクト
ルを用いた場合、これには、n個の畳み込み(これは、
高速フーリエ変換(「FFT」)を用いて、効率的に計算
可能である)に加えて、付加的な局所エネルギー計算が
必要とされる。次に、この距離マップの大域的最小値
が、最良の特徴整合として選択される。この技法の性能
は、最近、約8000枚の「警察の記録用の顔(mugsho
t)」写真のデータベース上で試験され、それに伴い、9
4%の検出率(標準のテンプレート整合よりも、ほぼ完
全な程度の大きさの改善を表す)を達成した。
【0012】本発明は又、主成分空間内、及びその外側
の確率を相関するための、統計的原理を与える、最大公
算(「ML」)を用いて、対象物の自動視覚学習、特徴検
出、及び識別のための装置を具体化する。好適な実施例
において、この装置には、多数の縮尺で画像を走査し、
各縮尺において、好適には並列に、ML解析(対象物、
又は特徴レベル、或いはその両方での)を実施して、目
標特徴の実体を検出する手段と、多次元画像空間におけ
る固有ベクトルの集合として、好適には配向、及び照度
が一致する、指向画像集合を表現する手段と、指向画像
集合と幾何形状、及びグレースケール・コントラストを
一致させるために、入力画像の検出成分を調整する手段
と、認識を目的として、指向集合の固有空間表現上に、
検出された特徴を投影する手段と、固有ベクトル投影係
数に関連して、元の画像を再構成するための任意の再構
成モジュールと、量子化固有ベクトル投影係数の集合と
して、調整、及び/又は再構成画像を効率的に表現する
ための、符号化モジュールとが含まれる。
【0013】
【発明の実施の形態】以上の説明は、添付図面と関連し
てなされる、以下の詳細な説明から、更に容易に理解さ
れるであろう。
【0014】1.画像解析 本発明の手法は、密度推定に基づくものであり、固有空
間分解を利用して、高次元画像空間が、計算上で管理可
能な部分空間に縮小される。各々が対象物分類Ωの構成
要素である、指向画像の集合
【0015】
【数1】
【0016】に関して、本発明は、分類メンバーシップ
関数、又は公算関数P(x|Ω)を推定、すなわち入力
画像xが、その分類の構成要素であることを推定する、
という課題を提言することができる。
【0017】この課題に対するPCA手法は、以下の通
りである。m×n画像の集合
【0018】
【数2】
【0019】が与えられると、各画像It のピクセル要
素の辞書的な順番により、xが次元mnである(すなわ
ち、x∈RN=mn)、指向集合のベクトル{xt} を形成
することが可能である。KLTにおける基本関数は、固
有値問題を解くことにより得られる。
【0020】
【数3】
【0021】ここで、Σは、データの分散で、Φは、Σ
の固有ベクトル行列で、Λは、固有値の対応する対角行
列である。PCAを用いて、局所KLTが、最大固有値
の固有ベクトルを識別して、主成分の特徴ベクトル
【0022】
【数4】
【0023】を得るために実行され、ここで
【0024】
【数5】
【0025】は、平均正規化画像ベクトルであり、ΦM
は、主固有ベクトルを含む、Φの部分行列である。PC
Aは、最大固有値(すなわち、主成分)に対応する、K
Lの原理のより低い次元の部分空間を抽出する、一次変
換y=T(x):RN→RMとして説明できる。図1に示
すように、説明目的のために、表現、及びその特徴(対
象物とは反対である)レベルでの解析を仮定するが、こ
れは、領域10内に群をなす主成分を含む超平面であ
る、主部分空間(又は、特徴空間)
【0026】
【数6】
【0027】、及び図1に直交相補成分で示す残りの成
【0028】
【数7】
【0029】からなる、2つの相互に排他的で、且つ相
補的な特徴空間への、ベクトル空間RN の直交分解に対
応する。特徴空間からの距離(「DFFS」)の大きさは、
入力画像xに対して、主特徴部分空間Fからのその画像
空間ベクトルの距離を表し、米国特許第5,164,992 号に
使用されるような技法は、DFFSが、所定の誤差範囲
内にあるか否かを判断し、もし範囲内にある場合、入力
画像は、特徴の場合であると見なされる。換言すると、
空間F/は、残留再構成誤差を計算するためにだけ用い
られる。F/空間にある関連特徴ベクトルに対する、x
の関係だけでなく、主ベクトルの群からの、主特徴空間
Fにおけるxの投影距離も無視され、すなわち、この後
者の「特徴空間の距離」(「DIFS」)パラメータ
は、最も典型的な特徴が、領域10内、又はその近くに
入ることになるので、検討中の特徴タイプの典型的な構
成要素として、xが見なせるかどうかの度合いを示す。
【0030】局所KLを展開すると、残留再構成誤差
は、以下のように定義される。
【0031】
【数8】
【0032】ここで、各量yは、成分固有ベクトル上へ
の投影係数を表し(すなわち、yi は、入力画像に対す
る、i番目の固有ベクトルの相対分布を意味し、F空間
におけるある点を表す)、残留誤差は、平均正規化画像
xのM個の主成分、及びL2 ノルム(すなわち、長さを
表す、2乗和)から、直接的に計算可能である。図1を
参照すると、直交部分空間F/におけるDFFS成分
は、単純なユークリッド距離となり、この残留誤差に等
しい。DIFS成分(すなわち、特徴空間F内にあるx
の成分)は、一般的には、距離に基づいたノルムではな
いが、Fにおけるyの確率分布に関連して、解釈可能で
ある。
【0033】与えられた指向集合{xt} から、分布の
平均x/、及び分散Σの推定値が与えられると、例え
ば、米国特許第5,164,992 号で概略示される統計的技法
を用いて、公算関数P(x|Ω)は、以下のように表現
可能となる。
【0034】
【数9】
【0035】この関数を特徴付けるのに十分な統計量
は、いわゆるMahalanobis 距離であり、これは、多次元
の正規化、すなわち互いに、異なる値範囲を有する変数
のノルムに関する統計的な縮尺係数を与え、このように
して、「代表値」が、異なる値に及ぶ変数に対し一貫し
て表現可能となる。Mahalanobis 距離は、以下で与えら
れる。
【0036】
【数10】
【0037】Σの固有ベクトル、及び固有値を用いる
と、以下の直交化形式でΣ-1を書き直すことが可能であ
る。
【0038】
【数11】
【0039】ここで、y=ΦTx は、KLTにおける座
標の変更により得られる、新しい変数である。直交化形
式のために、Mahalanobis 距離は又、以下の総和の項で
表現可能となる。
【0040】
【数12】
【0041】以下のように、M個の主投影のみを用い
て、d(x)を推定可能である。
【0042】
【数13】
【0043】ここで、項
【0044】
【数14】
【0045】は、DFFS残留誤差ε2(x) であり、
最初のM個の主成分を用いて計算可能である。従って、
P(x|Ω)は、2つの周辺、及び独立ガウス密度の積
として、
【0046】
【数15】
【0047】から推定可能となる。
【0048】
【数16】
【0049】ここで、PF(x|Ω) は、F空間におけ
る真の周辺密度で、
【0050】
【数17】
【0051】は、直交相補F/空間における推定される
周辺密度である。
【0052】ρの最適値は、Kullback-Leibler発散、又
は真の密度とその推定値間の「相対エントロピー」とす
べきである、以下の適切な費用関数J(ρ)を最小化す
ることにより決定できる。
【0053】
【数18】
【0054】
【数19】
【0055】最適な重みρ* は、ρに関して上記関数を
最小化することにより、見出し得る。式δJ/δρ=0
を解くと、以下の結果が得られる。
【0056】
【数20】
【0057】これは、直交部分空間F/における固有値
の単純な算術平均となる。その最適性に加えて、ρ*
又、結果として以下のように、Mahalanobis 距離の不偏
推定値となる。
【0058】
【数21】
【0059】従って、M次元の主部分空間が定義される
と(例えば、PCAにより)、主部分空間だけでなく、
全体の画像空間を包囲する、最適密度推定値
【0060】
【数22】
【0061】は、式11で与えられるρを備えた、式8
で与えられる形式を有する。
【0062】指向集合が、変化する照明条件の下での多
数の視野、又は多数の対象物を表す場合、指向視野の分
布は、もはや単一モードでなく、例えば、図2に示す任
意の多モード密度に類似することになる。空間Fの単一
領域10を占有する代わりに、主ベクトルは、領域1
2、14、16の群を占有する。このタイプの分布をモ
デル化する1つの手法は、各種の領域が、特定のタイプ
の画像変化(例えば、頭上、及び左右の輪郭視野)を系
統的に反映すると仮定し、画像をグループ内に隔離する
ことにより、解析を分割することである。
【0063】本発明は、分割といった方策を必要とする
ことなく、多モードの固有ベクトル空間における、入力
画像の唯一の解析を容易にする。F/空間成分が、ガウ
ス状で、F空間における主要特徴とは独立であると仮定
すると(これは、例えば、CCDカメラに本質的な「シ
ョット雑音」に起因した、純粋な観測雑音の場合には、
真実であろう)、主成分ベクトルyにおける任意の密度
P(y)として、PF(x|Ω) を取り扱うことによ
り、式8の密度推定値
【0064】
【数23】
【0065】の分離可能形式を依然として利用すること
が可能になる。図2に示すように、DFFSは、残留誤
差ε2(x) に依然として対応するが、DIFSは、も
はや単純なMahalanobis 距離として表現することはでき
ない。しかしながら、DIFSをP(y)と関連させる
ことにより、「距離」として、例えばDIFS=−lo
gP(y)として、DIFSを表現することが可能であ
る。
【0066】主成分ベクトルの密度P(y)は、母数混
合モデルを用いて推定可能である。特に、任意の複合密
度は、ガウスの混合法を用いて、以下のようにモデル化
可能である。
【0067】
【数24】
【0068】ここで、g(y;μi,Σi)は、平均ベク
トルμ、及び分散Σを有する、M次元ガウス密度であ
り、πi 変数は、制約条件Σπi =1を満足する、成分
の混合母数である。この混合は、母数
【0069】
【数25】
【0070】により完全に指定される。画像の多モード
指向集合
【0071】
【数26】
【0072】が与えられると、混合母数は、ML原理を
用いて、以下のように推定可能となる。
【0073】
【数27】
【0074】この推定問題は、周知の期待値最大化
(「EM」)アルゴリズム(例えば、Dempster他によ
る、「EMアルゴリズムによる不完全データからの最大
公算(Maximum Likelihood from Incomplete Data via
the EM Algorithm)」,Journal of the Royal Statisti
cal Society B, vol.39, 1977、及び Render他による、
「混合密度、最大公算、及びEMアルゴリズム(Mixtur
e Densities, Maximum Likelihood and the EM Algorit
hm)」,26 SIAM Review 195 (1984)を参照されたい。こ
れらの参考文献の各々の内容を参照として、本明細書に
取り込む。)を使用して、直接に解かれる。EMアルゴ
リズムは、公算において単一的収束性であり、従って指
向集合の公算全体において、局所最大値を見つけるのが
保証される。
【0075】指向データが、真にM次元(最大で)であ
り、白色ガウス測定雑音に起因した摂動を除いて、主部
分空間Fに唯一属するという、すなわち等価的に、指向
データのF/空間成分自体が、分離可能なガウス密度を
表すという、動作仮定を与えると、完全公算関数P(x
|Ω)の推定値が、以下により与えられる。
【0076】
【数28】
【0077】単一モード、及び多モードの両方の場合に
おいて、密度推定値
【0078】
【数29】
【0079】は、入力画像(画像空間のベクトルxとし
て表現される)が、指向画像集合の事例を表すか否かの
信頼性のある指示を与える。すなわち、推定値は、DF
FSから導出される残留再構成誤差、及びDIFSによ
り表現される分類代表値の両方を反映する。更に密度推
定値
【0080】
【数30】
【0081】は又、縮小化に向いているので、確率推定
値は、画像全体ではなく、画像成分に対して展開可能で
ある。特に、密度推定値を用いて、以下のように、多縮
尺の突出マップが形成され、ここで、線形縮小型の入力
画像に関して、公算計算が(並列に)実行される。
【0082】
【数31】
【0083】ここで、xijk は、多縮尺表現において、
入力画像の局所的な部分画像から得られるベクトルであ
る。対象物Ωの空間位置、及び縮尺のML推定値は、以
下のように得られる。
【0084】
【数32】
【0085】ここで、i、jは、画像成分を識別し、k
は縮尺水準である。
【0086】対象物、又は特徴のグレースケール出現に
おける多様性は、照明、及びコントラスト変化から生じ
る。以下で更に詳細に説明するように、各部分画像をそ
の平均、及び標準偏差により正規化することによって、
広域的な照度変化に対して(それと同時に、特定のカメ
ラの線形応答特性に対しても)、正規化することが可能
である。この照明の正規化は、指向、及び入力画像解析
時に、通常実施される。
【0087】2.ハードウェア実施例 ここで、本発明を取り入れたハードウェア・システム
を、ブロック図形式で示す図3を参照する。そこで示さ
れるように、このシステムは、ビデオ源150(例え
ば、電荷結合素子、すなわち「CCD」カメラ)を含
み、それは、解析すべき静止入力画像を供給する。ビデ
オ源150の出力は、デジタイザ152により、ピクセ
ルマップへとフレームとしてデジタル化される。デジタ
ル化ビデオフレームは、それを介して全ての構成要素が
通信を行う、システムバス155上に、ビットストリー
ムとして送られて、大容量記憶装置(ハードディスク、
又は光学式記憶ユニットといった)だけでなく、主シス
テムメモリ160(特定として、一連の等サイズの入力
画像バッファ162を規定する区分内の)にも格納され
る。
【0088】図示のシステムの動作は、中央処理ユニッ
ト(「CPU」)170により指令される。以下で説明
する、画像処理動作の高速実行を容易にするために、こ
のシステムは、好適には、グラフィック、又は画像処理
ボード172を含むが、これは、当業者には周知の標準
的な構成要素である。
【0089】ユーザは、キーボード180、及び位置検
知装置(例えば、マウス)182を用いて、システムと
対話する。どちらかの装置の出力を用い、情報を指示、
又はスクリーンディスプレイ184の特定区域を選択し
て、システムにより実施されるべき機能が指令される。
【0090】主メモリ160は、CPU170の動作、
及び他のハードウェア構成要素との対話を制御する、一
群のモジュールを含む。オペレーティング・システム1
90が、メモリ割当て、ファイル管理、及び大容量記憶
装置157の動作といった、低レベルの基本システム機
能を指令する。より高レベルにおいては、一連の格納さ
れた命令として実施される、解析モジュール192が、
以下で説明するように、本発明により遂行される主要機
能の実行を指令し、ユーザインターフェース194を規
定する命令が、スクリーンディスプレイ184を介し
て、直接の対話を可能にする。ユーザインターフェース
194は、ユーザによる動作を促すために、言語を、又
はディスプレイ上にグラフィック画像を生成して、キー
ボード180、及び/又は位置検知装置から、ユーザ・
コマンドを受け取る。最後に、メモリ160は、大容量
記憶装置157に格納されている、固有テンプレートに
関して、以前に説明したように、符号化された対象物、
又は特徴の画像データベースを格納するための区分19
6を含む。
【0091】各画像バッファ162の内容は、「ラスタ
ー」、すなわち集合的に1つの画像を表す、離散ピクセ
ル位置の規則的な2次元パターンを規定し、その画像を
表示するために、スクリーンディスプレイ184を駆動
する(例えば、画像処理ボード172、又は画像サーバ
の手段により)ためにも使用できる。フレームバッファ
内の各メモリ配置の内容は、ディスプレイ184上に
おいて、対応するピクセルの出現を直接支配する。
【0092】主メモリ160のモジュールを個別に説明
したが、これは、呈示を明瞭にするためだけであり、シ
ステムが、全ての必要な機能を遂行する限り、それら
が、システム、及びそのプログラミング・アーキテクチ
ャー内で、如何に配分されるかは重要ではない、という
ことを理解されたい。同様に、格子として概念的に構成
したが、ピクセルマップは、実際には、この様にして、
デジタル的に格納される必要はない。むしろ、メモリ利
用、及び転送を簡便にするために、ラスターパターン
は、通常、ピクセルの順序アレーとして符号化される。
【0093】上記のように、本発明に関連した重要なタ
スクの実行は、CPU170の動作を支配し、且つ対象
物、又は特徴を検出、認識、及び符号化するのに必要な
ステップを遂行する際には、主メモリ160とのその対
話を制御する、解析モジュール192により指令され
る。このモジュールの好適な実施例の構成要素は、図4
に示されている。図示の解析モジュール192は、最大
推定精度のために、対象物、及び特徴レベルの両方にお
いて動作する。しかしながら、これらの機能は、本発明
の完全な可能性を明示するが、本発明は、代替として、
その両方ではなく、対象物、又は特徴レベルのどちらか
においても動作可能である(例えば、計算資源を保護す
るため、又は実時間動作を容易にするために)、という
ことを理解されたい。
【0094】図4に示すように、アテンション副システ
ム200、及び対象物中心の表現ステージ(「OCR
S」)202が協働して、対象物の可能性のある事例を
検出するために、入力画像に関する多縮尺の探索を遂行
する。説明上の目的のために、この対象物は、顔である
と想定する。本発明の重要な適用は、検出ステージにお
いてもたらされる。すなわち、ML解析を用いて、入力
画像が、とにかく顔を含むか否かが判定される。
【0095】副システム200、及びOCRS202の
好適な動作モードが、図5に示されている。第1のステ
ップ300において、粗い固有ベクトル顔表現(例え
ば、10次元の主部分空間、すなわち、最も高い関連性
のある固有ベクトルを有する、「固有の顔」の10個の
固有ベクトルから構成される「顔空間」を備えた)、及
び各種の顔特徴(例えば、目、鼻、及び口)の固有ベク
トル表現が、一連の指向画像(好適には、単一の視野角
で生成された)から確立される。適切なユーザ・コマン
ドに応答して、ステップ302において、入力画像が、
第1のバッファ162内にロードされて、それを、解析
モジュール192が利用可能となる。次に、入力画像
は、入力画像よりも小さな複数のレベル(例えば、1/
2×、1/4×、等)に、線形縮小されて、k個の縮小
画像の各々が、画像バッファ162のうちの異なるバッ
ファに格納される。
【0096】ステップ304において、各縮小化された
入力画像(例えば、20×30ピクセル)の矩形の「ウ
ィンドウ」領域が、通常は画像の角部において規定され
る。ウィンドウ内のピクセルは、画像空間内の点として
ベクトル化され、主部分空間F、及び直交部分空間F/
上に投影されて、ステップ306において、式8及び1
1に従って、確率推定値が得られる。画像の走査が、完
全に完了していないならば(ステップ308)、ウィン
ドウは、同じウィンドウ寸法であるが、既に解析済みの
ウィンドウから、1ピクセルの距離だけ変移した、新し
い領域を規定することにより、「移動」される(ステッ
プ310)。入力画像の縁部に到達した場合、ウィンド
ウは、1ピクセルの距離だけ垂直に移動されて、走査
は、反対方向に再開する。画像走査が完了すると、顔を
含む確率の最も高いウィンドウが、式16に従って識別
される(ステップ312)。全ての縮尺kに対して、ス
テップ304−312が繰り返され、それによって、多
縮尺の突出マップが生成される。
【0097】所望ならば、任意の数の適切な方法で、入
力画像を予めフィルタリングするように、アテンション
副システム200を構成することも可能である。例え
ば、米国特許第5,164,992 号に記載されるように、動き
検出を用いて、光景内の人の存在を識別することが可能
であり、また突き止められる人の顔のテンプレート整合
解析を用いて、顔がありそうな位置を予測することも可
能である。
【0098】全ての縮小化画像の解析に続いて、最も高
い関連性のある確率推定値、及びそれに関連した縮尺k
を有する、ウィンドウi、jが、識別されて、翻訳、及
び縮尺に対して正規化される(ステップ314)。標準
的な画像加工技法を利用して、検出された顔が、束縛ボ
ックスに配置される。ステップ316において、束縛ボ
ックス内の画像が走査されて、顔の特徴(例えば、目、
鼻、及び口)の位置が検出される。これは、もう一度、
局所ウィンドウ移動、及び固有特徴ベクトルに対する確
率推定を行うことにより達成される。束縛ボックス内の
これら特徴の位置を用いて、まず、検出された顔の幾何
形状が有効化され、次に、ステップ320において、そ
の顔が、「歪曲(warp)」、すなわち認識の目的のため
に、指向集合において利用された視野と、その顔が空間
的に整合するように、幾何的に変形される。
【0099】最後に、ステップ322において、束縛画
像が、顔の内部のみを含むようにマスキングされ、それ
により、最も突出した顔の部位上に、KLTの記述力が
集中される。指向ステップ300は、特徴抽出モジュー
ル(「FEM」)204により遂行され、ステップ31
4−320は、OCRS202により実行され、主部分
空間、及び直交部分空間上への入力画像の投影を含む、
残りのステップは、アテンション副システム200によ
り実行される。
【0100】コントラスト正規化モジュール206は、
中央化され、マスキングされた顔を処理して、広域的な
照度変化、及び/又は特定のCCDカメラの線形応答特
性に起因した、入力画像における変動を補償する。とい
うのは、これらの変動は、認識、及び符号化精度に影響
を与えることになるためである。標準範囲(すなわち、
それ自体が、モジュール206により固定標準に正規化
される、指向画像に関連した範囲)に対して、入力画像
のグレースケール範囲を正規化することにより、モジュ
ール206は動作する。コントラスト調整に使用される
正規化係数は、メモリ内に格納されて、後に、元のコン
トラストを有する画像の再構成が可能になる。
【0101】コントラスト正規化に続いて、認識、すな
わち指向画像の1つとの顔の整合の目的のために、固有
の顔の集合上に顔ベクトルを投影するFEM204によ
り、顔が処理される。このステップは、例えば、米国特
許第5,164,992 号に従って実行可能であり、その場合に
は、固有の顔は、主成分を表し空間Fを規定する。認
識、及び学習モジュール(「RLM」)208が、結果
としての投影係数を利用して、画像データベース196
から顔を突き止め、ここで、顔は、それ自身の投影係数
により表される。RLM208は、データベース196
から最も近い顔、及び整合のための信頼レベルを戻す。
【0102】元の画像は、再構成モジュール210によ
り、認識を目的として使用される調整された画像から再
構成され、再構成モジュールは、ステップ314、及び
318で使用される正規化、及び変形係数だけでなく、
モジュール206により使用されるコントラスト調整値
も累算して、反対にこれらを適用して、元の入力画像に
おいて表されるような顔に到達する。
【0103】調整された顔画像(、及び/又は再構成さ
れた顔、及び/又はFEMにより、投影係数へと処理さ
れた入力画像)は、表現効率を最大にするために、符号
器モジュール212により符号化することができ、これ
は、例えば画像を転送すべき、又は放送すべき場合に、
特に重要となる。投影係数は、それ自体、ピクセルマッ
プのかなりの圧縮を表すが、符号器212は、その係数
の標準偏差(KLTにより計算された固有値の平方根)
により、係数を正規化して、その正規化された係数を量
子化することによって、投影係数を尚も更に圧縮する。
量子化は、例えば、正規化された係数を、離散範囲「容
器(bin)」内に割当てる、ガウス源に対するLloyd-Max
量子化器を用いて達成可能であり、ここで、各容器は、
対応する浮動小数点係数よりも、小さな量の情報により
表すことができ、容器の数(すなわち、量子化レベル)
は、量子化された符号化の精細度を決定する。当然なが
ら、より少ないレベルは、符号化された画像が、固有の
顔から再構成された場合に、より貧弱な画像忠実度を意
味する。しかしながら、関連した固有の顔が、画像に寄
与する度合い、従って、投影係数の重要性を反映する、
固有値に従って、投影係数をランク付けすることによ
り、異なる係数に対して、可変数の量子化レベルを利用
する(例えば、所与の係数に割当てられたレベルの数
を、その固有値に比例させる)ことで、最小限のメモリ
費用と共に忠実度を保持することが可能となる。
【0104】以前に説明したように、ここでも、本発明
の手法は、対象物、又は特徴レベルにおいて有効である
ことを強調する。これら対象物、及び特徴レベルは、上
述のように、特定の用途に依存して、組み合わせるか、
又は別個に実施することが可能である。例えば、本発明
は、顔により表される多特徴のある実体の「履歴調査」
を行って、特定の顔特徴を突き止めることができ、探索
された対象特徴が、特に識別可能な特性を具体化する場
合、特徴指定の探索は、対象物全体の探索よりも、正確
で、且つある場合には高速であることを実証可能であ
る。
【0105】本発明の固有空間の密度推定技法は、顔と
いった質感のある、又は細部の対象物には限定されな
い。例えば、その多様性が、質感ではなく形状から生じ
る、手といった、本質的に質感のない対象物に、本発明
は首尾良く適用された。照度、コントラスト、及びシー
ン背景に関して不変である、手の形状のエッジに基づく
表現を利用することにより、ジェスチャー形式で純粋に
表現される、対象物の同一性に関して動作する本発明の
能力が明示された。
【0106】この実施例において、まず、手振りの指向
集合が、黒の背景に対してデジタル的に捕捉された。次
に、手の2次元輪郭が、Canny エッジ・オペレータを用
いて、抽出された。しかし、結果としての2値のエッジ
・マップは、その散在した分布に起因して、互いにほと
んど相関がなく、それにより非常に高次元の主部分空間
となった。本来の次元の数を縮小するために、空間相関
を、2値のエッジ・マップ上で、拡散処理を介して導入
した。この処理は、効果的にエッジを広げ、「ぼかし
(smears)」て、それにより、エッジの空間分布に関連
して、対象形状を表す、連続的な値のついた輪郭画像が
もたらされる。この表現は、米国特許第5,164,992 号に
開示されている認識手法が、16次元の主部分空間の高
精度で、手振り(それらは、生成された拡散エッジ・マ
ップに対して、前処理されるが)を入力するために、ジ
ェスチャー分類を割当てるように、計算上扱いやすいレ
ベルにまで主部分空間を縮小した。
【0107】本発明は、検出(アテンション、及び表
現)ステージ、すなわち散乱したシーンにおいて、手
(その関節状態の何れかにおける)を発見し、その縮尺
を明らかにし、それを、認識の前に、基準フレームに対
して整合させるためのステージにおいて、上記の環境に
適用された。この局所化は、手の基礎をなす画像表現
が、グレースケール画像ではなく、拡散エッジ・マップ
であったことを除いて、上記のシステムにより達成され
た。
【0108】しかし、この場合、指向データの分布は、
各ジェスチャーに対して、基本的に異なる手の形状に起
因して、多モードであった。従って、アテンション副シ
ステムは、式8及び11ではなく、式13−15と関連
して説明した手法を利用した。この推定値のパラメータ
は、EMアルゴリズムの20の交互作用により得られ
た。各入力シーンは、まず、拡散エッジ・マップを生成
するために前処理され、次に、多縮尺の突出計算を容易
にするために、上記のように縮小化された。本発明は、
散乱した背景シーンを含む画像において、手を十分な精
度で、検出、及び局所化するために見出された。
【0109】従って、以上のことは、対象物、及びその
特徴の検出、認識、及び符号化に対して、非常に拡張性
があり、且つ有利な手法を表すことが、理解されるであ
ろう。本明細書において用いた用語、及び表現は、限定
としてではなく、説明の用語として用いたものであり、
また、かかる用語、及び表現を用いる際に、図示、及び
記載した特徴の何れの等価物、及びその部分を包含しな
い、という意図はなく、各種の修正が、特許請求の範囲
で規定される、本発明の範囲内で可能である、というこ
とを認識されたい。例えば、本発明の各種のモジュール
が、適切なソフトウェア命令を用いる汎用のコンピュー
タ上で、又はハードウェア回路として、或いはハードウ
ェア・ソフトウェアを混合した組合せとして実施可能で
ある(ここで、例えば、ピクセル加工、及びレンダリン
グは、専用ハードウェア構成要素により実行される)。
【0110】
【発明の効果】本発明は上述のように、対象空間内の全
てのパターンが、ほぼ等しいと仮定する代わりに、対象
空間内の確率分布を捕捉する。このようにして、本発明
は、対象空間内に入る入力画像に対する、パターン間の
より緻密な識別、推論、対象空間内のその代表値の測定
を容易にする。換言すると、パターンが、対象空間内に
存在するが、指向画像が、群をなす傾向を有する、対象
空間の領域近傍のどこにも存在しない場合、本発明は、
そのパターンを「代表値ではなく」、おそらく、対象物
分類の構成要素ではないと識別する。本発明は、人間の
顔、その特徴(例えば、目)といった、実質的に任意の
多特徴のある実体だけでなく、また人間の手といった、
柔軟で関節のある対象物の検出、及び認識に有益であ
る。
【0111】本発明は、主固有ベクトル成分に対する解
析に限定されないので、多モード分布に容易に適合す
る。実際、本発明により、異なる対象物視野を表す指向
画像の集合が与えられる限り、本発明は、ある範囲の入
力パターン配向にわたって、価値のある認識性能をもた
らすことが可能である。換言すると、本発明は、内部分
布が一様でないだけでなく、多モードでもある対象空間
内の弁別が可能である。更に、本発明は、検出が、入力
画像内の特徴的パターンの大きさにほとんど独立である
ような、縮尺の範囲にわたって動作可能である。本発明
により利用される表現は、基本的にはデータ圧縮形式
の、高効率なモデル・ベース符号化、機能に向いてい
る。対象物の分類を表す、基本固有ベクトルの集合が、
基本ベクトルの重み付け一次結合として表現される、新
しい対象物を符号化するための基準として使用され得
る。このようにして、新しい対象物が、少数のバイトを
用いて表現可能であり、最小限の必要記憶容量で、大画
像データベースの効率的な符号化が容易になる。圧縮
は、量子化により更に増強され得る。
【図面の簡単な説明】
【図1】単一モード分布における主成分を含む主部分空
間、及び残りの成分を含む直交部分空間において、特
徴、又は対象物を示す。
【図2】多モード分布における主成分を含む主部分空
間、及び残りの成分を含む直交部分空間において、特
徴、又は対象物を示す。
【図3】本発明のための代表的なハードウェア環境を概
略的に示す。
【図4】ブロック図形式で、更に詳細な解析モジュール
を示す。
【図5】解析モジュールのアテンション副システム、及
び対象物中心の表現の構成要素の動作を示す、フローチ
ャートである。
【符号の説明】
───────────────────────────────────────────────────── フロントページの続き (72)発明者 アレックス・ペントランド アメリカ合衆国マサチューセッツ州02140 ケンブリッジ,エイヴォン・アヴェニュ ー・8

Claims (20)

    【特許請求の範囲】
  1. 【請求項1】 デジタル的に表現された入力画像におい
    て、選択された特徴を検出する方法において、 a.多次元画像空間における固有ベクトルの集合として、
    選択された特徴の事例の指向集合を表現するステップ
    と、 b.画像空間における入力ベクトルとして、入力画像の部
    分を表現するステップと、 c.入力ベクトルが、選択された特徴の事例を含む画像部
    分に対応する、公算を示す確率レベルを、各入力ベクト
    ルに対して推定するために、入力ベクトル上で、密度推
    定解析を実行するステップと、 d.最も高い関連性のある確率レベルを有する、画像部分
    を識別するステップと、を含む方法。
  2. 【請求項2】 上記密度推定解析を実行するステップ
    は、 a.画像空間を、主部分空間、及び直交部分空間へと分割
    するステップであって、主部分空間は、主固有ベクトル
    の単一モード集合を含む、分割ステップと、 b.入力ベクトルにより識別された点と、主部分空間との
    間の距離を計算するステップと、 c.入力ベクトルを、主部分空間上に投影するステップ
    と、 d.主固有ベクトルに関して、入力ベクトルの投影の確率
    分布を計算するステップと、 e.入力ベクトルが、選択された特徴の事例を含む画像部
    分に対応する、公算を示す確率レベルを、計算された距
    離、及び計算された確率分布から、推定するステップ
    と、を含む、請求項1に記載の方法。
  3. 【請求項3】 上記推定するステップは、主部分空間に
    おける第1の周辺確率密度、及び直交部分空間における
    第2の周辺確率密度を計算して、第1、及び第2の確率
    密度を乗算するステップであって、前記第1の確率密度
    は、真の密度であり、前記第2の確率密度は、推定され
    る密度であり、前記第1、及び第2の確率密度は、統計
    的には互いに一致する、ステップを含む、請求項2に記
    載の方法。
  4. 【請求項4】 前記密度推定解析を実行するステップ
    は、 a.画像空間を、主部分空間、及び直交部分空間へと分割
    するステップであって、主部分空間は、主固有ベクトル
    の多モード集合を含む、分割ステップと、 b.入力ベクトルにより識別された点と、主部分空間との
    間の距離を計算するステップと、 c.入力ベクトルを、主部分空間上に投影するステップ
    と、 d.パラメータ混合モデルを用いて、主固有ベクトルに関
    して、入力ベクトルの投影の確率分布を計算するステッ
    プと、 e.入力ベクトルが、選択された特徴の事例を含む画像部
    分に対応する、公算を示す確率レベルを、計算された距
    離、及び計算された確率分布から推定するステップと、 を含む、請求項1に記載の方法。
  5. 【請求項5】 各識別された画像部分に対して、識別さ
    れた画像部分に含まれる事例が、もしあれば、選択され
    た特徴のデジタル的に表現された事例の基準集合のうち
    の、何れのものに類似するかを判定する、認識ステップ
    を更に含む、請求項1に記載の方法。
  6. 【請求項6】 デジタル的に表現された事例の基準集合
    は、主部分空間における複数のベクトルにより表現さ
    れ、前記認識ステップは、入力ベクトルを、主部分空間
    上に投影するステップと、そこに最も近い事例ベクトル
    を突き止めるステップとを含む、請求項5に記載の方
    法。
  7. 【請求項7】 各識別された画像部分を、量子化された
    投影係数の集合として、符号化するステップを更に含
    む、請求項1に記載の方法。
  8. 【請求項8】 選択された特徴は、顔である、請求項1
    に記載の方法。
  9. 【請求項9】 選択された特徴は、顔の特徴である、請
    求項1に記載の方法。
  10. 【請求項10】 デジタル的に表現された入力画像にお
    いて、選択された特徴を検出するための装置において、 a.入力画像を格納するためのコンピュータ・メモリと、 b.多次元画像空間における固有ベクトルの集合として、
    選択された特徴の事例の指向集合を表現するための手段
    と、 c.格納された入力画像の少なくとも一部を分離して、そ
    れを、画像空間における入力ベクトルとして表現するた
    めの手段と、 d.入力ベクトルが、選択された特徴の事例を含む画像部
    分に対応する、公算を示す確率レベルを推定するため
    に、入力ベクトルを解析するための画像処理手段と、か
    らなる装置。
  11. 【請求項11】 各入力画像は、複数のピクセルとして
    表現されるものであり、 a.複数の縮尺率で、入力画像を表現するための手段と、 b.各縮尺率の画像に対して、画像の固定数のピクセルを
    含むウィンドウを規定し、各ウィンドウに対して、確率
    レベルを生成するために、画像処理手段に各ウィンドウ
    の内容を転送するための手段と、 c.最も高い関連性のある確率を有する、ウィンドウを識
    別するための手段と、から更になる、請求項10に記載
    の装置。
  12. 【請求項12】 前記画像処理手段は、 a.画像空間を、主部分空間、及び直交部分空間へと分割
    する目的であって、主部分空間は、主固有ベクトルの単
    一モード集合を含む、分割目的と、 b.入力ベクトルにより識別された点と、主部分空間との
    間の距離を計算する目的と、 c.入力ベクトルを、主部分空間上に投影する目的と、 d.主固有ベクトルに関して、入力ベクトルの投影の確率
    分布を計算する目的と、 e.入力ベクトルが、選択された特徴の事例を含む画像部
    分に対応する、公算を示す確率レベルを、計算された距
    離、及び計算された確率分布から推定する目的と、から
    なる目的のために構成される、請求項10に記載の装
    置。
  13. 【請求項13】 前記画像処理手段は、最大公算解析を
    用いて、確率レベルを推定する、請求項12に記載の装
    置。
  14. 【請求項14】 確率レベルに基づいて、選択された特
    徴の事例を含む公算のある、少なくとも1つの入力ベク
    トルを識別するための手段から更になる、請求項10に
    記載の装置。
  15. 【請求項15】 特徴事例の指向集合は、単一の視野角
    で生成されるものであり、各識別された入力ベクトルに
    対応する、入力画像の部分を分離して、処理するための
    手段であって、 a.翻訳、及び縮尺に関連して、入力画像の部分を正規化
    するための手段と、 b.入力画像の部分において、複数の部分特徴を識別する
    ための手段と、 c.格納されているテンプレートとの幾何的一致のため
    に、識別された部分特徴を解析するための有効化手段
    と、 d.視野角との一致のために、有効化された入力画像の部
    分を空間的に整合させるための歪曲手段と、 e.特徴に対応しない、入力画像の部分を削除するための
    マスキング手段と、から構成される手段から更になる、
    請求項14に記載の装置。
  16. 【請求項16】 コントラストの変動を補償するため
    に、マスキングされた画像を処理するための、コントラ
    スト正規化手段から更になる、請求項15に記載の装
    置。
  17. 【請求項17】 a.指向画像の各々を、固有ベクトルの
    集合上への投影係数の集合として、格納するためのデー
    タベースと、 b.識別手段であって、(i) 入力投影係数の集合を得るた
    めに、固有ベクトルの集合上に、マスクされた画像を投
    影するための手段と、(ii)投影係数が、入力投影係数と
    最も近く整合する、指向画像を突き止めるための手段
    と、から構成される識別手段と、から更になる、請求項
    15に記載の装置。
  18. 【請求項18】 前記識別手段は、選択された指向画像
    の係数が、入力投影の係数と整合する度合いを示す、信
    頼レベルを計算するための手段を含む、請求項17に記
    載の装置。
  19. 【請求項19】 分離、及び処理された入力画像の部分
    から、入力画像を再構成するための再構成モジュールか
    ら更になる、請求項15に記載の装置。
  20. 【請求項20】 符号器モジュールであって、それ自体
    が、 a.入力投影係数の集合を得るために、固有ベクトルの集
    合上に、マスクされた画像を投影するための手段と、 b.前記入力投影係数を量子化するための手段と、から構
    成される符号器モジュールから更になる、請求項15に
    記載の装置。
JP10002396A 1995-04-20 1996-04-22 確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置 Expired - Lifetime JP3986583B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/425,579 US5710833A (en) 1995-04-20 1995-04-20 Detection, recognition and coding of complex objects using probabilistic eigenspace analysis
US425579 2003-04-29

Publications (2)

Publication Number Publication Date
JPH08339445A true JPH08339445A (ja) 1996-12-24
JP3986583B2 JP3986583B2 (ja) 2007-10-03

Family

ID=23687155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10002396A Expired - Lifetime JP3986583B2 (ja) 1995-04-20 1996-04-22 確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置

Country Status (2)

Country Link
US (1) US5710833A (ja)
JP (1) JP3986583B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157596A (ja) * 2000-11-17 2002-05-31 Sony Corp ロボット装置及び顔識別方法
US6819782B1 (en) 1999-06-08 2004-11-16 Matsushita Electric Industrial Co., Ltd. Device and method for recognizing hand shape and position, and recording medium having program for carrying out the method recorded thereon
DE19731111B4 (de) * 1997-07-19 2005-10-27 Eads Deutschland Gmbh Verfahren zur Identifizierung sowie Klassifizierung eines Zieles
WO2015017868A1 (en) * 2013-08-02 2015-02-05 Emotient Filter and shutter based on image emotion content

Families Citing this family (192)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6850252B1 (en) * 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
USRE47908E1 (en) 1991-12-23 2020-03-17 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
USRE48056E1 (en) 1991-12-23 2020-06-16 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US5903454A (en) 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US6418424B1 (en) 1991-12-23 2002-07-09 Steven M. Hoffberg Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
USRE46310E1 (en) 1991-12-23 2017-02-14 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US5799301A (en) * 1995-08-10 1998-08-25 International Business Machines Corporation Apparatus and method for performing adaptive similarity searching in a sequence database
US6430307B1 (en) * 1996-06-18 2002-08-06 Matsushita Electric Industrial Co., Ltd. Feature extraction system and face image recognition system
US5901244A (en) * 1996-06-18 1999-05-04 Matsushita Electric Industrial Co., Ltd. Feature extraction system and face image recognition system
US5940825A (en) * 1996-10-04 1999-08-17 International Business Machines Corporation Adaptive similarity searching in sequence databases
US6041147A (en) * 1996-10-15 2000-03-21 Hughes Electronics Corporation Content-based indexing of images by coding levels defined as a function of reduced entropy
US6345109B1 (en) * 1996-12-05 2002-02-05 Matsushita Electric Industrial Co., Ltd. Face recognition-matching system effective to images obtained in different imaging conditions
US6185337B1 (en) * 1996-12-17 2001-02-06 Honda Giken Kogyo Kabushiki Kaisha System and method for image recognition
US6526156B1 (en) * 1997-01-10 2003-02-25 Xerox Corporation Apparatus and method for identifying and tracking objects with view-based representations
US5917927A (en) * 1997-03-21 1999-06-29 Satake Corporation Grain inspection and analysis apparatus and method
US5983218A (en) * 1997-06-30 1999-11-09 Xerox Corporation Multimedia database for use over networks
US6141463A (en) * 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
AU9808298A (en) * 1997-10-15 1999-05-03 Electric Planet, Inc. A system and method for generating an animatable character
GB2330679B (en) * 1997-10-21 2002-04-24 911 Emergency Products Inc Warning signal light
US6035055A (en) * 1997-11-03 2000-03-07 Hewlett-Packard Company Digital image management system in a distributed data access network system
US6539103B1 (en) * 1997-11-12 2003-03-25 The University Of Utah Method and apparatus for image reconstruction using a knowledge set
US6272230B1 (en) * 1998-02-11 2001-08-07 Analogic Corporation Apparatus and method for optimizing detection of objects in computed tomography data
US6466894B2 (en) * 1998-06-18 2002-10-15 Nec Corporation Device, method, and medium for predicting a probability of an occurrence of a data
DE19832974A1 (de) * 1998-07-22 2000-01-27 Siemens Ag Vorrichtung und Verfahren zur Erstellung eines virtuellen Anlagenmodells
US6466685B1 (en) * 1998-07-14 2002-10-15 Kabushiki Kaisha Toshiba Pattern recognition apparatus and method
US6292575B1 (en) 1998-07-20 2001-09-18 Lau Technologies Real-time facial recognition and verification system
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US20010008561A1 (en) * 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6265993B1 (en) * 1998-10-01 2001-07-24 Lucent Technologies, Inc. Furlable keyboard
US6463163B1 (en) * 1999-01-11 2002-10-08 Hewlett-Packard Company System and method for face detection using candidate image region selection
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
KR100671098B1 (ko) * 1999-02-01 2007-01-17 주식회사 팬택앤큐리텔 모양정보를 이용한 멀티미디어 데이터의 검색 방법 및 장치
AU2317900A (en) * 1999-02-05 2000-08-25 Yoav Smith Similarity measurement method for the classification of medical images into predetermined categories
US8095581B2 (en) * 1999-02-05 2012-01-10 Gregory A Stobbs Computer-implemented patent portfolio analysis method and apparatus
US6647139B1 (en) * 1999-02-18 2003-11-11 Matsushita Electric Industrial Co., Ltd. Method of object recognition, apparatus of the same and recording medium therefor
US6360013B1 (en) * 1999-03-16 2002-03-19 Academia Sinica Fast method and system for template matching acquiring global optima
JP2000275757A (ja) * 1999-03-24 2000-10-06 Fuji Photo Film Co Ltd 画像評価方法及び装置
US6320976B1 (en) * 1999-04-01 2001-11-20 Siemens Corporate Research, Inc. Computer-assisted diagnosis method and system for automatically determining diagnostic saliency of digital images
US6337927B1 (en) * 1999-06-04 2002-01-08 Hewlett-Packard Company Approximated invariant method for pattern detection
US6400846B1 (en) * 1999-06-04 2002-06-04 Mitsubishi Electric Research Laboratories, Inc. Method for ordering image spaces to search for object surfaces
AUPQ136299A0 (en) * 1999-07-02 1999-07-22 Microsystem Controls Pty Ltd Coin validation
US6501857B1 (en) * 1999-07-20 2002-12-31 Craig Gotsman Method and system for detecting and classifying objects in an image
US6850891B1 (en) 1999-07-23 2005-02-01 Ernest H. Forman Method and system of converting data and judgements to values or priorities
US7468677B2 (en) * 1999-08-04 2008-12-23 911Ep, Inc. End cap warning signal assembly
US6547410B1 (en) * 2000-07-28 2003-04-15 911 Emergency Products, Inc. LED alley/take-down light
US6990217B1 (en) * 1999-11-22 2006-01-24 Mitsubishi Electric Research Labs. Inc. Gender classification with support vector machines
GB2359885B (en) * 1999-11-25 2004-09-29 Canon Kk Image processing method and apparatus
GB2359883B (en) * 1999-11-25 2004-05-12 Canon Kk Image processing method and apparatus
US6975755B1 (en) 1999-11-25 2005-12-13 Canon Kabushiki Kaisha Image processing method and apparatus
GB2359884B (en) * 1999-11-25 2004-06-30 Canon Kk Image processing method and apparatus
KR100343223B1 (ko) * 1999-12-07 2002-07-10 윤종용 화자 위치 검출 장치 및 그 방법
US6940545B1 (en) 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
US7212668B1 (en) * 2000-08-18 2007-05-01 Eastman Kodak Company Digital image processing system and method for emphasizing a main subject of an image
US6853745B1 (en) * 2000-11-03 2005-02-08 Nec Laboratories America, Inc. Lambertian reflectance and linear subspaces
US7439847B2 (en) 2002-08-23 2008-10-21 John C. Pederson Intelligent observation and identification database system
EP1217574A3 (en) * 2000-12-19 2004-05-19 Matsushita Electric Industrial Co., Ltd. A method for lighting- and view-angle-invariant face description with first- and second-order eigenfeatures
US6829384B2 (en) 2001-02-28 2004-12-07 Carnegie Mellon University Object finder for photographic images
CA2451992C (en) * 2001-05-15 2013-08-27 Psychogenics Inc. Systems and methods for monitoring behavior informatics
US7027620B2 (en) * 2001-06-07 2006-04-11 Sony Corporation Method of recognizing partially occluded and/or imprecisely localized faces
US6859210B2 (en) 2001-07-06 2005-02-22 Eastman Kodak Company Method for representing a digital color image using a set of palette colors based on detected important colors
US7085774B2 (en) * 2001-08-30 2006-08-01 Infonox On The Web Active profiling system for tracking and quantifying customer conversion efficiency
US7237115B1 (en) * 2001-09-26 2007-06-26 Sandia Corporation Authenticating concealed private data while maintaining concealment
US20040201738A1 (en) * 2001-11-13 2004-10-14 Tabula Rasa, Inc. Method and apparatus for providing automatic access to images captured at diverse recreational venues
AU2002342393B2 (en) * 2001-11-21 2007-01-25 Iomniscient Pty Ltd Non-motion detection
AUPR899401A0 (en) 2001-11-21 2001-12-13 Cea Technologies Pty Limited Method and apparatus for non-motion detection
US7054468B2 (en) 2001-12-03 2006-05-30 Honda Motor Co., Ltd. Face recognition using kernel fisherfaces
US7050636B2 (en) * 2001-12-07 2006-05-23 Eastman Kodak Company Method and system for improving an image characteristic based on image content
US7092573B2 (en) * 2001-12-10 2006-08-15 Eastman Kodak Company Method and system for selectively applying enhancement to an image
JP3903783B2 (ja) * 2001-12-14 2007-04-11 日本電気株式会社 顔メタデータ生成方法および装置、並びに顔類似度算出方法および装置
US20030113002A1 (en) * 2001-12-18 2003-06-19 Koninklijke Philips Electronics N.V. Identification of people using video and audio eigen features
US7472062B2 (en) * 2002-01-04 2008-12-30 International Business Machines Corporation Efficient recursive clustering based on a splitting function derived from successive eigen-decompositions
US7035431B2 (en) * 2002-02-22 2006-04-25 Microsoft Corporation System and method for probabilistic exemplar-based pattern tracking
US20030161507A1 (en) * 2002-02-28 2003-08-28 Spectra Systems Corporation Method and apparatus for performing facial recognition with a hand-held imaging device
JP4210137B2 (ja) * 2002-03-04 2009-01-14 三星電子株式会社 2次icaを利用した顔認識法及びその装置
US7254257B2 (en) * 2002-03-04 2007-08-07 Samsung Electronics Co., Ltd. Method and apparatus of recognizing face using component-based 2nd-order principal component analysis (PCA)/independent component analysis (ICA)
JP3873793B2 (ja) * 2002-03-29 2007-01-24 日本電気株式会社 顔メタデータ生成方法および顔メタデータ生成装置
US7199793B2 (en) 2002-05-21 2007-04-03 Mok3, Inc. Image-based modeling and photo editing
US7379602B2 (en) * 2002-07-29 2008-05-27 Honda Giken Kogyo Kabushiki Kaisha Extended Isomap using Fisher Linear Discriminant and Kernel Fisher Linear Discriminant
US7035461B2 (en) * 2002-08-22 2006-04-25 Eastman Kodak Company Method for detecting objects in digital images
US7283664B2 (en) * 2002-09-25 2007-10-16 Southwest Research Institute Interactive computer aided analysis of images from sensor combinations
US7130474B2 (en) * 2002-09-27 2006-10-31 Eastman Kodak Company Method and system for generating digital image files for a limited display
US7194114B2 (en) * 2002-10-07 2007-03-20 Carnegie Mellon University Object finder for two-dimensional images, and system for determining a set of sub-classifiers composing an object finder
JP4080843B2 (ja) * 2002-10-30 2008-04-23 株式会社東芝 不揮発性半導体記憶装置
KR100473598B1 (ko) * 2002-11-04 2005-03-11 삼성전자주식회사 가려진 얼굴영상을 판단하는 시스템 및 방법
US20040196282A1 (en) * 2003-02-14 2004-10-07 Oh Byong Mok Modeling and editing image panoramas
US7039222B2 (en) * 2003-02-28 2006-05-02 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
US7327374B2 (en) * 2003-04-30 2008-02-05 Byong Mok Oh Structure-preserving clone brush
US7269292B2 (en) * 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US8363951B2 (en) 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US8155397B2 (en) * 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US8989453B2 (en) * 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US7844076B2 (en) * 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US7792335B2 (en) 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US7471846B2 (en) * 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US7587068B1 (en) 2004-01-22 2009-09-08 Fotonation Vision Limited Classification database for consumer digital images
US9129381B2 (en) * 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8682097B2 (en) * 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US8498452B2 (en) * 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US7317815B2 (en) * 2003-06-26 2008-01-08 Fotonation Vision Limited Digital image processing composition using face detection information
US7315630B2 (en) 2003-06-26 2008-01-01 Fotonation Vision Limited Perfecting of digital image rendering parameters within rendering devices using face detection
US7792970B2 (en) * 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7616233B2 (en) * 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US8593542B2 (en) * 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US8330831B2 (en) * 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US7362368B2 (en) * 2003-06-26 2008-04-22 Fotonation Vision Limited Perfecting the optics within a digital image acquisition device using face detection
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8948468B2 (en) * 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US8553949B2 (en) * 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
CA2540575C (en) * 2003-09-12 2013-12-17 Kevin Deng Digital video signature apparatus and methods for use with video program identification systems
US7388971B2 (en) * 2003-10-23 2008-06-17 Northrop Grumman Corporation Robust and low cost optical system for sensing stress, emotion and deception in human subjects
KR100543706B1 (ko) * 2003-11-28 2006-01-20 삼성전자주식회사 비젼기반 사람 검출방법 및 장치
GB2409027A (en) * 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
US7555148B1 (en) 2004-01-22 2009-06-30 Fotonation Vision Limited Classification system for consumer digital images using workflow, face detection, normalization, and face recognition
US7558408B1 (en) 2004-01-22 2009-07-07 Fotonation Vision Limited Classification system for consumer digital images using workflow and user interface modules, and face detection and recognition
US7564994B1 (en) 2004-01-22 2009-07-21 Fotonation Vision Limited Classification system for consumer digital images using automatic workflow and face detection and recognition
US7551755B1 (en) 2004-01-22 2009-06-23 Fotonation Vision Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7430315B2 (en) * 2004-02-13 2008-09-30 Honda Motor Co. Face recognition system
US7224831B2 (en) * 2004-02-17 2007-05-29 Honda Motor Co. Method, apparatus and program for detecting an object
JP4708422B2 (ja) * 2004-04-15 2011-06-22 ジェスチャー テック,インコーポレイテッド 両手動作の追跡
US20060056667A1 (en) * 2004-09-16 2006-03-16 Waters Richard C Identifying faces from multiple images acquired from widely separated viewpoints
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US8503800B2 (en) * 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7315631B1 (en) * 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7715597B2 (en) 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
EP3693889A3 (en) * 2005-01-07 2020-10-28 QUALCOMM Incorporated Detecting and tracking objects in images
JP4689684B2 (ja) * 2005-01-21 2011-05-25 ジェスチャー テック,インコーポレイテッド 動作に基づくトラッキング
US8235725B1 (en) * 2005-02-20 2012-08-07 Sensory Logic, Inc. Computerized method of assessing consumer reaction to a business stimulus employing facial coding
US20060193520A1 (en) * 2005-02-28 2006-08-31 Takeshi Mita Object detection apparatus, learning apparatus, object detection system, object detection method and object detection program
US7961937B2 (en) * 2005-10-26 2011-06-14 Hewlett-Packard Development Company, L.P. Pre-normalization data classification
US7783092B2 (en) * 2006-01-17 2010-08-24 Illinois Institute Of Technology Method for enhancing diagnostic images using vessel reconstruction
US7804983B2 (en) 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
ATE497218T1 (de) * 2006-06-12 2011-02-15 Tessera Tech Ireland Ltd Fortschritte bei der erweiterung der aam- techniken aus grauskalen- zu farbbildern
JP4663013B2 (ja) * 2006-06-29 2011-03-30 富士通株式会社 色類別方法、色認識方法及び色認識装置
US7515740B2 (en) * 2006-08-02 2009-04-07 Fotonation Vision Limited Face recognition with combined PCA-based datasets
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7403643B2 (en) * 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
WO2008083205A2 (en) * 2006-12-29 2008-07-10 Gesturetek, Inc. Manipulation of virtual objects using enhanced interactive system
US8055067B2 (en) * 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
EP2115662B1 (en) * 2007-02-28 2010-06-23 Fotonation Vision Limited Separating directional lighting variability in statistical face modelling based on texture space decomposition
KR101247147B1 (ko) 2007-03-05 2013-03-29 디지털옵틱스 코포레이션 유럽 리미티드 디지털 영상 획득 장치에서의 얼굴 탐색 및 검출
WO2008109622A1 (en) 2007-03-05 2008-09-12 Fotonation Vision Limited Face categorization and annotation of a mobile phone contact list
US7916971B2 (en) * 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US9100124B2 (en) 2007-05-24 2015-08-04 Federal Law Enforcement Development Services, Inc. LED Light Fixture
US11265082B2 (en) 2007-05-24 2022-03-01 Federal Law Enforcement Development Services, Inc. LED light control assembly and system
US9455783B2 (en) 2013-05-06 2016-09-27 Federal Law Enforcement Development Services, Inc. Network security and variable pulse wave form with continuous communication
US8031961B2 (en) * 2007-05-29 2011-10-04 Hewlett-Packard Development Company, L.P. Face and skin sensitive image enhancement
US20090030676A1 (en) * 2007-07-26 2009-01-29 Creative Technology Ltd Method of deriving a compressed acoustic model for speech recognition
CN101414348A (zh) * 2007-10-19 2009-04-22 三星电子株式会社 多角度人脸识别方法和系统
US8744775B2 (en) * 2007-12-28 2014-06-03 Weyerhaeuser Nr Company Methods for classification of somatic embryos comprising hyperspectral line imaging
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US8165354B1 (en) * 2008-03-18 2012-04-24 Google Inc. Face recognition with discriminative face alignment
US7855737B2 (en) * 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
US8208709B2 (en) * 2008-04-17 2012-06-26 The Ohio State University Research Foundation System and method for improved real-time cine imaging
CN103402070B (zh) 2008-05-19 2017-07-07 日立麦克赛尔株式会社 记录再现装置及方法
US8131063B2 (en) * 2008-07-16 2012-03-06 Seiko Epson Corporation Model-based object image processing
CN106919911A (zh) * 2008-07-30 2017-07-04 快图有限公司 使用脸部检测的自动脸部和皮肤修饰
WO2010063463A2 (en) * 2008-12-05 2010-06-10 Fotonation Ireland Limited Face recognition using face tracker classifier data
US8260038B2 (en) * 2009-02-25 2012-09-04 Seiko Epson Corporation Subdivision weighting for robust object model fitting
US8260039B2 (en) * 2009-02-25 2012-09-04 Seiko Epson Corporation Object model fitting using manifold constraints
US8204301B2 (en) * 2009-02-25 2012-06-19 Seiko Epson Corporation Iterative data reweighting for balanced model learning
US8208717B2 (en) * 2009-02-25 2012-06-26 Seiko Epson Corporation Combining subcomponent models for object image modeling
US8890773B1 (en) 2009-04-01 2014-11-18 Federal Law Enforcement Development Services, Inc. Visible light transceiver glasses
US8600100B2 (en) * 2009-04-16 2013-12-03 Sensory Logic, Inc. Method of assessing people's self-presentation and actions to evaluate personality type, behavioral tendencies, credibility, motivations and other insights through facial muscle activity and expressions
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US8326002B2 (en) * 2009-08-13 2012-12-04 Sensory Logic, Inc. Methods of facial coding scoring for optimally identifying consumers' responses to arrive at effective, incisive, actionable conclusions
US8379917B2 (en) * 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
US8811743B2 (en) 2010-06-09 2014-08-19 Microsoft Corporation Resource-aware computer vision
US8836777B2 (en) 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
EP2717223A4 (en) * 2011-05-24 2015-06-17 Nec Corp INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM
US20130201316A1 (en) 2012-01-09 2013-08-08 May Patents Ltd. System and method for server based control
US8559684B1 (en) * 2012-08-15 2013-10-15 Google Inc. Facial recognition similarity threshold adjustment
US9269049B2 (en) 2013-05-08 2016-02-23 Exelate, Inc. Methods, apparatus, and systems for using a reduced attribute vector of panel data to determine an attribute of a user
US9466009B2 (en) * 2013-12-09 2016-10-11 Nant Holdings Ip. Llc Feature density object classification, systems and methods
US20150198941A1 (en) 2014-01-15 2015-07-16 John C. Pederson Cyber Life Electronic Networking and Commerce Operating Exchange
US9661215B2 (en) 2014-04-22 2017-05-23 Snapaid Ltd. System and method for controlling a camera based on processing an image captured by other camera
WO2016207875A1 (en) 2015-06-22 2016-12-29 Photomyne Ltd. System and method for detecting objects in an image
US20170046950A1 (en) 2015-08-11 2017-02-16 Federal Law Enforcement Development Services, Inc. Function disabler device and system
US11386636B2 (en) 2019-04-04 2022-07-12 Datalogic Usa, Inc. Image preprocessing for optical character recognition
CN112070114B (zh) * 2020-08-03 2023-05-16 中国科学院信息工程研究所 基于高斯约束注意力机制网络的场景文字识别方法及系统
CN113918753A (zh) * 2021-07-23 2022-01-11 腾讯科技(深圳)有限公司 基于人工智能的图像检索方法及相关设备

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4259661A (en) * 1978-09-01 1981-03-31 Burroughs Corporation Apparatus and method for recognizing a pattern
JPS6057475A (ja) * 1983-09-07 1985-04-03 Toshiba Corp パタ−ン認識方式
US4998286A (en) * 1987-02-13 1991-03-05 Olympus Optical Co., Ltd. Correlation operational apparatus for multi-dimensional images
DE3724110A1 (de) * 1987-07-21 1989-02-02 Fraunhofer Ges Forschung Einweg-airless-spruehdose mit druckgasantrieb
US4838644A (en) * 1987-09-15 1989-06-13 The United States Of America As Represented By The United States Department Of Energy Position, rotation, and intensity invariant recognizing method
JP2885823B2 (ja) * 1989-04-11 1999-04-26 株式会社豊田中央研究所 視覚認識装置
DK163212C (da) * 1989-07-10 1992-07-13 Tunetanken As Blandetank, fortrinsvis til oploesning af ferrosulfatgranulat i vand
WO1991001183A1 (en) * 1989-07-14 1991-02-07 Karagandinsky Gosudarstvenny Universitet Device for cleaning internal surface of pipes
US5101446A (en) * 1990-05-31 1992-03-31 Aware, Inc. Method and apparatus for coding an image
FR2667711B1 (fr) * 1990-10-09 1992-11-27 Thomson Csf Procede de reconnaissance d'objets dans des images et son application au suivi d'objets dans des sequences d'images.
US5164992A (en) * 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
US5432864A (en) * 1992-10-05 1995-07-11 Daozheng Lu Identification card verification system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19731111B4 (de) * 1997-07-19 2005-10-27 Eads Deutschland Gmbh Verfahren zur Identifizierung sowie Klassifizierung eines Zieles
US6819782B1 (en) 1999-06-08 2004-11-16 Matsushita Electric Industrial Co., Ltd. Device and method for recognizing hand shape and position, and recording medium having program for carrying out the method recorded thereon
JP2002157596A (ja) * 2000-11-17 2002-05-31 Sony Corp ロボット装置及び顔識別方法
WO2015017868A1 (en) * 2013-08-02 2015-02-05 Emotient Filter and shutter based on image emotion content
US10185869B2 (en) 2013-08-02 2019-01-22 Emotient, Inc. Filter and shutter based on image emotion content

Also Published As

Publication number Publication date
JP3986583B2 (ja) 2007-10-03
US5710833A (en) 1998-01-20

Similar Documents

Publication Publication Date Title
JP3986583B2 (ja) 確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置
Sung et al. Example-based learning for view-based human face detection
Etemad et al. Face recognition using discriminant eigenvectors
Sahbi et al. A Hierarchy of Support Vector Machines for Pattern Detection.
Barnouti et al. Face recognition: A literature review
JP2003323622A (ja) 画像認識システム及びその認識方法並びにプログラム
JP5574033B2 (ja) 画像認識システム及びその認識方法並びにプログラム
Jiang Feature extraction for image recognition and computer vision
Kpalma et al. An overview of advances of pattern recognition systems in computer vision
Sahbi et al. Coarse to fine face detection based on skin color adaption
CN116342968B (zh) 一种双通道人脸识别方法及装置
Cai et al. Robust facial expression recognition using RGB-D images and multichannel features
Curran et al. The use of neural networks in real-time face detection
CN110443255B (zh) 用于图像特征提取的图像识别方法
Suzuki et al. Illumination-invariant face identification using edge-based feature vectors in pseudo-2D Hidden Markov Models
KR100711223B1 (ko) 저니키(Zernike)/선형 판별 분석(LDA)을 이용한얼굴 인식 방법 및 그 방법을 기록한 기록매체
Chang et al. Feature patch illumination spaces and Karcher compression for face recognition via Grassmannians
Hafez et al. 3D face recognition based on normal map features using selected Gabor filters and linear discriminant analysis
JPH11306322A (ja) 画像フィルタリングシステム
Weng et al. Recognition of hand signs from complex backgrounds
Mangai et al. Subspace-based clustering and retrieval of 3-D objects
Cernea et al. Unsupervised ensemble classification for biometric applications
JP2004038937A (ja) 高次固有成分を用いる顔の記述および認識のための方法および装置
Senthilkumar et al. Improvement and solution to the problems arise in the implementation of facial image recognition algorithms using open source software scilab
Rabiei Automatic face recognition with convolutional neural network

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060516

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20060816

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20060821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070509

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070711

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100720

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110720

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110720

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120720

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120720

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130720

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term