JPH08339445A - 確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置 - Google Patents
確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置Info
- Publication number
- JPH08339445A JPH08339445A JP8100023A JP10002396A JPH08339445A JP H08339445 A JPH08339445 A JP H08339445A JP 8100023 A JP8100023 A JP 8100023A JP 10002396 A JP10002396 A JP 10002396A JP H08339445 A JPH08339445 A JP H08339445A
- Authority
- JP
- Japan
- Prior art keywords
- image
- input
- input vector
- subspace
- probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 32
- 238000000034 method Methods 0.000 title claims description 25
- 238000001514 detection method Methods 0.000 title description 15
- 239000013598 vector Substances 0.000 claims abstract description 49
- 238000009826 distribution Methods 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 14
- 238000010606 normalization Methods 0.000 claims description 7
- 230000001815 facial effect Effects 0.000 claims description 6
- 238000007476 Maximum Likelihood Methods 0.000 claims description 5
- 238000013519 translation Methods 0.000 claims description 2
- 241000269627 Amphiuma means Species 0.000 claims 2
- 230000000873 masking effect Effects 0.000 claims 1
- 238000000638 solvent extraction Methods 0.000 claims 1
- 230000014509 gene expression Effects 0.000 abstract description 4
- 230000008602 contraction Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 17
- 210000000887 face Anatomy 0.000 description 12
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 239000000872 buffer Substances 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 238000013139 quantization Methods 0.000 description 5
- 238000000354 decomposition reaction Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000031836 visual learning Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 101001059930 Drosophila melanogaster Transcription factor kayak, isoforms A/B/F Proteins 0.000 description 2
- 101001059931 Drosophila melanogaster Transcription factor kayak, isoforms D/sro Proteins 0.000 description 2
- 238000013144 data compression Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000003954 pattern orientation Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 208000032443 Masked facies Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000013016 learning Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011045 prefiltration Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000135 prohibitive effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/738—Presentation of query results
- G06F16/739—Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Abstract
て符号化する。 【解決手段】多数の縮尺で画像を走査し、好適には並列
に、最大公算解析を実施して目標特徴の実体を検出する
手段、多次元画像空間における固有ベクトルの集合とし
て、好適には配向及び照度が一致する指向画像集合を表
現する手段、指向画像集合、幾何形状、及びグレースケ
ール・コントラストを一致させるために、入力画像の検
出成分を調整する手段、認識のために、指向集合の固有
空間表現上に、検出された特徴を投影する手段、並びに
固有ベクトル投影係数に関連して、元の画像を再構成す
るための任意の再構成モジュールを備え、量子化固有ベ
クトル投影係数の集合として、調整、及び/又は再構成
画像を効率的に表現する。
Description
し、特に、人間の顔のような、各種のタイプの複雑で多
特徴のある実体を検出、認識、及び符号化するための、
デジタル的に表された画像の解析に関する。
デジタル表現へと符号化して、ある目的のために、これ
らの表現を解析する。1つの重要な目的には、特定のタ
イプ、又は類別の対象物の存在に対して、光景を走査
し、次に、検出された対象物に基づいて、更なる解析を
実行して、それらを識別、又は少なくとも更に分類する
ことが必然的に含まれる。視覚学習システムのこの応用
により、機密保護、法執行、国境管理、又は他の目的の
ために、顔を検出、及び識別するシステムにおける用途
が、最近では見出されている。
的に特徴付けて、比較的大きな集合のデータ内に弁別す
ることが可能である、パターン認識技法が要求される。
最も成功した技法の幾つかは、本質的に統計的なもので
ある。しかし、生データ(すなわち、画素点、或いは
「ピクセル」の格子として、デジタル的に表現される光
景)に関してこれらの操作を実行することは、計算上桁
外れなものとなる。その代わりに、通常、データは、請
け負うべき解析に適した、系統的な表現にされる。予備
解析データ処理の1つの技法は、Karhunen-Loeve変換
(「KLT」) であり、これは、統計的解析に馴染みのあ
る表現を与えるために、データの分散行列の固有値、及
び固有ベクトル解析を伴う(例えば、Kirby 他による、
12 IEEE Transactions on Pattern Analysis and Machi
ne Intelligence 103 (1990)を参照されたい)。更に詳
細には、対象物は、非常に大きな座標空間内で表現さ
れ、そこにおいて、対象物の各ピクセルは、空間の次元
に対応するので、対象物は、その空間におけるベクトル
(又は、点)に対応する。KLTによれば、調査中の指
向(training)集合の、或いは集団の実体画像は、指向
画像を、集団の分散行列の固有ベクトルとして表現す
る、数学的変換を被る。元の指向画像の各々は、各種の
固有ベクトルの総和として、正確に表現可能である。
合、又は正規化相関のような、標準的な検出技法よりも
強力であるが、推定技法を、画像の高次元空間に適用す
べきである場合、手に負えない計算上の重荷を依然とし
て呈示する。データを効率的に解析するためには、探索
が、データ空間の最も顕著な領域に限定可能なように、
分割せねばならない。かかる領域を識別する1つの方法
は、「主成分解析」(「PCA」) を必要とし、これは、
多次元画像空間内の対象物の分布が、特徴領域内にグル
ープ化される傾向を有することを認識して、この領域を
規定するために、固有ベクトルの主成分を利用する。固
有ベクトルは各々、指向集合の画像間における異なる量
の変化の原因となり、画像間の変化のモードを共に特徴
付ける、特徴集合と見なすことができる。各対象画像
は、指向画像の集合内の最大分散量の原因となる、「最
良の」、或いは主成分固有ベクトル(すなわち、それら
は、最大固有値を有する)の一次結合により、近似的に
表現することができる。米国特許第5,164,992 号(その
開示全体を参照として、本明細書に取り入れる)におい
て、例えば、上記の立案が、顔認識システムに使用さ
れ、そこでは、主成分が、主部分空間を、すなわち指向
画像が群をなす高次元画像空間の「顔空間」領域を規定
する。入力画像(又は、画像領域)が走査されて、その
画像を顔空間上に数学的に投影することにより、顔の存
在が検出される。顔空間からの入力画像(高次元画像空
間における点として表現される)の距離を利用して、顔
と顔でない間が弁別される。すなわち、計算された距離
が、予め選択された閾値より下になった場合、入力画像
はおそらく顔である。もう少し一般的には、米国特許第
5,164,992 号に記載の技法は、「対象空間からの距離」
(「DFOS」)の大きさを利用して、入力画像が、対象物
の実体を含むか否かを判定する、ということが言える。
2 号の手法は、主成分以外の固有ベクトルが、対象空間
を規定する際に廃除されるので、基本的には不完全なも
のである。結果としての局所密度関数は、対象空間を単
一の完全体として扱う。すなわち、DFOS計量法は、
内部変化がないと仮定した空間からの絶対距離を与え
る。しかし、対象空間における全パターンが、おそらく
等しいと仮定することにおいて、この解析は、ある間違
った結果となる傾向がある。例えば、人間の目は、対象
物が実存しないと瞬時に認識するが、その指向画像との
特定の類似点を共有するパターンは、PCAを用いる
と、対象分類の構成要素として、間違った類別化を容易
になす可能性がある。
この制限された手法は、対象空間の密度が変動する場合
だけでなく、対象空間が多モードである場合にも制限を
課す。例えば、指向画像が、異なる視野角で、又は異な
る照明条件の下でとられた、顔の写真からなると想定し
てみる。顔空間における指向の視野の分布は、単一モー
ドにはならず、実際、対象空間において、複雑、且つ分
離不可能な多様体上に存在する傾向となる。PCAは、
かかる空間配置内において、正確な推定を与えることが
できない。PCAをかかる多モード環境に適応させるた
めには、各々異なる視野に対応する、個別の固有空間に
おいてPCAが実行される、視野基準の(又は、対象物
基準の)立案を構築すること、或いはスプライン、又は
局所基準関数を用いて、普遍の、又は母集団の固有空間
に、対象空間多様体の複雑性の捕捉を試行すること、と
いった方策に頼らねばならない。しかし、これらの適応
の何れもが、複雑であり、且つ解析の精度を最終的に劣
化させる可能性がある。
するために、主成分だけでなく、全ての固有ベクトルを
利用する、対象物検出、及び認識に対する手法を提供す
る。対象空間内の全てのパターンが、ほぼ等しいと仮定
する代わりに、対象空間内の確率分布を捕捉する。この
ようにして、本発明は、対象空間内に入る入力画像に対
する、パターン間のより緻密な識別、推論、対象空間内
のその代表値の測定を容易にする。換言すると、パター
ンが、対象空間内に存在するが、指向画像が、群をなす
傾向を有する、対象空間の領域近傍のどこにも存在しな
い場合、本発明は、そのパターンを「代表値ではな
く」、おそらく、対象物分類の構成要素ではないと識別
する。本発明は、人間の顔、その特徴(例えば、目)と
いった、実質的に任意の多特徴のある実体だけでなく、
また人間の手といった、柔軟で関節のある対象物の検
出、及び認識に有益である。
析に限定されないので、多モード分布に容易に適合す
る。実際、本発明により、異なる対象物視野を表す指向
画像の集合が与えられる限り、本発明は、ある範囲の入
力パターン配向にわたって、価値のある認識性能をもた
らすことが可能である。換言すると、本発明は、内部分
布が一様でないだけでなく、多モードでもある対象空間
内の弁別が可能である。更に、本発明は、検出が、入力
画像内の特徴的パターンの大きさにほとんど独立である
ような、縮尺の範囲にわたって動作可能である。本発明
により利用される表現は、基本的にはデータ圧縮形式
の、高効率なモデル・ベース符号化、機能に向いてい
る。対象物の分類を表す、基本固有ベクトルの集合が、
基本ベクトルの重み付け一次結合として表現される、新
しい対象物を符号化するための基準として使用され得
る。このようにして、新しい対象物が、少数のバイトを
用いて表現可能であり、最小限の必要記憶容量で、大画
像データベースの効率的な符号化が容易になる。圧縮
は、量子化により更に増強され得る。
いて、本発明は、本明細書に記載する原理に従って、散
乱した光景において、(顔といった)複雑で多特徴のあ
る対象物、又は実体を検出するための設備である。走査
モジュールが、ピクセルの矩形近傍を系統的に識別し
て、検出モジュールに、各ピクセルに関連した値(例え
ば、輝度レベル)を渡す。検出モジュールは、ピクセル
値を、高次元画像空間(各空間軸に沿ったベクトル成分
の長さに対応する、ピクセル値を備えた)におけるベク
トルとして表現し、以下で説明するように、このベクト
ルを固有空間分解上に投影して、ベクトルが、検出すべ
き対象物のタイプのパターン特徴を含むか否かを判定し
(すなわち、ベクトルが、対象空間内に入るかだけでな
く、代表値であるか否かも)、もし含む場合、認識モジ
ュールは、入力パターンが、指向画像の集合のうちのい
ずれの特定ものに対応するかを判定する。更に特定とし
て、本発明は、入力画像が、指向画像集合の全ての固有
ベクトル成分に対して考慮されるが、高次元画像空間を
通して、明示的な解析を計算する必要のないような、P
CA手法に及ぶ。代わりに、本発明は、PCAの部分空
間結果を、画像空間における対象物の確率密度の周辺成
分の推定として取り扱い、PCA部分空間結果を足場と
して、統計的に矛盾のない推定枠組みに、PCA投影、
及び残りの(主成分でない)固有ベクトル上への入力画
像の投影を別個に取り込むことにより、確率密度の完全
な推定を達成する。これは、主成分の、及び残りの固有
ベクトル空間に関連した、確率密度は、互いと容易には
相関しない、ということに関するので、本発明の重要な
要素を表す。
象特徴(例えば、顔全体の代わりに、顔の特徴)を自動
的に検出、及び識別するように、実施可能である。この
機能により、全体の対象物を基準にして、多モードの対
象空間密度が何を表すかという、個性が表現される。説
明の便宜上、「特徴」という用語は、対象物全体、又は
その特徴を意味するために、本明細書において一般的に
使用する。
して、又はその代替として、固有対象物、又は固有特徴
テンプレート(例えば、固有の顔、固有の目、固有の
鼻、固有の口、等)の一次結合に基づいて、対象物、又
は特定の対象特徴のモデル・ベース符号化を提供する。
固有特徴の表現において、特徴空間からの等価距離(「D
FFS」)計量法を用いて、入力画像の各ピクセルの解析
から、特徴距離マップが構築される。n個の固有ベクト
ルを用いた場合、これには、n個の畳み込み(これは、
高速フーリエ変換(「FFT」)を用いて、効率的に計算
可能である)に加えて、付加的な局所エネルギー計算が
必要とされる。次に、この距離マップの大域的最小値
が、最良の特徴整合として選択される。この技法の性能
は、最近、約8000枚の「警察の記録用の顔(mugsho
t)」写真のデータベース上で試験され、それに伴い、9
4%の検出率(標準のテンプレート整合よりも、ほぼ完
全な程度の大きさの改善を表す)を達成した。
の確率を相関するための、統計的原理を与える、最大公
算(「ML」)を用いて、対象物の自動視覚学習、特徴検
出、及び識別のための装置を具体化する。好適な実施例
において、この装置には、多数の縮尺で画像を走査し、
各縮尺において、好適には並列に、ML解析(対象物、
又は特徴レベル、或いはその両方での)を実施して、目
標特徴の実体を検出する手段と、多次元画像空間におけ
る固有ベクトルの集合として、好適には配向、及び照度
が一致する、指向画像集合を表現する手段と、指向画像
集合と幾何形状、及びグレースケール・コントラストを
一致させるために、入力画像の検出成分を調整する手段
と、認識を目的として、指向集合の固有空間表現上に、
検出された特徴を投影する手段と、固有ベクトル投影係
数に関連して、元の画像を再構成するための任意の再構
成モジュールと、量子化固有ベクトル投影係数の集合と
して、調整、及び/又は再構成画像を効率的に表現する
ための、符号化モジュールとが含まれる。
てなされる、以下の詳細な説明から、更に容易に理解さ
れるであろう。
間分解を利用して、高次元画像空間が、計算上で管理可
能な部分空間に縮小される。各々が対象物分類Ωの構成
要素である、指向画像の集合
関数、又は公算関数P(x|Ω)を推定、すなわち入力
画像xが、その分類の構成要素であることを推定する、
という課題を提言することができる。
りである。m×n画像の集合
素の辞書的な順番により、xが次元mnである(すなわ
ち、x∈RN=mn)、指向集合のベクトル{xt} を形成
することが可能である。KLTにおける基本関数は、固
有値問題を解くことにより得られる。
の固有ベクトル行列で、Λは、固有値の対応する対角行
列である。PCAを用いて、局所KLTが、最大固有値
の固有ベクトルを識別して、主成分の特徴ベクトル
は、主固有ベクトルを含む、Φの部分行列である。PC
Aは、最大固有値(すなわち、主成分)に対応する、K
Lの原理のより低い次元の部分空間を抽出する、一次変
換y=T(x):RN→RMとして説明できる。図1に示
すように、説明目的のために、表現、及びその特徴(対
象物とは反対である)レベルでの解析を仮定するが、こ
れは、領域10内に群をなす主成分を含む超平面であ
る、主部分空間(又は、特徴空間)
分
補的な特徴空間への、ベクトル空間RN の直交分解に対
応する。特徴空間からの距離(「DFFS」)の大きさは、
入力画像xに対して、主特徴部分空間Fからのその画像
空間ベクトルの距離を表し、米国特許第5,164,992 号に
使用されるような技法は、DFFSが、所定の誤差範囲
内にあるか否かを判断し、もし範囲内にある場合、入力
画像は、特徴の場合であると見なされる。換言すると、
空間F/は、残留再構成誤差を計算するためにだけ用い
られる。F/空間にある関連特徴ベクトルに対する、x
の関係だけでなく、主ベクトルの群からの、主特徴空間
Fにおけるxの投影距離も無視され、すなわち、この後
者の「特徴空間の距離」(「DIFS」)パラメータ
は、最も典型的な特徴が、領域10内、又はその近くに
入ることになるので、検討中の特徴タイプの典型的な構
成要素として、xが見なせるかどうかの度合いを示す。
は、以下のように定義される。
の投影係数を表し(すなわち、yi は、入力画像に対す
る、i番目の固有ベクトルの相対分布を意味し、F空間
におけるある点を表す)、残留誤差は、平均正規化画像
xのM個の主成分、及びL2 ノルム(すなわち、長さを
表す、2乗和)から、直接的に計算可能である。図1を
参照すると、直交部分空間F/におけるDFFS成分
は、単純なユークリッド距離となり、この残留誤差に等
しい。DIFS成分(すなわち、特徴空間F内にあるx
の成分)は、一般的には、距離に基づいたノルムではな
いが、Fにおけるyの確率分布に関連して、解釈可能で
ある。
平均x/、及び分散Σの推定値が与えられると、例え
ば、米国特許第5,164,992 号で概略示される統計的技法
を用いて、公算関数P(x|Ω)は、以下のように表現
可能となる。
は、いわゆるMahalanobis 距離であり、これは、多次元
の正規化、すなわち互いに、異なる値範囲を有する変数
のノルムに関する統計的な縮尺係数を与え、このように
して、「代表値」が、異なる値に及ぶ変数に対し一貫し
て表現可能となる。Mahalanobis 距離は、以下で与えら
れる。
と、以下の直交化形式でΣ-1を書き直すことが可能であ
る。
標の変更により得られる、新しい変数である。直交化形
式のために、Mahalanobis 距離は又、以下の総和の項で
表現可能となる。
て、d(x)を推定可能である。
最初のM個の主成分を用いて計算可能である。従って、
P(x|Ω)は、2つの周辺、及び独立ガウス密度の積
として、
る真の周辺密度で、
周辺密度である。
は真の密度とその推定値間の「相対エントロピー」とす
べきである、以下の適切な費用関数J(ρ)を最小化す
ることにより決定できる。
最小化することにより、見出し得る。式δJ/δρ=0
を解くと、以下の結果が得られる。
の単純な算術平均となる。その最適性に加えて、ρ* は
又、結果として以下のように、Mahalanobis 距離の不偏
推定値となる。
と(例えば、PCAにより)、主部分空間だけでなく、
全体の画像空間を包囲する、最適密度推定値
で与えられる形式を有する。
数の視野、又は多数の対象物を表す場合、指向視野の分
布は、もはや単一モードでなく、例えば、図2に示す任
意の多モード密度に類似することになる。空間Fの単一
領域10を占有する代わりに、主ベクトルは、領域1
2、14、16の群を占有する。このタイプの分布をモ
デル化する1つの手法は、各種の領域が、特定のタイプ
の画像変化(例えば、頭上、及び左右の輪郭視野)を系
統的に反映すると仮定し、画像をグループ内に隔離する
ことにより、解析を分割することである。
ことなく、多モードの固有ベクトル空間における、入力
画像の唯一の解析を容易にする。F/空間成分が、ガウ
ス状で、F空間における主要特徴とは独立であると仮定
すると(これは、例えば、CCDカメラに本質的な「シ
ョット雑音」に起因した、純粋な観測雑音の場合には、
真実であろう)、主成分ベクトルyにおける任意の密度
P(y)として、PF(x|Ω) を取り扱うことによ
り、式8の密度推定値
が可能になる。図2に示すように、DFFSは、残留誤
差ε2(x) に依然として対応するが、DIFSは、も
はや単純なMahalanobis 距離として表現することはでき
ない。しかしながら、DIFSをP(y)と関連させる
ことにより、「距離」として、例えばDIFS=−lo
gP(y)として、DIFSを表現することが可能であ
る。
合モデルを用いて推定可能である。特に、任意の複合密
度は、ガウスの混合法を用いて、以下のようにモデル化
可能である。
トルμ、及び分散Σを有する、M次元ガウス密度であ
り、πi 変数は、制約条件Σπi =1を満足する、成分
の混合母数である。この混合は、母数
指向集合
用いて、以下のように推定可能となる。
(「EM」)アルゴリズム(例えば、Dempster他によ
る、「EMアルゴリズムによる不完全データからの最大
公算(Maximum Likelihood from Incomplete Data via
the EM Algorithm)」,Journal of the Royal Statisti
cal Society B, vol.39, 1977、及び Render他による、
「混合密度、最大公算、及びEMアルゴリズム(Mixtur
e Densities, Maximum Likelihood and the EM Algorit
hm)」,26 SIAM Review 195 (1984)を参照されたい。こ
れらの参考文献の各々の内容を参照として、本明細書に
取り込む。)を使用して、直接に解かれる。EMアルゴ
リズムは、公算において単一的収束性であり、従って指
向集合の公算全体において、局所最大値を見つけるのが
保証される。
り、白色ガウス測定雑音に起因した摂動を除いて、主部
分空間Fに唯一属するという、すなわち等価的に、指向
データのF/空間成分自体が、分離可能なガウス密度を
表すという、動作仮定を与えると、完全公算関数P(x
|Ω)の推定値が、以下により与えられる。
おいて、密度推定値
て表現される)が、指向画像集合の事例を表すか否かの
信頼性のある指示を与える。すなわち、推定値は、DF
FSから導出される残留再構成誤差、及びDIFSによ
り表現される分類代表値の両方を反映する。更に密度推
定値
値は、画像全体ではなく、画像成分に対して展開可能で
ある。特に、密度推定値を用いて、以下のように、多縮
尺の突出マップが形成され、ここで、線形縮小型の入力
画像に関して、公算計算が(並列に)実行される。
入力画像の局所的な部分画像から得られるベクトルであ
る。対象物Ωの空間位置、及び縮尺のML推定値は、以
下のように得られる。
は縮尺水準である。
おける多様性は、照明、及びコントラスト変化から生じ
る。以下で更に詳細に説明するように、各部分画像をそ
の平均、及び標準偏差により正規化することによって、
広域的な照度変化に対して(それと同時に、特定のカメ
ラの線形応答特性に対しても)、正規化することが可能
である。この照明の正規化は、指向、及び入力画像解析
時に、通常実施される。
を、ブロック図形式で示す図3を参照する。そこで示さ
れるように、このシステムは、ビデオ源150(例え
ば、電荷結合素子、すなわち「CCD」カメラ)を含
み、それは、解析すべき静止入力画像を供給する。ビデ
オ源150の出力は、デジタイザ152により、ピクセ
ルマップへとフレームとしてデジタル化される。デジタ
ル化ビデオフレームは、それを介して全ての構成要素が
通信を行う、システムバス155上に、ビットストリー
ムとして送られて、大容量記憶装置(ハードディスク、
又は光学式記憶ユニットといった)だけでなく、主シス
テムメモリ160(特定として、一連の等サイズの入力
画像バッファ162を規定する区分内の)にも格納され
る。
ト(「CPU」)170により指令される。以下で説明
する、画像処理動作の高速実行を容易にするために、こ
のシステムは、好適には、グラフィック、又は画像処理
ボード172を含むが、これは、当業者には周知の標準
的な構成要素である。
知装置(例えば、マウス)182を用いて、システムと
対話する。どちらかの装置の出力を用い、情報を指示、
又はスクリーンディスプレイ184の特定区域を選択し
て、システムにより実施されるべき機能が指令される。
及び他のハードウェア構成要素との対話を制御する、一
群のモジュールを含む。オペレーティング・システム1
90が、メモリ割当て、ファイル管理、及び大容量記憶
装置157の動作といった、低レベルの基本システム機
能を指令する。より高レベルにおいては、一連の格納さ
れた命令として実施される、解析モジュール192が、
以下で説明するように、本発明により遂行される主要機
能の実行を指令し、ユーザインターフェース194を規
定する命令が、スクリーンディスプレイ184を介し
て、直接の対話を可能にする。ユーザインターフェース
194は、ユーザによる動作を促すために、言語を、又
はディスプレイ上にグラフィック画像を生成して、キー
ボード180、及び/又は位置検知装置から、ユーザ・
コマンドを受け取る。最後に、メモリ160は、大容量
記憶装置157に格納されている、固有テンプレートに
関して、以前に説明したように、符号化された対象物、
又は特徴の画像データベースを格納するための区分19
6を含む。
ー」、すなわち集合的に1つの画像を表す、離散ピクセ
ル位置の規則的な2次元パターンを規定し、その画像を
表示するために、スクリーンディスプレイ184を駆動
する(例えば、画像処理ボード172、又は画像サーバ
の手段により)ためにも使用できる。フレームバッファ
内の各メモリ配置の内容は、ディスプレイ184上に
おいて、対応するピクセルの出現を直接支配する。
したが、これは、呈示を明瞭にするためだけであり、シ
ステムが、全ての必要な機能を遂行する限り、それら
が、システム、及びそのプログラミング・アーキテクチ
ャー内で、如何に配分されるかは重要ではない、という
ことを理解されたい。同様に、格子として概念的に構成
したが、ピクセルマップは、実際には、この様にして、
デジタル的に格納される必要はない。むしろ、メモリ利
用、及び転送を簡便にするために、ラスターパターン
は、通常、ピクセルの順序アレーとして符号化される。
スクの実行は、CPU170の動作を支配し、且つ対象
物、又は特徴を検出、認識、及び符号化するのに必要な
ステップを遂行する際には、主メモリ160とのその対
話を制御する、解析モジュール192により指令され
る。このモジュールの好適な実施例の構成要素は、図4
に示されている。図示の解析モジュール192は、最大
推定精度のために、対象物、及び特徴レベルの両方にお
いて動作する。しかしながら、これらの機能は、本発明
の完全な可能性を明示するが、本発明は、代替として、
その両方ではなく、対象物、又は特徴レベルのどちらか
においても動作可能である(例えば、計算資源を保護す
るため、又は実時間動作を容易にするために)、という
ことを理解されたい。
ム200、及び対象物中心の表現ステージ(「OCR
S」)202が協働して、対象物の可能性のある事例を
検出するために、入力画像に関する多縮尺の探索を遂行
する。説明上の目的のために、この対象物は、顔である
と想定する。本発明の重要な適用は、検出ステージにお
いてもたらされる。すなわち、ML解析を用いて、入力
画像が、とにかく顔を含むか否かが判定される。
好適な動作モードが、図5に示されている。第1のステ
ップ300において、粗い固有ベクトル顔表現(例え
ば、10次元の主部分空間、すなわち、最も高い関連性
のある固有ベクトルを有する、「固有の顔」の10個の
固有ベクトルから構成される「顔空間」を備えた)、及
び各種の顔特徴(例えば、目、鼻、及び口)の固有ベク
トル表現が、一連の指向画像(好適には、単一の視野角
で生成された)から確立される。適切なユーザ・コマン
ドに応答して、ステップ302において、入力画像が、
第1のバッファ162内にロードされて、それを、解析
モジュール192が利用可能となる。次に、入力画像
は、入力画像よりも小さな複数のレベル(例えば、1/
2×、1/4×、等)に、線形縮小されて、k個の縮小
画像の各々が、画像バッファ162のうちの異なるバッ
ファに格納される。
入力画像(例えば、20×30ピクセル)の矩形の「ウ
ィンドウ」領域が、通常は画像の角部において規定され
る。ウィンドウ内のピクセルは、画像空間内の点として
ベクトル化され、主部分空間F、及び直交部分空間F/
上に投影されて、ステップ306において、式8及び1
1に従って、確率推定値が得られる。画像の走査が、完
全に完了していないならば(ステップ308)、ウィン
ドウは、同じウィンドウ寸法であるが、既に解析済みの
ウィンドウから、1ピクセルの距離だけ変移した、新し
い領域を規定することにより、「移動」される(ステッ
プ310)。入力画像の縁部に到達した場合、ウィンド
ウは、1ピクセルの距離だけ垂直に移動されて、走査
は、反対方向に再開する。画像走査が完了すると、顔を
含む確率の最も高いウィンドウが、式16に従って識別
される(ステップ312)。全ての縮尺kに対して、ス
テップ304−312が繰り返され、それによって、多
縮尺の突出マップが生成される。
力画像を予めフィルタリングするように、アテンション
副システム200を構成することも可能である。例え
ば、米国特許第5,164,992 号に記載されるように、動き
検出を用いて、光景内の人の存在を識別することが可能
であり、また突き止められる人の顔のテンプレート整合
解析を用いて、顔がありそうな位置を予測することも可
能である。
い関連性のある確率推定値、及びそれに関連した縮尺k
を有する、ウィンドウi、jが、識別されて、翻訳、及
び縮尺に対して正規化される(ステップ314)。標準
的な画像加工技法を利用して、検出された顔が、束縛ボ
ックスに配置される。ステップ316において、束縛ボ
ックス内の画像が走査されて、顔の特徴(例えば、目、
鼻、及び口)の位置が検出される。これは、もう一度、
局所ウィンドウ移動、及び固有特徴ベクトルに対する確
率推定を行うことにより達成される。束縛ボックス内の
これら特徴の位置を用いて、まず、検出された顔の幾何
形状が有効化され、次に、ステップ320において、そ
の顔が、「歪曲(warp)」、すなわち認識の目的のため
に、指向集合において利用された視野と、その顔が空間
的に整合するように、幾何的に変形される。
像が、顔の内部のみを含むようにマスキングされ、それ
により、最も突出した顔の部位上に、KLTの記述力が
集中される。指向ステップ300は、特徴抽出モジュー
ル(「FEM」)204により遂行され、ステップ31
4−320は、OCRS202により実行され、主部分
空間、及び直交部分空間上への入力画像の投影を含む、
残りのステップは、アテンション副システム200によ
り実行される。
中央化され、マスキングされた顔を処理して、広域的な
照度変化、及び/又は特定のCCDカメラの線形応答特
性に起因した、入力画像における変動を補償する。とい
うのは、これらの変動は、認識、及び符号化精度に影響
を与えることになるためである。標準範囲(すなわち、
それ自体が、モジュール206により固定標準に正規化
される、指向画像に関連した範囲)に対して、入力画像
のグレースケール範囲を正規化することにより、モジュ
ール206は動作する。コントラスト調整に使用される
正規化係数は、メモリ内に格納されて、後に、元のコン
トラストを有する画像の再構成が可能になる。
わち指向画像の1つとの顔の整合の目的のために、固有
の顔の集合上に顔ベクトルを投影するFEM204によ
り、顔が処理される。このステップは、例えば、米国特
許第5,164,992 号に従って実行可能であり、その場合に
は、固有の顔は、主成分を表し空間Fを規定する。認
識、及び学習モジュール(「RLM」)208が、結果
としての投影係数を利用して、画像データベース196
から顔を突き止め、ここで、顔は、それ自身の投影係数
により表される。RLM208は、データベース196
から最も近い顔、及び整合のための信頼レベルを戻す。
り、認識を目的として使用される調整された画像から再
構成され、再構成モジュールは、ステップ314、及び
318で使用される正規化、及び変形係数だけでなく、
モジュール206により使用されるコントラスト調整値
も累算して、反対にこれらを適用して、元の入力画像に
おいて表されるような顔に到達する。
れた顔、及び/又はFEMにより、投影係数へと処理さ
れた入力画像)は、表現効率を最大にするために、符号
器モジュール212により符号化することができ、これ
は、例えば画像を転送すべき、又は放送すべき場合に、
特に重要となる。投影係数は、それ自体、ピクセルマッ
プのかなりの圧縮を表すが、符号器212は、その係数
の標準偏差(KLTにより計算された固有値の平方根)
により、係数を正規化して、その正規化された係数を量
子化することによって、投影係数を尚も更に圧縮する。
量子化は、例えば、正規化された係数を、離散範囲「容
器(bin)」内に割当てる、ガウス源に対するLloyd-Max
量子化器を用いて達成可能であり、ここで、各容器は、
対応する浮動小数点係数よりも、小さな量の情報により
表すことができ、容器の数(すなわち、量子化レベル)
は、量子化された符号化の精細度を決定する。当然なが
ら、より少ないレベルは、符号化された画像が、固有の
顔から再構成された場合に、より貧弱な画像忠実度を意
味する。しかしながら、関連した固有の顔が、画像に寄
与する度合い、従って、投影係数の重要性を反映する、
固有値に従って、投影係数をランク付けすることによ
り、異なる係数に対して、可変数の量子化レベルを利用
する(例えば、所与の係数に割当てられたレベルの数
を、その固有値に比例させる)ことで、最小限のメモリ
費用と共に忠実度を保持することが可能となる。
の手法は、対象物、又は特徴レベルにおいて有効である
ことを強調する。これら対象物、及び特徴レベルは、上
述のように、特定の用途に依存して、組み合わせるか、
又は別個に実施することが可能である。例えば、本発明
は、顔により表される多特徴のある実体の「履歴調査」
を行って、特定の顔特徴を突き止めることができ、探索
された対象特徴が、特に識別可能な特性を具体化する場
合、特徴指定の探索は、対象物全体の探索よりも、正確
で、且つある場合には高速であることを実証可能であ
る。
いった質感のある、又は細部の対象物には限定されな
い。例えば、その多様性が、質感ではなく形状から生じ
る、手といった、本質的に質感のない対象物に、本発明
は首尾良く適用された。照度、コントラスト、及びシー
ン背景に関して不変である、手の形状のエッジに基づく
表現を利用することにより、ジェスチャー形式で純粋に
表現される、対象物の同一性に関して動作する本発明の
能力が明示された。
集合が、黒の背景に対してデジタル的に捕捉された。次
に、手の2次元輪郭が、Canny エッジ・オペレータを用
いて、抽出された。しかし、結果としての2値のエッジ
・マップは、その散在した分布に起因して、互いにほと
んど相関がなく、それにより非常に高次元の主部分空間
となった。本来の次元の数を縮小するために、空間相関
を、2値のエッジ・マップ上で、拡散処理を介して導入
した。この処理は、効果的にエッジを広げ、「ぼかし
(smears)」て、それにより、エッジの空間分布に関連
して、対象形状を表す、連続的な値のついた輪郭画像が
もたらされる。この表現は、米国特許第5,164,992 号に
開示されている認識手法が、16次元の主部分空間の高
精度で、手振り(それらは、生成された拡散エッジ・マ
ップに対して、前処理されるが)を入力するために、ジ
ェスチャー分類を割当てるように、計算上扱いやすいレ
ベルにまで主部分空間を縮小した。
現)ステージ、すなわち散乱したシーンにおいて、手
(その関節状態の何れかにおける)を発見し、その縮尺
を明らかにし、それを、認識の前に、基準フレームに対
して整合させるためのステージにおいて、上記の環境に
適用された。この局所化は、手の基礎をなす画像表現
が、グレースケール画像ではなく、拡散エッジ・マップ
であったことを除いて、上記のシステムにより達成され
た。
各ジェスチャーに対して、基本的に異なる手の形状に起
因して、多モードであった。従って、アテンション副シ
ステムは、式8及び11ではなく、式13−15と関連
して説明した手法を利用した。この推定値のパラメータ
は、EMアルゴリズムの20の交互作用により得られ
た。各入力シーンは、まず、拡散エッジ・マップを生成
するために前処理され、次に、多縮尺の突出計算を容易
にするために、上記のように縮小化された。本発明は、
散乱した背景シーンを含む画像において、手を十分な精
度で、検出、及び局所化するために見出された。
特徴の検出、認識、及び符号化に対して、非常に拡張性
があり、且つ有利な手法を表すことが、理解されるであ
ろう。本明細書において用いた用語、及び表現は、限定
としてではなく、説明の用語として用いたものであり、
また、かかる用語、及び表現を用いる際に、図示、及び
記載した特徴の何れの等価物、及びその部分を包含しな
い、という意図はなく、各種の修正が、特許請求の範囲
で規定される、本発明の範囲内で可能である、というこ
とを認識されたい。例えば、本発明の各種のモジュール
が、適切なソフトウェア命令を用いる汎用のコンピュー
タ上で、又はハードウェア回路として、或いはハードウ
ェア・ソフトウェアを混合した組合せとして実施可能で
ある(ここで、例えば、ピクセル加工、及びレンダリン
グは、専用ハードウェア構成要素により実行される)。
てのパターンが、ほぼ等しいと仮定する代わりに、対象
空間内の確率分布を捕捉する。このようにして、本発明
は、対象空間内に入る入力画像に対する、パターン間の
より緻密な識別、推論、対象空間内のその代表値の測定
を容易にする。換言すると、パターンが、対象空間内に
存在するが、指向画像が、群をなす傾向を有する、対象
空間の領域近傍のどこにも存在しない場合、本発明は、
そのパターンを「代表値ではなく」、おそらく、対象物
分類の構成要素ではないと識別する。本発明は、人間の
顔、その特徴(例えば、目)といった、実質的に任意の
多特徴のある実体だけでなく、また人間の手といった、
柔軟で関節のある対象物の検出、及び認識に有益であ
る。
析に限定されないので、多モード分布に容易に適合す
る。実際、本発明により、異なる対象物視野を表す指向
画像の集合が与えられる限り、本発明は、ある範囲の入
力パターン配向にわたって、価値のある認識性能をもた
らすことが可能である。換言すると、本発明は、内部分
布が一様でないだけでなく、多モードでもある対象空間
内の弁別が可能である。更に、本発明は、検出が、入力
画像内の特徴的パターンの大きさにほとんど独立である
ような、縮尺の範囲にわたって動作可能である。本発明
により利用される表現は、基本的にはデータ圧縮形式
の、高効率なモデル・ベース符号化、機能に向いてい
る。対象物の分類を表す、基本固有ベクトルの集合が、
基本ベクトルの重み付け一次結合として表現される、新
しい対象物を符号化するための基準として使用され得
る。このようにして、新しい対象物が、少数のバイトを
用いて表現可能であり、最小限の必要記憶容量で、大画
像データベースの効率的な符号化が容易になる。圧縮
は、量子化により更に増強され得る。
間、及び残りの成分を含む直交部分空間において、特
徴、又は対象物を示す。
間、及び残りの成分を含む直交部分空間において、特
徴、又は対象物を示す。
略的に示す。
を示す。
び対象物中心の表現の構成要素の動作を示す、フローチ
ャートである。
Claims (20)
- 【請求項1】 デジタル的に表現された入力画像におい
て、選択された特徴を検出する方法において、 a.多次元画像空間における固有ベクトルの集合として、
選択された特徴の事例の指向集合を表現するステップ
と、 b.画像空間における入力ベクトルとして、入力画像の部
分を表現するステップと、 c.入力ベクトルが、選択された特徴の事例を含む画像部
分に対応する、公算を示す確率レベルを、各入力ベクト
ルに対して推定するために、入力ベクトル上で、密度推
定解析を実行するステップと、 d.最も高い関連性のある確率レベルを有する、画像部分
を識別するステップと、を含む方法。 - 【請求項2】 上記密度推定解析を実行するステップ
は、 a.画像空間を、主部分空間、及び直交部分空間へと分割
するステップであって、主部分空間は、主固有ベクトル
の単一モード集合を含む、分割ステップと、 b.入力ベクトルにより識別された点と、主部分空間との
間の距離を計算するステップと、 c.入力ベクトルを、主部分空間上に投影するステップ
と、 d.主固有ベクトルに関して、入力ベクトルの投影の確率
分布を計算するステップと、 e.入力ベクトルが、選択された特徴の事例を含む画像部
分に対応する、公算を示す確率レベルを、計算された距
離、及び計算された確率分布から、推定するステップ
と、を含む、請求項1に記載の方法。 - 【請求項3】 上記推定するステップは、主部分空間に
おける第1の周辺確率密度、及び直交部分空間における
第2の周辺確率密度を計算して、第1、及び第2の確率
密度を乗算するステップであって、前記第1の確率密度
は、真の密度であり、前記第2の確率密度は、推定され
る密度であり、前記第1、及び第2の確率密度は、統計
的には互いに一致する、ステップを含む、請求項2に記
載の方法。 - 【請求項4】 前記密度推定解析を実行するステップ
は、 a.画像空間を、主部分空間、及び直交部分空間へと分割
するステップであって、主部分空間は、主固有ベクトル
の多モード集合を含む、分割ステップと、 b.入力ベクトルにより識別された点と、主部分空間との
間の距離を計算するステップと、 c.入力ベクトルを、主部分空間上に投影するステップ
と、 d.パラメータ混合モデルを用いて、主固有ベクトルに関
して、入力ベクトルの投影の確率分布を計算するステッ
プと、 e.入力ベクトルが、選択された特徴の事例を含む画像部
分に対応する、公算を示す確率レベルを、計算された距
離、及び計算された確率分布から推定するステップと、 を含む、請求項1に記載の方法。 - 【請求項5】 各識別された画像部分に対して、識別さ
れた画像部分に含まれる事例が、もしあれば、選択され
た特徴のデジタル的に表現された事例の基準集合のうち
の、何れのものに類似するかを判定する、認識ステップ
を更に含む、請求項1に記載の方法。 - 【請求項6】 デジタル的に表現された事例の基準集合
は、主部分空間における複数のベクトルにより表現さ
れ、前記認識ステップは、入力ベクトルを、主部分空間
上に投影するステップと、そこに最も近い事例ベクトル
を突き止めるステップとを含む、請求項5に記載の方
法。 - 【請求項7】 各識別された画像部分を、量子化された
投影係数の集合として、符号化するステップを更に含
む、請求項1に記載の方法。 - 【請求項8】 選択された特徴は、顔である、請求項1
に記載の方法。 - 【請求項9】 選択された特徴は、顔の特徴である、請
求項1に記載の方法。 - 【請求項10】 デジタル的に表現された入力画像にお
いて、選択された特徴を検出するための装置において、 a.入力画像を格納するためのコンピュータ・メモリと、 b.多次元画像空間における固有ベクトルの集合として、
選択された特徴の事例の指向集合を表現するための手段
と、 c.格納された入力画像の少なくとも一部を分離して、そ
れを、画像空間における入力ベクトルとして表現するた
めの手段と、 d.入力ベクトルが、選択された特徴の事例を含む画像部
分に対応する、公算を示す確率レベルを推定するため
に、入力ベクトルを解析するための画像処理手段と、か
らなる装置。 - 【請求項11】 各入力画像は、複数のピクセルとして
表現されるものであり、 a.複数の縮尺率で、入力画像を表現するための手段と、 b.各縮尺率の画像に対して、画像の固定数のピクセルを
含むウィンドウを規定し、各ウィンドウに対して、確率
レベルを生成するために、画像処理手段に各ウィンドウ
の内容を転送するための手段と、 c.最も高い関連性のある確率を有する、ウィンドウを識
別するための手段と、から更になる、請求項10に記載
の装置。 - 【請求項12】 前記画像処理手段は、 a.画像空間を、主部分空間、及び直交部分空間へと分割
する目的であって、主部分空間は、主固有ベクトルの単
一モード集合を含む、分割目的と、 b.入力ベクトルにより識別された点と、主部分空間との
間の距離を計算する目的と、 c.入力ベクトルを、主部分空間上に投影する目的と、 d.主固有ベクトルに関して、入力ベクトルの投影の確率
分布を計算する目的と、 e.入力ベクトルが、選択された特徴の事例を含む画像部
分に対応する、公算を示す確率レベルを、計算された距
離、及び計算された確率分布から推定する目的と、から
なる目的のために構成される、請求項10に記載の装
置。 - 【請求項13】 前記画像処理手段は、最大公算解析を
用いて、確率レベルを推定する、請求項12に記載の装
置。 - 【請求項14】 確率レベルに基づいて、選択された特
徴の事例を含む公算のある、少なくとも1つの入力ベク
トルを識別するための手段から更になる、請求項10に
記載の装置。 - 【請求項15】 特徴事例の指向集合は、単一の視野角
で生成されるものであり、各識別された入力ベクトルに
対応する、入力画像の部分を分離して、処理するための
手段であって、 a.翻訳、及び縮尺に関連して、入力画像の部分を正規化
するための手段と、 b.入力画像の部分において、複数の部分特徴を識別する
ための手段と、 c.格納されているテンプレートとの幾何的一致のため
に、識別された部分特徴を解析するための有効化手段
と、 d.視野角との一致のために、有効化された入力画像の部
分を空間的に整合させるための歪曲手段と、 e.特徴に対応しない、入力画像の部分を削除するための
マスキング手段と、から構成される手段から更になる、
請求項14に記載の装置。 - 【請求項16】 コントラストの変動を補償するため
に、マスキングされた画像を処理するための、コントラ
スト正規化手段から更になる、請求項15に記載の装
置。 - 【請求項17】 a.指向画像の各々を、固有ベクトルの
集合上への投影係数の集合として、格納するためのデー
タベースと、 b.識別手段であって、(i) 入力投影係数の集合を得るた
めに、固有ベクトルの集合上に、マスクされた画像を投
影するための手段と、(ii)投影係数が、入力投影係数と
最も近く整合する、指向画像を突き止めるための手段
と、から構成される識別手段と、から更になる、請求項
15に記載の装置。 - 【請求項18】 前記識別手段は、選択された指向画像
の係数が、入力投影の係数と整合する度合いを示す、信
頼レベルを計算するための手段を含む、請求項17に記
載の装置。 - 【請求項19】 分離、及び処理された入力画像の部分
から、入力画像を再構成するための再構成モジュールか
ら更になる、請求項15に記載の装置。 - 【請求項20】 符号器モジュールであって、それ自体
が、 a.入力投影係数の集合を得るために、固有ベクトルの集
合上に、マスクされた画像を投影するための手段と、 b.前記入力投影係数を量子化するための手段と、から構
成される符号器モジュールから更になる、請求項15に
記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/425,579 US5710833A (en) | 1995-04-20 | 1995-04-20 | Detection, recognition and coding of complex objects using probabilistic eigenspace analysis |
US425579 | 2003-04-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08339445A true JPH08339445A (ja) | 1996-12-24 |
JP3986583B2 JP3986583B2 (ja) | 2007-10-03 |
Family
ID=23687155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10002396A Expired - Lifetime JP3986583B2 (ja) | 1995-04-20 | 1996-04-22 | 確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US5710833A (ja) |
JP (1) | JP3986583B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002157596A (ja) * | 2000-11-17 | 2002-05-31 | Sony Corp | ロボット装置及び顔識別方法 |
US6819782B1 (en) | 1999-06-08 | 2004-11-16 | Matsushita Electric Industrial Co., Ltd. | Device and method for recognizing hand shape and position, and recording medium having program for carrying out the method recorded thereon |
DE19731111B4 (de) * | 1997-07-19 | 2005-10-27 | Eads Deutschland Gmbh | Verfahren zur Identifizierung sowie Klassifizierung eines Zieles |
WO2015017868A1 (en) * | 2013-08-02 | 2015-02-05 | Emotient | Filter and shutter based on image emotion content |
Families Citing this family (192)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6850252B1 (en) * | 1999-10-05 | 2005-02-01 | Steven M. Hoffberg | Intelligent electronic appliance system and method |
USRE47908E1 (en) | 1991-12-23 | 2020-03-17 | Blanding Hovenweep, Llc | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US10361802B1 (en) | 1999-02-01 | 2019-07-23 | Blanding Hovenweep, Llc | Adaptive pattern recognition based control system and method |
US6400996B1 (en) | 1999-02-01 | 2002-06-04 | Steven M. Hoffberg | Adaptive pattern recognition based control system and method |
USRE48056E1 (en) | 1991-12-23 | 2020-06-16 | Blanding Hovenweep, Llc | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US5903454A (en) | 1991-12-23 | 1999-05-11 | Hoffberg; Linda Irene | Human-factored interface corporating adaptive pattern recognition based controller apparatus |
US6418424B1 (en) | 1991-12-23 | 2002-07-09 | Steven M. Hoffberg | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
USRE46310E1 (en) | 1991-12-23 | 2017-02-14 | Blanding Hovenweep, Llc | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US5799301A (en) * | 1995-08-10 | 1998-08-25 | International Business Machines Corporation | Apparatus and method for performing adaptive similarity searching in a sequence database |
US6430307B1 (en) * | 1996-06-18 | 2002-08-06 | Matsushita Electric Industrial Co., Ltd. | Feature extraction system and face image recognition system |
US5901244A (en) * | 1996-06-18 | 1999-05-04 | Matsushita Electric Industrial Co., Ltd. | Feature extraction system and face image recognition system |
US5940825A (en) * | 1996-10-04 | 1999-08-17 | International Business Machines Corporation | Adaptive similarity searching in sequence databases |
US6041147A (en) * | 1996-10-15 | 2000-03-21 | Hughes Electronics Corporation | Content-based indexing of images by coding levels defined as a function of reduced entropy |
US6345109B1 (en) * | 1996-12-05 | 2002-02-05 | Matsushita Electric Industrial Co., Ltd. | Face recognition-matching system effective to images obtained in different imaging conditions |
US6185337B1 (en) * | 1996-12-17 | 2001-02-06 | Honda Giken Kogyo Kabushiki Kaisha | System and method for image recognition |
US6526156B1 (en) * | 1997-01-10 | 2003-02-25 | Xerox Corporation | Apparatus and method for identifying and tracking objects with view-based representations |
US5917927A (en) * | 1997-03-21 | 1999-06-29 | Satake Corporation | Grain inspection and analysis apparatus and method |
US5983218A (en) * | 1997-06-30 | 1999-11-09 | Xerox Corporation | Multimedia database for use over networks |
US6141463A (en) * | 1997-10-10 | 2000-10-31 | Electric Planet Interactive | Method and system for estimating jointed-figure configurations |
AU9808298A (en) * | 1997-10-15 | 1999-05-03 | Electric Planet, Inc. | A system and method for generating an animatable character |
GB2330679B (en) * | 1997-10-21 | 2002-04-24 | 911 Emergency Products Inc | Warning signal light |
US6035055A (en) * | 1997-11-03 | 2000-03-07 | Hewlett-Packard Company | Digital image management system in a distributed data access network system |
US6539103B1 (en) * | 1997-11-12 | 2003-03-25 | The University Of Utah | Method and apparatus for image reconstruction using a knowledge set |
US6272230B1 (en) * | 1998-02-11 | 2001-08-07 | Analogic Corporation | Apparatus and method for optimizing detection of objects in computed tomography data |
US6466894B2 (en) * | 1998-06-18 | 2002-10-15 | Nec Corporation | Device, method, and medium for predicting a probability of an occurrence of a data |
DE19832974A1 (de) * | 1998-07-22 | 2000-01-27 | Siemens Ag | Vorrichtung und Verfahren zur Erstellung eines virtuellen Anlagenmodells |
US6466685B1 (en) * | 1998-07-14 | 2002-10-15 | Kabushiki Kaisha Toshiba | Pattern recognition apparatus and method |
US6292575B1 (en) | 1998-07-20 | 2001-09-18 | Lau Technologies | Real-time facial recognition and verification system |
US6950534B2 (en) * | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US7036094B1 (en) | 1998-08-10 | 2006-04-25 | Cybernet Systems Corporation | Behavior recognition system |
US20010008561A1 (en) * | 1999-08-10 | 2001-07-19 | Paul George V. | Real-time object tracking system |
US6681031B2 (en) | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6265993B1 (en) * | 1998-10-01 | 2001-07-24 | Lucent Technologies, Inc. | Furlable keyboard |
US6463163B1 (en) * | 1999-01-11 | 2002-10-08 | Hewlett-Packard Company | System and method for face detection using candidate image region selection |
US7904187B2 (en) | 1999-02-01 | 2011-03-08 | Hoffberg Steven M | Internet appliance system and method |
KR100671098B1 (ko) * | 1999-02-01 | 2007-01-17 | 주식회사 팬택앤큐리텔 | 모양정보를 이용한 멀티미디어 데이터의 검색 방법 및 장치 |
AU2317900A (en) * | 1999-02-05 | 2000-08-25 | Yoav Smith | Similarity measurement method for the classification of medical images into predetermined categories |
US8095581B2 (en) * | 1999-02-05 | 2012-01-10 | Gregory A Stobbs | Computer-implemented patent portfolio analysis method and apparatus |
US6647139B1 (en) * | 1999-02-18 | 2003-11-11 | Matsushita Electric Industrial Co., Ltd. | Method of object recognition, apparatus of the same and recording medium therefor |
US6360013B1 (en) * | 1999-03-16 | 2002-03-19 | Academia Sinica | Fast method and system for template matching acquiring global optima |
JP2000275757A (ja) * | 1999-03-24 | 2000-10-06 | Fuji Photo Film Co Ltd | 画像評価方法及び装置 |
US6320976B1 (en) * | 1999-04-01 | 2001-11-20 | Siemens Corporate Research, Inc. | Computer-assisted diagnosis method and system for automatically determining diagnostic saliency of digital images |
US6337927B1 (en) * | 1999-06-04 | 2002-01-08 | Hewlett-Packard Company | Approximated invariant method for pattern detection |
US6400846B1 (en) * | 1999-06-04 | 2002-06-04 | Mitsubishi Electric Research Laboratories, Inc. | Method for ordering image spaces to search for object surfaces |
AUPQ136299A0 (en) * | 1999-07-02 | 1999-07-22 | Microsystem Controls Pty Ltd | Coin validation |
US6501857B1 (en) * | 1999-07-20 | 2002-12-31 | Craig Gotsman | Method and system for detecting and classifying objects in an image |
US6850891B1 (en) | 1999-07-23 | 2005-02-01 | Ernest H. Forman | Method and system of converting data and judgements to values or priorities |
US7468677B2 (en) * | 1999-08-04 | 2008-12-23 | 911Ep, Inc. | End cap warning signal assembly |
US6547410B1 (en) * | 2000-07-28 | 2003-04-15 | 911 Emergency Products, Inc. | LED alley/take-down light |
US6990217B1 (en) * | 1999-11-22 | 2006-01-24 | Mitsubishi Electric Research Labs. Inc. | Gender classification with support vector machines |
GB2359885B (en) * | 1999-11-25 | 2004-09-29 | Canon Kk | Image processing method and apparatus |
GB2359883B (en) * | 1999-11-25 | 2004-05-12 | Canon Kk | Image processing method and apparatus |
US6975755B1 (en) | 1999-11-25 | 2005-12-13 | Canon Kabushiki Kaisha | Image processing method and apparatus |
GB2359884B (en) * | 1999-11-25 | 2004-06-30 | Canon Kk | Image processing method and apparatus |
KR100343223B1 (ko) * | 1999-12-07 | 2002-07-10 | 윤종용 | 화자 위치 검출 장치 및 그 방법 |
US6940545B1 (en) | 2000-02-28 | 2005-09-06 | Eastman Kodak Company | Face detecting camera and method |
US7212668B1 (en) * | 2000-08-18 | 2007-05-01 | Eastman Kodak Company | Digital image processing system and method for emphasizing a main subject of an image |
US6853745B1 (en) * | 2000-11-03 | 2005-02-08 | Nec Laboratories America, Inc. | Lambertian reflectance and linear subspaces |
US7439847B2 (en) | 2002-08-23 | 2008-10-21 | John C. Pederson | Intelligent observation and identification database system |
EP1217574A3 (en) * | 2000-12-19 | 2004-05-19 | Matsushita Electric Industrial Co., Ltd. | A method for lighting- and view-angle-invariant face description with first- and second-order eigenfeatures |
US6829384B2 (en) | 2001-02-28 | 2004-12-07 | Carnegie Mellon University | Object finder for photographic images |
CA2451992C (en) * | 2001-05-15 | 2013-08-27 | Psychogenics Inc. | Systems and methods for monitoring behavior informatics |
US7027620B2 (en) * | 2001-06-07 | 2006-04-11 | Sony Corporation | Method of recognizing partially occluded and/or imprecisely localized faces |
US6859210B2 (en) | 2001-07-06 | 2005-02-22 | Eastman Kodak Company | Method for representing a digital color image using a set of palette colors based on detected important colors |
US7085774B2 (en) * | 2001-08-30 | 2006-08-01 | Infonox On The Web | Active profiling system for tracking and quantifying customer conversion efficiency |
US7237115B1 (en) * | 2001-09-26 | 2007-06-26 | Sandia Corporation | Authenticating concealed private data while maintaining concealment |
US20040201738A1 (en) * | 2001-11-13 | 2004-10-14 | Tabula Rasa, Inc. | Method and apparatus for providing automatic access to images captured at diverse recreational venues |
AU2002342393B2 (en) * | 2001-11-21 | 2007-01-25 | Iomniscient Pty Ltd | Non-motion detection |
AUPR899401A0 (en) | 2001-11-21 | 2001-12-13 | Cea Technologies Pty Limited | Method and apparatus for non-motion detection |
US7054468B2 (en) | 2001-12-03 | 2006-05-30 | Honda Motor Co., Ltd. | Face recognition using kernel fisherfaces |
US7050636B2 (en) * | 2001-12-07 | 2006-05-23 | Eastman Kodak Company | Method and system for improving an image characteristic based on image content |
US7092573B2 (en) * | 2001-12-10 | 2006-08-15 | Eastman Kodak Company | Method and system for selectively applying enhancement to an image |
JP3903783B2 (ja) * | 2001-12-14 | 2007-04-11 | 日本電気株式会社 | 顔メタデータ生成方法および装置、並びに顔類似度算出方法および装置 |
US20030113002A1 (en) * | 2001-12-18 | 2003-06-19 | Koninklijke Philips Electronics N.V. | Identification of people using video and audio eigen features |
US7472062B2 (en) * | 2002-01-04 | 2008-12-30 | International Business Machines Corporation | Efficient recursive clustering based on a splitting function derived from successive eigen-decompositions |
US7035431B2 (en) * | 2002-02-22 | 2006-04-25 | Microsoft Corporation | System and method for probabilistic exemplar-based pattern tracking |
US20030161507A1 (en) * | 2002-02-28 | 2003-08-28 | Spectra Systems Corporation | Method and apparatus for performing facial recognition with a hand-held imaging device |
JP4210137B2 (ja) * | 2002-03-04 | 2009-01-14 | 三星電子株式会社 | 2次icaを利用した顔認識法及びその装置 |
US7254257B2 (en) * | 2002-03-04 | 2007-08-07 | Samsung Electronics Co., Ltd. | Method and apparatus of recognizing face using component-based 2nd-order principal component analysis (PCA)/independent component analysis (ICA) |
JP3873793B2 (ja) * | 2002-03-29 | 2007-01-24 | 日本電気株式会社 | 顔メタデータ生成方法および顔メタデータ生成装置 |
US7199793B2 (en) | 2002-05-21 | 2007-04-03 | Mok3, Inc. | Image-based modeling and photo editing |
US7379602B2 (en) * | 2002-07-29 | 2008-05-27 | Honda Giken Kogyo Kabushiki Kaisha | Extended Isomap using Fisher Linear Discriminant and Kernel Fisher Linear Discriminant |
US7035461B2 (en) * | 2002-08-22 | 2006-04-25 | Eastman Kodak Company | Method for detecting objects in digital images |
US7283664B2 (en) * | 2002-09-25 | 2007-10-16 | Southwest Research Institute | Interactive computer aided analysis of images from sensor combinations |
US7130474B2 (en) * | 2002-09-27 | 2006-10-31 | Eastman Kodak Company | Method and system for generating digital image files for a limited display |
US7194114B2 (en) * | 2002-10-07 | 2007-03-20 | Carnegie Mellon University | Object finder for two-dimensional images, and system for determining a set of sub-classifiers composing an object finder |
JP4080843B2 (ja) * | 2002-10-30 | 2008-04-23 | 株式会社東芝 | 不揮発性半導体記憶装置 |
KR100473598B1 (ko) * | 2002-11-04 | 2005-03-11 | 삼성전자주식회사 | 가려진 얼굴영상을 판단하는 시스템 및 방법 |
US20040196282A1 (en) * | 2003-02-14 | 2004-10-07 | Oh Byong Mok | Modeling and editing image panoramas |
US7039222B2 (en) * | 2003-02-28 | 2006-05-02 | Eastman Kodak Company | Method and system for enhancing portrait images that are processed in a batch mode |
US7327374B2 (en) * | 2003-04-30 | 2008-02-05 | Byong Mok Oh | Structure-preserving clone brush |
US7269292B2 (en) * | 2003-06-26 | 2007-09-11 | Fotonation Vision Limited | Digital image adjustable compression and resolution using face detection information |
US8363951B2 (en) | 2007-03-05 | 2013-01-29 | DigitalOptics Corporation Europe Limited | Face recognition training method and apparatus |
US7440593B1 (en) | 2003-06-26 | 2008-10-21 | Fotonation Vision Limited | Method of improving orientation and color balance of digital images using face detection information |
US8155397B2 (en) * | 2007-09-26 | 2012-04-10 | DigitalOptics Corporation Europe Limited | Face tracking in a camera processor |
US8989453B2 (en) * | 2003-06-26 | 2015-03-24 | Fotonation Limited | Digital image processing using face detection information |
US7844076B2 (en) * | 2003-06-26 | 2010-11-30 | Fotonation Vision Limited | Digital image processing using face detection and skin tone information |
US7792335B2 (en) | 2006-02-24 | 2010-09-07 | Fotonation Vision Limited | Method and apparatus for selective disqualification of digital images |
US7620218B2 (en) | 2006-08-11 | 2009-11-17 | Fotonation Ireland Limited | Real-time face tracking with reference images |
US7471846B2 (en) * | 2003-06-26 | 2008-12-30 | Fotonation Vision Limited | Perfecting the effect of flash within an image acquisition devices using face detection |
US8896725B2 (en) | 2007-06-21 | 2014-11-25 | Fotonation Limited | Image capture device with contemporaneous reference image capture mechanism |
US7680342B2 (en) | 2004-08-16 | 2010-03-16 | Fotonation Vision Limited | Indoor/outdoor classification in digital images |
US7587068B1 (en) | 2004-01-22 | 2009-09-08 | Fotonation Vision Limited | Classification database for consumer digital images |
US9129381B2 (en) * | 2003-06-26 | 2015-09-08 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US8494286B2 (en) | 2008-02-05 | 2013-07-23 | DigitalOptics Corporation Europe Limited | Face detection in mid-shot digital images |
US7574016B2 (en) | 2003-06-26 | 2009-08-11 | Fotonation Vision Limited | Digital image processing using face detection information |
US8682097B2 (en) * | 2006-02-14 | 2014-03-25 | DigitalOptics Corporation Europe Limited | Digital image enhancement with reference images |
US7565030B2 (en) | 2003-06-26 | 2009-07-21 | Fotonation Vision Limited | Detecting orientation of digital images using face detection information |
US8498452B2 (en) * | 2003-06-26 | 2013-07-30 | DigitalOptics Corporation Europe Limited | Digital image processing using face detection information |
US7317815B2 (en) * | 2003-06-26 | 2008-01-08 | Fotonation Vision Limited | Digital image processing composition using face detection information |
US7315630B2 (en) | 2003-06-26 | 2008-01-01 | Fotonation Vision Limited | Perfecting of digital image rendering parameters within rendering devices using face detection |
US7792970B2 (en) * | 2005-06-17 | 2010-09-07 | Fotonation Vision Limited | Method for establishing a paired connection between media devices |
US7616233B2 (en) * | 2003-06-26 | 2009-11-10 | Fotonation Vision Limited | Perfecting of digital image capture parameters within acquisition devices using face detection |
US8593542B2 (en) * | 2005-12-27 | 2013-11-26 | DigitalOptics Corporation Europe Limited | Foreground/background separation using reference images |
US8330831B2 (en) * | 2003-08-05 | 2012-12-11 | DigitalOptics Corporation Europe Limited | Method of gathering visual meta data using a reference image |
US7362368B2 (en) * | 2003-06-26 | 2008-04-22 | Fotonation Vision Limited | Perfecting the optics within a digital image acquisition device using face detection |
US9692964B2 (en) | 2003-06-26 | 2017-06-27 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US8948468B2 (en) * | 2003-06-26 | 2015-02-03 | Fotonation Limited | Modification of viewing parameters for digital images using face detection information |
US8553949B2 (en) * | 2004-01-22 | 2013-10-08 | DigitalOptics Corporation Europe Limited | Classification and organization of consumer digital images using workflow, and face detection and recognition |
CA2540575C (en) * | 2003-09-12 | 2013-12-17 | Kevin Deng | Digital video signature apparatus and methods for use with video program identification systems |
US7388971B2 (en) * | 2003-10-23 | 2008-06-17 | Northrop Grumman Corporation | Robust and low cost optical system for sensing stress, emotion and deception in human subjects |
KR100543706B1 (ko) * | 2003-11-28 | 2006-01-20 | 삼성전자주식회사 | 비젼기반 사람 검출방법 및 장치 |
GB2409027A (en) * | 2003-12-11 | 2005-06-15 | Sony Uk Ltd | Face detection |
US7555148B1 (en) | 2004-01-22 | 2009-06-30 | Fotonation Vision Limited | Classification system for consumer digital images using workflow, face detection, normalization, and face recognition |
US7558408B1 (en) | 2004-01-22 | 2009-07-07 | Fotonation Vision Limited | Classification system for consumer digital images using workflow and user interface modules, and face detection and recognition |
US7564994B1 (en) | 2004-01-22 | 2009-07-21 | Fotonation Vision Limited | Classification system for consumer digital images using automatic workflow and face detection and recognition |
US7551755B1 (en) | 2004-01-22 | 2009-06-23 | Fotonation Vision Limited | Classification and organization of consumer digital images using workflow, and face detection and recognition |
US7430315B2 (en) * | 2004-02-13 | 2008-09-30 | Honda Motor Co. | Face recognition system |
US7224831B2 (en) * | 2004-02-17 | 2007-05-29 | Honda Motor Co. | Method, apparatus and program for detecting an object |
JP4708422B2 (ja) * | 2004-04-15 | 2011-06-22 | ジェスチャー テック,インコーポレイテッド | 両手動作の追跡 |
US20060056667A1 (en) * | 2004-09-16 | 2006-03-16 | Waters Richard C | Identifying faces from multiple images acquired from widely separated viewpoints |
US8320641B2 (en) | 2004-10-28 | 2012-11-27 | DigitalOptics Corporation Europe Limited | Method and apparatus for red-eye detection using preview or other reference images |
US8503800B2 (en) * | 2007-03-05 | 2013-08-06 | DigitalOptics Corporation Europe Limited | Illumination detection using classifier chains |
US7315631B1 (en) * | 2006-08-11 | 2008-01-01 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US7715597B2 (en) | 2004-12-29 | 2010-05-11 | Fotonation Ireland Limited | Method and component for image recognition |
EP3693889A3 (en) * | 2005-01-07 | 2020-10-28 | QUALCOMM Incorporated | Detecting and tracking objects in images |
JP4689684B2 (ja) * | 2005-01-21 | 2011-05-25 | ジェスチャー テック,インコーポレイテッド | 動作に基づくトラッキング |
US8235725B1 (en) * | 2005-02-20 | 2012-08-07 | Sensory Logic, Inc. | Computerized method of assessing consumer reaction to a business stimulus employing facial coding |
US20060193520A1 (en) * | 2005-02-28 | 2006-08-31 | Takeshi Mita | Object detection apparatus, learning apparatus, object detection system, object detection method and object detection program |
US7961937B2 (en) * | 2005-10-26 | 2011-06-14 | Hewlett-Packard Development Company, L.P. | Pre-normalization data classification |
US7783092B2 (en) * | 2006-01-17 | 2010-08-24 | Illinois Institute Of Technology | Method for enhancing diagnostic images using vessel reconstruction |
US7804983B2 (en) | 2006-02-24 | 2010-09-28 | Fotonation Vision Limited | Digital image acquisition control and correction method and apparatus |
ATE497218T1 (de) * | 2006-06-12 | 2011-02-15 | Tessera Tech Ireland Ltd | Fortschritte bei der erweiterung der aam- techniken aus grauskalen- zu farbbildern |
JP4663013B2 (ja) * | 2006-06-29 | 2011-03-30 | 富士通株式会社 | 色類別方法、色認識方法及び色認識装置 |
US7515740B2 (en) * | 2006-08-02 | 2009-04-07 | Fotonation Vision Limited | Face recognition with combined PCA-based datasets |
US7916897B2 (en) | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
US7403643B2 (en) * | 2006-08-11 | 2008-07-22 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
WO2008083205A2 (en) * | 2006-12-29 | 2008-07-10 | Gesturetek, Inc. | Manipulation of virtual objects using enhanced interactive system |
US8055067B2 (en) * | 2007-01-18 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Color segmentation |
EP2115662B1 (en) * | 2007-02-28 | 2010-06-23 | Fotonation Vision Limited | Separating directional lighting variability in statistical face modelling based on texture space decomposition |
KR101247147B1 (ko) | 2007-03-05 | 2013-03-29 | 디지털옵틱스 코포레이션 유럽 리미티드 | 디지털 영상 획득 장치에서의 얼굴 탐색 및 검출 |
WO2008109622A1 (en) | 2007-03-05 | 2008-09-12 | Fotonation Vision Limited | Face categorization and annotation of a mobile phone contact list |
US7916971B2 (en) * | 2007-05-24 | 2011-03-29 | Tessera Technologies Ireland Limited | Image processing method and apparatus |
US9100124B2 (en) | 2007-05-24 | 2015-08-04 | Federal Law Enforcement Development Services, Inc. | LED Light Fixture |
US11265082B2 (en) | 2007-05-24 | 2022-03-01 | Federal Law Enforcement Development Services, Inc. | LED light control assembly and system |
US9455783B2 (en) | 2013-05-06 | 2016-09-27 | Federal Law Enforcement Development Services, Inc. | Network security and variable pulse wave form with continuous communication |
US8031961B2 (en) * | 2007-05-29 | 2011-10-04 | Hewlett-Packard Development Company, L.P. | Face and skin sensitive image enhancement |
US20090030676A1 (en) * | 2007-07-26 | 2009-01-29 | Creative Technology Ltd | Method of deriving a compressed acoustic model for speech recognition |
CN101414348A (zh) * | 2007-10-19 | 2009-04-22 | 三星电子株式会社 | 多角度人脸识别方法和系统 |
US8744775B2 (en) * | 2007-12-28 | 2014-06-03 | Weyerhaeuser Nr Company | Methods for classification of somatic embryos comprising hyperspectral line imaging |
US8750578B2 (en) | 2008-01-29 | 2014-06-10 | DigitalOptics Corporation Europe Limited | Detecting facial expressions in digital images |
US8165354B1 (en) * | 2008-03-18 | 2012-04-24 | Google Inc. | Face recognition with discriminative face alignment |
US7855737B2 (en) * | 2008-03-26 | 2010-12-21 | Fotonation Ireland Limited | Method of making a digital camera image of a scene including the camera user |
US8208709B2 (en) * | 2008-04-17 | 2012-06-26 | The Ohio State University Research Foundation | System and method for improved real-time cine imaging |
CN103402070B (zh) | 2008-05-19 | 2017-07-07 | 日立麦克赛尔株式会社 | 记录再现装置及方法 |
US8131063B2 (en) * | 2008-07-16 | 2012-03-06 | Seiko Epson Corporation | Model-based object image processing |
CN106919911A (zh) * | 2008-07-30 | 2017-07-04 | 快图有限公司 | 使用脸部检测的自动脸部和皮肤修饰 |
WO2010063463A2 (en) * | 2008-12-05 | 2010-06-10 | Fotonation Ireland Limited | Face recognition using face tracker classifier data |
US8260038B2 (en) * | 2009-02-25 | 2012-09-04 | Seiko Epson Corporation | Subdivision weighting for robust object model fitting |
US8260039B2 (en) * | 2009-02-25 | 2012-09-04 | Seiko Epson Corporation | Object model fitting using manifold constraints |
US8204301B2 (en) * | 2009-02-25 | 2012-06-19 | Seiko Epson Corporation | Iterative data reweighting for balanced model learning |
US8208717B2 (en) * | 2009-02-25 | 2012-06-26 | Seiko Epson Corporation | Combining subcomponent models for object image modeling |
US8890773B1 (en) | 2009-04-01 | 2014-11-18 | Federal Law Enforcement Development Services, Inc. | Visible light transceiver glasses |
US8600100B2 (en) * | 2009-04-16 | 2013-12-03 | Sensory Logic, Inc. | Method of assessing people's self-presentation and actions to evaluate personality type, behavioral tendencies, credibility, motivations and other insights through facial muscle activity and expressions |
US20100295782A1 (en) | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
US8326002B2 (en) * | 2009-08-13 | 2012-12-04 | Sensory Logic, Inc. | Methods of facial coding scoring for optimally identifying consumers' responses to arrive at effective, incisive, actionable conclusions |
US8379917B2 (en) * | 2009-10-02 | 2013-02-19 | DigitalOptics Corporation Europe Limited | Face recognition performance using additional image features |
US8811743B2 (en) | 2010-06-09 | 2014-08-19 | Microsoft Corporation | Resource-aware computer vision |
US8836777B2 (en) | 2011-02-25 | 2014-09-16 | DigitalOptics Corporation Europe Limited | Automatic detection of vertical gaze using an embedded imaging device |
EP2717223A4 (en) * | 2011-05-24 | 2015-06-17 | Nec Corp | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM |
US20130201316A1 (en) | 2012-01-09 | 2013-08-08 | May Patents Ltd. | System and method for server based control |
US8559684B1 (en) * | 2012-08-15 | 2013-10-15 | Google Inc. | Facial recognition similarity threshold adjustment |
US9269049B2 (en) | 2013-05-08 | 2016-02-23 | Exelate, Inc. | Methods, apparatus, and systems for using a reduced attribute vector of panel data to determine an attribute of a user |
US9466009B2 (en) * | 2013-12-09 | 2016-10-11 | Nant Holdings Ip. Llc | Feature density object classification, systems and methods |
US20150198941A1 (en) | 2014-01-15 | 2015-07-16 | John C. Pederson | Cyber Life Electronic Networking and Commerce Operating Exchange |
US9661215B2 (en) | 2014-04-22 | 2017-05-23 | Snapaid Ltd. | System and method for controlling a camera based on processing an image captured by other camera |
WO2016207875A1 (en) | 2015-06-22 | 2016-12-29 | Photomyne Ltd. | System and method for detecting objects in an image |
US20170046950A1 (en) | 2015-08-11 | 2017-02-16 | Federal Law Enforcement Development Services, Inc. | Function disabler device and system |
US11386636B2 (en) | 2019-04-04 | 2022-07-12 | Datalogic Usa, Inc. | Image preprocessing for optical character recognition |
CN112070114B (zh) * | 2020-08-03 | 2023-05-16 | 中国科学院信息工程研究所 | 基于高斯约束注意力机制网络的场景文字识别方法及系统 |
CN113918753A (zh) * | 2021-07-23 | 2022-01-11 | 腾讯科技(深圳)有限公司 | 基于人工智能的图像检索方法及相关设备 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4259661A (en) * | 1978-09-01 | 1981-03-31 | Burroughs Corporation | Apparatus and method for recognizing a pattern |
JPS6057475A (ja) * | 1983-09-07 | 1985-04-03 | Toshiba Corp | パタ−ン認識方式 |
US4998286A (en) * | 1987-02-13 | 1991-03-05 | Olympus Optical Co., Ltd. | Correlation operational apparatus for multi-dimensional images |
DE3724110A1 (de) * | 1987-07-21 | 1989-02-02 | Fraunhofer Ges Forschung | Einweg-airless-spruehdose mit druckgasantrieb |
US4838644A (en) * | 1987-09-15 | 1989-06-13 | The United States Of America As Represented By The United States Department Of Energy | Position, rotation, and intensity invariant recognizing method |
JP2885823B2 (ja) * | 1989-04-11 | 1999-04-26 | 株式会社豊田中央研究所 | 視覚認識装置 |
DK163212C (da) * | 1989-07-10 | 1992-07-13 | Tunetanken As | Blandetank, fortrinsvis til oploesning af ferrosulfatgranulat i vand |
WO1991001183A1 (en) * | 1989-07-14 | 1991-02-07 | Karagandinsky Gosudarstvenny Universitet | Device for cleaning internal surface of pipes |
US5101446A (en) * | 1990-05-31 | 1992-03-31 | Aware, Inc. | Method and apparatus for coding an image |
FR2667711B1 (fr) * | 1990-10-09 | 1992-11-27 | Thomson Csf | Procede de reconnaissance d'objets dans des images et son application au suivi d'objets dans des sequences d'images. |
US5164992A (en) * | 1990-11-01 | 1992-11-17 | Massachusetts Institute Of Technology | Face recognition system |
US5432864A (en) * | 1992-10-05 | 1995-07-11 | Daozheng Lu | Identification card verification system |
-
1995
- 1995-04-20 US US08/425,579 patent/US5710833A/en not_active Expired - Lifetime
-
1996
- 1996-04-22 JP JP10002396A patent/JP3986583B2/ja not_active Expired - Lifetime
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19731111B4 (de) * | 1997-07-19 | 2005-10-27 | Eads Deutschland Gmbh | Verfahren zur Identifizierung sowie Klassifizierung eines Zieles |
US6819782B1 (en) | 1999-06-08 | 2004-11-16 | Matsushita Electric Industrial Co., Ltd. | Device and method for recognizing hand shape and position, and recording medium having program for carrying out the method recorded thereon |
JP2002157596A (ja) * | 2000-11-17 | 2002-05-31 | Sony Corp | ロボット装置及び顔識別方法 |
WO2015017868A1 (en) * | 2013-08-02 | 2015-02-05 | Emotient | Filter and shutter based on image emotion content |
US10185869B2 (en) | 2013-08-02 | 2019-01-22 | Emotient, Inc. | Filter and shutter based on image emotion content |
Also Published As
Publication number | Publication date |
---|---|
JP3986583B2 (ja) | 2007-10-03 |
US5710833A (en) | 1998-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3986583B2 (ja) | 確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置 | |
Sung et al. | Example-based learning for view-based human face detection | |
Etemad et al. | Face recognition using discriminant eigenvectors | |
Sahbi et al. | A Hierarchy of Support Vector Machines for Pattern Detection. | |
Barnouti et al. | Face recognition: A literature review | |
JP2003323622A (ja) | 画像認識システム及びその認識方法並びにプログラム | |
JP5574033B2 (ja) | 画像認識システム及びその認識方法並びにプログラム | |
Jiang | Feature extraction for image recognition and computer vision | |
Kpalma et al. | An overview of advances of pattern recognition systems in computer vision | |
Sahbi et al. | Coarse to fine face detection based on skin color adaption | |
CN116342968B (zh) | 一种双通道人脸识别方法及装置 | |
Cai et al. | Robust facial expression recognition using RGB-D images and multichannel features | |
Curran et al. | The use of neural networks in real-time face detection | |
CN110443255B (zh) | 用于图像特征提取的图像识别方法 | |
Suzuki et al. | Illumination-invariant face identification using edge-based feature vectors in pseudo-2D Hidden Markov Models | |
KR100711223B1 (ko) | 저니키(Zernike)/선형 판별 분석(LDA)을 이용한얼굴 인식 방법 및 그 방법을 기록한 기록매체 | |
Chang et al. | Feature patch illumination spaces and Karcher compression for face recognition via Grassmannians | |
Hafez et al. | 3D face recognition based on normal map features using selected Gabor filters and linear discriminant analysis | |
JPH11306322A (ja) | 画像フィルタリングシステム | |
Weng et al. | Recognition of hand signs from complex backgrounds | |
Mangai et al. | Subspace-based clustering and retrieval of 3-D objects | |
Cernea et al. | Unsupervised ensemble classification for biometric applications | |
JP2004038937A (ja) | 高次固有成分を用いる顔の記述および認識のための方法および装置 | |
Senthilkumar et al. | Improvement and solution to the problems arise in the implementation of facial image recognition algorithms using open source software scilab | |
Rabiei | Automatic face recognition with convolutional neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060516 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20060816 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20060821 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061116 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070509 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20070523 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070619 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070711 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100720 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110720 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110720 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120720 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120720 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130720 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |