JP3986583B2 - 確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置 - Google Patents
確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置 Download PDFInfo
- Publication number
- JP3986583B2 JP3986583B2 JP10002396A JP10002396A JP3986583B2 JP 3986583 B2 JP3986583 B2 JP 3986583B2 JP 10002396 A JP10002396 A JP 10002396A JP 10002396 A JP10002396 A JP 10002396A JP 3986583 B2 JP3986583 B2 JP 3986583B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- input
- main
- subspace
- input vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000004458 analytical method Methods 0.000 title claims description 44
- 238000000034 method Methods 0.000 title claims description 31
- 239000013598 vector Substances 0.000 claims description 46
- 238000012545 processing Methods 0.000 claims description 13
- 238000010606 normalization Methods 0.000 claims description 8
- 230000001815 facial effect Effects 0.000 claims description 6
- 238000007476 Maximum Likelihood Methods 0.000 claims description 4
- 230000000295 complement effect Effects 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 4
- 238000012546 transfer Methods 0.000 claims description 2
- 238000013519 translation Methods 0.000 claims description 2
- 230000000873 masking effect Effects 0.000 claims 2
- 230000014509 gene expression Effects 0.000 description 26
- 230000006870 function Effects 0.000 description 18
- 238000001514 detection method Methods 0.000 description 14
- 230000000875 corresponding effect Effects 0.000 description 7
- 210000000887 face Anatomy 0.000 description 7
- 239000000872 buffer Substances 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000013139 quantization Methods 0.000 description 5
- 238000000354 decomposition reaction Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000031836 visual learning Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 210000001331 nose Anatomy 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 101001059930 Drosophila melanogaster Transcription factor kayak, isoforms A/B/F Proteins 0.000 description 2
- 101001059931 Drosophila melanogaster Transcription factor kayak, isoforms D/sro Proteins 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013144 data compression Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000003954 pattern orientation Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 208000032443 Masked facies Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000013016 learning Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011045 prefiltration Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/738—Presentation of query results
- G06F16/739—Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
【発明の属する技術分野】
本発明は、自動視覚学習に関し、特に、人間の顔のような、各種のタイプの複雑で多特徴のある実体を検出、認識、及び符号化するための、デジタル的に表された画像の解析に関する。
【0002】
【従来の技術】
視覚学習システムは、観察された光景をデジタル表現へと符号化して、ある目的のために、これらの表現を解析する。1つの重要な目的には、特定のタイプ、又は類別の対象物の存在に対して、光景を走査し、次に、検出された対象物に基づいて、更なる解析を実行して、それらを識別、又は少なくとも更に分類することが必然的に含まれる。視覚学習システムのこの応用により、機密保護、法執行、国境管理、又は他の目的のために、顔を検出、及び識別するシステムにおける用途が、最近では見出されている。
【0003】
この解析には、問題とするパターンを系統的に特徴付けて、比較的大きな集合のデータ内に弁別することが可能である、パターン認識技法が要求される。最も成功した技法の幾つかは、本質的に統計的なものである。しかし、生データ(すなわち、画素点、或いは「ピクセル」の格子として、デジタル的に表現される光景)に関してこれらの操作を実行することは、計算上桁外れなものとなる。その代わりに、通常、データは、請け負うべき解析に適した、系統的な表現にされる。予備解析データ処理の1つの技法は、Karhunen-Loeve変換(「KLT」) であり、これは、統計的解析に馴染みのある表現を与えるために、データの分散行列の固有値、及び固有ベクトル解析を伴う(例えば、Kirby 他による、12 IEEE Transactions on Pattern Analysis and Machine Intelligence 103 (1990)を参照されたい)。更に詳細には、対象物は、非常に大きな座標空間内で表現され、そこにおいて、対象物の各ピクセルは、空間の次元に対応するので、対象物は、その空間におけるベクトル(又は、点)に対応する。KLTによれば、調査中の指向(training)集合の、或いは集団の実体画像は、指向画像を、集団の分散行列の固有ベクトルとして表現する、数学的変換を被る。元の指向画像の各々は、各種の固有ベクトルの総和として、正確に表現可能である。
【0004】
かかる固有空間分解は、テンプレート整合、又は正規化相関のような、標準的な検出技法よりも強力であるが、推定技法を、画像の高次元空間に適用すべきである場合、手に負えない計算上の重荷を依然として呈示する。データを効率的に解析するためには、探索が、データ空間の最も顕著な領域に限定可能なように、分割せねばならない。かかる領域を識別する1つの方法は、「主成分解析」(「PCA」) を必要とし、これは、多次元画像空間内の対象物の分布が、特徴領域内にグループ化される傾向を有することを認識して、この領域を規定するために、固有ベクトルの主成分を利用する。固有ベクトルは各々、指向集合の画像間における異なる量の変化の原因となり、画像間の変化のモードを共に特徴付ける、特徴集合と見なすことができる。各対象画像は、指向画像の集合内の最大分散量の原因となる、「最良の」、或いは主成分固有ベクトル(すなわち、それらは、最大固有値を有する)の一次結合により、近似的に表現することができる。米国特許第5,164,992 号(その開示全体を参照として、本明細書に取り入れる)において、例えば、上記の立案が、顔認識システムに使用され、そこでは、主成分が、主部分空間を、すなわち指向画像が群をなす高次元画像空間の「顔空間」領域を規定する。入力画像(又は、画像領域)が走査されて、その画像を顔空間上に数学的に投影することにより、顔の存在が検出される。顔空間からの入力画像(高次元画像空間における点として表現される)の距離を利用して、顔と顔でない間が弁別される。すなわち、計算された距離が、予め選択された閾値より下になった場合、入力画像はおそらく顔である。もう少し一般的には、米国特許第5,164,992 号に記載の技法は、「対象空間からの距離」(「DFOS」)の大きさを利用して、入力画像が、対象物の実体を含むか否かを判定する、ということが言える。
【0005】
計算上は扱い易いが、米国特許第5,164,992 号の手法は、主成分以外の固有ベクトルが、対象空間を規定する際に廃除されるので、基本的には不完全なものである。結果としての局所密度関数は、対象空間を単一の完全体として扱う。すなわち、DFOS計量法は、内部変化がないと仮定した空間からの絶対距離を与える。しかし、対象空間における全パターンが、おそらく等しいと仮定することにおいて、この解析は、ある間違った結果となる傾向がある。例えば、人間の目は、対象物が実存しないと瞬時に認識するが、その指向画像との特定の類似点を共有するパターンは、PCAを用いると、対象分類の構成要素として、間違った類別化を容易になす可能性がある。
【0006】
対象空間が、PCAを用いて規定される、この制限された手法は、対象空間の密度が変動する場合だけでなく、対象空間が多モードである場合にも制限を課す。例えば、指向画像が、異なる視野角で、又は異なる照明条件の下でとられた、顔の写真からなると想定してみる。顔空間における指向の視野の分布は、単一モードにはならず、実際、対象空間において、複雑、且つ分離不可能な多様体上に存在する傾向となる。PCAは、かかる空間配置内において、正確な推定を与えることができない。PCAをかかる多モード環境に適応させるためには、各々異なる視野に対応する、個別の固有空間においてPCAが実行される、視野基準の(又は、対象物基準の)立案を構築すること、或いはスプライン、又は局所基準関数を用いて、普遍の、又は母集団の固有空間に、対象空間多様体の複雑性の捕捉を試行すること、といった方策に頼らねばならない。しかし、これらの適応の何れもが、複雑であり、且つ解析の精度を最終的に劣化させる可能性がある。
【0007】
【発明が解決しようとする課題】
本発明は、推定を導出するために、主成分だけでなく、全ての固有ベクトルを利用する、対象物検出、及び認識に対する手法を提供する。対象空間内の全てのパターンが、ほぼ等しいと仮定する代わりに、対象空間内の確率分布を捕捉する。このようにして、本発明は、対象空間内に入る入力画像に対する、パターン間のより緻密な識別、推論、対象空間内のその代表値の測定を容易にする。換言すると、パターンが、対象空間内に存在するが、指向画像が、群をなす傾向を有する、対象空間の領域近傍のどこにも存在しない場合、本発明は、そのパターンを「代表値ではなく」、おそらく、対象物分類の構成要素ではないと識別する。本発明は、人間の顔、その特徴(例えば、目)といった、実質的に任意の多特徴のある実体だけでなく、また人間の手といった、柔軟で関節のある対象物の検出、及び認識に有益である。
【0008】
本発明は、主固有ベクトル成分に対する解析に限定されないので、多モード分布に容易に適合する。実際、本発明により、異なる対象物視野を表す指向画像の集合が与えられる限り、本発明は、ある範囲の入力パターン配向にわたって、価値のある認識性能をもたらすことが可能である。換言すると、本発明は、内部分布が一様でないだけでなく、多モードでもある対象空間内の弁別が可能である。更に、本発明は、検出が、入力画像内の特徴的パターンの大きさにほとんど独立であるような、縮尺の範囲にわたって動作可能である。本発明により利用される表現は、基本的にはデータ圧縮形式の、高効率なモデル・ベース符号化、機能に向いている。対象物の分類を表す、基本固有ベクトルの集合が、基本ベクトルの重み付け一次結合として表現される、新しい対象物を符号化するための基準として使用され得る。このようにして、新しい対象物が、少数のバイトを用いて表現可能であり、最小限の必要記憶容量で、大画像データベースの効率的な符号化が容易になる。圧縮は、量子化により更に増強され得る。
【0009】
【課題を解決するための手段】
従って、1つの態様において、本発明は、本明細書に記載する原理に従って、散乱した光景において、(顔といった)複雑で多特徴のある対象物、又は実体を検出するための設備である。走査モジュールが、ピクセルの矩形近傍を系統的に識別して、検出モジュールに、各ピクセルに関連した値(例えば、輝度レベル)を渡す。検出モジュールは、ピクセル値を、高次元画像空間(各空間軸に沿ったベクトル成分の長さに対応する、ピクセル値を備えた)におけるベクトルとして表現し、以下で説明するように、このベクトルを固有空間分解上に投影して、ベクトルが、検出すべき対象物のタイプのパターン特徴を含むか否かを判定し(すなわち、ベクトルが、対象空間内に入るかだけでなく、代表値であるか否かも)、もし含む場合、認識モジュールは、入力パターンが、指向画像の集合のうちのいずれの特定ものに対応するかを判定する。更に特定として、本発明は、入力画像が、指向画像集合の全ての固有ベクトル成分に対して考慮されるが、高次元画像空間を通して、明示的な解析を計算する必要のないような、PCA手法に及ぶ。代わりに、本発明は、PCAの部分空間結果を、画像空間における対象物の確率密度の周辺成分の推定として取り扱い、PCA部分空間結果を足場として、統計的に矛盾のない推定枠組みに、PCA投影、及び残りの(主成分でない)固有ベクトル上への入力画像の投影を別個に取り込むことにより、確率密度の完全な推定を達成する。これは、主成分の、及び残りの固有ベクトル空間に関連した、確率密度は、互いと容易には相関しない、ということに関するので、本発明の重要な要素を表す。
【0010】
全体の対象物検出に加えて、本発明は、対象特徴(例えば、顔全体の代わりに、顔の特徴)を自動的に検出、及び識別するように、実施可能である。この機能により、全体の対象物を基準にして、多モードの対象空間密度が何を表すかという、個性が表現される。説明の便宜上、「特徴」という用語は、対象物全体、又はその特徴を意味するために、本明細書において一般的に使用する。
【0011】
他の態様において、本発明は、検出に付随して、又はその代替として、固有対象物、又は固有特徴テンプレート(例えば、固有の顔、固有の目、固有の鼻、固有の口、等)の一次結合に基づいて、対象物、又は特定の対象特徴のモデル・ベース符号化を提供する。固有特徴の表現において、特徴空間からの等価距離(「DFFS」)計量法を用いて、入力画像の各ピクセルの解析から、特徴距離マップが構築される。n個の固有ベクトルを用いた場合、これには、n個の畳み込み(これは、高速フーリエ変換(「FFT」)を用いて、効率的に計算可能である)に加えて、付加的な局所エネルギー計算が必要とされる。次に、この距離マップの大域的最小値が、最良の特徴整合として選択される。この技法の性能は、最近、約8000枚の「警察の記録用の顔(mugshot)」写真のデータベース上で試験され、それに伴い、94%の検出率(標準のテンプレート整合よりも、ほぼ完全な程度の大きさの改善を表す)を達成した。
【0012】
本発明は又、主成分空間内、及びその外側の確率を相関するための、統計的原理を与える、最大公算(「ML」)を用いて、対象物の自動視覚学習、特徴検出、及び識別のための装置を具体化する。好適な実施例において、この装置には、多数の縮尺で画像を走査し、各縮尺において、好適には並列に、ML解析(対象物、又は特徴レベル、或いはその両方での)を実施して、目標特徴の実体を検出する手段と、多次元画像空間における固有ベクトルの集合として、好適には配向、及び照度が一致する、指向画像集合を表現する手段と、指向画像集合と幾何形状、及びグレースケール・コントラストを一致させるために、入力画像の検出成分を調整する手段と、認識を目的として、指向集合の固有空間表現上に、検出された特徴を投影する手段と、固有ベクトル投影係数に関連して、元の画像を再構成するための任意の再構成モジュールと、量子化固有ベクトル投影係数の集合として、調整、及び/又は再構成画像を効率的に表現するための、符号化モジュールとが含まれる。
【0013】
【発明の実施の形態】
以上の説明は、添付図面と関連してなされる、以下の詳細な説明から、更に容易に理解されるであろう。
【0014】
1.画像解析
本発明の手法は、密度推定に基づくものであり、固有空間分解を利用して、高次元画像空間が、計算上で管理可能な部分空間に縮小される。各々が対象物分類Ωの構成要素である、指向画像の集合
【0015】
【数1】
【0016】
に関して、本発明は、分類メンバーシップ関数、又は公算関数P(x|Ω)を推定、すなわち入力画像xが、その分類の構成要素であることを推定する、という課題を提言することができる。
【0017】
この課題に対するPCA手法は、以下の通りである。m×n画像の集合
【0018】
【数2】
【0019】
が与えられると、各画像It のピクセル要素の辞書的な順番により、xが次元mnである(すなわち、x∈RN=mn)、指向集合のベクトル{xt} を形成することが可能である。KLTにおける基本関数は、固有値問題を解くことにより得られる。
【0020】
【数3】
【0021】
ここで、Σは、データの分散で、Φは、Σの固有ベクトル行列で、Λは、固有値の対応する対角行列である。PCAを用いて、局所KLTが、最大固有値の固有ベクトルを識別して、主成分の特徴ベクトル
【0022】
【数4】
【0023】
を得るために実行され、ここで
【0024】
【数5】
【0025】
は、平均正規化画像ベクトルであり、ΦM は、主固有ベクトルを含む、Φの部分行列である。PCAは、最大固有値(すなわち、主成分)に対応する、KLの原理のより低い次元の部分空間を抽出する、一次変換y=T(x):RN→RMとして説明できる。図1に示すように、説明目的のために、表現、及びその特徴(対象物とは反対である)レベルでの解析を仮定するが、これは、領域10内に群をなす主成分を含む超平面である、主部分空間(又は、特徴空間)
【0026】
【数6】
【0027】
、及び図1に直交相補成分で示す残りの成分
【0028】
【数7】
【0029】
からなる、2つの相互に排他的で、且つ相補的な特徴空間への、ベクトル空間RN の直交分解に対応する。特徴空間からの距離(「DFFS」)の大きさは、入力画像xに対して、主特徴部分空間Fからのその画像空間ベクトルの距離を表し、米国特許第5,164,992 号に使用されるような技法は、DFFSが、所定の誤差範囲内にあるか否かを判断し、もし範囲内にある場合、入力画像は、特徴の場合であると見なされる。換言すると、空間F/は、残留再構成誤差を計算するためにだけ用いられる。F/空間にある関連特徴ベクトルに対する、xの関係だけでなく、主ベクトルの群からの、主特徴空間Fにおけるxの投影距離も無視され、すなわち、この後者の「特徴空間の距離」(「DIFS」)パラメータは、最も典型的な特徴が、領域10内、又はその近くに入ることになるので、検討中の特徴タイプの典型的な構成要素として、xが見なせるかどうかの度合いを示す。
【0030】
局所KLを展開すると、残留再構成誤差は、以下のように定義される。
【0031】
【数8】
【0032】
ここで、各量yは、成分固有ベクトル上への投影係数を表し(すなわち、yi は、入力画像に対する、i番目の固有ベクトルの相対分布を意味し、F空間におけるある点を表す)、残留誤差は、平均正規化画像xのM個の主成分、及びL2 ノルム(すなわち、長さを表す、2乗和)から、直接的に計算可能である。図1を参照すると、直交部分空間F/におけるDFFS成分は、単純なユークリッド距離となり、この残留誤差に等しい。DIFS成分(すなわち、特徴空間F内にあるxの成分)は、一般的には、距離に基づいたノルムではないが、Fにおけるyの確率分布に関連して、解釈可能である。
【0033】
与えられた指向集合{xt} から、分布の平均x/、及び分散Σの推定値が与えられると、例えば、米国特許第5,164,992 号で概略示される統計的技法を用いて、公算関数P(x|Ω)は、以下のように表現可能となる。
【0034】
【数9】
【0035】
この関数を特徴付けるのに十分な統計量は、いわゆるMahalanobis 距離であり、これは、多次元の正規化、すなわち互いに、異なる値範囲を有する変数のノルムに関する統計的な縮尺係数を与え、このようにして、「代表値」が、異なる値に及ぶ変数に対し一貫して表現可能となる。Mahalanobis 距離は、以下で与えられる。
【0036】
【数10】
【0037】
Σの固有ベクトル、及び固有値を用いると、以下の直交化形式でΣ-1を書き直すことが可能である。
【0038】
【数11】
【0039】
ここで、y=ΦTx は、KLTにおける座標の変更により得られる、新しい変数である。直交化形式のために、Mahalanobis 距離は又、以下の総和の項で表現可能となる。
【0040】
【数12】
【0041】
以下のように、M個の主投影のみを用いて、d(x)を推定可能である。
【0042】
【数13】
【0043】
ここで、項
【0044】
【数14】
【0045】
は、DFFS残留誤差ε2(x) であり、最初のM個の主成分を用いて計算可能である。従って、P(x|Ω)は、2つの周辺、及び独立ガウス密度の積として、
【0046】
【数15】
【0047】
から推定可能となる。
【0048】
【数16】
【0049】
ここで、PF(x|Ω) は、F空間における真の周辺密度で、
【0050】
【数17】
【0051】
は、直交相補F/空間における推定される周辺密度である。
【0052】
ρの最適値は、Kullback-Leibler発散、又は真の密度とその推定値間の「相対エントロピー」とすべきである、以下の適切な費用関数J(ρ)を最小化することにより決定できる。
【0053】
【数18】
【0054】
【数19】
【0055】
最適な重みρ* は、ρに関して上記関数を最小化することにより、見出し得る。式δJ/δρ=0を解くと、以下の結果が得られる。
【0056】
【数20】
【0057】
これは、直交部分空間F/における固有値の単純な算術平均となる。その最適性に加えて、ρ* は又、結果として以下のように、Mahalanobis 距離の不偏推定値となる。
【0058】
【数21】
【0059】
従って、M次元の主部分空間が定義されると(例えば、PCAにより)、主部分空間だけでなく、全体の画像空間を包囲する、最適密度推定値
【0060】
【数22】
【0061】
は、式11で与えられるρを備えた、式8で与えられる形式を有する。
【0062】
指向集合が、変化する照明条件の下での多数の視野、又は多数の対象物を表す場合、指向視野の分布は、もはや単一モードでなく、例えば、図2に示す任意の多モード密度に類似することになる。空間Fの単一領域10を占有する代わりに、主ベクトルは、領域12、14、16の群を占有する。このタイプの分布をモデル化する1つの手法は、各種の領域が、特定のタイプの画像変化(例えば、頭上、及び左右の輪郭視野)を系統的に反映すると仮定し、画像をグループ内に隔離することにより、解析を分割することである。
【0063】
本発明は、分割といった方策を必要とすることなく、多モードの固有ベクトル空間における、入力画像の唯一の解析を容易にする。F/空間成分が、ガウス状で、F空間における主要特徴とは独立であると仮定すると(これは、例えば、CCDカメラに本質的な「ショット雑音」に起因した、純粋な観測雑音の場合には、真実であろう)、主成分ベクトルyにおける任意の密度P(y)として、PF(x|Ω) を取り扱うことにより、式8の密度推定値
【0064】
【数23】
【0065】
の分離可能形式を依然として利用することが可能になる。図2に示すように、DFFSは、残留誤差ε2(x) に依然として対応するが、DIFSは、もはや単純なMahalanobis 距離として表現することはできない。しかしながら、DIFSをP(y)と関連させることにより、「距離」として、例えばDIFS=−logP(y)として、DIFSを表現することが可能である。
【0066】
主成分ベクトルの密度P(y)は、母数混合モデルを用いて推定可能である。特に、任意の複合密度は、ガウスの混合法を用いて、以下のようにモデル化可能である。
【0067】
【数24】
【0068】
ここで、g(y;μi,Σi)は、平均ベクトルμ、及び分散Σを有する、M次元ガウス密度であり、πi 変数は、制約条件Σπi =1を満足する、成分の混合母数である。この混合は、母数
【0069】
【数25】
【0070】
により完全に指定される。画像の多モード指向集合
【0071】
【数26】
【0072】
が与えられると、混合母数は、ML原理を用いて、以下のように推定可能となる。
【0073】
【数27】
【0074】
この推定問題は、周知の期待値最大化(「EM」)アルゴリズム(例えば、Dempster他による、「EMアルゴリズムによる不完全データからの最大公算(Maximum Likelihood from Incomplete Data via the EM Algorithm)」,Journal of the Royal Statistical Society B, vol.39, 1977、及び Render他による、「混合密度、最大公算、及びEMアルゴリズム(Mixture Densities, Maximum Likelihood and the EM Algorithm)」,26 SIAM Review 195 (1984)を参照されたい。これらの参考文献の各々の内容を参照として、本明細書に取り込む。)を使用して、直接に解かれる。EMアルゴリズムは、公算において単一的収束性であり、従って指向集合の公算全体において、局所最大値を見つけるのが保証される。
【0075】
指向データが、真にM次元(最大で)であり、白色ガウス測定雑音に起因した摂動を除いて、主部分空間Fに唯一属するという、すなわち等価的に、指向データのF/空間成分自体が、分離可能なガウス密度を表すという、動作仮定を与えると、完全公算関数P(x|Ω)の推定値が、以下により与えられる。
【0076】
【数28】
【0077】
単一モード、及び多モードの両方の場合において、密度推定値
【0078】
【数29】
【0079】
は、入力画像(画像空間のベクトルxとして表現される)が、指向画像集合の事例を表すか否かの信頼性のある指示を与える。すなわち、推定値は、DFFSから導出される残留再構成誤差、及びDIFSにより表現される分類代表値の両方を反映する。更に密度推定値
【0080】
【数30】
【0081】
は又、縮小化に向いているので、確率推定値は、画像全体ではなく、画像成分に対して展開可能である。特に、密度推定値を用いて、以下のように、多縮尺の突出マップが形成され、ここで、線形縮小型の入力画像に関して、公算計算が(並列に)実行される。
【0082】
【数31】
【0083】
ここで、xijk は、多縮尺表現において、入力画像の局所的な部分画像から得られるベクトルである。対象物Ωの空間位置、及び縮尺のML推定値は、以下のように得られる。
【0084】
【数32】
【0085】
ここで、i、jは、画像成分を識別し、kは縮尺水準である。
【0086】
対象物、又は特徴のグレースケール出現における多様性は、照明、及びコントラスト変化から生じる。以下で更に詳細に説明するように、各部分画像をその平均、及び標準偏差により正規化することによって、広域的な照度変化に対して(それと同時に、特定のカメラの線形応答特性に対しても)、正規化することが可能である。この照明の正規化は、指向、及び入力画像解析時に、通常実施される。
【0087】
2.ハードウェア実施例
ここで、本発明を取り入れたハードウェア・システムを、ブロック図形式で示す図3を参照する。そこで示されるように、このシステムは、ビデオ源150(例えば、電荷結合素子、すなわち「CCD」カメラ)を含み、それは、解析すべき静止入力画像を供給する。ビデオ源150の出力は、デジタイザ152により、ピクセルマップへとフレームとしてデジタル化される。デジタル化ビデオフレームは、それを介して全ての構成要素が通信を行う、システムバス155上に、ビットストリームとして送られて、大容量記憶装置(ハードディスク、又は光学式記憶ユニットといった)だけでなく、主システムメモリ160(特定として、一連の等サイズの入力画像バッファ162を規定する区分内の)にも格納される。
【0088】
図示のシステムの動作は、中央処理ユニット(「CPU」)170により指令される。以下で説明する、画像処理動作の高速実行を容易にするために、このシステムは、好適には、グラフィック、又は画像処理ボード172を含むが、これは、当業者には周知の標準的な構成要素である。
【0089】
ユーザは、キーボード180、及び位置検知装置(例えば、マウス)182を用いて、システムと対話する。どちらかの装置の出力を用い、情報を指示、又はスクリーンディスプレイ184の特定区域を選択して、システムにより実施されるべき機能が指令される。
【0090】
主メモリ160は、CPU170の動作、及び他のハードウェア構成要素との対話を制御する、一群のモジュールを含む。オペレーティング・システム190が、メモリ割当て、ファイル管理、及び大容量記憶装置157の動作といった、低レベルの基本システム機能を指令する。より高レベルにおいては、一連の格納された命令として実施される、解析モジュール192が、以下で説明するように、本発明により遂行される主要機能の実行を指令し、ユーザインターフェース194を規定する命令が、スクリーンディスプレイ184を介して、直接の対話を可能にする。ユーザインターフェース194は、ユーザによる動作を促すために、言語を、又はディスプレイ上にグラフィック画像を生成して、キーボード180、及び/又は位置検知装置から、ユーザ・コマンドを受け取る。最後に、メモリ160は、大容量記憶装置157に格納されている、固有テンプレートに関して、以前に説明したように、符号化された対象物、又は特徴の画像データベースを格納するための区分196を含む。
【0091】
各画像バッファ162の内容は、「ラスター」、すなわち集合的に1つの画像を表す、離散ピクセル位置の規則的な2次元パターンを規定し、その画像を表示するために、スクリーンディスプレイ184を駆動する(例えば、画像処理ボード172、又は画像サーバの手段により)ためにも使用できる。フレームバッファ 内の各メモリ配置の内容は、ディスプレイ184上において、対応するピクセルの出現を直接支配する。
【0092】
主メモリ160のモジュールを個別に説明したが、これは、呈示を明瞭にするためだけであり、システムが、全ての必要な機能を遂行する限り、それらが、システム、及びそのプログラミング・アーキテクチャー内で、如何に配分されるかは重要ではない、ということを理解されたい。同様に、格子として概念的に構成したが、ピクセルマップは、実際には、この様にして、デジタル的に格納される必要はない。むしろ、メモリ利用、及び転送を簡便にするために、ラスターパターンは、通常、ピクセルの順序アレーとして符号化される。
【0093】
上記のように、本発明に関連した重要なタスクの実行は、CPU170の動作を支配し、且つ対象物、又は特徴を検出、認識、及び符号化するのに必要なステップを遂行する際には、主メモリ160とのその対話を制御する、解析モジュール192により指令される。このモジュールの好適な実施例の構成要素は、図4に示されている。図示の解析モジュール192は、最大推定精度のために、対象物、及び特徴レベルの両方において動作する。しかしながら、これらの機能は、本発明の完全な可能性を明示するが、本発明は、代替として、その両方ではなく、対象物、又は特徴レベルのどちらかにおいても動作可能である(例えば、計算資源を保護するため、又は実時間動作を容易にするために)、ということを理解されたい。
【0094】
図4に示すように、アテンション副システム200、及び対象物中心の表現ステージ(「OCRS」)202が協働して、対象物の可能性のある事例を検出するために、入力画像に関する多縮尺の探索を遂行する。説明上の目的のために、この対象物は、顔であると想定する。本発明の重要な適用は、検出ステージにおいてもたらされる。すなわち、ML解析を用いて、入力画像が、とにかく顔を含むか否かが判定される。
【0095】
副システム200、及びOCRS202の好適な動作モードが、図5に示されている。第1のステップ300において、粗い固有ベクトル顔表現(例えば、10次元の主部分空間、すなわち、最も高い関連性のある固有ベクトルを有する、「固有の顔」の10個の固有ベクトルから構成される「顔空間」を備えた)、及び各種の顔特徴(例えば、目、鼻、及び口)の固有ベクトル表現が、一連の指向画像(好適には、単一の視野角で生成された)から確立される。適切なユーザ・コマンドに応答して、ステップ302において、入力画像が、第1のバッファ162内にロードされて、それを、解析モジュール192が利用可能となる。次に、入力画像は、入力画像よりも小さな複数のレベル(例えば、1/2×、1/4×、等)に、線形縮小されて、k個の縮小画像の各々が、画像バッファ162のうちの異なるバッファに格納される。
【0096】
ステップ304において、各縮小化された入力画像(例えば、20×30ピクセル)の矩形の「ウィンドウ」領域が、通常は画像の角部において規定される。ウィンドウ内のピクセルは、画像空間内の点としてベクトル化され、主部分空間F、及び直交部分空間F/上に投影されて、ステップ306において、式8及び11に従って、確率推定値が得られる。画像の走査が、完全に完了していないならば(ステップ308)、ウィンドウは、同じウィンドウ寸法であるが、既に解析済みのウィンドウから、1ピクセルの距離だけ変移した、新しい領域を規定することにより、「移動」される(ステップ310)。入力画像の縁部に到達した場合、ウィンドウは、1ピクセルの距離だけ垂直に移動されて、走査は、反対方向に再開する。画像走査が完了すると、顔を含む確率の最も高いウィンドウが、式16に従って識別される(ステップ312)。全ての縮尺kに対して、ステップ304−312が繰り返され、それによって、多縮尺の突出マップが生成される。
【0097】
所望ならば、任意の数の適切な方法で、入力画像を予めフィルタリングするように、アテンション副システム200を構成することも可能である。例えば、米国特許第5,164,992 号に記載されるように、動き検出を用いて、光景内の人の存在を識別することが可能であり、また突き止められる人の顔のテンプレート整合解析を用いて、顔がありそうな位置を予測することも可能である。
【0098】
全ての縮小化画像の解析に続いて、最も高い関連性のある確率推定値、及びそれに関連した縮尺kを有する、ウィンドウi、jが、識別されて、翻訳、及び縮尺に対して正規化される(ステップ314)。標準的な画像加工技法を利用して、検出された顔が、束縛ボックスに配置される。ステップ316において、束縛ボックス内の画像が走査されて、顔の特徴(例えば、目、鼻、及び口)の位置が検出される。これは、もう一度、局所ウィンドウ移動、及び固有特徴ベクトルに対する確率推定を行うことにより達成される。束縛ボックス内のこれら特徴の位置を用いて、まず、検出された顔の幾何形状が有効化され、次に、ステップ320において、その顔が、「歪曲(warp)」、すなわち認識の目的のために、指向集合において利用された視野と、その顔が空間的に整合するように、幾何的に変形される。
【0099】
最後に、ステップ322において、束縛画像が、顔の内部のみを含むようにマスキングされ、それにより、最も突出した顔の部位上に、KLTの記述力が集中される。指向ステップ300は、特徴抽出モジュール(「FEM」)204により遂行され、ステップ314−320は、OCRS202により実行され、主部分空間、及び直交部分空間上への入力画像の投影を含む、残りのステップは、アテンション副システム200により実行される。
【0100】
コントラスト正規化モジュール206は、中央化され、マスキングされた顔を処理して、広域的な照度変化、及び/又は特定のCCDカメラの線形応答特性に起因した、入力画像における変動を補償する。というのは、これらの変動は、認識、及び符号化精度に影響を与えることになるためである。標準範囲(すなわち、それ自体が、モジュール206により固定標準に正規化される、指向画像に関連した範囲)に対して、入力画像のグレースケール範囲を正規化することにより、モジュール206は動作する。コントラスト調整に使用される正規化係数は、メモリ内に格納されて、後に、元のコントラストを有する画像の再構成が可能になる。
【0101】
コントラスト正規化に続いて、認識、すなわち指向画像の1つとの顔の整合の目的のために、固有の顔の集合上に顔ベクトルを投影するFEM204により、顔が処理される。このステップは、例えば、米国特許第5,164,992 号に従って実行可能であり、その場合には、固有の顔は、主成分を表し空間Fを規定する。認識、及び学習モジュール(「RLM」)208が、結果としての投影係数を利用して、画像データベース196から顔を突き止め、ここで、顔は、それ自身の投影係数により表される。RLM208は、データベース196から最も近い顔、及び整合のための信頼レベルを戻す。
【0102】
元の画像は、再構成モジュール210により、認識を目的として使用される調整された画像から再構成され、再構成モジュールは、ステップ314、及び318で使用される正規化、及び変形係数だけでなく、モジュール206により使用されるコントラスト調整値も累算して、反対にこれらを適用して、元の入力画像において表されるような顔に到達する。
【0103】
調整された顔画像(、及び/又は再構成された顔、及び/又はFEMにより、投影係数へと処理された入力画像)は、表現効率を最大にするために、符号器モジュール212により符号化することができ、これは、例えば画像を転送すべき、又は放送すべき場合に、特に重要となる。投影係数は、それ自体、ピクセルマップのかなりの圧縮を表すが、符号器212は、その係数の標準偏差(KLTにより計算された固有値の平方根)により、係数を正規化して、その正規化された係数を量子化することによって、投影係数を尚も更に圧縮する。量子化は、例えば、正規化された係数を、離散範囲「容器(bin)」内に割当てる、ガウス源に対するLloyd-Max 量子化器を用いて達成可能であり、ここで、各容器は、対応する浮動小数点係数よりも、小さな量の情報により表すことができ、容器の数(すなわち、量子化レベル)は、量子化された符号化の精細度を決定する。当然ながら、より少ないレベルは、符号化された画像が、固有の顔から再構成された場合に、より貧弱な画像忠実度を意味する。しかしながら、関連した固有の顔が、画像に寄与する度合い、従って、投影係数の重要性を反映する、固有値に従って、投影係数をランク付けすることにより、異なる係数に対して、可変数の量子化レベルを利用する(例えば、所与の係数に割当てられたレベルの数を、その固有値に比例させる)ことで、最小限のメモリ費用と共に忠実度を保持することが可能となる。
【0104】
以前に説明したように、ここでも、本発明の手法は、対象物、又は特徴レベルにおいて有効であることを強調する。これら対象物、及び特徴レベルは、上述のように、特定の用途に依存して、組み合わせるか、又は別個に実施することが可能である。例えば、本発明は、顔により表される多特徴のある実体の「履歴調査」を行って、特定の顔特徴を突き止めることができ、探索された対象特徴が、特に識別可能な特性を具体化する場合、特徴指定の探索は、対象物全体の探索よりも、正確で、且つある場合には高速であることを実証可能である。
【0105】
本発明の固有空間の密度推定技法は、顔といった質感のある、又は細部の対象物には限定されない。例えば、その多様性が、質感ではなく形状から生じる、手といった、本質的に質感のない対象物に、本発明は首尾良く適用された。照度、コントラスト、及びシーン背景に関して不変である、手の形状のエッジに基づく表現を利用することにより、ジェスチャー形式で純粋に表現される、対象物の同一性に関して動作する本発明の能力が明示された。
【0106】
この実施例において、まず、手振りの指向集合が、黒の背景に対してデジタル的に捕捉された。次に、手の2次元輪郭が、Canny エッジ・オペレータを用いて、抽出された。しかし、結果としての2値のエッジ・マップは、その散在した分布に起因して、互いにほとんど相関がなく、それにより非常に高次元の主部分空間となった。本来の次元の数を縮小するために、空間相関を、2値のエッジ・マップ上で、拡散処理を介して導入した。この処理は、効果的にエッジを広げ、「ぼかし(smears)」て、それにより、エッジの空間分布に関連して、対象形状を表す、連続的な値のついた輪郭画像がもたらされる。この表現は、米国特許第5,164,992 号に開示されている認識手法が、16次元の主部分空間の高精度で、手振り(それらは、生成された拡散エッジ・マップに対して、前処理されるが)を入力するために、ジェスチャー分類を割当てるように、計算上扱いやすいレベルにまで主部分空間を縮小した。
【0107】
本発明は、検出(アテンション、及び表現)ステージ、すなわち散乱したシーンにおいて、手(その関節状態の何れかにおける)を発見し、その縮尺を明らかにし、それを、認識の前に、基準フレームに対して整合させるためのステージにおいて、上記の環境に適用された。この局所化は、手の基礎をなす画像表現が、グレースケール画像ではなく、拡散エッジ・マップであったことを除いて、上記のシステムにより達成された。
【0108】
しかし、この場合、指向データの分布は、各ジェスチャーに対して、基本的に異なる手の形状に起因して、多モードであった。従って、アテンション副システムは、式8及び11ではなく、式13−15と関連して説明した手法を利用した。この推定値のパラメータは、EMアルゴリズムの20の交互作用により得られた。各入力シーンは、まず、拡散エッジ・マップを生成するために前処理され、次に、多縮尺の突出計算を容易にするために、上記のように縮小化された。本発明は、散乱した背景シーンを含む画像において、手を十分な精度で、検出、及び局所化するために見出された。
【0109】
従って、以上のことは、対象物、及びその特徴の検出、認識、及び符号化に対して、非常に拡張性があり、且つ有利な手法を表すことが、理解されるであろう。本明細書において用いた用語、及び表現は、限定としてではなく、説明の用語として用いたものであり、また、かかる用語、及び表現を用いる際に、図示、及び記載した特徴の何れの等価物、及びその部分を包含しない、という意図はなく、各種の修正が、特許請求の範囲で規定される、本発明の範囲内で可能である、ということを認識されたい。例えば、本発明の各種のモジュールが、適切なソフトウェア命令を用いる汎用のコンピュータ上で、又はハードウェア回路として、或いはハードウェア・ソフトウェアを混合した組合せとして実施可能である(ここで、例えば、ピクセル加工、及びレンダリングは、専用ハードウェア構成要素により実行される)。
【0110】
【発明の効果】
本発明は上述のように、対象空間内の全てのパターンが、ほぼ等しいと仮定する代わりに、対象空間内の確率分布を捕捉する。このようにして、本発明は、対象空間内に入る入力画像に対する、パターン間のより緻密な識別、推論、対象空間内のその代表値の測定を容易にする。換言すると、パターンが、対象空間内に存在するが、指向画像が、群をなす傾向を有する、対象空間の領域近傍のどこにも存在しない場合、本発明は、そのパターンを「代表値ではなく」、おそらく、対象物分類の構成要素ではないと識別する。本発明は、人間の顔、その特徴(例えば、目)といった、実質的に任意の多特徴のある実体だけでなく、また人間の手といった、柔軟で関節のある対象物の検出、及び認識に有益である。
【0111】
本発明は、主固有ベクトル成分に対する解析に限定されないので、多モード分布に容易に適合する。実際、本発明により、異なる対象物視野を表す指向画像の集合が与えられる限り、本発明は、ある範囲の入力パターン配向にわたって、価値のある認識性能をもたらすことが可能である。換言すると、本発明は、内部分布が一様でないだけでなく、多モードでもある対象空間内の弁別が可能である。更に、本発明は、検出が、入力画像内の特徴的パターンの大きさにほとんど独立であるような、縮尺の範囲にわたって動作可能である。本発明により利用される表現は、基本的にはデータ圧縮形式の、高効率なモデル・ベース符号化、機能に向いている。対象物の分類を表す、基本固有ベクトルの集合が、基本ベクトルの重み付け一次結合として表現される、新しい対象物を符号化するための基準として使用され得る。このようにして、新しい対象物が、少数のバイトを用いて表現可能であり、最小限の必要記憶容量で、大画像データベースの効率的な符号化が容易になる。圧縮は、量子化により更に増強され得る。
【図面の簡単な説明】
【図1】単一モード分布における主成分を含む主部分空間、及び残りの成分を含む直交部分空間において、特徴、又は対象物を示す。
【図2】多モード分布における主成分を含む主部分空間、及び残りの成分を含む直交部分空間において、特徴、又は対象物を示す。
【図3】本発明のための代表的なハードウェア環境を概略的に示す。
【図4】ブロック図形式で、更に詳細な解析モジュールを示す。
【図5】解析モジュールのアテンション副システム、及び対象物中心の表現の構成要素の動作を示す、フローチャートである。
【符号の説明】
Claims (20)
- デジタル的に表現された入力画像において、選択された特徴を検出する方法であって、
a.多次元画像空間内における固有ベクトルの集合として、選択された特徴の事例の指向集合を表し、
b.前記画像空間内における入力ベクトルとして、前記入力画像の部分を表し、
c.前記選択された特徴の事例を含んでいる画像部分に前記入力ベクトルが対応する可能性を示す確率レベルを、各入力ベクトルごとに推定するために、公算関数を用いて、前記入力ベクトルについての密度推定解析を実行し、及び、
d.最も高い関連性のある確率レベルを有する画像部分を、前記密度推定解析によって得られた推定値からピーク確率を決定することによって識別する
といった各ステップを含み、
前記密度推定解析は、M個の主固有ベクトル成分と、残りのN個の固有ベクトル成分とを含めた全固有ベクトル成分を利用して、次式で表わされた前記公算関数によって実施され、
ρは次式で表わされた最適な重み値を表し、
- 前記密度推定解析を実行するステップは、
a.前記画像空間を、主部分空間と、該主部分空間に直交した部分空間である直交部分空間とに分割し、該主部分空間は、主固有ベクトルの単一モード集合を含み、
b.1つの入力ベクトルにより識別された点と、前記主部分空間との間の距離を計算し、
c.前記入力ベクトルを、前記主部分空間上に投影し、
d.前記主固有ベクトルに関して、前記入力ベクトルの投影の確率分布を計算し、及び、
e.前記選択された特徴の事例を含んでいる画像部分に前記入力ベクトルが対応する可能性を示す確率レベルを、前記公算関数を用いて、計算された距離、及び計算された確率分布から、推定する
といった各ステップを含むことからなる、請求項1に記載の方法。 - 前記推定するステップは、前記主部分空間における第1の周辺確率密度と、及び前記直交部分空間における第2の周辺確率密度とを計算して、該第1及び第2の確率密度を乗算することを含み、前記第1の確率密度は、真の密度であり、前記第2の確率密度は、前記主部分空間とは相補的な前記直交部分空間において推定される密度であることからなる、請求項2に記載の方法。
- 前記密度推定解析を実行するステップは、
a.前記画像空間を、主部分空間と、該主部分空間に直交した部分空間である直交部分空間とに分割し、該主部分空間は、主固有ベクトルの多モード集合を含み、
b.1つの入力ベクトルにより識別された点と、前記主部分空間との間の距離を計算し、
c.前記入力ベクトルを、前記主部分空間上に投影し、
d.パラメータ混合モデルを用いて、前記主固有ベクトルに関して、前記入力ベクトルの投影の確率分布を計算し、及び、
e.前記選択された特徴の事例を含んでいる画像部分に前記入力ベクトルが対応する可能性を示す確率レベルを、前記公算関数を用いて、前記計算された距離、及び前記計算された確率分布から推定する
といった各ステップを含むことからなる、請求項1に記載の方法。 - 各識別された画像部分に対して、該識別された画像部分に含まれる事例が、もしあれば、前記選択された特徴のデジタル的に表現された事例の基準集合のうちの、何れのものに類似するかを認識モジュールが、画像データベース内に格納された画像データを用いて判定する認識ステップを更に含む、請求項1に記載の方法。
- 前記デジタル的に表現された事例の基準集合は、前記主部分空間内における複数のベクトルにより表現され、前記認識ステップは、前記入力ベクトルを、主部分空間上に投影することと、そこに最も近い事例ベクトルを突き止めることとを含むことからなる、請求項5に記載の方法。
- 各識別された画像部分を、量子化された投影係数の集合として、符号化するステップを更に含む、請求項1に記載の方法。
- 前記選択された特徴は、顔であることからなる、請求項1に記載の方法。
- 前記選択された特徴は、顔の特徴であることからなる、請求項1に記載の方法。
- デジタル的に表現された入力画像において、選択された特徴を検出するための装置であって、
a.前記入力画像を格納するためのコンピュータ・メモリと、
b.多次元画像空間内における固有ベクトルの集合として、前記選択された特徴の事例の指向集合を表すための手段と、
c.前記格納された入力画像の少なくとも一部を分離して、それを、前記画像空間における入力ベクトルとして表すための手段と、
d.前記選択された特徴の事例を含んでいる画像部分に前記入力ベクトルが対応する可能性を示す確率レベルを推定するために、公算関数を用いて、前記入力ベクトルを解析するための画像処理手段
とを備え、
前記手段はいずれも、前記コンピュータ・メモリ内に格納された解析モジュール内に含まれ、該解析モジュールが、CPUの制御下において解析を実行し、
前記解析は、M個の主固有ベクトル成分と、残りのN個の固有ベクトル成分とを含めた全固有ベクトル成分を利用して、次式で表わされた前記公算関数によって実施され、
ρは次式で表わされた最適な重み値を表し、
- 各入力画像は、複数のピクセルとして表現されるものであり、
a.複数の縮尺率で、前記入力画像を表すための手段と、
b.各縮尺率の画像に対して、該画像の固定数のピクセルを含むウィンドウを画定して、各ウィンドウごとの確率レベルを生成するために、前記画像処理手段に各ウィンドウの内容を転送するための手段と、
c.最も高い関連性のある確率を有するウィンドウを、前記解析によって得られた推定値からピーク確率を決定することによって識別するための手段
とを前記解析モジュールが更に備えることからなる、請求項10に記載の装置。 - 前記画像処理手段は、
a.前記画像空間を、主部分空間と、該主部分空間に直交した部分空間である直交部分空間とに分割する目的であって、該主部分空間は、主固有ベクトルの単一モード集合を含むことからなる、目的と、
b.1つの入力ベクトルにより識別された点と、前記主部分空間との間の距離を計算する目的と、
c.前記入力ベクトルを、前記主部分空間上に投影する目的と、
d.前記主固有ベクトルに関して、前記入力ベクトルの投影の確率分布を計算する目的と、
e.前記選択された特徴の事例を含んでいる画像部分に前記入力ベクトルが対応する可能性を示す確率レベルを、前記公算関数を用いて、前記計算された距離、及び前記計算された確率分布から推定する目的
とからなる目的のために構成されることからなる、請求項10に記載の装置。 - 前記画像処理手段は、最大公算解析法(ML法)を用いて、確率レベルを推定する、請求項12に記載の装置。
- 確率レベルに基づいて、前記選択された特徴の事例を含んでいる可能性のある少なくとも1つの入力ベクトルを前記公算関数によって得られた推定値から識別するための手段を前記解析モジュールが更に備える、請求項10に記載の装置。
- 特徴事例の前記指向集合は、単一の視野角において生成されるものであり、
各識別された入力ベクトルに対応する、入力画像の部分を、分離して、処理するための手段であって、
a.翻訳及び縮尺に関連して、前記入力画像の部分を正規化するための手段と、
b.前記入力画像の部分内における、複数の部分特徴を識別するための手段と、
c.格納されているテンプレートとの幾何的一致について、識別された部分特徴を解析するための有効化手段と、
d.前記視野角との一致のために、有効化された入力画像の部分を空間的に整合させるための歪曲手段と、
e.前記整合された入力画像の部分のうち、前記特徴事例に対応しない部分をマスクするためのマスキング手段
とを含むことからなる手段を、前記解析モジュールが更に備えることからなる、請求項14に記載の装置。 - コントラストの変動を補償するために、マスキングされた画像を処理するための、コントラスト正規化手段を前記解析モジュールが更に備える、請求項15に記載の装置。
- a.指向画像の各々を、固有ベクトルの集合上への投影係数の集合として、格納するためのデータベースと、
b.識別手段であって、
(i) 入力投影係数の集合を得るために、固有ベクトルの集合上に、マスクされた画像を投影するための手段と、
(ii)投影係数が前記入力投影係数と最も近く整合する前記指向画像を突き止めるための手段
とを含むことからなる、識別手段
とを、前記解析モジュールが更に備えることからなる、請求項15に記載の装置。 - 前記識別手段は、選択された指向画像の係数と、可能性を示す確率レベルの推定値に基づいて得られた前記入力投影係数とが整合する度合いを示す信頼レベルを、前記データベースに基づいて計算するための手段を含む、請求項17に記載の装置。
- 前記分離して、処理された入力画像の部分から、前記解析によって得られた正規化係数、変形係数、及びコントラスト調整値を累積することによって、元の入力画像を再構成するための再構成モジュールを更に備える、請求項15に記載の装置。
- 符号器モジュールであって、それ自体が、
a.入力投影係数の集合を得るために、固有ベクトルの集合上に、マスクされた画像を投影するための手段と、
b.前記入力投影係数を量子化するための手段
とを含む該符号器モジュールを、更に備えることからなる、請求項15に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/425,579 US5710833A (en) | 1995-04-20 | 1995-04-20 | Detection, recognition and coding of complex objects using probabilistic eigenspace analysis |
US425579 | 2003-04-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08339445A JPH08339445A (ja) | 1996-12-24 |
JP3986583B2 true JP3986583B2 (ja) | 2007-10-03 |
Family
ID=23687155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10002396A Expired - Lifetime JP3986583B2 (ja) | 1995-04-20 | 1996-04-22 | 確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US5710833A (ja) |
JP (1) | JP3986583B2 (ja) |
Families Citing this family (196)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USRE48056E1 (en) | 1991-12-23 | 2020-06-16 | Blanding Hovenweep, Llc | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
USRE46310E1 (en) | 1991-12-23 | 2017-02-14 | Blanding Hovenweep, Llc | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US6850252B1 (en) * | 1999-10-05 | 2005-02-01 | Steven M. Hoffberg | Intelligent electronic appliance system and method |
USRE47908E1 (en) | 1991-12-23 | 2020-03-17 | Blanding Hovenweep, Llc | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US10361802B1 (en) | 1999-02-01 | 2019-07-23 | Blanding Hovenweep, Llc | Adaptive pattern recognition based control system and method |
US6418424B1 (en) | 1991-12-23 | 2002-07-09 | Steven M. Hoffberg | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US6400996B1 (en) | 1999-02-01 | 2002-06-04 | Steven M. Hoffberg | Adaptive pattern recognition based control system and method |
US5903454A (en) | 1991-12-23 | 1999-05-11 | Hoffberg; Linda Irene | Human-factored interface corporating adaptive pattern recognition based controller apparatus |
US5799301A (en) * | 1995-08-10 | 1998-08-25 | International Business Machines Corporation | Apparatus and method for performing adaptive similarity searching in a sequence database |
US6430307B1 (en) * | 1996-06-18 | 2002-08-06 | Matsushita Electric Industrial Co., Ltd. | Feature extraction system and face image recognition system |
US5901244A (en) * | 1996-06-18 | 1999-05-04 | Matsushita Electric Industrial Co., Ltd. | Feature extraction system and face image recognition system |
US5940825A (en) * | 1996-10-04 | 1999-08-17 | International Business Machines Corporation | Adaptive similarity searching in sequence databases |
US6041147A (en) * | 1996-10-15 | 2000-03-21 | Hughes Electronics Corporation | Content-based indexing of images by coding levels defined as a function of reduced entropy |
US6345109B1 (en) * | 1996-12-05 | 2002-02-05 | Matsushita Electric Industrial Co., Ltd. | Face recognition-matching system effective to images obtained in different imaging conditions |
US6185337B1 (en) * | 1996-12-17 | 2001-02-06 | Honda Giken Kogyo Kabushiki Kaisha | System and method for image recognition |
US6526156B1 (en) * | 1997-01-10 | 2003-02-25 | Xerox Corporation | Apparatus and method for identifying and tracking objects with view-based representations |
US5917927A (en) * | 1997-03-21 | 1999-06-29 | Satake Corporation | Grain inspection and analysis apparatus and method |
US5983218A (en) * | 1997-06-30 | 1999-11-09 | Xerox Corporation | Multimedia database for use over networks |
DE19731111B4 (de) * | 1997-07-19 | 2005-10-27 | Eads Deutschland Gmbh | Verfahren zur Identifizierung sowie Klassifizierung eines Zieles |
US6141463A (en) * | 1997-10-10 | 2000-10-31 | Electric Planet Interactive | Method and system for estimating jointed-figure configurations |
WO1999019840A1 (en) * | 1997-10-15 | 1999-04-22 | Electric Planet, Inc. | A system and method for generating an animatable character |
GB2330679B (en) * | 1997-10-21 | 2002-04-24 | 911 Emergency Products Inc | Warning signal light |
US6035055A (en) * | 1997-11-03 | 2000-03-07 | Hewlett-Packard Company | Digital image management system in a distributed data access network system |
US6539103B1 (en) * | 1997-11-12 | 2003-03-25 | The University Of Utah | Method and apparatus for image reconstruction using a knowledge set |
US6272230B1 (en) * | 1998-02-11 | 2001-08-07 | Analogic Corporation | Apparatus and method for optimizing detection of objects in computed tomography data |
US6466894B2 (en) * | 1998-06-18 | 2002-10-15 | Nec Corporation | Device, method, and medium for predicting a probability of an occurrence of a data |
DE19832974A1 (de) * | 1998-07-22 | 2000-01-27 | Siemens Ag | Vorrichtung und Verfahren zur Erstellung eines virtuellen Anlagenmodells |
US6466685B1 (en) * | 1998-07-14 | 2002-10-15 | Kabushiki Kaisha Toshiba | Pattern recognition apparatus and method |
US6292575B1 (en) | 1998-07-20 | 2001-09-18 | Lau Technologies | Real-time facial recognition and verification system |
US7036094B1 (en) | 1998-08-10 | 2006-04-25 | Cybernet Systems Corporation | Behavior recognition system |
US20010008561A1 (en) * | 1999-08-10 | 2001-07-19 | Paul George V. | Real-time object tracking system |
US6681031B2 (en) | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6950534B2 (en) | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6265993B1 (en) * | 1998-10-01 | 2001-07-24 | Lucent Technologies, Inc. | Furlable keyboard |
US6463163B1 (en) * | 1999-01-11 | 2002-10-08 | Hewlett-Packard Company | System and method for face detection using candidate image region selection |
KR100671098B1 (ko) * | 1999-02-01 | 2007-01-17 | 주식회사 팬택앤큐리텔 | 모양정보를 이용한 멀티미디어 데이터의 검색 방법 및 장치 |
US7904187B2 (en) | 1999-02-01 | 2011-03-08 | Hoffberg Steven M | Internet appliance system and method |
WO2000046736A1 (en) * | 1999-02-05 | 2000-08-10 | Yoav Smith | Similarity measurement method for the classification of medical images into predetermined categories |
US8095581B2 (en) * | 1999-02-05 | 2012-01-10 | Gregory A Stobbs | Computer-implemented patent portfolio analysis method and apparatus |
US6647139B1 (en) * | 1999-02-18 | 2003-11-11 | Matsushita Electric Industrial Co., Ltd. | Method of object recognition, apparatus of the same and recording medium therefor |
US6360013B1 (en) * | 1999-03-16 | 2002-03-19 | Academia Sinica | Fast method and system for template matching acquiring global optima |
JP2000275757A (ja) * | 1999-03-24 | 2000-10-06 | Fuji Photo Film Co Ltd | 画像評価方法及び装置 |
US6320976B1 (en) * | 1999-04-01 | 2001-11-20 | Siemens Corporate Research, Inc. | Computer-assisted diagnosis method and system for automatically determining diagnostic saliency of digital images |
US6337927B1 (en) * | 1999-06-04 | 2002-01-08 | Hewlett-Packard Company | Approximated invariant method for pattern detection |
US6400846B1 (en) * | 1999-06-04 | 2002-06-04 | Mitsubishi Electric Research Laboratories, Inc. | Method for ordering image spaces to search for object surfaces |
JP4332649B2 (ja) | 1999-06-08 | 2009-09-16 | 独立行政法人情報通信研究機構 | 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体 |
AUPQ136299A0 (en) * | 1999-07-02 | 1999-07-22 | Microsystem Controls Pty Ltd | Coin validation |
US6501857B1 (en) * | 1999-07-20 | 2002-12-31 | Craig Gotsman | Method and system for detecting and classifying objects in an image |
US6850891B1 (en) | 1999-07-23 | 2005-02-01 | Ernest H. Forman | Method and system of converting data and judgements to values or priorities |
US7468677B2 (en) * | 1999-08-04 | 2008-12-23 | 911Ep, Inc. | End cap warning signal assembly |
US6547410B1 (en) * | 2000-07-28 | 2003-04-15 | 911 Emergency Products, Inc. | LED alley/take-down light |
US6990217B1 (en) * | 1999-11-22 | 2006-01-24 | Mitsubishi Electric Research Labs. Inc. | Gender classification with support vector machines |
US6975755B1 (en) | 1999-11-25 | 2005-12-13 | Canon Kabushiki Kaisha | Image processing method and apparatus |
GB2359885B (en) * | 1999-11-25 | 2004-09-29 | Canon Kk | Image processing method and apparatus |
GB2359883B (en) * | 1999-11-25 | 2004-05-12 | Canon Kk | Image processing method and apparatus |
GB2359884B (en) * | 1999-11-25 | 2004-06-30 | Canon Kk | Image processing method and apparatus |
KR100343223B1 (ko) * | 1999-12-07 | 2002-07-10 | 윤종용 | 화자 위치 검출 장치 및 그 방법 |
US6940545B1 (en) | 2000-02-28 | 2005-09-06 | Eastman Kodak Company | Face detecting camera and method |
US7212668B1 (en) * | 2000-08-18 | 2007-05-01 | Eastman Kodak Company | Digital image processing system and method for emphasizing a main subject of an image |
US6853745B1 (en) * | 2000-11-03 | 2005-02-08 | Nec Laboratories America, Inc. | Lambertian reflectance and linear subspaces |
US7439847B2 (en) * | 2002-08-23 | 2008-10-21 | John C. Pederson | Intelligent observation and identification database system |
JP4590717B2 (ja) * | 2000-11-17 | 2010-12-01 | ソニー株式会社 | 顔識別装置及び顔識別方法 |
EP1217574A3 (en) * | 2000-12-19 | 2004-05-19 | Matsushita Electric Industrial Co., Ltd. | A method for lighting- and view-angle-invariant face description with first- and second-order eigenfeatures |
US6829384B2 (en) | 2001-02-28 | 2004-12-07 | Carnegie Mellon University | Object finder for photographic images |
EP2246799A1 (en) | 2001-05-15 | 2010-11-03 | Psychogenics Inc. | Systems and methods for monitoring behaviour informatics |
US7027620B2 (en) * | 2001-06-07 | 2006-04-11 | Sony Corporation | Method of recognizing partially occluded and/or imprecisely localized faces |
US6859210B2 (en) | 2001-07-06 | 2005-02-22 | Eastman Kodak Company | Method for representing a digital color image using a set of palette colors based on detected important colors |
US7085774B2 (en) * | 2001-08-30 | 2006-08-01 | Infonox On The Web | Active profiling system for tracking and quantifying customer conversion efficiency |
US7237115B1 (en) * | 2001-09-26 | 2007-06-26 | Sandia Corporation | Authenticating concealed private data while maintaining concealment |
US20040201738A1 (en) * | 2001-11-13 | 2004-10-14 | Tabula Rasa, Inc. | Method and apparatus for providing automatic access to images captured at diverse recreational venues |
AUPR899401A0 (en) | 2001-11-21 | 2001-12-13 | Cea Technologies Pty Limited | Method and apparatus for non-motion detection |
AU2002342393B2 (en) * | 2001-11-21 | 2007-01-25 | Iomniscient Pty Ltd | Non-motion detection |
US7054468B2 (en) | 2001-12-03 | 2006-05-30 | Honda Motor Co., Ltd. | Face recognition using kernel fisherfaces |
US7050636B2 (en) * | 2001-12-07 | 2006-05-23 | Eastman Kodak Company | Method and system for improving an image characteristic based on image content |
US7092573B2 (en) * | 2001-12-10 | 2006-08-15 | Eastman Kodak Company | Method and system for selectively applying enhancement to an image |
JP3903783B2 (ja) * | 2001-12-14 | 2007-04-11 | 日本電気株式会社 | 顔メタデータ生成方法および装置、並びに顔類似度算出方法および装置 |
US20030113002A1 (en) * | 2001-12-18 | 2003-06-19 | Koninklijke Philips Electronics N.V. | Identification of people using video and audio eigen features |
US7472062B2 (en) * | 2002-01-04 | 2008-12-30 | International Business Machines Corporation | Efficient recursive clustering based on a splitting function derived from successive eigen-decompositions |
US7035431B2 (en) * | 2002-02-22 | 2006-04-25 | Microsoft Corporation | System and method for probabilistic exemplar-based pattern tracking |
US20030161507A1 (en) * | 2002-02-28 | 2003-08-28 | Spectra Systems Corporation | Method and apparatus for performing facial recognition with a hand-held imaging device |
EP1343107A3 (en) * | 2002-03-04 | 2005-03-23 | Samsung Electronics Co., Ltd. | Method and apparatus for recognising faces using principal component analysis and second order independent component analysis on parts of the image faces |
JP4210137B2 (ja) * | 2002-03-04 | 2009-01-14 | 三星電子株式会社 | 2次icaを利用した顔認識法及びその装置 |
JP3873793B2 (ja) * | 2002-03-29 | 2007-01-24 | 日本電気株式会社 | 顔メタデータ生成方法および顔メタデータ生成装置 |
US7199793B2 (en) | 2002-05-21 | 2007-04-03 | Mok3, Inc. | Image-based modeling and photo editing |
US7379602B2 (en) * | 2002-07-29 | 2008-05-27 | Honda Giken Kogyo Kabushiki Kaisha | Extended Isomap using Fisher Linear Discriminant and Kernel Fisher Linear Discriminant |
US7035461B2 (en) * | 2002-08-22 | 2006-04-25 | Eastman Kodak Company | Method for detecting objects in digital images |
US7283664B2 (en) * | 2002-09-25 | 2007-10-16 | Southwest Research Institute | Interactive computer aided analysis of images from sensor combinations |
US7130474B2 (en) * | 2002-09-27 | 2006-10-31 | Eastman Kodak Company | Method and system for generating digital image files for a limited display |
US7194114B2 (en) * | 2002-10-07 | 2007-03-20 | Carnegie Mellon University | Object finder for two-dimensional images, and system for determining a set of sub-classifiers composing an object finder |
JP4080843B2 (ja) * | 2002-10-30 | 2008-04-23 | 株式会社東芝 | 不揮発性半導体記憶装置 |
KR100473598B1 (ko) * | 2002-11-04 | 2005-03-11 | 삼성전자주식회사 | 가려진 얼굴영상을 판단하는 시스템 및 방법 |
US20040196282A1 (en) * | 2003-02-14 | 2004-10-07 | Oh Byong Mok | Modeling and editing image panoramas |
US7039222B2 (en) * | 2003-02-28 | 2006-05-02 | Eastman Kodak Company | Method and system for enhancing portrait images that are processed in a batch mode |
US7327374B2 (en) * | 2003-04-30 | 2008-02-05 | Byong Mok Oh | Structure-preserving clone brush |
US7317815B2 (en) * | 2003-06-26 | 2008-01-08 | Fotonation Vision Limited | Digital image processing composition using face detection information |
US8330831B2 (en) * | 2003-08-05 | 2012-12-11 | DigitalOptics Corporation Europe Limited | Method of gathering visual meta data using a reference image |
US8494286B2 (en) | 2008-02-05 | 2013-07-23 | DigitalOptics Corporation Europe Limited | Face detection in mid-shot digital images |
US8498452B2 (en) * | 2003-06-26 | 2013-07-30 | DigitalOptics Corporation Europe Limited | Digital image processing using face detection information |
US7440593B1 (en) | 2003-06-26 | 2008-10-21 | Fotonation Vision Limited | Method of improving orientation and color balance of digital images using face detection information |
US7616233B2 (en) * | 2003-06-26 | 2009-11-10 | Fotonation Vision Limited | Perfecting of digital image capture parameters within acquisition devices using face detection |
US8682097B2 (en) * | 2006-02-14 | 2014-03-25 | DigitalOptics Corporation Europe Limited | Digital image enhancement with reference images |
US7620218B2 (en) | 2006-08-11 | 2009-11-17 | Fotonation Ireland Limited | Real-time face tracking with reference images |
US7362368B2 (en) * | 2003-06-26 | 2008-04-22 | Fotonation Vision Limited | Perfecting the optics within a digital image acquisition device using face detection |
US7315630B2 (en) | 2003-06-26 | 2008-01-01 | Fotonation Vision Limited | Perfecting of digital image rendering parameters within rendering devices using face detection |
US7680342B2 (en) | 2004-08-16 | 2010-03-16 | Fotonation Vision Limited | Indoor/outdoor classification in digital images |
US8593542B2 (en) * | 2005-12-27 | 2013-11-26 | DigitalOptics Corporation Europe Limited | Foreground/background separation using reference images |
US7565030B2 (en) * | 2003-06-26 | 2009-07-21 | Fotonation Vision Limited | Detecting orientation of digital images using face detection information |
US7269292B2 (en) * | 2003-06-26 | 2007-09-11 | Fotonation Vision Limited | Digital image adjustable compression and resolution using face detection information |
US7574016B2 (en) | 2003-06-26 | 2009-08-11 | Fotonation Vision Limited | Digital image processing using face detection information |
US8989453B2 (en) * | 2003-06-26 | 2015-03-24 | Fotonation Limited | Digital image processing using face detection information |
US8896725B2 (en) | 2007-06-21 | 2014-11-25 | Fotonation Limited | Image capture device with contemporaneous reference image capture mechanism |
US9129381B2 (en) * | 2003-06-26 | 2015-09-08 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US7587068B1 (en) | 2004-01-22 | 2009-09-08 | Fotonation Vision Limited | Classification database for consumer digital images |
US7792970B2 (en) * | 2005-06-17 | 2010-09-07 | Fotonation Vision Limited | Method for establishing a paired connection between media devices |
US7844076B2 (en) * | 2003-06-26 | 2010-11-30 | Fotonation Vision Limited | Digital image processing using face detection and skin tone information |
US8155397B2 (en) * | 2007-09-26 | 2012-04-10 | DigitalOptics Corporation Europe Limited | Face tracking in a camera processor |
US8553949B2 (en) * | 2004-01-22 | 2013-10-08 | DigitalOptics Corporation Europe Limited | Classification and organization of consumer digital images using workflow, and face detection and recognition |
US9692964B2 (en) | 2003-06-26 | 2017-06-27 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US8948468B2 (en) | 2003-06-26 | 2015-02-03 | Fotonation Limited | Modification of viewing parameters for digital images using face detection information |
US7792335B2 (en) | 2006-02-24 | 2010-09-07 | Fotonation Vision Limited | Method and apparatus for selective disqualification of digital images |
US8363951B2 (en) | 2007-03-05 | 2013-01-29 | DigitalOptics Corporation Europe Limited | Face recognition training method and apparatus |
US7471846B2 (en) * | 2003-06-26 | 2008-12-30 | Fotonation Vision Limited | Perfecting the effect of flash within an image acquisition devices using face detection |
WO2005036877A1 (en) | 2003-09-12 | 2005-04-21 | Nielsen Media Research, Inc. | Digital video signature apparatus and methods for use with video program identification systems |
US7388971B2 (en) * | 2003-10-23 | 2008-06-17 | Northrop Grumman Corporation | Robust and low cost optical system for sensing stress, emotion and deception in human subjects |
KR100543706B1 (ko) * | 2003-11-28 | 2006-01-20 | 삼성전자주식회사 | 비젼기반 사람 검출방법 및 장치 |
GB2409027A (en) * | 2003-12-11 | 2005-06-15 | Sony Uk Ltd | Face detection |
US7555148B1 (en) | 2004-01-22 | 2009-06-30 | Fotonation Vision Limited | Classification system for consumer digital images using workflow, face detection, normalization, and face recognition |
US7558408B1 (en) | 2004-01-22 | 2009-07-07 | Fotonation Vision Limited | Classification system for consumer digital images using workflow and user interface modules, and face detection and recognition |
US7564994B1 (en) * | 2004-01-22 | 2009-07-21 | Fotonation Vision Limited | Classification system for consumer digital images using automatic workflow and face detection and recognition |
US7551755B1 (en) | 2004-01-22 | 2009-06-23 | Fotonation Vision Limited | Classification and organization of consumer digital images using workflow, and face detection and recognition |
US7430315B2 (en) * | 2004-02-13 | 2008-09-30 | Honda Motor Co. | Face recognition system |
US7224831B2 (en) * | 2004-02-17 | 2007-05-29 | Honda Motor Co. | Method, apparatus and program for detecting an object |
EP1743277A4 (en) | 2004-04-15 | 2011-07-06 | Gesturetek Inc | MONITORING OF BI-MANUAL MOVEMENTS |
US20060056667A1 (en) * | 2004-09-16 | 2006-03-16 | Waters Richard C | Identifying faces from multiple images acquired from widely separated viewpoints |
US8320641B2 (en) | 2004-10-28 | 2012-11-27 | DigitalOptics Corporation Europe Limited | Method and apparatus for red-eye detection using preview or other reference images |
US8503800B2 (en) * | 2007-03-05 | 2013-08-06 | DigitalOptics Corporation Europe Limited | Illumination detection using classifier chains |
US7715597B2 (en) * | 2004-12-29 | 2010-05-11 | Fotonation Ireland Limited | Method and component for image recognition |
US7315631B1 (en) * | 2006-08-11 | 2008-01-01 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
HUE049974T2 (hu) * | 2005-01-07 | 2020-11-30 | Qualcomm Inc | Képeken lévõ objektumok észlelése és követése |
EP1851749B1 (en) * | 2005-01-21 | 2012-03-28 | Qualcomm Incorporated | Motion-based tracking |
US8235725B1 (en) * | 2005-02-20 | 2012-08-07 | Sensory Logic, Inc. | Computerized method of assessing consumer reaction to a business stimulus employing facial coding |
US20060193520A1 (en) * | 2005-02-28 | 2006-08-31 | Takeshi Mita | Object detection apparatus, learning apparatus, object detection system, object detection method and object detection program |
US7961937B2 (en) * | 2005-10-26 | 2011-06-14 | Hewlett-Packard Development Company, L.P. | Pre-normalization data classification |
US7783092B2 (en) * | 2006-01-17 | 2010-08-24 | Illinois Institute Of Technology | Method for enhancing diagnostic images using vessel reconstruction |
US7804983B2 (en) | 2006-02-24 | 2010-09-28 | Fotonation Vision Limited | Digital image acquisition control and correction method and apparatus |
EP2033142B1 (en) * | 2006-06-12 | 2011-01-26 | Tessera Technologies Ireland Limited | Advances in extending the aam techniques from grayscale to color images |
JP4663013B2 (ja) * | 2006-06-29 | 2011-03-30 | 富士通株式会社 | 色類別方法、色認識方法及び色認識装置 |
WO2008015586A2 (en) * | 2006-08-02 | 2008-02-07 | Fotonation Vision Limited | Face recognition with combined pca-based datasets |
US7403643B2 (en) * | 2006-08-11 | 2008-07-22 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US7916897B2 (en) * | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
CN101636745A (zh) * | 2006-12-29 | 2010-01-27 | 格斯图尔泰克股份有限公司 | 使用增强型交互系统操纵虚拟对象 |
US8055067B2 (en) * | 2007-01-18 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Color segmentation |
DE602008001607D1 (de) * | 2007-02-28 | 2010-08-05 | Fotonation Vision Ltd | Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen |
US8649604B2 (en) | 2007-03-05 | 2014-02-11 | DigitalOptics Corporation Europe Limited | Face searching and detection in a digital image acquisition device |
WO2008109622A1 (en) | 2007-03-05 | 2008-09-12 | Fotonation Vision Limited | Face categorization and annotation of a mobile phone contact list |
US11265082B2 (en) | 2007-05-24 | 2022-03-01 | Federal Law Enforcement Development Services, Inc. | LED light control assembly and system |
US9100124B2 (en) | 2007-05-24 | 2015-08-04 | Federal Law Enforcement Development Services, Inc. | LED Light Fixture |
US9455783B2 (en) | 2013-05-06 | 2016-09-27 | Federal Law Enforcement Development Services, Inc. | Network security and variable pulse wave form with continuous communication |
US7916971B2 (en) * | 2007-05-24 | 2011-03-29 | Tessera Technologies Ireland Limited | Image processing method and apparatus |
US8031961B2 (en) * | 2007-05-29 | 2011-10-04 | Hewlett-Packard Development Company, L.P. | Face and skin sensitive image enhancement |
US20090030676A1 (en) * | 2007-07-26 | 2009-01-29 | Creative Technology Ltd | Method of deriving a compressed acoustic model for speech recognition |
CN101414348A (zh) * | 2007-10-19 | 2009-04-22 | 三星电子株式会社 | 多角度人脸识别方法和系统 |
US8744775B2 (en) * | 2007-12-28 | 2014-06-03 | Weyerhaeuser Nr Company | Methods for classification of somatic embryos comprising hyperspectral line imaging |
US8750578B2 (en) | 2008-01-29 | 2014-06-10 | DigitalOptics Corporation Europe Limited | Detecting facial expressions in digital images |
US8165354B1 (en) * | 2008-03-18 | 2012-04-24 | Google Inc. | Face recognition with discriminative face alignment |
US7855737B2 (en) * | 2008-03-26 | 2010-12-21 | Fotonation Ireland Limited | Method of making a digital camera image of a scene including the camera user |
US8208709B2 (en) * | 2008-04-17 | 2012-06-26 | The Ohio State University Research Foundation | System and method for improved real-time cine imaging |
CN103402070B (zh) | 2008-05-19 | 2017-07-07 | 日立麦克赛尔株式会社 | 记录再现装置及方法 |
US8131063B2 (en) * | 2008-07-16 | 2012-03-06 | Seiko Epson Corporation | Model-based object image processing |
JP5547730B2 (ja) | 2008-07-30 | 2014-07-16 | デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド | 顔検知を用いた顔及び肌の自動美化 |
WO2010063463A2 (en) * | 2008-12-05 | 2010-06-10 | Fotonation Ireland Limited | Face recognition using face tracker classifier data |
US8260039B2 (en) * | 2009-02-25 | 2012-09-04 | Seiko Epson Corporation | Object model fitting using manifold constraints |
US8204301B2 (en) * | 2009-02-25 | 2012-06-19 | Seiko Epson Corporation | Iterative data reweighting for balanced model learning |
US8260038B2 (en) * | 2009-02-25 | 2012-09-04 | Seiko Epson Corporation | Subdivision weighting for robust object model fitting |
US8208717B2 (en) * | 2009-02-25 | 2012-06-26 | Seiko Epson Corporation | Combining subcomponent models for object image modeling |
US8890773B1 (en) | 2009-04-01 | 2014-11-18 | Federal Law Enforcement Development Services, Inc. | Visible light transceiver glasses |
US8600100B2 (en) * | 2009-04-16 | 2013-12-03 | Sensory Logic, Inc. | Method of assessing people's self-presentation and actions to evaluate personality type, behavioral tendencies, credibility, motivations and other insights through facial muscle activity and expressions |
US20100295782A1 (en) * | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
US8326002B2 (en) * | 2009-08-13 | 2012-12-04 | Sensory Logic, Inc. | Methods of facial coding scoring for optimally identifying consumers' responses to arrive at effective, incisive, actionable conclusions |
US8379917B2 (en) * | 2009-10-02 | 2013-02-19 | DigitalOptics Corporation Europe Limited | Face recognition performance using additional image features |
US8811743B2 (en) | 2010-06-09 | 2014-08-19 | Microsoft Corporation | Resource-aware computer vision |
US8836777B2 (en) | 2011-02-25 | 2014-09-16 | DigitalOptics Corporation Europe Limited | Automatic detection of vertical gaze using an embedded imaging device |
US20140093142A1 (en) * | 2011-05-24 | 2014-04-03 | Nec Corporation | Information processing apparatus, information processing method, and information processing program |
US20130201316A1 (en) | 2012-01-09 | 2013-08-08 | May Patents Ltd. | System and method for server based control |
US8559684B1 (en) * | 2012-08-15 | 2013-10-15 | Google Inc. | Facial recognition similarity threshold adjustment |
US9269049B2 (en) | 2013-05-08 | 2016-02-23 | Exelate, Inc. | Methods, apparatus, and systems for using a reduced attribute vector of panel data to determine an attribute of a user |
WO2015017868A1 (en) * | 2013-08-02 | 2015-02-05 | Emotient | Filter and shutter based on image emotion content |
US9466009B2 (en) | 2013-12-09 | 2016-10-11 | Nant Holdings Ip. Llc | Feature density object classification, systems and methods |
US20150198941A1 (en) | 2014-01-15 | 2015-07-16 | John C. Pederson | Cyber Life Electronic Networking and Commerce Operating Exchange |
EP4250738A3 (en) | 2014-04-22 | 2023-10-11 | Snap-Aid Patents Ltd. | Method for controlling a camera based on processing an image captured by other camera |
WO2016207875A1 (en) | 2015-06-22 | 2016-12-29 | Photomyne Ltd. | System and method for detecting objects in an image |
US20170046950A1 (en) | 2015-08-11 | 2017-02-16 | Federal Law Enforcement Development Services, Inc. | Function disabler device and system |
US11386636B2 (en) | 2019-04-04 | 2022-07-12 | Datalogic Usa, Inc. | Image preprocessing for optical character recognition |
CN112070114B (zh) * | 2020-08-03 | 2023-05-16 | 中国科学院信息工程研究所 | 基于高斯约束注意力机制网络的场景文字识别方法及系统 |
CN113918753B (zh) * | 2021-07-23 | 2024-05-28 | 腾讯科技(深圳)有限公司 | 基于人工智能的图像检索方法及相关设备 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4259661A (en) * | 1978-09-01 | 1981-03-31 | Burroughs Corporation | Apparatus and method for recognizing a pattern |
JPS6057475A (ja) * | 1983-09-07 | 1985-04-03 | Toshiba Corp | パタ−ン認識方式 |
US4998286A (en) * | 1987-02-13 | 1991-03-05 | Olympus Optical Co., Ltd. | Correlation operational apparatus for multi-dimensional images |
DE3724110A1 (de) * | 1987-07-21 | 1989-02-02 | Fraunhofer Ges Forschung | Einweg-airless-spruehdose mit druckgasantrieb |
US4838644A (en) * | 1987-09-15 | 1989-06-13 | The United States Of America As Represented By The United States Department Of Energy | Position, rotation, and intensity invariant recognizing method |
JP2885823B2 (ja) * | 1989-04-11 | 1999-04-26 | 株式会社豊田中央研究所 | 視覚認識装置 |
DK163212C (da) * | 1989-07-10 | 1992-07-13 | Tunetanken As | Blandetank, fortrinsvis til oploesning af ferrosulfatgranulat i vand |
WO1991001183A1 (en) * | 1989-07-14 | 1991-02-07 | Karagandinsky Gosudarstvenny Universitet | Device for cleaning internal surface of pipes |
US5101446A (en) * | 1990-05-31 | 1992-03-31 | Aware, Inc. | Method and apparatus for coding an image |
FR2667711B1 (fr) * | 1990-10-09 | 1992-11-27 | Thomson Csf | Procede de reconnaissance d'objets dans des images et son application au suivi d'objets dans des sequences d'images. |
US5164992A (en) * | 1990-11-01 | 1992-11-17 | Massachusetts Institute Of Technology | Face recognition system |
US5432864A (en) * | 1992-10-05 | 1995-07-11 | Daozheng Lu | Identification card verification system |
-
1995
- 1995-04-20 US US08/425,579 patent/US5710833A/en not_active Expired - Lifetime
-
1996
- 1996-04-22 JP JP10002396A patent/JP3986583B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH08339445A (ja) | 1996-12-24 |
US5710833A (en) | 1998-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3986583B2 (ja) | 確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置 | |
Sung et al. | Example-based learning for view-based human face detection | |
Makinen et al. | Evaluation of gender classification methods with automatically detected and aligned faces | |
US7853085B2 (en) | Viewpoint-invariant detection and identification of a three-dimensional object from two-dimensional imagery | |
JP4543423B2 (ja) | 対象物自動認識照合方法および装置 | |
US7831087B2 (en) | Method for visual-based recognition of an object | |
US8855363B2 (en) | Efficient method for tracking people | |
Sahbi et al. | A Hierarchy of Support Vector Machines for Pattern Detection. | |
Barnouti et al. | Face recognition: A literature review | |
US20080219516A1 (en) | Image matching apparatus, image matching method, computer program and computer-readable storage medium | |
US20100067799A1 (en) | Globally invariant radon feature transforms for texture classification | |
Hu et al. | Active wavelet networks for face alignment. | |
Fadaifard et al. | Multiscale 3D feature extraction and matching with an application to 3D face recognition | |
Sahbi et al. | Coarse-to-fine support vector classifiers for face detection | |
Sahbi et al. | Coarse to fine face detection based on skin color adaption | |
JP3729581B2 (ja) | パターン認識・照合装置 | |
Gül | Holistic face recognition by dimension reduction | |
Rajwade et al. | Facial pose from 3D data | |
Deepa et al. | Challenging aspects for facial feature extraction and age estimation | |
KR100711223B1 (ko) | 저니키(Zernike)/선형 판별 분석(LDA)을 이용한얼굴 인식 방법 및 그 방법을 기록한 기록매체 | |
Chang et al. | Feature patch illumination spaces and Karcher compression for face recognition via Grassmannians | |
Sehad et al. | Face recognition under varying views | |
JP2004038937A (ja) | 高次固有成分を用いる顔の記述および認識のための方法および装置 | |
Ge et al. | Multi-view based face chin contour extraction | |
Keche et al. | Facial feature expression based approach for human face recognition: A review |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060516 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20060816 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20060821 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061116 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070509 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20070523 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070619 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070711 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100720 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110720 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110720 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120720 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120720 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130720 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |