JP4951700B2 - 視覚追跡のための適応型判別生成モデル及び逐次的フィッシャー判別分析並びにアプリケーション - Google Patents
視覚追跡のための適応型判別生成モデル及び逐次的フィッシャー判別分析並びにアプリケーション Download PDFInfo
- Publication number
- JP4951700B2 JP4951700B2 JP2010178651A JP2010178651A JP4951700B2 JP 4951700 B2 JP4951700 B2 JP 4951700B2 JP 2010178651 A JP2010178651 A JP 2010178651A JP 2010178651 A JP2010178651 A JP 2010178651A JP 4951700 B2 JP4951700 B2 JP 4951700B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- image
- computer system
- type
- image frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000000007 visual effect Effects 0.000 title description 16
- 230000003044 adaptive effect Effects 0.000 title description 7
- 238000004458 analytical method Methods 0.000 title description 5
- 238000000034 method Methods 0.000 claims description 39
- 239000013598 vector Substances 0.000 claims description 33
- 238000012545 processing Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 5
- 238000003860 storage Methods 0.000 claims description 3
- 238000013145 classification model Methods 0.000 claims 6
- 238000004422 calculation algorithm Methods 0.000 description 21
- 239000011159 matrix material Substances 0.000 description 20
- 238000009826 distribution Methods 0.000 description 15
- 238000013459 approach Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 238000005286 illumination Methods 0.000 description 7
- 238000000513 principal component analysis Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 6
- 230000003068 static effect Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000036961 partial effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000001939 inductive effect Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 241000212384 Bifora Species 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000019771 cognition Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000000556 factor analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/76—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries based on eigen-space representations, e.g. from pose or different illumination conditions; Shape manifolds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Description
y=Wx+μ+ε (2)
式(2)において、y及びxは、それぞれo及びsに類似しており、Wは、y及びxに関連するn×m射影行列であり、μは、yの平均であり、εは、付加雑音である。因子分析及び他のグラフィカルモデルにおいて一般に仮定されているように、潜在変数xは、ユニットの分散x〜N(0,Im)に対して独立であり、ここでImは、m次元の単位行列であり、εは、ゼロ平均ガウス雑音ε〜N(0,σ2In)である。このことの記述は、An Introduction to Multivariate Statistical Analysis, T. W. Anderson, Wiley, 1984 及びLearning in Graphical Models, Michael I. Jordan, MIT Press, 1999 に開示されており、参照により本明細書に組み込むものとする。
Tipping and Bishop は、μ,W,εの最大尤度推定が
定数項を無視すると、対数確率は、
νTCν=1とすることにより、最適化問題は、
QA=UADAVT A (15)
によりQAの特異値分解を算出することにより算出可能である。Aの階数は、視覚適用において大抵の場合小さく、Vは、効率的に算出可能であるので、追跡プロセスを容易にすることができる。前記した導出に用いられる方法の記述は、G.H. Golumb and C. F. Van Loan, Matrix Computations, Johns Hopkins University Press, 1996 に開示されており、参照により本明細書に組み込むものとする。
p(st|st−1)〜N(st−1,Σs) (16)
であり、ここで、Σsは対角行列である。この分布によると、追跡アルゴリズムは、対象物の可能な位置を表すN個のサンプル、すなわち、状態ベクトルSt={c1,…,cN}を描く。yi tは、otの外観ベクトルであり、Yt={y1 t,…,yN t}は、状態ベクトルセットStに対応する外観ベクトルセットである。追跡されたオブジェクトがciでビデオフレームotに存在する事後確率は、
初期フレームベクトルを受け取る(1006)。このフレームベクトルの特徴は、ステップ206に関連して前記したものと同様である。続いて、対象オブジェクトの初期位置が決定される(1012)。このことは、ステップ212に関して前記したのと同様に達成可能である。この方法は、最初に、一番目のビデオフレームを用いて、対象物及び背景を分類する。一番目のビデオフレームで始めると、ステップ224に関して前記したように、動きパラメータセットが、初期対象オブジェクト位置を定義するウィンドウを特定する。そのウィンドウ内の画像部分は、オブジェクトクラスに関する初期例であることが望ましい。
ここで、
SB=ATA
SW+εI=BTB (26)
であることが示される。所望のWの値は、WでVを代用し、前記した式(14)(15)を適用することにより求められる。
Claims (26)
- デジタル画像フレームのシーケンス内において、オブジェクトの位置を追跡するコンピュータを用いた方法であって、
前記コンピュータは、
前記デジタル画像フレームのシーケンス内の第一の画像フレームを表す第一の画像ベクトルを受け取り、
前記第一の画像ベクトルから、前記第一の画像フレーム内における前記オブジェクトの初期位置を決定し、
前記第一の画像ベクトルに対して動的モデルを適用し、前記第一の画像フレームと次の画像フレームとの間の前記オブジェクトの動きを推測し、前記デジタル画像フレームのシーケンスの前記次の画像フレーム内における前記オブジェクトの少なくとも1つの推測位置を決定し、
前記次の画像フレーム内の前記オブジェクトの少なくとも1つの推測位置から低次元投影空間に対し、投影パラメータに応じて、サンプルを投影し、
前記低次元投影空間において適用され、前記投影されたサンプルのそれぞれを前景オブジェクトタイプ及び背景タイプのうちの何れか1つに分類する分類モデルを、前記次の画像フレームの前記投影されたサンプルに対して適用し、
前記低次元投影空間内で分類されたサンプルに対して推論モデルを適用して、前記デジタル画像フレームのシーケンスの前記第一の画像フレームと前記次の画像フレームとの間を前記オブジェクトが動いた結果である、前記オブジェクトの最もあり得る位置を推測し、
前記オブジェクトの前記最もあり得る位置に基づいて、前記投影パラメータを更新すること、
を特徴とする方法。 - 前記動的モデルは、
前記オブジェクトのウィンドウ位置、角度方向、幅及び高さを表すこと、
を特徴とする請求項1に記載の方法。 - 前記推論モデルは、
前記次の画像ベクトルから前記前景オブジェクトタイプの平均までの距離を決定すること、
を特徴とする請求項1に記載の方法。 - 前記分類モデルは、
フィッシャー線形判別モデルを含むこと、
を特徴とする請求項1に記載の方法。 - 前記背景タイプは、
単一のクラスからなること、
を特徴とする請求項1に記載の方法。 - 前記背景タイプは、
複数のクラスからなること、
を特徴とする請求項1に記載の方法。 - 前記背景タイプは、
前記デジタル画像セット内の画像の数と等しい数のクラスを備えていること、
を特徴とする請求項1に記載の方法。 - デジタル画像フレームのシーケンス内において、オブジェクトの位置を追跡するコンピュータシステムであって、
前記コンピュータシステムは、
前記デジタル画像フレームのシーケンス内の第一の画像フレームを表す第一の画像ベクトルを受け取る手段と、
前記第一の画像ベクトルから、前記第一の画像フレーム内における前記オブジェクトの初期位置を決定する手段と、
前記第一の画像ベクトルに対して動的モデルを適用し、前記第一の画像フレームと次の画像フレームとの間の前記オブジェクトの動きを推測し、前記デジタル画像フレームのシーケンスの前記次の画像フレーム内における前記オブジェクトの少なくとも1つの推測位置を決定する手段と、
前記次の画像フレーム内の前記オブジェクトの少なくとも1つの推測位置から低次元投影空間に対し、投影パラメータに応じて、サンプルを投影する手段と、
前記低次元投影空間において適用され、前記投影されたサンプルのそれぞれを前景オブジェクトタイプ及び背景タイプのうちの何れか1つに分類する分類モデルを、前記次の画像フレームの前記投影されたサンプルに対して適用する手段と、
前記低次元投影空間内で分類されたサンプルに対して推論モデルを適用して、前記デジタル画像フレームのシーケンスの前記第一の画像フレームと前記次の画像フレームとの間を前記オブジェクトが動いた結果である、前記オブジェクトの最もあり得る位置を推測する手段と、
前記オブジェクトの前記最もあり得る位置に基づいて、前記投影パラメータを更新する手段と、
を有することを特徴とするコンピュータシステム。 - 前記背景タイプは、
単一のクラスからなること、
を特徴とする請求項8に記載のコンピュータシステム。 - 前記背景タイプは、
複数のクラスからなること、
を特徴とする請求項8に記載のコンピュータシステム。 - 前記推測位置を決定する手段は、
前記オブジェクトのウィンドウ位置、角度方向、幅及び高さを表す手段を有すること、
を特徴とする請求項8に記載のコンピュータシステム。 - 前記オブジェクトの最もあり得る位置を推測する手段は、
前記次の画像ベクトルから前記前景オブジェクトタイプの平均までの距離を決定する手段を有すること、
を特徴とする請求項8に記載のコンピュータシステム。 - 前記分類モデルは、
フィッシャー線形判別モデルであること、
を特徴とする請求項8に記載のコンピュータシステム。 - 前記背景タイプは、
前記デジタル画像セット内の画像の数と等しい数のクラスを備えていること、
を特徴とする請求項8に記載のコンピュータシステム。 - デジタル画像フレームのシーケンス内において、オブジェクトの位置を追跡する画像処理コンピュータシステムであって、
前記画像処理コンピュータシステムは、
前記デジタル画像フレームのシーケンスを示すデータを受け取る入力モジュールと、
前記入力モジュールと接続されており、前記デジタル画像フレームのシーケンスを示すデータを格納する記憶装置と、
前記記憶装置と接続されており、前記デジタル画像フレームのシーケンスを示すデータを反復的に検索するプロセッサと、
を有し、
前記プロセッサは、
第一の画像ベクトルに対して動的モデルを適用し、第一の画像フレームと次の画像フレームとの間の前記オブジェクトの動きを推測し、前記デジタル画像フレームのシーケンスの前記次の画像フレーム内における前記オブジェクトの少なくとも1つの推測位置を決定し、
前記次の画像フレーム内の前記オブジェクトの少なくとも1つの推測位置から低次元投影空間に対し、投影パラメータに応じて、サンプルを投影し、
前記低次元投影空間において適用され、前記投影されたサンプルのそれぞれを前景オブジェクトタイプ及び背景タイプのうちの何れか1つに分類する分類モデルを、前記次の画像フレームの前記投影されたサンプルに対して適用し、
前記低次元投影空間内で分類されたサンプルに対して推論モデルを適用して、前記デジタル画像フレームのシーケンスの前記第一の画像フレームと前記次の画像フレームとの間を前記オブジェクトが動いた結果である、前記オブジェクトの最もあり得る位置を推測し、
前記オブジェクトの前記最もあり得る位置に基づいて、前記投影パラメータを更新する
こと、
を特徴とする画像処理コンピュータシステム。 - 前記動的モデルは、
前記オブジェクトのウィンドウ位置、角度方向、幅及び高さを表すこと、
を特徴とする請求項15に記載の画像処理コンピュータシステム。 - 前記推論モデルは、
前記次の画像ベクトルから前記前景オブジェクトタイプの平均までの距離を決定すること、
を特徴とする請求項15に記載の画像処理コンピュータシステム。 - 前記分類モデルは、
フィッシャー線形判別モデルであること、
を特徴とする請求項15に記載の画像処理コンピュータシステム。 - 前記背景タイプは、
前記デジタル画像セット内の画像の数と等しい数のクラスを備えていること、
を特徴とする請求項15に記載の画像処理コンピュータシステム。 - 前記背景タイプは、
単一のクラスからなること、
を特徴とする請求項15に記載の画像処理コンピュータシステム。 - 前記背景タイプは、
複数のクラスからなること、
を特徴とする請求項15に記載の画像処理コンピュータシステム。 - デジタル画像セットの二以上のデジタル画像内のオブジェクトの位置を追跡するためのコンピュータを用いた方法であって、
前記コンピュータは、
前記デジタル画像セット内の第一の画像を表す第一の画像ベクトルを受け取るステップと、
前記第一の画像ベクトルから、前記第一の画像内のオブジェクトの位置を決定するステップと、
前記第一の画像ベクトルに第一のモデルを適用し、前記デジタル画像セット内にある第二の画像を表す次の画像ベクトル内において前記オブジェクトの可能な複数の位置を推測し、前記可能な複数の位置に対応する複数のサンプル画像を生成するステップと、
前記複数のサンプル画像に第二のモデルを適用し、前記複数のサンプル画像が前記オブジェクトに対応する確率を決定するステップと、
前記確率に第三のモデルを適用して、第一のタイプ及び第二のタイプのうちの何れか1つに前記複数のサンプル画像を分類するステップと、
前記分類された複数のサンプル画像に推論モデルを適用して、前記オブジェクトの最もあり得る位置を推測するステップと、
前記複数のサンプル画像を分類する分類パラメータを表す前記第三のモデルの固有基底を更新するステップと、
を実行することを特徴とする方法。 - 前記第一のモデルは、
動的モデルを含むこと、
を特徴とする請求項22に記載の方法。 - 前記第二のモデルは、
観測モデルを含むこと、
を特徴とする請求項22に記載の方法。 - 前記第三のモデルは、
判別生成モデルを含むこと、
を特徴とする請求項22に記載の方法。 - 前記判別生成モデルを適用することは、
(a)第一の期間からの観測結果セットを受け取り、
(b)前記第一の期間より前の観測結果に基づく判別生成モデルに基づく第一のタイプ及び第二のタイプのうちの1つに、前記観測結果セットの要素を分類し、
(c)前記第一の期間より前の観測結果に基づく判別生成モデルに基づく前記第一のタイプとして分類された観測結果セットの要素に第一の確率セットを割り当て、前記第一の期間より前の観測結果に基づく判別生成モデルに基づく前記第二のタイプとして分類された観測結果セットの要素に第二の確率セットを割り当てることにより、前記観測結果セットの確率密度をモデリングし、
(d)前記第一の確率セット及び前記第二の確率セットに基づいて、前記第一の期間での前記観測結果を記述するように前記判別生成モデルを修正し、
前記第一の期間より後の期間において、前記(a)、(b)、(c)及び(d)の処理を繰り返すこと、
を特徴とする請求項25に記載の方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US58659804P | 2004-07-09 | 2004-07-09 | |
US60/586,598 | 2004-07-09 | ||
US62550104P | 2004-11-05 | 2004-11-05 | |
US60/625,501 | 2004-11-05 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007520589A Division JP2008506201A (ja) | 2004-07-09 | 2005-07-11 | 視覚追跡のための適応型判別生成モデル及び逐次的フィッシャー判別分析並びにアプリケーション |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011003207A JP2011003207A (ja) | 2011-01-06 |
JP4951700B2 true JP4951700B2 (ja) | 2012-06-13 |
Family
ID=35785799
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007520589A Ceased JP2008506201A (ja) | 2004-07-09 | 2005-07-11 | 視覚追跡のための適応型判別生成モデル及び逐次的フィッシャー判別分析並びにアプリケーション |
JP2010178651A Expired - Fee Related JP4951700B2 (ja) | 2004-07-09 | 2010-08-09 | 視覚追跡のための適応型判別生成モデル及び逐次的フィッシャー判別分析並びにアプリケーション |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007520589A Ceased JP2008506201A (ja) | 2004-07-09 | 2005-07-11 | 視覚追跡のための適応型判別生成モデル及び逐次的フィッシャー判別分析並びにアプリケーション |
Country Status (3)
Country | Link |
---|---|
US (2) | US7650011B2 (ja) |
JP (2) | JP2008506201A (ja) |
WO (1) | WO2006010129A2 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006010129A2 (en) * | 2004-07-09 | 2006-01-26 | Honda Motor Co., Ltd. | Adaptive discriminative generative model and incremental fisher discriminant analysis and application to visual tracking |
US7864032B2 (en) * | 2005-10-06 | 2011-01-04 | Fuji Jukogyo Kabushiki Kaisha | Collision determination device and vehicle behavior control device |
US8239379B2 (en) * | 2007-07-13 | 2012-08-07 | Xerox Corporation | Semi-supervised visual clustering |
US7945101B2 (en) * | 2007-07-26 | 2011-05-17 | Palo Alto Research Center Incorporated | Innovative OCR systems and methods that combine a template based generative model with a discriminative model |
US8160371B2 (en) * | 2007-12-03 | 2012-04-17 | Honeywell International Inc. | System for finding archived objects in video data |
US8351649B1 (en) | 2008-04-01 | 2013-01-08 | University Of Southern California | Video feed target tracking |
EP2302589B1 (en) * | 2009-09-01 | 2012-12-05 | Fondazione Bruno Kessler | Method for efficient target detection from images robust to occlusion |
US8873798B2 (en) * | 2010-02-05 | 2014-10-28 | Rochester Institue Of Technology | Methods for tracking objects using random projections, distance learning and a hybrid template library and apparatuses thereof |
US9891867B2 (en) * | 2010-11-10 | 2018-02-13 | Electronics For Imaging, Inc. | Protocol for interaction between wireless devices and other devices |
US9665767B2 (en) * | 2011-02-28 | 2017-05-30 | Aic Innovations Group, Inc. | Method and apparatus for pattern tracking |
US9437009B2 (en) * | 2011-06-20 | 2016-09-06 | University Of Southern California | Visual tracking in video images in unconstrained environments by exploiting on-the-fly context using supporters and distracters |
EP2574952B1 (en) * | 2011-09-30 | 2016-05-11 | u-blox AG | Position Validation |
KR101747216B1 (ko) * | 2012-05-30 | 2017-06-15 | 한화테크윈 주식회사 | 표적 추출 장치와 그 방법 및 상기 방법을 구현하는 프로그램이 기록된 기록 매체 |
US9158971B2 (en) * | 2014-03-03 | 2015-10-13 | Xerox Corporation | Self-learning object detectors for unlabeled videos using multi-task learning |
US9152880B1 (en) | 2014-05-30 | 2015-10-06 | The United States Of America As Represented By The Secretarty Of The Army | Method for modeling human visual discrimination task performance of dynamic scenes |
US9767381B2 (en) * | 2015-09-22 | 2017-09-19 | Xerox Corporation | Similarity-based detection of prominent objects using deep CNN pooling layers as features |
CN106203495B (zh) * | 2016-07-01 | 2020-03-17 | 广东技术师范学院 | 一种基于稀疏判别学习的目标跟踪方法 |
US11562370B2 (en) | 2016-12-20 | 2023-01-24 | Mastercard International Incorporated | Systems and methods for generating customer satisfaction score |
US10546242B2 (en) | 2017-03-03 | 2020-01-28 | General Electric Company | Image analysis neural network systems |
US10714783B2 (en) | 2017-05-09 | 2020-07-14 | Cummins Enterprise Llc | Integrated fuel cell systems |
JP6431231B1 (ja) * | 2017-12-24 | 2018-11-28 | オリンパス株式会社 | 撮像システム、学習装置、および撮像装置 |
DE102018206108A1 (de) | 2018-04-20 | 2019-10-24 | Zf Friedrichshafen Ag | Generieren von Validierungsdaten mit generativen kontradiktorischen Netzwerken |
US11127140B2 (en) | 2019-04-30 | 2021-09-21 | Samsung Electronics Co., Ltd. | Background identification for videos with large foreground objects |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0708563B1 (en) * | 1994-10-19 | 2004-12-22 | Matsushita Electric Industrial Co., Ltd. | Image decoding device |
US5960097A (en) * | 1997-01-21 | 1999-09-28 | Raytheon Company | Background adaptive target detection and tracking with multiple observation and processing stages |
US6236736B1 (en) * | 1997-02-07 | 2001-05-22 | Ncr Corporation | Method and apparatus for detecting movement patterns at a self-service checkout terminal |
US6295367B1 (en) * | 1997-06-19 | 2001-09-25 | Emtera Corporation | System and method for tracking movement of objects in a scene using correspondence graphs |
US6047078A (en) * | 1997-10-03 | 2000-04-04 | Digital Equipment Corporation | Method for extracting a three-dimensional model using appearance-based constrained structure from motion |
US6363173B1 (en) * | 1997-12-19 | 2002-03-26 | Carnegie Mellon University | Incremental recognition of a three dimensional object |
US6400831B2 (en) * | 1998-04-02 | 2002-06-04 | Microsoft Corporation | Semantic video object segmentation and tracking |
US6226388B1 (en) * | 1999-01-05 | 2001-05-01 | Sharp Labs Of America, Inc. | Method and apparatus for object tracking for automatic controls in video devices |
US6757423B1 (en) * | 1999-02-19 | 2004-06-29 | Barnes-Jewish Hospital | Methods of processing tagged MRI data indicative of tissue motion including 4-D LV tissue tracking |
AU3002500A (en) | 1999-02-19 | 2000-09-04 | Barnes-Jewish Hospital | Methods of processing tagged mri data indicative of tissue motion including 4-d lv tissue tracking |
TW413795B (en) | 1999-02-26 | 2000-12-01 | Cyberlink Corp | An image processing method of 3-D head motion with three face feature points |
US7003134B1 (en) | 1999-03-08 | 2006-02-21 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
US6337927B1 (en) * | 1999-06-04 | 2002-01-08 | Hewlett-Packard Company | Approximated invariant method for pattern detection |
US6683968B1 (en) * | 1999-09-16 | 2004-01-27 | Hewlett-Packard Development Company, L.P. | Method for visual tracking using switching linear dynamic system models |
EP1158804A3 (en) * | 2000-05-24 | 2003-12-17 | Matsushita Electric Industrial Co., Ltd. | Rendering device for generating a display image |
JP4564634B2 (ja) * | 2000-08-14 | 2010-10-20 | キヤノン株式会社 | 画像処理方法及び装置並びに記憶媒体 |
US20090231436A1 (en) * | 2001-04-19 | 2009-09-17 | Faltesek Anthony E | Method and apparatus for tracking with identification |
US6870945B2 (en) * | 2001-06-04 | 2005-03-22 | University Of Washington | Video object tracking by estimating and subtracting background |
US7054468B2 (en) * | 2001-12-03 | 2006-05-30 | Honda Motor Co., Ltd. | Face recognition using kernel fisherfaces |
US7130446B2 (en) * | 2001-12-03 | 2006-10-31 | Microsoft Corporation | Automatic detection and tracking of multiple individuals using multiple cues |
US6999600B2 (en) * | 2003-01-30 | 2006-02-14 | Objectvideo, Inc. | Video scene background maintenance using change detection and classification |
US7558402B2 (en) * | 2003-03-07 | 2009-07-07 | Siemens Medical Solutions Usa, Inc. | System and method for tracking a global shape of an object in motion |
WO2006010129A2 (en) * | 2004-07-09 | 2006-01-26 | Honda Motor Co., Ltd. | Adaptive discriminative generative model and incremental fisher discriminant analysis and application to visual tracking |
-
2005
- 2005-07-11 WO PCT/US2005/024582 patent/WO2006010129A2/en active Application Filing
- 2005-07-11 US US11/179,280 patent/US7650011B2/en active Active
- 2005-07-11 US US11/179,881 patent/US7369682B2/en active Active
- 2005-07-11 JP JP2007520589A patent/JP2008506201A/ja not_active Ceased
-
2010
- 2010-08-09 JP JP2010178651A patent/JP4951700B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20060036399A1 (en) | 2006-02-16 |
US20060023916A1 (en) | 2006-02-02 |
JP2011003207A (ja) | 2011-01-06 |
JP2008506201A (ja) | 2008-02-28 |
WO2006010129A2 (en) | 2006-01-26 |
WO2006010129A3 (en) | 2006-03-23 |
US7369682B2 (en) | 2008-05-06 |
US7650011B2 (en) | 2010-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4951700B2 (ja) | 視覚追跡のための適応型判別生成モデル及び逐次的フィッシャー判別分析並びにアプリケーション | |
Lin et al. | Adaptive discriminative generative model and its applications | |
KR101304374B1 (ko) | 객체 특징을 위치결정하는 방법 | |
Rosales et al. | Learning body pose via specialized maps | |
US7853085B2 (en) | Viewpoint-invariant detection and identification of a three-dimensional object from two-dimensional imagery | |
Cremers et al. | Nonlinear shape statistics in mumford—shah based segmentation | |
KR100647322B1 (ko) | 객체의 모양모델 생성장치 및 방법과 이를 이용한 객체의특징점 자동탐색장치 및 방법 | |
Wang et al. | Gaussian process dynamical models | |
Migdal et al. | Background subtraction using markov thresholds | |
EP1296279A2 (en) | Method and computer program product for locating facial features | |
US20120219186A1 (en) | Continuous Linear Dynamic Systems | |
JP6756406B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP4509119B2 (ja) | 部分空間の逐次更新を伴う適応型確率的画像追跡 | |
Bowden | Learning non-linear Models of Shape and Motion | |
Wu et al. | Simultaneous eye tracking and blink detection with interactive particle filters | |
Angelopoulou et al. | Evaluation of different chrominance models in the detection and reconstruction of faces and hands using the growing neural gas network | |
Tamminen et al. | Sequential Monte Carlo for Bayesian matching of objects with occlusions | |
Paterson et al. | 3D head tracking using non-linear optimization. | |
Gai et al. | Studentized dynamical system for robust object tracking | |
US20230040793A1 (en) | Performance of Complex Optimization Tasks with Improved Efficiency Via Neural Meta-Optimization of Experts | |
CN117255998A (zh) | 使用空间和时间上的注意力对来自视频序列的对象表示的无监督学习 | |
Mayer et al. | A real time system for model-based interpretation of the dynamics of facial expressions | |
Xia et al. | Object tracking using Particle Swarm Optimization and Earth mover's distance | |
Han | Adaptive kernel density approximation and its applications to real-time computer vision | |
Magee | Machine Vision Techniques for the Evaluation of Animal Behaviour |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120306 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120312 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150316 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4951700 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |