JP2009217855A - 視覚型動き解析及び視覚型追跡のためのアピアランスモデル - Google Patents
視覚型動き解析及び視覚型追跡のためのアピアランスモデル Download PDFInfo
- Publication number
- JP2009217855A JP2009217855A JP2009155784A JP2009155784A JP2009217855A JP 2009217855 A JP2009217855 A JP 2009217855A JP 2009155784 A JP2009155784 A JP 2009155784A JP 2009155784 A JP2009155784 A JP 2009155784A JP 2009217855 A JP2009217855 A JP 2009217855A
- Authority
- JP
- Japan
- Prior art keywords
- image
- component
- data
- appearance model
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】アピアランス・モデル120は、長い時間経過にわたって学習される安定モデル・コンポーネント(S)、および比較的短い時間経過(たとえば2−フレームの動きコンポーネント(W)および/またはアウトライア処理コンポーネント(L))にわたって学習される推移コンポーネント(W/L)を含む。オンラインEMアルゴリズムが使用されて、経時的にアピアランス・モデル・パラメータの適応が行われる。このアプローチの実装は、ステアラブル・ピラミッドからのフィルタ応答に基づいて展開されている。アピアランス・モデルは、動きベースの追跡アルゴリズム110内において使用され、オクルージョンによって生じるようなイメージのアウトライアに抗して堅牢性を提供する。
【選択図】図1
Description
m=(mw,ms,ml)は混合確率であり、
qt=(μs,t,σ2 s,t)
は、このモデルの安定コンポーネントの平均ならびに分散パラメータを含む。
q=(μs,σ2 s)
および混合確率
m=(mw,ms,ml)
によって評価することが必要になる。さらに、フィルタ応答に評価スキームを適用するためには、各観測に関して比較的小さなメモリしか必要としない単純な演算アルゴリズムが求められる。
dt={dk}t k=0
を、式(1)における密度に従って表すことができる。
mt
および
qt
は、時間的な台の包絡線St(k)の下におけるデータに関係するパラメータを表す。これらのパラメータは時間的に緩やかに変化するが、EMアルゴリズム(たとえば、1977年のJ.Royal Statistical Society Series B(王立統計学会シリーズB),39:1〜38の、A.P.Dempster(A.P.ディムスター)、N.M.Laird(N.M.ラード)、およびD.B.Rubin(ルービン)による「Maximum Likelihood from Incomplete Data Via the EM Algorithm(EMアルゴリズムを介した不完全データからの最大尤度)」を参照されたい)が
mt
および
qt
の評価に考慮され、それにおいては、これらが時間ウインドウの下に一定であることが仮定される。これらのEM更新の形式は、ここで述べているオンライン方法に関する基礎を提供する。
mt
および
qt
に関する現在の推測(時間ウインドウにわたって一定)を前提とするとE−ステップは、i∈{w,s,l}に関して、各観測dkに関するオーナーシップ確率を提供する。
mt
および
qt
に関して計算する。まず、更新された最大確率mtは、i∈{w,s,l}に関し、次式によって与えられる(表記
mi,t
は、再利用されて更新された値を表す)。
dt={d(x,t)}x∈Nt
がその領域内の時間tにおけるすべてのフィルタからの位相観測のセットを示すものとする。また
At={M(x,t),q(x,t)}x∈Nt
は、Ntのそれぞれの向き、スケールおよび空間ロケーションにおける位相のアピアランス・モデル全体を表すものとする。指数時間的な台St(k)の半減期は、ns=20フレームにセットされた。オンラインEMエスティメータのそのほかのパラメータは:(1)[−π;π)において均一なアウトライア確率;(2)σw=0.35πを伴う平均ゼロのガウシアンとなるように取られる、位相差におけるWコンポーネントの標準偏差;および(3)Sコンポーネントの最小標準偏差、σs,0=0.1πである。後者のパラメータは、位相の使用に固有である。
ct
を考えたとき、フレームt−1におけるピクセル
x
は、時間tにおけるイメージ・ロケーション
xt=w(x;ct)
に対応し、それにおいて
w(x;ct)
はワープ関数である。ここでは類似性変換が使用され、したがって、
ct=(ut,θt,ρt)
は、それぞれ平行移動、回転およびスケール変換を記述する4次元ベクトルとなる。平行移動はピクセルにおいて、回転はラジアンにおいて指定され、スケール・パラメータは乗数を示すことから
η≡(0,0,0,1)
は、アイデンティティ・ワープである。追跡のために、ターゲット近隣が、各フレームにおいて動きパラメータによって前方に対流(つまりワープ)される。言い換えると、パラメータ・ベクトル
ct
を考えた場合、Ntは、
w(x;ct)
によるNt−1のワープによって提供される単なる楕円領域となる。このほかのパラメータ化されたイメージ・ワープ、およびこのほかのパラメータ化された領域表現を使用することもできる(たとえば、参照によりこれに援用されている1994年のCVGIP:Image Understanding(イメージの理解)60(2):119〜140、F.G.Meyer(F.G.メイヤー)およびP.Bouthemy(P.バウスミー)による「Region−Based Tracking Using Affine Motion Models in Long Image Sequences(長いイメージ・シーケンスにおけるアフィン動きモデルを使用した領域ベースの追跡)」を参照されたい)。
dx,t−1≡d(x,t−1)
である。同様に、参照している以前のフレームにワープ・バックされたカレント・データは、
dx,t≡d(w(x;ct),t)
によって示され、最後に発明者らは、
Ax,t≡(mx,t−1,qx,t−1)
を定義している。直感的に、このログ尤度は、次のように理解することができる:カレント・フレームtにおけるデータが、パラメータ
ct
に従ってフレームt−1の座標にワープ・バックされる。このワープ後のデータ
{dx,t}x∈Nt−1
のログ尤度が、その後、以前のフレーム内のターゲット領域
Nt−1
の参照しているフレーム内のアピアランス・モデル
At−1
に関して演算される。
ct−1
に調和された動きパラメータ
ct=(ut,θt,ρt)
に関する事前密度を、2つの4Dガウシアンの積となるように設定した。
η
に等しく、その共分散が
V1≡diag(82,82,0.052,0.012)
によって与えられる、遅い動きを優先する。2番目のガウシアンは、
V2≡diag(1,1,0.022,0.012)
を伴う、動き内の遅い変化を優先する。
を評価するために、与えられたログ尤度およびログ−プライアの合計を次式によって最大化する。
の最大化は、参照によりこれに援用されている1993年6月にニューヨークで開催されたIEEE Computer Vision and Pattern Recognition(IEEEコンピュータの視覚およびパターン認識)CVPR−93の会報760〜761ページにある「Mixture Model for Opticl Flow Computation(オプティカル・フロー演算に関する混合モデル)」にA.Jepson(A.ジェプソン)およびM.J.Black(M.Jブラック)によって説明されているように期待−最大化(EM)アルゴリズムの単純な変形が使用される。これは、繰り返しの粗−密アルゴリズムであり、この方法の局所的な最小値内へのトラップのコントロールに使用されるアニーリングを伴う。簡単に述べると、E−ステップが逆方向ワープ済みデータ
Dt
に関するオーナーシップ確率を、前述の式(3)にあるように決定する。M−ステップは、これらのオーナーシップを使用して
ct
に対する更新に関する線形連立系を構成する。線形連立系のこれらのコンポーネントは、WおよびSプロセスに関するオーナーシップ確率によって重み付けされる動き制約から獲得される。
E(ct)
の極値を用いて開始する。
によって示されるワープ後のデータを用いると、式(10)にあるようなログ尤度の導関数は次式のようになる。
∂(log(f(x))/∂x=1/f(x)(∂(f(x))/∂x)
となり、式(1)に従って尤度関数を拡張すると、式(14)は次のように簡略化される。
E(ct)
の最大化のための反復法である。E−ステップにおいて、動きパラメータに関するカレント推測値を
ct
とすると、オーナーシップ確率、
ow(dx,t)
および
os(dx,t)
は、動きパラメータを固定したまま計算される。続くM−ステップにおいては、動きパラメータに対する更新
δc
が、オーナーシップ確率を一定に維持して目的関数を最大化することによって評価される。
□(δc;ct)
は、動きパラメータに関する初期推測
ct
についてカレント観測を線形化することによって得られる。より詳細には、
d(w(x;ct),t)
が、
ct
に関して取られるその1次のテーラー級数によって近似される。より数式的には、
∇d(x,t)≡(dx(x,t),dy(x,t))
が、データ観測の空間的な部分導関数を示し、
W=δw/δct
が、
ct
におけるワープ・マップの2×4ヤコビアンを示す。
に関するこの近似を目的関数に代入することによって、アピアランス・モデルの安定コンポーネントに関する次の式が得られる。
δds≡d(w(x;ct),t)−μs,t、
q=(μs,t,σs,t)
は、アピアランス・モデルのSコンポーネントの平均および標準偏差であり、かつ
∇d=∇d(w(x;ct),t)
であり、κsは、
ct
とは独立した定数である。同様に、アピアランス・モデルのWコンポーネントについては次式が得られる。
δdw≡d(w(x;ct),t)−d(x,t−1)−d(w(x,t−1))
であり、かつκwは、
ct
とは独立した定数である。
ct
とは独立した定数である。近似目的関数が更新
δc
に関する2次式であることから、その導関数は、次に示すように
δc
に関する線形連立方程式をもたらす。
δc
に関する線形方程式を次のように記述することができる。
bi
は、i=w,s,pに関する4次元ベクトルである。
pw(dx,t,dx,t−1)
が未定義になる。それに代えて、以前の観測が不安定と考えられるとき、pw=0,05を使用する。また、それらの場合においては、対応するWコンポーネントの制約を、εを0にセットすることによって線形連立系から除去する。
σs
および
σw
は、カレントのEMの繰り返しにおいて獲得された動き評価を前提とする、SコンポーネントおよびWコンポーネントの位相差の、全近隣Ntにわたる最大尤度分散評価である。分散が最小値に達すると、アニーリングがオフになり、それらは、カレントの動きパラメータに従った揺動が許される。さらに、Sコンポーネントの分散が、各EMの繰り返しにおけるデータ観測の空間的集合に従って減少することから、オーナーシップおよび尤度グラディエントの演算における各個別の観測に使用される分散は、対応する分散σ2 s,tより低くなることができない。
ct
が決定された後は、アピアランス・モデルAt−1が
ct
によって指定されるワープを使用して、カレント時間tに向かって前方に対流(ワープ)される。このワープを行うために、区分的な定数の補間値(原文:interpolant)が、WSL状態変数
m(x,t−1)
および
σs(x,t−1)
に関して使用される。この補間は、安定プロセスに関する平均
μ(x,t−1)
の補間への使用には粗すぎることが予測されたため、区分的な線型モデルを使用して平均の補間が行われている。この補間に関する空間位相グラディエントは、イメージ・ピラミッドのサンプリング・グリッド上の希望ロケーション
x
に対する最近ピクセルにおけるフィルタ応答のグラディエントから決定される(参照によりこれに援用されている1991年のComputer Vision and Image Understanding(コンピュータの視覚およびイメージの理解)53(2):198〜210にあるD.J.Fleet(D.J.フリート)、A.D.Jepson(A.D.ジェプソン)およびM.Jenkin(M.ジェンキン)による「Phase−Based Disparity Measurement(位相ベースの不同測定)」を参照されたい)。
ms(x,t)
をプロットしており、図30〜42は、平均
μs(x,t)
をプロットしており、図31〜43は、Sコンポーネントに関するオーナーシップ
os,t(x,t)
をプロットしている。
ms(x,t)
は、データのサポートがないことからオクルージョンの生じている領域内においてなめらかに減衰しているが、平均
μs(x,t)
は、msがプロットのスレッショルドより低く落ちるまで概略で一定に保たれている。これは、アピアランス・モデルの持続性を明確に例証している。図36〜39は、オクルージョンから約20フレーム後の(ここで、このモデルの半減期がns=20であったことを思い出されたい)対象およびアピアランス・モデルを示しており、その時点まで、Sコンポーネント内のより弱いデータ・ポイントが消失している。しかしながら、このモデルは、このオクルージョンの発生を通じて追跡を継続しており、対象の見えている部分上(たとえば領域1710;図39)に安定したモデルを維持している。図40〜43においては、オクルージョンの背後から人物が現れたとき、消散された安定したモデルをアピアランス・モデルが再構築している。
Claims (3)
- 複数の連続したイメージフレーム内に提供されるイメージデータを使用するアピアランスモデルを生成するための方法であって、
前記アピアランスモデルが、第1の混合確率及び比較的多数の連続したイメージフレーム内に提供されるイメージデータによって定義される第1のデータパラメータを含む安定コンポーネントによって定義され、かつ前記アピアランスモデルが、第2の混合確率及び比較的少数の連続したイメージフレーム内に提供されるイメージデータによって定義される第2のデータパラメータを有する推移コンポーネントを包含し、
前記方法が、
複数の連続したイメージフレームの、もっとも新しいイメージフレームに対応するイメージデータを受け取り、
前記安定コンポーネントに関する第1の尤度値及び前記推移コンポーネントに関する第2の尤度値の決定であって、前記第1の尤度値が前記イメージデータと前記第1のデータパラメータの間における相対的な一致を示し、第2の尤度値が前記イメージデータと前記第2のデータパラメータの間における相対的な一致を示すものとし、
前記第1および第2の尤度値をそれぞれ使用して、前記安定コンポーネントの前記混合確率及び前記推移コンポーネントの前記第2の混合確率を更新する、
各ステップを含む方法。 - 選択されたターゲットオブジェクトを追跡するための方法であって、
前記ターゲットオブジェクトに関連付けされたイメージデータを含むカレントイメージフレームを受け取り、
ターゲットオブジェクトの動きを、時間的に前記カレントイメージフレームに先行する比較的多数のイメージフレームにわたって受け取られたイメージデータによって定義されるパラメータを有する第1のイメージコンポーネント及び時間的に前記カレントイメージフレームに先行する比較的少数の連続するイメージフレームにわたるイメージデータによって定義されるパラメータを有する第2のイメージコンポーネントを含む適応型アピアランスモデルを使用して評価し、
前記第1及び第2のイメージコンポーネントを更新する、
各ステップを含む方法。 - プロセッサによりコントロールされるマシン上に実装される、複数の連続したイメージフレーム内に現れるオブジェクトを識別するための適応型アピアランスモデルであって、
比較的多数の連続したイメージフレームにわたって安定を保つイメージデータによって定義されるパラメータを有する第1のイメージコンポーネントと、
比較的少数の連続したイメージフレームによって定義されるパラメータを有する第2のイメージコンポーネントを含み、かつ
複数の連続したイメージフレームのカレントイメージフレームを受け取った後に、前記第1のイメージコンポーネントを更新するための手段と、
を包含する適応型アピアランスモデル。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/016,659 | 2001-12-07 | ||
US10/016,659 US7058205B2 (en) | 2001-12-07 | 2001-12-07 | Robust, on-line, view-based appearance models for visual motion analysis and visual tracking |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002354936A Division JP4372411B2 (ja) | 2001-12-07 | 2002-12-06 | アピアランスモデルの生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009217855A true JP2009217855A (ja) | 2009-09-24 |
JP4824791B2 JP4824791B2 (ja) | 2011-11-30 |
Family
ID=21778275
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002354936A Expired - Fee Related JP4372411B2 (ja) | 2001-12-07 | 2002-12-06 | アピアランスモデルの生成方法 |
JP2009155784A Expired - Fee Related JP4824791B2 (ja) | 2001-12-07 | 2009-06-30 | 視覚型動き解析及び視覚型追跡のためのアピアランスモデル |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002354936A Expired - Fee Related JP4372411B2 (ja) | 2001-12-07 | 2002-12-06 | アピアランスモデルの生成方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US7058205B2 (ja) |
EP (1) | EP1318477B1 (ja) |
JP (2) | JP4372411B2 (ja) |
BR (1) | BR0204991A (ja) |
DE (1) | DE60209989T2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015532739A (ja) * | 2012-07-26 | 2015-11-12 | クアルコム,インコーポレイテッド | ユーザインターフェースコントローラなどの有形オブジェクトの拡張 |
Families Citing this family (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7058205B2 (en) * | 2001-12-07 | 2006-06-06 | Xerox Corporation | Robust, on-line, view-based appearance models for visual motion analysis and visual tracking |
US6954544B2 (en) * | 2002-05-23 | 2005-10-11 | Xerox Corporation | Visual motion analysis method for detecting arbitrary numbers of moving objects in image sequences |
GB0218982D0 (en) * | 2002-08-15 | 2002-09-25 | Roke Manor Research | Video motion anomaly detector |
US7072494B2 (en) | 2004-02-20 | 2006-07-04 | Siemens Corporate Research, Inc. | Method and system for multi-modal component-based tracking of an object using robust information fusion |
EP1602321A1 (en) * | 2004-06-02 | 2005-12-07 | SensoMotoric Instruments GmbH | Method and apparatus for image-based eye tracking for retinal diagnostic or surgery device |
US7639841B2 (en) * | 2004-12-20 | 2009-12-29 | Siemens Corporation | System and method for on-road detection of a vehicle using knowledge fusion |
US7599549B2 (en) * | 2004-12-22 | 2009-10-06 | Fujifilm Corporation | Image processing method, image processing apparatus, and computer readable medium, in which an image processing program is recorded |
GB0502371D0 (en) * | 2005-02-04 | 2005-03-16 | British Telecomm | Identifying spurious regions in a video frame |
DE602006017812D1 (de) * | 2005-03-17 | 2010-12-09 | British Telecomm | Verfahren zur verfolgung von objekten in einer videosequenz |
US7664962B2 (en) * | 2006-03-13 | 2010-02-16 | Motorola, Inc. | Multiple-input, automatic recognition method and apparatus |
US8026931B2 (en) | 2006-03-16 | 2011-09-27 | Microsoft Corporation | Digital video effects |
US20110123067A1 (en) * | 2006-06-12 | 2011-05-26 | D & S Consultants, Inc. | Method And System for Tracking a Target |
EP1879149B1 (en) * | 2006-07-10 | 2016-03-16 | Fondazione Bruno Kessler | method and apparatus for tracking a number of objects or object parts in image sequences |
US8154600B2 (en) * | 2007-04-20 | 2012-04-10 | Utc Fire & Security Americas Corporation, Inc. | Method and system for distributed multiple target tracking |
US20090002489A1 (en) * | 2007-06-29 | 2009-01-01 | Fuji Xerox Co., Ltd. | Efficient tracking multiple objects through occlusion |
GB2452512B (en) * | 2007-09-05 | 2012-02-29 | Sony Corp | Apparatus and method of object tracking |
US8160371B2 (en) * | 2007-12-03 | 2012-04-17 | Honeywell International Inc. | System for finding archived objects in video data |
US8190549B2 (en) * | 2007-12-21 | 2012-05-29 | Honda Motor Co., Ltd. | Online sparse matrix Gaussian process regression and visual applications |
US7782490B2 (en) * | 2008-02-01 | 2010-08-24 | Xerox Corporation | Sensitivity matrix determination for adaptive color control |
EP2131212A3 (en) * | 2008-06-05 | 2011-10-05 | Medison Co., Ltd. | Non-Rigid Registration Between CT Images and Ultrasound Images |
US8200017B2 (en) * | 2008-10-04 | 2012-06-12 | Microsoft Corporation | Face alignment via component-based discriminative search |
US8099442B2 (en) * | 2008-10-24 | 2012-01-17 | Seiko Epson Corporation | Robust generative features |
US8611590B2 (en) * | 2008-12-23 | 2013-12-17 | Canon Kabushiki Kaisha | Video object fragmentation detection and management |
AU2008264232B2 (en) * | 2008-12-30 | 2012-05-17 | Canon Kabushiki Kaisha | Multi-modal object signature |
WO2010118629A1 (en) * | 2009-04-17 | 2010-10-21 | The Hong Kong University Of Science And Technology | Method, device and system for facilitating motion estimation and compensation of feature-motion decorrelation |
US8989438B2 (en) * | 2009-08-20 | 2015-03-24 | Nec Corporation | Mobile body track identification system |
AU2009243528B2 (en) | 2009-12-04 | 2013-08-01 | Canon Kabushiki Kaisha | Location-based signature selection for multi-camera object tracking |
US20110187703A1 (en) * | 2010-01-29 | 2011-08-04 | Kedar Anil Patwardhan | Method and system for object tracking using appearance model |
US8873798B2 (en) * | 2010-02-05 | 2014-10-28 | Rochester Institue Of Technology | Methods for tracking objects using random projections, distance learning and a hybrid template library and apparatuses thereof |
DE102010023313A1 (de) * | 2010-06-10 | 2011-12-15 | Jörg Mudrak | Verfahren zur Erzeugung von Bewegungsartefakten in einem Bild und eine dafür benötigte Einrichtung |
US9429940B2 (en) | 2011-01-05 | 2016-08-30 | Sphero, Inc. | Self propelled device with magnetic coupling |
US9090214B2 (en) | 2011-01-05 | 2015-07-28 | Orbotix, Inc. | Magnetically coupled accessory for a self-propelled device |
US9218316B2 (en) | 2011-01-05 | 2015-12-22 | Sphero, Inc. | Remotely controlling a self-propelled device in a virtualized environment |
WO2012094349A2 (en) | 2011-01-05 | 2012-07-12 | Orbotix, Inc. | Self-propelled device with actively engaged drive system |
US10281915B2 (en) | 2011-01-05 | 2019-05-07 | Sphero, Inc. | Multi-purposed self-propelled device |
US8948447B2 (en) * | 2011-07-12 | 2015-02-03 | Lucasfilm Entertainment Companyy, Ltd. | Scale independent tracking pattern |
JP6185919B2 (ja) | 2011-11-09 | 2017-08-23 | タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited | 人物検出モダリティ結果を融合して人物カウンティングを向上させる方法及びシステム |
CN104428791A (zh) | 2012-05-14 | 2015-03-18 | 澳宝提克斯公司 | 通过检测图像中的圆形物体操作计算装置 |
US9827487B2 (en) | 2012-05-14 | 2017-11-28 | Sphero, Inc. | Interactive augmented reality using a self-propelled device |
US9292758B2 (en) | 2012-05-14 | 2016-03-22 | Sphero, Inc. | Augmentation of elements in data content |
US10056791B2 (en) | 2012-07-13 | 2018-08-21 | Sphero, Inc. | Self-optimizing power transfer |
KR101977802B1 (ko) * | 2012-10-10 | 2019-05-13 | 삼성전자주식회사 | 영상 시스템에서 움직임 추정 장치 및 방법 |
US8995719B2 (en) * | 2012-12-10 | 2015-03-31 | Intel Corporation | Techniques for improved image disparity estimation |
US20140176548A1 (en) * | 2012-12-21 | 2014-06-26 | Nvidia Corporation | Facial image enhancement for video communication |
US9025825B2 (en) | 2013-05-10 | 2015-05-05 | Palo Alto Research Center Incorporated | System and method for visual motion based object segmentation and tracking |
US9070289B2 (en) | 2013-05-10 | 2015-06-30 | Palo Alto Research Incorporated | System and method for detecting, tracking and estimating the speed of vehicles from a mobile platform |
CN103593856A (zh) * | 2013-11-20 | 2014-02-19 | 中国科学院深圳先进技术研究院 | 单目标跟踪方法及系统 |
US9829882B2 (en) | 2013-12-20 | 2017-11-28 | Sphero, Inc. | Self-propelled device with center of mass drive system |
CN104408768B (zh) * | 2014-11-20 | 2017-06-09 | 浙江大学 | 一种基于联合字典的三维人脸表情去除的方法 |
US9697614B2 (en) | 2014-12-08 | 2017-07-04 | Mitsubishi Electric Research Laboratories, Inc. | Method for segmenting and tracking content in videos using low-dimensional subspaces and sparse vectors |
US10252417B2 (en) * | 2016-03-02 | 2019-04-09 | Canon Kabushiki Kaisha | Information processing apparatus, method of controlling information processing apparatus, and storage medium |
EP3340104B1 (en) * | 2016-12-21 | 2023-11-29 | Axis AB | A method for generating alerts in a video surveillance system |
JP7080615B2 (ja) * | 2017-10-04 | 2022-06-06 | 株式会社日立製作所 | 監視装置、その方法および、そのシステム |
CN111291739B (zh) * | 2020-05-09 | 2020-09-18 | 腾讯科技(深圳)有限公司 | 面部检测、图像检测神经网络训练方法、装置和设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04372411A (ja) * | 1991-06-19 | 1992-12-25 | Toyota Motor Corp | アクティブサスペンションの制御装置 |
US5625715A (en) * | 1990-09-07 | 1997-04-29 | U.S. Philips Corporation | Method and apparatus for encoding pictures including a moving object |
US6731799B1 (en) * | 2000-06-01 | 2004-05-04 | University Of Washington | Object segmentation with background extraction and moving boundary techniques |
US7058205B2 (en) * | 2001-12-07 | 2006-06-06 | Xerox Corporation | Robust, on-line, view-based appearance models for visual motion analysis and visual tracking |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6724915B1 (en) * | 1998-03-13 | 2004-04-20 | Siemens Corporate Research, Inc. | Method for tracking a video object in a time-ordered sequence of image frames |
US6798897B1 (en) * | 1999-09-05 | 2004-09-28 | Protrack Ltd. | Real time image registration, motion detection and background replacement using discrete local motion estimation |
US6741756B1 (en) * | 1999-09-30 | 2004-05-25 | Microsoft Corp. | System and method for estimating the orientation of an object |
-
2001
- 2001-12-07 US US10/016,659 patent/US7058205B2/en not_active Expired - Fee Related
-
2002
- 2002-12-06 EP EP02027305A patent/EP1318477B1/en not_active Expired - Fee Related
- 2002-12-06 JP JP2002354936A patent/JP4372411B2/ja not_active Expired - Fee Related
- 2002-12-06 DE DE60209989T patent/DE60209989T2/de not_active Expired - Lifetime
- 2002-12-06 BR BR0204991-0A patent/BR0204991A/pt not_active Application Discontinuation
-
2009
- 2009-06-30 JP JP2009155784A patent/JP4824791B2/ja not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5625715A (en) * | 1990-09-07 | 1997-04-29 | U.S. Philips Corporation | Method and apparatus for encoding pictures including a moving object |
JPH04372411A (ja) * | 1991-06-19 | 1992-12-25 | Toyota Motor Corp | アクティブサスペンションの制御装置 |
US6731799B1 (en) * | 2000-06-01 | 2004-05-04 | University Of Washington | Object segmentation with background extraction and moving boundary techniques |
US7058205B2 (en) * | 2001-12-07 | 2006-06-06 | Xerox Corporation | Robust, on-line, view-based appearance models for visual motion analysis and visual tracking |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015532739A (ja) * | 2012-07-26 | 2015-11-12 | クアルコム,インコーポレイテッド | ユーザインターフェースコントローラなどの有形オブジェクトの拡張 |
Also Published As
Publication number | Publication date |
---|---|
DE60209989T2 (de) | 2006-08-17 |
EP1318477B1 (en) | 2006-03-22 |
EP1318477A2 (en) | 2003-06-11 |
US20030108220A1 (en) | 2003-06-12 |
JP4372411B2 (ja) | 2009-11-25 |
DE60209989D1 (de) | 2006-05-11 |
JP4824791B2 (ja) | 2011-11-30 |
BR0204991A (pt) | 2004-06-29 |
US7058205B2 (en) | 2006-06-06 |
EP1318477A3 (en) | 2003-09-17 |
JP2003196661A (ja) | 2003-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4824791B2 (ja) | 視覚型動き解析及び視覚型追跡のためのアピアランスモデル | |
JP6695503B2 (ja) | 車両の運転者の状態を監視するための方法及びシステム | |
Dosovitskiy et al. | Flownet: Learning optical flow with convolutional networks | |
US7072494B2 (en) | Method and system for multi-modal component-based tracking of an object using robust information fusion | |
JP5848341B2 (ja) | 単眼3次元ポーズ推定および検出による追跡 | |
Jepson et al. | Robust online appearance models for visual tracking | |
Babu et al. | Robust tracking with motion estimation and local kernel-based color modeling | |
Mei et al. | Robust visual tracking and vehicle classification via sparse representation | |
JP6421510B2 (ja) | 目標検出方法及び目標検出システム | |
Zhou et al. | A background layer model for object tracking through occlusion | |
US7755619B2 (en) | Automatic 3D face-modeling from video | |
JP5520463B2 (ja) | 画像処理装置、対象物追跡装置および画像処理方法 | |
US8363902B2 (en) | Moving object detection method and moving object detection apparatus | |
EP2854104A1 (en) | Semi-dense simultaneous localization and mapping | |
US20040109584A1 (en) | Method for tracking facial features in a video sequence | |
JP2012529691A (ja) | 3次元画像生成 | |
CN109685037B (zh) | 一种实时动作识别方法、装置及电子设备 | |
US20230334235A1 (en) | Detecting occlusion of digital ink | |
CN110175649A (zh) | 一种关于重新检测的快速多尺度估计目标跟踪方法 | |
KR101681104B1 (ko) | 부분적 가림을 갖는 영상 객체 내의 주요 특징점 기반 다중 객체 추적 방법 | |
CN113870315B (zh) | 基于多算法集成的动作迁移模型训练方法及动作迁移方法 | |
CN110602476A (zh) | 一种基于深度信息辅助的高斯混合模型的空洞填补方法 | |
US20210279506A1 (en) | Systems, methods, and devices for head pose determination | |
Li et al. | Real-time human tracking based on switching linear dynamic system combined with adaptive Meanshift tracker | |
Bazanov et al. | Gaze estimation for near-eye display based on fusion of starburst algorithm and fern natural features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090713 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090713 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110301 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110816 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110908 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140916 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |