JP2003196661A - 視覚型動き解析及び視覚型追跡のためのアピアランスモデル - Google Patents

視覚型動き解析及び視覚型追跡のためのアピアランスモデル

Info

Publication number
JP2003196661A
JP2003196661A JP2002354936A JP2002354936A JP2003196661A JP 2003196661 A JP2003196661 A JP 2003196661A JP 2002354936 A JP2002354936 A JP 2002354936A JP 2002354936 A JP2002354936 A JP 2002354936A JP 2003196661 A JP2003196661 A JP 2003196661A
Authority
JP
Japan
Prior art keywords
image
component
data
appearance model
stable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002354936A
Other languages
English (en)
Other versions
JP4372411B2 (ja
Inventor
Allan D Jepson
ディー ジェプソン アラン
David J Fleet
ジェイ フリート デビッド
Thomas F El-Maraghi
エフ エル マラギー トーマス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xerox Corp
Original Assignee
Xerox Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xerox Corp filed Critical Xerox Corp
Publication of JP2003196661A publication Critical patent/JP2003196661A/ja
Application granted granted Critical
Publication of JP4372411B2 publication Critical patent/JP4372411B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 複雑な自然オブジェクトの動きベースの追跡
のための堅牢な適応型アピアランス・モデルを提供す
る。 【解決手段】 アピアランス・モデル120は、長い時
間経過にわたって学習される安定モデル・コンポーネン
ト(S)、および比較的短い時間経過(たとえば2−フ
レームの動きコンポーネント(W)および/またはアウ
トライア処理コンポーネント(L))にわたって学習さ
れる推移コンポーネント(W/L)を含む。オンライン
EMアルゴリズムが使用されて、経時的にアピアランス
・モデル・パラメータの適応が行われる。このアプロー
チの実装は、ステアラブル・ピラミッドからのフィルタ
応答に基づいて展開されている。アピアランス・モデル
は、動きベースの追跡アルゴリズム110内において使
用され、オクルージョンによって生じるようなイメージ
のアウトライアに抗して堅牢性を提供する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、概して、アピアラ
ンス・モデルを生成し、かつ更新するためのプロセッサ
−ベースのテクニックに関し、より詳細には、複数のモ
デル・コンポーネントを使用してアピアランス・モデル
を生成するためのプロセスに関する。
【0002】
【従来の技術】自動化された視覚型追跡システムがしば
しば使用されて、一連のイメージ・フレーム内に現れる
ターゲット・イメージの追跡が行われる。概して、ター
ゲット・オブジェクトが識別された後は、追跡システム
が、当該ターゲット・オブジェクトを背景ならびにその
ほかの非ターゲット・イメージ・データから区別するこ
とによって、連続するそれぞれのイメージ・フレーム内
における当該ターゲット・オブジェクトのポジションを
決定する。この種の追跡システムは、しばしば動き評価
アルゴリズムを使用し、新しい(カレント)イメージ・
フレーム内のターゲット・オブジェクトの動きを、当該
新しいフレームに先行する2ないしはそれを超える数の
イメージ・フレーム内におけるターゲット・オブジェク
トの動きのパターンを解析することによって予測してい
る。
【0003】必ずしもそれそのものとして述べられては
いないが、従来の動き評価および追跡システムは、何ら
かの形式のアピアランス・モデルを具体化しており、そ
れが使用されて各イメージ・フレーム内のターゲット・
オブジェクトが識別される。概して、アピアランス・モ
デルは、ターゲット・オブジェクトの記述であって、動
き評価/追跡システムは、それを使用して、各イメージ
・フレーム内のターゲット・オブジェクトを、当該ター
ゲット・オブジェクトを囲む非ターゲット・オブジェク
トから区別することができる。ターゲット・オブジェク
トがロケーションを変化させるとき、動き評価/追跡シ
ステムは、アピアランス・モデルによって提供されるす
でに確立済みの記述を満足する新しいフレームの領域を
識別することにより、それぞれの新しいロケーションを
識別する。
【0004】動き評価および追跡システムのパフォーマ
ンスを制限する主要な要因の1つは、アピアランス・モ
デルがターゲット・オブジェクトのアピアランスの変化
に対する適応に失敗することである。3次元(3D)空
間内に配置された3Dターゲット・オブジェクトによっ
て2次元イメージ・フレーム内に伝えられるイメージ
は、通常、ターゲット・オブジェクトとイメージ・フレ
ーム生成デバイス(たとえばカメラ)の間の相対的な変
位によってもたらされるイメージのひずみの影響を受け
る。たとえば、カメラとターゲット・オブジェクトのポ
ジションの間の距離が変化するとターゲット・オブジェ
クトのサイズがより大きく、またはより小さくなる。同
様に、形状および/またはターゲット・オブジェクトか
ら反射される光についても、通常、カメラに対する相対
的なターゲット・オブジェクトの向きの変化(たとえば
ターゲット・オブジェクトまたはカメラの回転もしくは
平行移動)に起因して変化する。それに加えて、非ター
ゲット・オブジェクトによるターゲット・オブジェクト
の部分的もしくは完全なオクルージョン(つまり、ター
ゲット・オブジェクトとカメラの間への介挿)が発生し
た場合にもイメージのひずみを生じる。さらに、複雑な
自然オブジェクト(つまり、アピアランスが、顔の表情
等の、ターゲット・オブジェクトとカメラの間における
相対的な変位と独立した変化の影響を受けやすいオブジ
ェクト)が、追加のアピアランスのバリエーションをも
たらし、それについてもアピアランス・モデルによって
説明が得られなければならない。以下に追加の詳細を述
べるが、テンプレート・マッチング・モデル、グローバ
ル統計モデル、2−フレームの動き評価、および時間的
にフィルタリングされた動き補償イメージ・モデルとい
った従来のアピアランス・モデルは、これらのひずみの
1ないしは複数の説明に失敗しており、その結果、動き
評価および追跡システムが最終的にターゲット・オブジ
ェクトの追跡を逃している。
【0005】テンプレート・マッチング・アピアランス
・モデルは、ターゲット・オブジェクトの、あらかじめ
学習済みの固定イメージ・モデル(「テンプレート」)
であり、それが追跡システムによって使用されて、イメ
ージ・フレーム内のターゲット・オブジェクトが識別
(「マッチング」)され、それによってそのロケーショ
ンが決定される。この種の追跡システムは、短期間(つ
まり、ターゲット・オブジェクトのアピアランスが固定
イメージ・モデルと無矛盾を維持する間)にわたって信
頼に足るものとなり得るが、多くの応用に共通して生じ
る、より長い期間にわたるターゲット・オブジェクトの
アピアランスの変化に良好に対処できない。これらの追
跡システムの信頼性は、テンプレート内において各ピク
セルの変動性を表現することによって改善することがで
きる(特許文献1参照)。しかしながら、追跡に先行し
て学習段階が必要となり、そこではトレーニング・イメ
ージ・データに関して各ピクセルにおけるイメージの輝
度の分散の評価が行われる。
【0006】追跡システムの信頼性は、アピアランスの
部分空間モデルの使用を伴って強化されることもある
(たとえば、特許文献2参照)。一般に基本コンポーネ
ント解析を用いて学習されるこの種のビュー・ベースの
モデルは、ポーズおよび照明におけるバリエーションの
モデリングに利点を有する。これらは、サーチだけでな
く、逐次追跡にも使用することができる。しかしながら
同時にそれらは、それらがオブジェクト固有であるとい
う不利点、および部分空間の学習のために追跡に先行し
て行われるトレーニングを必要とするという不利点も有
している。
【0007】カラー・ヒストグラム等のローカルならび
にグローバル・イメージ統計も、ターゲット・オブジェ
クトの追跡のための粗いアピアランス・モデルとして使
用されてきた(たとえば特許文献3参照)。これらのア
ピアランス・モデルは、イメージのひずみおよびオクル
ージョンが生じたときの堅牢性を提供し、学習が高速で
あり、かつサーチだけでなく追跡に使用することもでき
る。しかしながら、グローバルな統計的記述は、アピア
ランスの空間構造が欠けている;言い換えると、多数の
類似するカラー・ピクセル(たとえば、高い比率の赤お
よび青のピクセル)をそれらのカラー・ピクセルの空間
的な関係(たとえば、青いズボンの上に配置される赤い
シャツのイメージに関連付けされる青ピクセルのグルー
プの上に垂直に配置される赤ピクセルのグループ)から
区別する能力に欠けている。この表現能力の欠如は、多
くの場合にグローバルな統計的記述の、ターゲット・オ
ブジェクトにアピアランス・モデルを正確にレジストす
る能力を制限する。それに加えて、これらの粗いアピア
ランス・モデルは、類似の統計を近隣の領域と共有する
注目領域内におけるオブジェクトの正確な追跡に失敗す
る可能性も有する。
【0008】動きベースの追跡方法は、時間を通して動
き評価を調整する。2−フレームの動き評価の場合は、
それぞれの連続するフレームのペアの間において動きが
計算される。それぞれの連続するフレームのペアの間に
おいて動きが計算されることから、動きベースの追跡シ
ステムによって使用されるアピアランスの唯一のモデル
は、最後のフレーム内の注目領域内におけるターゲット
・オブジェクトのアピアランスである。その結果、この
方法の誤差は、時間とともに急速に累積される可能性が
ある。2−フレームの動き評価におけるアピアランス・
モデルは、アピアランスの急な変化に適応することがで
きる。しかしながら、ターゲット・オブジェクトがアピ
アランスをすばやく変化させるときには、しばしばアピ
アランス・モデルがターゲット・オブジェクトからドリ
フトして離れる。その結果、しばしば注目領域がターゲ
ット・オブジェクトからスライドして、背景もしくは別
のオブジェクト上にはずれる。これは、特に、ターゲッ
ト・オブジェクトと背景の動きが類似しているときに問
題をもたらすものとなる。
【0009】動きベースの追跡方法は、時間的に適応型
アピアランス・モデルを蓄積することによって改善され
た。実際、最適動き評価を、同時的な動きおよびアピア
ランス両方の評価として公式化することが可能である
(特許文献4参照)。この意味においては、前述の学習
済みの部分空間アプローチと同様に、最適動き評価が、
時間を通じて獲得されるアピアランス・モデルに対して
イメージをレジストすることによって達成される。たと
えば、安定化後のイメージのシーケンスを、動き評価か
ら形成し、アピアランス・モデルを学習させることがで
きる。この安定化後のイメージ・シーケンスは、IIR
ロー・パス・フィルタ等の再帰ロー・パス・フィルタを
用いてスムージングし、いくつかのノイズの除去および
もっとも新しいフレームのアップ・ウェイトを行うこと
ができる。しかしながら、線形フィルタリングは、オク
ルージョンおよび局所的なアピアランスのひずみに関し
て堅牢性をもたらす安定性の尺度を提供しない。
【0010】
【非特許文献1】2000年6月にヒルトン・ヘッドで
開催されたIEEE Conference on C
omputer Vision and Patter
n Recognition(コンピュータの視覚およ
びパターン認識に関するIEEE会議)の会報、第I
巻、185〜192ページにあるB.Frey(B.フ
レイ)による「Filling in Scenes
by Propagating Probabilit
ies Through Layers intoAp
pearance Models(レイヤを介したアピ
アランス・モデル内への確率の伝播によるシーン内のフ
ィリング)」
【非特許文献2】1998年のInternation
al Journal of Computer Vi
sion(インターナショナル・ジャーナル・オブ・コ
ンピュータ・ビジョン)26(1):63〜84にある
M.J.Black(M.J.ブラック)およびA.
D.Jepson(A.D.ジェプソン)による「Ei
genTracking: Robust Match
ing and Tracking of Artic
ulated Objects using a Vi
ew Based Representation(固
有追跡:ビュー−ベース表現を使用する連節オブジェク
トの堅牢なマッチングおよび追跡)」
【非特許文献3】1998年6月にサンタバーバラで開
催されたIEEE Conference on Co
mputer Vision and Pattern
Recognition(コンピュータの視覚および
パターン認識に関するIEEE会議)の会報、232〜
237ページにあるS.Birchfield(S.バ
ーチフィールド)による「Elliptical He
ad TrackingUsing Intensit
y Gradients and ColorHist
ograms(明暗度グラディエントおよびカラー・ヒ
ストグラムを使用する長円頭部追跡)」
【非特許文献4】2001年、ケンブリッジ、MITプ
レスのProbabilistic Models o
f the Brain: Perception a
nd Natural Function(脳の蓋然論
的モデル:知覚および自然関数)の81〜100ページ
にあるY.Weiss(Y.バイス)およびD.J.F
leet(D.J.フリート)による「Velocit
y Likelihoods in Biologic
al and Machine Vision(生物学
的およびマシンの視覚における速度尤度)」
【0011】
【発明が解決しようとする課題】必要とされているもの
は、複雑な自然オブジェクトの動きベースの追跡のため
の堅牢な適応型アピアランス・モデルである。そのアピ
アランス・モデルは、緩やかに変化するアピアランスを
はじめ、観測されるイメージ構造の安定性の自然な評価
の、追跡の間にわたる維持に適応する必要がある。また
アピアランス・モデルは、オクルージョン、著しいイメ
ージのひずみ、および顔の表情ならびに衣類に伴って生
じるような自然なアピアランスの変化に関して堅牢であ
る必要がある。アピアランス・モデルのフレームワーク
は、局所的な特徴追跡等の可能性のある各種応用に関す
る追跡および正確なイメージ・アライメントをサポート
し、かつ人体の肢等の相対的なアライメントおよびポジ
ションが重要になるモデルの追跡をサポートする必要が
ある。
【0012】
【課題を解決するための手段】本発明は、複数の連続し
たイメージフレーム内に提供されるイメージデータを使
用するアピアランスモデルを生成するための方法であっ
て、前記アピアランスモデルが、第1の混合確率及び比
較的多数の連続したイメージフレーム内に提供されるイ
メージデータによって定義される第1のデータパラメー
タを含む安定コンポーネントによって定義され、かつ前
記アピアランスモデルが、第2の混合確率及び比較的少
数の連続したイメージフレーム内に提供されるイメージ
データによって定義される第2のデータパラメータを有
する推移コンポーネントを包含し、前記方法が、複数の
連続したイメージフレームの、もっとも新しいイメージ
フレームに対応するイメージデータを受け取るステップ
と、前記安定コンポーネントに関する第1の尤度値及び
前記推移コンポーネントに関する第2の尤度値の決定で
あって、前記第1の尤度値が前記イメージデータと前記
第1のデータパラメータの間における相対的な一致を示
し、第2の尤度値が前記イメージデータと前記第2のデ
ータパラメータの間における相対的な一致を示すものと
するステップと、前記第1および第2の尤度値をそれぞ
れ使用して、前記安定コンポーネントの前記混合確率及
び前記推移コンポーネントの前記第2の混合確率を更新
するステップを含む。
【0013】また、本発明は、選択されたターゲットオ
ブジェクトを追跡するための方法であって、前記ターゲ
ットオブジェクトに関連付けされたイメージデータを含
むカレントイメージフレームを受け取るステップと、タ
ーゲットオブジェクトの動きを、時間的に前記カレント
イメージフレームに先行する比較的多数のイメージフレ
ームにわたって受け取られたイメージデータによって定
義されるパラメータを有する第1のイメージコンポーネ
ント及び時間的に前記カレントイメージフレームに先行
する比較的少数の連続するイメージフレームにわたるイ
メージデータによって定義されるパラメータを有する第
2のイメージコンポーネントを含む適応型アピアランス
モデルを使用して評価するステップと、前記第1及び第
2のイメージコンポーネントを更新するステップを含
む。
【0014】また、本発明の適応型アピアランスモデル
は、プロセッサによりコントロールされるマシン上に実
装される、複数の連続したイメージフレーム内に現れる
オブジェクトを識別するための適応型アピアランスモデ
ルであって、比較的多数の連続したイメージフレームに
わたって安定を保つイメージデータによって定義される
パラメータを有する第1のイメージコンポーネントと、
比較的少数の連続したイメージフレームによって定義さ
れるパラメータを有する第2のイメージコンポーネント
を含み、かつ、複数の連続したイメージフレームのカレ
ントイメージフレームを受け取った後に、前記第1のイ
メージコンポーネントを更新するための手段とを包含す
る。
【0015】
【発明の実施の形態】本発明は、コンピュータまたはワ
ークステーションによって生成され、かつ更新され、当
該コンピュータ/ワークステーションが読むことのでき
る1ないしは複数のメモリ・デバイスにストアされたパ
ラメータによって定義されるアピアランス・モデルに指
向されている。アピアランス・モデルの動作について
は、以下に、追跡システムとの関連から説明し、本発明
の有益な特徴がいかにして複雑な自然のオブジェクトの
動きベースの追跡を容易にするかということを例証す
る。しかしながら、追跡システムの範囲において説明さ
れてはいるものの、本発明のアピアランス・モデルが、
この機能に限定されることはなく、別の目的にも使用さ
れる可能性もある。たとえば、アピアランス・モデルを
使用して、複雑な自然のオブジェクト(たとえば人間)
の識別に用いることができる動的なイメージ・シグニチ
ャを生成することができる。したがって、付随する特許
請求の範囲は、限定が明示的に引用されている場合を除
いて、本発明のアピアランス・モデルを追跡システム
に、もしくは動き評価アプリケーションに限定するもの
と解釈されるべきではない。
【0016】図1は、イメージ追跡システム110を実
装するべく構成されたコンピュータ100を示した簡略
化したブロック図であり、このイメージ追跡システム
は、アピアランス・モデル120を使用して時間的に連
続する一連のイメージ・データ・フレーム101内に現
れる選択されたターゲット・オブジェクトを追跡する
が、これらのイメージ・データ・フレームは、従来の方
法の使用を介して適切にディジタル化され、コンピュー
タ100内に入力される。また追跡システム110は、
オプションの、カレント・イメージ・フレームを表すイ
メージ・ピクセル・データの配列に関連付けされた1な
いしは複数のデータ・ストリームを生成するフィルタ/
プロセッサ・サブシステム150、動きエスティメータ
160、イメージ・ワーピング・ツール170、および
アピアランスモデル更新ツール180を含む複数のソフ
トウエア・サブシステム(ツール)を包含している。こ
れらのサブシステムによって実行される個別の機能につ
いては後述する。これらのサブシステムは、協働して追
跡機能を実行し、追加の詳細を以下に説明する方法に従
ってアピアランス・モデル120を更新する。ここで注
意が必要であるが、図1に示されている独立のサブシス
テム・ブロックは説明のみを目的として提供されてお
り、これらのサブシステムのいくつかによって実行され
る少なくとも一部の機能が、公知のテクニックを使用し
て別のサブシステムに統合されることはあり得る。
【0017】本発明の一実施態様によれば、アピアラン
ス・モデル120が、1ないしは複数のデータ・ストリ
ームに関して、安定(S)コンポーネント130および
1ないしは複数の推移コンポーネント140(たとえば
「遊動」(W)コンポーネント140Aおよび/または
「迷子」(L)コンポーネント140B)を含んでお
り、それらが集合的に選択されたターゲット・オブジェ
クトのオンライン・ディジタル表現を定義する。ここで
用いている用語「オンライン」は、選択されたターゲッ
ト・オブジェクトのディジタル表現がカレント(つまり
もっとも新しい)イメージ・フレームからのデータを使
用して逐次更新されることを意味する。特に、最初の一
連のイメージ・フレーム内において受け取ったデータを
使用して(安定コンポーネント130および推移コンポ
ーネント140のパラメータによって定義されるよう
に)ターゲット・オブジェクトのディジタル表現を確立
した後、確立済みディジタル表現が、新しいイメージ・
フレームからの対応するデータと比較され、その後、先
行する確立済みディジタル表現と新しいデータの間にお
ける差に従って確立済みディジタル表現が更新(変更)
され、その結果、逐次「新しい」確立済みのディジタル
表現が生成される。つまり、1ないしは複数のイメージ
・フレームから以前に受け取ったデータ、およびカレン
ト・フレームからの新しいデータの両方によって定義さ
れるという意味において、このディジタル表現は「オン
ライン」である。
【0018】概して、安定コンポーネント130によっ
て定義されるディジタル表現のコンポーネントが、推移
コンポーネント140によるそれに比べて長い時間履歴
(つまり、より長い時間スケール)に基づくことから、
安定コンポーネント130と推移コンポーネント140
は異なる。つまり、安定コンポーネント130のパラメ
ータは、逐次確立されるディジタル表現のそれぞれにお
けるイメージ・データの「安定性」を反映している。こ
れらの用語「安定性」および「安定(した)」は、比較
的長い時間スケールにわたって(たとえば5ないしはそ
れを超える数の連続イメージ・フレームにわたって)比
較的変化しないイメージ・データ値を記述するためにこ
こで用いられている。これに対して、推移コンポーネン
ト140のパラメータは、逐次確立されるディジタル表
現のそれぞれにおけるイメージ・データの相対的な推移
を反映している。したがって、この用語「推移」は、不
安定なイメージ・データ値(たとえばアウトライア)、
あるいは比較的短い時間スケール(たとえば、5より少
ない数の連続イメージ・フレーム)の間においてのみ安
定しているイメージ・データを記述するためにここで用
いられている。たとえば、以下に説明する例示の実施態
様においては、Wコンポーネント140Aが、カレント
・イメージ・フレームおよびカレント・イメージ・フレ
ームの直前に先行するイメージ・フレームのみを使用し
てパラメータが計算されるという点において従来の2−
フレームの動きエスティメータと類似の態様で動作す
る。変形実施態様においては、Wコンポーネント140
Aを、カレント・イメージ・フレームに先行する少数の
(たとえば2もしくは3)フレームからのデータとの比
較を行うべく修正することもできる。それに代わり、以
下に示す例示の実施態様の中で説明するように、Lコン
ポーネント140Bがアウトライア・データのストアに
使用されて、したがって単一のイメージ・フレーム(つ
まりカレント・イメージ・フレーム)からのデータを使
用して更新される。
【0019】本発明の別の側面によれば、選択されたデ
ータ・ストリームからのイメージ・データの各断片が
(たとえば、関連する表示ピクセルの相対的な輝度また
はフィルタ出力を表すデータ)、安定コンポーネント1
30および推移コンポーネント140の両方によって集
合的に表現される。言い換えると、安定コンポーネント
130および推移コンポーネント140のそれぞれは、
関連するコンポーネントによって表される関連するデー
タ値のパーセンテージを示す寄与パラメータ(たとえば
混合確率)を含む。たとえば、所定のイメージ・データ
の断片は、寄与パラメータ132によって示される量の
安定コンポーネント130、および対応する寄与パラメ
ータ142Aおよび142B(それぞれWコンポーネン
ト140AおよびLコンポーネント140Bに関連付け
される)によって示される推移コンポーネント140で
表される。アピアランス・モデル120を構成するすべ
てのコンポーネントの寄与パラメータ132、142A
および142Bの合計は1(つまり100パーセント)
に等しい。これらの寄与パラメータは、所定のデータ値
がターゲット・オブジェクトを記述している信頼性の尺
度を示す。たとえば、詳細を後述するように、データ値
が長時間にわたって安定していれば、寄与パラメータ1
32が、一時的な寄与パラメータ142Aおよび142
Bに比較して相対的に高くなる。これに対して、データ
値が急峻に変化するとき、あるいはすばやい変化がある
とき、通常は一時的な寄与パラメータ142Aおよび1
42Bによって表されるパーセンテージが増加し、安定
した寄与パラメータ132によって表されるパーセンテ
ージが、それに応じて減少する。
【0020】本発明のさらに別の側面によれば、安定コ
ンポーネント130が1ないしは複数の安定データ・パ
ラメータ134を含み、それが使用されて、新しいデー
タが以前に受け取られたイメージ・データをどの程度良
好に模しているかということが決定される。前述したよ
うに、安定コンポーネント130は、比較的多くのイメ
ージ・フレームに基づいたターゲット・イメージのディ
ジタル表現である。したがって、以下に説明する実施態
様においては、統計的な方法を使用し、安定データ・パ
ラメータ134が平均値μSおよび標準偏差σSパラメー
タとして表され、それらは、現在受け取っているイメー
ジ・フレームに先行するあらかじめ決定済みの数(たと
えば15)のイメージ・フレームにわたって受け取られ
たデータ値を使用して計算され、計算に使用されるデー
タについては、あらかじめ決定済みの平均値の範囲内に
含まれることを前提とする(つまりアウトライアが除外
される)。それに代えて、安定データ・パラメータ13
4を、選択した(たとえば2つ置きに)データ値の平均
等の代替方法を使用して計算することもできる。追加の
詳細を以下に示すように、安定データ・パラメータ13
4は、新しいデータのそれぞれと比較され、比較の結果
は、寄与パラメータ132、142A、および142B
の更新に使用される。つまり、前述したように、安定デ
ータ・パラメータ134が新しいデータとまったく同一
である場合には、新しいデータは、比較的安定であるこ
とを示し、寄与パラメータ132が増加する(あるいは
最大値を維持する)傾向を持つ。その逆に、新しいデー
タが、安定データ・パラメータ134と著しく異なる場
合には、寄与パラメータ132が減少する傾向となり、
推移寄与パラメータ142Aおよび142Bの一方もし
くは両方の、それに応じた増加という結果がもたらされ
る。
【0021】本発明のさらに別の側面によれば、推移コ
ンポーネント140が1ないしは複数の推移データ・パ
ラメータ144Aおよび144Bを含んでおり、それら
はオプションで使用されて新しいデータが以前に受け取
られたイメージ・データをどの程度良好に模しているか
ということについてさらに決定がなされる。たとえば、
アピアランス・モデル120において使用される場合に
は、コンポーネント140Aが平均μWおよび標準偏差
σWパラメータを含み、それらが、比較的少数のフレー
ムにわたって計算される。それに代えて、以下に説明す
る例示の実施態様において使用されているように、「平
均」を単純に先行して受け取られているデータ値とし、
「標準偏差」をあらかじめ決定済みの固定範囲とする。
ここで注意が必要であるが、Lコンポーネント140B
については、詳細を以下に述べるが、「平均」パラメー
タμLが使用されることもあれば、省略されることもあ
る。
【0022】再度図1を参照するが、追跡システム11
0は、概略において次のように動作する。イメージ・デ
ータ101がフィルタ/プロセッサ150に渡され、そ
れが、たとえばノイズまたはそのほかの不要データを除
去する確立済みのテクニックに従って当該イメージ・デ
ータのフィルタリングおよび/または処理を行う。以下
に説明する例示の実施態様においては、このフィルタリ
ング・プロセスが、続く追跡オペレーションに適した方
法でイメージ・データを修正するウェーブレット−ベー
スのフィルタリング・テクニックを使用する。フィルタ
リング後/処理後のイメージ・データ(または、フィル
タ/プロセッサが使用されない場合には生データ)は、
続いて動きエスティメータ160に渡されるが、そこで
は、アピアランス・モデル120によってストアされた
現存するイメージ記述も受け取られる。動きエスティメ
ータ160は、アピアランス・モデル120、およびタ
ーゲット・オブジェクトに関連付けされた動きの履歴を
使用してカレント・イメージ・フレーム内におけるター
ゲット・オブジェクトの場所を決定するが、この履歴
は、確立済みのテクニックに従って動きエスティメータ
160によって生成される。イメージ・フレーム内のタ
ーゲット・オブジェクトのロケーションが決定される
と、イメージ・ワーピング・ツール170が使用されて
アピアランス・モデル120(もしくは新しいイメージ
・データ)が修正され、動きベースのひずみ(たとえ
ば、サイズおよび/または軸回転)の説明が行われる。
ワーピングの実行後は、アピアランス・モデル120内
に提供されるイメージ記述がモデル更新ツール180に
渡され、それがアピアランス・モデル120を、ここで
述べている方法に従って更新する。その後は、更新後の
アピアランス・モデルのパラメータが使用されて、その
後に続いて受け取られるデータ・フレームが処理され
る。
【0023】図2は、本発明の一実施態様に従ってアピ
アランス・モデル120(図1)の生成ならびに更新に
使用される概略プロセスを示したフローチャートであ
る。この単純化したフローチャートは、各繰り返しの間
に単一のデータ・ポイントが処理されること、および追
跡に関連付けされた機能(たとえば、動き評価およびイ
メージ・ワーピング)が省略されることを前提としてい
る。次に、この例示のプロセスをより詳細に説明する。
【0024】図2の上側部分を参照すると、このプロセ
スは安定コンポーネントならびに推移コンポーネントの
パラメータを初期化することによって開始する(ブロッ
ク210)。たとえば図1を参照すると、安定コンポー
ネント130の安定寄与コンポーネント132および安
定データ・コンポーネント134を、あらかじめ決定済
みの値にセットすることができる。ここで注意が必要で
あるが、安定寄与コンポーネント132用のあらかじめ
決定済みの値は、リセット・オペレーション(後述)に
おいて使用される。
【0025】図2に戻るが、初期化の後、イメージ・デ
ータが前述の方法に従って受け取られ(ブロック22
0)、続いて確立済みコンポーネント・パラメータと比
較される(ブロック230)。本発明の一実施態様によ
れば、この比較の間にログ尤度(「尤度」)値が、当該
データと現存するデータ・パラメータ(1ないしは複
数)の間における差に基づき、周知の統計学的方法に従
って、それぞれのコンポーネントに関して計算される。
この尤度値は、当該データが確立済みデータ・パラメー
タにどの程度良好に整合しているかを示す。たとえば、
安定データ・パラメータが14の平均値μSおよび標準
偏差2を有していると仮定する。そのときデータが14
に等しければ、計算される尤度値は、その安定コンポー
ネントに関して最大化される。それに対して、データが
24に等しいとすれば、尤度値は相対的に極めて低くな
る。尤度値は、Wコンポ(使用される場合)に関しても
類似の態様に従って計算されるが、Lコンポーネント
(使用される場合)については省略されることがある。
【0026】続いてデータと確立済みデータ・パラメー
タの間における比較の結果が使用されて寄与パラメータ
(以下、混合確率と言う)が更新され、さらにアピアラ
ンス・モデル・コンポーネントのそれぞれに関する新し
いデータ・パラメータが生成される(ブロック24
0)。一実施態様においては、このプロセスが尤度値を
使用する各コンポーネントに関するオーナーシップ値の
計算を行うオプションのステップ(ブロック242)を
含むが、それについての追加の詳細は後述する。次に
(あるいは、それに代えて)それぞれのコンポーネント
について、新しい混合確率が、オーナーシップ確率およ
び/または尤度値を使用して計算される(ブロック24
4)。その後、新しく計算された安定寄与値(たとえ
ば、mS)と、あらかじめ定義済みの最小値の比較が行
われる(ブロック245)。新しく計算された安定寄与
値が、あらかじめ定義済みの最小値より小さい場合(Y
ES)には、すべてのコンポーネント・パラメータがあ
らかじめ定義済みの値にリセットされる(ブロック24
6)。これに対して、新しく計算された安定寄与値が、
あらかじめ定義済みの最小値より大きい場合(ブロック
245のNO)には、各コンポーネントのデータ・パラ
メータが更新されて、新しいデータが反映される(ブロ
ック248)。
【0027】その後、上記のシーケンスが、新しいデー
タ・ストリームに関連付けされた新しいデータごとに繰
り返される。ここで注意が必要であるが、コンポーネン
ト・パラメータを更新するプロセス(ブロック240)
は、最終的な結果を損なうことなく、データ・パラメー
タの再計算(ブロック248)の後に最小値の決定(ブ
ロック245)を行う形に変形することができる。
【0028】新しく、かつ有益なアピアランス・モデル
が、図2を参照して説明したプロセスとの組み合わせに
おいて安定コンポーネントならびに少なくとも1つの推
移コンポーネントを用いて生成されるが、現在のところ
好ましい本発明の実施態様は、安定(S)コンポーネン
ト130、遊動(W)コンポーネント140A、および
迷子(L)コンポーネント140B(図1参照)を以下
の説明に従ってすべて組み込んだアピアランス・モデル
を含む。その種のアピアランス・モデルを、ここでは
「WSLアピアランス・モデル」と呼んでいる。
【0029】本発明のWSLアピアランス・モデルにつ
いて、次に、単一の実数値のデータ観測を引用して紹介
する。単一データ値を参照したWSLアピアランス・モ
デルの動作の説明の後に、全データ・フレームの処理に
向けて説明を移行させる。
【0030】図3〜6は、単純なパラメトリック動きモ
デルを使用した追跡領域(ターゲット・オブジェクト)
として顔を示したイメージ・データ・フレームの断続シ
ーケンスを表しており、WSLアピアランス・モデルに
よって説明されなければならない、典型的な、イメージ
をひずませる現象が図示されている。図3は、最初の、
WSLアピアランス・モデルが安定することが許され
る、比較的安定した期間を表している。ここで、高いコ
ントラストの領域、たとえば額領域310および口領域
320等が、極めて安定したイメージ・データを生成す
る傾向にあることに注意されたい。図4は、部分的なオ
クルージョンを示しており、その間に対象の手が短時間
にわたって口領域320の上に置かれたが、額領域31
0は、比較的ひずみを受けない状態に保たれている。図
5は、リスタートを招く著しいアピアランスの不連続を
表している(つまり、突然かつ急激な頭部の動きであ
り、その間に対象の頭部が傾けられ、カメラから離れる
方向にすばやく動き、さらに目領域330からメガネが
外された)。最後の図6は、自然のひずみの例として表
情の変化を示している。特に領域340において、対象
が大げさにほほえんでいるが、そのほかには目立った動
きがない(図3の口領域310と対比)。
【0031】図3〜6に示した現象は、WSLアピアラ
ンス・モデルの各種のコンポーネント・データ・パラメ
ータを誘導する。図3に示されている比較的安定したイ
メージは、Sコンポーネントを誘導し、それには、時間
的に安定したイメージの観測の振る舞いを、それらが生
じている時点および場所で取り込むことが意図されてい
る。より詳細に述べれば、各フレームtにおけるデータ
値をdtで表し、安定コンポーネントが観測dtを生成し
たと仮定すると、dtに関する確率密度は、ガウス密度
s(dt|μs,t,σ2s,t)によってモデリングされ
る。これにおいて、μs,t,σ2s,tは、区分的に、緩や
かに変化する関数であり、ガウス・モデルの平均および
分散を指定する。
【0032】WSLアピアランス・モデルの第2のコン
ポーネントは、データのアウトライアを説明するが、こ
れらは追跡の失敗またはオクルージョンに起因して生じ
ることが予想される。前述したように、対応するランダ
ム・プロセスを、ここではWSLアピアランス・モデル
の「迷子」またはLコンポーネントと呼んでいる。Lコ
ンポーネントの確率密度、すなわちpl(dt)は、観測
ドメインにわたって均一に分布しているものと考える。
【0033】図7に示した合成信号は、単一データ・ス
トリームに関するこれらの発生プロセスの理想化した例
を示している。破線は、区分的に緩やかに変化するアピ
アランス信号ASを表している。観測されたデータOD
は、ガウス密度ps(dt|μ s,t,σ2s,t)およびLコ
ンポーネントに関する広い分布pl(dt)の混合から形
成されるテールの長いノイズによって改ざんされてい
る。太い実線のラインは、Sコンポーネントに関する評
価後の平均EMである。前述の説明に従うと、イメージ
・データ・フレームのシーケンスは、領域400におい
て開始され、その後、図3に関連付けされる比較的安定
した段階(領域410)に入る。合成信号の領域420
は、図4のオクルージョンに相似の、フレーム300と
315の間におけるアウトライアのバーストを示してい
る。領域430は、図5のアピアランスの不連続に相似
のフレーム600におけるリスタートを示している。最
後の領域440は、図6の顔の表情の変化によって生成
された、局所的な信号のひずみを示している。
【0034】WSLアピアランス・モデルのWコンポー
ネントは、アピアランス・モデルとイメージ−ベースの
追跡アルゴリズムの統合に対する要求によって誘導され
る。つまり、選択されたイメージ領域に関して、ゴール
は、その領域内の支配的な安定したイメージ構造に対し
てモデルを倣わせることであり、同時にそれを追跡する
ことである。これは、最初の安定したアピアランス・モ
デルが提供されない場合、もしくはオブジェクトがどの
ように動くかについての情報が提供されない場合に困難
なものとなる。Wコンポーネントは、その種の状態にお
いて何が追跡されるべきかを決定する。前述したよう
に、実際上、Wコンポーネントは、アピアランス・モデ
ルが充分な過去のデータ観測について説明しないとき、
追跡システム(後述)が、2−フレームの動きトラッカ
まで優雅に低下することを可能にする。
【0035】Wコンポーネントは、Sコンポーネント・
パラメータの信頼性のある評価に必要となる場合に比べ
て、より急峻な一時的な変動およびより短時間の履歴を
許容する必要がある。そのためdtに関する確率密度
が、それがWコンポーネントによって生成されていると
して、ガウス密度pw(dt|dt-1)となるように選択
される。ここでは、平均が単純に以前のフレームdt-1
からの観測となり、分散がσ2wに固定される。
【0036】3つのコンポーネントW、S、およびL
は、dtに関する蓋然論的混合モデル内において結合さ
れる。
【0037】
【数1】 これにおいて、 m=(mw,ms,ml)は混合確率であり、 qt=(μs,t,σ2s,t) は、このモデルの安定コンポーネントの平均ならびに分
散パラメータを含む。
【0038】従来の追跡システムにおいてこのWSLア
ピアランス・モデルを実装するためには、式(1)にお
ける発生モデルのパラメータ、すなわちデータdtの予
測の平均および分散を、安定プロセス q=(μs,σ2s) および混合確率 m=(mw,ms,ml) によって評価することが必要になる。さらに、フィルタ
応答に評価スキームを適用するためには、各観測に関し
て比較的小さなメモリしか必要としない単純な演算アル
ゴリズムが求められる。
【0039】再帰的定式化を予測し、モデル・パラメー
タの時間的適合を許容して、現在時にロケートされた指
数包絡線、k≦tに関するSt(k)=αe-(t-k)/τの
下においてデータ観測を考える。これにおいてτ=η
s/log2であり、ηsはフレーム内の包絡線の半減期であ
り、α=1−e-1/τであり、その結果、包絡線の重み
t(k)の合計は1になる。この包絡線を用いると、
観測履歴のログ尤度 dt={dktk=0 を、式(1)における密度に従って表すことができる。
【0040】
【数2】 これにおいてmtおよびqtは、時間的な台の包絡線St
(k)の下におけるデータに関係するパラメータを表
す。これらのパラメータは時間的に緩やかに変化する
が、EMアルゴリズム(たとえば、1977年のJ.R
oyal Statistical Society
Series B(王立統計学会シリーズB),39:
1〜38の、A.P.Dempster(A.P.ディ
ムスター)、N.M.Laird(N.M.ラード)、
およびD.B.Rubin(ルービン)による「Max
imumLikelihood from Incom
plete Data Viathe EM Algo
rithm(EMアルゴリズムを介した不完全データか
らの最大尤度)」を参照されたい)がmtおよびqtの評
価に考慮され、それにおいては、これらが時間ウインド
ウの下に一定であることが仮定される。これらのEM更
新の形式は、ここで述べているオンライン方法に関する
基礎を提供する。
【0041】状態変数mtおよびqtに関する現在の推測
(時間ウインドウにわたって一定)を前提とするとE−
ステップは、i∈{w,s,l}に関して、各観測dk
に関するオーナーシップ確率を提供する。
【0042】
【数3】 これらのオーナーシップを条件とし、続いてM−ステッ
プが、新しい最大尤度評価をmtおよびqtに関して計算
する。まず、更新された最大確率mtは、i∈{w,
s,l}に関し、次式によって与えられる(表記mi,t
は、再利用されて更新された値を表す)。
【0043】
【数4】 同様に、平均および分散に関するM−ステップは次のよ
うになる。
【0044】
【数5】 これにおいてMj,tは、オーナーシップの重み付けがな
された、次式によって定義されるj次のデータ・モーメ
ントである。
【0045】
【数6】 ここで、ゼロ番目のデータ・モーメント、すなわち安定
プロセスの時間平均オーナーシップが、正確にWSLア
ピアランス・モデルのSコンポーネントに関する混合比
率となり、M0,t=Ms,tとなることは注目に値する。し
たがって、標準EMアルゴリズムは、式(3)〜(6)
に概説したステップの繰り返しからなる。
【0046】このEMアルゴリズムは、先行する時間か
らのデータが保持されてos,t(dk)の計算が行われる
ことを必要とし、オンライン・アプローチにとってそれ
は実際的ではない。それに代えて式(3)〜(6)の近
似が採用される。そのため、指数の台St(k)に関す
る帰納式が利用されて次式が得られる。
【0047】
【数7】 過去のデータを保持しなければならないという要件を回
避するために、過去のデータのカレント・オーナーシッ
プが、そのデータが最初に観測された時点におけるオー
ナーシップによって近似される。すなわち、o
s,t(dk)がos,k(dk)に置き換えられて、次の近似
モーメントが得られる。
【0048】
【数8】 また、混合確率についても同様にi∈{s,w,s,
l}に関して次のように近似される。
【0049】
【数9】 これらの式からの1つの大きなずれが使用されて単一の
状態が回避される;すなわち、非ゼロの低い境界が、混
合確率およびσs,tに強制される。
【0050】式(3)〜(6)内のバッチEMに対する
この近似においては、前述したように、過去の観測のオ
ーナーシップが更新されない。したがって、モデル・パ
ラメータが急激に変化したとき、このオンライン近似は
不充分なものとなる。好都合にも、一般にこれは、デー
タが安定でないときに現れ、通常はいずれの場合におい
てもSコンポーネントに関する低い混合確率および広い
分散をもたらす。これに対して、平均および分散が緩や
かにドリフトしているときのオンライン近似は、通常、
非常に良好なものとなる(図7参照)。
【0051】アピアランス内に急激な変化、または不安
定なデータがあると、Sコンポーネントがしばしば平均
の追跡を逃し、小さい混合確率が与えられる(後述する
図8を参照されたい)。つまり、アピアランス・モデル
を臨時にリスタートすることが必要になる。ここでは、
安定した混合確率ms,tが固定スレッショルド(たとえ
ば0.1)を下回ると必ずWSLアピアランス・モデル
がリスタートされる。これは、すべての状態変数の値を
単純にリセットすることによってなされる。一実施態様
においては、混合確率に関して使用される新しい値m
i,tが、i=w、s、lについてそれぞれ0.4、0.
15、および0.45になる。ms,tに対応する値が小
さいことは、Sコンポーネントに関する初期の不確定性
を反映している。モーメントMj,tに関する新しい値
は、j=0、1、2について、それぞれms,t、dt
s,tおよびσ2s,0s,tとなるように取られる。実際、こ
れが、カレント観測dtによって与えられる平均、およ
び一定のσ2s,0によって与えられる分散を用いてSコン
ポーネントをリスタートする。ここでは、σs,0=σw
1.5が使用される。これらと同じ値が、最初のフレー
ムにおける初期化に使用されている。
【0052】図8は、半減期ns=8を使用する図7の1
Dの例を参照するEMプロシージャを例示している。領
域405に示されているスタートアップ期間(図7の領
域400に対応する)において、W、S、およびLコン
ポーネントのそれぞれは、あらかじめ決定済みのリセッ
ト値を仮定する。最初は、Wコンポーネントの混合確率
がリセット値から増加しており、領域415(図7の領
域410に対応する)によって示されるようにSコンポ
ーネントが信頼性を得るまでの、そのデータの比較的よ
り大きなオーナーシップを示す。領域425は、フレー
ム300におけるアウトライアのバースト(図7の領域
420に対応する)の間に、Lコンポーネントの混合確
率が増加し、その後、安定な戻りとして降下することを
示している。ここで、このオクルージョンは、オクルー
ジョンを生じていない安定イメージ・データ(たとえば
図4における領域310)のために、リスタートを起動
するほど充分なものにならなかったことに注意が必要で
ある。領域435は、フレーム600におけるアピアラ
ンスの不連続(図7の領域430に対応する)に対する
応答を示しており、それにおいてSコンポーネントはデ
ータの予測に関して不充分であり、その混合確率が急速
に低下している。ここで注意が必要であるが、Wコンポ
ーネントがデータを説明できることから、その混合確率
が増加している。フレーム625においては、Sコンポ
ーネントの混合確率がプロシージャのリスタートに充分
な低さまで下がっており、その後、Sコンポーネントが
真の状態に戻ってロックする。
【0053】図9〜16は、別の簡略化した例を使用す
る、本発明のWSLアピアランス・モデルにおける各種
のデータ変化の効果を図示している。図9は、時間t0
とt1 6の間に延びる時間シーケンスの間における選択さ
れたピクセルの輝度(グレイスケール)を記述した連続
データを示している。ここに示された各時点の間隔は、
均一であってもよく、またそうでなくてもよいことに注
意されたい。比較的安定した初期段階が、時間t0〜t5
の間において提供され、その間に、図3を参照した前述
の説明と同様に、アピアランス・モデルが安定すること
が可能になる。時間t6において、図4を参照して説明
したオクルージョンと類似の短時間のオクルージョンが
導入され、比較的急峻でありかつ大きいが、短時間の、
第1の安定値(たとえば12)から第2の安定値(たと
えば24)へのイメージ・データの変化、および第1の
安定値に戻る変化によって特徴付けされる。時間t7
1 1の間は、漸進的な輝度の変化が示され、その間にお
いては、イメージ・データが比較的緩慢に、比較的小さ
い範囲にわたって(たとえば12から14)変化する。
最後に、時間t12にアピアランスの不連続が示されてお
り、比較的急峻であり、かつ大きく、比較的固定した、
第1の安定値(たとえば14)から第2の安定値(たと
えば24)への変化によって特徴付けされる。
【0054】図10、11、および12は、時間t0
5の初期安定期間の間におけるSコンポーネント、W
コンポーネント、およびLコンポーネントに対する調整
をそれぞれ示したグラフである。リセット時(時間
0)においては、寄与パラメータ(つまり混合確率で
あり、各グラフの垂直スケールによって示される)があ
らかじめ決定済みのリセット値を採用する。これらの値
は、時間t0における各コンポーネントの垂直位置によ
って示される。たとえば、図10を参照すると、コンポ
ーネントS(t0)がグラフの低い部分に配置されてお
り、リセット値0.15にそろえられている。同様に、
図11および12を参照すると、コンポーネントW(t
0)およびL(t0)が、それぞれリセット値0.4およ
び0.45にそろえられている。再度ここで注意したい
が、これらのリセット値は変更可能である。時間t0
続いて、データが安定を保つことから、Sコンポーネン
トに関する寄与パラメータが時間t5における極大値
(頂点)0.85まで漸進的に増加する。ただしこの極
大値は、純粋に説明の目的から選択されたものである。
それに加えて、この時間的期間にわたる一定のデータ値
12は、12にセンタリングされたままとなる安定した
平均パラメータμSをもたらし、その一方で標準偏差が
減少する(標準偏差パラメータ+σSおよび−σSによっ
て区切られるバーが、漸進的に短くなることによって示
されている)。図11および12を参照すると、Sコン
ポーネントはこの極大値まで上昇するが、Wコンポーネ
ントおよびLコンポーネントは、データの残りのオーナ
ーシップ部分を奪い合う形になる。開示した例において
は、データ値が安定してとどまることから、Wコンポー
ネントの寄与値がLコンポーネントのそれよりすばやく
増加し、一貫性のあるデータ値が受け取られるに従って
緩やかに減少する。Wコンポーネントの、そのリセット
値から最大値(コンポーネントW(t1)によって示さ
れる)までの初期増加があり、その後、Sモデルが信頼
性を獲得し、その最大値に達すると、最小値(たとえば
0.15)まで後退する。ここで注意されたいが、比較
的長い安定期間を仮定するとLコンポーネントが非常に
小さい値まで後退するが、それがゼロになることはな
い。
【0055】図13を参照すると、12から24へのデ
ータ値のジャンプとして示されている時間t1における
短時間のオクルージョンが、SコンポーネントおよびW
コンポーネントの両方に関する寄与パラメータの縮小を
招いている。より詳細には、データ値(つまり24)が
SコンポーネントおよびWコンポーネントの両方にとっ
て分散の外になることから、データがアウトライアとし
て処理され、データ値のオーナーシップが優勢的にLコ
ンポーネントに割り当てられる。したがって、図13の
右側に示されているように、コンポーネントL(t5
に、いくらかの、より大きな、たとえば0.35といっ
た寄与パラメータが割り当てられる。この増加されたL
コンポーネントによるオーナーシップは、SおよびWコ
ンポーネントの寄与パラメータにおける縮小をもたら
し、それらが、それぞれS(t5)およびW(t5)によ
って示されている。開示している実施態様においては、
時間t5におけるデータ値がアウトライアと見なされる
ことから、それがSコンポーネントの平均および分散の
再計算に使用されることはない。したがって、平均値μ
S(t5)がデータ値12にセンタリングされたままとどま
り、分散がS(t4)(図10参照)から変化しない。
オクルージョンが取り除かれ(時間t6)、安定したデ
ータが再び現れると、Sコンポーネントが再び信頼性を
得て、その最大値に再び到達するまで(時間t7)その
寄与パラメータが増加し、逆にLコンポーネントが減少
する。これにおいても注意が必要であるが、Wコンポー
ネントの平均は、以前のデータ値によって決定され、し
たがって時間t5においては平均μWが12にセンタリン
グされたままとどまり、その後、時間t6において24
にシフトし、さらにその後、時間t7において12に戻
る。
【0056】図14に示されているように、図13を参
照して説明したオクルージョンとは対照的に、言い換え
るとそのオクルージョンは、Sコンポーネントのデータ
・パラメータを変化させなかったが、時間t6とt11
間における漸進的なデータの変化は、Sコンポーネント
の平均値の移行をもたらし、標準偏差を増加させる。図
14に示した例は、Sコンポーネントの寄与パラメータ
が最大化されていることが前提となっており、そのため
小さいデータ値の変化であってもSモデルの信頼性を低
下させ、関連する寄与パラメータの低減を招く。寄与パ
ラメータが最大化されていなければ、新しいデータ値が
以前に計算された平均と異なる場合であっても、それが
実際に増加することもある。この例においては、時間t
7とt8の間におけるイメージ・データの変化(つまり、
12から13への変化)がSコンポーネントの標準偏差
内に選択されていることから、Sコンポーネントのデー
タ・パラメータ(たとえば平均および標準偏差)が変化
する。したがって、このイメージ・データの変化はアウ
トライアとして扱われることなく、新しい平均値μ
S(t8)の計算に使用され、それが12から14に向かっ
て漸進的にシフトされる。ここで注意が必要であるが、
Sコンポーネントの寄与パラメータにおける減少は、デ
ータ値の変化に伴って平均値が移行するWコンポーネン
トにおけるそれの増加によって説明される。イメージ・
データが14に再度安定してしばらくすると(たとえば
時間t10)、Sコンポーネントの信頼性が戻り、平均値
が、コンポーネントS(t11)によって示されるよう
に、新しい安定した値にセンタリングされる。したがっ
て、図14に示されている例は、本発明に従って生成さ
れるアピアランス・モデルのSコンポーネントが、いか
にして緩やかなイメージ・データの変化に適合し、それ
によって3Dオブジェクトの追跡を容易にしているかと
いうことを示している。
【0057】図15および16は、最後の例であり、そ
れにおいてはイメージ・データが、1つの安定した値
(たとえば時間t11の14)から別の安定した値(たと
えば時間t12の24)へ大きく変化する。前述し、かつ
図15にも示したが、比較的大きなイメージ・データの
変化の突然の出現は、WおよびSコンポーネントの寄与
パラメータにおける減少を生じさせ、Lコンポーネント
の寄与にジャンプする。ここでも注意されたいが、新し
いデータは、Sコンポーネントに関するデータ・パラメ
ータ(平均および分散)の計算に含められない。データ
値が24に安定していることから、Sコンポーネントの
寄与パラメータが継続的に降下し、Wコンポーネントが
増加し始める(Lコンポーネントは減少する)。最終的
に、Sコンポーネントの寄与パラメータが、あらかじめ
決定済みのリセット値(図2のステップ245を参照さ
れたい)より低くなり、その結果、時間t15においてリ
スタートが生じるが、それが図16に示されている。こ
こで、リスタートにおいては、平均値μS(t16)が、もっ
とも新しいデータ値(つまり24)にセンタリングされ
ていることに注意されたい。続くアピアランス・モデル
の再構築は、図10、11、および12を参照して前述
した説明と基本的に同一である。
【0058】以上、単一データ値を参照してWSLアピ
アランス・モデルの各種パラメータ応答について説明し
てきたが、次に、追跡システム110(図1参照)にお
けるWSLアピアランス・モデルの実装に使用するコン
ポーネントの導出について説明する。より詳細には、以
下に示すように、フィルタ/プロセッサ150によって
実行されるフィルタリング/処理が、以下に示すような
ステアラブル・ピラミッドを使用して実装される。それ
に加えて、動きエスティメータ160およびイメージ・
ワーピング・ツール170によって実行される動き評価
およびイメージ・ワーピング機能についても説明する。
【0059】イメージ・アピアランスのプロパティは数
多く存在し、それをデータ・ストリームとして使用する
ことが可能であり、それから追跡およびオブジェクトの
サーチに関してアピアランス・モデルを学習させること
ができる。例としては、局所的カラー統計、マルチスケ
ール・フィルタ応答、および局在化したエッジ断片を挙
げることができる。この研究においては、適用されたス
テアラブル・フィルタ・ピラミッドの応答からデータ・
ストリームが導かれた(つまりG2およびH2フィルタに
基づいている;参照によりこれに援用している1991
年のIEEETransactions on Pat
tern Analysis andMachine
Intelligence(パターン解析および機械知
能に関するIEEEトランザクション)13:891〜
906、W.Freeman(W.フリーマン)および
E.H.Adelson(E.H.アデルソン)による
「The Design and Use of St
eerable Filters(ステアラブル・フィ
ルタの設計および使用)」を参照されたい)。ステアラ
ブル・ピラミッドは、異なるスケールおよび向きにおけ
るイメージの記述を提供し、粗から密への差分動き評価
に、また異なるスケールならびに異なる空間的ロケーシ
ョンにおける安定性、および異なるイメージの向きの分
離に有用である。ここでは、G2およびH2フィルタを2
つのスケールにおいて、すなわち8および16ピクセル
(2および4の因数によってサブサンプルされる)の波
長に調整して使用し、それぞれのスケールは4つの向き
を伴う。
【0060】フィルタ出力から、本発明者らは選択を行
い、アピアランス・モデルとして位相構造の表現を維持
した。これは、振幅の自然な度合いおよび照度の独立性
を提供し、かつ位相ベースの方法によって得られる正確
なイメージ・アライメントに関する忠実度を提供する
(たとえば、参照によりこれに援用されている1993
年のIEEE Transactions on PA
MI(PAMIに関するIEEEトランザクション)1
5(12):1253〜1268、D.J.Fleet
(D.J.フリート)およびA.D.Jepson
(A.D.ジェプソン)による「Stability
of Phase Information(位相情報
の安定性)」を参照されたい)。小さいフィルタ振幅に
関連付けされる位相応答、あるいは引用したこれらの文
献に説明されているテクニックに従って不安定であると
見なされる位相応答は、アウトライアとして扱われた。
【0061】以下においては、イメージ・ピラミッドお
よびターゲット領域Ntを考え、 dt={d(x,t)}xNt がその領域内の時間tにおけるすべてのフィルタからの
位相観測のセットを示すものとする。また At={M(x,t),q(x,t)}xNt は、Ntのそれぞれの向き、スケールおよび空間ロケー
ションにおける位相のアピアランス・モデル全体を表す
ものとする。指数時間的な台St(k)の半減期は、ns
=20フレームにセットされた。オンラインEMエステ
ィメータのそのほかのパラメータは:(1)[−π;
π)において均一なアウトライア確率;(2)σw
0.35πを伴う平均ゼロのガウシアンとなるように取
られる、位相差におけるWコンポーネントの標準偏差;
および(3)Sコンポーネントの最小標準偏差、σs,0
=0.1πである。後者のパラメータは、位相の使用に
固有である。
【0062】次に本発明者らは、非剛体オブジェクトの
追跡に関して、適応型位相ベースのアピアランス・モデ
ルの振る舞いを立証する。この立証に関して、時間0に
おける楕円領域N0は、マニュアルで指定される。その
後、追跡アルゴリズムが、経時的にNt内の支配的なイ
メージ構造を追跡する間に、イメージの動きおよびアピ
アランス・モデルの評価を行う。
【0063】動きは、フレーム対フレームのパラメータ
化したイメージ・ワープに置き換えて表現される。より
詳細には、ワープ・パラメータctを考えたとき、フレ
ームt−1におけるピクセルxは、時間tにおけるイメ
ージ・ロケーション xt=w(x;ct) に対応し、それにおいてw(x;ct)はワープ関数で
ある。ここでは類似性変換が使用され、したがって、 ct=(ut,θt,ρt) は、それぞれ平行移動、回転およびスケール変換を記述
する4次元ベクトルとなる。平行移動はピクセルにおい
て、回転はラジアンにおいて指定され、スケール・パラ
メータは乗数を示すことから η≡(0,0,0,1) は、アイデンティティ・ワープである。追跡のために、
ターゲット近隣が、各フレームにおいて動きパラメータ
によって前方に対流(つまりワープ)される。言い換え
ると、パラメータ・ベクトルctを考えた場合、Ntは、
w(x;ct)によるNt-1のワープによって提供される
単なる楕円領域となる。このほかのパラメータ化された
イメージ・ワープ、およびこのほかのパラメータ化され
た領域表現を使用することもできる(たとえば、参照に
よりこれに援用されている1994年のCVGIP:I
mage Understanding(イメージの理
解)60(2):119〜140、F.G.Meyer
(F.G.メイヤー)およびP.Bouthemy
(P.バウスミー)による「Region−Based
Tracking Using Affine Mo
tion Models in Long Image
Sequences(長いイメージ・シーケンスにお
けるアフィン動きモデルを使用した領域ベースの追
跡)」を参照されたい)。
【0064】最適ワープを見つけるため、データのログ
尤度ならびにログ−プライア(原文:log−prio
r)の合計が(局所的に)最大化され、遅い、なめらか
な動きに関するプレファレンスが提供される。上に概説
した動きおよびアピアランス・モデルに関して言えば、
データのログ尤度は、次式のように表すことができる。
【0065】
【数10】 これにおいては、表記の便宜上、以前のフレームからの
データをDt-1≡{dx,t -1xNt-1として表している
が、個別のデータは dx,t-1≡d(x,t−1) である。同様に、参照している以前のフレームにワープ
・バックされたカレント・データは、 dx,t≡d(w(x;ct),t) によって示され、最後に発明者らは、 Ax,t≡(mx,t-1,qx,t-1) を定義している。直感的に、このログ尤度は、次のよう
に理解することができる:カレント・フレームtにおけ
るデータが、パラメータctに従ってフレームt−1の
座標にワープ・バックされる。このワープ後のデータ
{dx,txNt-1のログ尤度が、その後、以前のフレー
ム内のターゲット領域Nt-1の参照しているフレーム内
のアピアランス・モデルAt-1に関して演算される。
【0066】プライア(prior)が導入されて、主
にオクルージョンが処理され、安定コンポーネントSの
持続性が利用される。発明者らは、時間t−1における
動きct-1に調和された動きパラメータ ct=(ut,θt,ρt) に関する事前密度を、2つの4Dガウシアンの積となる
ように設定した。
【0067】
【数11】 最初のガウス因数は、その平均が単位元ワープηに等し
く、その共分散が V1≡diag(82,82,0.052,0.012) によって与えられる、遅い動きを優先する。2番目のガ
ウシアンは、 V2≡diag(1,1,0.022,0.012) を伴う、動き内の遅い変化を優先する。
【0068】ctを評価するために、与えられたログ尤
度およびログ−プライアの合計を次式によって最大化す
る。
【0069】
【数12】 E(ct)の最大化は、参照によりこれに援用されてい
る1993年6月にニューヨークで開催されたIEEE
Computer Vision and Patt
ern Recognition(IEEEコンピュー
タの視覚およびパターン認識)CVPR−93の会報7
60〜761ページにある「Mixture Mode
l for Opticl Flow Computa
tion(オプティカル・フロー演算に関する混合モデ
ル)」にA.Jepson(A.ジェプソン)および
M.J.Black(M.Jブラック)によって説明さ
れているように期待−最大化(EM)アルゴリズムの単
純な変形が使用される。これは、繰り返しの粗−密アル
ゴリズムであり、この方法の局所的な最小値内へのトラ
ップのコントロールに使用されるアニーリングを伴う。
簡単に述べると、E−ステップが逆方向ワープ済みデー
タDtに関するオーナーシップ確率を、前述の式(3)
にあるように決定する。M−ステップは、これらのオー
ナーシップを使用してctに対する更新に関する線形連
立系を構成する。線形連立系のこれらのコンポーネント
は、WおよびSプロセスに関するオーナーシップ確率に
よって重み付けされる動き制約から獲得される。
【0070】ここでは、EMアルゴリズムの導出が、次
式を満足するE(ct)の極値を用いて開始する。
【0071】
【数13】 x,t≡d(w(x;ct),t) によって示されるワープ後のデータを用いると、式(1
0)にあるようなログ尤度の導関数は次式のようにな
る。
【0072】
【数14】 単位元を利用すると ∂(log(f(x))/∂x=1/f(x)(∂(f
(x))/∂x) となり、式(1)に従って尤度関数を拡張すると、式
(14)は次のように簡略化される。
【0073】
【数15】 最後に、オーナーシップ確率を次のように定義し、
【数16】 ログ尤度のグラディエントに関する式が次のように簡略
化される。
【0074】
【数17】 式(16)と、式(11)から簡単に導かれるログ−プ
ライアとを結合すると、次のように目的関数のグラディ
エントの式が提供される。
【0075】
【数18】 EMアルゴリズムは、E(ct)の最大化のための反復
法である。E−ステップにおいて、動きパラメータに関
するカレント推測値をctとすると、オーナーシップ確
率、ow(dx,t)およびos(dx,t)は、動きパラメー
タを固定したまま計算される。続くM−ステップにおい
ては、動きパラメータに対する更新δcが、オーナーシ
ップ確率を一定に維持して目的関数を最大化することに
よって評価される。
【0076】ところで、M式は直接解くことができな
い。それに代えて、グラディエント−ベースの制約を用
いてしばしばオプティカル・フローが評価される方法と
同様に、近似の目的関数が最大化される。近似関数□
(δc;ct)は、動きパラメータに関する初期推測ct
についてカレント観測を線形化することによって得られ
る。より詳細には、d(w(x;ct),t)が、ct
関して取られるその1次のテーラー級数によって近似さ
れる。より数式的には、
【数19】 となり、それにおいては、 ∇d(x,t)≡(dx(x,t),dy(x,t)) が、データ観測の空間的な部分導関数を示し、 W=δw/δct が、ctにおけるワープ・マップの2×4ヤコビアンを
示す。
【0077】d(w(x;ct+δc),t)に関する
この近似を目的関数に代入することによって、アピアラ
ンス・モデルの安定コンポーネントに関する次の式が得
られる。
【0078】
【数20】 これにおいて、 δds≡d(w(x;ct),t)−μs,t、 q=(μs,t,σs,t) は、アピアランス・モデルのSコンポーネントの平均お
よび標準偏差であり、かつ ∇d=∇d(w(x;ct),t) であり、κsは、ctとは独立した定数である。同様に、
アピアランス・モデルのWコンポーネントについては次
式が得られる。
【0079】
【数21】 これにおいて、 δdw≡d(w(x;ct),t)−d(x,t−1)−
d(w(x,t−1)) であり、かつκwは、ctとは独立した定数である。
【0080】これらの線形化を用いると、近似目的関数
が次式によって与えられる。
【0081】
【数22】 これにおいてκは、ctとは独立した定数である。近似
目的関数が更新δcに関する2次式であることから、そ
の導関数は、次に示すようにδcに関する線形連立方程
式をもたらす。
【0082】
【数23】 これに代えて、結果として得られる更新δcに関する線
形方程式を次のように記述することができる。
【0083】
【数24】 これにおいてAiは4×4のマトリクスであり、各b
iは、i=w,s,pに関する4次元ベクトルである。
【0084】
【数25】 この連立方程式の各線形方程式は、それぞれWおよびS
コンポーネントに関するオーナーシップ確率によって重
み付けされた、異なる動き制約から作られる。式(2
3)におけるεは、Wコンポーネント制約に関する重み
付け因数である。式(21)の近似目的関数の最大化に
関する数学的に適正なM−ステップは、重みε=1を使
用することになろう。発明者らは、ε=1/nの因数に
より、Wコンポーネントによって所有されている制約の
ダウン・ウェイトを行うと有用であることを発見し、そ
れにおいてnsは、アピアランス・モデル内において使
用される指数時間ウインドウの半減期である。それに加
えて、D.J.Fleet(D.J.フリート)および
A.D.Jepson(A.D.ジェプソン)による
「Stability of Phase Infor
mation(位相情報の安定性)」(上記引用)を使
用して帯域信号で発生する局所的位相不安定性を検出す
る。局所的位相観測dx,tが不安定であると考えられる
ときは、常に対応するグラディエント制約が未定義にな
り、式(23)に含められることはない。時間t−1に
おける不安定な観測を、カレント・ワープの下に時間t
における良好な観測にマップすると、尤度pw(dx,t
x,t-1)が未定義になる。それに代えて、以前の観測
が不安定と考えられるとき、pw=0,05を使用す
る。また、それらの場合においては、対応するWコンポ
ーネントの制約を、εを0にセットすることによって線
形連立系から除去する。
【0085】実際上は、局所的な最小値にはまり込むこ
とを回避する補助のために、粗−密ストラテジを伴うE
Mアルゴリズムおよび決定論的アニーリングを、動きパ
ラメータの当てはめに適用することが有用である(たと
えば、参照によりこれに援用されている1993年6月
にニューヨークで開催されたIEEE Compute
r Vision and Pattern Reco
gnition(IEEEコンピュータの視覚およびパ
ターン認識)CVPR−93の会報760〜761ペー
ジにあるA.Jepson(A.D.ジェプソン)およ
びM.J.Black(M.J.ブラック)による「M
ixture Model for Opticl F
low Computation(オプティカル・フロ
ー演算に関する混合モデル)」を参照されたい)。ワー
プ・パラメータに関する初期推測は、定速モデルを基礎
とし、その結果、初期推測は、単純に以前のフレームか
らの評価済みワープ・パラメータに等しくなる。アニー
リングのために、SおよびWコンポーネントに関する式
(22)のオーナーシップならびにグラディエントの演
算における分散σ2s,tおよびσ2wの使用に代えて、パラ
メータσsおよびσwが使用される。EMアルゴリズムの
各繰り返しにおいては、これらの値が以下に従って減少
する。
【0086】
【数26】 これにおいてσsおよびσwは、カレントのEMの繰り返
しにおいて獲得された動き評価を前提とする、Sコンポ
ーネントおよびWコンポーネントの位相差の、全近隣N
tにわたる最大尤度分散評価である。分散が最小値に達
すると、アニーリングがオフになり、それらは、カレン
トの動きパラメータに従った揺動が許される。さらに、
Sコンポーネントの分散が、各EMの繰り返しにおける
データ観測の空間的集合に従って減少することから、オ
ーナーシップおよび尤度グラディエントの演算における
各個別の観測に使用される分散は、対応する分散σ2s,t
より低くなることができない。
【0087】最後に、ワープ・パラメータctが決定さ
れた後は、アピアランス・モデルAt-1がctによって指
定されるワープを使用して、カレント時間tに向かって
前方に対流(ワープ)される。このワープを行うため
に、区分的な定数の補間値(原文:interpola
nt)が、WSL状態変数m(x,t−1)およびσs
(x,t−1)に関して使用される。この補間は、安定
プロセスに関する平均μ(x,t−1)の補間への使用
には粗すぎることが予測されたため、区分的な線型モデ
ルを使用して平均の補間が行われている。この補間に関
する空間位相グラディエントは、イメージ・ピラミッド
のサンプリング・グリッド上の希望ロケーションxに対
する最近ピクセルにおけるフィルタ応答のグラディエン
トから決定される(参照によりこれに援用されている1
991年のComputer Visionand I
mage Understanding(コンピュータ
の視覚およびイメージの理解)53(2):198〜2
10にあるD.J.Fleet(D.J.フリート)、
A.D.Jepson(A.D.ジェプソン)および
M.Jenkin(M.ジェンキン)による「Phas
e−Based Disparity Measure
ment(位相ベースの不同測定)」を参照された
い)。
【0088】上に示したようにWSLアピアランス・モ
デルを使用する追跡システムが、発明者らによって、U
nix(登録商標)(読み:ユニックス(登録商標))
オペレーティング・システムで動作するSUN(読み:
サン)ワークステーションを使用して実装され、Mat
labPyrToolsおよびMatLabソフトウエ
ア・ツールボックスの1ないしは複数を使用してCプロ
グラミング言語により記述された。この実装された追跡
システムのパフォーマンスを記述する各種の例について
次に説明する。
【0089】図17〜19は、第1の方向に歩行中(イ
メージ・フレーム内を左から右;図17)の対象がカメ
ラの方向に振り返り(図18)、続いて逆方向に歩いて
行く(つまり右から左;図19)シーケンスから抽出し
たイメージを示している。この例は、Sコンポーネント
が、3Dターゲット・オブジェクト(たとえば対象の頭
部)の回転によって生じる漸進的なひずみに適合し得る
ことを例示している。図17〜19において、色が薄く
なっている楕円は、最初のフレーム内においてマニュア
ルで選択された選択領域を示している。この楕円が、振
り返るプロセスの間にわたって対象の頭部に貼り付いて
いることは、追跡が成功していることを表す。
【0090】図20〜25に例証されているように、追
跡システムの成功は、対象の振り返り全体を通じて安定
したイメージ構造を識別するSコンポーネントの能力に
大きく影響される。図20および21は、図17のイメ
ージ・フレームによって生成された複数のデータ・スト
リームに関する混合確率および平均値をそれぞれ示して
いる。図20の色の濃い領域は、密に詰まっている比較
的高い混合確率値(安定した構造を意味する)の領域を
示し、色の薄い領域は低い混合確率値(不安定な構造を
意味する)を示す。領域1110および1120内に示
されるように、高度に安定した構造は、それぞれ対象の
目および耳に関連付けされた高コントラストのエリア内
において識別されている。図22および23は、対象の
振り返り(図18に示されている)に従って生じる混合
確率および平均値に対する変化を示している。ここで注
意が必要であるが、目の領域1210および耳の領域1
220内の混合確率がそれぞれ高く、これらの領域内に
おいては安定したイメージ・データが維持される。最後
の図24および25は、対象の振り返りが完了(図18
に示されている)した後の混合確率および平均値に対す
る変化を示している。ここでは、数が大きく縮小されて
いるにもかかわらず、目の領域1310および耳の領域
1320から充分に安定したデータが獲得され、追跡の
成功が促進されていることに注意されたい。
【0091】図26および27は、合成イメージであ
り、サイズおよび証明条件の著しい変化に抗して追跡シ
ステムの動きおよびアピアランスの結合評価が安定して
いることを示している。現在の方法にとってさらに困難
なことは、ターゲット領域が(時々)小さくなること、
および背景の動きからの、オブジェクトの動きの分離が
小さいこと(フレーム当たり1ピクセル程度)である。
また、ターゲット領域の概略半分に、茂みによるオクル
ージョンが時々生じている。カメラは、撮影の間にわた
って静止しており、シーケンスは、それぞれ概略で25
0フレームである。図26および27に図示されている
2つのランは、最後のフレームに重畳された選択フレー
ムに関して、ターゲット領域を強調して示している。
【0092】図28〜43は、部分的なオクルージョン
に応答した追跡システムの振る舞いを例示している。図
28、32、36、および40は、対象がオクルージョ
ンの生じていない初期状態(図28)から、看板によっ
て部分的なオクルージョンを生じ(図32および3
6)、最終的に看板の後方に再度現れる状態(図40)
まで移動する間のシーケンスから選択したイメージ・フ
レームである。図29〜41は、混合確率ms(x,
t)をプロットしており、図30〜42は、平均μ
s(x,t)をプロットしており、図31〜43は、S
コンポーネントに関するオーナーシップos,t(x,
t)をプロットしている。
【0093】図28〜31は、約70フレームの後の処
理を示している。ms,tおよびos,tに関する著しい応答
(図29および31)は、アピアランス・モデルが、通
常はオブジェクト境界の内側となる、安定した構造の識
別に成功したことを立証している。看板によって対象の
部分的なオクルージョンが生じている図32〜35およ
び36〜39を参照すると、ms(x,t)は、データ
のサポートがないことからオクルージョンの生じている
領域内においてなめらかに減衰しているが、平均μ
s(x,t)は、msがプロットのスレッショルドより低
く落ちるまで概略で一定に保たれている。これは、アピ
アランス・モデルの持続性を明確に例証している。図3
6〜39は、オクルージョンから約20フレーム後の
(ここで、このモデルの半減期がns=20であったこ
とを思い出されたい)対象およびアピアランス・モデル
を示しており、その時点まで、Sコンポーネント内のよ
り弱いデータ・ポイントが消失している。しかしなが
ら、このモデルは、このオクルージョンの発生を通じて
追跡を継続しており、対象の見えている部分上(たとえ
ば領域1710;図39)に安定したモデルを維持して
いる。図40〜43においては、オクルージョンの背後
から人物が現れたとき、消散された安定したモデルをア
ピアランス・モデルが再構築している。
【0094】図44〜52は、図19A〜46に示され
ている一連のイメージ内に現れている表情の変化等の、
非剛体(たとえば自然)オブジェクトのイメージ内にお
ける安定したプロパティを追跡し、識別し得るWSLア
ピアランス・モデルの能力を例示している。前述の例の
場合と同様に、図47、49、および51は、Sコンポ
ーネントの混合確率を示し、図47、49、および51
は、それぞれの平均値を示している。図47を参照する
と、最初に口の領域2010が比較的安定であるとして
識別されていることに気付く。図49においては、対象
がほほえんだ直後に、口の領域2010の安定性が大き
く弱められている(より色の薄いシェーディングによっ
て示されている)。図91に示されているように、約2
0フレームの間にわたって新しい表情が維持された後
は、口の領域2010における安定性が再確立される。
眉等の顔の残りの部分も類似の振る舞いを呈する。その
逆に、生え際近傍および鼻のmsの値は、これらのイベ
ント全体を通じて増加を続け、それらが持続的に安定し
ていること、および全体として頭部が正確に追跡されて
いることを示している。
【0095】以上、1ないしは複数の具体的な実施態様
との関係から本発明を説明してきたが、この説明は、い
かなる意味においても本発明を限定する意図ではない。
すなわち、ここに説明した本発明には、付随する特許請
求の範囲内に含まれる、当業者にとって明らかなすべて
の修正および変形を包含することが意図されている。
【図面の簡単な説明】
【図1】 発明の実施態様に従ったアピアランス・モデ
ルを含む追跡システムを図示したブロック図である。
【図2】 図1の追跡システム内において使用されるア
ピアランス・モデルの概略の動作を図示したフローチャ
ートである。
【図3】 アピアランス・モデルによって処理されるい
くつかのイメージのひずみを示した写真である。
【図4】 アピアランス・モデルによって処理されるい
くつかのイメージのひずみを示した写真である。
【図5】 アピアランス・モデルによって処理されるい
くつかのイメージのひずみを示した写真である。
【図6】 アピアランス・モデルによって処理されるい
くつかのイメージのひずみを示した写真である。
【図7】 イメージ・データおよび関連するアピアラン
ス・モデルの混合パラメータを示した説明図である。
【図8】 イメージ・データおよび関連するアピアラン
ス・モデルの混合パラメータを示した説明図である。
【図9】 一連の時間値および関連するイメージ・デー
タ値をリストした表である。
【図10】 比較的安定した初期期間に応答して生成さ
れたアピアランス・モデルのコンポーネント・パラメー
タを示した説明図である。
【図11】 比較的安定した初期期間に応答して生成さ
れたアピアランス・モデルのコンポーネント・パラメー
タを示した説明図である。
【図12】 比較的安定した初期期間に応答して生成さ
れたアピアランス・モデルのコンポーネント・パラメー
タを示した説明図である。
【図13】 短いオクルージョンに応答して生成された
アピアランス・モデルのコンポーネント・パラメータを
示した説明図である。
【図14】 漸進的に変化するイメージ・データに応答
して生成されたアピアランス・モデルのコンポーネント
・パラメータを示した説明図である。
【図15】 長い期間にわたるイメージのひずみに応答
して生成されたアピアランス・モデルのコンポーネント
・パラメータを示した説明図である。
【図16】 長い期間にわたるイメージのひずみに応答
して生成されたアピアランス・モデルのコンポーネント
・パラメータを示した説明図である。
【図17】 振り返る3Dターゲット・オブジェクトの
追跡を示したイメージである。
【図18】 振り返る3Dターゲット・オブジェクトの
追跡を示したイメージである。
【図19】 振り返る3Dターゲット・オブジェクトの
追跡を示したイメージである。
【図20】 図17のイメージに関連付けされる混合確
率および平均イメージ・データ値を示した説明図であ
る。
【図21】 図17のイメージに関連付けされる混合確
率および平均イメージ・データ値を示した説明図であ
る。
【図22】 図18のイメージに関連付けされる混合確
率および平均イメージ・データ値を示した説明図であ
る。
【図23】 図18のイメージに関連付けされる混合確
率および平均イメージ・データ値を示した説明図であ
る。
【図24】 図19のイメージに関連付けされる混合確
率および平均イメージ・データ値を示した説明図であ
る。
【図25】 図19のイメージに関連付けされる混合確
率および平均イメージ・データ値を示した説明図であ
る。
【図26】 カメラに向かって移動する3Dオブジェク
トの追跡を示した合成写真である。
【図27】 カメラに向かって移動する3Dオブジェク
トの追跡を示した合成写真である。
【図28】 オクルージョンの前のターゲット・オブジ
ェクトに関連付けされるイメージ・データを含む写真で
ある。
【図29】 図28に示されているイメージ・データに
関連付けされる混合確率、を示した説明図である。
【図30】 図28に示されているイメージ・データに
関連付けされる平均データ値を示した説明図である。
【図31】 図28に示されているイメージ・データに
関連付けされるオーナーシップ・データを示した説明図
である。
【図32】オクルージョンの開始時における図28のタ
ーゲット・オブジェクトに関連付けされるイメージ・デ
ータを含む写真である。
【図33】 図32に示されているイメージ・データに
関連付けされる混合確率を示した説明図である。
【図34】 図32に示されているイメージ・データに
関連付けされる平均データ値を示した説明図である。
【図35】 図32に示されているイメージ・データに
関連付けされるオーナーシップ・データを示した説明図
である。
【図36】 オクルージョンの比較的長い期間の後にお
ける図28のターゲット・オブジェクトに関連付けされ
るイメージ・データを含む写真である。
【図37】 図36に示されているイメージ・データに
関連付けされる混合確率を示した説明図である。
【図38】 図36に示されているイメージ・データに
関連付けされる平均データ値を示した説明図である。
【図39】 図36に示されているイメージ・データに
関連付けされるオーナーシップ・データを示した説明図
である。
【図40】 オクルージョンが解消された後における図
28のターゲット・オブジェクトに関連付けされるイメ
ージ・データを含む写真である。
【図41】 図40に示されているイメージ・データに
関連付けされる混合確率を示した説明図である。
【図42】 図40に示されているイメージ・データに
関連付けされる平均データ値を示した説明図である。
【図43】 図40に示されているイメージ・データに
関連付けされるオーナーシップ・データを示した説明図
である。
【図44】 自然なひずみを見せている対象の追跡を示
したイメージである。
【図45】 自然なひずみを見せている対象の追跡を示
したイメージである。
【図46】 自然なひずみを見せている対象の追跡を示
したイメージである。
【図47】 図44のイメージに関連付けされる混合確
率を示した説明図である。
【図48】 図44のイメージに関連付けされる平均イ
メージ・データ値を示した説明図である。
【図49】 図45のイメージに関連付けされる混合確
率を示した説明図である。
【図50】 図45のイメージに関連付けされる平均イ
メージ・データ値を示した説明図である。
【図51】 図46のイメージに関連付けされる混合確
率を示した説明図である。
【図52】 図46のイメージに関連付けされる平均イ
メージ・データ値を示した説明図である。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 トーマス エフ エル マラギー カナダ オンタリオ トロント メイトラ ンド プレイス 324−77 Fターム(参考) 5L096 BA02 CA22 HA05 KA04 LA05

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 複数の連続したイメージフレーム内に提
    供されるイメージデータを使用するアピアランスモデル
    を生成するための方法であって、 前記アピアランスモデルが、第1の混合確率及び比較的
    多数の連続したイメージフレーム内に提供されるイメー
    ジデータによって定義される第1のデータパラメータを
    含む安定コンポーネントによって定義され、かつ前記ア
    ピアランスモデルが、第2の混合確率及び比較的少数の
    連続したイメージフレーム内に提供されるイメージデー
    タによって定義される第2のデータパラメータを有する
    推移コンポーネントを包含し、 前記方法が、 複数の連続したイメージフレームの、もっとも新しいイ
    メージフレームに対応するイメージデータを受け取り、 前記安定コンポーネントに関する第1の尤度値及び前記
    推移コンポーネントに関する第2の尤度値の決定であっ
    て、前記第1の尤度値が前記イメージデータと前記第1
    のデータパラメータの間における相対的な一致を示し、
    第2の尤度値が前記イメージデータと前記第2のデータ
    パラメータの間における相対的な一致を示すものとし、 前記第1および第2の尤度値をそれぞれ使用して、前記
    安定コンポーネントの前記混合確率及び前記推移コンポ
    ーネントの前記第2の混合確率を更新する、 各ステップを含む方法。
  2. 【請求項2】 選択されたターゲットオブジェクトを追
    跡するための方法であって、 前記ターゲットオブジェクトに関連付けされたイメージ
    データを含むカレントイメージフレームを受け取り、 ターゲットオブジェクトの動きを、時間的に前記カレン
    トイメージフレームに先行する比較的多数のイメージフ
    レームにわたって受け取られたイメージデータによって
    定義されるパラメータを有する第1のイメージコンポー
    ネント及び時間的に前記カレントイメージフレームに先
    行する比較的少数の連続するイメージフレームにわたる
    イメージデータによって定義されるパラメータを有する
    第2のイメージコンポーネントを含む適応型アピアラン
    スモデルを使用して評価し、 前記第1及び第2のイメージコンポーネントを更新す
    る、 各ステップを含む方法。
  3. 【請求項3】 プロセッサによりコントロールされるマ
    シン上に実装される、複数の連続したイメージフレーム
    内に現れるオブジェクトを識別するための適応型アピア
    ランスモデルであって、 比較的多数の連続したイメージフレームにわたって安定
    を保つイメージデータによって定義されるパラメータを
    有する第1のイメージコンポーネントと、 比較的少数の連続したイメージフレームによって定義さ
    れるパラメータを有する第2のイメージコンポーネント
    を含み、かつ複数の連続したイメージフレームのカレン
    トイメージフレームを受け取った後に、前記第1のイメ
    ージコンポーネントを更新するための手段と、 を包含する適応型アピアランスモデル。
JP2002354936A 2001-12-07 2002-12-06 アピアランスモデルの生成方法 Expired - Fee Related JP4372411B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/016,659 2001-12-07
US10/016,659 US7058205B2 (en) 2001-12-07 2001-12-07 Robust, on-line, view-based appearance models for visual motion analysis and visual tracking

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009155784A Division JP4824791B2 (ja) 2001-12-07 2009-06-30 視覚型動き解析及び視覚型追跡のためのアピアランスモデル

Publications (2)

Publication Number Publication Date
JP2003196661A true JP2003196661A (ja) 2003-07-11
JP4372411B2 JP4372411B2 (ja) 2009-11-25

Family

ID=21778275

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2002354936A Expired - Fee Related JP4372411B2 (ja) 2001-12-07 2002-12-06 アピアランスモデルの生成方法
JP2009155784A Expired - Fee Related JP4824791B2 (ja) 2001-12-07 2009-06-30 視覚型動き解析及び視覚型追跡のためのアピアランスモデル

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2009155784A Expired - Fee Related JP4824791B2 (ja) 2001-12-07 2009-06-30 視覚型動き解析及び視覚型追跡のためのアピアランスモデル

Country Status (5)

Country Link
US (1) US7058205B2 (ja)
EP (1) EP1318477B1 (ja)
JP (2) JP4372411B2 (ja)
BR (1) BR0204991A (ja)
DE (1) DE60209989T2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007523429A (ja) * 2004-02-20 2007-08-16 シーメンス コーポレイト リサーチ インコーポレイテツド ロバストな情報融合を利用するオブジェクトのマルチモーダルコンポーネントベースドトラッキングのための方法及びシステム
JP2009291617A (ja) * 2008-06-05 2009-12-17 Medison Co Ltd 明るさ値とグラジエント情報を用いた超音波映像とct映像の非剛体映像整合システム及び方法
JP2018139403A (ja) * 2016-12-21 2018-09-06 アクシス アーベー ビデオ監視システムで警告を発する方法
JP2019067271A (ja) * 2017-10-04 2019-04-25 株式会社日立製作所 監視装置、その方法および、そのシステム

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7058205B2 (en) * 2001-12-07 2006-06-06 Xerox Corporation Robust, on-line, view-based appearance models for visual motion analysis and visual tracking
US6954544B2 (en) * 2002-05-23 2005-10-11 Xerox Corporation Visual motion analysis method for detecting arbitrary numbers of moving objects in image sequences
GB0218982D0 (en) * 2002-08-15 2002-09-25 Roke Manor Research Video motion anomaly detector
EP1602321A1 (en) * 2004-06-02 2005-12-07 SensoMotoric Instruments GmbH Method and apparatus for image-based eye tracking for retinal diagnostic or surgery device
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
US7599549B2 (en) * 2004-12-22 2009-10-06 Fujifilm Corporation Image processing method, image processing apparatus, and computer readable medium, in which an image processing program is recorded
GB0502371D0 (en) * 2005-02-04 2005-03-16 British Telecomm Identifying spurious regions in a video frame
JP4741650B2 (ja) * 2005-03-17 2011-08-03 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー ビデオシーケンスにおけるオブジェクト追跡の方法
US7664962B2 (en) * 2006-03-13 2010-02-16 Motorola, Inc. Multiple-input, automatic recognition method and apparatus
US8026931B2 (en) 2006-03-16 2011-09-27 Microsoft Corporation Digital video effects
US20110123067A1 (en) * 2006-06-12 2011-05-26 D & S Consultants, Inc. Method And System for Tracking a Target
EP1879149B1 (en) * 2006-07-10 2016-03-16 Fondazione Bruno Kessler method and apparatus for tracking a number of objects or object parts in image sequences
US8154600B2 (en) * 2007-04-20 2012-04-10 Utc Fire & Security Americas Corporation, Inc. Method and system for distributed multiple target tracking
US20090002489A1 (en) * 2007-06-29 2009-01-01 Fuji Xerox Co., Ltd. Efficient tracking multiple objects through occlusion
GB2452512B (en) * 2007-09-05 2012-02-29 Sony Corp Apparatus and method of object tracking
US8160371B2 (en) * 2007-12-03 2012-04-17 Honeywell International Inc. System for finding archived objects in video data
US8190549B2 (en) * 2007-12-21 2012-05-29 Honda Motor Co., Ltd. Online sparse matrix Gaussian process regression and visual applications
US7782490B2 (en) * 2008-02-01 2010-08-24 Xerox Corporation Sensitivity matrix determination for adaptive color control
US8200017B2 (en) * 2008-10-04 2012-06-12 Microsoft Corporation Face alignment via component-based discriminative search
US8099442B2 (en) * 2008-10-24 2012-01-17 Seiko Epson Corporation Robust generative features
US8611590B2 (en) 2008-12-23 2013-12-17 Canon Kabushiki Kaisha Video object fragmentation detection and management
AU2008264232B2 (en) * 2008-12-30 2012-05-17 Canon Kabushiki Kaisha Multi-modal object signature
WO2010118629A1 (en) * 2009-04-17 2010-10-21 The Hong Kong University Of Science And Technology Method, device and system for facilitating motion estimation and compensation of feature-motion decorrelation
JP5682563B2 (ja) * 2009-08-20 2015-03-11 日本電気株式会社 移動体軌跡識別システム、移動体軌跡識別方法および移動体軌跡識別プログラム
AU2009243528B2 (en) 2009-12-04 2013-08-01 Canon Kabushiki Kaisha Location-based signature selection for multi-camera object tracking
US20110187703A1 (en) * 2010-01-29 2011-08-04 Kedar Anil Patwardhan Method and system for object tracking using appearance model
US8873798B2 (en) * 2010-02-05 2014-10-28 Rochester Institue Of Technology Methods for tracking objects using random projections, distance learning and a hybrid template library and apparatuses thereof
DE102010023313A1 (de) * 2010-06-10 2011-12-15 Jörg Mudrak Verfahren zur Erzeugung von Bewegungsartefakten in einem Bild und eine dafür benötigte Einrichtung
US10281915B2 (en) 2011-01-05 2019-05-07 Sphero, Inc. Multi-purposed self-propelled device
US9090214B2 (en) 2011-01-05 2015-07-28 Orbotix, Inc. Magnetically coupled accessory for a self-propelled device
US9150263B2 (en) 2011-01-05 2015-10-06 Sphero, Inc. Self-propelled device implementing three-dimensional control
US9429940B2 (en) 2011-01-05 2016-08-30 Sphero, Inc. Self propelled device with magnetic coupling
US9218316B2 (en) 2011-01-05 2015-12-22 Sphero, Inc. Remotely controlling a self-propelled device in a virtualized environment
US8948447B2 (en) * 2011-07-12 2015-02-03 Lucasfilm Entertainment Companyy, Ltd. Scale independent tracking pattern
US9619699B2 (en) 2011-11-09 2017-04-11 Tata Consultancy Services Limited System and method for enhancing human counting by fusing results of human detection modalities
JP2015524951A (ja) 2012-05-14 2015-08-27 オルボティックス, インコーポレイテッドOrbotix, Inc. 画像内で丸い物体を検出することによるコンピューティングデバイスの操作
US9292758B2 (en) 2012-05-14 2016-03-22 Sphero, Inc. Augmentation of elements in data content
US9827487B2 (en) 2012-05-14 2017-11-28 Sphero, Inc. Interactive augmented reality using a self-propelled device
US10056791B2 (en) 2012-07-13 2018-08-21 Sphero, Inc. Self-optimizing power transfer
US9349218B2 (en) * 2012-07-26 2016-05-24 Qualcomm Incorporated Method and apparatus for controlling augmented reality
KR101977802B1 (ko) * 2012-10-10 2019-05-13 삼성전자주식회사 영상 시스템에서 움직임 추정 장치 및 방법
US8995719B2 (en) * 2012-12-10 2015-03-31 Intel Corporation Techniques for improved image disparity estimation
US20140176548A1 (en) * 2012-12-21 2014-06-26 Nvidia Corporation Facial image enhancement for video communication
US9070289B2 (en) 2013-05-10 2015-06-30 Palo Alto Research Incorporated System and method for detecting, tracking and estimating the speed of vehicles from a mobile platform
US9025825B2 (en) 2013-05-10 2015-05-05 Palo Alto Research Center Incorporated System and method for visual motion based object segmentation and tracking
CN103593856A (zh) * 2013-11-20 2014-02-19 中国科学院深圳先进技术研究院 单目标跟踪方法及系统
US9829882B2 (en) 2013-12-20 2017-11-28 Sphero, Inc. Self-propelled device with center of mass drive system
CN104408768B (zh) * 2014-11-20 2017-06-09 浙江大学 一种基于联合字典的三维人脸表情去除的方法
US9697614B2 (en) 2014-12-08 2017-07-04 Mitsubishi Electric Research Laboratories, Inc. Method for segmenting and tracking content in videos using low-dimensional subspaces and sparse vectors
US10252417B2 (en) * 2016-03-02 2019-04-09 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and storage medium
CN111291739B (zh) * 2020-05-09 2020-09-18 腾讯科技(深圳)有限公司 面部检测、图像检测神经网络训练方法、装置和设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9019538D0 (en) * 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
JPH04372411A (ja) * 1991-06-19 1992-12-25 Toyota Motor Corp アクティブサスペンションの制御装置
US6724915B1 (en) * 1998-03-13 2004-04-20 Siemens Corporate Research, Inc. Method for tracking a video object in a time-ordered sequence of image frames
US6798897B1 (en) * 1999-09-05 2004-09-28 Protrack Ltd. Real time image registration, motion detection and background replacement using discrete local motion estimation
US6741756B1 (en) * 1999-09-30 2004-05-25 Microsoft Corp. System and method for estimating the orientation of an object
US6731799B1 (en) * 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US7058205B2 (en) * 2001-12-07 2006-06-06 Xerox Corporation Robust, on-line, view-based appearance models for visual motion analysis and visual tracking

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007523429A (ja) * 2004-02-20 2007-08-16 シーメンス コーポレイト リサーチ インコーポレイテツド ロバストな情報融合を利用するオブジェクトのマルチモーダルコンポーネントベースドトラッキングのための方法及びシステム
JP2009291617A (ja) * 2008-06-05 2009-12-17 Medison Co Ltd 明るさ値とグラジエント情報を用いた超音波映像とct映像の非剛体映像整合システム及び方法
JP2018139403A (ja) * 2016-12-21 2018-09-06 アクシス アーベー ビデオ監視システムで警告を発する方法
JP7229662B2 (ja) 2016-12-21 2023-02-28 アクシス アーベー ビデオ監視システムで警告を発する方法
JP2019067271A (ja) * 2017-10-04 2019-04-25 株式会社日立製作所 監視装置、その方法および、そのシステム
JP7080615B2 (ja) 2017-10-04 2022-06-06 株式会社日立製作所 監視装置、その方法および、そのシステム

Also Published As

Publication number Publication date
EP1318477A2 (en) 2003-06-11
BR0204991A (pt) 2004-06-29
DE60209989D1 (de) 2006-05-11
DE60209989T2 (de) 2006-08-17
JP4372411B2 (ja) 2009-11-25
JP2009217855A (ja) 2009-09-24
EP1318477A3 (en) 2003-09-17
US7058205B2 (en) 2006-06-06
US20030108220A1 (en) 2003-06-12
JP4824791B2 (ja) 2011-11-30
EP1318477B1 (en) 2006-03-22

Similar Documents

Publication Publication Date Title
JP4372411B2 (ja) アピアランスモデルの生成方法
US10949649B2 (en) Real-time tracking of facial features in unconstrained video
Dosovitskiy et al. Flownet: Learning optical flow with convolutional networks
US7072494B2 (en) Method and system for multi-modal component-based tracking of an object using robust information fusion
JP5848341B2 (ja) 単眼3次元ポーズ推定および検出による追跡
EP2192549B1 (en) Target tracking device and target tracking method
JP4177402B2 (ja) 人間の姿を与えたものを動画化するためのウェーブレットに基づく顔の動きの捕捉
Babu et al. Robust tracking with motion estimation and local kernel-based color modeling
US7706571B2 (en) Flexible layer tracking with weak online appearance model
US6757571B1 (en) System and process for bootstrap initialization of vision-based tracking systems
CN109685037B (zh) 一种实时动作识别方法、装置及电子设备
JP7263216B2 (ja) ワッサースタイン距離を使用する物体形状回帰
US8363902B2 (en) Moving object detection method and moving object detection apparatus
Jepson et al. A layered motion representation with occlusion and compact spatial support
CN110175649A (zh) 一种关于重新检测的快速多尺度估计目标跟踪方法
CN112464847B (zh) 视频中人体动作切分方法及装置
Smith ASSET-2: Real-time motion segmentation and object tracking
Gibson et al. Robust optical flow estimation based on a sparse motion trajectory set
JP7488674B2 (ja) 物体認識装置、物体認識方法及び物体認識プログラム
CN110602476A (zh) 一种基于深度信息辅助的高斯混合模型的空洞填补方法
CN113870314B (zh) 一种动作迁移模型的训练方法及动作迁移方法
Li et al. Real-time human tracking based on switching linear dynamic system combined with adaptive Meanshift tracker
Gall et al. Learning for multi-view 3D tracking in the context of particle filters
JP2011086245A (ja) テンプレート作成装置、表情認識装置、テンプレート作成方法、表情認識方法、及びプログラム
JP2003256849A (ja) 物体抽出システム、物体抽出方法および物体抽出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090203

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090430

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090508

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090602

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090804

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090902

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130911

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees