JP4208898B2 - 対象物追跡装置および対象物追跡方法 - Google Patents

対象物追跡装置および対象物追跡方法 Download PDF

Info

Publication number
JP4208898B2
JP4208898B2 JP2006161687A JP2006161687A JP4208898B2 JP 4208898 B2 JP4208898 B2 JP 4208898B2 JP 2006161687 A JP2006161687 A JP 2006161687A JP 2006161687 A JP2006161687 A JP 2006161687A JP 4208898 B2 JP4208898 B2 JP 4208898B2
Authority
JP
Japan
Prior art keywords
tracking
image
motion
model
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006161687A
Other languages
English (en)
Other versions
JP2007328746A (ja
Inventor
渉一 池上
隆之 坂本
英彦 森貞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2006161687A priority Critical patent/JP4208898B2/ja
Priority to US11/755,870 priority patent/US7940957B2/en
Publication of JP2007328746A publication Critical patent/JP2007328746A/ja
Application granted granted Critical
Publication of JP4208898B2 publication Critical patent/JP4208898B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Description

本発明は情報処理技術に関し、特に入力画像中の対象物の追跡を行う対象物追跡装置およびそこで実行される対象物追跡方法に関する。
視覚追跡はコンピュータビジョン、特にセキュリティ分野における視覚監視やAV分野における記録映像の解析・分類、編集、またはマンマシンインターフェース、さらには人間同士のインターフェース、すなわちテレビ会議やテレビ電話など、多岐に渡る応用が見込まれる。そのため、追跡精度および処理効率の向上等を目的に、多くの研究がなされている。中でも、カルマンフィルタで扱うことのできない非ガウス性雑音が加算された信号の時系列解析手法として注目されているパーティクルフィルタを視覚追跡に応用する研究が多くなされており、特にCondensation(Conditional Density Propagation)アルゴリズムが有名である(例えば非特許文献1および2参照)。
パーティクルフィルタはベイズフィルタの近似計算法であり、有限個のパーティクルを追跡候補として導入することにより対象の確率分布を表現し、それを用いて時系列推定や予測を行う。視覚追跡で用いる際には、パラメータ化した対象の動きを1個のパーティクルとして扱い、運動モデルによるパラメータ遷移と観測による遷移結果の尤度計算によって、対象のパラメータ空間上での存在分布確率を逐次推定する。しかしパーティクルフィルタは、設定する運動モデルで表現しきれない対象の動きに弱いことから、運動モデルをいかに構築するかが大きな問題になる。
Contour tracking by stochastic propagation of conditional density, Michael Isard and Andrew Blake, Proc. European Conf. on Computer Vision, vol. 1, pp.343-356, Cambridge UK (1996) CONDENSATION - conditional density propagation for visual tracking, Michael Isard and Andrew Blake, Int. J. Computer Vision, 29, 1, 5-28 (1998) A mixed-state Condensation tracker with automatic model-switching, Michael Isard and Andrew Blake, Proc. 6th Int. Conf. Computer Vision, 1998 ICondensation: Unifying low-level and high-level tracking in a stochastic framework, Michael Isard and Andrew Blake, Proc 5th European Conf. Computer Vision, 1998
視覚追跡における従来の標準的なパーティクルフィルタでは、画像のカテゴリに合わせて様々な運動モデルを選択する。ところが単一の運動モデルで追跡を行う場合、対象のパラメータ空間上の動きの特性が一定である必要があるため、適用環境が限定的となる。これは設定した運動モデルが対象のパラメータ空間上の動きを良好に表現できない場合に、著しく追跡性能が落ちることが理由である。これに対して複数の運動モデルを切り替えて追跡を行う手法も提案されている(例えば非特許文献3参照)。しかしこの手法も、切り替えタイミングを学習する必要があること、および学習が収束した場合にのみ有効であることから実用的ではない。
本発明はこのような課題に鑑みてなされたものであり、その目的は追跡対象の運動特性が変化しても、適応的かつ効率的に追跡を続行することのできる技術を提供することにある。
本発明のある態様は対象物追跡装置に関する。この対象物追跡装置は、動画像データを構成する画像ストリームに含まれる第1の画像フレームおよび第2の画像フレームのうち、第1の画像フレームにおける対象物の推定存在確率分布に基づき、追跡候補を定めるパラメータ空間上にパーティクルフィルタに用いるパーティクルを生成するサンプリング部と、複数の運動モデルのそれぞれに対応し、各運動モデルに則り遷移させたパーティクルが定める追跡候補の、第2の画像フレームにおける対象物に対する尤度を観測する複数のモデル追跡部と、複数のモデル追跡部が観測した尤度を比較することにより一の運動モデルを選択し、当該運動モデルに則り定めた追跡候補の尤度に基づき、第2の画像フレームにおける対象物の存在確率分布を推定する追跡統合部と、を備えることを特徴とする。
ここで「第1の画像フレーム」と「第2の画像フレーム」は、画像ストリームにおいて隣接する画像フレームでもよいし、離れて位置する画像フレームでもよい。時間軸の順方向へ追跡していく一般的な対象物追跡においては、「第1の画像フレーム」は「第2の画像フレーム」より時間的に前の画像フレームであるが、本実施の形態はこれに限らない。
また「存在確率分布」は、対象物の画像フレーム内の位置座標に対する存在確率分布であってもよいし、形状、色、大きさなど対象物の有する属性のいずれかまたはそれらの組み合わせを表すパラメータが張る空間に対する存在確率分布であってもよい。したがって「追跡候補」は形状や大きさを表す2次元図形として表されてもよいし、数値そのものでもよい。また「尤度」は追跡候補がどの程度対象物と近い態様となっているかを表す度合いであり、例えば追跡候補を2次元図形とした場合は、対象物との重なり具合、対象物との距離などを数値で示したものなどであり、追跡候補が数値であれば対象物の有する数値との差を示したものなどである。
「パーティクル」とは、過去の情報と現在の観測情報とから現在の状態を推定する手法のひとつであるパーティクルフィルタにおいて導入されるものであり、観測を行うパラメータへの重み付けを、パラメータ空間に存在するパーティクルの数で表現する。
本発明の別の態様は対象物追跡方法に関する。この対象物追跡方法は、コンピュータが行う対象物追跡方法であって、入力された動画像データを構成する画像ストリームをメモリに記憶するステップと、画像ストリームに含まれる画像フレームのうち第1の画像フレームをメモリより読み出し、第1の画像フレームにおける対象物の存在確率分布から、対象物の変化の度合いを複数の運動モデルを仮定して算出するステップと、算出した変化の度合いによって定まる対象物の仮の特性と、メモリより読み出した第2の画像フレームにおける対象物の真の特性とを比較して、複数の運動モデルのうち最も尤度の高い仮の特性を与える運動モデルを選択するステップと、選択した運動モデルに基づき、第2の画像フレームにおける対象物の存在確率分布を推定するステップと、を含むことを特徴とする。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、複数の運動特性を有する対象物の追跡を、精度を確保しつつ効率的に行うことができる。
本実施の形態の特徴および効果を明らかにするために、まずパーティクルフィルタによる視覚追跡について説明する。図1は人物を追跡対象とした場合の視覚追跡手法を説明するための図である。人物画像50は実写した動画像やコンピュータグラフィックスなどにより生成された動画像の画像ストリームを構成する画像フレームのひとつであり、追跡対象である人物52が写っている。
この人物52の動きを追跡するために、人物52の頭部輪郭の形状を近似するΩ形の曲線54を既知の表現で記述する。一方、人物52を含む人物画像50にはエッジ抽出処理を施し、エッジ画像を取得しておく。そして曲線54を規定するパラメータを変化させながら形状および位置を変化させて、その近傍にあるエッジを探索することにより、人物52の頭部輪郭に最もマッチするパラメータを特定する。以上の処理をフレームごとに繰り返すことにより人物52の追跡が進捗する。ここでエッジとは画像の濃度や色に急な変化を有する箇所のことである。
様々な曲線54と人物52の頭部輪郭とのマッチングを行うために、パーティクルフィルタによる確率分布予測技術を導入する。すなわち、ひとつ前のフレームにおけるパラメータ空間上の対象物の確率分布に応じて曲線54のサンプリング数を増減させ、追跡候補の絞り込みを行う。これにより存在確率の高い部分に対しては重点的に探索を行うことができ、精度のよいマッチングが効率的に行える。
対象物の輪郭に着目した追跡に対するパーティクルフィルタの適用手法は、例えば非特許文献4(ICondensation: Unifying low-level and high-level tracking in a stochastic framework, Michael Isard and Andrew Blake, Proc 5th European Conf. Computer Vision, 1998)に詳述されている。ここでは本実施の形態に係る点に着目して説明する。

まずΩ形の曲線54を、Bスプライン曲線で記述する。Bスプライン曲線はn個の制御点列(Q0,・・・,Qn)と単位点列(s0,・・・,sn)とから定義される。そして基本となる曲線形状、この場合はΩ形の曲線となるように、それらのパラメータをあらかじめ設定しておく。このときの設定によって得られる曲線を以後、テンプレートQと呼ぶ。なお、図1で示した人物画像50における人物52の追跡を行う場合は、テンプレートQはΩ形であるが、その形状は追跡対象によって変化させる。すなわち追跡対象がボールであれば円形、手のひらであれば手の形状となる。
次にテンプレートの形状を変化させるための変換パラメータとして、形状空間ベクトルxを準備する。形状空間ベクトルxは以下のような6つのパラメータで構成される。
Figure 0004208898
ここで(shift,shift)は(x,y)方向への並進量、(extend,extend)は倍率、θは回転角である。そして形状空間ベクトルxをテンプレートQに作用させるための作用行列Wを用いると、変形後の曲線、すなわち候補曲線Qは以下のように記述できる。
Figure 0004208898
式2を用いれば、形状空間ベクトルxを構成する6つのパラメータを適宜変化させることにより、テンプレートを並進、伸縮、回転させることができ、組み合わせによって候補曲線Qの形状や位置を種々変化させることができる。
そして、制御点列、および単位点列の間隔といったテンプレートQのパラメータや、形状空間ベクトルxを構成する6つのパラメータを変化させることによって表現される複数の候補曲線について、各単位点の近傍にある人物52のエッジを探索する。その後、エッジとの距離から各候補曲線の尤度を求めることにより、形状空間ベクトルxを構成する6つのパラメータが張る6次元空間における確率密度分布を推定する。
図2はパーティクルフィルタを用いた確率密度分布推定の手法を説明する図である。同図では理解を簡単にするために、形状空間ベクトルxを構成する6つのパラメータのうちの1つのパラメータx1の変化を横軸に表しているが、実際には6次元空間において同様の処理が行われる。ここで確率密度分布を推定したい画像フレームが時刻tの画像フレームであるとする。
まず、時刻tの画像フレームのひとつ前のフレームである時刻t−1の画像フレームにおいて推定された、パラメータx1軸上の確率密度分布を用いて(S10)、時刻tにおけるパーティクルを生成する(S12)。それまでにフィルタリングを行い、すでにパーティクルが存在する場合は、その分裂、および消滅を決定する。S10において表した確率密度分布は、パラメータ空間上の座標に対応して離散的に求められたものであり、円が大きいほど確率密度が高いことを表している。
パーティクルはサンプリングするパラメータx1の値とサンプリング密度とを実体化したものであり、例えば時刻t−1において確率密度が高かったパラメータx1の領域は、パーティクル密度を高くすることで重点的にサンプリングを行い、確率密度の低かった範囲はパーティクルを少なくすることでサンプリングをあまり行わない。これにより、例えば人物52のエッジ近傍において候補曲線を多く発生させて、効率よくマッチングを行う。
次に所定の運動モデルを用いて、パーティクルをパラメータ空間上で遷移させる(S14)。所定の運動モデルとは例えば、ガウシアン型運動モデル、自己回帰予測型運動モデルなどである。前者は、時刻tにおける確率密度は時刻t−1における各確率密度の周囲にガウス分布している、とするモデルである。後者は、サンプルデータから取得した2次以上の自己回帰予測モデルを仮定する手法で、例えば人物52がある速度で等速運動をしているといったことを過去のパラメータの変化から推定する。図2の例では、自己回帰予測型運動モデルによりパラメータx1の正方向への動きが推定され、各パーティクルをそのように遷移させている。
次に、各パーティクルで決定される候補曲線の近傍にある人物52のエッジを、時刻tのエッジ画像を用いて探索することにより、各候補曲線の尤度を求め、時刻tにおける確率密度分布を推定する(S16)。前述のとおり、このときの確率密度分布はS16に示すように、真の確率密度分布400を離散的に表したものになる。以降、これを繰り返すことにより、各時刻における確率密度分布がパラメータ空間において表される。例えば確率密度分布が単峰性であった場合、すなわち追跡対象が唯一であった場合は、得られた確率密度を用いて各パラメータの値に対し重み付けした和を最終的なパラメータとすることにより、追跡対象に最も近い曲線が得られることになる。
S16において推定される時刻tにおける確率密度分布p(xt i)は以下のように計算される。
Figure 0004208898
ここでiはパーティクルに一意に与えられた番号、p(xt i|xt i, ut-1)は所定の運動モデル、p(yt|xt i)は尤度である。
ここで運動モデルとしてガウシアン型運動モデルを導入した場合、エッジ探索の範囲はひとつ前の時刻における1つのパーティクルに対してパラメータ空間上で等方的に広がる。そのため、直線運動や蛇行など多様な動きに対応しやすい一方、追跡対象が探索範囲を超えるような大きな動きでパラメータ空間上を変位した場合、遷移させたパーティクルが定める候補曲線が実際のエッジからかけ離れてしまうことがある。その場合、エッジ探索がうまくいかずに追跡が失敗する可能性がある。これを克服するためにはガウス分布の標準偏差を大きくし、パーティクルを広範囲に分布させることが考えられるが、この場合、観測の密度を維持するためにパーティクルの数を増加させる必要がある。これらのことからガウシアン型運動モデルは計算時間が増大しやすかったりノイズ耐性が低いなどの問題を有する。
一方、自己回帰予測型運動モデルの場合、自己回帰予測が当てはまるケースにおいては、パーティクルを効率よく使用できるため計算効率がよくノイズ耐性も高いが、予測からはずれた動きにおいて追跡を失敗する可能性が大きくなる。
このように各運動モデルは、適合しやすい運動特性がそれぞれ異なるため、その選択は重要な意味を持つ。ところが最適と思われる運動モデルを選択しても、追跡対象が複数の運動特性を有し、時刻によってそれが変化する場合などには対応が困難であることに本発明者は想到した。そこで本実施の形態では、追跡対象の複数の運動特性のそれぞれに適合する複数の運動モデルを用意し、それらを適応的に切り替えることによって、追跡対象の動きに複数の特性がある場合においても精度を維持した追跡を実現する。
図3は本実施の形態における視覚追跡システムの構成例を示す図である。視覚追跡システム10は、追跡対象18を撮像する撮像装置12、追跡処理を行う追跡装置14、撮像装置12が撮像した画像のデータや追跡結果のデータを出力する表示装置16を含む。追跡対象18は人、物、それらの一部など、視覚追跡システム10の使用目的によって異なっていてよいが、以後の説明では上記の例同様、人であるとする。
追跡装置14と、撮像装置12あるいは表示装置16との接続は、有線、無線を問わず、また種々のネットワークを介していてもよい。あるいは撮像装置12、追跡装置14、表示装置16のうちいずれか2つ、または全てが組み合わされて一体的に装備されていてもよい。また使用環境によっては、撮像装置12と表示装置16は同時に追跡装置14に接続されていなくてもよい。
撮像装置12は追跡対象18を含む画像、または追跡対象18の有無に関わらずある場所の画像のデータを、所定のフレームレートで取得する。取得された画像データは追跡装置14に入力され、追跡対象18によって追跡処理がなされる。処理結果は出力データとして追跡装置14の制御のもと、表示装置16へ出力される。追跡装置14は別の機能を実行するコンピュータを兼ねていてもよく、追跡処理の結果得られたデータ、すなわち追跡対象18の位置情報や形状情報などを利用して様々な機能を実現してよい。
図4は追跡装置14の構成を詳細に示している。追跡装置14は、撮像装置12から入力される入力画像データを取得する画像取得部20、当該入力画像データを記憶する画像記憶部24、入力画像データからエッジ画像などを生成する画像処理部22、エッジ画像に対し複数の運動モデルに基づき追跡処理を行う追跡処理部26、得られた複数の追跡結果から適宜追跡結果を選択、統合する追跡統合部30、最終的な追跡結果のデータを記憶する結果記憶部34、追跡結果のデータの表示装置16への出力を制御する出力制御部32を含む。
図4において、様々な処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、CPU、メモリ、その他のLSIで構成することができ、ソフトウェア的には、画像処理を行うプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
追跡処理部26は、追跡開始終了判定部28、サンプリング部29、第1モデル追跡部27a、第2モデル追跡部27b、・・・、第nモデル追跡部27nのn個のモデル追跡部27を含む。ここでnは追跡処理を行うために導入する運動モデルの数である。すなわち第1モデル追跡部27aから第nモデル追跡部27nにはそれぞれ、異なる運動モデルがあらかじめ設定され、個々の運動モデルによって遷移させたパーティクルに基づく候補曲線の尤度がそれぞれ計算される。つまり本実施の形態では、追跡処理部26によって複数の運動モデルを用いた追跡処理が並列に行われる。第1モデル追跡部27aから第nモデル追跡部27nに設定する運動モデルは、追跡対象に応じて想定される運動特性を抽出し、各運動特性に適合する運動モデルを決定していく。これにより全ての運動特性にモデル追跡部27のいずれかが対応可能となるようにする。
追跡開始終了判定部28は、所定の条件によって追跡を開始するか、または終了するか、を判定する。なおここでの「終了」はオクルージョンなどによる追跡の一時停止を含んでもよい。追跡は、追跡対象が撮像装置の視野角内に現れた場合や、物陰などから現れた場合などに開始し、追跡対象が撮像装置の視野角内から去った場合や物陰などに入った場合などに終了する。
サンプリング部29は、一つ前の時刻t−1における画像フレームに対して推定された確率密度分布に基づき、パーティクルの生成および消滅の処理を行う。サンプリング部29は、追跡開始終了判定部28から追跡開始を示す信号を受けたら処理を開始し、追跡終了を示す信号を受けたら処理を終了する。
画像処理部22は追跡対象の輪郭を抽出する。具体的には、画像記憶部24が記憶した入力画像データの画像フレームごとにエッジ抽出処理を施し、エッジ画像を生成する。ここではキャニーエッジフィルタや、ソーベルフィルタなど一般的なエッジ抽出アルゴリズムを用いることができる。また画像処理部22は、背景差分を利用した前景抽出器(図示せず)を実装していてもよく、エッジ抽出処理の前処理として入力画像から追跡対象を含む前景を抽出することにより、追跡対象のエッジを効率的に抽出するようにしてもよい。
一方、画像処理部22は、上述した一般的なエッジ抽出手法以外の手法で追跡対象の輪郭を抽出してもよい。例えば入力画像から抽出した前景の外周を構成する曲線を当該輪郭として抽出してもよいし、複数の手法を組み合わせてもよい。以降の説明ではそれらの手法によって抽出された輪郭を全て、「エッジ」に含めるものとする。したがって画像処理部22が生成する「エッジ画像」は「輪郭線抽出画像」と同義とする。
追跡統合部30は追跡処理部26が出力するn系列の仮の追跡結果、すなわちn個の運動モデルに基づく候補曲線の、時刻tにおける観測尤度を比較し、最大の観測尤度が得られた運動モデルの値を採用することにより、時刻tにおける真の追跡結果を決定する。これにより、推定される確率密度分布p(xt i)を算出し、追跡対象の位置や形状などの追跡結果のデータを取得するとともに、次の時刻t+1における追跡処理に使用するため、追跡処理部26にそのデータを返す。
上述した追跡処理部26および追跡統合部30の処理は、以下の式で表すことができる。
Figure 0004208898
ここでm(1<m<n)はn個の運動モデルに一意に与えられた番号である。
追跡対象が複数存在する場合、追跡統合部30はさらに、それぞれに用意したテンプレートを用いて、追跡対象ごとに追跡を行い、それらの追跡結果を合成することによりひとつの追跡結果としてもよい。また複数の追跡対象が重なるような場合を追跡結果によって検出し、後ろに隠れる追跡対象については所定のタイミングで追跡処理対象からはずすなどの措置を講じる。これにより追跡対象が別の追跡対象の背後に回ったことによって観測尤度が一時的に低下しても、不適当な追跡結果を出力するのを避けることができる。
追跡統合部30は追跡結果として、例えば推定した確率密度分布で重み付けしたパラメータの値の和を、最終的なパラメータ値として算出する。そして最終的なパラメータ値によって決まる曲線のみで構成される画像や、曲線と入力画像とを合成してできた画像のデータなどを結果記憶部34に格納する。
画像処理部22、追跡処理部26、追跡統合部30における上述の処理を、各フレームに対して行うことにより結果記憶部34には追跡結果を含む動画像のデータが記憶される。出力制御部32の制御のもと、当該動画像のデータを表示装置16に出力することにより、テンプレートの曲線が追跡対象の動きと同様に動く様を表示することができる。なお上述のとおり、追跡結果は動画として表示する以外に、追跡の目的に応じて別の演算モジュールに出力するなどの処理を適宜行ってよい。
図5は本実施の形態において追跡処理部26および追跡統合部30が行う確率密度推定の手法を説明する図である。図の表し方は図2で説明したのと同様である。まず図2の場合と同様、時刻t−1のフレームにおいて推定される、パラメータx1の確率密度分布を離散的に表したものを用いて(S30)、時刻tにおけるパーティクルの分裂、および消滅を決定する(S32)。
次に例えばガウシアン型運動モデルと自己回帰予測型運動モデルをそれぞれ適用してパーティクルを変位させる(S34)。このとき各パーティクルは、ガウシアン型運動モデルおよび自己回帰予測型運度モデルなど、複数の運動モデルによって複数の遷移状態を有することになる。同図の場合、自己回帰予測型運動モデルによってパラメータx1の正方向に大きく変位するような運動が予測されている。そして時刻tにおけるエッジ画像を探索することにより、各候補曲線の尤度を求める。
このときガウシアン型運動モデルと自己回帰予測型運動モデルのそれぞれに対してパーティクルごとに尤度が求まる。本実施の形態では、各パーティクルに対し最大の尤度を観測した運動モデルをそのパーティクルの最適運動モデルとして選択する。そしてパーティクルごとに選択された運動モデルに基づく候補曲線の観測尤度から、時刻tにおける確率密度分布を推定する(S36)。図5では選択されない運動モデルによる確率密度分布が×印によって示されている。
同様にして、時刻tにおいて推定された確率密度分布からパーティクルの発生・消滅を決定し(S38)、再びガウシアン型運動モデルと自己回帰予測型運動モデルをそれぞれ適用してパーティクルを遷移させる(S40)。そして次の画像フレームである時刻t+1のフレームのエッジ画像を探索して各運動モデルについて候補曲線の尤度を求め、最大の尤度を観測した運動モデルに基づき、時刻t+1における確率密度分布を推定する(S42)。このようにして観測尤度に基づき、真の確率密度分布402および404に最も近い確率密度分布を推定できる運動モデルが自動的に判断される。
次に追跡処理を行う際の追跡装置14の動作について説明する。ここでは、撮像装置12が固定カメラとして会社のエントランスなどに設置されており、視覚追跡システム10を来訪者の解析に用いる場合を例に説明する。このとき撮像装置12は、追跡対象たる来訪者の有無に関わらず、所定のフレームレートでエントランスの所定の範囲を撮像する。撮像された画像は入力画像データとして追跡装置14の画像取得部20へ入力され、画像記憶部24に格納される。
図6は本実施の形態における追跡処理の手順を示すフローチャートである。同図は来訪者の登場より前の段階から来訪者が去った後までの追跡装置14による処理手順を示している。またこの場合の追跡対象は人物であるため、追跡装置14には前述のとおりΩ型のテンプレートを用意する。なおテンプレートの表現手法はBスプライン曲線に限らず、所望の曲線を表現できる記述形式であればよい。またテンプレート形状の変形手法も、その記述形式に適合し、数種類のパラメータを変化させることによって上述のような柔軟な変形を行うことのできる手法を適宜選択してよい。
まず画像記憶部24に格納された入力画像データは、追跡処理部26の追跡開始終了判定部28によってフレームごとに読み出され、追跡を開始するかどうかの判定が行われる(S20、S22)。例えば、画像フレームから抽出した前景として、人物と推定できる所定のサイズ、形を有する対象が出現した場合には、追跡を開始する判定を行う。判定基準となる前景のサイズや形はあらかじめ論理的にまたは実験的に定めておく。前景の抽出処理は、画像処理部22に実装された図示しない前景抽出器を利用してもよい。この場合は、追跡開始終了判定部28が、画像処理部22に対し前景抽出処理の要求を行う。あるいは追跡開始終了判定部28が前景抽出器を実装していてもよい。
追跡開始と判定されるまでS20とS22を繰り返し、追跡開始と判定されたら(S22のY)、判定対象の画像フレームにおける確率密度分布p(x0 i)を生成する(S24)。ここで、当該画像フレームに対応する時刻をt=0とする。このときまず、サンプリング部29が画像処理部22に対し、当該画像フレームのエッジ抽出処理の要求を行う。要求を受けた画像処理部22は、当該フレームの、人物と推定できる所定のサイズ、形を有する前景内部に対し所定のエッジ抽出アルゴリズムを施すことによってエッジを抽出し、サンプリング部29にエッジ画像データを渡す。
サンプリング部29は取得したエッジ画像データから確率密度分布p(x0 i)を生成する。このときは、例えばパラメータ空間の所定領域に均等にパーティクルを配置し、それらが定める候補曲線の尤度を観測することによって式3のように確率密度分布p(x0 i)を算出する。ただしこの場合は運動モデルによるパーティクルの遷移は行わない。
サンプリング部29は、上述のエッジ抽出処理の要求と同時に、後続フレームのエッジ抽出処理要求も行ってよい。この後続フレームのエッジ画像は第1モデル追跡部27aから第nモデル追跡部27nによって追跡処理に利用される。
次にサンプリング部29は、生成した確率密度分布p(x0 i)に対応した数のパーティクルを、パラメータ空間上に発生させる(S26のt−1=0)。発生させるパーティクルの数は、追跡装置14が有する演算リソースの量や、求められる結果出力速度などに基づき、処理の負荷を考慮して制御される。
次に第1モデル追跡部27aから第nモデル追跡部27nは、それぞれに割り当てられたn個の運動モデルに基づき、パーティクルをそれぞれ遷移させる(S28a〜S28n)。ここでは、自己回帰予測型運動モデルを利用し、等速運動などのほか、撮像装置12をぞきこんだり、前かがみになったりのけぞったり、といった、人が行う特徴的な動作を予測できる運動モデルを用意する。
さらに、そのような特徴的な動き以外の動き、すなわち不特定な方向に揺らいだり小刻みに移動するなどの動きをカバーし、かつできるだけ小さい標準偏差を有するガウシアン型運動モデルを用意する。これはあらかじめ、対象となる動きをカバーするのに必要最低限の標準偏差を実験やシミュレーションにより求めておく。標準偏差を低く抑えることにより、自己回帰予測でカバーできる動きに対して2重にサンプリングすることが減り、効率的な追跡処理を行うことができる。
ガウシアン型運動モデルは、標準偏差を異ならせて複数用意してもよく、それらも第1モデル追跡部27aから第nモデル追跡部27nのいずれか複数のモデル追跡部27にそれぞれ割り当ててよい。また非特許文献4に記述されているように、近傍の前景領域に移動すると予測するモデルを用意してもよい。
そして第1モデル追跡部27aから第nモデル追跡部27nは、画像処理部22が生成した次のフレームである時刻t=1のエッジ画像を用いて、それぞれの運動モデルに基づいて遷移させたパーティクルに対応したΩ型の候補曲線近傍にあるエッジを探索し、尤度p(yt|xt i)を観測する(S30a〜S30n)。エッジの探索手法については後述する。
追跡統合部30は、第1モデル追跡部27aから第nモデル追跡部27nが観測したn個の尤度のうち、最も高い尤度を与える運動モデルを特定することにより、観測結果をパーティクルごとに選択する(S32)。これにより時刻t=1の確率密度分布p(x1 i)を求めることができる。複数の追跡対象が存在する場合は、上記の処理を追跡対象ごとに行う。
その後追跡統合部30は、例えば確率密度分布p(x1 i)によって重み付けした各パラメータ値の和から、追跡対象の形状および位置を表すΩ型の曲線を最終的に決定し、元の入力画像フレームに重ねた画像フレームのデータを生成するなど、所望の追跡結果データを生成して結果記憶部に保存する(S34)。
次に追跡開始終了判定部28は、追跡処理をこれ以上続行するか終了するかの判定を行う(S36)。例えば人物と推定できる所定のサイズ、形を有する対象が前景として現れない状態が所定時間継続した場合に追跡終了の判定を行う。判定に用いる前景のデータは、それまでのエッジ抽出処理で画像処理部22が行う前景抽出の結果を利用することができる。また追跡開始終了判定部28には図示しないタイマーを設け、前景がなくなった時点からの経過時間を計測する。そして実験などによってあらかじめ定めた所定時間を経過した時点でフラグを立てるなどすることにより、フラグが立った直後の判定タイミングで追跡終了の判定がなされる。
追跡開始終了判定部28はこの他に、例えば実空間上においてある追跡対象が別の追跡対象の背後に回った場合など、オクルージョンの状態が所定時間継続した場合に追跡終了の判定を行う。このときはまず追跡統合部30が、複数の追跡対象が近づくことを追跡処理結果から検出し、そのうち対応するΩ型曲線が小さい方の追跡対象が、他方の追跡対象の背後に回ると判断する。あるいは撮像装置12に設けられた図示しない距離計測系によって背後に回る追跡対象を判断してもよい。そして2つの追跡対象が重なった時点で、追跡開始終了判定部28は時間経過の計測を上記と同様に開始し、そのままの状態で所定時間を経過したら、背後にいる追跡対象について追跡終了の判定を行う。
このことは、所定時間が経過するまでは背後の追跡対象についても追跡を継続することを意味する。これは単に2人の追跡対象がすれ違ったときなどオクルージョンが短期間であった場合に、再度現れた追跡対象に対する追跡効率を下げないための措置である。オクルージョンにより一時的に尤度が減少した場合でも、追跡統合部30がオクルージョンを検知することにより、それを考慮した追跡を行うことができる。
追跡開始終了判定部28はさらに、追跡対象が撮像装置12の画角から外れた状態が所定時間継続した場合なども追跡終了の判定を行う。追跡対象が画角から外れる動きも追跡統合部30が検出する。追跡開始終了判定部28には、上記の3種類の状態のそれぞれに対応させて、継続時間を計測するタイマーと、所定時間の経過を示すフラグとを設けることにより、いずれの状態が発生しても終了判定を行えるようにする。
S36において追跡処理を終了しないと判定した場合は、S32で得られた時刻t=1のときの確率密度分布p(x1 i)を用いて、時刻t=2のフレームに対するサンプリングを行うため、パーティクルの生成または消滅を行う(S26)。以降、S36で追跡開始終了判定部28が追跡終了の判定を行うまでS26からS34までの処理を、各フレームに対して繰り返す。これにより、Ω型の曲線が追跡対象の来訪者の頭部と同じ動きおよび形状で、時間に対して変化していくような動画のデータが結果記憶部34に格納される。出力制御部32が当該データを、表示装置16や別の機能を提供するモジュールなどに出力することにより、ユーザは所望の形態で追跡結果を利用することができる。
ここで、S30a〜S30nにおいて第1モデル追跡部27aから第nモデル追跡部27nがΩ型の候補曲線近傍にあるエッジを探索する手法について説明する。コンデンセーションアルゴリズムなどで一般的に用いられるエッジ探索は、単位点ごとに候補曲線の法線方向にエッジを探索していき、検出されたエッジのうち最も単位点に近いエッジまでの距離を計算する。しかし本来パーティクルは、確率密度の高い領域に多く配されるため、実空間上でも近接した位置に候補曲線が集中しやすい。当然、単位点も同一の画素や近接した画素に位置することになり、複数の候補曲線の尤度を計算するために、同様の計算を何度も繰り返す必要が出てくる。
そこで本実施の形態では、単位点の位置によらない、エッジの絶対的な位置情報をエッジ画像の全領域に渡って求め、距離マップを生成する。これはエッジ探索処理において、全ての単位点に共通に参照されるテーブルのようなものである。具体的には、エッジから各画素までの横方向の距離を、画素値として記憶する。距離マップは第1モデル追跡部27aから第nモデル追跡部27nが共通に参照するため、例えばサンプリング部29が各画像フレームのエッジ画像に基づき生成し、第1モデル追跡部27aから第nモデル追跡部27nの共有メモリ(不図示)などに記憶させておく。
図7は距離マップの例を示している。同図では、マトリクス状に配された小さい矩形が画素80、黒く塗りつぶされている画素80がエッジ72である。各画素80の横方向において最近傍のエッジ72までの距離が距離マップ70における画素値として設定される。ここで設定される数値は、画素80の幅を1単位とした自然数である。
第1モデル追跡部27aから第nモデル追跡部27nは、S30a〜S30nにおいて、それぞれの運動モデルに基づいて遷移させたパーティクルに基づく候補曲線を距離マップ70にあてはめる。図7では、三角および円で示された画素80が候補曲線74である。そして候補曲線74中、円で示された単位点76を中心とした領域を探索領域78とする。探索領域78の大きさは、各パーティクルが有するパラメータのうち、倍率(extend,extend)に基づき計算する。これは候補曲線74の大きさによって単位点の密度が異なるための措置であり、候補曲線74が大きいほど探索領域も広くする。これにより候補曲線全体として近傍にあるエッジを検出できる確率が正規化され、パラメータ空間上の尤度分布が正確に得られる。候補曲線74と探索領域78の大きさの関係は、実験やシミュレーションによって定める。
なお、図7では探索領域78を矩形として表しているが、本実施の形態はそれに限らない。例えば単位点76を中心とした円や単位点76を通る候補曲線74の法線などの線でもよい。探索領域78の形状も、探索の効率性および精度に鑑みあらかじめ実験やシミュレーションによって設定しておく。
図8は上述の距離マップ70を用いて単位点76から最近傍にあるエッジ72までの距離を計算する手順を示している。まず、第1モデル追跡部27aから第nモデル追跡部27nのそれぞれに含まれる図示しないレジスタを初期化する(S52)。次に単位点76の位置から探索領域78を特定し、そこに含まれる画素80の画素値を距離マップから取得する(S54)。
次に単位点76の位置である探索領域78の中心からエッジ72までの距離を計算する(S56)。S54において距離マップから取得した画素値は、各画素80の横方向で最近傍にあるエッジ72までの距離であるから、あとは中心から各画素までの縦方向の距離を考慮すれば、中心からエッジ72までの距離が計算できる。したがってこの段階での探索先は中心の画素から上下方向に位置する1列の画素のみでよく、これにより全探索領域78を探索したことになる。
S56ではまず探索の出発点である単位点76の存在する中心の画素の画素値が、「現在の最近傍距離」としてレジスタに保存される。次にその上下いずれかの画素80の画素値と、中心からの縦方向の距離、すなわち"1"とから、その行で最も単位点76に近いエッジ72までの距離が計算できる。探索先の画素80にエッジ72が存在するときは、当該画素80までの縦方向の距離を計算値とする。
計算値がレジスタに保存された値より小さければ(S58のY)、レジスタの値を新たに計算した値に更新する(S60)。計算値がレジスタに保存された値以上であれば(S58のN)、値を更新せずに、さらに上または下に隣接する画素80について計算を行う。以上の処理を、探索領域78内で単位点76の存在する列に属する全ての画素80について行ったら(S62のY)、探索を終了する。これによりレジスタには、単位点76から最近傍にあるエッジ72までの距離が格納されている。
本実施の形態では、候補曲線の法線方向を確認しながら画素を走査していく処理、検出したエッジの座標と単位点76の座標とから距離を計算する処理など一般的に行われる処理を行わずに、候補曲線の最近傍にあるエッジ72までの距離を簡易な計算で求めることができる。そのため、複数の候補曲線で近接した位置にある単位点76についての計算を繰り返す場合も、重複した処理を最小限に抑えることができ、計算効率が大幅に向上する。
また、法線方向のエッジ探索では、法線上の画素から一つ隣の画素にエッジがあったとしてもそれを検出しないため、単位点76が疎に存在している場合、候補曲線の近傍にあるエッジを見落とすことによって適正な尤度計算ができない可能性がある。一方、本実施の形態では、探索領域78内にあるエッジの位置情報があらかじめ距離マップに組み込まれるため、画像上の2次元空間で最近傍にあるエッジ72を正確に探索できる。しかも実際の探索は探索領域78内の1列に属する画素に対する計算のみですむため、計算コストの増大を抑えながら探索精度を向上させることができる。結果として精度の高い追跡処理を効率的に実行することができる。
以上の動作によって、固定カメラの視野角内に入った人物の頭部追跡が可能となる。これにより例えば、銀行のATM機などの固定カメラが設置されている環境において人物の追跡を行うことができる。追跡結果に基づき頭部の動きを解析することにより、不審行動を検出できる。また頭部領域に限定して顔の識別処理を行うことにより、効率的に不審者の特定や人相についてのデータ抽出などを行うことができる。
図6に示した追跡処理の手順は、別の目的で本実施の形態を用いる場合にも適用できる。例えばホームビデオで撮影した映像を入力画像とし、追跡装置14による画像中の人物の追跡結果を利用して編集を行う場合である。例えば映像中の人物の追跡を行う場合は、上記の固定カメラの場合と同様、Ω型のテンプレートを用意する。追跡したい対象物が他の動物や昆虫、乗り物など人物以外の場合でも、それらの形状、あるいはその一部の形状を模したBスプライン曲線を適宜用意する。想定されるそれらのテンプレートをあらかじめ追跡装置14に記憶させておき、追跡段階で選択できるようにしてもよい。
そして追跡開始終了判定部28はS22において、上記の例と同様の追跡開始の判定を行う。ここでは上記の例と同様の判定基準を設けてもよいし、画像処理部22に対し顔検出処理の要求を行い、一定のサイズを有する顔が検出された場合に追跡開始とするなどでもよい。
追跡開始の判定がなされたら、S24において、画像処理部22が生成したエッジ画像からサンプリング部29が確率密度分布p(x0 i)を生成する。このとき画像処理部22は、キャニーエッジフィルタやソーベルフィルタなど一般的なエッジ抽出アルゴリズムによってエッジ画像を生成する。あるいは画像処理部22は、ピクセルの色やテクスチャ、あるいは被写体の動きなど領域の特徴に基づいてセグメンテーションを行う一般的なセグメンテーションアルゴリズムによって分けられた領域の境界線をエッジとして抽出してもよい。どのアルゴリズムでエッジ抽出を行うかは、あらかじめ精度の高いものを実験などによって定めておいてもよいし、入力される映像の特徴などに応じて適宜選択するようにしてもよい。
そして固定カメラの例と同様に、S26において確率密度分布p(x0 i)に基づいてパーティクルを発生させ、S28a〜S28nにおいて各運動モデルを適用することによりパーティクルを遷移させる。このとき、入力される映像のカテゴリごとに、自己回帰予測型運動モデルを利用して被写体の特徴的な動作を予測できる運動モデルを用意する。例えばサッカーの映像であれば「フェイント」や「シュート」を行うときの人物の動きをあらかじめ用意しておく。さらに上記の例同様、そのような特徴的な動き以外の動きをカバーできる範囲のガウシアン型運動モデルを用意する。
そして遷移させたパーティクルごとに尤度を観測し(S30a〜S30n)、観測結果を1系列選択する(S32)。そして追跡対象の形状および位置を表すデータを生成して結果記憶部に保存する(S34)。
S26からS34の処理を各フレームに対して行う。そして実空間上で、ある追跡対象が別の追跡対象の背後に回った場合など、オクルージョンの状態が所定時間継続した場合や、追跡対象が撮像装置12の画角から外れた状態が所定時間継続した場合など、追跡開始終了判定部28が追跡終了の判定を行った際、追跡処理を終了させる。
以上の動作によって、ホームビデオなどの映像中の人物の頭部追跡が可能となる。追跡結果のデータとして人物の位置をフレーミングのモジュールに渡すことにより、映像中の特定人物に対してオートフレーミングの処理を施すなどの特殊効果を容易に実現することができる。
本実施の形態はさらに、マンマシンインターフェースとしてカメラの視野角内に入った手のひらの追跡にも適用することができる。このときは手のひらを表すテンプレートとして、じゃんけんの"グー"、"チョキ"、"パー"と、それらを補間するような形状のBスプライン曲線の設定を行う。
この場合、図6に示した手順のうちS20においてサンプリング部29はまず、パラメータ空間の所定領域に均等にパーティクルを配置する。そして各時刻のエッジ画像に基づき、配置されたパーティクルごとに尤度を観測する。そしてS22において、観測尤度が所定のしきい値を超えたとき、追跡開始終了判定部28は追跡開始の判定を行う。ここですでに追跡中の手のひらがある場合は、それと一致しない場合にのみ、新たな追跡対象の出現を認め、追跡開始を判定する。サンプリング部29によるS20のパーティクルの配置を所定の時間間隔で行うことにより、手のひらがカメラの視野角に入ったことが随時認識できる。追跡の終了判定はこれまで説明した例と同様に行う。
図6のS28a〜S28nにおいてパーティクルに適用する運動モデルとしては、自己回帰予測型運動モデルを利用して、"グー"から"チョキ"への変化など、手のひらの特徴的な動きを予測できるモデルと、それ以外の動きをカバーできる範囲のガウシアン型運動モデルを用意する。
以上の動作によって、カメラの視野角内に入った手のひらの位置および形状の追跡を行うことができる。この例の場合、手のひらの形の変形を許容できるため、マンマシンインターフェースなどへの応用が見込まれる。同様のことは手のひら以外、例えば身体全体の動きなどでも可能であるため、動作の解析を効率化することもできる。
以上述べた本実施の形態によれば、追跡対象の動きの特性ごとに複数の運動モデルを用意し、各運動モデルに基づきパーティクルを遷移させ、それぞれの運動モデルについて並列に尤度観測を行う。そして高い尤度を観測した運動モデルを採用して、その観測尤度から対象物の確率密度分布を求める。これにより、対象物の運動特性に適合した運動モデルを常時適用することが可能となり、単一の運動モデルでは表現することが困難な「対象の動きに複数の特性がある場合」にも対応できる。結果として追跡対象が突然特性の異なる動きを行った場合であっても追跡精度を保つことができる。
複数の運動モデルの切り替えタイミングを学習により判断する手法と比較すると、本実施の形態は切り替えを判断するアルゴリズムを実行する必要がないため、学習にかかる時間が必要なく、リソースの余分な消費を抑えられる。また学習結果の切り替え判断の誤りによる追跡精度の落ち込みなどが発生しない。さらに運動モデルの切り替えにおいて異なる運動モデルが干渉しあう領域を考慮する必要がなく、異なる運動モデルへの遷移が、容易な演算でスムーズに行える。
さらに、複数の運動モデルを相補完的に導入することにより、パラメータ空間上の探索範囲を効果的に絞ることができる。例えば複数の特性の動きをカバーしようとして、それらの動きをカバーできる程裾の広いガウス分布を有するガウス型運動モデルを導入するより、裾の狭いガウス分布を有するガウス型運動モデルと、各運動特性に適合した局所的な探索範囲の自己回帰予測型モデルを導入する方が、より限定的な探索範囲となる。そのため上記の追跡精度の確保を、リソース上のロスやノイズ耐性の悪化などを抑えながら実現することができる。学習によって切り替えを自動的に判断する場合と比べても、設計者やユーザの意図を組み入れた運動モデルを導入することにより、探索領域の広げ方を制御しやすく、明らかに非効率な探索を回避しやすい。
また、尤度観測を行う際、候補曲線の最近傍にあるエッジを探索するために、各画素から横方向において最近傍にあるエッジまでの距離を画素値としてもたせた距離マップを用意する。そして実際のエッジ探索では、単位点の上下に位置する一列の画素までの距離と、その画素の画素値とから得られる、単位点とエッジとの距離のうち最小のものを選択することにより、単位点の最近傍にあるエッジまでの距離を求める。これにより、各候補点についての計算段階で行う必要のある計算量が減り、多数の候補点で同様の領域においてエッジ探索を行っても、計算コストの増大を抑えることができる。また、探索領域全面でエッジ探索を行うため、近傍にあるエッジを見落とすことがなくなり、正確な尤度観測が行える。結果として、好適な運動モデルを適用することによる上述の効果との相乗効果により、計算コストを増大させずに高精度な追跡を行うことができ、
また、本実施の形態は特性ごとの運動モデルを処理に組み入れるのみで、視覚追跡を用いる様々な分野の装置に容易に適用することができるため、汎用性が高く導入障壁が少ない。
以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
例えば実施の形態では追跡統合部30による運動モデルの選択をパーティクルごとに行い、それぞれの運動モデルを適用した結果得られた尤度から確率密度分布を推定した。一方、各時刻において全てのパーティクルに対し1つの運動モデルを選択するようにしてもよい。このときは例えば、全てのパーティクルに渡り最大の尤度を観測した運動モデルを1つ選択し、全パーティクルに対してその選択された運動モデルを適用したときの尤度から確率密度分布を推定する。この場合も、上述した実施の形態で述べたのと同様の効果を得ることができる。
人物を追跡対象とした場合の視覚追跡手法を説明するための図である。 パーティクルフィルタを用いた確率密度推定の手法を説明する図である。 本実施の形態における視覚追跡システムの構成例を示す図である。 本実施の形態における追跡装置の構成を示すブロック図である。 本実施の形態において追跡処理部および追跡統合部が行う確率密度推定の手法を説明する図である。 本実施の形態における追跡処理の手順を示すフローチャートである。 本実施の形態における距離マップの例を示す図である。 本実施の形態において距離マップを用いて単位点から最近傍にあるエッジまでの距離を計算する手順を示すフローチャートである。
符号の説明
10 視覚追跡システム、 12 撮像装置、 14 追跡装置、 16 表示装置、 20 画像取得部、 22 画像処理部、 24 画像記憶部、 26 追跡処理部、 27 モデル追跡部、 28 追跡開始終了判定部、 29 サンプリング部、 30 追跡統合部、 32 出力制御部、 34 結果記憶部。

Claims (7)

  1. 動画像データを構成する画像ストリームに含まれる第1の画像フレームおよび第2の画像フレームのうち、前記第1の画像フレームにおける対象物の推定存在確率分布に基づき、追跡候補を定めるパラメータ空間上にパーティクルフィルタに用いるパーティクルを生成するサンプリング部と、
    複数の運動モデルのそれぞれに対応し、各運動モデルに則り遷移させた前記パーティクルが定める追跡候補の、前記第2の画像フレームにおける対象物に対する尤度を観測する複数のモデル追跡部と、
    前記複数のモデル追跡部が観測した尤度を比較することにより、パーティクルごとに一の運動モデルを選択し、当該運動モデルに則り定めた追跡候補の尤度に基づき、前記第2の画像フレームにおける対象物の存在確率分布を推定する追跡統合部と、
    を備えることを特徴とする対象物追跡装置。
  2. 前記追跡統合部は、前記複数のモデル追跡部が観測した尤度のうち、最も高い尤度を観測した運動モデルを選択することを特徴とする請求項1に記載の対象物追跡装置。
  3. 前記複数のモデル追跡部は、前記サンプリング部が生成したパーティクルを、パラメータ空間の各座標を中心としたガウス分布をなすように遷移させるガウシアン型運動モデル追跡部を複数含み、各ガウシアン型運動モデル追跡部は異なる標準偏差を有するガウス分布をなすように前記パーティクルを遷移させることを特徴とする請求項1または2に記載の対象物追跡装置。
  4. 前記複数のモデル追跡部は、前記画像ストリームに含まれる複数の画像フレームから対象物の動きを自己回帰予測して、その結果に基づき前記サンプリング部が生成したパーティクルを遷移させる自己回帰予測型運動モデル追跡部と、
    前記サンプリング部が生成したパーティクルを、パラメータ空間の各座標を中心としたガウス分布をなすように遷移させるガウシアン型運動モデル追跡部とを含み、
    前記ガウス分布をなすパーティクルの分布領域は、前記自己回帰予測型運動モデルが遷移させたパーティクルの分布領域の少なくとも一部を包含しないことを特徴とする請求項1または2に記載の対象物追跡装置。
  5. 前記第2の画像フレームから前記対象物のエッジを抽出する画像処理部をさらに含み、
    前記複数のモデル追跡部は、前記追跡候補である候補曲線に含まれる複数の点ごとに、当該点を中心とし、所定の形状および大きさを有する領域を探索領域として設定し、前記探索領域内で最近傍にある前記対象物のエッジを探索して前記点からの距離を求めることによって前記尤度を前記候補曲線ごとに算出し、前記探索領域は前記候補曲線の大きさに基づき設定することを特徴とする請求項1または2に記載の対象物追跡装置。
  6. コンピュータが行う対象物追跡方法であって、
    入力された動画像データを構成する画像ストリームをメモリに記憶するステップと、
    前記画像ストリームに含まれる画像フレームのうち第1の画像フレームを前記メモリより読み出し、前記第1の画像フレームにおける対象物の存在確率分布から複数の候補曲線を設定するステップと、
    前記対象物の変化の度合いを複数の運動モデルを仮定して候補曲線ごとに算出するステップと、
    算出した変化の度合いによって定まる前記対象物の仮の特性と、前記メモリより読み出した第2の画像フレームにおける前記対象物の真の特性とを比較して、前記複数の運動モデルのうち最も尤度の高い前記仮の特性を与える運動モデルを、候補曲線ごとに選択するステップと、
    選択した運動モデルに基づき、前記第2の画像フレームにおける対象物の存在確率分布を推定するステップと、
    を含むことを特徴とする対象物追跡方法。
  7. コンピュータに対象物追跡を実現させるコンピュータプログラムであって、
    入力された動画像データを構成する画像ストリームをメモリに記憶する機能と、
    前記画像ストリームに含まれる画像フレームのうち第1の画像フレームを前記メモリより読み出し、前記第1の画像フレームにおける対象物の存在確率分布から複数の候補曲線を設定するステップと、
    前記対象物の変化の度合いを複数の運動モデルを仮定して候補曲線ごとに算出するステップと、
    算出した変化の度合いによって定まる前記対象物の仮の特性と、前記メモリより読み出した第2の画像フレームにおける前記対象物の真の特性とを比較して、前記複数の運動モデルのうち最も尤度の高い前記仮の特性を与える運動モデルを、候補曲線ごとに選択するステップと、
    選択した運動モデルに基づき、前記第2の画像フレームにおける対象物の存在確率分布を推定するステップと、
    をコンピュータに実現させることを特徴とするコンピュータプログラム。
JP2006161687A 2006-06-09 2006-06-09 対象物追跡装置および対象物追跡方法 Active JP4208898B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006161687A JP4208898B2 (ja) 2006-06-09 2006-06-09 対象物追跡装置および対象物追跡方法
US11/755,870 US7940957B2 (en) 2006-06-09 2007-05-31 Object tracker for visually tracking object motion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006161687A JP4208898B2 (ja) 2006-06-09 2006-06-09 対象物追跡装置および対象物追跡方法

Publications (2)

Publication Number Publication Date
JP2007328746A JP2007328746A (ja) 2007-12-20
JP4208898B2 true JP4208898B2 (ja) 2009-01-14

Family

ID=38929142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006161687A Active JP4208898B2 (ja) 2006-06-09 2006-06-09 対象物追跡装置および対象物追跡方法

Country Status (2)

Country Link
US (1) US7940957B2 (ja)
JP (1) JP4208898B2 (ja)

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060224318A1 (en) * 2005-03-30 2006-10-05 Wilson Robert C Jr Trajectory prediction
JP4532419B2 (ja) * 2006-02-22 2010-08-25 富士フイルム株式会社 特徴点検出方法および装置並びにプログラム
US8125950B2 (en) * 2007-01-31 2012-02-28 Broadcom Corporation Apparatus for wirelessly managing resources
US8438322B2 (en) * 2007-01-31 2013-05-07 Broadcom Corporation Processing module with millimeter wave transceiver interconnection
US8200156B2 (en) * 2007-01-31 2012-06-12 Broadcom Corporation Apparatus for allocation of wireless resources
US8254319B2 (en) * 2007-01-31 2012-08-28 Broadcom Corporation Wireless programmable logic device
US8121541B2 (en) * 2007-01-31 2012-02-21 Broadcom Corporation Integrated circuit with intra-chip and extra-chip RF communication
US20090017910A1 (en) * 2007-06-22 2009-01-15 Broadcom Corporation Position and motion tracking of an object
US8289944B2 (en) * 2007-01-31 2012-10-16 Broadcom Corporation Apparatus for configuration of wireless operation
US8280303B2 (en) * 2007-01-31 2012-10-02 Broadcom Corporation Distributed digital signal processor
US20080320293A1 (en) * 2007-01-31 2008-12-25 Broadcom Corporation Configurable processing core
US20090011832A1 (en) * 2007-01-31 2009-01-08 Broadcom Corporation Mobile communication device with game application for display on a remote monitor and methods for use therewith
US8238275B2 (en) * 2007-01-31 2012-08-07 Broadcom Corporation IC with MMW transceiver communications
US8223736B2 (en) * 2007-01-31 2012-07-17 Broadcom Corporation Apparatus for managing frequency use
US8116294B2 (en) * 2007-01-31 2012-02-14 Broadcom Corporation RF bus controller
US8204075B2 (en) * 2007-01-31 2012-06-19 Broadcom Corporation Inter-device wireless communication for intra-device communications
US9486703B2 (en) 2007-01-31 2016-11-08 Broadcom Corporation Mobile communication device with game application for use in conjunction with a remote mobile communication device and methods for use therewith
US20090197641A1 (en) * 2008-02-06 2009-08-06 Broadcom Corporation Computing device with handheld and extended computing units
US8239650B2 (en) * 2007-01-31 2012-08-07 Broadcom Corporation Wirelessly configurable memory device addressing
CN101325691B (zh) * 2007-06-14 2010-08-18 清华大学 融合不同生存期的多个观测模型的跟踪方法和跟踪装置
JP4766495B2 (ja) * 2007-09-28 2011-09-07 株式会社ソニー・コンピュータエンタテインメント 対象物追跡装置および対象物追跡方法
US8165345B2 (en) * 2007-12-07 2012-04-24 Tom Chau Method, system, and computer program for detecting and characterizing motion
US8311276B2 (en) * 2008-01-07 2012-11-13 JVC Kenwood Corporation Object tracking apparatus calculating tendency of color change in image data regions
KR100951890B1 (ko) * 2008-01-25 2010-04-12 성균관대학교산학협력단 상황 모니터링을 적용한 실시간 물체 인식 및 자세 추정 방법
US8195928B2 (en) * 2008-02-06 2012-06-05 Broadcom Corporation Handheld computing unit with merged mode
US8117370B2 (en) * 2008-02-06 2012-02-14 Broadcom Corporation IC for handheld computing unit of a computing device
US8064952B2 (en) * 2008-02-06 2011-11-22 Broadcom Corporation A/V control for a computing device with handheld and extended computing units
US20090198798A1 (en) * 2008-02-06 2009-08-06 Broadcom Corporation Handheld computing unit back-up system
US8717974B2 (en) * 2008-02-06 2014-05-06 Broadcom Corporation Handheld computing unit coordination of femtocell AP functions
US8175646B2 (en) * 2008-02-06 2012-05-08 Broadcom Corporation Networking of multiple mode handheld computing unit
JP4991595B2 (ja) * 2008-02-21 2012-08-01 株式会社東芝 パーティクルフィルタを使用する追跡システム
JP5213486B2 (ja) * 2008-03-14 2013-06-19 株式会社ソニー・コンピュータエンタテインメント 対象物追跡装置および対象物追跡方法
US8331619B2 (en) 2008-03-14 2012-12-11 Sony Computer Entertainment Inc. Image processing apparatus and image processing method
JP4582174B2 (ja) * 2008-03-28 2010-11-17 ソニー株式会社 追跡処理装置、追跡処理方法、プログラム
US8430750B2 (en) * 2008-05-22 2013-04-30 Broadcom Corporation Video gaming device with image identification
JP5043756B2 (ja) * 2008-06-09 2012-10-10 本田技研工業株式会社 状態推定装置および状態推定プログラム
JP5520463B2 (ja) * 2008-09-04 2014-06-11 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、対象物追跡装置および画像処理方法
JP4687772B2 (ja) 2008-11-06 2011-05-25 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP4730431B2 (ja) * 2008-12-16 2011-07-20 日本ビクター株式会社 目標追尾装置
JP5118616B2 (ja) * 2008-12-17 2013-01-16 日本放送協会 顔画像検出装置及び顔画像検出プログラム
JP4926163B2 (ja) * 2008-12-18 2012-05-09 日本電信電話株式会社 移動対象検出装置、移動対象検出方法及び移動対象検出プログラム
WO2010073432A1 (ja) * 2008-12-24 2010-07-01 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
JP5595655B2 (ja) * 2008-12-24 2014-09-24 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
JP5468773B2 (ja) * 2008-12-24 2014-04-09 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
JP4819866B2 (ja) * 2008-12-26 2011-11-24 日本電信電話株式会社 画像追跡装置、画像追跡方法および画像追跡プログラム
JP5635736B2 (ja) * 2009-02-19 2014-12-03 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP5483899B2 (ja) * 2009-02-19 2014-05-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP2010193333A (ja) * 2009-02-20 2010-09-02 Casio Computer Co Ltd 撮像装置、撮像方法及びプログラム
WO2011035470A1 (en) * 2009-09-24 2011-03-31 Hewlett-Packard Development Company, L.P. Particle tracking method and apparatus
TWI443601B (zh) * 2009-12-16 2014-07-01 Ind Tech Res Inst 擬真臉部動畫系統及其方法
US8873798B2 (en) 2010-02-05 2014-10-28 Rochester Institue Of Technology Methods for tracking objects using random projections, distance learning and a hybrid template library and apparatuses thereof
JP5667773B2 (ja) * 2010-03-18 2015-02-12 キヤノン株式会社 情報作成装置及びその制御方法
WO2011117952A1 (ja) * 2010-03-24 2011-09-29 株式会社島津製作所 測定システム
JP5482412B2 (ja) * 2010-04-30 2014-05-07 富士通株式会社 ロボット、位置推定方法及びプログラム
TW201220127A (en) * 2010-11-11 2012-05-16 Inst Information Industry Interactive device and method thereof
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US9268996B1 (en) 2011-01-20 2016-02-23 Verint Systems Inc. Evaluation of models generated from objects in video
JP5703801B2 (ja) * 2011-02-04 2015-04-22 富士通株式会社 ロボット、位置推定方法及びプログラム
KR101706219B1 (ko) * 2011-05-06 2017-02-14 한화테크윈 주식회사 물체 추적 장치 및 방법
KR101254087B1 (ko) * 2011-07-28 2013-04-12 전남대학교산학협력단 추적기의 강탈 회피를 위한 벌점 그래프 기반의 다중 영상 객체 추적 방법
US9275472B2 (en) * 2011-11-18 2016-03-01 Disney Enterprises, Inc. Real-time player detection from a single calibrated camera
JP5886616B2 (ja) * 2011-11-30 2016-03-16 キヤノン株式会社 物体検出装置、物体検出装置の制御方法、およびプログラム
WO2013128839A1 (ja) * 2012-03-02 2013-09-06 日本電気株式会社 画像認識システム、画像認識方法およびコンピュータ・プログラム
KR102026651B1 (ko) * 2012-04-25 2019-09-30 삼성전자주식회사 입자 필터 프레임 워크를 이용한 강건한 객체 추적 방법 및 시스템
DE102012024997A1 (de) * 2012-12-19 2014-06-26 Connaught Electronics Ltd. Verfahren zum Verfolgen eines Zielobjekts ausgehend von einem Stillstandzustand, Kamerasystem und Kraftfahrzeug
CN103092925B (zh) * 2012-12-30 2016-02-17 信帧电子技术(北京)有限公司 一种视频摘要生成方法和装置
KR101460517B1 (ko) 2013-04-11 2014-11-12 서울대학교산학협력단 이중 모델링과 학습 및 폐기학습을 통한 영상 내의 물체 추적 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체
JP6194450B2 (ja) * 2013-04-15 2017-09-13 株式会社メガチップス 状態推定装置、プログラムおよび集積回路
EP3088057B1 (en) 2013-12-24 2019-10-23 Sony Corporation Image processing device and image processing method
US9767609B2 (en) 2014-02-12 2017-09-19 Microsoft Technology Licensing, Llc Motion modeling in visual tracking
JP6295122B2 (ja) * 2014-03-27 2018-03-14 株式会社メガチップス 状態推定装置、プログラムおよび集積回路
JP6366999B2 (ja) * 2014-05-22 2018-08-01 株式会社メガチップス 状態推定装置、プログラムおよび集積回路
JP6399869B2 (ja) * 2014-09-09 2018-10-03 キヤノン株式会社 被写体追尾装置、撮像装置、被写体追尾方法及びプログラム
US9262681B1 (en) * 2014-11-19 2016-02-16 Amazon Technologies, Inc. Probabilistic registration of interactions, actions or activities from multiple views
US10387794B2 (en) 2015-01-22 2019-08-20 Preferred Networks, Inc. Machine learning with model filtering and model mixing for edge devices in a heterogeneous environment
US9990587B2 (en) * 2015-01-22 2018-06-05 Preferred Networks, Inc. Machine learning heterogeneous edge device, method, and system
CN105139425B (zh) * 2015-08-28 2018-12-07 浙江宇视科技有限公司 一种人数统计方法及装置
US10194059B2 (en) * 2015-09-25 2019-01-29 Hitach Information & Telecommunication Engineering, Ltd. Image processing apparatus and image processing method
US9495763B1 (en) 2015-09-28 2016-11-15 International Business Machines Corporation Discovering object pathways in a camera network
CN106067031B (zh) * 2016-05-26 2019-05-24 北京新长征天高智机科技有限公司 基于人工纠错机制与深度学习网络协作机器视觉识别系统
US10460300B2 (en) * 2016-06-01 2019-10-29 Multimedia Image Solution Limited Method of preventing fraud and theft during automated teller machine transactions and related system
CN106204633B (zh) * 2016-06-22 2020-02-07 广州市保伦电子有限公司 一种基于计算机视觉的学生跟踪方法和装置
US10115005B2 (en) 2016-08-12 2018-10-30 Qualcomm Incorporated Methods and systems of updating motion models for object trackers in video analytics
JP6757701B2 (ja) * 2017-05-29 2020-09-23 Kddi株式会社 任意の追跡器を割り当てたパーティクルを用いる物体追跡プログラム、装置及び方法
CN107610151B (zh) * 2017-08-24 2021-07-13 汇纳科技股份有限公司 行人轨迹线处理方法/系统、计算机可读存储介质及设备
KR101982942B1 (ko) * 2017-12-21 2019-05-27 건국대학교 산학협력단 객체 추적 방법 및 이를 수행하는 장치들
JP6946231B2 (ja) * 2018-04-04 2021-10-06 Kddi株式会社 物体追跡装置及び物体追跡方法
US10964033B2 (en) * 2018-08-07 2021-03-30 Qualcomm Incorporated Decoupled motion models for object tracking
CN109949343A (zh) * 2019-03-15 2019-06-28 中科视语(北京)科技有限公司 基于双目视觉的足球拦截装置及方法
JP7236013B2 (ja) * 2019-10-01 2023-03-09 富士通株式会社 属性判定装置、属性判定プログラム、及び属性判定方法
CN111028270B (zh) * 2019-11-14 2023-04-07 浙江大华技术股份有限公司 跟踪全景图像中物体越界的方法、装置、终端及存储装置
JP7392572B2 (ja) * 2020-05-21 2023-12-06 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
CN112085769A (zh) * 2020-09-09 2020-12-15 武汉融氢科技有限公司 对象追踪方法及装置、电子设备
CN112949588B (zh) * 2021-03-31 2022-07-22 苏州科达科技股份有限公司 目标检测跟踪方法以及目标检测跟踪装置
CN115994972A (zh) * 2021-10-18 2023-04-21 北京字节跳动网络技术有限公司 特效处理方法及设备
WO2023197232A1 (zh) * 2022-04-14 2023-10-19 京东方科技集团股份有限公司 目标跟踪方法及装置、电子设备、计算机可读介质
CN116740598B (zh) * 2023-05-10 2024-02-02 广州培生信息技术有限公司 基于视频ai识别的老人能力识别方法和系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3400961B2 (ja) 1999-09-27 2003-04-28 株式会社国際電気通信基礎技術研究所 人物像の姿勢推定装置および人物像の姿勢推定プログラムを記録した記録媒体
JP2005165688A (ja) 2003-12-02 2005-06-23 Fuji Xerox Co Ltd 複数対象物追跡方法及びシステム
US7860344B1 (en) * 2005-05-06 2010-12-28 Stochastech Corporation Tracking apparatus and methods using image processing noise reduction
US7376246B2 (en) * 2005-06-27 2008-05-20 Mitsubishi Electric Research Laboratories, Inc. Subspace projection based non-rigid object tracking with particle filters
US7835542B2 (en) * 2005-12-29 2010-11-16 Industrial Technology Research Institute Object tracking systems and methods utilizing compressed-domain motion-based segmentation

Also Published As

Publication number Publication date
US7940957B2 (en) 2011-05-10
US20080063236A1 (en) 2008-03-13
JP2007328746A (ja) 2007-12-20

Similar Documents

Publication Publication Date Title
JP4208898B2 (ja) 対象物追跡装置および対象物追跡方法
JP4766495B2 (ja) 対象物追跡装置および対象物追跡方法
JP6625220B2 (ja) シーン内のオブジェクトのアクションを検出する方法及びシステム
Mukhoti et al. Evaluating bayesian deep learning methods for semantic segmentation
Chung et al. An efficient hand gesture recognition system based on deep CNN
CN109146921B (zh) 一种基于深度学习的行人目标跟踪方法
US6256033B1 (en) Method and apparatus for real-time gesture recognition
EP2164041B1 (en) Tracking method and device adopting a series of observation models with different lifespans
CN110998594A (zh) 检测动作的方法和系统
JP6030617B2 (ja) 画像処理装置および画像処理方法
EP2320379A1 (en) Image processing device, object tracking device, and image processing method
CN110009060B (zh) 一种基于相关滤波与目标检测的鲁棒性长期跟踪方法
Wei et al. Motion detection based on optical flow and self-adaptive threshold segmentation
Chetverikov et al. Dynamic texture as foreground and background
CN109993770B (zh) 一种自适应时空学习与状态识别的目标跟踪方法
CN111931654A (zh) 一种人员跟踪智能监测方法、系统和装置
CN103985143A (zh) 基于字典学习的视频中判别性在线目标跟踪方法
JP4692969B2 (ja) 特徴点探索装置、画像解析装置、および最近傍特徴点検出方法
KR101982942B1 (ko) 객체 추적 방법 및 이를 수행하는 장치들
Wu et al. In situ evaluation of tracking algorithms using time reversed chains
Hadi et al. An enhanced video tracking technique based on nature inspired algorithm
CN112614158B (zh) 一种采样框自适应的多特征融合在线目标跟踪方法
Shafiee et al. Model-based tracking: Temporal conditional random fields
JP4449483B2 (ja) 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム
Cao et al. Deformable convolutional networks tracker

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081021

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081021

R150 Certificate of patent or registration of utility model

Ref document number: 4208898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111031

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121031

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131031

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250