JP2008262331A - オブジェクト追跡装置およびオブジェクト追跡方法 - Google Patents

オブジェクト追跡装置およびオブジェクト追跡方法 Download PDF

Info

Publication number
JP2008262331A
JP2008262331A JP2007103712A JP2007103712A JP2008262331A JP 2008262331 A JP2008262331 A JP 2008262331A JP 2007103712 A JP2007103712 A JP 2007103712A JP 2007103712 A JP2007103712 A JP 2007103712A JP 2008262331 A JP2008262331 A JP 2008262331A
Authority
JP
Japan
Prior art keywords
observation
tracking
distribution
object tracking
certainty
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007103712A
Other languages
English (en)
Inventor
Takeshi Mita
雄志 三田
Toshimitsu Kaneko
敏充 金子
Takashi Ida
孝 井田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007103712A priority Critical patent/JP2008262331A/ja
Publication of JP2008262331A publication Critical patent/JP2008262331A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】映像中の被写体(オブジェクト)を検出し追跡するに際して、オブジェクトを見失わずに追跡を継続させる能力を高める。
【解決手段】異なる複数の観測系列を得る観測手段2と、観測系列それぞれの確信度を評価する評価手段3と、観測系列の間でパーティクルを用いて確信度分布を伝播させる伝播手段4と、を備える。観測手段2は、事前に学習されたオフライン識別器と、追跡中に学習更新されるオンライン識別器とを含む。オンライン識別器は、オフライン識別器による観測結果のうち、確信度の高い画像領域を正事例とし、確信度の低い画像領域を負事例として、それらを識別するのに適した識別器を用いて学習する。
【選択図】図1

Description

本発明は、映像中の被写体(オブジェクト)を検出し、その移動を追跡する装置および方法に関わる。
オブジェクトを見失いにくい追跡装置を実現するために、一般にパーティクルフィルタが用いられる。パーティクルフィルタは、各時刻におけるオブジェクトの位置や大きさといった状態を表すパラメータの確信度分布を伝播させる方法である。パラメータを決定するのではなく、確率的に保持することで、他の決定的手法に比べて見失いにくい特長を有している。そのうち、インポータンスサンプリングにより複数の観測系列を組み合わせる以下の方法により、処理の効率化を図っている。
非特許文献1では、まず色を観測してオブジェクトの存在する候補領域を絞っておき、輪郭を観測して精密な位置を推定する。非特許文献2では、Boostingと呼ばれるパターン識別法によりオブジェクトの存在領域を絞り、次に色情報を用いて検証する。しかしながら、いずれも第1の観測系列において、オブジェクトの観測に失敗すると、追跡を継続できないという問題がある。
これに対して、特許文献1では、複数の観測系列において取得した確信度分布を一度統合し、その統合された分布に従って再度確信度を計算しなおすことにより、追跡を継続させようとしている。しかしながら、すべての観測系列において2度以上確信度を計算しなければならないため、処理効率の点で問題がある。
米国特許第7,035,764号明細書 M. Isard et al., "ICondensation: unifying low-level and high-level tracking in a stochastic framework," Proc. of ECCV, Vol.1, pp.893-908, 1998 K. Okuma et al., "A boosted particle filter: multitarget detection and tracking," Proc. of ECCV, Vol.1, pp.28-39, 2004 (Paul Viola and Michael Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE conf. on Computer Vision and Pattern Recognition (CVPR), 2001) N. Dalal et al., "Histograms of oriented gradients for human detection," Proc. of CVPR, 2005 H. Grabner et al., "On-line boosting and vision," Proc. of CVPR, 2006
上述したように、従来技術には最初に観測される系列に依存して、追跡の成否が決まるという問題があった。また、それを解決しようとすると処理効率が悪化するという問題があった。
本発明は、上記課題を解決するものであって、複数の観測系列の間でのインポータンスサンプリングを用いたオブジェクト追跡を行なうに当たり、オブジェクトを見失わずに追跡を継続させる能力を高めることを目的としている。
上記目的を達成するために、本発明に係るオブジェクト追跡装置は、映像中のオブジェクトを検出して追跡する装置であって、異なる複数の観測系列を得る観測手段と、前記観測系列それぞれの事後確率で表される確信度を評価する評価手段と、前記観測系列の間でパーティクルを用いて前記確信度の分布を相互に伝播させる伝播手段と、を備えることを特徴とする。
また、本発明に係るオブジェクト追跡方法は、映像中のオブジェクトを検出して追跡する方法であって、異なる複数の観測系列を得る観測ステップと、前記観測系列それぞれの事後確率で表される確信度を評価する評価ステップと、前記観測系列の間でパーティクルを用いて前記確信度の分布を相互に伝播させる伝播ステップと、を備えることを特徴とする。
本発明によれば、オブジェクトを見失わずに追跡を継続させる能力を高めることができる。
以下、本発明の実施形態について説明する。
[第1の実施形態]
図1は、本発明の第1の実施形態に係るオブジェクト追跡装置を示すブロック図である。
この第1の実施形態に係るオブジェクト追跡装置は、異なる複数の観測系列を得る観測手段2と、この観測系列それぞれの事後確率で表される確信度を評価する評価手段3と、この観測系列の間でパーティクルを用いて確信度の分布を相互に伝播させる伝播手段4と、伝播された分布に従って確信度の分布を更新する確信度更新手段5とを備えている。これにより、時系列画像1の入力に対して、オブジェクトの状態に関する確信度分布6を出力する。ここで相互にとは、2者の間で互いにという関係の他に、3者、4者以上の間で巴の関係であっても良い。
次に図1および図2を用いて、本発明の第1の実施形態に係るオブジェクト追跡装置の動作について説明する。なお、図2は、本発明の第1の実施形態に係るオブジェクト追跡装置の動作を示すフローチャートである。
まず、オブジェクト追跡装置は時系列画像を入力する(ステップS21)。次に、観測手段2は、ステップS22において複数の異なる観測系列を取得する。ここでは、2種類の観測系列を得る場合を例として説明するが、観測系列は3種類以上でもよい。時刻tにおける第1の観測をyt (1)、第2の観測をyt (2)とし、時刻t=1から時刻tに至る第1の観測系列をy1:t (1)、第2の観測系列をy1:t (2)と表す。パーティクルフィルタを用いたオブジェクト追跡では、以下の式(1)に基づいて、時刻tにおけるオブジェクトの状態xtの事後分布を逐次的に推定する。
Figure 2008262331
-- (1)
ただし、kは状態に依存しない正規化定数である。ここでは、この事後分布を確信度分布と呼ぶ。評価手段2は、ステップS23において、観測系列y1:t (1)とy1:t (2)について、いずれの系列の確信度が高いかを評価する。さらに、伝播手段4は、ステップS24で、この評価結果に基づいて観測系列の間で確信度分布を伝播させる。ステップS25で、伝播された分布に従って、再度確信度を計算しなおし、確信度分布を更新する。最終的に、式(1)で表される確信度分布を得る(ステップS26)。
本実施形態の重要な点は、ステップS23において観測系列の確信度を評価することにより、観測系列に序列をつけ、ステップS24において行なわれる伝播の方向を制御する点である。非特許文献1および非特許文献2に代表される従来技術は、この機構を有しないため、最初の観測系列に依存して追跡性能が左右される。すなわち、最初の観測時にオブジェクトを検出できない場合、追跡を継続することができなくなる。本実施形態では、複数の観測系列が相補的に機能するため、オブジェクトを見失うことなく追跡を継続可能である。
本実施形態の動作原理を図3に示す簡単な例を用いて説明する。時刻t1における第1の観測系列での観測31でオブジェクトが検出され、確信度分布が得られたとする。このとき、インポータンスサンプリングによって、確信度分布が、第1の観測系列での観測31から第2の観測系列での観測33への伝播32が行なわれる。第2の観測系列での観測33では、伝播された確信度分布をProposal distributionとしてサンプリングを行ない、パーティクルを生成する。Proposal distributionは以下の式(2)によって求められる。
Figure 2008262331
各パーティクルにおいて観測を実行し、第2の観測系列での観測33の確信度分布を更新する。この操作は、以下の式(3)によってパーティクルの重みwtを更新することにより行なう。
Figure 2008262331
第1の観測系列での観測31の確信度分布p(yt (1)|xt)をProposal distributionとすることの効果は、オブジェクトの存在する可能性が高い位置などを重点的に調べられるようにパーティクルを生成できることである。それにより、的外れな位置を探索したり、重要な位置を探索しなかったりといった非効率的な処理を避け、オブジェクトの状態推定精度を高めることができる。
次に、第1の観測系列で、次の時刻t2におけるオブジェクト状態の予測34を行なう。同様に、第2の観測系列で、時刻t2におけるオブジェクト状態の予測35を行なう。これらの予測は、事前に定義した状態遷移確率モデルp(xt|xt-1)に基づいて実行する。状態遷移確率モデルとしては、ガウシアンによって定義されるrandom walk p(xt|xt-1)=N(xt、σ)などを用いることができる。
次の時刻t2において、第1の観測系列での観測38でオブジェクトを検出できなかった場合、第2の観測系列での観測36を行なう。今度は、観測36の確信度分布p(yt+1 (2)|xt+1)をProposal distributionとしてパーティクルを生成し、第1の観測系列での観測38における確信度分布を求める。この処理が、確信度更新手段5(図1)におけるステップS25(図2)に相当する。このとき、結果としてオブジェクトを検出できず、第1の観測系列での観測38における確信度分布を構成するパーティクルの重みはすべてゼロとなる可能性もあるが、第2の観測系列を用いて追跡を続行できる。第1の観測系列は、第2の観測系列から各時刻においてオブジェクト状態を通知されるので、再びオブジェクトを検出し、追跡に復帰することも容易となる。
なお、この例では、インポータンスサンプリングによる伝播32および37は各一度だけ行なわれているが、複数回双方向に伝播と確信度の更新を繰り返すことにより確信度分布の推定精度を高めることもできる。例えば、伝播32により第1の観測系列での観測31から第2の観測系列での観測33への伝播・更新を行なったあと、第2の観測系列での観測33から第1の観測系列での観測31へ逆方向の伝播・更新を行ない、さらに第1の観測系列での観測31から第2の観測系列での観測33へ伝播・更新を繰り返すことが可能である。
本実施形態は、パーティクルフィルタに基づく従来の追跡装置を複数連携させる装置と解釈することができる。連携のために、インポータンスサンプリングを使用することで、確信度分布を損なわずに伝播させることが可能である。また、インポータンスサンプリングの順序(方向)を制御することで、複数の追跡装置が相補うことを可能としている。
それぞれの追跡装置がオブジェクトの状態を確信度分布で保持するのでなく、状態パラメータを決定して保持し、互いにパラメータを送信し合うという単純な処理で連携することも考えられるが、これではパーティクルフィルタが本来有している長所を生かすことはできない。本実施形態は、方向制御を伴ったインポータンスサンプリングを用いることで、分布(すなわち複数の仮説)をそのまま伝播することが可能であり、複数の仮説を保持できるというパーティクルフィルタの長所を損なわない。
さらに具体的な例として図4を用いて、本実施形態の動作原理を説明する。図4に示す例では、じゃんけんのパーのジェスチャをしている手を画像から検出するパターン識別器に基づく第1の追跡装置(手検出器)41と、肌色を検出する第2の追跡装置(肌色検出器)42が連携する。
第1の追跡装置41において用いられるパターン識別器としては、例えば非特許文献3に記載された方法により構成できる。このパターン識別器はパーのジェスチャをしている手を検出する精度が高く、特に背景部分を誤って検出することが少ない。したがって、第1の追跡装置における観測43において得られる確信度分布は信頼性が高いものである。
一方、第2の追跡装置42における肌色検出の方法としては、あらかじめ多数の手画像からRGBカラーヒストグラムを作成しておき、画像の部分領域とのヒストグラムインタセクションを求める一般的な方法が挙げられる。この第2の追跡装置は、手の状態推定精度はあまり高くないが、肌色を主体とした検出手法であるためパー以外のジェスチャでも検出可能である。したがって、第2の追跡装置42における確信度分布44の信頼性は高くないが、第2の追跡装置42における観測46においてパーからチョキに変化した場合も、見失うことなく追跡可能である。
しかし、第1の追跡装置41ではパーのジェスチャしか検出できないため、次の時刻t2における第1の追跡装置41の観測45において未検出となってしまう。このような場合は、第2の追跡装置42での観測46から第1の追跡装置41の観測45の方向へ確信度分布を伝播させ、第2の追跡装置42を主体として追跡し、第1の追跡装置41は第2の追跡装置42から受け取ったオブジェクトの状態を把握しておき、再度ジェスチャがパーに戻ったときに復帰できるよう備える。以上のように主要なジェスチャを検出するパターン識別器と簡便な肌色検出器を相補的に用いることにより、すべてのジェスチャに対応できるパターン識別器を用意する必要がなくなる。
ここで、確信度分布の伝播方向を決定する評価手段3の具体的な処理方法を説明する。確信度分布の伝播方向、すなわちインポータンスサンプリングのProposal distributionを選択するには、それぞれの観測系列の現時刻における確信度を直接評価するか、前の時刻から予測するという手段をとる。確信度を直接評価する場合は、前の時刻からの予測にのみ基づいて観測を行ない、各パーティクルにおいて確信度を算出する。確信度の平均値、最大値などをそれぞれの観測系列の評価値として、評価値の大きい順に系列をソートし、その順に伝播させればよい。
しかし、この方法では実際に観測をしてみなければ、伝播方向を決めることができない。処理を簡略化する方法として、前の時刻から予測にのみ基づいて伝播方向を決定する例を挙げる。一般に、精度の高いパターン識別器を用いた追跡装置ほどパーティクルのばらつき(分散)は小さくなる。これを利用し、前の時刻におけるパーティクルの状態空間での分散、あるいは前の時刻からの予測後のパーティクルの状態空間での分散を観測系列間で比較し、分散の小さいものから順に伝播を開始すればよい。
なお、これまではProposal distributionを他方の観測系列から得た確信度分布とする例を説明してきたが、下記の式(4)のように前の時刻から予測p(xt|xt-1)と他方の確信度分布p(yt (1)|xt)の混合分布を用いてもよい。
Figure 2008262331
ここで、αは混合比率を表すパラメータである。
[第2の実施形態]
続いて、本発明の第2の実施形態について図5ないし図8を参照しながら説明する。第2の実施形態では、連携させる追跡装置の一方を事前に学習されたパターン識別器に基づくオフライン追跡装置とし、もう一方を追跡中に学習更新されるオンライン追跡装置とする。例えば、人間の手や顔を追跡する場合、形状や姿勢が大きく変動するため、あらゆる変動に対応できるパターン識別器を事前に学習しておくのは、著しく手間がかかるか事実上不可能である。そこで、主要な形状や姿勢を検出可能な識別器により第1の追跡装置を構成しておき、その他の形状や姿勢については変動に応じて自動更新されるオンライン学習機能を有した第2の追跡装置を用いる。
図5は、第2の実施形態を表すブロック図である。図5の時系列画像51、観測手段52、評価手段53、伝播手段54、確信度更新手段56、確信度分布57はそれぞれ、図1の時系列画像1、観測手段2、評価手段3、伝播手段4、確信度更新手段5、確信度分布6に相当する。図1との相違点は、学習手段55が追加された点である。学習手段55では、第1の追跡装置から伝播手段54によって伝播された確信度分布に基づいて、第2の追跡装置が学習する。この学習の結果、確信度更新手段56によって第2の追跡装置における確信度分布が更新される。
図6は、第2の実施形態における処理の手順を示すフローチャートである。この図における時系列画像入力(ステップS61)、複数の異なる観測系列の取得(ステップS62)、観測系列の確信度の評価(ステップS63)、パーティクルによる確信度の伝播(ステップS64)の各ステップはそれぞれ、第1の実施形態(図2)におけるステップS21からS24と同様の処理である。さらに、第2の実施形態における確信度の更新(ステップS67)と確信度分布の取得(ステップS68)はそれぞれ、第1の実施形態(図2)におけるステップS25、S26に相当する。
第2の実施形態では新たに、パーティクルによる確信度の伝播(ステップS64)と確信度の更新(ステップS67)の間にステップS65とS66が追加されている。ステップS65では、第1の追跡装置から伝播された確信度分布に基づいて、第2の追跡装置の学習に必要な学習サンプルを収集する。そして、次のステップS66では、この学習サンプルに基づいて学習を行なう。
図7に、学習サンプル収集のための方法の例を示す。符号71はオブジェクトの状態を表すパラメータ空間である。簡単のため、パラメータはオブジェクトの画像内での位置を表す2次元座標値としている。符号72は、各位置においてオブジェクトが存在する確信度を表す分布であり、第1の追跡装置から伝播されたものである。確信度が高いほど明るく表示しており、分布の中心ほどオブジェクトが存在する確率が高いことを意味している。下記で詳細に説明するように、パターン識別器を構成するには、通常オブジェクトのクラスに属する正事例とオブジェクトのクラスとは異なるクラス(背景クラス)に属する負事例の2種類を学習サンプルとして用いる。
符号73は正事例、符号74は負事例を表す。確信度分布72の中心付近、すなわちオブジェクトである確信度の高い画像領域を切り出して正事例73とし、確信度分布72の中心から離れた部分、すなわちオブジェクトである確信度の低い画像領域を切り出して負事例74とする。これにより、オブジェクトと特にその周辺の背景を区別する能力が高いパターン識別器を構成できる。もちろん、正事例だけを収集しても構わない。
このように収集した学習サンプルを使用し、ステップS66で学習を行ない、第2の追跡装置をオンライン更新する。更新された追跡装置は、あらためて確信度分布72に従って観測を行ない、確信度分布を更新する(ステップS67)。これを最終結果として、オブジェクトの確信度分布を出力する(ステップS68)。
より具体的に、2つの追跡装置をどのように構成するかについて説明する。まず、第1の追跡装置では、例えば上述の非特許文献3により、パターン識別器を使用する。このパターン識別器は、事前に収集された多くの学習サンプルから学習されるため、統計的な信頼性が高く、高い検出精度を期待できる。しかし、実際には、まさに今から追跡しようとするオブジェクトは学習サンプルに含まれていない場合が多い。そこで、第2の追跡装置は、第1の追跡装置によって検出されたオブジェクトそのものから学習サンプルを取得する。
次に、第2の追跡装置のオンライン学習方法について代表的な例を説明する。第1の例は、RGBカラーヒストグラムによる実装である。カラーヒストグラムは、オブジェクトの変形や回転などに左右されにくい特性を有するため、見失わずに追跡を継続するという目的との親和性が高い。図7に示した方法により集められた正事例から、以下の式(5)に基づいてRGBカラーヒストグラムを生成する。
Figure 2008262331
ここで、Nは正事例の枚数、Mは事例のサイズ(画素数)を表す。(R,G,B)は画素jにおける画素値、sは量子化定数である。例えば、RGB各256階調を8階調に量子化するとき、s=32であり、このときヒストグラムのビンの数は8=512となる。各時刻において、このヒストグラムを計算しなおし更新すれば、最新のオブジェクトの色分布を取得できる。なお、ヒストグラムは総和が1となるように正規化しておく。
第2の追跡装置において観測を行ない、確信度分布を求める際には、以下の式(6)に基づいてヒストグラムインタセクションdを算出すればよい。
Figure 2008262331
ここで、Bはヒストグラムのビン総数、h’は観測位置におけるヒストグラムである。
正事例と負事例の両方を用いる場合は、正事例から算出されたヒストグラムhPと負事例から算出されたヒストグラムhNを用い、双方のヒストグラムとのインタセクションdPおよびdNを求め、その差dP−dNを確信度とすればよい。
なお、ここではRGBカラーヒストグラムを用いたが、HSVやrgなど他の表色系に基づくヒストグラムを利用できる。また、HOG(非特許文献4)など色でなく明度の勾配を利用してテクスチャの分布を表現するヒストグラムを利用することもできる。また、たとえば以下の式(7)などを用いて、過去の時刻のヒストグラムと現時刻のヒストグラムを混合することにより、オブジェクトの時系列データを利用したヒストグラムを活用してもよい。
Figure 2008262331
ここで、βは混合比率を指定するパラメータである。
次に、第2の例について説明する。この例では、第1の追跡装置は前述のものと同じで、第2の追跡装置を高度化する。さきほどの例では、第2の追跡装置は、単一の特徴に基づくヒストグラムを用いていたが、複数の特徴を組み合わせた方がより識別能力が高くなる。そこで、様々な表色系やテクスチャに基づく特徴の候補を用意しておき、識別に有効な特徴を学習の際に選択するアルゴリズムを使用する。例えば、非特許文献5の手法を用いることができる。On-line boosting は、各時刻において収集される学習サンプルを逐次的に追加しながら、パターン識別器を更新する手法である。第1の追跡装置で用いるパターン識別器とは、事前にすべての学習サンプルを用意しておく点が異なる。
図8は、On-line boostingによる学習手順を示すフローチャートである。あらかじめパターン識別器を構成する弱識別器の数と特徴候補の数については与えておくものとする。まず、ステップS81で弱識別器の学習を開始する。所定の数の弱識別器を学習し終われば、処理を終了する。そうでなければ、弱識別器で用いる特徴をあらかじめ与えた候補の中から探索する(ステップS82)。探索は基本的に全探索で、各候補について学習サンプルに対する識別誤り率を算出する(ステップS83)。すべての候補を探索したら、誤り率が最小となる特徴を選択する(ステップS84)。以上により、追跡中のオブジェクトを追跡するのに適した特徴を選択できるため、見失うことなく追跡を継続可能となる。
なお、この例では第1、第2の追跡装置で用いられるパターン識別器は、いずれもBoostingアルゴリズムにより学習されており、以下の式(8)により識別関数が定義される。
Figure 2008262331
ここで、αkは弱識別器fk(x)の信頼度を表し、学習過程で求められる。xは入力画像もしくは入力される画像の注目領域である。通常、F(x)は−∞〜+∞の範囲の値をとるが、下記の式(9)に示すロジスティック関数により、0〜1の範囲の確率値に変換できる。
Figure 2008262331
追跡に必要な確信度として、この確率値を用いればよい。
本発明の第1の実施形態に係るオブジェクト追跡装置の構成を示すブロック図。 本発明の第1の実施形態の動作を示すフローチャート。 本発明の第1の実施形態の動作原理を説明する図。 本発明の第1の実施形態の具体例を説明する図。 本発明の第2の実施形態に係るオブジェクト追跡装置の構成を示すブロック図。 本発明の第2の実施形態の動作を示すフローチャート。 本発明の第2の実施形態に係る学習サンプルの収集手順を表すフローチャート。 本発明の第2の実施形態に関わるオンライン学習手順を示すフローチャート。
符号の説明
1:時系列画像
2:観測手段
3:評価手段
4:伝播手段
5:確信度更新手段
6:確信度分布

Claims (8)

  1. 映像中のオブジェクトを検出して追跡する装置であって、
    異なる複数の観測系列を得る観測手段と、
    前記観測系列それぞれの事後確率で表される確信度を評価する評価手段と、
    前記観測系列の間でパーティクルを用いて前記確信度の分布を相互に伝播させる伝播手段と、
    を備えることを特徴とするオブジェクト追跡装置。
  2. 前記観測手段は、事前に学習されたオフライン識別器と、追跡中に学習更新されるオンライン識別器と、を含むこと、を特徴とする請求項1に記載のオブジェクト追跡装置。
  3. 前記オンライン識別器は、前記オフライン識別器による観測結果に基づいて学習する手段を有することを特徴とする請求項2に記載のオブジェクト追跡装置。
  4. 前記オンライン識別器は、前記オフライン識別器による観測結果のうち、確信度の高い画像領域を正事例とし、確信度の低い画像領域を負事例として、それらを識別するのに適した識別器を用いて学習する手段を有することを特徴とする請求項3に記載のオブジェクト追跡装置。
  5. 前記評価手段は、前の時刻から現時刻への予測によって生成されたパーティクルの分散を評価することにより、伝播方向を決定する手段を有することを特徴とする請求項1ないし請求項4のいずれか一項に記載のオブジェクト追跡装置。
  6. 前記評価手段は、前の時刻から現時刻への予測によって生成されたパーティクルの確信度を評価することにより、伝播方向を決定する手段を有することを特徴とする請求項1ないし請求項4のいずれか一項に記載のオブジェクト追跡装置。
  7. 前記伝播手段は、インポータンスサンプリングを用いることを特徴とする請求項1ないし請求項6のいずれか一項に記載のオブジェクト追跡装置。
  8. 映像中のオブジェクトを検出して追跡する方法であって、
    異なる複数の観測系列を得る観測ステップと、
    前記観測系列それぞれの事後確率で表される確信度を評価する評価ステップと、
    前記観測系列の間でパーティクルを用いて前記確信度の分布を相互に伝播させる伝播ステップと、
    を備えることを特徴とするオブジェクト追跡方法。
JP2007103712A 2007-04-11 2007-04-11 オブジェクト追跡装置およびオブジェクト追跡方法 Withdrawn JP2008262331A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007103712A JP2008262331A (ja) 2007-04-11 2007-04-11 オブジェクト追跡装置およびオブジェクト追跡方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007103712A JP2008262331A (ja) 2007-04-11 2007-04-11 オブジェクト追跡装置およびオブジェクト追跡方法

Publications (1)

Publication Number Publication Date
JP2008262331A true JP2008262331A (ja) 2008-10-30

Family

ID=39984770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007103712A Withdrawn JP2008262331A (ja) 2007-04-11 2007-04-11 オブジェクト追跡装置およびオブジェクト追跡方法

Country Status (1)

Country Link
JP (1) JP2008262331A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010170201A (ja) * 2009-01-20 2010-08-05 Secom Co Ltd 物体検出装置
JP2010170202A (ja) * 2009-01-20 2010-08-05 Secom Co Ltd 物体検出装置
JP2010199694A (ja) * 2009-02-23 2010-09-09 Casio Computer Co Ltd 撮像装置、画角調節方法、及び、プログラム
JP2010532886A (ja) * 2007-06-14 2010-10-14 ツィンファ ユニバーシティ 生存期間が異なる複数の観測モデルを融合する追跡方法及び追跡装置
JP2010237169A (ja) * 2009-03-31 2010-10-21 Topcon Corp 自動追尾方法及び測量装置
JP2011039995A (ja) * 2009-08-18 2011-02-24 Nec Soft Ltd 対象物検出装置、対象物検出方法、プログラムおよび記録媒体
JP2011090413A (ja) * 2009-10-20 2011-05-06 Canon Inc 画像認識装置、その処理方法及びプログラム
JP2011197964A (ja) * 2010-03-18 2011-10-06 Fujitsu Ltd センサネットワーク、状態推定方法及びプログラム
JP2012238119A (ja) * 2011-05-10 2012-12-06 Canon Inc 物体認識装置、物体認識装置の制御方法、およびプログラム
CN103593856A (zh) * 2013-11-20 2014-02-19 中国科学院深圳先进技术研究院 单目标跟踪方法及系统
JP2014071832A (ja) * 2012-10-01 2014-04-21 Toshiba Corp 物体検出装置及びその検出方法
WO2015178148A1 (ja) * 2014-05-22 2015-11-26 株式会社メガチップス 状態推定装置、プログラムおよび集積回路
JP2016015045A (ja) * 2014-07-02 2016-01-28 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010532886A (ja) * 2007-06-14 2010-10-14 ツィンファ ユニバーシティ 生存期間が異なる複数の観測モデルを融合する追跡方法及び追跡装置
US8548195B2 (en) 2007-06-14 2013-10-01 Omron Corporation Tracking method and device adopting a series of observation models with different life spans
JP2010170202A (ja) * 2009-01-20 2010-08-05 Secom Co Ltd 物体検出装置
JP2010170201A (ja) * 2009-01-20 2010-08-05 Secom Co Ltd 物体検出装置
US8189056B2 (en) 2009-02-23 2012-05-29 Casio Computer Co., Ltd. Image capturing apparatus, angle-of-view adjusting method and recording medium
JP2010199694A (ja) * 2009-02-23 2010-09-09 Casio Computer Co Ltd 撮像装置、画角調節方法、及び、プログラム
JP2010237169A (ja) * 2009-03-31 2010-10-21 Topcon Corp 自動追尾方法及び測量装置
JP2011039995A (ja) * 2009-08-18 2011-02-24 Nec Soft Ltd 対象物検出装置、対象物検出方法、プログラムおよび記録媒体
JP2011090413A (ja) * 2009-10-20 2011-05-06 Canon Inc 画像認識装置、その処理方法及びプログラム
US8643739B2 (en) 2009-10-20 2014-02-04 Canon Kabushiki Kaisha Image recognition apparatus, processing method thereof, and computer-readable storage medium
JP2011197964A (ja) * 2010-03-18 2011-10-06 Fujitsu Ltd センサネットワーク、状態推定方法及びプログラム
JP2012238119A (ja) * 2011-05-10 2012-12-06 Canon Inc 物体認識装置、物体認識装置の制御方法、およびプログラム
JP2014071832A (ja) * 2012-10-01 2014-04-21 Toshiba Corp 物体検出装置及びその検出方法
US9489737B2 (en) 2012-10-01 2016-11-08 Kabushiki Kaisha Toshiba Object detection apparatus and method
CN103593856A (zh) * 2013-11-20 2014-02-19 中国科学院深圳先进技术研究院 单目标跟踪方法及系统
WO2015178148A1 (ja) * 2014-05-22 2015-11-26 株式会社メガチップス 状態推定装置、プログラムおよび集積回路
JP2015222473A (ja) * 2014-05-22 2015-12-10 株式会社メガチップス 状態推定装置、プログラムおよび集積回路
US9805285B2 (en) 2014-05-22 2017-10-31 Megachips Corporation State estimation apparatus, state estimation method, and integrated circuit
JP2016015045A (ja) * 2014-07-02 2016-01-28 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム

Similar Documents

Publication Publication Date Title
JP2008262331A (ja) オブジェクト追跡装置およびオブジェクト追跡方法
CN108256561B (zh) 一种基于对抗学习的多源域适应迁移方法及系统
JP4767595B2 (ja) 対象物検出装置及びその学習装置
WO2018121690A1 (zh) 对象属性检测、神经网络训练、区域检测方法和装置
US8331655B2 (en) Learning apparatus for pattern detector, learning method and computer-readable storage medium
JP5558412B2 (ja) 識別器を特定のシーン内のオブジェクトを検出するように適応させるためのシステム及び方法
KR101410489B1 (ko) 얼굴 식별 방법 및 그 장치
JP6867054B2 (ja) マルチカメラシステム内のダブルエンベディング構成を利用して、道路利用者イベントを検出するために用いられるセグメンテーション性能向上のための学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置。{learning method and learning device for improving segmentation performance to be used for detecting road user events using double embedding configuration in multi−camera system and testing method and testing device using the same}
JP2015087903A (ja) 情報処理装置及び情報処理方法
JP2005157679A (ja) 対象物検出装置及び方法、並びに集団学習装置及び方法
JP6565600B2 (ja) アテンション検出装置及びアテンション検出方法
JP5123759B2 (ja) パターン検出器の学習装置、学習方法及びプログラム
US20210089823A1 (en) Information processing device, information processing method, and non-transitory computer-readable storage medium
JP2009026326A (ja) 集団学習装置及び方法
CN114842343A (zh) 一种基于ViT的航空图像识别方法
CN111444816A (zh) 一种基于Faster RCNN的多尺度密集行人检测方法
JP6613687B2 (ja) 画像処理装置、画像処理方法及びプログラム
Firouznia et al. Adaptive chaotic sampling particle filter to handle occlusion and fast motion in visual object tracking
JP7472471B2 (ja) 推定システム、推定装置および推定方法
Barthakur et al. Semantic segmentation using K-means clustering and deep learning in satellite image
US20230260259A1 (en) Method and device for training a neural network
WO2019228654A1 (en) Method for training a prediction system and system for sequence prediction
JP2014203133A (ja) 画像処理装置、画像処理方法
CN114327045A (zh) 基于类别不平衡信号的跌倒检测方法及系统
Abdelali et al. Object tracking in video via particle filter

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100706