JP2012059224A - 移動物体追跡システムおよび移動物体追跡方法 - Google Patents

移動物体追跡システムおよび移動物体追跡方法 Download PDF

Info

Publication number
JP2012059224A
JP2012059224A JP2010204830A JP2010204830A JP2012059224A JP 2012059224 A JP2012059224 A JP 2012059224A JP 2010204830 A JP2010204830 A JP 2010204830A JP 2010204830 A JP2010204830 A JP 2010204830A JP 2012059224 A JP2012059224 A JP 2012059224A
Authority
JP
Japan
Prior art keywords
moving object
tracking
moving
scene
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010204830A
Other languages
English (en)
Other versions
JP5459674B2 (ja
Inventor
Kodai Saito
廣大 齊藤
Hiroshi Sukegawa
寛 助川
Osamu Yamaguchi
修 山口
Toshio Sato
俊雄 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010204830A priority Critical patent/JP5459674B2/ja
Priority to PCT/JP2011/053379 priority patent/WO2011102416A1/ja
Priority to KR1020127021414A priority patent/KR101434768B1/ko
Priority to MX2012009579A priority patent/MX2012009579A/es
Publication of JP2012059224A publication Critical patent/JP2012059224A/ja
Priority to US13/588,229 priority patent/US20130050502A1/en
Application granted granted Critical
Publication of JP5459674B2 publication Critical patent/JP5459674B2/ja
Priority to US16/053,947 priority patent/US20180342067A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】複数の移動物体を追跡するときに、撮影機器の変化に由来する変動に対しても、あるいは、撮影環境の変化に由来する変動に対しても、追跡パラメータを自動的に調整することで、正解教示などの手間のかかる作業を省略できる移動物体追跡システムを提供する。
【解決手段】画像の時系列において複数のフレームに含まれる複数の移動物体を検出し、同一の移動物体どうしをフレーム間で対応付けることにより、移動物体の追跡を行なう移動物体追跡システムにおいて、移動物体の追跡処理に対する信頼度を求め、求めた信頼度が高い場合は自動的に追跡パラメータを学習して調整する。
【選択図】図1

Description

本発明の実施形態は、たとえば、画像の時系列において複数のフレームに含まれる複数の移動物体を検出し、同一の移動物体どうしをフレーム間で対応付けることにより、移動物体の追跡を行なう移動物体追跡システムおよび移動物体追跡方法に関する。
近年、画像の時系列において複数のフレームに含まれる複数の移動物体を検出し、同一の物体どうしをフレーム間で対応付けることで、移動物体の追跡を行ない、追跡した結果を記録したり、追跡した結果を基に移動物体を識別したりする移動物体追跡システムが開発されている。
このような移動物体追跡システムにおいて、移動物体を追跡するための主な手法としては、以下の3つの技術が提案されている。
第1に、隣接フレーム間の検出結果からグラフを構成し、対応付けを求める問題を適当な評価関数を最大にする組合せ最適化問題(2部グラフ上の割当問題)として定式化し、複数の移動物体の追跡を行なうことを挙げることができる。
第2に、移動中の移動物体が検出できないフレームが存在する場合でも移動物体を追跡するために、移動物体の周囲の情報を利用することで検出を補完する手法がある。具体例としては、人物の顔の追跡処理において、上半身のような周囲の情報を利用する手法がある。
第3に、事前に動画中の全フレームにおいて移動物体の検出を行なっておき、それらをつなぐことで複数の移動物体の追跡を行なう手法がある。
特開平11−341339号公報 特開2006−162185号公報
しかしながら、上述した従来の技術では、実システムにおいて移動物体を追跡するにあたっては以下のような問題がある。
追跡処理の入力動画像は、
(1)撮影機器の変化
(2)撮影環境の変化
といった理由から、大きく傾向が異なる場合がある。(1)については、カメラやDVR(Digital VideoRecorder)などからの画像は、解像度、フレームレート、画質などについての変動がある。また、(2)については、設置角度や撮影サイトによるカメラと撮影対象との相対的な位置関係、天候や時刻による照明などに関する変動などがある。
このような変動への対策としては、大別して
(A)撮影環境を一定に保つ
(B)移動物体の追跡を行なうための追跡パラメータ調整を行ない変動に対処する
を挙げることができる。(A)に関しては、実社会における運用では、カメラの設置条件や機材についての制限が大きく、所望の撮影環境を必ずしも実現できるとは限らない。したがって、調整の容易さの観点から(B)のアプローチが望ましい。
しかしながら、移動物体の移動傾向や画像パターンをあらかじめ学習しておくような追跡手法では、入力動画像の傾向が大きく異なった場合には、追跡パラメータの再学習が必要となる。このような再学習には、移動物体の一定量の学習データとそれらの教示作業が必要となり、コストがかかるという問題がある。
そこで、実施形態は、複数の移動物体を追跡するときに、撮影機器の変化に由来する変動に対しても、あるいは、撮影環境の変化に由来する変動に対しても、追跡パラメータを自動的に調整することで、正解教示などの手間のかかる作業を省略できる移動物体追跡システムおよび移動物体追跡方法を提供することを目的とする。
実施形態に係る移動物体追跡システムは、複数の時系列の画像を入力する画像入力手段と、この画像入力手段により入力された各画像から追跡対象となる移動物体を検出する移動物体検出手段と、どのような基準で移動物体の追跡を行なうかを示す追跡パラメータに基づき、前記移動物体検出手段により複数の画像に亘って検出された同一の移動物体を対応付けして追跡する移動物体追跡手段と、この移動物体追跡手段による追跡結果を出力する出力手段と、前記移動物体検出手段により検出された検出結果から前記追跡パラメータの推定に利用できる移動物体の移動シーンを選択するシーン選択手段と、このシーン選択手段により選択された移動シーンに基づき前記追跡パラメータを推定し、この推定した追跡パラメータを前記移動物体追跡手段に対して出力するパラメータ推定手段とを具備している。
実施形態に係る移動物体追跡システムの構成を概略的に示すブロック図。 シーン選択部を説明するための図。 シーン選択部を説明するための図。 シーン選択部を説明するための図。 シーン選択部を説明するための図。 シーン選択部の処理手順を概略的に示すフローチャート。 パラメータ推定部の処理手順を概略的に示すフローチャート。 全体的な処理の流れを説明するためのフローチャート。
以下、実施形態について図面を参照して説明する。
本実施形態は、カメラから得られた時系列の画像に対し、画像中に複数の歩行者の顔が存在する場合、それらの複数の人物(顔)を追跡する移動物体追跡システムを例として説明する。
なお、本実施形態では、人物の顔を検出し、その顔検出の結果に基づいて人物の追跡を行なうといった例で説明を行なうが、移動物体の検出方法を移動物体に適したものに切換えることで他の移動物体、たとえば車両、動物といったもの対する移動物体追跡システムとしても流用可能であることは明らかである。
また、本実施形態に係る移動物体追跡システムは、たとえば、監視カメラから収集した大量の動画像の中から移動物体(人物あるいは車両等)を検出して、それらのシーンを追跡結果とともに記録装置に記録するシステム、あるいは、監視カメラで撮影された移動物体(人物あるいは車両等)を追跡し、その追跡した移動物体と事前にデータベースに登録されている辞書データとを照合して移動物体を識別し、その識別結果を通知する監視システムなどへの適用が想定される。
以下に説明する本実施形態に係る移動物体追跡システムは、監視カメラにより取得した画像内に存在する複数の人物の顔を対象として追跡を行ない、学習に適したシーンかどうかを自動的に判定して、追跡パラメータを学習するシステムを対象とする。たとえば、歩行者が多数である場合は正確な追跡は困難であるが、歩行者の人数が少数であることがなんらかの手段で分かった場合には、精度のよくない追跡パラメータによっても正確な追跡が自動的に実行でき、この追跡結果を利用して、逆に追跡パラメータを推定、学習することができる。
図1は、本実施形態に係る移動物体追跡システムの構成を概略的に示すものである。この移動物体追跡システムは、複数の時系列の画像を入力する画像入力手段としてのカメラ11A,11B、カメラ11A,11Bにより入力された各画像から追跡対象となる移動物体を検出する移動物体検出手段としての顔検出部12A,12B、顔検出部12A,12Bにより検出された検出結果から後述する追跡パラメータの推定に利用できる移動物体の移動シーン(以降、単にシーンとも言う)を選択するシーン選択手段としてのシーン選択部13A,13B、シーン選択部13A,13Bにより選択されたシーンに基づき、どのような基準で移動物体の追跡を行なうかを示す追跡パラメータを推定し、この推定した追跡パラメータを後述する移動物体追跡部15に対して出力するパラメータ推定手段としてのパラメータ推定部14、パラメータ推定部14により推定された追跡パラメータに基づき、顔検出部12A,12Bにより複数の画像に亘って検出された同一の移動物体を対応付けして追跡する移動物体追跡手段としての移動物体追跡部15、移動物体追跡部15の追跡結果を管理する追跡結果管理手段としての追跡結果管理部16、および、追跡結果管理部16により管理されている追跡結果等を出力する出力手段としての出力部17を有して構成される。
なお、本実施形態では、複数の地点を監視するカメラを想定して2台のカメラ11A、11Bが設置されたシステム構成として説明を行なうが、カメラが1台、あるいは、より多い場合であってもシステムの構成と処理の流れ、効果には影響がない。
以下、各部について詳細に説明する。
カメラ11A,11Bは、監視エリアの画像を撮影するものであり、たとえば、装置中央に設置されたテレビジョンカメラから構成され、動画などの複数の時系列の画像を撮影する。図1の構成例においては、カメラ11A,11Bは、追跡対象とする移動物体としての人物の顔画像を含む動画像を撮像する。カメラ11A,11Bで撮影された時系列の画像は、A/D変換されてデジタル化された画像情報として顔検出部12A,12Bに送られる。
なお、カメラ11A,11Bではなく、他の画像入力機器(例えば、デジタルビデオレコーダ等)から画像を入力するものであってもよい。たとえば、事前に記録媒体に記録された動画像などの画像情報を取込んだり、複数の画像ファイルを連続して入力するといったことでも同様の画像入力は可能である。
顔検出部12A,12Bは、入力した画像内において、1つまたは複数の顔を検出する処理を行なう。顔を検出する具体的な処理方法としては、以下の手法が適用できる。まず、あらかじめ用意されたテンプレートを画像内で移動させながら相関値を求めることにより、最も高い相関値を与える位置を顔画像の領域として検出する。その他、固有空間法や部分空間法を利用した顔抽出法などでも顔の検出は実現可能である。
また、検出された顔画像の領域の中から目、鼻などの顔部位の位置を検出することにより、顔の検出の精度を高めることも可能である。このような顔の検出方法は、たとえば、文献(福井和広、山口修:「形状抽出とパターン照合の組合せによる顔特徴点抽出」、電子情報通信学会論文誌(D),vol.J80-D-II,No.8,pp2170--2177(1997))に記載された手法が適用可能である。
また、上記目および鼻の検出の他、口の領域の検出については、文献(湯浅 真由美、中島 朗子:「高精度顔特徴点検出に基づくデジタルメイクシステム」第10回画像センシングシンポジウム予稿集,pp219-224(2004))に記載された技術を利用することで容易に実現が可能である。いずれの場合でも、2次元配列状の画像として取扱える情報を獲得し、その中から顔特徴の領域を検出することが可能である。
また、上述の処理では、1枚の画像の中から1つの顔特徴だけを抽出するには全画像に対してテンプレートとの相関値を求め最大となる位置とサイズを出力すればよい。また、複数の顔特徴を抽出するには、画像全体に対する相関値の局所最大値を求め、1枚の画像内での重なりを考慮して顔の候補位置を絞り込み、最後は連続して入力された過去の画像との関係性(時間的な推移)も考慮して最終的に複数の顔特徴を同時に見つけることも可能である。
シーン選択部13A,13Bは、顔検出出部12A,12Bが出力した検出結果から、当該検出結果が追跡パラメータの推定にふさわしいかどうかを自動的に判断して選択する。この判断はシーン選択および追跡結果選択の2段階で実行する。
まず、シーン選択は、検出結果列が追跡パラメータの推定に使用できるかどうかの信頼度を、あらかじめ定められた閾値以上のフレーム枚数だけ検出できることと、複数の人物の検出結果列を混同していないことを基準として定める。たとえば、検出結果列の相対的位置関係から信頼度を計算する。図2を参照して説明すすると、検出結果の個数が一定フレーム数にわたって1つであり、さらに、あらかじめ定められた閾値よりも小さい範囲で移動している場合は1人だけが移動している状況であると推定する。このとき、tフレームにおける検出結果をa、t−1フレームにおける検出結果をcとおくと、
D(a,c)<rS(c)
のようにして、1人の人物がフレーム間を移動しているかどうかを判断する。ただし、D(a,b)はaとbの画像内での距離(画素)、S(c)は検出結果のサイズ(画素)である。また、rはパラメータである。
検出結果が複数でも、あらかじめ定められた閾値よりも小さい範囲で画像中の離れた位置で移動している場合などの場合には同一人物の移動系列が得られるので、これを用いて追跡パラメータを学習する。複数人物の検出結果列を同一人物ごとに分けるには、tフレームにおける検出結果をai、aj、t−1フレームにおける検出結果をci、cjとおくと、
D(ai,aj)>C、D(ai,cj)>C、D(ai,ci)<rS(ci)、
D(aj,cj)<rS(cj)
のようにフレーム間の検出結果の対について比較を行なうことで判断する。ただし、D(a,b)はaとbの画像内での距離(画素)、S(c)は検出結果のサイズ(画素)である。また、rとCはパラメータである。
また、画像中で人物が密集している状態を適当な画像特徴量などによって回帰分析することでシーンの選択を実行することもできる。あるいは、学習時だけ検出された複数の顔をフレーム間にわたって画像を用いた個人識別処理を行ない、同一人物ごとの移動系列を得ることも可能である。
また、誤検出した結果を排除するために、位置に対してサイズがあらかじめ定められた一定の閾値以下の変動しかない検出結果を排除する、動きが一定の閾値以下のものはポスタや文字の誤検出の可能性があるので、周囲の文字認識情報などを使用して排除するといった処理を行なう。データには、得られたフレーム数、検出数などに応じて信頼度を設定する。信頼度はこれらから総合的に判断する。
図3は、検出結果列に対する信頼度の数値例であり、後述する図4に対応している。事前に準備した追跡成功例と失敗例の傾向(画像類似度の値)などを基にこの信頼度の数値を定めることができる。
また、図4に示すように、追跡できたフレーム数を基に信頼度の数値を定めることができる。たとえば、少ないフレーム数だけしか追跡できなかったものは信頼度を低く設定することができる。これらの基準を組合せて、たとえば、追跡できたフレーム数は多いが、各顔画像の類似度が平均して低い場合は、フレーム数が少なくても類似度が高い追跡結果の信頼度をより高く設定することもできる。
図4の例において、(a)の検出結果列Aは同一人物の顔が連続的に充分なフレーム数だけ出力された場合、(b)の検出結果列Bは同一人物だがフレーム数が少ない場合、(c)の検出結果列Cは別の人物が含まれてしまった場合を示している。
次に、追跡結果選択について説明する。たとえば、図5に示すように、適当な追跡パラメータを使用して移動物体の追跡を実行したときに、追跡が正しく行なわれているかを自動的に判断することである。正しく追跡できていると判断された場合には、その追跡結果を追跡パラメータの推定に活用する。たとえば、複数の人物を追跡した軌跡が交差などをした場合は、追跡対象のID情報が途中で入れ替わって間違えている可能性が生じるので信頼度を低く設定する。
図5の処理例では、閾値が「信頼度70%以上」と設定された場合、追跡結果の信頼度が70%以上となる追跡結果1と追跡結果2を学習用に出力する。
この追跡結果選択の処理手順を図6に示す。図6によれば、入力された各フレームの検出結果に対して相対的な位置関係を計算し、あらかじめ定められた閾値よりも離れていて、誤検出でない場合には、推定に適切なシーンであると判断して選択する。
パラメータ推定部14は、シーン選択部13A,13Bから得られた動画像列、検出結果列および追跡結果を利用して、追跡パラメータを推定する。たとえば、適当な確率変数Xについて、シーン選択部13A,13Bから得られたN個のデータD={X1,…,XN}を観察したとする。θをXの確率分布のパラメータとしたとき、たとえば、Xが正規分布にしたがうと仮定して、Dの平均μ=(X1+X2+…+XN)/N、分散((X1−μ)2+…+(XN−μ)2)/Nなどを推定値とする。
あるいは、追跡パラメータの推定ではなく、直接に分布を計算することを行なう。具体的には、事後確率p(θ|D)を計算して、p(X|D)=∫p(X|θ) p(θ|D)dθによって対応づく確率を計算する。この事後確率はθの事前確率p(θ)と尤度p(X|θ)を、たとえば正規分布などのように定めれば、p(θ|D)=p(θ) p(D|θ)/p(D)のようにして計算できる。
なお、確率変数として使用する量は、移動物体どうしの移動量、検出サイズ、各種の画像特徴量に関する類似度、移動方向などを使用してもよい。パラメータは、たとえば、正規分布の場合は平均や分散共分散行列となるが、さまざまな確率分布を使用してもよい。
パラメータ推定部14の処理手順を図7に示す。図7によれば、シーン選択部13A(13B)により選択されたシーンの信頼度を求め、求めた信頼度があらかじめ定められた基準値(閾値)よりも高い場合、当該シーンに基づき追跡パラメータを推定し、求めた信頼度が基準値よりも低い場合は追跡パラメータの推定には使用しない。
移動物体追跡部15は、入力される複数の画像にわたって検出された人物の顔の座標や大きさなどの情報を統合して最適な対応付けを行ない、同一人物が複数フレームにわたって対応付けされた結果を統合管理して追跡結果として出力する。なお、複数の人物が歩行する画像において、交差するなどの複雑な動作をしている場合には対応付け結果が一意に決まらない可能性がある。この場合、対応付けを行なった際の尤度が最も高くなるものを第1候補として出力するだけでなく、それに準ずる対応付け結果を複数管理することも可能とする。
また、移動を予測するような追跡手法であるオプティカルフローやパーティクルフィルタなどによっても、追跡結果を出力する。これは文献(滝沢圭、長谷部光威、助川寛、佐藤俊雄、榎本暢芳、入江文平、岡崎彰夫:歩行者顔照合システム「FacePassenger」の開発, 第4回情報科学技術フォーラム(FIT2005), pp.27−−28.)に記載された手法などによって実現可能である。
具体的な追跡手法としては、直前のフレーム(t−1)からt−T−T’のフレーム(T>=0とT’>=0はパラメータ)までの間に追跡あるいは検出された情報を管理し、t−Tまでは追跡処理の対象となる検出結果であり、t−T−1からt−T−T’までは過去の追跡結果である。各フレームに対し、顔情報(顔検出部から得られる顔検出結果の画像内での位置、動画のフレーム番号、追跡された同一人物ごとに付与されるID情報、検出された領域の部分画像など)を管理する。顔検出情報と、追跡対象情報に対応する頂点に加え、「追跡途中の検出失敗」、「消滅」、「出現」のそれぞれの状態に対応する頂点からなるグラフを作成する。ここでいう「出現」とは画面にいなかった人物が画面に新たに現れたことを示し、「消滅」は画面内にいた人物が画面からいなくなること、「追跡途中の検出失敗」は画面内に存在しているはずであるが顔の検出に失敗している状態であることを示す。
追跡結果はこのグラフ上のパスの組合せに対応している。追跡途中の検出失敗に対応したノードを追加することで、追跡途中で一時的に検出できないフレームがあった場合でも、その前後で正しく対応付けを行って追跡を継続する効果が得られる。グラフ作成で設定した枝に重み、すなわち、ある実数値を設定する。これは、顔検出結果どうしが対応付く確率と対応付かない確率の両方を考慮することでより精度の高い追跡が実現可能である。
本実施形態では、その2つの確率の比の対数をとることで定めるが、この2つを考慮しているのであれば確率の引き算や所定の関数f(P1,P2)を作成して対応することも実現可能である。このとき、特徴量あるいは確率変数としては、検出結果どうしの距離、検出枠のサイズ比、速度ベクトル、色ヒストグラムの相関値などを用いることができ、適当な学習データによって確率分布を推定しておく。対応づかない確率も加味することで、追跡対象の混同を防ぐ効果がある。
上記の特徴量に対して、フレーム間の顔検出情報uとvが対応が付く確率p(X)と対応が付かない確率q(X)が与えられたとき、グラフにおいて頂点uと頂点vとの間の枝重みを確率の比log(p(X)/q(X))によって定める。このとき、
Figure 2012059224
のように枝重みは計算される。ただし、a(X)とb(X)はそれぞれ非負の実数値である。上記場合1では、対応が付かない確率q(X)が0かつ対応が付く確率p(X)が0でないので枝重みが+∞となり、最適化計算において必ず枝が選ばれることになる。その他の場合2、場合3、場合4も同様である。
同様に、消滅する確率、出現する確率、歩行途中に検出が失敗する確率の対数値によって枝の重みを定める。これらの確率は事前に該当するデータを使った学習により定めておくことが可能である。構成した枝重み付きグラフにおいて、枝重みの総和が最大となるパスの組合せを計算する。これはよく知られた組合せ最適化のアルゴリズムによって容易に求めることができる。たとえば、上記の確率を用いると、事後確率が最大なパスの組合せを求めることができる。パスの組合せを求めることによって、過去のフレームから追跡が継続された顔、新たに出現した顔、対応付かなかった顔が得られるので、その結果を追跡結果管理部16に記録する。
追跡結果管理部16は、複数のカメラで撮影された画像に対して追跡された結果を管理する手段であり、カメラに接続されている端末内で顔の検出と追跡を実施するハードウェア構成で実現するのであれば、追跡結果管理部16はサーバ装置としてのハードウェア構成となり、カメラに接続される端末とLANケーブルで接続することで、カメラの画像や追跡結果といった情報をやりとりすることが可能となる。
追跡結果管理部16では、カメラの画像をまるごと動画として記録することも可能とするほか、顔の検出や追跡があった場合のみその部分の動画記録すること、検出した顔領域や人物領域のみ記録する、追跡した複数フレームの中で一番見やすいと判断されたベストショット画像のみを記録するといったことも可能である。
また、本実施形態においては追跡結果を複数受け取る可能性があるため、動画と対応付けして各フレームの移動物体の場所と同一移動物体であることを示す識別ID、追跡結果の信頼度を一緒に管理するといったことで、本実施形態の処理を実現することが可能である。
出力部17は、追跡結果管理部16で管理されている画像および追跡結果を利用者の希望にあわせて表示出力する。
次に、このような構成において全体的な処理の流れについて図8に示すフローチャートを参照して説明する。
カメラ11A(11B)から複数の時系列の画像が入力されると、この入力された画象はデジタル化されて顔検出部12A(12B)に送られる(ステップS1)。顔検出部12A(12B)は、入力された各画像から追跡対象となる移動物体としての顔を検出する(ステップS2,S3)。
この顔検出において、顔が検出されなかった場合、当該入力画像は追跡パラメータの推定に使用しない。顔が検出された場合、シーン選択部13A(13B)は、顔検出出部12A(12B)が出力した検出結果から、当該検出結果が追跡パラメータの推定に使用できるかどうかの信頼度を求め(ステップS4)、求めた信頼度があらかじめ定められた基準値(閾値)よりも高いか否かを判定する(ステップS5)。
この判定の結果、求めた信頼度が基準値よりも低い場合、当該シーンは追跡パラメータの推定に使用しない。求めた信頼度が基準値よりも高い場合、当該シーンを保持(記録)し、当該シーンに対し追跡処理を行なう(ステップS6)。
次に、この追跡処理の結果に対し信頼度を求め、求めた信頼度があらかじめ定められた基準値(閾値)よりも高いか否かを判定し(ステップS7)、求めた信頼度が基準値よりも低い場合、当該シーンは追跡パラメータの推定に使用しない。
ステップS7において、求めた信頼度が基準値よりも高い場合、パラメータ推定部14は、当該信頼度の高いシーンの数があらかじめ定められた基準値(閾値)よりも多いか否かを判定し(ステップS8)、信頼度の高いシーンの数が基準値よりも少ない場合、追跡パラメータの推定を実行しない。
ステップS8において、信頼度の高いシーンの数が基準値よりも多い場合、当該シーンに基づき追跡パラメータを推定し(ステップS9)、ステップS6で保持したシーンに対し追跡処理を行なう(ステップS10)。この場合、推定した追跡パラメータと、保持してある更新する直前の追跡パラメータの両方で追跡処理を行なう。
次に、この2つの追跡処理の結果(信頼度)を比較し、推定した追跡パラメータによる信頼度が更新する直前の追跡パラメータによる信頼度よりも低い場合(ステップS11)、更新する直前の追跡パラメータを推定した追跡パラメータに更新するが、追跡処理には使用しない。
ステップS11において、推定した追跡パラメータによる信頼度が更新する直前の追跡パラメータによる信頼度よりも高い場合、更新する直前の追跡パラメータを推定した追跡パラメータに更新し、この更新した追跡パラメータに基づき画像内の人物(移動物体)を追跡する(ステップS12)。
以上説明したように上記実施の形態によれば、画像の時系列において複数のフレームに含まれる複数の移動物体を検出し、同一の移動物体どうしをフレーム間で対応付けることにより、移動物体の追跡を行なう移動物体追跡システムにおいて、移動物体の追跡処理に対する信頼度を求め、求めた信頼度が高い場合は自動的に追跡パラメータを学習して調整することで、複数の移動物体を追跡するときに、撮影機器の変化に由来する変動に対しても、あるいは、撮影環境の変化に由来する変動に対しても、追跡パラメータを自動的に調整することで、正解教示などの手間のかかる作業を省略できる。
11A,11B…カメラ(画像入力手段)、12A,12B…顔検出部(移動物体検出手段)、13A,13B…シーン選択部(シーン選択手段)、14…パラメータ推定部(パラメータ推定手段)、15…移動物体追跡部(移動物体追跡手段)、16…追跡結果管理部(追跡結果管理手段)、17…出力部(出力手段)。

Claims (6)

  1. 複数の時系列の画像を入力する画像入力手段と、
    この画像入力手段により入力された各画像から追跡対象となる移動物体を検出する移動物体検出手段と、
    どのような基準で移動物体の追跡を行なうかを示す追跡パラメータに基づき、前記移動物体検出手段により複数の画像に亘って検出された同一の移動物体を対応付けして追跡する移動物体追跡手段と、
    この移動物体追跡手段による追跡結果を出力する出力手段と、
    前記移動物体検出手段により検出された検出結果から前記追跡パラメータの推定に利用できる移動物体の移動シーンを選択するシーン選択手段と、
    このシーン選択手段により選択された移動シーンに基づき前記追跡パラメータを推定し、この推定した追跡パラメータを前記移動物体追跡手段に対して出力するパラメータ推定手段と、
    を具備したことを特徴とする移動物体追跡システム。
  2. 前記シーン選択手段は、前記移動物体検出手段の検出結果から、検出結果の列が同一の移動物体である信頼度の高いものを追跡パラメータの推定に利用できる移動シーンとして選択することを特徴とする請求項1記載の移動物体追跡システム。
  3. 前記シーン選択手段は、前記移動物体検出手段の検出結果に基づき、移動物体の少なくとも1つの画像以上の移動量があらかじめ定められた閾値以上の場合、あるいは、移動物体どうしの距離があらかじめ定められた閾値以上の場合、それぞれの検出結果を同一の移動物体として区別して、追跡パラメータの推定に利用できる移動シーンを選択することを特徴とする請求項1記載の移動物体追跡システム。
  4. 前記シーン選択手段は、前記移動物体検出手段の検出結果に基づき、一定期間以上に同一の場所で移動物体が検出された場合に当該検出結果を語検出と判断して、追跡パラメータの推定に利用できる移動シーンを選択することを特徴とする請求項1記載の移動物体追跡システム。
  5. 前記パラメータ推定手段は、前記シーン選択手段により選択された移動シーンの信頼度を求め、求めた信頼度があらかじめ定められた基準値よりも高い場合、当該移動シーンに基づき前記追跡パラメータを推定することを特徴とする請求項1記載の移動物体追跡システム。
  6. 画像入力手段により、複数の時系列の画像を入力する画像入力ステップと、
    移動物体検出手段により、前記画像入力ステップにより入力された各画像から追跡対象となる移動物体を検出する移動物体検出ステップと、
    移動物体追跡手段により、どのような基準で移動物体の追跡を行なうかを示す追跡パラメータに基づき、前記移動物体検出ステップにより複数の画像に亘って検出された同一の移動物体を対応付けして追跡する移動物体追跡ステップと、
    出力手段により、前記移動物体追跡ステップによる追跡結果を出力する出力ステップと、
    シーン選択手段により、前記移動物体検出ステップにより検出された検出結果から前記追跡パラメータの推定に利用できる移動物体の移動シーンを選択するシーン選択ステップと、
    パラメータ推定手段により、前記シーン選択ステップにより選択された移動シーンに基づき前記追跡パラメータを推定し、この推定した追跡パラメータを前記移動物体追跡手段に対して出力するパラメータ推定ステップと、
    を具備したことを特徴とする移動物体追跡方法。
JP2010204830A 2010-02-19 2010-09-13 移動物体追跡システムおよび移動物体追跡方法 Active JP5459674B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2010204830A JP5459674B2 (ja) 2010-09-13 2010-09-13 移動物体追跡システムおよび移動物体追跡方法
PCT/JP2011/053379 WO2011102416A1 (ja) 2010-02-19 2011-02-17 移動物体追跡システムおよび移動物体追跡方法
KR1020127021414A KR101434768B1 (ko) 2010-02-19 2011-02-17 이동 물체 추적 시스템 및 이동 물체 추적 방법
MX2012009579A MX2012009579A (es) 2010-02-19 2011-02-17 Sistema de rastreo de objetos en movimiento y metodo de rastreo de objetos en movimiento.
US13/588,229 US20130050502A1 (en) 2010-02-19 2012-08-17 Moving object tracking system and moving object tracking method
US16/053,947 US20180342067A1 (en) 2010-02-19 2018-08-03 Moving object tracking system and moving object tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010204830A JP5459674B2 (ja) 2010-09-13 2010-09-13 移動物体追跡システムおよび移動物体追跡方法

Publications (2)

Publication Number Publication Date
JP2012059224A true JP2012059224A (ja) 2012-03-22
JP5459674B2 JP5459674B2 (ja) 2014-04-02

Family

ID=46056200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010204830A Active JP5459674B2 (ja) 2010-02-19 2010-09-13 移動物体追跡システムおよび移動物体追跡方法

Country Status (1)

Country Link
JP (1) JP5459674B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101288388B1 (ko) 2012-04-04 2013-07-22 국방과학연구소 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법
JP2014085795A (ja) * 2012-10-23 2014-05-12 Toshiba Corp 学習画像収集装置、学習装置及び対象物検出装置
US9171012B2 (en) 2011-06-20 2015-10-27 Kabushiki Kaisha Toshiba Facial image search system and facial image search method
WO2015186341A1 (ja) * 2014-06-03 2015-12-10 日本電気株式会社 画像処理システム、画像処理方法及びプログラム記憶媒体
JP2017028655A (ja) * 2015-07-28 2017-02-02 日本電気株式会社 追跡システム、追跡方法および追跡プログラム
JP2017117139A (ja) * 2015-12-24 2017-06-29 キヤノンマーケティングジャパン株式会社 情報処理装置、制御方法、プログラム
WO2017122258A1 (ja) * 2016-01-12 2017-07-20 株式会社日立国際電気 混雑状況監視システム
WO2018163243A1 (ja) * 2017-03-06 2018-09-13 三菱電機株式会社 物体追跡装置及び物体追跡方法
JP2019003334A (ja) * 2017-06-13 2019-01-10 コニカミノルタ株式会社 物体追跡方法、物体追跡プログラム、および物体追跡システム
WO2019244360A1 (ja) * 2018-06-22 2019-12-26 株式会社日立製作所 計測情報処理装置
JP2020034363A (ja) * 2018-08-29 2020-03-05 沖電気工業株式会社 信号追尾装置、信号追尾システム、信号追尾方法およびプログラム
JPWO2020183855A1 (ja) * 2019-03-14 2020-09-17
CN112333419A (zh) * 2020-08-21 2021-02-05 深圳Tcl新技术有限公司 监控追踪方法、装置、系统与计算机可读存储介质
WO2021192007A1 (ja) * 2020-03-24 2021-09-30 三菱電機株式会社 顔検出装置
JP7411752B1 (ja) 2022-09-28 2024-01-11 三菱電機インフォメーションシステムズ株式会社 置去人特定装置、置去人特定方法及び置去人特定プログラム

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9171012B2 (en) 2011-06-20 2015-10-27 Kabushiki Kaisha Toshiba Facial image search system and facial image search method
KR101288388B1 (ko) 2012-04-04 2013-07-22 국방과학연구소 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법
JP2014085795A (ja) * 2012-10-23 2014-05-12 Toshiba Corp 学習画像収集装置、学習装置及び対象物検出装置
US11003961B2 (en) 2014-06-03 2021-05-11 Nec Corporation Image processing system, image processing method, and program storage medium
WO2015186341A1 (ja) * 2014-06-03 2015-12-10 日本電気株式会社 画像処理システム、画像処理方法及びプログラム記憶媒体
JPWO2015186341A1 (ja) * 2014-06-03 2017-05-25 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
JP2017028655A (ja) * 2015-07-28 2017-02-02 日本電気株式会社 追跡システム、追跡方法および追跡プログラム
JP2017117139A (ja) * 2015-12-24 2017-06-29 キヤノンマーケティングジャパン株式会社 情報処理装置、制御方法、プログラム
WO2017122258A1 (ja) * 2016-01-12 2017-07-20 株式会社日立国際電気 混雑状況監視システム
US10346688B2 (en) 2016-01-12 2019-07-09 Hitachi Kokusai Electric Inc. Congestion-state-monitoring system
JPWO2017122258A1 (ja) * 2016-01-12 2018-11-22 株式会社日立国際電気 混雑状況監視システム及び混雑状況監視方法
JPWO2018163243A1 (ja) * 2017-03-06 2019-11-07 三菱電機株式会社 物体追跡装置及び物体追跡方法
GB2573703A (en) * 2017-03-06 2019-11-13 Mitsubishi Electric Corp Object tracking device and object tracking method
GB2573703B (en) * 2017-03-06 2020-09-09 Mitsubishi Electric Corp Object tracking device and object tracking method
US11074698B2 (en) 2017-03-06 2021-07-27 Mitsubishi Electric Corporation Object tracking device and object tracking method
WO2018163243A1 (ja) * 2017-03-06 2018-09-13 三菱電機株式会社 物体追跡装置及び物体追跡方法
JP2019003334A (ja) * 2017-06-13 2019-01-10 コニカミノルタ株式会社 物体追跡方法、物体追跡プログラム、および物体追跡システム
JPWO2019244360A1 (ja) * 2018-06-22 2021-02-15 株式会社日立製作所 計測情報処理装置
WO2019244360A1 (ja) * 2018-06-22 2019-12-26 株式会社日立製作所 計測情報処理装置
JP2020034363A (ja) * 2018-08-29 2020-03-05 沖電気工業株式会社 信号追尾装置、信号追尾システム、信号追尾方法およびプログラム
JP7067373B2 (ja) 2018-08-29 2022-05-16 沖電気工業株式会社 信号追尾装置、信号追尾システム、信号追尾方法およびプログラム
US11915433B2 (en) 2019-03-14 2024-02-27 Nec Corporation Object tracking system, tracking parameter setting method, and non-transitory computer readable medium
WO2020183855A1 (ja) * 2019-03-14 2020-09-17 日本電気株式会社 物体追跡システム、追跡パラメータ設定方法および非一時的なコンピュータ可読媒体
JPWO2020183855A1 (ja) * 2019-03-14 2020-09-17
JPWO2021192007A1 (ja) * 2020-03-24 2021-09-30
WO2021192007A1 (ja) * 2020-03-24 2021-09-30 三菱電機株式会社 顔検出装置
JP7345632B2 (ja) 2020-03-24 2023-09-15 三菱電機株式会社 顔検出装置
CN112333419A (zh) * 2020-08-21 2021-02-05 深圳Tcl新技术有限公司 监控追踪方法、装置、系统与计算机可读存储介质
JP7411752B1 (ja) 2022-09-28 2024-01-11 三菱電機インフォメーションシステムズ株式会社 置去人特定装置、置去人特定方法及び置去人特定プログラム

Also Published As

Publication number Publication date
JP5459674B2 (ja) 2014-04-02

Similar Documents

Publication Publication Date Title
JP5459674B2 (ja) 移動物体追跡システムおよび移動物体追跡方法
US20180342067A1 (en) Moving object tracking system and moving object tracking method
JP6018674B2 (ja) 被写体再識別のためのシステム及び方法
JP5001260B2 (ja) オブジェクト追跡方法及びオブジェクト追跡装置
KR101972918B1 (ko) 영상 마스킹 장치 및 영상 마스킹 방법
KR101910542B1 (ko) 객체 검출을 위한 영상분석 서버장치 및 방법
JP6654789B2 (ja) 変化点で複数候補を考慮して物体を追跡する装置、プログラム及び方法
CN110399835B (zh) 一种人员停留时间的分析方法、装置及系统
CN111402294A (zh) 目标跟踪方法、装置、计算机可读存储介质和计算机设备
JP2018055607A (ja) イベント検知プログラム、イベント検知装置、及びイベント検知方法
AU2015203666A1 (en) Methods and systems for controlling a camera to perform a task
CN113192105B (zh) 一种室内多人追踪及姿态估量的方法及装置
KR102511287B1 (ko) 영상 기반 자세 예측 및 행동 검출 방법 및 장치
US20220366570A1 (en) Object tracking device and object tracking method
JPWO2008035411A1 (ja) 移動体情報検出装置、移動体情報検出方法および移動体情報検出プログラム
CN116402852A (zh) 基于事件相机的动态高速目标追踪方法及装置
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
CN113903066A (zh) 轨迹生成方法、系统、装置及电子设备
JP2021149687A (ja) 物体認識装置、物体認識方法及び物体認識プログラム
CN115767424A (zh) 一种基于rss与csi融合的视频定位方法
TWI730795B (zh) 多目標人體體溫追蹤方法及系統
CN112541403A (zh) 一种利用红外摄像头的室内人员跌倒检测方法
JP7243372B2 (ja) 物体追跡装置および物体追跡方法
CN113793362A (zh) 基于多镜头视频的行人轨迹提取方法和装置
JP2021196934A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130213

TRDD Decision of grant or rejection written
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131205

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140107

R151 Written notification of patent or utility model registration

Ref document number: 5459674

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151