JP5077164B2 - 追跡装置及び追跡方法 - Google Patents

追跡装置及び追跡方法 Download PDF

Info

Publication number
JP5077164B2
JP5077164B2 JP2008236746A JP2008236746A JP5077164B2 JP 5077164 B2 JP5077164 B2 JP 5077164B2 JP 2008236746 A JP2008236746 A JP 2008236746A JP 2008236746 A JP2008236746 A JP 2008236746A JP 5077164 B2 JP5077164 B2 JP 5077164B2
Authority
JP
Japan
Prior art keywords
tracking
person
candidate
information
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008236746A
Other languages
English (en)
Other versions
JP2010072723A (ja
Inventor
隆義 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2008236746A priority Critical patent/JP5077164B2/ja
Publication of JP2010072723A publication Critical patent/JP2010072723A/ja
Application granted granted Critical
Publication of JP5077164B2 publication Critical patent/JP5077164B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、動画像中の人物の動きを追跡し記録する技術に関する。
監視カメラや店内カメラなどで得られた動画像を用いて、その動画像に写る不特定多数の人物の動きを自動で追跡し記録する技術が注目されている。この種の技術では、一般に、人の顔が検出・追跡の対象として用いられるが、顔が障害物や他人の陰に隠れてしまった場合や、顔が横又は後ろを向いてしまった場合などには、顔の検出や追跡が困難になるという課題がある。
このような課題を解決するための一手法として、本出願人は、追跡過程で追跡対象の顔が見えなくなった場合に、顔の周囲の情報(服の色や形など)から顔の位置を推定し、その推定位置を用いて追跡を継続するという方法を提案している(特許文献1参照)。
しかしながら、従来の方法は、追跡中の人物をいかに見失わないようにするかという点に注目したものであるため、次のようなケースに対応できない。
ある人物が動画像に写り始めたとしても、その人物の追跡が直ちに開始されるとは限らない。顔が隠れていたり、正面を向いていなかったり、小さかったりすると、顔を検出することができず、新たな追跡対象者が動画像に現れたことを装置が認識できないからである。このような場合は、その人物の顔がはっきりと認識されるようになってはじめて追跡処理がスタートするため、その人物の登場から顔検出に成功するまでの間の動き情報を捉えることができない。特に、多数の人物が写る画像では、顔の隠れが起こる可能性が大きいため、このような動き情報の欠落が顕著になる。なお、顔検出の判定を甘くすればある程度早い段階で顔を検出することも可能になるが、その場合には、誤検出及び誤追跡が増加してしまうため装置自体の信頼性が低下するという弊害が生じる。
特開2007−42072号公報
本発明は上記実情に鑑みてなされたものであって、その目的とするところは、動画像中の人物の追跡処理を可及的に早い段階から高い信頼性をもって実行可能な技術を提供することにある。
上記目的を達成するため、本発明は以下のような手段ないし処理を採用する。
本発明に係る追跡装置は、動画像中の人物の動きを追跡し記録する追跡装置であって、順次入力される各フレームの画像から、人物と、人物か否か確定できない対象である候補
とを検出する検出手段と、人物を追跡対象とする追跡処理を実行する人物追跡手段と、候補を追跡対象とする追跡処理を実行する候補追跡手段と、追跡対象とされた人物の位置情報の履歴を記録した情報である、人物の追跡情報と、追跡対象とされた候補の位置情報の履歴を記録した情報である、候補の追跡情報とを記憶する記憶手段と、前記記憶手段の追跡情報を更新する更新手段と、を備え、前記更新手段は、前記検出手段によって現在のフレームの画像から検出された人物の中に、前記候補追跡手段により追跡対象とされている候補と同一の対象と評価される人物が存在した場合に、現在のフレームまでに前記記憶手段に蓄積された当該候補の追跡情報を人物の追跡情報へと変更する。
この構成によれば、明らかに人と判る対象(「人物」)だけでなく、顔が隠れているなどして人か否かの判別が難しいグレーゾーンの対象(「候補」)についても、直ちに追跡処理が開始され、追跡情報の記録が行われる。そして、「候補」として追跡している最中に、その「候補」が「人物」であったと判明した時点で、「候補」の追跡情報として記録していた情報が「人物」の追跡情報へと変更される。以降は、「人物」として追跡処理が継続されることとなる。したがって、人か否かの判別が難しい時点から、当該人物の動きを追跡し記録することが可能となる。なお、人以外のものが「候補」として検出され、追跡処理が行われることもあるが、その場合は、「候補」から「人物」へと転じることがないため、「人物」の追跡情報の信頼性を低下させることはない。すなわち、本発明の構成によると、追跡処理を可及的に早い段階から開始し、且つ、誤検出や誤追跡による信頼性低下は抑制する、という相反する目的を同時満足することが可能となる。
前記更新手段は、現在のフレームの画像から前記検出手段によって検出された人物の中に、前記人物追跡手段により追跡対象とされている人物と同一の対象と評価される人物が存在した場合に、当該人物の現在のフレームにおける位置情報を前記記憶手段の追跡情報に追加することが好ましい。
従来は、現在のフレームにおける追跡が成功したら、当該人物の追跡情報を更新することが一般的であった。これに対して、本発明では、現在のフレームの画像に対して追跡処理と検出処理の両方を行い、追跡対象の人物について追跡と検出の両方が成功した場合に、当該人物の追跡情報を更新する構成を採用している。したがって、従来よりも誤追跡の少ない、信頼性の高い追跡結果を提供することができる。
また、前記更新手段は、現在のフレームの画像から前記検出手段によって検出された人物及び候補の中に、前記候補追跡手段により追跡対象とされている候補と同一の対象と評価される人物又は候補が存在した場合に、当該候補の現在のフレームにおける位置情報を前記記憶手段の追跡情報に追加することが好ましい。
このように、候補の追跡の場合についても、現在のフレームの画像に対して追跡処理と検出処理の両方を行い、当該候補について追跡と検出の両方が成功した場合に、当該候補の追跡情報を更新する構成を採用することで、誤追跡の少ない、信頼性の高い追跡結果を提供することができる。
前記更新手段は、前記検出手段により検出された位置を用いて、前記記憶手段の追跡情報に追加する位置情報を求めることが好ましい。
追跡処理によって特定される人物(又は候補)の位置(追跡位置)と、検出処理によって特定される人物(又は候補)の位置(検出位置)とのあいだに多少の差が存在することがある。一般には、追跡位置よりも検出位置のほうが精度を期待できる。そこで、本発明のように、検出位置を用いて追跡情報に記録する位置情報を決定することにより、追跡結果の信頼性を向上することができる。
前記検出手段は、検出した対象をその検出結果の信頼度とともに出力する検出器を複数種類備えており、少なくともいずれか1つの検出器の検出結果の信頼度が閾値以上の場合に前記検出した対象が人物であると判定し、すべての検出器の検出結果の信頼度が閾値より小さい場合に前記検出した対象が候補であると判定することが好ましい。
複数種類の検出器を用いることにより、人物の可能性がある対象を漏れなく検出できるようになるものと期待できる。
前記検出手段は、前記複数種類の検出器を1つずつ順番に実行し、閾値以上の信頼度をもつ検出結果が得られた時点で検出処理を止めることが好ましい。
これにより、検出器の実行回数を可及的に少なくできるので、検出処理に要する時間を短縮することができる。
前記複数種類の検出器は、頭部を検出する検出器と顔を検出する検出器を含んでおり、前記頭部を検出する検出器が前記顔を検出する検出器よりも先に実行されることが好ましい。
顔検出よりも処理時間の短い頭部検出を先に実行することで、頭部検出の結果のみで人物と判定可能なものについての顔検出処理を省略できるため、検出処理に要する時間の短縮が可能となる。
前記候補追跡手段は、前記候補が最初に検出されたフレームから所定期間後に該候補の追跡処理を止めることが好ましい。
つまり、所定期間のあいだに「候補」から「人物」への変更が行われなかった場合には、その「候補」は人以外のものであるとみなされ、追跡対象から除かれるのである。これにより無駄な追跡処理を減らし、処理時間の短縮を図ることができる。
なお、本発明は、上記手段の少なくとも一部を含む追跡装置または追跡システムとして捉えてもよいし、上記処理の少なくとも一部を含む追跡方法またはその追跡方法をコンピュータに実行させるためのプログラムやそのプログラムを記録したコンピュータ読み取り可能な記録媒体として捉えることもできる。上記手段及び上記処理は、可能な限りどのような組み合わせをとることもできる。
例えば、本発明に係る追跡方法は、動画像中の人物の動きを追跡し記録する追跡方法であって、コンピュータが、順次入力される各フレームの画像から、人物と、人物か否か確定できない対象である候補とを検出する検出ステップと、コンピュータが、人物を追跡対象とする追跡処理を実行する人物追跡ステップと、コンピュータが、候補を追跡対象とする追跡処理を実行する候補追跡ステップと、コンピュータが、追跡対象とされた人物の位置情報の履歴を記録した情報である、人物の追跡情報と、追跡対象とされた候補の位置情報の履歴を記録した情報である、候補の追跡情報とを記憶装置に記憶させる記憶ステップと、コンピュータが、前記記憶装置の追跡情報を更新する更新ステップと、を有し、前記更新ステップでは、前記検出ステップにおいて現在のフレームの画像から検出された人物の中に、前記候補追跡ステップにより追跡対象とされている候補と同一の対象と評価される人物が存在した場合に、現在のフレームまでに前記記憶装置に蓄積された当該候補の追跡情報を人物の追跡情報へと変更することを特徴とする。
本発明によれば、動画像中の人物の追跡処理を可及的に早い段階から高い信頼性をもって実行することができる。
以下に図面を参照して、この発明の好適な実施の形態を例示的に詳しく説明する。
(全体構成)
図1は本発明の実施形態に係る追跡装置の機能構成を示すブロック図である。まずは図1を用いて、追跡装置の機能構成を説明する。
この追跡装置は、カメラや記録媒体(いずれも不図示)から動画像(入力画像)を取り込み、その動画像に写る不特定の人物の動きを自動で追跡し記録するための装置である。動画像中に複数の人物が写っている場合には、人物毎にIDが付与され、各人物の動きの情報が個別に追跡・記録される。このような追跡装置は、例えば、監視カメラの映像から侵入者や入場者の動きや数を解析する装置、店内カメラの映像から顧客の動線を解析する装置など、様々な用途に応用可能である。
追跡装置は、図1に示すように、その機能として、検出処理部10、追跡処理部20、統合処理部30、追跡情報データベース40を備えている。図示しないが、動画像を撮影するためのカメラや、動画像及び追跡結果を出力するための表示部などを設けることも好ましい。これらの機能要素は、演算処理装置(コンピュータ)がソフトウエア(プログラム)を実行し、必要に応じて、カメラ、メモリ、ディスプレイなどのハードウエア資源を制御することで実現される。ただし、これらの機能要素の少なくとも一部を専用のチップで構成しても構わない。
(検出処理部)
検出処理部10は、順次入力される各フレームの画像から「人物」と「候補」とを検出する機能(検出手段)である。ここで「人物」とは、検出処理部10によって検出される対象のうち、人(人間)であると判定された対象をいい、「候補」とは、人物か否かを確定できない対象をいう。
検出処理部10は、頭部検出器11、顔検出器12、上半身検出器13の3種類の検出器を備えている。これらの検出器11〜13は互いに異なるアルゴリズム(あるいは特徴量)を用いて、人物検出処理を行う機能である。各検出器は、画像の中から、人物の可能性がある対象(領域)をすべて検出し、その検出した対象を検出結果の信頼度とともに出力する。信頼度とは、その検出した対象が人物である確率(人物らしさ)を表すスコアであり、信頼度が大きいほど人物である可能性が高いことを示している。本実施形態においては、複数種類の検出器11〜13を用い、少なくとも1つの検出器で高い信頼度の検出結果が得られたら「人物」と判定し、すべての検出器の信頼度が低い場合に「候補」と判定する。これにより、人物の可能性がある対象を漏れなく検出することができる。
ここで、3つの検出器11〜13は同時に(並列に)実行されるのではなく、図1に示すように、頭部検出器11→顔検出器12→上半身検出器13の順番で1つずつ実行される。もしいずれかの検出器で「人物」と判定されたら、その時点で検出処理を止め、残りの検出器の処理は省略する。これにより、検出器の実行回数を可及的に少なくし、検出処理に要する時間を短縮する。
検出器の処理順は、各検出器の特性を考慮して決定する。混雑や顔の向き変化による人体の隠れが発生する状況において、人物の中で最も検出しやすい部位は頭部である。例えば、帽子やサングラスをつけていたり、顔が横を向いていたり、照明の具合により顔器官がはっきり写っていなかったりすると、顔の検出は困難である。また人体が重なっている場合には上半身の検出ができないこともある。しかし、そのような画像であっても、頭部の輪郭が明瞭に写っていれば頭部検出が可能である。また頭部検出のアルゴリズムは比較的単純であり、処理時間も短いという利点がある。そこで本実施形態では、まず頭部検出器11による頭部検出処理を実行する。頭部検出で得られた信頼度が十分に高い場合は、頭部検出の結果のみで「人物」であると判断する。ただし、頭部検出は、楕円形状の物体などを頭部として誤検出しやすい傾向にあるので、「人物」か否かを判断する閾値は高めに設定することが好ましい。
顔検出器12は、顔器官の特徴などを用いて顔か否かを検出する機能であり、画像に顔
が鮮明に写っている場合には3つの検出器の中で最も誤検出が少ないという利点がある。ただし、頭部検出に比べて処理時間を要すること、また照明や顔の向きなどの条件に影響を受けやすいことなどから、頭部検出の信頼性が低い場合にのみ実行する2次的な検出器として用いる。
上半身検出器13は、上半身の輪郭などに着目して人体か否かを検出する機能である。頭部検出と同様、アルゴリズムは比較的単純であり、処理時間も短いという利点がある。また、画像中の人物のサイズが小さい場合や、帽子や顔の向きや照明条件などにより顔の判別がつきづらい場合でも、上半身の検出は可能なことが多い。そこで、本実施形態では、顔検出の信頼性が低い場合に実行する3次的な検出器として上半身検出器13を用いる。
なお、用いる検出器の種類(アルゴリズム)、数、順番などは、本実施形態で示したものに限らず、適宜変更してもかまわない。例えば、頭部検出器と顔検出器の2種類だけを用いてもよいし、4種類以上の検出器を組み合わせてもよい。また処理時間よりも検出精度を優先するのであれば、信頼度の高低によらずすべての検出器を実行し、それらの検出結果を総合して「人物」か「候補」かの判断をしてもよい。
検出器の具体的なアルゴリズムや検出器の作成手法に関しては、従来公知の技術を利用することができる。例えば、数多くのサンプル画像(頭部検出器であれば、頭部が写っている画像と、頭部が写っていない画像を用意する)を用いて、Real AdaBoostのようなBoosting手法により特徴量の傾向を学習することで、検出器が作成される。特徴量としては、例えば、HoG(Histogram of Gradient)特徴量、Sparse特徴量、Haar特徴量などどのような種類の特徴量も用いることができる。また学習手段も、Boosting手法のほか、SVM(サポートベクタマシン)、ニューラルネットワークなどを利用することも可能である。
検出処理部10の検出結果は、追跡情報DB40内の検出情報DB41に記録される。検出結果には、検出された対象ごとに、画像中の位置及びサイズ、信頼度、人物フラグ(人物の場合にON、候補の場合にOFF)が含まれる。
(追跡処理部)
追跡処理部20は、「人物」を追跡対象とする追跡処理を実行する人物追跡器21(人物追跡手段)と、「候補」を追跡対象とする追跡処理を実行する候補追跡器22(候補追跡手段)とから構成される。
人物追跡器21が追跡対象とする人物の情報(追跡人物情報)は、追跡情報DB40内の追跡人物情報DB42に記録されている。この追跡人物情報には、追跡対象のID、画像中の位置及びサイズ(追跡が続いているフレーム数分の移動履歴が蓄積される)、特徴量、人物フラグが含まれる。
人物追跡器21は、追跡人物情報を参照しつつ、各追跡対象に対する追跡処理を実行する。追跡処理とは、現在のフレームの画像の中から、前のフレームにおける追跡対象と位置、サイズ、特徴量などが類似する対象(領域)を探索する処理である。追跡処理がフレーム間の類似性を利用して追跡対象を探索するのに対し、前述の検出処理は1つのフレームの画像から頭部、顔、上半身などを探索する処理である点で、両者は異なっている。
一方、候補追跡器22が追跡対象とする候補の情報(追跡候補情報)は、追跡情報DB40内の追跡候補情報DB43に記録されている。この追跡候補情報には、追跡対象のID、画像中の位置及びサイズ、特徴量、人物フラグが含まれる。なお、追跡対象IDは、
人物であるか候補であるかにかかわらず、一意の番号が振られるようにする。
候補追跡器22は、追跡候補情報を参照しつつ、各追跡対象に対する追跡処理を実行する。追跡対象が異なるだけで、具体的な追跡アルゴリズムは人物追跡器21と共通である。ただし、候補追跡器22は、候補の追跡処理を所定期間(例えば、当該候補が最初に検出されたフレームから10フレーム)しか継続しないこととする。このような制限を設けたのは、人物以外のものに対する無駄な追跡処理を減らし、処理時間の短縮を図るためである。なお、後述するように、この10フレーム期間の間に、当該候補が人物であったことが判明した場合は、処理が人物追跡器21に引き継がれるため、追跡処理が継続される。
追跡器の具体的なアルゴリズムや追跡器の作成手法に関しては、従来公知の技術を利用することができる。例えば、追跡方法としては、Particle Filter、mean shift、Online Boostingなどを利用することができる。フレーム間の比較には、前のフレームで得られたテンプレート、色情報、検出器から得られた特徴量などを利用できる。
(統合処理部)
統合処理部30は、検出処理部10の検出結果と追跡処理部20の追跡結果とを統合し、追跡情報DB40内の追跡人物情報DB42及び追跡候補情報DB43の内容を更新する機能(更新手段)である。統合処理部30は、図1に示すように、検出−人物追跡結果統合部31、検出−候補追跡結果統合部32、人物−候補結果統合部33を備えている。
検出−人物追跡結果統合部31の主な機能は、検出処理部10によって検出された「人物」と人物追跡器21により追跡中の「人物」とを同定する機能、追跡人物情報DB42に記録されている追跡人物情報を更新する機能、検出処理部10によって新しく検出された「人物」を追跡人物情報DB42に登録する機能である。また、検出−候補追跡結果統合部32の主な機能は、検出処理部10によって検出された対象(「人物」と「候補」の両方を含む)と候補追跡器22により追跡中の「候補」とを同定する機能、追跡候補情報DB43に記録されている追跡候補情報を更新する機能、検出処理部10によって新しく検出された「候補」を追跡候補情報DB43に登録する機能である。また、人物−候補結果統合部33の主な機能は、追跡人物情報DB42と追跡候補情報DB43への重複登録を解消する機能、追跡中の「候補」が「人物」であったことが判明した場合に追跡候補情報を追跡人物情報へ変更する機能などである。これらの機能の詳細については後述する。
(追跡処理の例)
では、フローチャートと画像例を参照して、本実施形態の追跡装置における追跡処理の流れを説明する。以下に述べる(1)検出処理、(2)追跡処理、及び、(3)統合処理は、フレーム毎に実行される。
(1)検出処理
図2は、検出処理の流れを示すフローチャートである。あるフレームの画像が入力されると、まず頭部検出器11が入力画像から頭部を検出する(S30)。そして、S32〜S39の処理が、検出されたN個の頭部のそれぞれについて実行される(S31)。S32では、頭部nIに関して、頭部検出の信頼度Conf1が閾値TH1と比較される。頭部検出の信頼度Conf1が高い場合(S32;NO)は、頭部nIの人物フラグをONに設定し(S33)、検出結果(画像中の位置・サイズ、信頼度、人物フラグ)を検出情報DB41へ記録する(S34)。
S32において、頭部検出の信頼度Conf1が閾値TH1より低かった場合には、顔
検出器12が、頭部nIを中心とする所定範囲の中から、顔の検出を行う(S35)。ここで顔検出範囲を頭部nIの近傍に制限することにより、顔検出処理に要する時間を短縮できる。次に、S36において、顔検出の信頼度Conf2が閾値TH2と比較される。信頼度Conf2が高い場合(S36;NO)は、人物フラグをONに設定し(S33)、検出結果を検出情報DB41へ記録する(S34)。
S36において、顔検出の信頼度Conf2が閾値TH2より低かった場合には、上半身検出器13が、頭部nIを基準とする所定範囲の中から、上半身の検出を行う(S37)。ここでも上半身検出範囲を制限することで、処理時間の短縮を図っている。S38において、上半身検出の信頼度Conf3が閾値TH3と比較される。信頼度Conf3が高い場合(S38;NO)は、人物フラグをONに設定し(S33)、検出結果を検出情報DB41へ記録する(S34)。
S38において、上半身検出の信頼度Conf3が閾値TH3より低かった場合には、人物フラグをOFFに設定し(S39)、検出結果を検出情報DB41へ記録する(S34)。
上記フローにより、入力画像に含まれるすべての「人物」及び「候補」の検出結果が検出情報DB41に記録される。図3は、入力画像と検出結果の一例を示している。この画像には二人の人物が写っている。前方の人物Aは「人物」(人物フラグ=ON)として認識されているが、後方の人物Bは体の一部が隠れている関係で「候補」(人物フラグ=OFF)となっている。また、人間以外の物体Cも「候補」として検出されている。
(2)追跡処理
図4は、人物追跡処理の流れを示すフローチャートである。画像が入力されると、人物追跡器21は追跡人物情報DB42から追跡人物情報を取得する(S50)。そして、S52〜S56の処理が、追跡対象とされている人物の数だけ繰り返される(S51)。図3の例では、追跡対象の数Mは1(追跡対象ID:001)である。
S52では、人物追跡器21が、追跡対象nJの追跡処理を実行する。具体的には、追跡人物情報DB42から読み込んだ追跡対象nJの位置、サイズ、特徴量(これらは1つ前のフレームの画像から得られた情報である)をもとに、現在のフレームの画像の中から追跡対象nJを探索する。追跡が成功した場合は(S53;YES)、追跡成功フラグをONに設定し(S54)、追跡結果として現在のフレームにおける位置、追跡成功フラグなどの情報を出力する(S56)。一方、追跡が失敗した場合は(S53;NO)、追跡成功フラグをOFFに設定し(S55)、追跡結果を出力する(S56)。ここで出力された追跡結果は、後述する検出−人物追跡結果統合部31の統合処理に利用される。
図5は、候補追跡処理の流れを示すフローチャートである。画像が入力されると、候補追跡器22は追跡候補情報DB43から追跡候補情報を取得する(S60)。そして、S62〜S67の処理が、追跡対象とされている候補の数だけ繰り返される(S61)。図3の例では、追跡対象の数Pは2(追跡対象ID:002,003)である。
S62では、候補追跡器22が、追跡対象nKの追跡回数を調べる。追跡回数は、例えば、追跡候補情報に記録された位置の履歴数などから簡単に調べることができる。もし追跡回数が10回に達していたら(S62;NO)、候補追跡器22は追跡処理を実行せずに、追跡対象nKの追跡成功フラグをOFFに設定する(S66)。これにより候補の追跡を最大でも10フレームの期間に制限している。
S63では、候補追跡器22が、追跡対象nKの追跡処理を実行する。具体的には、追
跡候補情報DB43から読み込んだ追跡対象nKの位置、サイズ、特徴量(これらは1つ前のフレームの画像から得られた情報である)をもとに、現在のフレームの画像の中から追跡対象nKを探索する。追跡が成功した場合は(S64;YES)、追跡成功フラグをONに設定し(S65)、追跡結果(現在のフレームにおける位置、追跡成功フラグなど)を出力する(S67)。一方、追跡が失敗した場合は(S64;NO)、追跡成功フラグをOFFに設定し(S66)、追跡結果を出力する(S67)。ここで出力された追跡結果は、後述する検出−候補追跡結果統合部32の統合処理に利用される。
上記フローにより、追跡対象とされているすべての「人物」(追跡対象ID:001)及び「候補」(追跡対象ID:002,003)について、追跡処理が実行される。なお図4の処理と図5の処理は並列に実行されてもよいし、順番に実行されてもよい。
(3)統合処理
図6は、検出−人物追跡結果統合処理の流れを示すフローチャートである。
検出−人物追跡結果統合部31は、人物追跡器21から出力された人物追跡結果(図4のS56参照)を受け取ると、各追跡対象の追跡成功フラグを調べ、追跡成功フラグがOFFの追跡対象の情報を追跡人物情報DB42から削除する(S71)。
次に、検出−人物追跡結果統合部31は、検出情報DB41から検出結果を取得する(S72)。そして、人物フラグがONの検出結果(つまり、検出処理部10によって検出された「人物」のそれぞれ)に対して、S75〜S78の処理が繰り返される(S73、S74)。
S75では、検出された人物nIと、追跡成功フラグがONの追跡対象(人物)との同定が行われる。例えば、検出処理によって特定された人物nIの位置と人物追跡処理によって特定された追跡対象の位置とのあいだの距離が所定の閾値より小さい場合に、両者が同一の対象であると判断すればよい。また位置だけでなく、サイズの比較や、特徴量の比較を行ってもよい。
同一の対象が存在した場合(S76;YES)、検出−人物追跡結果統合部31は、当該追跡対象の現在のフレームにおける位置情報を追跡人物情報DB42に追加する(S77)。このとき、人物追跡によって特定された位置(追跡位置)をそのまま記録するのではなく、検出処理によって特定された位置(検出位置)を用いてDBに記録する位置情報を求めるとよい。具体的には、検出位置を記録してもよいし、あるいは、検出位置と追跡位置の平均(中間点)を記録してもよい。一般に、追跡位置と検出位置とのあいだに多少の差が存在するが、追跡位置よりも検出位置のほうが精度を期待できるからである。本実施形態のように検出位置を用いて追跡対象の位置を決定(あるいは補正)することにより、追跡の成功率および追跡結果の信頼性を向上することができる。
一方、同一の対象が存在しなかった場合(S76;NO)、検出−人物追跡結果統合部31は、人物nIに新規の追跡対象IDを振り当てて、追跡人物情報DB42に新規登録する(S78)。
図7は、検出−候補追跡結果統合処理の流れを示すフローチャートである。
検出−候補追跡結果統合部32は、候補追跡器22から出力された候補追跡結果(図5のS67参照)を受け取ると、各追跡対象の追跡成功フラグを調べ、追跡成功フラグがOFFの追跡対象の情報を追跡候補情報DB43から削除する(S81)。
次に、検出−候補追跡結果統合部32は、検出情報DB41から検出結果を取得する(S82)。そして、すべての検出結果(つまり、検出処理部10によって検出された「人物」及び「候補」のそれぞれ)に対して、S84〜S88の処理が繰り返される(S83)。
S84では、検出された対象(人物又は候補)nIと、追跡成功フラグがONの追跡対象(候補)との同定が行われる。この場合も、図6のS75と同様、位置、サイズ、特徴量などを比較することにより、同一の対象か否かを判断すればよい。
同一の対象が存在した場合(S85;YES)、検出−候補追跡結果統合部32は、当該追跡対象の現在のフレームにおける位置情報を追跡候補情報DB43に追加する(S86)。この場合も、追跡位置をそのまま記録するのではなく、検出位置、あるいは、検出位置と追跡位置の平均を記録するとよい。さらに、検出−候補追跡結果統合部32は、対象nIの人物フラグにあわせて、追跡候補情報DB43の人物フラグも更新する。ここで、対象nIの人物フラグがONであるということは、今まで「候補」として追跡していた対象が「人物」であったことが判明したということを意味する。このようなケースは、例えば、人物の位置関係が図3の状態から図8の状態に変化し、後方の人物の顔や上半身がはっきりと認識できるようになった場合などに起こり得る。
一方、同一の対象が存在しなかった場合(S85;NO)、検出−候補追跡結果統合部32は、対象nIの人物フラグを調べ(S87)、人物フラグがOFFの場合に新規の追跡対象IDを振り当てて、追跡候補情報DB43に新規登録する(S88)。
図9は、人物−候補結果統合処理の流れを示すフローチャートである。
人物−候補結果統合部33は、追跡人物情報DB42から追跡対象とされている各人物の情報を取得し(S100)、追跡候補情報DB43から追跡対象とされている各候補の情報を取得する(S101)。そして、各候補nKについて、S103〜S106の処理が繰り返される(S102)。
S103では、候補nKと、S100で取得した追跡対象とされている人物との同定が行われる。この場合も図6のS75と同様、位置、サイズ、特徴量などを比較することにより、同一の対象か否かを判断すればよい。
候補nKと同一の人物が追跡人物情報DB42に存在した場合(S104;YES)、追跡候補情報DB43から当該候補nKの情報が削除される(S105)。このようなケースは、例えば、誤検出または誤追跡により同一人物が両方のDBに重複登録されてしまった場合や、二人の人が互いに近づいていき一方の人が他方の人の後ろに完全に隠れてしまった場合などに、起こり得る。
一方、S106では、人物−候補結果統合部33が、候補nKの人物フラグを調べる。候補nKの人物フラグがONの場合、つまり、図7のS84〜S86で「人物」であることが判明した「候補」の場合には、その候補nKの情報が追跡候補情報DB43から追跡人物情報DB42へと移される(S107)。これにより、候補として追跡し記録されていた情報が、人物の追跡情報へと変更される(図8参照)。候補nKは、次のフレームの処理から、「人物」として追跡処理が続行されることになる。
なお、図6の処理と図7の処理は並列に実行されてもよいし、順番に実行されてもよい。図9の処理は図6の処理と図7の処理が終了した後に実行されるものである。
(本装置の利点)
上記構成によれば、明らかに人と判る対象(「人物」)だけでなく、顔が隠れているなどして人か否かの判別が難しいグレーゾーンの対象(「候補」)についても、直ちに追跡処理が開始され、追跡情報の記録が行われる。そして、「候補」として追跡している最中に、その「候補」が「人物」であったと判明した時点で、「候補」の追跡情報として記録していた情報が「人物」の追跡情報へと変更される。以降は、「人物」として追跡処理が継続されることとなる。したがって、人か否かの判別が難しい時点から、当該人物の動きを追跡し記録することが可能となる。なお、人以外のものが「候補」として検出され、追跡処理が行われることもあるが、その場合は、「候補」から「人物」へと転じることがないため、「人物」の追跡情報の信頼性を低下させることはない。すなわち、本装置の構成によると、追跡処理を可及的に早い段階から開始し、且つ、誤検出や誤追跡による信頼性低下は抑制する、という相反する目的を同時満足することが可能となる。
また、フレーム毎に検出処理と追跡処理を実行し、検出と追跡の両方が成功した場合にのみ、当該追跡対象の追跡情報を更新するため、従来よりも誤追跡の少ない、信頼性の高い追跡結果を提供することができる。
なお上記構成は本発明の一具体例を示したものにすぎない。本発明の範囲は上記構成に限定されることはなく、その技術思想の範囲内で種々の変形が可能である。
図1は本発明の実施形態に係る追跡装置の機能構成を示すブロック図である。 図2は検出処理の流れを示すフローチャートである。 図3は入力画像、検出結果、追跡人物情報、及び追跡候補情報の例を示す図である。 図4は人物追跡処理の流れを示すフローチャートである。 図5は候補追跡処理の流れを示すフローチャートである。 図6は検出−人物追跡結果統合処理の流れを示すフローチャートである。 図7は検出−候補追跡結果統合処理の流れを示すフローチャートである。 図8は入力画像、検出結果、追跡人物情報、及び追跡候補情報の例を示す図である。 図9は人物−候補結果統合処理の流れを示すフローチャートである。
符号の説明
10 検出処理部
11 頭部検出器
12 顔検出器
13 上半身検出器
20 追跡処理部
21 人物追跡器
22 候補追跡器
30 統合処理部
31 検出−人物追跡結果統合部
32 検出−候補追跡結果統合部
33 人物−候補結果統合部
33 候補結果統合
40 追跡情報DB
41 検出情報DB
42 追跡人物情報DB
43 追跡候補情報DB

Claims (12)

  1. 動画像中の人物の動きを追跡し記録する追跡装置であって、
    順次入力される各フレームの画像から、人物と、人物か否か確定できない対象である候補とを検出する検出手段と、
    人物を追跡対象とする追跡処理を実行する人物追跡手段と、
    候補を追跡対象とする追跡処理を実行する候補追跡手段と、
    追跡対象とされた人物の位置情報の履歴を記録した情報である、人物の追跡情報と、追跡対象とされた候補の位置情報の履歴を記録した情報である、候補の追跡情報とを記憶する記憶手段と、
    前記記憶手段の追跡情報を更新する更新手段と、を備え、
    前記更新手段は、前記検出手段によって現在のフレームの画像から検出された人物の中に、前記候補追跡手段により追跡対象とされている候補と同一の対象と評価される人物が存在した場合に、現在のフレームまでに前記記憶手段に蓄積された当該候補の追跡情報を人物の追跡情報へと変更することを特徴とする追跡装置。
  2. 前記更新手段は、現在のフレームの画像から前記検出手段によって検出された人物の中に、前記人物追跡手段により追跡対象とされている人物と同一の対象と評価される人物が存在した場合に、当該人物の現在のフレームにおける位置情報を前記記憶手段の追跡情報に追加することを特徴とする請求項1に記載の追跡装置。
  3. 前記更新手段は、現在のフレームの画像から前記検出手段によって検出された人物及び候補の中に、前記候補追跡手段により追跡対象とされている候補と同一の対象と評価される人物又は候補が存在した場合に、当該候補の現在のフレームにおける位置情報を前記記憶手段の追跡情報に追加することを特徴とする請求項1又は2に記載の追跡装置。
  4. 前記更新手段は、前記検出手段により検出された位置を用いて、前記記憶手段の追跡情報に追加する位置情報を求めることを特徴とする請求項2又は3に記載の追跡装置。
  5. 前記検出手段は、検出した対象をその検出結果の信頼度とともに出力する検出器を複数
    種類備えており、少なくともいずれか1つの検出器の検出結果の信頼度が閾値以上の場合に前記検出した対象が人物であると判定し、すべての検出器の検出結果の信頼度が閾値より小さい場合に前記検出した対象が候補であると判定することを特徴とする請求項1〜4のうちいずれか1項に記載の追跡装置。
  6. 前記検出手段は、前記複数種類の検出器を1つずつ順番に実行し、閾値以上の信頼度をもつ検出結果が得られた時点で検出処理を止めることを特徴とする請求項5に記載の追跡装置。
  7. 前記複数種類の検出器は、頭部を検出する検出器と顔を検出する検出器を含んでおり、前記頭部を検出する検出器が前記顔を検出する検出器よりも先に実行されることを特徴とする請求項6に記載の追跡装置。
  8. 前記候補追跡手段は、前記候補が最初に検出されたフレームから所定期間後に該候補の追跡処理を止めることを特徴とする請求項1〜7のうちいずれか1項に記載の追跡装置。
  9. 動画像中の人物の動きを追跡し記録する追跡方法であって、
    コンピュータが、順次入力される各フレームの画像から、人物と、人物か否か確定できない対象である候補とを検出する検出ステップと、
    コンピュータが、人物を追跡対象とする追跡処理を実行する人物追跡ステップと、
    コンピュータが、候補を追跡対象とする追跡処理を実行する候補追跡ステップと、
    コンピュータが、追跡対象とされた人物の位置情報の履歴を記録した情報である、人物の追跡情報と、追跡対象とされた候補の位置情報の履歴を記録した情報である、候補の追跡情報とを記憶装置に記憶させる記憶ステップと、
    コンピュータが、前記記憶装置の追跡情報を更新する更新ステップと、を有し、
    前記更新ステップでは、前記検出ステップにおいて現在のフレームの画像から検出された人物の中に、前記候補追跡ステップにより追跡対象とされている候補と同一の対象と評価される人物が存在した場合に、現在のフレームまでに前記記憶装置に蓄積された当該候補の追跡情報を人物の追跡情報へと変更することを特徴とする追跡方法。
  10. 前記検出ステップでは、検出した対象をその検出結果の信頼度とともに出力する複数種類の検出器を用い、少なくともいずれか1つの検出器の検出結果の信頼度が閾値以上の場合に前記検出した対象が人物であると判定し、すべての検出器の検出結果の信頼度が閾値より小さい場合に前記検出した対象が候補であると判定することを特徴とする請求項9に記載の追跡方法。
  11. 前記候補が最初に検出されたフレームから所定期間後に該候補の追跡処理を止めることを特徴とする請求項9または10に記載の追跡方法。
  12. 請求項9〜11のうちいずれか1項に記載の追跡方法の各ステップをコンピュータに実行させるためのプログラム。
JP2008236746A 2008-09-16 2008-09-16 追跡装置及び追跡方法 Active JP5077164B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008236746A JP5077164B2 (ja) 2008-09-16 2008-09-16 追跡装置及び追跡方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008236746A JP5077164B2 (ja) 2008-09-16 2008-09-16 追跡装置及び追跡方法

Publications (2)

Publication Number Publication Date
JP2010072723A JP2010072723A (ja) 2010-04-02
JP5077164B2 true JP5077164B2 (ja) 2012-11-21

Family

ID=42204477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008236746A Active JP5077164B2 (ja) 2008-09-16 2008-09-16 追跡装置及び追跡方法

Country Status (1)

Country Link
JP (1) JP5077164B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3779772A4 (en) * 2018-03-28 2021-12-15 Tencent Technology (Shenzhen) Company Limited TRACTORY TRACKING PROCEDURES AND DEVICE AND COMPUTER DEVICE AND STORAGE MEDIUM

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5419585B2 (ja) * 2009-08-04 2014-02-19 キヤノン株式会社 画像処理装置および画像処理方法並びにプログラム
JP5829679B2 (ja) * 2011-04-18 2015-12-09 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 撮像装置、撮像装置の合焦制御方法、及び集積回路
JP5095850B1 (ja) * 2011-08-31 2012-12-12 株式会社東芝 オブジェクト探索装置、映像表示装置およびオブジェクト探索方法
JP2013098746A (ja) * 2011-10-31 2013-05-20 Jvc Kenwood Corp 撮像装置、撮像方法およびプログラム
WO2013136395A1 (ja) * 2012-03-12 2013-09-19 日本電気株式会社 検知装置、検知方法、プログラムが格納された記憶媒体
JP5964108B2 (ja) * 2012-03-30 2016-08-03 株式会社メガチップス 物体検出装置
JP5336017B2 (ja) * 2013-03-18 2013-11-06 キヤノン株式会社 撮像装置及び撮像方法
WO2015129152A1 (ja) 2014-02-26 2015-09-03 株式会社ソシオネクスト 画像認識システムおよび半導体集積回路
JP6512806B2 (ja) * 2014-12-08 2019-05-15 キヤノン株式会社 撮像装置
JP6540577B2 (ja) * 2016-03-31 2019-07-10 トヨタ自動車株式会社 物体認識装置
JP6977624B2 (ja) * 2018-03-07 2021-12-08 オムロン株式会社 物体検出装置、物体検出方法、およびプログラム
JP6943333B2 (ja) * 2018-03-23 2021-09-29 日本電気株式会社 オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム
US11948312B2 (en) * 2019-04-17 2024-04-02 Nec Corporation Object detection/tracking device, method, and program recording medium
US11875518B2 (en) 2019-04-25 2024-01-16 Nec Corporation Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium
JP2022503373A (ja) * 2019-09-29 2022-01-12 北京市商▲湯▼科技▲開▼▲發▼有限公司 データ処理方法、装置及び記憶媒体
JP7548079B2 (ja) 2021-03-12 2024-09-10 オムロン株式会社 物体追跡装置および物体追跡方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000105835A (ja) * 1998-07-28 2000-04-11 Hitachi Denshi Ltd 物体認識方法及び物体追跡監視装置
US7130446B2 (en) * 2001-12-03 2006-10-31 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
JP3916968B2 (ja) * 2002-02-26 2007-05-23 沖電気工業株式会社 動画像による人物追跡装置
JP2003346159A (ja) * 2002-05-28 2003-12-05 Oki Electric Ind Co Ltd 人物追跡方法及び人物追跡装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3779772A4 (en) * 2018-03-28 2021-12-15 Tencent Technology (Shenzhen) Company Limited TRACTORY TRACKING PROCEDURES AND DEVICE AND COMPUTER DEVICE AND STORAGE MEDIUM

Also Published As

Publication number Publication date
JP2010072723A (ja) 2010-04-02

Similar Documents

Publication Publication Date Title
JP5077164B2 (ja) 追跡装置及び追跡方法
JP7375101B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2020017190A1 (ja) 映像解析装置、人物検索システムおよび人物検索方法
US11270108B2 (en) Object tracking method and apparatus
US10242266B2 (en) Method and system for detecting actions in videos
JP6013241B2 (ja) 人物認識装置、及び方法
EP3002710A1 (en) System and method for object re-identification
Soomro et al. Online localization and prediction of actions and interactions
US8731238B2 (en) Multiple view face tracking
JP6385419B2 (ja) 物体検出装置
US10467461B2 (en) Apparatus for searching for object and control method thereof
JP2013210968A (ja) 物体検出装置及びその方法、プログラム
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
US20150205995A1 (en) Personal recognition apparatus that performs personal recognition using face detecting function, personal recognition method, and storage medium
US11836944B2 (en) Information processing apparatus, information processing method, and storage medium
US10592687B2 (en) Method and system of enforcing privacy policies for mobile sensory devices
CN104899544A (zh) 图像处理装置和图像处理方法
JP2021106330A (ja) 情報処理装置、情報処理方法、及びプログラム
JP7434914B2 (ja) 歩行者物品検出装置及び方法、電子機器
Feng et al. Tracking people by evolving social groups: an approach with social network perspective
Meena et al. Hybrid neural network architecture for multi-label object recognition using feature fusion
JP2016207106A (ja) 物体検出における誤検出低減方法および装置
Brauer Camera based human localization and recognition in smart environments
Doulamis et al. An architecture for a self configurable video supervision
Zhang et al. Orientation and occlusion aware multi-person pose estimation using multi-task deep learning network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120731

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120813

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150907

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5077164

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150