JP6377533B2 - オクルージョン発生時に専用の識別器を用いて物体を追跡する装置、プログラム及び方法 - Google Patents

オクルージョン発生時に専用の識別器を用いて物体を追跡する装置、プログラム及び方法 Download PDF

Info

Publication number
JP6377533B2
JP6377533B2 JP2015001115A JP2015001115A JP6377533B2 JP 6377533 B2 JP6377533 B2 JP 6377533B2 JP 2015001115 A JP2015001115 A JP 2015001115A JP 2015001115 A JP2015001115 A JP 2015001115A JP 6377533 B2 JP6377533 B2 JP 6377533B2
Authority
JP
Japan
Prior art keywords
tracking
occlusion
image
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015001115A
Other languages
English (en)
Other versions
JP2016126624A (ja
Inventor
有希 永井
有希 永井
智史 上野
智史 上野
有哉 巻渕
有哉 巻渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2015001115A priority Critical patent/JP6377533B2/ja
Publication of JP2016126624A publication Critical patent/JP2016126624A/ja
Application granted granted Critical
Publication of JP6377533B2 publication Critical patent/JP6377533B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体を撮影可能なカメラから取得される時系列画像群を解析して当該物体を追跡する物体追跡技術に関する。
監視やマーケティングの目的をもって、カメラで撮影され生成された時系列の画像群を用いて、移動する物体を追跡する技術が開発されている。追跡する物体としては、人物や乗り物等、撮影可能な様々なものが対象となる。この時系列画像群に基づく物体の追跡においては、追跡対象である物体が他の物体の背後に回ることもあり得る。この場合、撮影画像におけるこの物体の領域が他の物体の領域と重畳することで、この物体の一部又は全部が他の物体に隠れてしまい、これが原因となって、この物体の追跡を失敗してしまうという問題が生じることがある。
ここで、追跡対象である物体が他の物体と重なって撮影され、生成された撮影画像において、この物体の領域が他の物体の領域と重畳した状態となることを、オクルージョン(occlusion)と呼ぶ。従来、オクルージョンが発生しても正確に物体を追跡することができるように、様々な技術が考案されてきた。
例えば、特許文献1や非特許文献1には、物体追跡の問題を、時空間画像の領域分割であると捉えて解く手法が開示されている。特に、特許文献1に記載された技術では、時系列の各画像が複数のブロックに分割され、画像中の移動物体を示す識別符号がこの移動物体に対応するブロックに付され、次いで、時系列の各画像から抽出された移動物体の輪郭に基づいて、ブロックの識別符号が補正されることによって追跡が行われる。
また、特許文献2や特許文献3には、移動体を複数の部分に分割して追跡する手法が開示されている。例えば、特許文献2に記載された技術では、複数の移動物体が交差した状態が検知された際、交差した状態の生じる以前の画像を用いて、交差した状態となった移動物体の各々について複数のテンプレートを生成し、これら複数のテンプレートを用いて、交差した状態の移動物体の各々を追跡する。
特開2010−244207号公報 特開2008−250746号公報 特開2014−191393号公報
Chen, Sheng、Fern, Alan、及びTodorovic, Sinisa、「Multi-Object Tracking via Constrained Sequential Labeling」、Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (CVPR)、pp.4321-4328、2014
しかしながら、特許文献1〜3や非特許文献1に記載されたような従来技術では、カメラで生成された画像を即座に処理するオンライン処理によって、物体を追跡することが困難であるという問題が生じていた。
例えば、特許文献1や非特許文献1のように時空間画像を領域分割することによって物体追跡を図る技術では、撮りためられた時系列画像群から時間を遡って物体を追跡するため、刻々に生成される時系列画像群をオンラインで処理することが難しい。
また、特許文献2や特許文献3に記載されたような技術では、対象を複数の部分に分割して追跡することによりオクルージョンに対処するのであるが、各部分を的確に検出することは容易ではない。また、最終的に各部分を組み合わせて物体を構成しなければならないが、その際、各部分の対応付けを誤ることが多くなるとの問題も生じてしまう。
いずれにせよ、以上に述べたような従来技術をもってしても、又はそれらを組み合わせたとしても、オンライン処理によって物体を正確に追跡することは非常に困難であった。
そこで、本発明は、オクルージョンが発生した場合でも、対象物体の位置を即座に且つ正確に把握して追跡を行うことができる装置、プログラム及び方法を提供することを目的とする。
本発明によれば、追跡対象の物体を撮影可能な1つ以上のカメラから取得される時系列の画像群を用いて当該物体を追跡可能な装置であって、
当該物体を含む取得された画像を用いて当該物体についての学習を行う第1の識別器によって、物体識別対象の各画像における当該物体の領域を識別して当該物体を追跡する第1の物体追跡手段と、
識別された当該物体の領域にオクルージョン(occlusion)が発生しているか否かを判定するオクルージョン判定手段と、
オクルージョンが発生したと判定された場合、当該物体の領域におけるオクルージョンの及んでいないオクルージョン外領域を用いて当該物体についての学習を行う第2の識別器によって、物体識別対象の各画像における当該物体に係る部分を識別して当該物体を追跡する第2の物体追跡手段と
を有する物体追跡装置が提供される。
この本発明による物体追跡装置において、オクルージョンが発生したと判定された際、当該物体を追跡する手段を、第1の物体追跡手段から第2の物体追跡手段へ切り替える物体追跡制御手段を更に有することも好ましい。
また、本発明による物体追跡装置の一実施形態として、本物体追跡装置は、当該物体を撮影可能な複数のカメラの各々から時系列の画像群を取得可能であり、
物体追跡制御手段は、オクルージョンが発生したと判定された際、物体識別対象の画像において当該物体の領域の上方にある他方の物体の領域が、当該画像を生成したカメラとは別のカメラによって生成された画像を用いて識別されているならば、第1の物体追跡手段及び第2の物体追跡手段に対し、当該画像を生成したカメラから取得される画像による当該他方の物体の追跡を終了させる又は開始させないことも好ましい。
さらに、本発明による物体追跡装置において、第2の物体追跡手段は、オクルージョン外領域の面積又は当該面積の割合が所定上限閾値以上である場合に、及び/又は所定下限閾値未満である場合に、当該物体の追跡を終了する又は開始しないことも好ましい。
また、本発明による物体追跡装置の他の実施形態として、
追跡対象の当該物体に識別子を付与し、当該物体を管理する識別子管理手段と、
所定の特徴量を用いて学習を行った第3の識別器によって、物体識別対象の画像における出現した又は追跡されていない物体を検出可能な物体検出手段と
を更に有し、
識別子管理手段は、当該検出された物体と、過去に又は既に当該識別子を付与された既知物体とを比較し、当該検出された物体に対し、同一物体であると判定された既知物体に付与された識別子を付与することも好ましい。
ここで、上記の識別子管理手段は具体的に、当該画像から算出される両物体間の距離が、当該既知物体の移動速度を考慮した現時点での両物体間の推定距離未満であって、且つ当該検出された物体の領域と当該既知物体の領域とから決定される類似度が所定閾値よりも大きい場合、当該検出された物体に対し、当該既知物体に付与されたものと同一の識別子を付与し、それ以外の場合、当該検出された物体に対し、新たな識別子を付与することも好ましい。
さらに、本発明による物体追跡装置において、オクルージョン判定手段は、識別された当該物体の領域と、同じ物体識別対象の画像において識別された他の物体の領域との間のオーバーラップの度合いに基づいて、当該物体の領域にオクルージョンが発生しているか否かを判定することも好ましい。
本発明によれば、また、追跡対象の物体を撮影可能な1つ以上のカメラから取得される時系列の画像群を用いて当該物体を追跡可能な装置に搭載されたコンピュータを機能させるプログラムであって、
当該物体を含む取得された画像を用いて当該物体についての学習を行う第1の識別器によって、物体識別対象の各画像における当該物体の領域を識別して当該物体を追跡する第1の物体追跡手段と、
識別された当該物体の領域にオクルージョンが発生しているか否かを判定するオクルージョン判定手段と、
オクルージョンが発生したと判定された場合、当該物体の領域におけるオクルージョンの及んでいないオクルージョン外領域を用いて当該物体についての学習を行う第2の識別器によって、物体識別対象の各画像における当該物体に係る部分を識別して当該物体を追跡する第2の物体追跡手段と
してコンピュータを機能させる物体追跡プログラムが提供される。
本発明によれば、さらに、追跡対象の物体を撮影可能な1つ以上のカメラから取得される時系列の画像群を用いて当該物体を追跡する方法であって、
当該物体を含む取得された画像を用いて当該物体についての学習を行う第1の識別器によって、物体識別対象の各画像における当該物体の領域を識別して当該物体を追跡する第1のステップと、
識別された当該物体の領域にオクルージョンが発生しているか否かを判定する第2のステップと、
オクルージョンが発生したと判定された場合、当該物体の領域におけるオクルージョンの及んでいないオクルージョン外領域を用いて当該物体についての学習を行う第2の識別器によって、物体識別対象の各画像における当該物体に係る部分を識別して当該物体を追跡する第3のステップと
を有する物体追跡方法が提供される。
本発明の物体追跡装置、プログラム及び方法によれば、オクルージョンが発生した場合でも、対象物体の位置を即座に且つ正確に把握して追跡を行うことができる。
本発明による物体追跡装置を含む物体追跡システムの一実施形態を示す模式図である。 本発明による物体追跡装置の一実施形態における処理の流れを概略的に示すフローチャートである。 本発明による物体追跡装置の一実施形態における機能構成を示す機能ブロック図である。 本発明に係る識別器で処理される特徴量の一例を説明するための模式図である。 追跡対象物体の画像領域を予測する方法を説明するための模式図である。 本発明に係る識別器での学習処理の一形態を説明するための模式図である。 オーバーラップ領域を説明するための模式図である。 オクルージョン外領域を説明するための模式図である。 本発明による物体追跡方法における物体追跡手段の制御処理の一実施形態を示すフローチャートである。 対象物体の追跡を終了した後に再度追跡を開始する実施形態を説明するための模式図である。 本発明による物体追跡方法における識別子付与処理の一実施形態を示すフローチャートである。
以下、本発明の実施形態について、図面を用いて詳細に説明する。
[物体追跡システム]
図1は、本発明による物体追跡装置を含む物体追跡システムの一実施形態を示す模式図である。
図1に示した本実施形態の物体追跡システムは、
(a)追跡対象の物体を撮影可能であり、撮影した画像の情報を、通信ネットワークを介して時系列で送信可能な1つ又は複数のカメラ2と、
(b)カメラ2から通信ネットワークを介して取得される時系列の画像群を用いて当該物体を追跡可能な物体追跡装置1と
を備えている。ここで、追跡対象となる物体には、人物、動物、乗り物や、その他移動可能な物理対象等、撮影可能であれば様々なものが該当する。
また、画像情報の伝送路である通信ネットワークは、例えばWi−Fi(登録商標)等の無線LAN(Local Area Network)とすることができる。または、LTE(Long Term Evolution)、WiMAX(Worldwide Interoperability for Microwave Access)又は3G(3rd Generation)等の無線系アクセスネットワークを介し、インターネットを経由してカメラ2と物体追跡装置1とを通信接続させるものであってもよい。
さらに、光ファイバ網若しくはADSL(Asymmetric Digital Subscriber Line)等の固定系アクセスネットワークを介しインターネットを経由して、カメラ2と物体追跡装置1とが通信接続されてもよい。また、変更態様として、カメラ2と物体追跡装置1とは直接有線で接続されてもよい。さらに、複数のカメラ2から出力される画像情報を取りまとめて物体追跡装置1に送信可能な(図示していない)カメラ制御装置が設けられていてもよい。
同じく図1に示すように、物体追跡装置1は、
(b1)取得した時系列の画像群を用いて、対象の物体を追跡する物体追跡部112と、
(b2)物体追跡部112によって追跡されている物体の観測対象空間での位置を推定する物体位置推定部116と
を有する。
このうち、物体追跡部112は、追跡対象の物体毎に識別器を割り当て、当該識別器を用いて各画像上での当該物体の領域を識別する。この識別器は、画像中のある領域に追跡対象物体が写っているか否かの2値判定を行い、画像中に追跡対象物体が写っていると推定される領域を識別する。
また、物体位置推定部116は、画像上で識別された追跡対象物体の領域から、ある時刻における画像上での当該物体の位置q(u, v)を算出する。ここで、(u, v)は、位置qの画像座標系における座標である。次いで、この位置q(u, v)を変換して観測対象空間上の位置p(x, y, z)を算出し、追跡対象物体の実空間(観測対象空間)での位置を推定する。ここで、(x, y, z)は、観測対象空間上に張られた世界座標系における位置pの座標である。尚、画像座標系の位置qから世界座標系の位置pへの変換は、予めキャリブレーションにより各カメラ2についての3次元の設置位置及び撮影向きに係る外部パラメータを設定しておくことによって決定することができる。
これらの物体追跡部112及び物体位置推定部116によって識別され位置を推定された物体の位置q(u, v)が、位置q'(u', v')へ変化した場合、当該物体は、実空間(観測対象空間)において位置p(x, y, z)から位置p'(x', y', z')へ移動したことが推定される。このように移動物体の追跡も可能となるのである。
ここで、本実施形態の物体追跡部112は、追跡対象物体の画像領域においてオクルージョンが発生した際にも適切な追跡が実施可能なように構成されている。このオクルージョンとは、追跡対象物体が他の物体と重なって撮影され、生成された撮影画像において、この物体の領域が他の物体の領域と重畳した状態になることである。物体追跡部112は、具体的には、
(A)追跡対象の物体を含む取得された画像を用いて当該物体についての学習を行う「第1識別器」によって、物体識別対象の各画像における当該物体の領域を識別して当該物体を追跡する一方、
(B)オクルージョンが発生したと判定された場合、「オクルージョン外領域」を用いて当該物体についての学習を行う「第2識別器」によって、物体識別対象の各画像における当該物体に係る部分を識別して当該物体を追跡する
との機能を発揮する。
ここで、「オクルージョン外領域」とは、追跡対象の物体の領域におけるオクルージョンの及んでいない領域を指す。後述するように、互いに重畳する物体における領域の重畳した部分(オーバーラップ領域)に対して上方となるような追跡対象物体の領域部分を、オクルージョン外領域とすることができる。
このように、物体追跡装置1では、学習について相違する互いに異なる種類の識別器を状況によって使い分けて物体の領域を識別する。特に、追跡対象の物体の領域にオクルージョンが発生した場合、使用する識別器の種別を、「第1識別器」からオクルージョン専用の「第2識別器」に切り替える。この「第2識別器」は、「オクルージョン外領域」を用いて学習を行うので、対象物体全体の領域について学習を行う場合と比較して、追跡困難となるオクルージョン発生下でもより的確に、対象物体の有無やその位置を判断し決定することができる。
即ち、追跡困難度に応じて識別器を使い分けることによって、オクルージョンが発生した場合でも、対象物体の位置を正確に把握して、物体固有の識別子IDを付与しつつ追跡を行うことが可能となるのである。
さらに、「第1識別器」と「第2識別器」とは、それぞれに適する内容をもって互いに異なる学習を行う。即ち、学習に用いるべき画像対象が異なる各状況に応じて、学習させる識別器の種別を適宜選んで使用している。これにより、追跡対象である物体毎に設定された各識別器に、誤った又は不適切な画像データで学習させてしまう事態を回避し、当該識別器における高い判定精度を維持することが可能となる。その結果、追跡対象物体をより的確に識別することができるのである。
また、物体追跡装置1では、「第1識別器」及び「第2識別器」のいずれに対しても、カメラ2から取得した時系列の各画像を用いて即座に、即ちオンラインで学習させることができる。その結果、追跡対象物体の位置を即座に把握して追跡を行うことが可能となるのである。また、対象物体の見え方が刻々と変化しても、同一の物体であると認識することができるので、当該物体に固有の識別子IDを付与し続けながら、適切な追跡を続行することが容易になる。
[装置機能概要]
図2は、本発明による物体追跡装置の一実施形態における処理の流れを概略的に示すフローチャートである。
図2によれば、本実施形態の物体追跡装置1は、カメラ2から解析対象の画像を取得した際、当初、追跡対象の物体に対応した第1識別器に対し、当該画像を用いてオンラインで学習させつつ、2値判定を行わせて、当該物体を追跡する。ここで、追跡対象物体の数だけの第1識別器が使用される。この際、各物体には当該物体固有の識別子IDが継続して付与される。
また、物体追跡装置1は、上記の追跡処理と並行して、検出処理を行う。具体的には、新規の又は追跡されていない可能性のある物体が、取得された画像上に写っていないか否かを学習済みの第3識別器を用いて判定し、このような物体の領域が当該画像上に出現した際に当該物体を検出したとする。
物体が検出された際、物体追跡装置1は、新規に追跡を開始する前に、検出された物体と過去に追跡していた物体との類似度を算出し、この類似度が所定以上に高い場合に、一旦追跡が終了した物体が撮影可能な空間内に復帰したとみなす。この場合、次いで、類似度の高い過去の物体と同一の識別子IDを検出物体に付与して、即ち識別子IDを統合して追跡を再開する。一方、算出した類似度が所定よりも低い場合、新規の物体が撮影可能な空間内に出現したとみなし、新規の識別子IDを検出物体に付与する。
さらに、物体追跡装置1は、オクルージョンの発生(又は終了)を監視する。ここで、オクルージョンが発生していない場合(又は終了した場合)、第1識別器による追跡処理を続行する(又は開始する)。一方、オクルージョンが発生した場合(又は生じている場合)、第1識別器に代えて、オクルージョン専用の第2識別器による追跡処理を開始する(又は続行する)。この場合、追跡に用いられる識別器は切り替えられるが、追跡対象物体に付与された識別子IDは継続してそのまま使用される。次いで、再び時系列で新たな画像を取得して、図2に示したような処理のサイクルを繰り返す。
尚、上記のサイクルにおいて、オクルージョンが発生した場合でも、複数のカメラ2が設置された状況で別のカメラ2から取得された画像ではオクルージョンが発生していなければ、この画像を用いて第1識別器による追跡を行うことも好ましい。また、上記のサイクルには示されていないが、上述した「オクルージョン外領域」が所定閾値よりも小さい場合、第2識別器によるその後の追跡は困難となることが予測されるので、一旦追跡を終了することも好ましい。この場合、上記の検出処理において再度検出された際に、同一の識別子IDをもって追跡を再開することも可能となる。また、撮影可能な空間外に追跡対象物体が移動した場合も一旦追跡を終了するが、同じく上記の検出処理において再度検出された際に、同一の識別子IDをもって追跡を再開することになる。
以上に説明したように、物体追跡装置1は、1つ以上のカメラ2からの時系列画像群を用いて追跡と同時に検出処理も行っているので、物体又は物体間における様々の状況に合わせて、的確な且つ統合的な追跡を実施することができる。
[装置構成、物体追跡方法]
図3は、本発明による物体追跡装置の一実施形態における機能構成を示す機能ブロック図である。
図3によれば、物体追跡装置1は、1つ又は複数のカメラ2と通信接続可能な通信インタフェース101と、画像蓄積部102と、ID蓄積部103と、追跡物体管理部104と、プロセッサ・メモリとを有する。ここで、プロセッサ・メモリは、物体追跡装置1のコンピュータを機能させるプログラムを実行することによって、物体追跡機能を実現させる。
さらに、プロセッサ・メモリは、機能構成部として、物体検出部111と、物体追跡部112と、オクルージョン判定部113と、物体追跡制御部114と、ID(識別子)管理部115と、物体位置推定部116と、通信制御部121とを有する。また、物体追跡部112は、第1物体追跡部112aと、第2物体追跡部112bとを有することも好ましい。さらに、オクルージョン判定部113は、オーバーラップ領域算出部113aと、オクルージョン外領域算出部113bとを有することも好ましい。また、ID管理部115は、物体統合部115aと、物体登録部115bとを有することも好ましい。ここで、図3における物体追跡装置1の機能構成部間を矢印で接続して示した処理の流れは、本発明による物体追跡方法の一実施形態としても理解される。
図3において、1つ又は複数のカメラ2は、例えば、CCDイメージセンサ、CMOSイメージセンサ等の固体撮像素子を備えた可視光、近赤外線又は赤外線対応の撮影デバイスである。また、カメラ2又は(図示していない)カメラ制御装置は、カメラ2で撮影された物体の画像を含む撮影画像データを生成し、当該データを時系列に又はバッチで物体追跡装置1に送信する機能を有する。また、カメラ2は、可動であって設置位置、撮影向きや高さを変更することができ、この変更のための制御信号を受信し処理する機能を有していることも好ましい。
通信インタフェース101は、カメラ2又はカメラ制御装置から時系列の画像群である撮影画像データを、通信ネットワークを介して受信する。通信インタフェース101を使用した送受信及び通信データ処理の制御は、通信制御部121によって行われ、取得された撮影画像データは、画像蓄積部102に蓄積される。ここで、この撮影画像データは、カメラ2又はカメラ制御装置から時系列順に呼び出されて取得されたものであってもよく、リアルタイムに一定時間間隔でキャプチャされた画像を順に取得したものであってもよい。
物体追跡部112は、
(a)追跡対象の物体を含む刻々の新たな画像を用いて当該物体についての学習を行う第1識別器によって、物体識別対象の各画像における当該物体の領域を識別して当該物体を追跡する第1物体追跡部112aと、
(b)オクルージョンが発生したと判定された場合、当該物体の領域におけるオクルージョンの及んでいないオクルージョン外領域を用いて当該物体についての学習を行う第2識別器によって、物体識別対象の各画像における当該物体に係る部分を識別して当該物体を追跡する第2物体追跡部112bと
を有する。上記の第1識別器及び第2識別器は、画像上の領域を特徴量化し、この特徴量(ベクトル)を用いて学習を行う。また、上記のオクルージョン外領域は、後述するように、オクルージョン判定部113のオクルージョン外領域算出部113bで算出されることができる。
図4は、本発明に係る識別器で処理される特徴量の一例を説明するための模式図である。
図4によれば、追跡対象としての人物の画像領域に対し、当該領域内のピクセルについての輝度ヒストグラムが生成されている。この画像領域の形状は、矩形や台形等の四角形とすることができるが、対象物体に合わせて種々のものが採用可能である。また、輝度ヒストグラムは、輝度値0〜255の範囲を複数の区間に分け、各区間に属する輝度値を有するピクセルの数(度数)を柱状グラフで示したものである。図4には、輝度範囲を6つの区間に分けた場合の例を示している。
ここで、特徴量は、各輝度区間の度数(ピクセル数)を成分としたベクトルで表される。図4の例では、6次元の特徴量ベクトルが生成される。尚、当然に、特徴量の内容及び次元は、この例に限定されるものではない。追跡対象の物体の画像上での特徴を表す量ならば、種々のものが特徴量の成分として採用可能である。
図5は、追跡対象物体の画像領域を予測する方法を説明するための模式図である。
図5には、単位時間1つ分前の時刻t=T−1での追跡対象物体の画像領域に基づき、時刻t=0,・・・,T−1まで学習された識別器を用いて、時刻t=Tでの当該物体の画像領域を推定する手法が示されている。具体的には、最初に、スライディングウィンドウ方式により、時刻t=T−1での追跡対象物体の画像領域の位置周辺に、複数の候補領域を設定する。次いで、これらの切り出された候補領域のうちで類似度の最も大きいベスト領域を抽出し、このベスト領域を時刻t=Tでの当該物体の画像領域に決定する。ここで、類似度は、後に式(1)を用いて説明するように、識別器が算出した識別境界面からの符号付距離とすることができる。
図6は、本発明に係る識別器での学習処理の一形態を説明するための模式図である。
図6によれば、識別器は、取得される時系列の各画像を用いて刻々に学習を行う。この識別器には、第1識別器及び第2識別器のいずれもが該当する。識別器には、教師あり機械学習であれば種々のものが採用可能であるが、サポートベクタマシン(SVM)であることも好ましい。具体的に学習の内容としては、追跡対象物体の領域に対応付けられる特徴量に正のラベルを付与し、それ以外の領域に対応付けられる特徴量に負のラベルを付与して、これらの特徴量を特徴空間内に配置する。次いで、特徴空間内においてラベルの正負を区分けする識別境界面を算出する。このように学習として取得した識別境界面を基準として、以後、判定を実施することができる。
ここで、ある特徴量を有する画像領域の類似度Rは、次式
(1) R=SIN×d
で算出される。上式において、SINは、特徴空間において当該特徴量が負のラベル側に存在していれば−1、正のラベル側に存在していれば1となる。また、dは、特徴空間内における当該特徴量と識別境界面との距離である。尚、識別器を用いた追跡に係る手法の詳細は、例えば、非特許文献である、S. Hare、A. Saffari及びP. H. S. Torr、「Struck: Structured Output Tracking with Kernels」、publications of International Conference on Computer Vision (ICCV), 2011に記載されている。
図3に戻って、オクルージョン判定部113は、例えば所定時間間隔で、現在登録されており識別子IDの付与された物体の領域にオクルージョンが発生しているか否かを判定する。具体的には、取得した物体識別対象の画像において識別された物体の領域と、(同一カメラ2から取得された)同じ画像において識別された他の物体の領域との間のオーバーラップの度合いであるオーバーラップ率に基づいて、当該物体の領域にオクルージョンが発生しているか否かを判定することも好ましい。この場合、オーバーラップ率は、オーバーラップ領域算出部113においてオーバーラップ領域の面積(例えばピクセル数)SOVに基づいて算出される。
図7は、オーバーラップ領域を説明するための模式図である。
図7によれば、1つの物体識別対象の画像に、物体1の画像領域Aと物体2の画像領域Bとが存在し、両画像領域が重畳している。この重畳した画像部分がオーバーラップ領域となる。オーバーラップ領域算出部113(図3)は、このオーバーラップ領域の面積SOVから物体1及び2のオーバーラップ率OV1及びOV2を算出する。具体的には、次式
(2) OV1=SOV/SA,OV2=SOV/SB
を用いて算出する。ここで、SA及びSBはそれぞれ、画像領域A及びBの面積(例えばピクセル数)である。
オクルージョン判定部113(図3)は、算出されたオーバーラップ率OV1及びOV2のうちより高い方の値が、所定閾値よりも大きければオクルージョンが発生していると判定し、それ以外の場合、オクルージョンは発生していないと判定することができる。また、変更態様として、より上方にある領域(図7では領域B)に係るオーバーラップ率(OV2)が所定閾値よりも大きければオクルージョンが発生していると判定することも好ましい。
図3に戻って、物体追跡制御部114は、物体追跡部112における物体追跡態様を制御する。例えば、オクルージョンが発生したと判定された際、物体追跡部112に対し、物体を追跡する手段を第1物体追跡部112aから第2物体追跡b112bへ切り替えさせる。ここで、物体追跡制御部114は、このように追跡対象物体の領域同士が重畳することでオクルージョンが発生した際、画像上においてより上方に位置する物体の領域のうちでオクルージョンの及んでいないオクルージョン外領域を用いた追跡手段に切り替えることも好ましい。
尚、一般に、画像領域の重畳した物体のうち、より上方に位置する物体は、この画像を出力したカメラ2の位置から見てより奥に存在し、他方の物体によってその一部が隠れることになる。即ち、上方に位置する物体がオクルージョンの影響を強く受ける。従って、この上方の物体のオクルージョン外領域に着目することが重要となるのである。
また、物体追跡制御部114は、物体を撮影可能な複数のカメラ2の各々から時系列画像群を取得可能な実施形態において、オクルージョンの発生した画像を出力したカメラ2から取得された画像群を用いた物体追跡から、オクルージョンの発生していない画像を出力したカメラ2から取得された画像群を用いた物体追跡へ切り替えることも好ましい。具体的には、オクルージョンが発生したと判定された際、物体識別対象の画像において一方の物体の領域の上方にある他方の物体の領域が、当該画像を生成したカメラ2とは別のカメラ2によって生成された画像を用いて識別されているならば、物体追跡部112(第1物体追跡部112a及び第2物体追跡部112b)に対し、オクルージョンの発生した当該画像を生成したカメラ2から取得される画像による他方の物体の追跡を終了させる又は開始させないことも好ましい。
さらに、物体追跡制御部114は、第2物体追跡部112bに対し、物体1及び2のオーバーラップ率OV1及びOV2のいずれもが所定閾値以下である場合、オクルージョンが消滅したとして追跡対象の物体の追跡を終了させることも好ましい。
また、変更態様として、物体追跡制御部114は、第2物体追跡部112bに対し、オクルージョン外領域の面積SEC又は面積SECの割合が所定の上限閾値以上である場合、オクルージョンが消滅したとして追跡対象の物体の追跡を終了させることも好ましい。ここで、オクルージョン外領域の面積SECは、オクルージョン判定部113のオクルージョン外領域算出部113bで算出することができる。
さらに、物体追跡制御部114は、第2物体追跡部112bに対し、オクルージョン外領域の面積SEC又は面積SECの割合が所定の下限閾値未満である場合、追跡対象の物体の追跡を終了させることも好ましい。
図8は、オクルージョン外領域を説明するための模式図である。
図8によれば、物体1の画像領域A及び物体2の画像領域Bは互いに重畳しており、画像領域Bは、画像領域Aよりもより上方に位置している。言い換えると、画像領域Bは、画面座標系の縦軸(v軸)方向のある直線上において、画像領域A内の最上点よりも上方に位置する領域部分を有する。このような状況下で、オクルージョン外領域は、画像領域Bのうち領域Aと重畳していない(オーバーラップ領域以外の)領域部分の全部又は一部を反映する領域として定義することができる。例えば、図8に示したように、画像領域Bのうち、全オーバーラップ領域に対し上方となるような領域部分を、オクルージョン外領域とすることも好ましい。
ここで、同じく図8に示すように、物体2のオクルージョン外領域の面積SECが所定の下限面積閾値未満へ、又は領域Bの面積に対する面積SECの割合SEC/SBが所定の下限割合閾値未満へ変化した場合、物体2の第2物体追跡部112bによる追跡は終了する。
図9は、本発明による物体追跡方法における物体追跡手段の制御処理の一実施形態を示すフローチャートである。この物体追跡制御処理は、主にオクルージョン判定部113及び物体追跡制御部114で実行される。また、図9に示した実施形態では、当初、第1識別器が物体1及び物体2の追跡を行っているが、物体1の領域Aと物体2の領域Bとが重畳し、図8に示したようなオクルージョンが発生したものとする。
(S101)画像上でより上方に位置する領域Bに係る物体2が、当該画像を出力したものとは別のカメラ2によっても追跡されているかどうか、即ち他のカメラ2から取得された画像にも映っているか否かを調査し判定する。
(S111)ステップS101で真の判定、即ち別のカメラ2でも追跡中である場合、この別のカメラ2による異なった視点から物体2の位置が正確に算出される可能性があるため、現在のカメラ2から取得される画像による物体2の追跡を終了させる。
ここで、この別のカメラ2から取得される画像による物体2の追跡に切り替えることも好ましい。尚、この別のカメラ2でも物体2の領域についてオクルージョンが発生している場合、さらに他のカメラ2によって追跡されているか否かを判定し、最終的に、オクルージョンの発生していない又はオクルージョンの発生の度合いが最も小さい画像を出力したカメラ2の画像による物体2の追跡に切り替えることも好ましい。
また、ステップS101は、追跡対象物体を撮影可能なカメラ2が複数設置されている実施形態でのみ採用されるステップである。従って、カメラ2が1つだけ設置されている場合、ステップS101は省略し、次のステップS102から処理を開始することができる。
(S102)ステップS101で偽の判定、即ち別のカメラ2では追跡していない場合、又はカメラ2が1つだけ設置されている場合、物体2の領域におけるオクルージョン外領域の面積SECを算出する。
(S103)オクルージョン外領域の面積SECが所定下限閾値θよりも小さいか否かを判定する。ここで、真(SEC<θ)の判定を行った場合、この後の的確な追跡は困難であると判断して、ステップS111に移行し、現在のカメラ2から取得される画像による物体2の追跡を一旦終了させる。
(S104)一方、ステップS103で偽(SEC≧θ)の判定を行った場合、物体2の追跡処理を行う識別器を、オクルージョン発生時専用の第2識別器に切り替えて、物体2の追跡を引き続き行う。この場合、物体追跡部112(図3)は、オクルージョン外領域を新規に追跡対象として登録するとともに物体2を引き続き同一の識別子IDをもって追跡する旨を、ID管理部115(図3)に通知することも好ましい。
以上に述べたフローにより、オクルージョン発生直後の物体追跡制御処理は終了するが、オクルージョンが引き続き発生している場合又は新たに発生した場合、再度ステップS101に移行し、刻々と取得される時系列画像を用いた追跡制御処理が続行することになる。
図3に戻って、物体検出部111は、所定の特徴量を用いて学習を行った第3の識別器によって、物体識別対象の画像における出現した又は追跡されていない物体を検出可能な機能部である。ここで、人物を追跡対象とする場合、学習には人物検出に適した特徴量を用いる。物体検出のための特徴量としては、例えばHOG特徴量を使用することも好ましい。HOG特徴量は、画像の局所領域における輝度の勾配方向をヒストグラム化し、各度数を成分としたベクトル量である。HOG特徴量を用いた人物検出技術については、例えば、非特許文献であるDalal. N及びTriggs. B、「Histograms of Oriented Gradients for Human Detection」、proceedings of IEEE Computer Vision and Pattern Recognition (CVPR)、pp. 886-893、2005に記載されている。
また、物体検出部111は、画像蓄積部102から入力した画像から物体を検出した際、新規登録の可能性がある検出した物体の情報を、ID管理部115へ通知する。
図10は、対象物体の追跡を終了した後、検出機能によって追跡を再開する実施形態を説明するための模式図である。
図10(A)において破線枠で示された追跡終了物体は、図9のステップS103においてオクルージョン外領域の面積SECが閾値θよりも小さいので(SEC<θ)、第2識別器による追跡が終了している。ここで、本実施形態では図2に示すように追跡処理と並行して検出処理が行われているので、この追跡終了物体も、オクルージョンが消滅した後には再び検出されることになる。この際、後に説明するように、ID管理部115の物体統合部115a(図3)によって先に使用された識別子IDが再度付与されて、この追跡終了物体の第1識別器による追跡が再開される。
このように、本実施形態では、当初第1識別器によって追跡されていいた物体についても、オクルージョンの発生した後は、追跡手段が第2識別器に切り替えられたり、追跡自体が終了したり、さらには再び第1識別器によって追跡が再開されたりする。これにより、第1識別器が、オクルージョンの存在によって不適切な学習をしてしまう事態を回避し、オクルージョンが発生しても第1識別器による物体の識別精度を維持することができる。また、オクルージョンの発生中のみ、専用の第2識別器を用いて追跡を継続するので、オクルージョンが発生しても統合された一貫性のある追跡を実現することができる。さらに、オクルージョンの過度の進行等によって追跡が失敗した場合でも、並行して常時稼働している検出機能によって、一貫性のある追跡に復帰することが可能となる。
次に、図10(B)に、検出機能によって追跡が再開される他の例を示す。図10(A)において破線枠で示された追跡終了物体は、当該物体の画像領域における所定以上の部分が画像範囲外に出てしまったので、第1識別器による追跡が終了している。ここで、この場合でも図2に示すように追跡処理と並行して検出処理が行われているので、この追跡終了物体も、所定以上の領域部分が画像内に再び現れた場合、再度検出されることになる。この際、後に説明するように、ID管理部115の物体統合部115a(図3)によって先に使用された識別子IDが再度付与されて、この追跡終了物体の第1識別器による追跡が再開される。
以上説明したように、図10(A)及び(B)に示した状況では、無理に物体の追跡を続行するのではなく、一旦意図的に当該物体をロストさせ、再度検出した際、即ち追跡が容易になった段階で追跡を再開する。これにより、追跡に使用する識別器が不適切な学習をすることを阻止し、当該識別器による判定精度を維持することができる。尚、追跡を終了してから再開するまでの物体の軌跡は、例えば線形補間によって推定することも好ましい。
図3に戻って、ID管理部115は、物体統合部115aと、物体登録部115bとを有する。このうち物体統合部115aは、物体検出部111から通知のあった検出された物体と、過去に識別子IDを付与された既知物体とを比較し、検出された物体に対し、同一物体であると判定された既知物体に付与された識別子IDを付与する旨を決定する。物体統合部115aは、具体的に、
(a)(例えば複数のカメラ2から取得された)物体識別対象の画像から算出される両物体間の距離dが、既知物体の移動速度vを考慮した現時点での両物体間の推定距離未満であって、且つ検出された物体の領域と既知物体の領域とから決定される類似度Rdが所定閾値αよりも大きい場合、検出された物体に対し、既知物体に付与されたものと同一の識別子を付与することを決定し、
(b)それ以外の場合、検出された物体に対し、新たな識別子IDを付与することを決定する。
一方、物体登録部115bは、この検出された物体に識別子IDを付与し、当該物体を登録し管理する。検出された物体の画像領域に係る情報と、付与された識別子IDとが対応付けられてID蓄積部103に蓄積されることも好ましい。また、物体追跡部112からの問い合わせへの応答として又は必要時に適宜、追跡対象物体に付与された識別子IDの情報を物体追跡部112に通知することも好ましい。
図11は、本発明による物体追跡方法における識別子付与処理の一実施形態を示すフローチャートである。この識別子付与処理は、主に物体検出部111からの通知を受けてID管理部115で実行される。また、図11に示した実施形態では、検出された検出物体と既に識別された追跡中の既知物体とが、物体識別対象の画像に写っているものとする。
(S201)検出物体と既知物体との観測対象空間(実空間)での距離dを算出し、既知物体の現時点までにおける平均移動速度vを算出して、次式で示される条件
(3) d<v×Δt
が満たされるか否かを判定する。ここで、Δtは、判定時点での時刻と最後に既知物体を識別した時刻との差である。
(S211)ステップS201で偽(d≧v×Δt)の判定を行った場合、検出物体と既知物体とは異なる物体であるとして、検出物体に新規の識別子IDを付与し、本検出物体に対する識別子付与処理を終了する。
(S202)一方、ステップS201で真(d<v×Δt)の判定を行った場合、既知物体の識別器が出力する検出物体についての信頼度を両者間の類似度Rdに決定する。
(S203)決定された類似度Rdが所定閾値αを超えているか否かを判定する。ここで偽(Rd≦α)の判定を行った場合、ステップS211に移行し、検出物体と既知物体とは異なる物体であるとして、検出物体に新規の識別子IDを付与する。
(S204)一方、ステップS203で真(Rd>α)の判定を行った場合、検出物体と既知物体とは同一の物体であるとして、既知物体に付与したものと同一の識別子IDを検出物体に付与する。ここで、さらに、既知物体が、検出物体を発見した画像を出力したカメラ2によって現時点で追跡されているか否かを判定し、現在追跡中であれば、今回の検出物体は無視し、追跡していなければ、検出物体に同一識別子IDを付与して追跡を再開することも好ましい。以上により、本検出物体に対する識別子付与処理を終了する。
図3に戻って、物体位置推定部116は、物体追跡部112で決定された、最新の時刻又は所定の時間範囲内の各時刻における追跡対象物体の領域に基づいて、追跡対象物体の当該時刻での観測対象空間(実空間)における位置p(x, y, z)を算出する。ここで、識別子IDと推定された位置pとを対応付けた物体追跡結果が、追跡物体管理部104に蓄積されることも好ましい。この物体追跡結果は、例えば外部の情報処理装置からの要求に応じ、通信制御部121及び通信インタフェース101を介して、当該外部の情報処理装置宛てに送信されることも好ましい。
以上詳細に説明したように、本発明によれば、追跡の困難となるオクルージョンが発生した場合、使用する識別器の種別をオクルージョン専用の第2識別器に切り替え、オンラインでの学習を実施しながら追跡処理を続行する。これにより、オクルージョンが発生した場合でも、対象物体の位置を即座に且つ正確に把握して追跡を行うことができる。
さらに、オクルージョンが発生した場合、第1識別器が誤った又は不適切な画像データで学習してしまう事態を回避することがききるので、第1識別器における高い判定精度を維持することが可能となる。その結果、追跡対象物体をより的確に識別することができる。
また、本発明の構成及び方法は、例えば、多数の人物や物体が移動する場を監視する監視システムや、商店街や商業施設内での人の移動経路を調査するためのマーケティング調査システム等、互いに行き交う移動物体の追跡が必要となる様々な系に適用可能である。
以上に述べた本発明の種々の実施形態において、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。
1 物体追跡装置
101 通信インタフェース
102 画像蓄積部
103 ID蓄積部
104 追跡物体管理部
111 物体検出部
112 物体追跡部
112a 第1物体追跡部
112b 第2物体追跡部
113 オクルージョン判定部
113a オーバーラップ領域算出部
113b オクルージョン外領域算出部
114 物体追跡制御部
115 ID管理部
115a 物体統合部
115b 物体登録部
116 物体位置推定部
121 通信制御部
2 カメラ

Claims (9)

  1. 追跡対象の物体を撮影可能な1つ以上のカメラから取得される時系列の画像群を用いて当該物体を追跡可能な装置であって、
    当該物体を含む取得された画像を用いて当該物体についての学習を行う第1の識別器によって、物体識別対象の各画像における当該物体の領域を識別して当該物体を追跡する第1の物体追跡手段と、
    識別された当該物体の領域にオクルージョン(occlusion)が発生しているか否かを判定するオクルージョン判定手段と、
    オクルージョンが発生したと判定された場合、当該物体の領域におけるオクルージョンの及んでいないオクルージョン外領域を用いて当該物体についての学習を行う第2の識別器によって、物体識別対象の各画像における当該物体に係る部分を識別して当該物体を追跡する第2の物体追跡手段と
    を有することを特徴とする物体追跡装置。
  2. オクルージョンが発生したと判定された際、当該物体を追跡する手段を、前記第1の物体追跡手段から前記第2の物体追跡手段へ切り替える物体追跡制御手段を更に有することを特徴とする請求項1に記載の物体追跡装置。
  3. 前記物体追跡装置は、当該物体を撮影可能な複数のカメラの各々から時系列の画像群を取得可能であり、
    前記物体追跡制御手段は、オクルージョンが発生したと判定された際、物体識別対象の画像において当該物体の領域の上方にある他方の物体の領域が、当該画像を生成したカメラとは別のカメラによって生成された画像を用いて識別されているならば、前記第1の物体追跡手段及び前記第2の物体追跡手段に対し、当該画像を生成したカメラから取得される画像による当該他方の物体の追跡を終了させる又は開始させないことを特徴とする請求項2に記載の物体追跡装置。
  4. 前記第2の物体追跡手段は、オクルージョン外領域の面積又は当該面積の割合が所定上限閾値以上である場合に、及び/又は所定下限閾値未満である場合に、当該物体の追跡を終了する又は開始しないことを特徴とする請求項1から3のいずれか1項に記載の物体追跡装置。
  5. 追跡対象の当該物体に識別子を付与し、当該物体を管理する識別子管理手段と、
    所定の特徴量を用いて学習を行った第3の識別器によって、物体識別対象の画像における出現した又は追跡されていない物体を検出可能な物体検出手段と
    を更に有し、
    前記識別子管理手段は、当該検出された物体と、過去に又は既に当該識別子を付与された既知物体とを比較し、当該検出された物体に対し、同一物体であると判定された既知物体に付与された識別子を付与する
    ことを特徴する請求項1から4のいずれか1項に記載の物体追跡装置。
  6. 前記識別子管理手段は、当該画像から算出される両物体間の距離が、当該既知物体の移動速度を考慮した現時点での両物体間の推定距離未満であって、且つ当該検出された物体の領域と当該既知物体の領域とから決定される類似度が所定閾値よりも大きい場合、当該検出された物体に対し、当該既知物体に付与されたものと同一の識別子を付与し、それ以外の場合、当該検出された物体に対し、新たな識別子を付与する
    ことを特徴する請求項5に記載の物体追跡装置。
  7. 前記オクルージョン判定手段は、識別された当該物体の領域と、同じ物体識別対象の画像において識別された他の物体の領域との間のオーバーラップの度合いに基づいて、当該物体の領域にオクルージョンが発生しているか否かを判定することを特徴とする請求項1から6のいずれか1項に記載の物体追跡装置。
  8. 追跡対象の物体を撮影可能な1つ以上のカメラから取得される時系列の画像群を用いて当該物体を追跡可能な装置に搭載されたコンピュータを機能させるプログラムであって、
    当該物体を含む取得された画像を用いて当該物体についての学習を行う第1の識別器によって、物体識別対象の各画像における当該物体の領域を識別して当該物体を追跡する第1の物体追跡手段と、
    識別された当該物体の領域にオクルージョンが発生しているか否かを判定するオクルージョン判定手段と、
    オクルージョンが発生したと判定された場合、当該物体の領域におけるオクルージョンの及んでいないオクルージョン外領域を用いて当該物体についての学習を行う第2の識別器によって、物体識別対象の各画像における当該物体に係る部分を識別して当該物体を追跡する第2の物体追跡手段と
    してコンピュータを機能させることを特徴とする物体追跡プログラム。
  9. 追跡対象の物体を撮影可能な1つ以上のカメラから取得される時系列の画像群を用いて当該物体を追跡する方法であって、
    当該物体を含む取得された画像を用いて当該物体についての学習を行う第1の識別器によって、物体識別対象の各画像における当該物体の領域を識別して当該物体を追跡する第1のステップと、
    識別された当該物体の領域にオクルージョンが発生しているか否かを判定する第2のステップと、
    オクルージョンが発生したと判定された場合、当該物体の領域におけるオクルージョンの及んでいないオクルージョン外領域を用いて当該物体についての学習を行う第2の識別器によって、物体識別対象の各画像における当該物体に係る部分を識別して当該物体を追跡する第3のステップと
    を有することを特徴とする物体追跡方法。
JP2015001115A 2015-01-06 2015-01-06 オクルージョン発生時に専用の識別器を用いて物体を追跡する装置、プログラム及び方法 Active JP6377533B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015001115A JP6377533B2 (ja) 2015-01-06 2015-01-06 オクルージョン発生時に専用の識別器を用いて物体を追跡する装置、プログラム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015001115A JP6377533B2 (ja) 2015-01-06 2015-01-06 オクルージョン発生時に専用の識別器を用いて物体を追跡する装置、プログラム及び方法

Publications (2)

Publication Number Publication Date
JP2016126624A JP2016126624A (ja) 2016-07-11
JP6377533B2 true JP6377533B2 (ja) 2018-08-22

Family

ID=56357036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015001115A Active JP6377533B2 (ja) 2015-01-06 2015-01-06 オクルージョン発生時に専用の識別器を用いて物体を追跡する装置、プログラム及び方法

Country Status (1)

Country Link
JP (1) JP6377533B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6598746B2 (ja) * 2016-08-22 2019-10-30 Kddi株式会社 他の物体の画像領域も考慮して物体を追跡する装置、プログラム及び方法
JP6828377B2 (ja) * 2016-10-28 2021-02-10 株式会社リコー 画像処理装置、画像処理システム、画像処理方法およびプログラム
JP6659524B2 (ja) 2016-11-18 2020-03-04 株式会社東芝 移動体追跡装置、表示装置および移動体追跡方法
JP6844230B2 (ja) * 2016-12-06 2021-03-17 富士通株式会社 画像処理プログラム、画像処理装置および画像処理方法
WO2018128138A1 (ja) 2017-01-05 2018-07-12 日本電気株式会社 画像処理装置、映像監視システム、画像処理方法およびプログラムを格納した記録媒体
JP6828445B2 (ja) * 2017-01-11 2021-02-10 富士通株式会社 対象物追跡プログラム、対象物追跡方法及び対象物追跡装置
JP6789876B2 (ja) * 2017-04-27 2020-11-25 Kddi株式会社 画素変更処理画像を用いて対象を追跡する装置、プログラム及び方法
JP2018206285A (ja) * 2017-06-09 2018-12-27 日本放送協会 オブジェクト追跡装置及びオブジェクト軌跡生成システム
KR102150847B1 (ko) * 2017-08-22 2020-09-02 미쓰비시덴키 가부시키가이샤 화상 처리 장치 및 화상 처리 방법
JP7003628B2 (ja) * 2017-12-19 2022-01-20 富士通株式会社 物体追跡プログラム、物体追跡装置、及び物体追跡方法
JP7160174B2 (ja) * 2019-02-26 2022-10-25 日本電気株式会社 監視装置、追跡方法、及びプログラム
JP7243372B2 (ja) * 2019-03-27 2023-03-22 オムロン株式会社 物体追跡装置および物体追跡方法
KR102303779B1 (ko) * 2019-10-18 2021-09-23 주식회사 메이아이 복수 영역 검출을 이용한 객체 탐지 방법 및 그 장치
CN113674309B (zh) * 2020-05-14 2024-02-20 杭州海康威视系统技术有限公司 对象追踪的方法、装置、管理平台以及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6040825B2 (ja) * 2013-03-26 2016-12-07 富士通株式会社 物体追跡プログラム、物体追跡方法及び物体追跡装置
JP6171608B2 (ja) * 2013-06-18 2017-08-02 株式会社デンソー 物体検出装置

Also Published As

Publication number Publication date
JP2016126624A (ja) 2016-07-11

Similar Documents

Publication Publication Date Title
JP6377533B2 (ja) オクルージョン発生時に専用の識別器を用いて物体を追跡する装置、プログラム及び方法
JP6614611B2 (ja) 画像間類似度を考慮して物体を追跡する装置、プログラム及び方法
JP6618395B2 (ja) 行動価値によって調査対象の位置を予測する装置、プログラム及び方法
Luber et al. People tracking in rgb-d data with on-line boosted target models
JP6969871B2 (ja) 移動状況推定装置、移動状況推定方法およびプログラム
JP6598746B2 (ja) 他の物体の画像領域も考慮して物体を追跡する装置、プログラム及び方法
JP6555906B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR101687530B1 (ko) 촬상 시스템에 있어서의 제어방법, 제어장치 및 컴퓨터 판독 가능한 기억매체
JP6141079B2 (ja) 画像処理システム、画像処理装置、それらの制御方法、及びプログラム
WO2019023921A1 (zh) 一种手势识别方法、装置及设备
JP6628494B2 (ja) 実空間情報によって学習する識別器を用いて物体を追跡する装置、プログラム及び方法
US10867166B2 (en) Image processing apparatus, image processing system, and image processing method
JP2018508078A (ja) オブジェクト追跡のためのシステムおよび方法
JP2016162232A (ja) 画像認識方法及び装置、プログラム
JP7272024B2 (ja) 物体追跡装置、監視システムおよび物体追跡方法
US11132538B2 (en) Image processing apparatus, image processing system, and image processing method
JP6654789B2 (ja) 変化点で複数候補を考慮して物体を追跡する装置、プログラム及び方法
KR101125233B1 (ko) 융합기술기반 보안방법 및 융합기술기반 보안시스템
CN113326719A (zh) 一种用于目标追踪的方法、设备及系统
EP3690736A1 (en) Method of processing information from an event-based sensor
JP6789876B2 (ja) 画素変更処理画像を用いて対象を追跡する装置、プログラム及び方法
JPWO2019155727A1 (ja) 情報処理装置、追跡方法、及び追跡プログラム
WO2013017184A1 (en) Method and device for video surveillance
US20230394686A1 (en) Object Identification
CN111652907B (zh) 一种基于数据关联的多目标跟踪方法、装置及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180725

R150 Certificate of patent or registration of utility model

Ref document number: 6377533

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150