JP6573744B2 - 物体追跡装置及び物体追跡方法 - Google Patents
物体追跡装置及び物体追跡方法 Download PDFInfo
- Publication number
- JP6573744B2 JP6573744B2 JP2019503834A JP2019503834A JP6573744B2 JP 6573744 B2 JP6573744 B2 JP 6573744B2 JP 2019503834 A JP2019503834 A JP 2019503834A JP 2019503834 A JP2019503834 A JP 2019503834A JP 6573744 B2 JP6573744 B2 JP 6573744B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- feature amount
- video
- weighting information
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Description
以下の特許文献1に開示されている物体追跡装置は、時系列映像を撮影する撮影機器、あるいは、時系列映像の撮影環境が変化しても、物体の追跡精度の劣化を防止するために、物体の追跡パラメータを自動的に調整する機能を備えている。
以下の特許文献1では、撮影機器の変化として、時系列映像の解像度の変化と、時系列映像のフレームレートの変化とが想定されている。
また、以下の特許文献1では、撮影環境の変化として、撮影機器の設置角度の変化と、撮影機器と監視対象の物体との相対的な位置関係の変化とが想定されている。
図1は、この発明の実施の形態1による物体追跡装置を示す構成図であり、図2は、この発明の実施の形態1による物体追跡装置を示すハードウェア構成図である。
図1及び図2において、カメラ1は、監視エリアを撮影する撮影機器であり、複数の映像フレームから構成されている時系列映像を撮影して、時系列映像を物体追跡装置に出力する。
また、カメラ1は、時系列映像の解像度及び時系列映像のフレームレートを示す映像情報を物体追跡装置に出力する。
ここでは、撮影機器がカメラ1である例を示しているが、撮影機器は、カメラ1に限るものではなく、例えば、デジタルビデオレコーダなどであってもよい。
また、複数の映像フレームから構成されている時系列映像が事前に記録されている記録媒体が、カメラ1の代わりに物体追跡装置に接続され、記録媒体に記録されている時系列映像が物体追跡装置に取り込まれるものであってもよい。
物体検出部11は、カメラ1から出力された時系列映像及び映像情報を取得する処理を実施する。
また、物体検出部11は、取得した時系列映像を構成している映像フレーム毎に、当該映像フレーム内に存在している1つ以上の物体を検出する処理を実施する。
また、物体検出部11は、物体の検出結果の確からしさを示す信頼度をそれぞれ算出する処理を実施する。
混雑度推定部12は、映像フレーム毎に、当該映像フレームの映像を解析することで、物体検出部11により検出された各々の物体が存在している領域の混雑度をそれぞれ推定する処理を実施する。
物体選定部13は、例えば図2に示す物体選定回路23で実現される。
物体選定部13は、映像フレーム毎に、混雑度推定部12による混雑度の推定結果を参照して、物体検出部11により検出された1つ以上の物体の中から、混雑度が基準混雑度(第1の閾値)以下の領域に存在している物体をそれぞれ選定する処理を実施する。
ただし、物体選定部13は、混雑度が基準混雑度よりも大きい領域に存在している物体であっても、物体検出部11により算出された検出結果の信頼度が基準信頼度(第2の閾値)以上の物体については選定する。
重み付け情報記憶部14は、時系列映像の解像度と時系列映像のフレームレートとの組み合わせ毎に、複数の特徴量の重み付けを示す重み付け情報を記憶している。
特徴量算出部15は、例えば図2に示す特徴量算出回路25で実現される。
特徴量算出部15は、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中で、カメラ1から出力された映像情報が示す時系列映像の解像度及びフレームレートの組み合わせと一致している組み合わせを特定する処理を実施する。
また、特徴量算出部15は、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、特定した組み合わせに対応する重み付け情報を取得する。
特徴量算出部15は、映像フレーム毎に、取得した重み付け情報に従って、物体選定部13により選定された各々の物体の特徴量をそれぞれ算出する処理を実施する。
物体追跡部16は、特徴量算出部15により算出された各々の物体の特徴量に従って、物体選定部13により選定された互いに異なる映像フレーム内に存在している物体の間の対応付けを行う。
ここで、重み付け情報記憶回路24は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性又は揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)などが該当する。
また、物体検出回路21、混雑度推定回路22、物体選定回路23、特徴量算出回路25及び物体追跡回路26は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、または、これらを組み合わせたものが該当する。
ソフトウェア又はファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)などが該当する。
図3において、映像入力器31は、カメラ1に対するインタフェース機器であり、カメラ1から出力された時系列映像を取得する。
映像情報入力器32は、カメラ1に対するインタフェース機器であり、カメラ1から出力された映像情報を取得する。
プロセッサ33は、メモリ34に格納されているプログラムを実行する。
メモリ34は、プロセッサ33が実行するプログラム及び重み付け情報などを格納している。
結果出力器35は、例えば表示装置等に対するインタフェース機器であり、物体追跡装置の追跡結果などを出力する。
図4は、図1の物体追跡装置がソフトウェア又はファームウェアなどで実現される場合の処理手順である物体追跡方法を示すフローチャートである。
この実施の形態1では、物体の監視エリア内に複数の人物が存在しており、物体の追跡対象が監視エリア内に存在している複数の人物である例を説明する。
ただし、物体の追跡対象は、監視エリア内に存在している物体であればよく、人物に限るものではない。このため、例えば、車両、動物又はロボットなどの物体が追跡対象であってもよい。
また、カメラ1は、時系列映像の解像度及び時系列映像のフレームレートを示す映像情報を物体追跡装置に出力する。
映像フレーム内に存在している人物(物体)の検出処理自体は、公知の技術であるため詳細な説明を省略するが、例えば、以下の検出方法を用いることができる。
例えば、映像フレームにおける色の勾配方向及び輝度の勾配方向を特徴量(ACF:Aggregated Channel Features)として抽出し、AdaBoost(Adaptive Boosting)分類器が、特徴量であるACFを用いて、人物を検出する方法を用いることができる。この検出方法は、以下の非特許文献1に開示されている。
[非特許文献1]
“Fast Feature Pyramids for Object Detection”, In PAMI, 2014.
[非特許文献2]
“Histograms of Oriented Gradients for Human Detection,”In CVPR, 2005
また、深層学習を用いて、人物を検出する方法を用いることができる。この検出方法は、例えば、以下の非特許文献3に開示されている。
[非特許文献3]
“Deep Neural Networks for Object Detection”,In NIPS, 2013
物体検出部11は、人物の検出結果として、映像フレーム内で人物が存在している領域の座標を示す座標情報、あるいは、映像フレーム内に存在している人物を包含する矩形領域の座標を示す座標情報を出力する。
人物が存在している領域の座標としては、例えば、人物の形状を表すエッジの座標などが考えられる。
この実施の形態1では、人物を包含する矩形領域の座標についても、人物が存在している領域の座標として扱うものとする。
また、物体検出部11は、人物の検出結果の確からしさを示す信頼度をそれぞれ算出し、算出した信頼度を物体選定部13に出力する(図4のステップST2)。
検出結果の確からしさを示す信頼度は、物体検出部11により検出された物体が、人物である確率を示すものであり、人物である可能性が高いほど、大きな値となる。
信頼度の算出方法は、公知の技術であるため詳細な説明を省略する。信頼度の算出方法は、例えば、以下の特許文献2に開示されている。
[特許文献2]特開2012−133445号公報
図5は、1つの映像フレーム内に人物が6人に存在している例を示している。
図5には、物体検出部11により検出された人物を包含する矩形領域が示されており、各々の矩形領域の周囲には、当該矩形領域に包含されている人物の検出結果の信頼度が示されている。
図5では、物体検出部11により検出された6人の人物を識別するための記号として、人物を包含する矩形領域内にA,B,C,D,E及びFの記号を付している。
混雑度推定部12は、時系列映像を構成している映像フレーム毎に、当該映像フレームの映像を解析することで、物体検出部11により検出された各々の人物が存在している領域の混雑度をそれぞれ推定する(図4のステップST3)。
領域の混雑度を推定する方法は、公知の技術であるため詳細な説明を省略する。混雑度の推定方法は、例えば、以下の非特許文献4に開示されている。
[非特許文献4]
“Estimation of Crowd Density using Image Processing”In IEE Colloquium on Image Processing for Security Applications,2002.
図6では、混雑度として、1平方メートル当りの人物の数(人数/m2)を示している。
ただし、物体選定部13は、混雑度が基準混雑度よりも大きい領域に存在している人物であっても、物体検出部11により算出された検出結果の信頼度が基準信頼度以上の人物については選定する。
以下、物体選定部13による人物の選定処理を具体的に説明する。
次に、物体選定部13は、物体検出部11により検出された一人以上の人物の中に、未だ追跡対象の人物であるか否かの判定処理が済んでいない人物が残っているか否かを判定する(図4のステップST4)。判定処理は、ステップST5の処理又はステップST7の処理である。
物体選定部13は、既に、追跡対象の人物であるか否かの判定処理が済んでいない人物が残っていなければ(図4のステップST4:NOの場合)、物体選定部13による人物の選定処理を終了して、ステップST8の処理に移行する。
物体選定部13は、人物が存在している領域の混雑度が基準混雑度以下であれば(図4のステップST5:YESの場合)、当該人物を追跡対象の人物として選定する(図4のステップST6)。
図7の例では、混雑度が基準混雑度よりも大きい領域を混雑領域としており、人物C、人物D、人物E及び人物Fが混雑領域に存在している。
このため、図7の例では、人物A及び人物Bが、追跡対象の人物として選定される。
物体選定部13は、当該人物の検出結果についての信頼度が基準信頼度以上であれば(図4のステップST7:YESの場合)、当該人物を追跡対象の人物として選定する(図4のステップST6)。
物体選定部13は、当該人物の検出結果についての信頼度が基準信頼度よりも小さければ(図4のステップST7:NOの場合)、当該人物を追跡対象の人物から除外する。
物体検出部11により検出された人物の全てについて、追跡対象の人物であるか否かの判定処理が終了するまで、ステップST4〜ST7の処理が繰り返される。
図8では、基準信頼度が50である例を示している。
このため、図8の例では、人物C、人物D、人物E及び人物Fが混雑領域に存在しているが、人物E及び人物Fの検出結果についての信頼度が基準信頼度以上であるために、人物E及び人物Fが、追跡対象の人物として選定されている。
一方、人物C及び人物Dの検出結果についての信頼度が基準信頼度よりも小さいために、人物C及び人物Dは、追跡対象の人物から除外されている。
なお、人物Bの検出結果についての信頼度は、基準信頼度よりも小さいが、既に、混雑度に基づいて、追跡対象の人物として選定されている。
このため、最終的には、人物A、人物B、人物E及び人物Fが追跡対象の人物として選定されている。
図9は、時系列映像の解像度と時系列映像のフレームレートとの組み合わせに対応する特徴量の重み付け情報の一例を示す説明図である。
図9では、特徴量が「色」、「動き」及び「エッジ」である例を示している。色は物体である人物の色、動きは物体である人物の動き、エッジは物体である人物の形状を表すものである。
図9では、時系列映像の解像度が〇〇〇[ppi]又は△△△[ppi]、フレームレートが□□□[fps]又は☆☆☆[fps]である例を示している。また、解像度〇〇〇[ppi]が解像度△△△[ppi]よりも高く、フレームレート□□□[fps]がフレームレート☆☆☆[fps]よりも高い例を示している。
例えば、時系列映像の解像度が〇〇〇[ppi]で、時系列映像のフレームレートが□□□[fps]である場合の組み合わせは、「色」、「動き」及び「エッジ」に対する重み付けが、色:動き:エッジ=5:3:3であることを示している。
また、時系列映像の解像度が△△△[ppi]で、時系列映像のフレームレートが☆☆☆□[fps]である場合の組み合わせは、「色」、「動き」及び「エッジ」に対する重み付けが、色:動き:エッジ=9:3:2であることを示している。
例えば、カメラ1の設置角度及び追跡対象の物体の種類に対応する特徴量の重み付け情報が重み付け情報記憶部14に記憶されているものであってもよい。
また、カメラ1の設置角度及び時系列映像内の混雑度合に対応する特徴量の重み付け情報が重み付け情報記憶部14に記憶されているものであってもよい。
次に、特徴量算出部15は、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、特定した組み合わせに対応する重み付け情報を取得する。
次に、特徴量算出部15は、映像フレーム毎に、取得した重み付け情報に従って、物体選定部13により選定された各々の人物の特徴量Pをそれぞれ算出する(図4のステップST8)。
特徴量算出部15は、例えば、人物の特徴量Pの要素として、人物の色を示す特徴量P1、人物の動きを示す特徴量P2及び人物のエッジを示す特徴量P3をそれぞれ算出する。
特徴量P1,P2及P3の算出処理自体は、公知の技術であるため詳細な説明を省略する。
特徴量算出部15は、人物の色を示す特徴量P1、人物の動きを示す特徴量P2及び人物のエッジを示す特徴量P3をそれぞれ算出すると、重み付け情報記憶部14から取得した重み付け情報に従って、特徴量P1,P2及P3の重み付け加算を行う。
特徴量算出部15は、特徴量P1,P2及P3の重み付け加算結果を最終的な特徴量Pとして物体追跡部16に出力する。
例えば、時系列映像の解像度が△△△[ppi]で、時系列映像のフレームレートが□□□[fps]である場合、特徴量算出部15は、「色」、「動き」及び「エッジ」に対する重み付け情報として、色:動き:エッジ=5:4:3を取得する。
この場合、特徴量算出部15は、この重み付け情報を用いて、例えば、以下の式(1)に示すように、特徴量Pを算出する。
物体追跡部16は、互いに異なる映像フレーム内に存在している人物の間の対応付け結果を人物の追跡結果として出力する。
互いに異なる映像フレーム内に存在している人物の間の対応付け方法としては、例えば、以下の非特許文献5に開示されている方法を用いることができる。
[非特許文献5]
“Globally−Optimal Greedy Algorithms for Tracking a Variable Number of Objects” In CVPR,2011.
例えば、映像フレーム(1)に存在している人物が、人物A、人物B、人物E及び人物Fであり、映像フレーム(2)に存在している人物が、人物A’、人物B’、人物E’及び人物F’であるとする。
このとき、映像フレーム(1)に存在している人物Aの特徴量がPA=30、人物Bの特徴量がPB=40、人物Eの特徴量がPE=50、人物Fの特徴量がPF=60であるとする。
また、映像フレーム(2)に存在している人物A’の特徴量がPA’=32、人物B’の特徴量がPB’=42、人物E’の特徴量がPE’=48、人物F’の特徴量がPF’=67であるとする。
さらに、対応付けが可能な2つの映像フレーム間での特徴量の最大差分が3であるとする。
しかしながら、人物Fの特徴量PF=60と、人物F’の特徴量PF’=67との差分が7であり、この差分が特徴量の最大差分である3以上である。このため、映像フレーム(1)に存在している人物Fは、映像フレーム(2)に存在しているどの人物とも対応付けられない。
また、映像フレーム(2)に存在している人物F’についても、映像フレーム(1)に存在しているどの人物とも対応付けられない。
しかし、人物Aの特徴量PA=37と、人物A’の特徴量PA’=32との差分が5であり、この差分が特徴量の最大差分である3以上である。また、人物Aの特徴量PA=37と、人物B’の特徴量PB’=42との差分が5であり、この差分が特徴量の最大差分である3以上である。
このため、映像フレーム(1)に存在している人物Aは、映像フレーム(2)に存在しているどの人物とも対応付けられない。
上記実施の形態1では、特徴量算出部15が、重み付け情報記憶部14に記憶されている複数の組み合わせに対応する重み付け情報の中から、カメラ1から出力された映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせに対応する重み付け情報を取得する例を示している。
しかしながら、重み付け情報記憶部14には、カメラ1から出力された映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせに対応する重み付け情報が記憶されていない場合もある。
この実施の形態2では、カメラ1から出力された映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせに対応する重み付け情報が記憶されていない場合でも、特徴量算出部15が、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、適正な重み付け情報を取得できる例を説明する。
図10及び図11において、図1及び図2と同一符号は同一または相当部分を示すので説明を省略する。
特徴量算出部40は、例えば図11に示す特徴量算出回路50で実現される。
特徴量算出部40は、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中に、物体検出部11に与えられる時系列映像の解像度と物体検出部11に与えられる時系列映像のフレームレートとの組み合わせと一致している組み合わせがあるか否かを判定する処理を実施する。
即ち、特徴量算出部40は、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中に、カメラ1から出力された映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせがあるか否かを判定する処理を実施する。
特徴量算出部40は、一致している組み合わせがあると判定すれば、重み付け情報記憶部14から一致している組み合わせに対応する重み付け情報を取得する処理を実施する。
特徴量算出部40は、算出した類似度に基づいて、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、いずれか1つの重み付け情報を取得する処理を実施する。
特徴量算出部40は、図1の特徴量算出部15と同様に、映像フレーム毎に、取得した重み付け情報に従って、物体選定部13により選定された各々の人物の特徴量をそれぞれ算出する処理を実施する。
物体検出回路21、混雑度推定回路22、物体選定回路23、特徴量算出回路50及び物体追跡回路26は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、または、これらを組み合わせたものが該当する。
図10の物体追跡装置がソフトウェア又はファームウェアなどで実現される場合、重み付け情報記憶部14を図3に示すコンピュータのメモリ34上に構成するとともに、物体検出部11、混雑度推定部12、物体選定部13、特徴量算出部40及び物体追跡部16の処理手順をコンピュータに実行させるためのプログラムをメモリ34に格納し、コンピュータのプロセッサ33がメモリ34に格納されているプログラムを実行するようにすればよい。
特徴量算出部40以外は、上記実施の形態1と同様であるため、以下、図12を参照しながら、特徴量算出部40の処理内容だけを説明する。
図12は、この発明の実施の形態2による物体追跡装置の特徴量算出部40における処理内容を示すフローチャートである。
特徴量算出部40は、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中に、取得した映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせがあるか否かを判定する(図12のステップST12)。
図9の例では、時系列映像の解像度とフレームレートの組み合わせとして、解像度が〇〇〇[ppi]又は△△△[ppi]と、フレームレートが□□□[fps]又は☆☆☆[fps]である場合の4通りの組み合わせである。
したがって、図9の例では、取得した映像情報が示す解像度が〇〇〇[ppi]又は△△△[ppi]であり、かつ、取得した映像情報が示すフレームレートが□□□[fps]又は☆☆☆[fps]であれば、特徴量算出部40は、一致している組み合わせがあると判定する。
特徴量算出部40は、一致している組み合わせがないと判定すれば(図12のステップST12:NOの場合)、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせにおける解像度及びフレームレートと、取得した映像情報が示す解像度及びフレームレートとの類似度をそれぞれ算出する(図12のステップST14)。
ここでは、説明の便宜上、取得した映像情報が示す解像度がa、取得した映像情報が示すフレームレートがbであるとする。
また、解像度〇〇〇[ppi]がa1、解像度△△△[ppi]がa2、フレームレート□□□[fps]がb1、フレームレート☆☆☆[fps]がb2であるとする。
解像度〇〇〇[ppi]とフレームレート□□□[fps]の組み合わせが組み合わせ(1)、解像度〇〇〇[ppi]とフレームレート☆☆☆[fps]の組み合わせが組み合わせ(2)、解像度△△△[ppi]とフレームレート□□□[fps]の組み合わせが組み合わせ(3)、解像度△△△[ppi]とフレームレート☆☆☆[fps]の組み合わせが組み合わせ(4)であるとする。
また、特徴量算出部40は、以下の式(4)に示すように、取得した映像情報が示すフレームレートbと、フレームレートb1との差分Δb1を算出するとともに、以下の式(5)に示すように、取得した映像情報が示すフレームレートbと、フレームレートb2との差分Δb2を算出する。
特徴量算出部40は、以下の式(7)に示すように、組み合わせ(2)における解像度a1及びフレームレートb2と、取得した映像情報が示す解像度a及びフレームレートbとの類似度R2を算出する。
特徴量算出部40は、以下の式(9)に示すように、組み合わせ(4)における解像度a2及びフレームレートb2と、取得した映像情報が示す解像度a及びフレームレートbとの類似度R4を算出する。
特徴量算出部40は、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、最も高い類似度に係る組み合わせに対応する重み付け情報を取得する(図12のステップST16)。
例えば、組み合わせ(1)〜(4)の中で、最も高い類似度に係る組み合わせが組み合わせ(1)であれば、「色」、「動き」及び「エッジ」に対する重み付けが、色:動き:エッジ=5:3:3であることを示する重み付け情報を取得する。
また、最も高い類似度に係る組み合わせが組み合わせ(2)であれば、「色」、「動き」及び「エッジ」に対する重み付けが、色:動き:エッジ=8:2:2であることを示する重み付け情報を取得する。
Claims (7)
- 時系列映像を構成している映像フレーム毎に、当該映像フレーム内に存在している1つ以上の物体を検出する物体検出部と、
映像フレーム毎に、前記物体検出部により検出された各々の物体が存在している領域の混雑度をそれぞれ推定する混雑度推定部と、
映像フレーム毎に、前記混雑度推定部による混雑度の推定結果を参照して、前記物体検出部により検出された1つ以上の物体の中から、混雑度が第1の閾値以下の領域に存在している物体をそれぞれ選定する物体選定部と、
映像フレーム毎に、前記物体選定部により選定された各々の物体の特徴量をそれぞれ算出する特徴量算出部と、
前記特徴量算出部により算出された各々の物体の特徴量に従って、前記物体選定部により選定された互いに異なる映像フレーム内に存在している物体の間の対応付けを行う物体追跡部と
を備えた物体追跡装置。 - 前記物体検出部は、映像フレーム内に存在している各々の物体の検出結果の確からしさを示す信頼度をそれぞれ算出し、
前記物体選定部は、混雑度が前記第1の閾値よりも大きい領域に存在している物体であっても、前記物体検出部により算出された検出結果の信頼度が第2の閾値以上の物体については選定することを特徴とする請求項1記載の物体追跡装置。 - 前記物体選定部は、前記物体検出部による各々の物体の検出結果の確からしさを示す信頼度をそれぞれ算出し、混雑度が前記第1の閾値よりも大きい領域に存在している物体であっても、算出した信頼度が第2の閾値以上の物体については選定することを特徴とする請求項1記載の物体追跡装置。
- 前記物体の特徴量として、複数の特徴量があり、
複数の特徴量の重み付け情報を記憶している重み付け情報記憶部を備え、
前記特徴量算出部は、前記重み付け情報記憶部に記憶されている重み付け情報に従って前記物体選定部により選定された各々の物体の特徴量をそれぞれ算出することを特徴とする請求項1記載の物体追跡装置。 - 前記重み付け情報記憶部は、時系列映像の解像度と時系列映像のフレームレートとの組み合わせ毎に、前記重み付け情報を記憶していることを特徴とする請求項4記載の物体追跡装置。
- 前記特徴量算出部は、前記重み付け情報記憶部に記憶されている複数の重み付け情報に対応する組み合わせの中に、前記物体検出部に与えられる時系列映像の解像度と前記物体検出部に与えられる時系列映像のフレームレートとの組み合わせと一致している組み合わせがなければ、前記重み付け情報記憶部に記憶されている複数の重み付け情報に対応する組み合わせにおける解像度及びフレームレートと、前記物体検出部に与えられる時系列映像の解像度及び前記物体検出部に与えられる時系列映像のフレームレートとの類似度をそれぞれ算出し、前記類似度に基づいて、前記重み付け情報記憶部に記憶されている複数の重み付け情報の中から、いずれか1つの重み付け情報を取得し、取得した重み付け情報に従って前記物体選定部により選定された各々の物体の特徴量をそれぞれ算出することを特徴とする請求項5記載の物体追跡装置。
- 物体検出部が、時系列映像を構成している映像フレーム毎に、当該映像フレーム内に存在している1つ以上の物体を検出し、
混雑度推定部が、映像フレーム毎に、前記物体検出部により検出された各々の物体が存在している領域の混雑度をそれぞれ推定し、
物体選定部が、映像フレーム毎に、前記混雑度推定部による混雑度の推定結果を参照して、前記物体検出部により検出された1つ以上の物体の中から、混雑度が第1の閾値以下の領域に存在している物体をそれぞれ選定し、
特徴量算出部が、映像フレーム毎に、前記物体選定部により選定された各々の物体の特徴量をそれぞれ算出し、
物体追跡部が、前記特徴量算出部により算出された各々の物体の特徴量に従って、前記物体選定部により選定された互いに異なる映像フレーム内に存在している物体の間の対応付けを行う
物体追跡方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/008768 WO2018163243A1 (ja) | 2017-03-06 | 2017-03-06 | 物体追跡装置及び物体追跡方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6573744B2 true JP6573744B2 (ja) | 2019-09-11 |
JPWO2018163243A1 JPWO2018163243A1 (ja) | 2019-11-07 |
Family
ID=62951733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019503834A Active JP6573744B2 (ja) | 2017-03-06 | 2017-03-06 | 物体追跡装置及び物体追跡方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11074698B2 (ja) |
JP (1) | JP6573744B2 (ja) |
CN (1) | CN110366741A (ja) |
GB (1) | GB2573703B (ja) |
TW (1) | TWI624806B (ja) |
WO (1) | WO2018163243A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI697846B (zh) | 2018-11-26 | 2020-07-01 | 財團法人工業技術研究院 | 物體辨識方法及其裝置 |
CN110895141A (zh) * | 2019-11-28 | 2020-03-20 | 梁彦云 | 住宅空间拥挤度分析平台 |
KR102311798B1 (ko) * | 2019-12-12 | 2021-10-08 | 포항공과대학교 산학협력단 | 다중 객체 추적 방법 및 장치 |
EP4036856A1 (en) * | 2021-02-02 | 2022-08-03 | Axis AB | Updating of annotated points in a digital image |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11341339A (ja) | 1998-05-29 | 1999-12-10 | Sony Corp | ビデオカメラ装置 |
JP2003187248A (ja) * | 2001-12-21 | 2003-07-04 | Mitsubishi Electric Corp | 画像処理システムおよび画像処理装置 |
TWI222595B (en) * | 2003-09-09 | 2004-10-21 | Icp Electronics Inc | Image overlapping display system and method |
JP4830650B2 (ja) | 2005-07-05 | 2011-12-07 | オムロン株式会社 | 追跡装置 |
WO2007033286A2 (en) * | 2005-09-13 | 2007-03-22 | Verificon Corporation | System and method for object tracking and activity analysis |
JP4268644B2 (ja) * | 2007-01-22 | 2009-05-27 | アジア航測株式会社 | 移動体検出システム、移動体検出装置、移動体検出方法及び移動体検出プログラム |
JP5121508B2 (ja) * | 2008-03-03 | 2013-01-16 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム及び記憶媒体 |
JP5227888B2 (ja) | 2009-05-21 | 2013-07-03 | 富士フイルム株式会社 | 人物追跡方法、人物追跡装置および人物追跡プログラム |
JP5459674B2 (ja) * | 2010-09-13 | 2014-04-02 | 株式会社東芝 | 移動物体追跡システムおよび移動物体追跡方法 |
JP2012133445A (ja) | 2010-12-20 | 2012-07-12 | Panasonic Corp | 目的物検出装置および目的物検出方法 |
JP4784709B1 (ja) * | 2011-03-10 | 2011-10-05 | オムロン株式会社 | 対象物追跡装置、対象物追跡方法、および制御プログラム |
US8989448B2 (en) * | 2011-03-22 | 2015-03-24 | Morpho, Inc. | Moving object detecting device, moving object detecting method, moving object detection program, moving object tracking device, moving object tracking method, and moving object tracking program |
JP5792990B2 (ja) * | 2011-04-28 | 2015-10-14 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
EP2728518A4 (en) | 2011-06-28 | 2016-07-06 | Ibm | INFORMATION PROCESSING DEVICE, METHOD, AND PROGRAM FOR OBTAINING SIZE WEIGHT VALUE IN SUBJECTIVE HIERARCHICAL GROUP |
JP6033695B2 (ja) * | 2013-01-28 | 2016-11-30 | 株式会社日立製作所 | エレベータ監視装置及びエレベータ監視方法 |
US9383840B2 (en) * | 2013-04-22 | 2016-07-05 | Samsung Display Co., Ltd. | Method and apparatus to reduce display lag using image overlay |
WO2015025704A1 (ja) * | 2013-08-23 | 2015-02-26 | 日本電気株式会社 | 映像処理装置、映像処理方法および映像処理プログラム |
JP6200306B2 (ja) * | 2013-12-09 | 2017-09-20 | 株式会社日立製作所 | 映像検索装置、映像検索方法、および記憶媒体 |
JP6266088B2 (ja) * | 2014-03-11 | 2018-01-24 | 三菱電機株式会社 | 人物検出装置および人物検出方法 |
-
2017
- 2017-03-06 CN CN201780087806.0A patent/CN110366741A/zh active Pending
- 2017-03-06 GB GB1911069.1A patent/GB2573703B/en active Active
- 2017-03-06 US US16/483,074 patent/US11074698B2/en active Active
- 2017-03-06 WO PCT/JP2017/008768 patent/WO2018163243A1/ja active Application Filing
- 2017-03-06 JP JP2019503834A patent/JP6573744B2/ja active Active
- 2017-06-14 TW TW106119760A patent/TWI624806B/zh not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
GB201911069D0 (en) | 2019-09-18 |
TW201833870A (zh) | 2018-09-16 |
TWI624806B (zh) | 2018-05-21 |
WO2018163243A1 (ja) | 2018-09-13 |
US11074698B2 (en) | 2021-07-27 |
GB2573703B (en) | 2020-09-09 |
JPWO2018163243A1 (ja) | 2019-11-07 |
CN110366741A (zh) | 2019-10-22 |
US20200013172A1 (en) | 2020-01-09 |
GB2573703A (en) | 2019-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6573744B2 (ja) | 物体追跡装置及び物体追跡方法 | |
CN105306813B (zh) | 图像处理装置及图像处理方法 | |
JP6555906B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US9721153B2 (en) | Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type | |
JP2004192637A (ja) | 顔検出 | |
JP2004199669A (ja) | 顔検出 | |
JP6927322B2 (ja) | 脈波検出装置、脈波検出方法、及びプログラム | |
US20180174308A1 (en) | Device for measuring rotation of spherical body, measurement method, and program | |
JP2005174352A (ja) | オブジェクト検出 | |
JP2005174353A (ja) | オブジェクト検出 | |
JP2017076288A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6116765B1 (ja) | 物体検出装置及び物体検出方法 | |
US20220321792A1 (en) | Main subject determining apparatus, image capturing apparatus, main subject determining method, and storage medium | |
US20180314893A1 (en) | Information processing device, video image monitoring system, information processing method, and recording medium | |
US11544926B2 (en) | Image processing apparatus, method of processing image, and storage medium | |
JP7243372B2 (ja) | 物体追跡装置および物体追跡方法 | |
JP2012181710A (ja) | オブジェクト追跡装置、方法、及びプログラム | |
US20210390712A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JPH09322153A (ja) | 自動監視装置 | |
JP7208051B2 (ja) | 状態認識装置 | |
JP2014203133A (ja) | 画像処理装置、画像処理方法 | |
US10372750B2 (en) | Information processing apparatus, method, program and storage medium | |
JP6959444B2 (ja) | 計測情報処理装置 | |
KR101304311B1 (ko) | 대응 영상의 유사성 측정 방법 및 그 기록매체 | |
JP2018195872A (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190410 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190410 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190716 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190813 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6573744 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |