JP6573744B2 - 物体追跡装置及び物体追跡方法 - Google Patents

物体追跡装置及び物体追跡方法 Download PDF

Info

Publication number
JP6573744B2
JP6573744B2 JP2019503834A JP2019503834A JP6573744B2 JP 6573744 B2 JP6573744 B2 JP 6573744B2 JP 2019503834 A JP2019503834 A JP 2019503834A JP 2019503834 A JP2019503834 A JP 2019503834A JP 6573744 B2 JP6573744 B2 JP 6573744B2
Authority
JP
Japan
Prior art keywords
unit
feature amount
video
weighting information
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019503834A
Other languages
English (en)
Other versions
JPWO2018163243A1 (ja
Inventor
直大 澁谷
直大 澁谷
守屋 芳美
芳美 守屋
杉本 和夫
和夫 杉本
彰 峯澤
彰 峯澤
夢雄 王
夢雄 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6573744B2 publication Critical patent/JP6573744B2/ja
Publication of JPWO2018163243A1 publication Critical patent/JPWO2018163243A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

この発明は、互いに異なる映像フレーム内に存在している物体の間の対応付けを行う物体追跡装置及び物体追跡方法に関するものである。
近年、時系列映像を構成している映像フレーム毎に、当該映像フレーム内に存在している1つ以上の物体を検出し、複数の映像フレーム内に存在している物体の間の対応付けを行うことで、物体の追跡を行う物体追跡装置が開発されている。
以下の特許文献1に開示されている物体追跡装置は、時系列映像を撮影する撮影機器、あるいは、時系列映像の撮影環境が変化しても、物体の追跡精度の劣化を防止するために、物体の追跡パラメータを自動的に調整する機能を備えている。
以下の特許文献1では、撮影機器の変化として、時系列映像の解像度の変化と、時系列映像のフレームレートの変化とが想定されている。
また、以下の特許文献1では、撮影環境の変化として、撮影機器の設置角度の変化と、撮影機器と監視対象の物体との相対的な位置関係の変化とが想定されている。
特開2012−59224号公報
従来の物体追跡装置は以上のように構成されているので、時系列映像を撮影する撮影機器、あるいは、時系列映像の撮影環境が変化しても、物体の追跡精度の劣化を防止することができる。しかし、複数の映像フレーム内に存在している物体の間の対応付けを行う際、映像フレーム内に存在している全ての物体を対応付けの対象に含めている。このため、例えば、物体の監視エリアが混雑している状況など、高精度に物体を検出することが困難な状況であっても、物体検出処理で検出された物体については、対応付けの対象に含められる。したがって、誤って検出された物体が対応付けの対象に含められる場合があり、このような場合には、物体の追跡精度が劣化してしまうという課題があった。
この発明は上記のような課題を解決するためになされたもので、物体の監視エリアが混雑している状況でも、物体の追跡精度の劣化を防止することができる物体追跡装置及び物体追跡方法を得ることを目的とする。
この発明に係る物体追跡装置は、時系列映像を構成している映像フレーム毎に、当該映像フレーム内に存在している1つ以上の物体を検出する物体検出部と、映像フレーム毎に、物体検出部により検出された各々の物体が存在している領域の混雑度をそれぞれ推定する混雑度推定部と、映像フレーム毎に、混雑度推定部による混雑度の推定結果を参照して、物体検出部により検出された1つ以上の物体の中から、混雑度が第1の閾値以下の領域に存在している物体をそれぞれ選定する物体選定部と、映像フレーム毎に、物体選定部により選定された各々の物体の特徴量をそれぞれ算出する特徴量算出部とを設け、物体追跡部が、特徴量算出部により算出された各々の物体の特徴量に従って、物体選定部により選定された互いに異なる映像フレーム内に存在している物体の間の対応付けを行うようにしたものである。
この発明によれば、映像フレーム毎に、物体検出部により検出された各々の物体が存在している領域の混雑度をそれぞれ推定する混雑度推定部を設け、物体選定部が、映像フレーム毎に、混雑度推定部による混雑度の推定結果を参照して、物体検出部により検出された1つ以上の物体の中から、混雑度が第1の閾値以下の領域に存在している物体をそれぞれ選定するように構成したので、物体の監視エリアが混雑している状況でも、物体の追跡精度の劣化を防止することができる効果がある。
この発明の実施の形態1による物体追跡装置を示す構成図である。 この発明の実施の形態1による物体追跡装置を示すハードウェア構成図である。 図1の物体追跡装置がソフトウェア又はファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。 図1の物体追跡装置がソフトウェア又はファームウェアなどで実現される場合の処理手順である物体追跡方法を示すフローチャートである。 物体検出部11による人物の検出結果及び信頼度の一例を示す説明図である。 映像フレーム内の混雑度がヒートマップ化されている例を示す説明図である。 混雑度に基づく物体選定部13の選定結果を示す説明図である。 信頼度に基づく物体選定部13の選定結果を示す説明図である。 時系列映像の解像度と時系列映像のフレームレートとの組み合わせに対応する特徴量の重み付け情報の一例を示す説明図である。 この発明の実施の形態2による物体追跡装置を示す構成図である。 この発明の実施の形態2による物体追跡装置を示すハードウェア構成図である。 この発明の実施の形態2による物体追跡装置の特徴量算出部40における処理内容を示すフローチャートである。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1による物体追跡装置を示す構成図であり、図2は、この発明の実施の形態1による物体追跡装置を示すハードウェア構成図である。
図1及び図2において、カメラ1は、監視エリアを撮影する撮影機器であり、複数の映像フレームから構成されている時系列映像を撮影して、時系列映像を物体追跡装置に出力する。
また、カメラ1は、時系列映像の解像度及び時系列映像のフレームレートを示す映像情報を物体追跡装置に出力する。
複数の映像フレームから構成されている時系列映像としては、動画などの映像が考えられるが、動画などの映像に限るものではなく、例えば、複数の静止画が時系列に並んでいる映像であってもよい。
ここでは、撮影機器がカメラ1である例を示しているが、撮影機器は、カメラ1に限るものではなく、例えば、デジタルビデオレコーダなどであってもよい。
また、複数の映像フレームから構成されている時系列映像が事前に記録されている記録媒体が、カメラ1の代わりに物体追跡装置に接続され、記録媒体に記録されている時系列映像が物体追跡装置に取り込まれるものであってもよい。
物体検出部11は、例えば図2に示す物体検出回路21で実現される。
物体検出部11は、カメラ1から出力された時系列映像及び映像情報を取得する処理を実施する。
また、物体検出部11は、取得した時系列映像を構成している映像フレーム毎に、当該映像フレーム内に存在している1つ以上の物体を検出する処理を実施する。
また、物体検出部11は、物体の検出結果の確からしさを示す信頼度をそれぞれ算出する処理を実施する。
混雑度推定部12は、例えば図2に示す混雑度推定回路22で実現される。
混雑度推定部12は、映像フレーム毎に、当該映像フレームの映像を解析することで、物体検出部11により検出された各々の物体が存在している領域の混雑度をそれぞれ推定する処理を実施する。
物体選定部13は、例えば図2に示す物体選定回路23で実現される。
物体選定部13は、映像フレーム毎に、混雑度推定部12による混雑度の推定結果を参照して、物体検出部11により検出された1つ以上の物体の中から、混雑度が基準混雑度(第1の閾値)以下の領域に存在している物体をそれぞれ選定する処理を実施する。
ただし、物体選定部13は、混雑度が基準混雑度よりも大きい領域に存在している物体であっても、物体検出部11により算出された検出結果の信頼度が基準信頼度(第2の閾値)以上の物体については選定する。
重み付け情報記憶部14は、例えば図2に示す重み付け情報記憶回路24で実現される。
重み付け情報記憶部14は、時系列映像の解像度と時系列映像のフレームレートとの組み合わせ毎に、複数の特徴量の重み付けを示す重み付け情報を記憶している。
特徴量算出部15は、例えば図2に示す特徴量算出回路25で実現される。
特徴量算出部15は、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中で、カメラ1から出力された映像情報が示す時系列映像の解像度及びフレームレートの組み合わせと一致している組み合わせを特定する処理を実施する。
また、特徴量算出部15は、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、特定した組み合わせに対応する重み付け情報を取得する。
特徴量算出部15は、映像フレーム毎に、取得した重み付け情報に従って、物体選定部13により選定された各々の物体の特徴量をそれぞれ算出する処理を実施する。
物体追跡部16は、例えば図2に示す物体追跡回路26で実現される。
物体追跡部16は、特徴量算出部15により算出された各々の物体の特徴量に従って、物体選定部13により選定された互いに異なる映像フレーム内に存在している物体の間の対応付けを行う。
図1では、物体追跡装置の構成要素である物体検出部11、混雑度推定部12、物体選定部13、重み付け情報記憶部14、特徴量算出部15及び物体追跡部16のそれぞれが、図2に示すような専用のハードウェアで実現されるものを想定している。即ち、物体検出回路21、混雑度推定回路22、物体選定回路23、重み付け情報記憶回路24、特徴量算出回路25及び物体追跡回路26で実現されるものを想定している。
ここで、重み付け情報記憶回路24は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性又は揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)などが該当する。
また、物体検出回路21、混雑度推定回路22、物体選定回路23、特徴量算出回路25及び物体追跡回路26は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、または、これらを組み合わせたものが該当する。
ただし、物体追跡装置の構成要素は、専用のハードウェアで実現されるものに限るものではなく、物体追跡装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
ソフトウェア又はファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)などが該当する。
図3は、図1の物体追跡装置がソフトウェア又はファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
図3において、映像入力器31は、カメラ1に対するインタフェース機器であり、カメラ1から出力された時系列映像を取得する。
映像情報入力器32は、カメラ1に対するインタフェース機器であり、カメラ1から出力された映像情報を取得する。
プロセッサ33は、メモリ34に格納されているプログラムを実行する。
メモリ34は、プロセッサ33が実行するプログラム及び重み付け情報などを格納している。
結果出力器35は、例えば表示装置等に対するインタフェース機器であり、物体追跡装置の追跡結果などを出力する。
図1の物体追跡装置がソフトウェア又はファームウェアなどで実現される場合、重み付け情報記憶部14をコンピュータのメモリ34上に構成するとともに、物体検出部11、混雑度推定部12、物体選定部13、特徴量算出部15及び物体追跡部16の処理手順をコンピュータに実行させるためのプログラムをメモリ34に格納し、コンピュータのプロセッサ33がメモリ34に格納されているプログラムを実行するようにすればよい。
図4は、図1の物体追跡装置がソフトウェア又はファームウェアなどで実現される場合の処理手順である物体追跡方法を示すフローチャートである。
次に動作について説明する。
この実施の形態1では、物体の監視エリア内に複数の人物が存在しており、物体の追跡対象が監視エリア内に存在している複数の人物である例を説明する。
ただし、物体の追跡対象は、監視エリア内に存在している物体であればよく、人物に限るものではない。このため、例えば、車両、動物又はロボットなどの物体が追跡対象であってもよい。
監視エリアを撮影するカメラ1は、複数の映像フレームから構成されている時系列映像を撮影して、時系列映像を物体追跡装置に出力する。
また、カメラ1は、時系列映像の解像度及び時系列映像のフレームレートを示す映像情報を物体追跡装置に出力する。
物体検出部11は、カメラ1から出力された時系列映像を取得すると、時系列映像を構成している映像フレーム毎に、当該映像フレーム内に存在している一人以上の人物を検出する(図4のステップST1)。
映像フレーム内に存在している人物(物体)の検出処理自体は、公知の技術であるため詳細な説明を省略するが、例えば、以下の検出方法を用いることができる。
例えば、映像フレームにおける色の勾配方向及び輝度の勾配方向を特徴量(ACF:Aggregated Channel Features)として抽出し、AdaBoost(Adaptive Boosting)分類器が、特徴量であるACFを用いて、人物を検出する方法を用いることができる。この検出方法は、以下の非特許文献1に開示されている。
[非特許文献1]
“Fast Feature Pyramids for Object Detection”, In PAMI, 2014.
また、輝度の勾配を特徴量(HOG:Histograms Of Oriented Gradients)として抽出し、SVM(Support Vector Machine)識別器が、特徴量であるSVMを用いて、人物を検出する方法を用いることができる。この検出方法は、例えば、以下の非特許文献2に開示されている。
[非特許文献2]
“Histograms of Oriented Gradients for Human Detection,”In CVPR, 2005
また、深層学習を用いて、人物を検出する方法を用いることができる。この検出方法は、例えば、以下の非特許文献3に開示されている。
[非特許文献3]
“Deep Neural Networks for Object Detection”,In NIPS, 2013
物体検出部11は、映像フレーム内に存在している一人以上の人物を検出すると、人物の検出結果を混雑度推定部12及び物体選定部13に出力する。
物体検出部11は、人物の検出結果として、映像フレーム内で人物が存在している領域の座標を示す座標情報、あるいは、映像フレーム内に存在している人物を包含する矩形領域の座標を示す座標情報を出力する。
人物が存在している領域の座標としては、例えば、人物の形状を表すエッジの座標などが考えられる。
この実施の形態1では、人物を包含する矩形領域の座標についても、人物が存在している領域の座標として扱うものとする。
また、物体検出部11は、人物の検出結果の確からしさを示す信頼度をそれぞれ算出し、算出した信頼度を物体選定部13に出力する(図4のステップST2)。
検出結果の確からしさを示す信頼度は、物体検出部11により検出された物体が、人物である確率を示すものであり、人物である可能性が高いほど、大きな値となる。
信頼度の算出方法は、公知の技術であるため詳細な説明を省略する。信頼度の算出方法は、例えば、以下の特許文献2に開示されている。
[特許文献2]特開2012−133445号公報
ここで、図5は、物体検出部11による人物の検出結果及び信頼度の一例を示す説明図である。
図5は、1つの映像フレーム内に人物が6人に存在している例を示している。
図5には、物体検出部11により検出された人物を包含する矩形領域が示されており、各々の矩形領域の周囲には、当該矩形領域に包含されている人物の検出結果の信頼度が示されている。
図5では、物体検出部11により検出された6人の人物を識別するための記号として、人物を包含する矩形領域内にA,B,C,D,E及びFの記号を付している。
混雑度推定部12は、カメラ1から出力された時系列映像及び物体検出部11の検出結果を取得する。
混雑度推定部12は、時系列映像を構成している映像フレーム毎に、当該映像フレームの映像を解析することで、物体検出部11により検出された各々の人物が存在している領域の混雑度をそれぞれ推定する(図4のステップST3)。
領域の混雑度を推定する方法は、公知の技術であるため詳細な説明を省略する。混雑度の推定方法は、例えば、以下の非特許文献4に開示されている。
[非特許文献4]
“Estimation of Crowd Density using Image Processing”In IEE Colloquium on Image Processing for Security Applications,2002.
図6は、映像フレーム内の混雑度がヒートマップ化されている例を示す説明図である。
図6では、混雑度として、1平方メートル当りの人物の数(人数/m)を示している。
物体選定部13は、映像フレーム毎に、混雑度推定部12による混雑度の推定結果を参照して、物体検出部11により検出された一人以上の人物の中から、混雑度が基準混雑度以下の領域に存在している人物を選定する。
ただし、物体選定部13は、混雑度が基準混雑度よりも大きい領域に存在している人物であっても、物体検出部11により算出された検出結果の信頼度が基準信頼度以上の人物については選定する。
以下、物体選定部13による人物の選定処理を具体的に説明する。
物体選定部13は、映像フレーム毎に、混雑度推定部12による混雑度の推定結果を参照して、物体検出部11により検出された各々の人物が存在している領域の混雑度を把握する。
次に、物体選定部13は、物体検出部11により検出された一人以上の人物の中に、未だ追跡対象の人物であるか否かの判定処理が済んでいない人物が残っているか否かを判定する(図4のステップST4)。判定処理は、ステップST5の処理又はステップST7の処理である。
物体選定部13は、既に、追跡対象の人物であるか否かの判定処理が済んでいない人物が残っていなければ(図4のステップST4:NOの場合)、物体選定部13による人物の選定処理を終了して、ステップST8の処理に移行する。
物体選定部13は、未だ追跡対象の人物であるか否かの判定処理が済んでいない人物が残っていれば(図4のステップST4:YESの場合)、判定処理が済んでいない人物が存在している領域の混雑度と、事前に設定されている基準混雑度とを比較して、当該人物が存在している領域の混雑度が基準混雑度以下であるか否かを判定する(図4のステップST5)。
物体選定部13は、人物が存在している領域の混雑度が基準混雑度以下であれば(図4のステップST5:YESの場合)、当該人物を追跡対象の人物として選定する(図4のステップST6)。
図7は、混雑度に基づく物体選定部13の選定結果を示す説明図である。
図7の例では、混雑度が基準混雑度よりも大きい領域を混雑領域としており、人物C、人物D、人物E及び人物Fが混雑領域に存在している。
このため、図7の例では、人物A及び人物Bが、追跡対象の人物として選定される。
物体選定部13は、人物が存在している領域の混雑度が基準混雑度よりも大きければ(図4のステップST5:NOの場合)、物体検出部11により算出された当該人物の検出結果についての信頼度と、事前に設定されている基準信頼度とを比較して、当該人物の検出結果についての信頼度が基準信頼度以上であるか否かを判定する(図4のステップST7)。
物体選定部13は、当該人物の検出結果についての信頼度が基準信頼度以上であれば(図4のステップST7:YESの場合)、当該人物を追跡対象の人物として選定する(図4のステップST6)。
物体選定部13は、当該人物の検出結果についての信頼度が基準信頼度よりも小さければ(図4のステップST7:NOの場合)、当該人物を追跡対象の人物から除外する。
物体検出部11により検出された人物の全てについて、追跡対象の人物であるか否かの判定処理が終了するまで、ステップST4〜ST7の処理が繰り返される。
図8は、信頼度に基づく物体選定部13の選定結果を示す説明図である。
図8では、基準信頼度が50である例を示している。
このため、図8の例では、人物C、人物D、人物E及び人物Fが混雑領域に存在しているが、人物E及び人物Fの検出結果についての信頼度が基準信頼度以上であるために、人物E及び人物Fが、追跡対象の人物として選定されている。
一方、人物C及び人物Dの検出結果についての信頼度が基準信頼度よりも小さいために、人物C及び人物Dは、追跡対象の人物から除外されている。
なお、人物Bの検出結果についての信頼度は、基準信頼度よりも小さいが、既に、混雑度に基づいて、追跡対象の人物として選定されている。
このため、最終的には、人物A、人物B、人物E及び人物Fが追跡対象の人物として選定されている。
重み付け情報記憶部14には、時系列映像の解像度と時系列映像のフレームレートとの組み合わせ毎に、複数の特徴量の重み付けを示す重み付け情報が記憶されている。
図9は、時系列映像の解像度と時系列映像のフレームレートとの組み合わせに対応する特徴量の重み付け情報の一例を示す説明図である。
図9では、特徴量が「色」、「動き」及び「エッジ」である例を示している。色は物体である人物の色、動きは物体である人物の動き、エッジは物体である人物の形状を表すものである。
図9では、時系列映像の解像度が〇〇〇[ppi]又は△△△[ppi]、フレームレートが□□□[fps]又は☆☆☆[fps]である例を示している。また、解像度〇〇〇[ppi]が解像度△△△[ppi]よりも高く、フレームレート□□□[fps]がフレームレート☆☆☆[fps]よりも高い例を示している。
例えば、時系列映像の解像度が〇〇〇[ppi]で、時系列映像のフレームレートが□□□[fps]である場合の組み合わせは、「色」、「動き」及び「エッジ」に対する重み付けが、色:動き:エッジ=5:3:3であることを示している。
また、時系列映像の解像度が△△△[ppi]で、時系列映像のフレームレートが☆☆☆□[fps]である場合の組み合わせは、「色」、「動き」及び「エッジ」に対する重み付けが、色:動き:エッジ=9:3:2であることを示している。
ここでは、時系列映像の解像度及び時系列映像のフレームレートに対応する特徴量の重み付け情報が重み付け情報記憶部14に記憶されている例を示しているが、これに限るものではない。
例えば、カメラ1の設置角度及び追跡対象の物体の種類に対応する特徴量の重み付け情報が重み付け情報記憶部14に記憶されているものであってもよい。
また、カメラ1の設置角度及び時系列映像内の混雑度合に対応する特徴量の重み付け情報が重み付け情報記憶部14に記憶されているものであってもよい。
特徴量算出部15は、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中で、カメラ1から出力された映像情報が示す時系列映像の解像度及びフレームレートの組み合わせと一致している組み合わせを特定する。
次に、特徴量算出部15は、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、特定した組み合わせに対応する重み付け情報を取得する。
次に、特徴量算出部15は、映像フレーム毎に、取得した重み付け情報に従って、物体選定部13により選定された各々の人物の特徴量Pをそれぞれ算出する(図4のステップST8)。
以下、各々の人物の特徴量Pの算出処理を簡単に説明する。
特徴量算出部15は、例えば、人物の特徴量Pの要素として、人物の色を示す特徴量P、人物の動きを示す特徴量P及び人物のエッジを示す特徴量Pをそれぞれ算出する。
特徴量P,P及Pの算出処理自体は、公知の技術であるため詳細な説明を省略する。
特徴量算出部15は、人物の色を示す特徴量P、人物の動きを示す特徴量P及び人物のエッジを示す特徴量Pをそれぞれ算出すると、重み付け情報記憶部14から取得した重み付け情報に従って、特徴量P,P及Pの重み付け加算を行う。
特徴量算出部15は、特徴量P,P及Pの重み付け加算結果を最終的な特徴量Pとして物体追跡部16に出力する。
例えば、時系列映像の解像度が△△△[ppi]で、時系列映像のフレームレートが□□□[fps]である場合、特徴量算出部15は、「色」、「動き」及び「エッジ」に対する重み付け情報として、色:動き:エッジ=5:4:3を取得する。
この場合、特徴量算出部15は、この重み付け情報を用いて、例えば、以下の式(1)に示すように、特徴量Pを算出する。
Figure 0006573744
物体追跡部16は、特徴量算出部15から物体選定部13により選定された各々の人物の特徴量Pを受けると、各々の人物の特徴量Pに従って、物体選定部13により選定された互いに異なる映像フレーム内に存在している人物の間の対応付けを行う(図4のステップST9)。
物体追跡部16は、互いに異なる映像フレーム内に存在している人物の間の対応付け結果を人物の追跡結果として出力する。
互いに異なる映像フレーム内に存在している人物の間の対応付け方法としては、例えば、以下の非特許文献5に開示されている方法を用いることができる。
[非特許文献5]
“Globally−Optimal Greedy Algorithms for Tracking a Variable Number of Objects” In CVPR,2011.
人物の間の対応付けは、特徴量が近い人物同士を対応付けるものであり、以下、簡単に人物の間の対応付け例を説明する。
例えば、映像フレーム(1)に存在している人物が、人物A、人物B、人物E及び人物Fであり、映像フレーム(2)に存在している人物が、人物A’、人物B’、人物E’及び人物F’であるとする。
このとき、映像フレーム(1)に存在している人物Aの特徴量がP=30、人物Bの特徴量がP=40、人物Eの特徴量がP=50、人物Fの特徴量がP=60であるとする。
また、映像フレーム(2)に存在している人物A’の特徴量がP’=32、人物B’の特徴量がP’=42、人物E’の特徴量がP’=48、人物F’の特徴量がP’=67であるとする。
さらに、対応付けが可能な2つの映像フレーム間での特徴量の最大差分が3であるとする。
この場合、映像フレーム(1)に存在している人物Aの特徴量P=30は、映像フレーム(2)に存在している4人の人物の特徴量の中で、人物A’の特徴量P’=32が最も近い。また、人物Aの特徴量P=30と、人物A’の特徴量P’=32との差分が2であり、この差分が特徴量の最大差分である3よりも小さい。このため、映像フレーム(1)に存在している人物Aと映像フレーム(2)に存在している人物A’とが対応付けられる。
映像フレーム(1)に存在している人物Bの特徴量P=40は、映像フレーム(2)に存在している4人の人物の特徴量の中で、人物B’の特徴量P’=42が最も近い。また、人物Bの特徴量P=40と、人物B’の特徴量P’=42との差分が2であり、この差分が特徴量の最大差分である3よりも小さい。このため、映像フレーム(1)に存在している人物Bと映像フレーム(2)に存在している人物B’とが対応付けられる。
映像フレーム(1)に存在している人物Eの特徴量P=50は、映像フレーム(2)に存在している4人の人物の特徴量の中で、人物E’の特徴量P’=48が最も近い。また、人物Eの特徴量P=50と、人物E’の特徴量P’=48との差分が2であり、この差分が特徴量の最大差分である3よりも小さい。このため、映像フレーム(1)に存在している人物Eと映像フレーム(2)に存在している人物E’とが対応付けられる。
映像フレーム(1)に存在している人物Fの特徴量P=60は、映像フレーム(2)に存在している4人の人物の特徴量の中で、人物F’の特徴量P’=67が最も近い。
しかしながら、人物Fの特徴量P=60と、人物F’の特徴量P’=67との差分が7であり、この差分が特徴量の最大差分である3以上である。このため、映像フレーム(1)に存在している人物Fは、映像フレーム(2)に存在しているどの人物とも対応付けられない。
また、映像フレーム(2)に存在している人物F’についても、映像フレーム(1)に存在しているどの人物とも対応付けられない。
ここでは、映像フレーム(1)に存在している人物Aの特徴量がP=30である例を示しているが、例えば、映像フレーム(1)に存在している人物Aの特徴量がP=37である場合、映像フレーム(2)に存在している4人の人物の特徴量の中で、人物A’の特徴量P’=32と人物B’の特徴量P’=42との2つが最も近い。
しかし、人物Aの特徴量P=37と、人物A’の特徴量P’=32との差分が5であり、この差分が特徴量の最大差分である3以上である。また、人物Aの特徴量P=37と、人物B’の特徴量P’=42との差分が5であり、この差分が特徴量の最大差分である3以上である。
このため、映像フレーム(1)に存在している人物Aは、映像フレーム(2)に存在しているどの人物とも対応付けられない。
以上で明らかなように、この実施の形態1によれば、映像フレーム毎に、物体検出部11により検出された各々の物体が存在している領域の混雑度をそれぞれ推定する混雑度推定部12を設け、物体選定部13が、映像フレーム毎に、混雑度推定部12による混雑度の推定結果を参照して、物体検出部11により検出された1つ以上の物体の中から、混雑度が第1の閾値以下の領域に存在している物体をそれぞれ選定するように構成したので、物体の監視エリアが混雑している状況でも、物体の追跡精度の劣化を防止することができる効果を奏する。
また、この実施の形態1によれば、物体選定部13が、混雑度が第1の閾値よりも大きい領域に存在している物体であっても、物体検出部11により算出された検出結果の信頼度が第2の閾値以上の物体については選定するように構成したので、物体の追跡精度の劣化を招くことなく、追跡可能な物体の数を増やすことができる効果を奏する。
この実施の形態1では、物体検出部11が、各々の物体の検出結果の確からしさを示す信頼度をそれぞれ算出する例を示したが、物体選定部13が、物体検出部11による各々の物体の検出結果の確からしさを示す信頼度をそれぞれ算出するようにしてもよい。
実施の形態2.
上記実施の形態1では、特徴量算出部15が、重み付け情報記憶部14に記憶されている複数の組み合わせに対応する重み付け情報の中から、カメラ1から出力された映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせに対応する重み付け情報を取得する例を示している。
しかしながら、重み付け情報記憶部14には、カメラ1から出力された映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせに対応する重み付け情報が記憶されていない場合もある。
この実施の形態2では、カメラ1から出力された映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせに対応する重み付け情報が記憶されていない場合でも、特徴量算出部15が、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、適正な重み付け情報を取得できる例を説明する。
図10は、この発明の実施の形態2による物体追跡装置を示す構成図であり、図11は、この発明の実施の形態2による物体追跡装置を示すハードウェア構成図である。
図10及び図11において、図1及び図2と同一符号は同一または相当部分を示すので説明を省略する。
特徴量算出部40は、例えば図11に示す特徴量算出回路50で実現される。
特徴量算出部40は、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中に、物体検出部11に与えられる時系列映像の解像度と物体検出部11に与えられる時系列映像のフレームレートとの組み合わせと一致している組み合わせがあるか否かを判定する処理を実施する。
即ち、特徴量算出部40は、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中に、カメラ1から出力された映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせがあるか否かを判定する処理を実施する。
特徴量算出部40は、一致している組み合わせがあると判定すれば、重み付け情報記憶部14から一致している組み合わせに対応する重み付け情報を取得する処理を実施する。
特徴量算出部40は、一致している組み合わせがないと判定すれば、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせにおける解像度及びフレームレートと、カメラ1から出力された映像情報が示す解像度及びフレームレートとの類似度をそれぞれ算出する処理を実施する。
特徴量算出部40は、算出した類似度に基づいて、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、いずれか1つの重み付け情報を取得する処理を実施する。
特徴量算出部40は、図1の特徴量算出部15と同様に、映像フレーム毎に、取得した重み付け情報に従って、物体選定部13により選定された各々の人物の特徴量をそれぞれ算出する処理を実施する。
図10では、物体追跡装置の構成要素である物体検出部11、混雑度推定部12、物体選定部13、重み付け情報記憶部14、特徴量算出部40及び物体追跡部16のそれぞれが、図11に示すような専用のハードウェアで実現されるものを想定している。即ち、物体検出回路21、混雑度推定回路22、物体選定回路23、重み付け情報記憶回路24、特徴量算出回路50及び物体追跡回路26で実現されるものを想定している。
物体検出回路21、混雑度推定回路22、物体選定回路23、特徴量算出回路50及び物体追跡回路26は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、または、これらを組み合わせたものが該当する。
ただし、物体追跡装置の構成要素は、専用のハードウェアで実現されるものに限るものではなく、物体追跡装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
図10の物体追跡装置がソフトウェア又はファームウェアなどで実現される場合、重み付け情報記憶部14を図3に示すコンピュータのメモリ34上に構成するとともに、物体検出部11、混雑度推定部12、物体選定部13、特徴量算出部40及び物体追跡部16の処理手順をコンピュータに実行させるためのプログラムをメモリ34に格納し、コンピュータのプロセッサ33がメモリ34に格納されているプログラムを実行するようにすればよい。
次に動作について説明する。
特徴量算出部40以外は、上記実施の形態1と同様であるため、以下、図12を参照しながら、特徴量算出部40の処理内容だけを説明する。
図12は、この発明の実施の形態2による物体追跡装置の特徴量算出部40における処理内容を示すフローチャートである。
特徴量算出部40は、カメラ1から出力された映像情報を取得する(図12のステップST11)。
特徴量算出部40は、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中に、取得した映像情報が示す解像度及びフレームレートの組み合わせと一致している組み合わせがあるか否かを判定する(図12のステップST12)。
図9の例では、時系列映像の解像度とフレームレートの組み合わせとして、解像度が〇〇〇[ppi]又は△△△[ppi]と、フレームレートが□□□[fps]又は☆☆☆[fps]である場合の4通りの組み合わせである。
したがって、図9の例では、取得した映像情報が示す解像度が〇〇〇[ppi]又は△△△[ppi]であり、かつ、取得した映像情報が示すフレームレートが□□□[fps]又は☆☆☆[fps]であれば、特徴量算出部40は、一致している組み合わせがあると判定する。
特徴量算出部40は、一致している組み合わせがあると判定すれば(図12のステップST12:YESの場合)、重み付け情報記憶部14から一致している組み合わせに対応する重み付け情報を取得する(図12のステップST13)。
特徴量算出部40は、一致している組み合わせがないと判定すれば(図12のステップST12:NOの場合)、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせにおける解像度及びフレームレートと、取得した映像情報が示す解像度及びフレームレートとの類似度をそれぞれ算出する(図12のステップST14)。
特徴量算出部40による類似度の算出方法は、特に問わないが、例えば、以下のように、類似度を算出する。
ここでは、説明の便宜上、取得した映像情報が示す解像度がa、取得した映像情報が示すフレームレートがbであるとする。
また、解像度〇〇〇[ppi]がa、解像度△△△[ppi]がa、フレームレート□□□[fps]がb、フレームレート☆☆☆[fps]がbであるとする。
解像度〇〇〇[ppi]とフレームレート□□□[fps]の組み合わせが組み合わせ(1)、解像度〇〇〇[ppi]とフレームレート☆☆☆[fps]の組み合わせが組み合わせ(2)、解像度△△△[ppi]とフレームレート□□□[fps]の組み合わせが組み合わせ(3)、解像度△△△[ppi]とフレームレート☆☆☆[fps]の組み合わせが組み合わせ(4)であるとする。
特徴量算出部40は、以下の式(2)に示すように、取得した映像情報が示す解像度aと、解像度aとの差分Δaを算出するとともに、以下の式(3)に示すように、取得した映像情報が示す解像度aと、解像度aとの差分Δaを算出する。
Figure 0006573744

Figure 0006573744
また、特徴量算出部40は、以下の式(4)に示すように、取得した映像情報が示すフレームレートbと、フレームレートbとの差分Δbを算出するとともに、以下の式(5)に示すように、取得した映像情報が示すフレームレートbと、フレームレートbとの差分Δbを算出する。
Figure 0006573744

Figure 0006573744
特徴量算出部40は、以下の式(6)に示すように、組み合わせ(1)における解像度a及びフレームレートbと、取得した映像情報が示す解像度a及びフレームレートbとの類似度Rを算出する。式(6)において、Gは定数である。
Figure 0006573744
特徴量算出部40は、以下の式(7)に示すように、組み合わせ(2)における解像度a及びフレームレートbと、取得した映像情報が示す解像度a及びフレームレートbとの類似度Rを算出する。
Figure 0006573744
また、特徴量算出部40は、以下の式(8)に示すように、組み合わせ(3)における解像度a及びフレームレートbと、取得した映像情報が示す解像度a及びフレームレートbとの類似度Rを算出する。
Figure 0006573744
特徴量算出部40は、以下の式(9)に示すように、組み合わせ(4)における解像度a及びフレームレートbと、取得した映像情報が示す解像度a及びフレームレートbとの類似度Rを算出する。
Figure 0006573744
ここでは、解像度の差分Δaと、フレームレートの差分Δbとの間に重みを付けずに、類似度Rを算出している例を示しているが、例えば、以下の式(10)に示すように、解像度の差分Δaと、フレームレートの差分Δbとの間に重みを付けて、類似度Rを算出するようにしてもよい。式(10)は、組み合わせ(1)についての類似度Rの算出例を示しており、wは差分Δaに対する重み係数、wは差分Δbに対する重み係数である。なお、w及びwは、0以上1以下の値である。
Figure 0006573744
特徴量算出部40は、全ての組み合わせについての類似度Rを算出すると、全ての組み合わせについての類似度Rを比較し、最も高い類似度に係る組み合わせを特定する(図12のステップST15)。
特徴量算出部40は、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、最も高い類似度に係る組み合わせに対応する重み付け情報を取得する(図12のステップST16)。
例えば、組み合わせ(1)〜(4)の中で、最も高い類似度に係る組み合わせが組み合わせ(1)であれば、「色」、「動き」及び「エッジ」に対する重み付けが、色:動き:エッジ=5:3:3であることを示する重み付け情報を取得する。
また、最も高い類似度に係る組み合わせが組み合わせ(2)であれば、「色」、「動き」及び「エッジ」に対する重み付けが、色:動き:エッジ=8:2:2であることを示する重み付け情報を取得する。
特徴量算出部40は、重み付け情報を取得すると、図1の特徴量算出部15と同様に、映像フレーム毎に、取得した重み付け情報に従って、物体選定部13により選定された各々の人物の特徴量をそれぞれ算出する(図12のステップST17)。
以上で明らかなように、この実施の形態2によれば、特徴量算出部40が、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせの中に、物体検出部11に与えられる時系列映像の解像度と物体検出部11に与えられる時系列映像のフレームレートとの組み合わせと一致している組み合わせがなければ、重み付け情報記憶部14に記憶されている複数の重み付け情報に対応する組み合わせにおける解像度及びフレームレートと、物体検出部11に与えられる時系列映像の解像度及び物体検出部11に与えられる時系列映像のフレームレートとの類似度をそれぞれ算出する。そして、特徴量算出部40が、算出した類似度に基づいて、重み付け情報記憶部14に記憶されている複数の重み付け情報の中から、いずれか1つの重み付け情報を取得し、取得した重み付け情報に従って物体選定部13により選定された各々の物体の特徴量をそれぞれ算出する。これにより、物体検出部11に与えられる時系列映像の解像度及びフレームレートの組み合わせと一致している組み合わせに対応する重み付け情報が重み付け情報記憶部14に記憶されていない場合でも、適正な重み付け情報を取得することができる効果を奏する。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明は、互いに異なる映像フレーム内に存在している物体の間の対応付けを行う物体追跡装置及び物体追跡方法に適している。
1 カメラ、11 物体検出部、12 混雑度推定部、13 物体選定部、14 重み付け情報記憶部、15 特徴量算出部、16 物体追跡部、21 物体検出回路、22 混雑度推定回路、23 物体選定回路、24 重み付け情報記憶回路、25 特徴量算出回路、26 物体追跡回路、31 映像入力器、32 映像情報入力器、33 プロセッサ、34 メモリ、35 結果出力器、40 特徴量算出部、50 特徴量算出回路。

Claims (7)

  1. 時系列映像を構成している映像フレーム毎に、当該映像フレーム内に存在している1つ以上の物体を検出する物体検出部と、
    映像フレーム毎に、前記物体検出部により検出された各々の物体が存在している領域の混雑度をそれぞれ推定する混雑度推定部と、
    映像フレーム毎に、前記混雑度推定部による混雑度の推定結果を参照して、前記物体検出部により検出された1つ以上の物体の中から、混雑度が第1の閾値以下の領域に存在している物体をそれぞれ選定する物体選定部と、
    映像フレーム毎に、前記物体選定部により選定された各々の物体の特徴量をそれぞれ算出する特徴量算出部と、
    前記特徴量算出部により算出された各々の物体の特徴量に従って、前記物体選定部により選定された互いに異なる映像フレーム内に存在している物体の間の対応付けを行う物体追跡部と
    を備えた物体追跡装置。
  2. 前記物体検出部は、映像フレーム内に存在している各々の物体の検出結果の確からしさを示す信頼度をそれぞれ算出し、
    前記物体選定部は、混雑度が前記第1の閾値よりも大きい領域に存在している物体であっても、前記物体検出部により算出された検出結果の信頼度が第2の閾値以上の物体については選定することを特徴とする請求項1記載の物体追跡装置。
  3. 前記物体選定部は、前記物体検出部による各々の物体の検出結果の確からしさを示す信頼度をそれぞれ算出し、混雑度が前記第1の閾値よりも大きい領域に存在している物体であっても、算出した信頼度が第2の閾値以上の物体については選定することを特徴とする請求項1記載の物体追跡装置。
  4. 前記物体の特徴量として、複数の特徴量があり、
    複数の特徴量の重み付け情報を記憶している重み付け情報記憶部を備え、
    前記特徴量算出部は、前記重み付け情報記憶部に記憶されている重み付け情報に従って前記物体選定部により選定された各々の物体の特徴量をそれぞれ算出することを特徴とする請求項1記載の物体追跡装置。
  5. 前記重み付け情報記憶部は、時系列映像の解像度と時系列映像のフレームレートとの組み合わせ毎に、前記重み付け情報を記憶していることを特徴とする請求項4記載の物体追跡装置。
  6. 前記特徴量算出部は、前記重み付け情報記憶部に記憶されている複数の重み付け情報に対応する組み合わせの中に、前記物体検出部に与えられる時系列映像の解像度と前記物体検出部に与えられる時系列映像のフレームレートとの組み合わせと一致している組み合わせがなければ、前記重み付け情報記憶部に記憶されている複数の重み付け情報に対応する組み合わせにおける解像度及びフレームレートと、前記物体検出部に与えられる時系列映像の解像度及び前記物体検出部に与えられる時系列映像のフレームレートとの類似度をそれぞれ算出し、前記類似度に基づいて、前記重み付け情報記憶部に記憶されている複数の重み付け情報の中から、いずれか1つの重み付け情報を取得し、取得した重み付け情報に従って前記物体選定部により選定された各々の物体の特徴量をそれぞれ算出することを特徴とする請求項5記載の物体追跡装置。
  7. 物体検出部が、時系列映像を構成している映像フレーム毎に、当該映像フレーム内に存在している1つ以上の物体を検出し、
    混雑度推定部が、映像フレーム毎に、前記物体検出部により検出された各々の物体が存在している領域の混雑度をそれぞれ推定し、
    物体選定部が、映像フレーム毎に、前記混雑度推定部による混雑度の推定結果を参照して、前記物体検出部により検出された1つ以上の物体の中から、混雑度が第1の閾値以下の領域に存在している物体をそれぞれ選定し、
    特徴量算出部が、映像フレーム毎に、前記物体選定部により選定された各々の物体の特徴量をそれぞれ算出し、
    物体追跡部が、前記特徴量算出部により算出された各々の物体の特徴量に従って、前記物体選定部により選定された互いに異なる映像フレーム内に存在している物体の間の対応付けを行う
    物体追跡方法。
JP2019503834A 2017-03-06 2017-03-06 物体追跡装置及び物体追跡方法 Active JP6573744B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/008768 WO2018163243A1 (ja) 2017-03-06 2017-03-06 物体追跡装置及び物体追跡方法

Publications (2)

Publication Number Publication Date
JP6573744B2 true JP6573744B2 (ja) 2019-09-11
JPWO2018163243A1 JPWO2018163243A1 (ja) 2019-11-07

Family

ID=62951733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019503834A Active JP6573744B2 (ja) 2017-03-06 2017-03-06 物体追跡装置及び物体追跡方法

Country Status (6)

Country Link
US (1) US11074698B2 (ja)
JP (1) JP6573744B2 (ja)
CN (1) CN110366741A (ja)
GB (1) GB2573703B (ja)
TW (1) TWI624806B (ja)
WO (1) WO2018163243A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI697846B (zh) 2018-11-26 2020-07-01 財團法人工業技術研究院 物體辨識方法及其裝置
CN110895141A (zh) * 2019-11-28 2020-03-20 梁彦云 住宅空间拥挤度分析平台
KR102311798B1 (ko) * 2019-12-12 2021-10-08 포항공과대학교 산학협력단 다중 객체 추적 방법 및 장치
EP4036856A1 (en) * 2021-02-02 2022-08-03 Axis AB Updating of annotated points in a digital image

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11341339A (ja) 1998-05-29 1999-12-10 Sony Corp ビデオカメラ装置
JP2003187248A (ja) * 2001-12-21 2003-07-04 Mitsubishi Electric Corp 画像処理システムおよび画像処理装置
TWI222595B (en) * 2003-09-09 2004-10-21 Icp Electronics Inc Image overlapping display system and method
JP4830650B2 (ja) 2005-07-05 2011-12-07 オムロン株式会社 追跡装置
WO2007033286A2 (en) * 2005-09-13 2007-03-22 Verificon Corporation System and method for object tracking and activity analysis
JP4268644B2 (ja) * 2007-01-22 2009-05-27 アジア航測株式会社 移動体検出システム、移動体検出装置、移動体検出方法及び移動体検出プログラム
JP5121508B2 (ja) * 2008-03-03 2013-01-16 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP5227888B2 (ja) 2009-05-21 2013-07-03 富士フイルム株式会社 人物追跡方法、人物追跡装置および人物追跡プログラム
JP5459674B2 (ja) * 2010-09-13 2014-04-02 株式会社東芝 移動物体追跡システムおよび移動物体追跡方法
JP2012133445A (ja) 2010-12-20 2012-07-12 Panasonic Corp 目的物検出装置および目的物検出方法
JP4784709B1 (ja) * 2011-03-10 2011-10-05 オムロン株式会社 対象物追跡装置、対象物追跡方法、および制御プログラム
US8989448B2 (en) * 2011-03-22 2015-03-24 Morpho, Inc. Moving object detecting device, moving object detecting method, moving object detection program, moving object tracking device, moving object tracking method, and moving object tracking program
JP5792990B2 (ja) * 2011-04-28 2015-10-14 キヤノン株式会社 画像処理装置およびその制御方法
EP2728518A4 (en) 2011-06-28 2016-07-06 Ibm INFORMATION PROCESSING DEVICE, METHOD, AND PROGRAM FOR OBTAINING SIZE WEIGHT VALUE IN SUBJECTIVE HIERARCHICAL GROUP
JP6033695B2 (ja) * 2013-01-28 2016-11-30 株式会社日立製作所 エレベータ監視装置及びエレベータ監視方法
US9383840B2 (en) * 2013-04-22 2016-07-05 Samsung Display Co., Ltd. Method and apparatus to reduce display lag using image overlay
WO2015025704A1 (ja) * 2013-08-23 2015-02-26 日本電気株式会社 映像処理装置、映像処理方法および映像処理プログラム
JP6200306B2 (ja) * 2013-12-09 2017-09-20 株式会社日立製作所 映像検索装置、映像検索方法、および記憶媒体
JP6266088B2 (ja) * 2014-03-11 2018-01-24 三菱電機株式会社 人物検出装置および人物検出方法

Also Published As

Publication number Publication date
GB201911069D0 (en) 2019-09-18
TW201833870A (zh) 2018-09-16
TWI624806B (zh) 2018-05-21
WO2018163243A1 (ja) 2018-09-13
US11074698B2 (en) 2021-07-27
GB2573703B (en) 2020-09-09
JPWO2018163243A1 (ja) 2019-11-07
CN110366741A (zh) 2019-10-22
US20200013172A1 (en) 2020-01-09
GB2573703A (en) 2019-11-13

Similar Documents

Publication Publication Date Title
JP6573744B2 (ja) 物体追跡装置及び物体追跡方法
CN105306813B (zh) 图像处理装置及图像处理方法
JP6555906B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US9721153B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
JP2004192637A (ja) 顔検出
JP2004199669A (ja) 顔検出
JP6927322B2 (ja) 脈波検出装置、脈波検出方法、及びプログラム
US20180174308A1 (en) Device for measuring rotation of spherical body, measurement method, and program
JP2005174352A (ja) オブジェクト検出
JP2005174353A (ja) オブジェクト検出
JP2017076288A (ja) 情報処理装置、情報処理方法及びプログラム
JP6116765B1 (ja) 物体検出装置及び物体検出方法
US20220321792A1 (en) Main subject determining apparatus, image capturing apparatus, main subject determining method, and storage medium
US20180314893A1 (en) Information processing device, video image monitoring system, information processing method, and recording medium
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
JP7243372B2 (ja) 物体追跡装置および物体追跡方法
JP2012181710A (ja) オブジェクト追跡装置、方法、及びプログラム
US20210390712A1 (en) Image processing apparatus, image processing method, and storage medium
JPH09322153A (ja) 自動監視装置
JP7208051B2 (ja) 状態認識装置
JP2014203133A (ja) 画像処理装置、画像処理方法
US10372750B2 (en) Information processing apparatus, method, program and storage medium
JP6959444B2 (ja) 計測情報処理装置
KR101304311B1 (ko) 대응 영상의 유사성 측정 방법 및 그 기록매체
JP2018195872A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190410

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190410

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190813

R150 Certificate of patent or registration of utility model

Ref document number: 6573744

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250