JP5921329B2 - 映像処理装置、追尾物体の管理方法、および、プログラム - Google Patents

映像処理装置、追尾物体の管理方法、および、プログラム Download PDF

Info

Publication number
JP5921329B2
JP5921329B2 JP2012113475A JP2012113475A JP5921329B2 JP 5921329 B2 JP5921329 B2 JP 5921329B2 JP 2012113475 A JP2012113475 A JP 2012113475A JP 2012113475 A JP2012113475 A JP 2012113475A JP 5921329 B2 JP5921329 B2 JP 5921329B2
Authority
JP
Japan
Prior art keywords
objects
trajectory
tracking target
video
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012113475A
Other languages
English (en)
Other versions
JP2013240013A (ja
JP2013240013A5 (ja
Inventor
敦史 川野
敦史 川野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012113475A priority Critical patent/JP5921329B2/ja
Priority to US13/873,926 priority patent/US9165193B2/en
Priority to CN201310184811.7A priority patent/CN103428424B/zh
Priority to EP13168349.2A priority patent/EP2665017B1/en
Publication of JP2013240013A publication Critical patent/JP2013240013A/ja
Publication of JP2013240013A5 publication Critical patent/JP2013240013A5/ja
Application granted granted Critical
Publication of JP5921329B2 publication Critical patent/JP5921329B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、例えば、監視カメラの映像を処理する映像処理装置、追尾物体の管理方法、および、プログラムに関する。
従来、監視カメラの映像を使用して画面内の特定箇所を通過した物体や人数をカウントする場合、映像から検出した物体や人体を画面内追尾し、特定箇所の通過を検出することで行っていた。たとえば、特許文献1では、顔の検出を行い、現在フレームと過去フレームの相関から検出した動き情報から顔追尾を行う。この追尾結果を基に特定箇所の通過を判定することで物体のカウントが可能となる。
特開2010−50934号公報
しかしながら、映像の見た目上、人同士が重なり合う場合、検出に必要とされる特徴が十分に得られない。このため、顔や人体を検出し続けることは難しく、顔追尾や人体追尾を行った場合、適切な追尾結果が得られるとは限らない。
本発明は上述した問題を解決するためになされたものであり、検出した物体の属性を正確に管理することを可能とする映像処理装置および方法を提供することを目的とする。
上記目的を達成するための一手段として、本発明の映像処理装置は以下の構成を備える。
映像中を移動する追尾対象の物体の軌跡の属性情報を管理する管理手段と、
映像中を移動する追尾対象の物体が複数の物体に分離したことを検出する検出手段と、
前記追尾対象の物体が複数の物体に分離したことが前記検出手段によって検出された場合、分離後の前記複数の物体の数に基づいて、分離する前の前記追尾対象に含まれる物体の数を決定する決定手段と、
前記決定手段によって決定された物体の数に基づいて、前記管理手段によって管理される過去の追尾対象の物体の軌跡の属性情報を修正する修正手段と
を有することを特徴とする映像処理装置。
以上の構成からなる本発明によれば、検出した物体の属性を正確に管理することができる。
映像処理装置のブロック図である。 物体と人体の対応付けの例を示す図である。 物体の移動情報管理の例を示すである。 位置情報更新の例を示すである。 統合時のフローチャートを示すである。 分離時のフローチャートを示すである。 判定パラメータの例を示すである。 線分通過判定の例を示すである。 処理フローチャートを示すである。
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
<実施形態1>
図1は映像処理装置のシステム構成を示す。本形態の映像処理装置は、画像取得部101と、物体検出部102と、追尾部103と、人体検出部104と、対応付部105と、軌跡管理部106と、判定パラメータ設定部108と、判定部109と、外部出力部110とからなる。
画像取得部101は、処理対象の画像を時系列順に外部から取得する。画像を取得する外部の装置はカメラに限定されるものではなく、サーバや外部メモリなどに保存されたものでもよい。
物体検出部102は、画像取得部101で取得した画像から背景差分法により物体(動体)を検出する。検出した物体の情報は、画面上位置と外接矩形と物体のサイズとからなる。物体検出部102では、画像から物体を検出する処理であり、背景差分法に限定されるものではない。
追尾部103は、物体検出部102が検出した物体を画面内で追尾する。すなわち、追尾部103は、物体検出部102が検出した物体と前画像で検出された物体とを対応付ける。新規に出現した物体には、新規にオブジェクトID(識別情報)を付与し、前画像と対応付けることができた物体には、前画像で付与したオブジェクトIDを付与する。物体同士が統合した場合は、統合した物体のうち物体のサイズが大きい方のオブジェクトIDを付与する。また物体同士が分離した場合は、分離した物体のうち物体のサイズが大きい方に前画像で付与したオブジェクトIDを付与し、小さい方には新規にオブジェクトIDを付与する。
人体検出部104は、物体検出部102が検出した領域からパターンマッチング処理により人体を検出する。人体検出部104では、画像から人体を検出する処理であり、パターンマッチング処理に限定されるものではない。また、必ずしも物体検出部102が検出した領域から人体検出を行う必要はなく、画像全体に対して人体検出の処理を行ってもよい。本形態では、人体を検出する形態で説明するが、人体以外の、顔、自動車や動物などの特定の物体を検出してもよい。
対応付部105は、物体検出部102が検出した物体と人体検出部104が検出した人体を対応付ける。図2に検出した物体と検出した人体の対応付けの例を示す。図2(a)は検出した物体の外接矩形201に検出した人体の外接矩形202が内包されない場合である。このとき、物体の外接矩形201に対する人体の外接矩形202の重畳率が予め設定した閾値を超えた場合に、物体と人体が対応したとする。重畳率とは、物体の外接矩形201と人体の外接矩形202とが重畳する部分の面積と人体の外接矩形202の面積との割合である。
図2(b)は検出した物体の外接矩形203から複数の人体を検出した場合である。このとき、人体の外接矩形204および人体の外接矩形205それぞれと物体の外接矩形203との重畳率が予め設定した閾値を超えた場合に、それぞれの人体が物体に対応したとする。
軌跡管理部106は、追尾部103で追尾され、対応付部105で人体に対応付けられた物体の移動情報を管理する。また、追尾部103で追尾された追尾物体に、対応付部105で対応付けられた人体の情報を、物体の属性として付与し管理する。
図3に物体の移動情報管理の例を示す。軌跡管理部106は追尾物体の移動情報301をオブジェクトIDごとにオブジェクト情報302として管理する。オブジェクト情報302は、物体を最初に検出した時間および、物体を検出したときの時間と画面上の位置と外接矩形とサイズと物体の属性と属性数とイベントとから成る位置情報303の組からなる。ここで物体の属性は、「なし」もしくは「人体」であり、属性数は、対応付部105にて物体に対応付けられた人体の数である。
物体の属性と属性数は、人体検出部104にて人体を検出し、対応付部105の結果に従い対応する位置情報の属性と属性数を更新する。更に、過去の位置情報の属性と属性数も同結果に従い更新する。また、その後の位置情報の属性と属性数も同結果を設定する。
図4に位置情報更新の例を示す。例えば、地点403にて追尾物体に人体が対応付けられた場合、以降の位置情報に地点403で対応付けられた属性と属性数を設定することで軌跡404は人体属性をもつ物体として扱う。また、過去の位置情報に地点403で対応付けられた属性と属性数を設定することで軌跡402は人体属性をもつ物体として扱うことができる。
物体の属性は、本実施例においては人体検出部104により属性を決定しているが、前述のものに限定されるものではない。属性としては、顔、自動車、動物等、物体に対する属性として、対象物を認識し属性として判定する手段であれば何でもよい。更に、複数種類の特定物体検出部があり、同時に複数の属性を持てば、物体に複数の種類かつその属性数を持たせてもよい。
イベントは、追尾部103の出力に従い、追尾物体が統合もしくは分離したことを示し、分離もしくは統合が発生していない場合は何も記載されない。統合した場合は、統合したことを示す統合フラグと統合した物体のオブジェクトIDすべてを記載し、分離した場合は、分離したことを示す分離フラグと分離した他の物体のオブジェクトIDを記載する。
属性修正部107は、軌跡管理部106が管理する追尾物体の移動情報のうち最新の位置情報と過去の位置情報のうちイベント(統合、分離)に記載の内容に従って、過去の位置情報の属性および属性数を修正する。
最新の位置情報のイベントに統合フラグの設定がある場合、属性修正部107は、図5のフローチャートに従い属性および属性数の修正を行う。属性修正部107をコンピュータで構成する場合には、図5のフローチャートは、このコンピュータがメモリから読み出して実行するプログラムの一部を示す。
fm1において、最新の位置情報(位置情報Aとする)のイベントを確認する。統合フラグが設定されていた場合、統合した複数の物体を同箇所記載のオブジェクトIDに従い検索し、それぞれ統合前の最も新しい位置情報に記載の属性と属性数を取得する(fm2)。それぞれの物体の位置情報から取得した属性と属性数を、属性ごとに積算し(fm3)、位置情報Aに設定する(fm4)。すなわち、属性修正部107は、2つ以上の前記物体の軌跡が統合した場合、軌跡管理部106が管理する統合後の物体の属性数を属性ごとに合算した結果に修正する。
また、軌跡管理部106において、対応付部105の結果に従い対応する位置情報の属性と属性数を更新したとき、過去に遡り分離イベントがある場合、属性修正部107は、図6のフローチャートに従い属性および属性数の修正を行う。属性修正部107をコンピュータで構成する場合には、図6のフローチャートは、このコンピュータがメモリから読み出して実行するプログラムの一部を示す。
fs1において、属性および属性数(属性情報Aとする)を記憶する。そして、fs2において処理を継続するかを決定する。あらかじめ決められた回数以上位置情報を更新した場合処理を終了とする。処理を継続する場合、このオブジェクトの前フレームでの位置情報(位置情報Bとする)を取得する(fs3)。そして、取得した位置情報のイベントが分離の場合(fs4)、取得した位置情報に記載の他の物体のオブジェクトIDに従って、このオブジェクトから分離した他の物体の分離後の位置情報を取得する。そして、記憶した属性と属性数(属性情報A)と、分離した他位置情報の属性および属性数を属性ごとに合算し、合算した値が、位置情報Bの属性数と異なる場合、属性情報Aを合算した値に更新する(fs5)。
位置情報のイベントが統合の場合(fs6)、処理を終了し、統合でない場合、位置情報Bの属性および属性数を属性情報Aの属性および属性数に修正する(fs7)。以上により、分離前の物体の属性および属性数が、分離したそれぞれの物体の属性数を属性ごとに合算した結果に修正される。
判定パラメータ設定部108は、物体の軌跡情報を判定するための判定パラメータを外部から判定部109に設定する。判定パラメータは、判定を行う場所を示す座標の組と、座標の組の扱いを「領域」もしくは「線」から決定する領域タイプと、物体サイズの範囲と、物体属性および属性数と、画面内での存在時間の範囲と検出イベントからなる。
図7に判定パラメータの例を示す。これは、座標(10,10)と座標(20,30)とを結ぶ線分をサイズが100から250であり、属性が人体であり、属性数が1であり、存在時間が1秒以上である物体が通過したことを検出する例である。
図8に線分通過判定の例を示す。通過の判定は、判定線分601を前画像での物体の外接矩形602と現画像での物体の外接矩形603の中心点を結ぶ線分604が交差したか否かで判定する。
判定部109は、軌跡管理部106で管理される追尾物体の軌跡情報を判定パラメータ設定部108で設定された判定パラメータに従って判定することで、所望の物体を検出する。軌跡情報の判定処理は、設定された判定パラメータすべてに対して、軌跡管理部106において軌跡情報が更新されるたび、もしくは、属性修正部107で属性情報が修正されるたびに実施する。すなわち、判定部109は、管理する物体の軌跡が画面内の特定の場所を通過したことを判定し、属性修正部107により属性が修正された場合、修正された属性に従い通過の判定結果を修正する。
これにより、図7に示す判定パラメータにより判定をする場合、物体が判定線分601を超えた時点では、人体検出部104および対応付部105により人体の属性が対応付けられておらず、その後対応付けられた物体に関しても検出可能となる。なお、この通過の判定は、軌跡管理部106が行うようにしてもよい。
外部出力部110は、軌跡管理部106で管理される追尾物体の軌跡情報と判定部109の判定結果を外部に出力する。
属性修正部107は、軌跡管理部106が管理する属性および属性数を修正する方法について記載したが、この方法に限定されるものではない。最新の位置情報のイベントが分離の場合、軌跡管理部106が管理する軌跡のうち、分離した物体の軌跡を複製し分離した物体それぞれの軌跡として管理する方法でもよい。すなわち、この形態では、物体の軌跡が分離し、分離したそれぞれの物体の属性数を属性ごとに合算した結果が、分離前の物体の属性数と異なる場合、軌跡管理部106が管理する分離前の物体の軌跡を複製して、分離した物体の軌跡とする。さらに、分離したそれぞれの属性を、分離したそれぞれの属性に修正する。
また、最新の位置情報のイベントが統合の場合、統合以降追尾部103で得られた統合した物体の追尾結果を複製し、複数物体の軌跡として管理する方法でもよい。すなわち、この形態では、属性修正部107は、2つ以上の物体の軌跡が統合した場合、軌跡管理部106が管理する統合後の軌跡を複製し、統合前の軌跡に続く軌跡とし、複製したそれぞれの軌跡の属性を統合前の属性に修正する。
図9は処理の手順を示すフローチャートである。図1の映像処理装置をコンピュータで構成する場合には、図9のフローチャートは、このコンピュータがメモリから読み出して実行するプログラムの一部を示す。
f1において、処理を継続するか終了するかを決定する。処理を継続する場合、画像取得部101において外部から画像を取得する(f2)。次に、取得した画像を物体検出部102において物体検出処理を行う(f3)。f4において、物体検出処理結果の判定を行い、物体を検出した場合f5に進み、物体を検出していない場合f1に戻る。物体を検出した場合、追尾部103において物体の追尾処理を行い(f5)、追尾処理結果を軌跡管理部106において追尾情報を更新する(f6)。
次に、人体検出処理を人体検出部104にて行い(f7)、その結果をf8において判定する。人体を検出した場合はf9に進み、人体を検出していない場合はf12に進む。人体を検出した場合、対応付部105において物体と人体の対応付け処理を行い(f9)、結果に基づき軌跡管理部106において追尾情報を更新し(f10)、属性修正部107において属性の修正を行う。そして、判定部109において軌跡情報の判定処理を行い(f12)、その結果を外部に出力する(f13)。
このように、本発明の実施形態によれば、被写体の顔や人体としての特徴が検出しにくい映像においても人体追尾を行い、更に追尾情報を更新することで精度の高い人体のカウントができる。
<その他の実施形態>
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
101 画像取得部
102 物体検出部
103 追尾部
104 人体検出部
105 対応付部
106 軌跡管理部
107 属性修正部
108 判定パラメータ設定部
109 判定部
110 外部出力部

Claims (13)

  1. 映像中を移動する追尾対象の物体の軌跡の属性情報を管理する管理手段と、
    映像中を移動する追尾対象の物体が複数の物体に分離したことを検出する検出手段と、
    前記追尾対象の物体が複数の物体に分離したことが前記検出手段によって検出された場合、分離後の前記複数の物体の数に基づいて、分離する前の前記追尾対象に含まれる物体の数を決定する決定手段と、
    前記決定手段によって決定された物体の数に基づいて、前記管理手段によって管理される過去の追尾対象の物体の軌跡の属性情報を修正する修正手段と
    を有することを特徴とする映像処理装置。
  2. さらに、物体の軌跡が画面内の特定の場所を通過した数を判定する判定手段を有し、
    前記修正手段により修正された属性に従って、前記判定手段による通過の判定結果を修正することを特徴とする請求項1に記載の映像処理装置。
  3. 映像中を移動する追尾対象の物体の軌跡の属性情報を管理する管理手段と、
    映像中を移動する複数の追尾対象の物体が統合したことを検出する検出手段と、
    前記複数の追尾対象の物体の統合が前記検出手段によって検出された場合、統合前の前記複数の追尾対象の物体の数に基づいて、統合後に前記追尾対象に含まれる物体の数を決定する決定手段と、
    前記決定手段によって決定された物体の数に基づいて、前記管理手段によって管理される統合後の物体の軌跡の属性情報を修正する修正手段と
    を有することを特徴とする映像処理装置。
  4. 前記修正手段は、2つ以上の前記物体の軌跡が統合した場合、前記管理手段が管理する統合後の物体の数を統合前の物体を合算した数に修正することを特徴とする請求項3に記載の映像処理装置。
  5. 前記修正手段は、2つ以上の前記物体の軌跡が統合した場合、前記管理手段が管理する軌跡を複製し、それぞれに統合前の属性に修正することを特徴とする請求項3に記載の映像処理装置。
  6. 前記管理手段によって管理される属性情報は、前記軌跡に含まれる物体の種類、および前記軌跡に含まれる物体の数を含むことを特徴とする請求項1ないし5のいずれか1項に記載の映像処理装置。
  7. 映像中を移動する追尾対象の物体の軌跡の属性を管理する管理工程と、
    映像中を移動する追尾対象の物体が複数の物体に分離したことを検出する検出工程と、
    前記追尾対象の物体が複数の物体に分離したことが前記検出工程において検出された場合、分離後の前記複数の物体の数に基づいて、分離する前の前記追尾対象に含まれる物体の数を決定する決定工程と、
    前記決定工程において決定された物体の数に基づいて、前記管理工程によって管理される過去の追尾対象の物体の軌跡の属性情報を修正する修正工程と
    を有することを特徴とする映像処理方法。
  8. さらに、物体の軌跡が画面内の特定の場所を通過した数を判定する判定工程を有し、
    前記修正工程において修正された属性に従って、前記判定工程における通過の判定結果を修正することを特徴とする請求項7に記載の映像処理方法。
  9. 映像中を移動する追尾対象の物体の軌跡の属性を管理する管理工程と、
    映像中を移動する複数の追尾対象の物体が統合したことを検出する検出工程と、
    前記複数の追尾対象の物体の統合が前記検出工程において検出された場合、統合前の前記複数の追尾対象の物体の数に基づいて、統合後に前記追尾対象に含まれる物体の数を決定する決定工程と、
    前記決定工程によって決定された物体の数に基づいて、前記管理工程によって管理される統合後の物体の軌跡の属性情報を修正する修正工程と
    を有することを特徴とする映像処理方法。
  10. 前記修正工程において、2つ以上の前記物体の軌跡が統合した場合、前記管理工程によって管理される統合後の物体の数は、統合前の物体を合算した数に修正されることを特徴とする請求項9に記載の映像処理方法。
  11. 前記修正工程において、2つ以上の前記物体の軌跡が統合した場合、前記管理工程によって管理される軌跡を複製し、それぞれに統合前の属性に修正することを特徴とする請求項9に記載の映像処理方法。
  12. 前記管理工程によって管理される属性情報は、前記軌跡に含まれる物体の種類、および前記軌跡に含まれる物体の数を含むことを特徴とする請求項7ないし11のいずれか1項に記載の映像処理方法。
  13. 請求項7ないし請求項12に記載の映像処理方法をコンピュータに実行させるプログラム。
JP2012113475A 2012-05-17 2012-05-17 映像処理装置、追尾物体の管理方法、および、プログラム Active JP5921329B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012113475A JP5921329B2 (ja) 2012-05-17 2012-05-17 映像処理装置、追尾物体の管理方法、および、プログラム
US13/873,926 US9165193B2 (en) 2012-05-17 2013-04-30 Video processing apparatus and method for managing tracking object
CN201310184811.7A CN103428424B (zh) 2012-05-17 2013-05-17 视频处理设备和追踪物体的管理方法
EP13168349.2A EP2665017B1 (en) 2012-05-17 2013-05-17 Video processing apparatus and method for managing tracking object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012113475A JP5921329B2 (ja) 2012-05-17 2012-05-17 映像処理装置、追尾物体の管理方法、および、プログラム

Publications (3)

Publication Number Publication Date
JP2013240013A JP2013240013A (ja) 2013-11-28
JP2013240013A5 JP2013240013A5 (ja) 2015-07-02
JP5921329B2 true JP5921329B2 (ja) 2016-05-24

Family

ID=48576726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012113475A Active JP5921329B2 (ja) 2012-05-17 2012-05-17 映像処理装置、追尾物体の管理方法、および、プログラム

Country Status (4)

Country Link
US (1) US9165193B2 (ja)
EP (1) EP2665017B1 (ja)
JP (1) JP5921329B2 (ja)
CN (1) CN103428424B (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10474921B2 (en) * 2013-06-14 2019-11-12 Qualcomm Incorporated Tracker assisted image capture
JP6468725B2 (ja) 2013-08-05 2019-02-13 キヤノン株式会社 画像処理装置、画像処理方法、及びコンピュータプログラム
CN106296725B (zh) * 2015-06-12 2021-10-19 富泰华工业(深圳)有限公司 运动目标实时检测与跟踪方法及目标检测装置
JP6548306B2 (ja) * 2016-02-23 2019-07-24 Kddi株式会社 カメラの撮影画像に映る人物を追跡する画像解析装置、プログラム及び方法
JP6798549B2 (ja) * 2016-03-31 2020-12-09 日本電気株式会社 動線表示システム、動線表示方法および動線表示プログラム
KR101768372B1 (ko) * 2016-04-22 2017-08-17 전자부품연구원 객체 간의 상대 움직임 정보를 이용한 영상 기반 계층적 다중 객체 추적 방법 및 시스템
JP6902181B2 (ja) * 2016-12-07 2021-07-14 株式会社大林組 監視システム、監視方法及び監視プログラム
US10839552B2 (en) 2017-06-01 2020-11-17 Nec Corporation Image processing apparatus, tracking method, and program
CN108897777B (zh) * 2018-06-01 2022-06-17 深圳市商汤科技有限公司 目标对象追踪方法及装置、电子设备和存储介质
CN111524160A (zh) * 2019-02-01 2020-08-11 深圳市商汤科技有限公司 轨迹信息获取方法及装置、电子设备和存储介质
JP2021145303A (ja) * 2020-03-13 2021-09-24 キヤノン株式会社 画像処理装置、画像処理方法
CN111681208B (zh) * 2020-05-08 2023-08-22 浙江大华技术股份有限公司 漏装零件检测方法、装置、计算机设备和存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3657116B2 (ja) * 1997-05-14 2005-06-08 株式会社日立国際電気 物体追跡方法及び物体追跡装置
JP2002342762A (ja) * 2001-05-22 2002-11-29 Matsushita Electric Ind Co Ltd 物体追跡方法
CN101231755B (zh) * 2007-01-25 2013-03-06 上海遥薇(集团)有限公司 运动目标跟踪及数量统计方法
GB2452512B (en) * 2007-09-05 2012-02-29 Sony Corp Apparatus and method of object tracking
CN101320427A (zh) * 2008-07-01 2008-12-10 北京中星微电子有限公司 一种具有对目标的辅助监测功能的视频监控方法及系统
CN101339605B (zh) * 2008-08-14 2011-11-23 北京中星微电子有限公司 基于视频监控的人数检测系统及方法
JP5219697B2 (ja) 2008-08-25 2013-06-26 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法及びプログラム
JP4818430B2 (ja) * 2009-12-28 2011-11-16 富士通セミコンダクター株式会社 移動物体認識方法及び装置
JP5457257B2 (ja) * 2010-04-19 2014-04-02 セコム株式会社 不審者検知装置
CN101847265A (zh) * 2010-04-20 2010-09-29 上海理工大学 一种在公交客流统计系统中使用的运动目标提取及多目标分割方法
JP5656567B2 (ja) 2010-11-05 2015-01-21 キヤノン株式会社 映像処理装置および方法
AU2010257454B2 (en) * 2010-12-24 2014-03-06 Canon Kabushiki Kaisha Summary view of video objects sharing common attributes
US20140169663A1 (en) * 2012-12-19 2014-06-19 Futurewei Technologies, Inc. System and Method for Video Detection and Tracking

Also Published As

Publication number Publication date
EP2665017A2 (en) 2013-11-20
JP2013240013A (ja) 2013-11-28
EP2665017B1 (en) 2019-03-27
CN103428424A (zh) 2013-12-04
US20130307974A1 (en) 2013-11-21
EP2665017A3 (en) 2014-06-04
US9165193B2 (en) 2015-10-20
CN103428424B (zh) 2018-04-10

Similar Documents

Publication Publication Date Title
JP5921329B2 (ja) 映像処理装置、追尾物体の管理方法、および、プログラム
US10417503B2 (en) Image processing apparatus and image processing method
JP4966820B2 (ja) 混雑推定装置および方法
JP5959951B2 (ja) 映像処理装置、映像処理方法、及びプログラム
CN101281595A (zh) 用于面部确认的装置和方法、以及计算机程序
JP6280020B2 (ja) 移動物体追跡装置
JP6868061B2 (ja) 人物追跡方法、装置、機器及び記憶媒体
WO2017163282A1 (ja) 監視装置及び監視システム
WO2017199840A1 (ja) オブジェクト追跡装置、オブジェクト追跡方法および記録媒体
CN112150514A (zh) 视频的行人轨迹追踪方法、装置、设备及存储介质
JP2012191354A (ja) 情報処理装置、情報処理方法及びプログラム
KR101139930B1 (ko) 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법
US20200311392A1 (en) Determination of audience attention
JP2017174343A (ja) 入店者属性抽出装置及び入店者属性抽出プログラム
JP2018025988A (ja) 画像処理プログラム、画像処理方法および画像処理装置
JP2018093423A (ja) 画像処理プログラム、画像処理装置および画像処理方法
KR20170130161A (ko) 축사 근접 개체 탐지 장치 및 방법
JP2016207185A (ja) 動き判定装置、動き判定方法、および動き判定プログラム
JP2014191479A (ja) 顔認識装置、撮像装置、制御方法、及びプログラム
CN106375654B (zh) 用于控制网络相机的设备和方法
JP5936667B2 (ja) 映像処理装置、映像処理方法、及びプログラム
JP7370548B1 (ja) 異常行動検出システム
JP2018128885A (ja) 顔検出装置、顔検出方法、顔検出プログラム、及び対象物検出装置
WO2021131039A1 (ja) 画像処理装置、画像処理方法、学習装置、学習方法、及び、記録媒体
JP2015179439A (ja) 画像処理装置、追跡方法、および追跡プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150518

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160412

R151 Written notification of patent or utility model registration

Ref document number: 5921329

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151