JP5936667B2 - 映像処理装置、映像処理方法、及びプログラム - Google Patents

映像処理装置、映像処理方法、及びプログラム Download PDF

Info

Publication number
JP5936667B2
JP5936667B2 JP2014240550A JP2014240550A JP5936667B2 JP 5936667 B2 JP5936667 B2 JP 5936667B2 JP 2014240550 A JP2014240550 A JP 2014240550A JP 2014240550 A JP2014240550 A JP 2014240550A JP 5936667 B2 JP5936667 B2 JP 5936667B2
Authority
JP
Japan
Prior art keywords
specific object
detected
specific
detection unit
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014240550A
Other languages
English (en)
Other versions
JP2015046194A (ja
Inventor
敦史 川野
敦史 川野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014240550A priority Critical patent/JP5936667B2/ja
Publication of JP2015046194A publication Critical patent/JP2015046194A/ja
Application granted granted Critical
Publication of JP5936667B2 publication Critical patent/JP5936667B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、映像から検出した物体を追尾する映像処理装置および方法に関する。
従来、カメラの映像から検出した物体や人体を追尾する技術がある。たとえば、特許文献1では、映像中のオプティカルフローとテンプレートとのマッチングをとって追尾を行うことが記載されている。また、特許文献2では、映像中の動体の動きベクトルと顔領域の座標とに基づいて、顔領域に対応する被写体と、過去に検出された顔領域に対応する被写体とが互いに異なる被写体であるか否かを判定して追尾を行うことが開示されている。
特開2002−373332号公報 特開2010−50934号公報
しかしながら、従来の方法では、追尾物体の検知領域と人体等の特定物体の検出領域が重複する領域の大きさについて考慮されていなかった。
本発明では、映像中の物体と特定の物体との対応付けを適切に行うことを目的とする。
上記目的を達成するための一手段として、本発明の映像処理装置は以下の構成を備える。
すなわち、第1の方法を用いて映像から物体を検出する物体検出手段と、前記第1の方 法とは異なる第2の方法を用いて前記映像から特定の物体を検出する特定物体検出手段と、前記物体検出手段によって検出される物体に対応する領域と、前記特定物体検出手段 よって検出される特定の物体に対応する領域とが重複する領域応じて、前記物体検出手段によって検出される物体と、前記特定物体検出手段によって検出される特定の物体とが対応するかを判断する判断手段とを有する。
または、映像から動体を検出する物体検出手段と、前記映像から特定の物体を検出する 特定物体検出手段と、前記物体検出手段によって検出される動体に対応する領域と、前記 特定物体検出手段によって検出される特定の物体に対応する領域とが重複する重複領域に 応じて、前記物体検出手段によって検出される動体と、前記特定物体検出手段によって検 出される特定の物体とが対応するかを判断する判断手段とを有する。
以上の構成からなる本発明によれば、映像中の物体と特定の物体との対応付けを適切に行うことができる。
映像処理装置のブロック図である。 物体と人体の対応付けの例を示す図である。 物体の移動情報管理の例を示す図である。 位置情報更新の例を示す図である。 判定パラメータの例を示す図である。 線分通過判定の例を示す図である。 処理フローチャート図である。
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
<実施形態1>
図1は追尾装置である映像処理装置100のシステム構成を示すものである。追尾装置である映像処理装置100は、画像取得部101と、物体検出部102と、物体追尾部103と、人体検出部104と、物体対応付部105と、軌跡管理部106を有する。追尾装置である映像処理装置100は、さらに、判定パラメータ設定部107と、軌跡情報判定部108と、外部出力部109を有する。
画像取得部101は、処理対象の画像を時系列順に外部の装置から取得する。この外部の装置はカメラやサーバであるが、外部メモリなどに保存された画像を取得してもよい。
物体検出部102は、画像取得部101で取得した画像から背景差分法により物体を検出する。ここで検出される物体は、例えば、移動物体である。あるいは、背景差分法により検出された前景である。または、背景ではないと判定された部分でもよい。検出した物体の情報は、画面上位置と外接矩形と物体のサイズとからなる。物体検出部102では、画像から物体を検出する処理であり、背景差分法に限定されるものではない。
物体追尾部103は、物体検出部102が検出した物体と前画像で検出された物体とを対応付けることにより、検出した物体を追尾する。新規に出現した物体には、新規にオブジェクトID(物体識別子)を付与し、前画像と対応付けることができた物体には、前画像で付与したオブジェクトIDを付与する。
人体検出部104は、物体検出部102が物体を検出した領域からパターンマッチング処理により人体を検出する。人体検出部104の処理は、映像から人体を検出する処理であり、パターンマッチング処理に限定されるものではない。また、必ずしも物体検出部102が検出した領域から人体検出を行う必要はなく、画像全体に対して人体検出の処理を行ってもよい。また、検出対象は、人体に限定されるものではなく、特定の物体(特定の特徴を有する物体、あるいは、特定のパターンを有すると判定される物体)であることを検出すればよい。例えば、物体が自動車であることや動物であることを検出してもよい。
物体対応付部105は、物体検出部102が検出した物体と人体検出部104が検出した人体の対応付けを決定する。図2に検出した物体と検出した人体の対応付けの例を示す。図2(a)は検出した物体の外接矩形201に検出した人体の外接矩形202が内包されない場合である。なお、外接矩形201は、物体検出部102が検出した物体の外接矩形である。また、人体の外接矩形202は、人体検出部104が検出した人体の外接矩形である。このとき、物体の外接矩形201に対する人体の外接矩形202の重畳率が予め設定した閾値を超えた場合に、検出した物体と検出した人体が対応したとする。重畳率とは、物体の外接矩形201と人体の外接矩形202とが重畳する部分の面積と人体の外接矩形202の面積との割合である。
人体検出部104は、画像の人体と思われる特徴量を抽出し、人体であるかを判定する。人体の右半身の特徴量のみで十分に人体と決定できる場合、人体検出部104は、左半身の形状の抽出は行わず、人体形状は推測で決定し、人体の外接矩形を出力する。このため、動体の外接矩形内に人体としての特徴量を十分に抽出でき、動体の外接矩形内に人体の右半身の特徴量しか存在しない場合、左半身の形状は推測して人体外接矩形を出力するので、動体の外接矩形に内包されない。
図2(b)は検出した物体の外接矩形203から複数の人体を検出した場合である。このとき、人体の外接矩形204および人体の外接矩形205それぞれと物体の外接矩形203との重畳率が予め設定した閾値を超えた場合にそれぞれ対応とする。この場合、人体の外接矩形204と205が物体の外接矩形203と対応するので、外接矩形203の物体は、二人の人体を含むと判定される。
軌跡管理部106は、物体追尾部103で追尾した物体の移動情報を管理する。また、軌跡管理部106は、物体対応付部105で物体に対応付けられた人体の情報を物体の属性として管理する。すなわち、軌跡管理部106は、追尾した物体が物体対応付部105により人体(特定の物体)に対応付けられたことを管理する。
図3に軌跡管理部106による物体の移動情報管理の例を示す。物体の移動情報(追尾情報)301はオブジェクトIDごとにオブジェクト情報302として管理される。オブジェクト情報302は、物体を最初に検出した時間、および、物体を検出したときの時間と画面上の位置と外接矩形とサイズと物体の属性と属性数とからなる位置情報303の組からなる。ここで物体の属性は、「なし」もしくは「人体」であり、属性数は、物体対応付部105にて物体に対応付けられた人体の数である。図2(b)の例であれば、人体の数は「2」である。例えば、オブジェクトIDが「32」のオブジェクト情報302は、最初に検出した時間が、2009年3月2日12時34分54秒である。そして、2009年3月2日12時34分58秒に検出されたときには、外接矩形の中心位置が(15、20)であり、外接矩形は(10,10)と(20、30)で表され、物体のサイズは200である。また、属性は「人体」であり、人体の数は「1」である。
物体の属性と属性数は、人体検出部104にて人体を検出し、物体対応付部105の結果に従い対応する位置情報の属性と属性数を更新する。更に、過去の位置情報の属性と属性数も同結果に従い更新する。また、その後の位置情報の属性と属性数も同結果を設定する。
図4に位置情報更新の例を示す。例えば、地点403にて物体に人体が対応付けられた場合、以降の位置情報に地点403で対応付けられた属性と属性数を設定することで軌跡404は人体属性をもつ物体として扱う。また、過去の位置情報に地点403で対応付けられた属性と属性数を設定することで軌跡402は人体属性をもつ物体として扱うことができる。軌跡402、404は、地点403は、所定時間間隔で検出された物体の外接矩形の中心の位置に対応する。地点403で物体に人体が対応付けられた場合、地点403を示す位置情報に属性が人体であることが記憶される。そして、軌跡402を示す位置情報にも属性が人体であることが記憶される。なお、401は画面、405は物体である。以上のように、軌跡管理部106は、物体検出部102により検出した物体と人体検出部104により検出した人体とが対応付けられた場合、その物体が存在した位置の情報を、人体の属性を付加して管理する。ここでは、人体と対応付けられた物体がその対応付けが行われた時点(物体が地点403に存在した時点)よりも過去の時点において存在した位置の情報を、人体に対応付けて管理する。この過去の時点は、物体が軌跡402を移動していた時点である。
上述したように、物体の属性は、本実施例においては人体検出部104により属性を決定しているが、前述のものに限定されるものではない。属性としては、顔、自動車、動物等、物体に対して、対象物を認識して判定できる属性であれば何でもよい。更に、複数種類の特定物体検出部があり、同時に複数の属性を持てば、物体に複数の種類かつその属性数を持たせてもよい。すなわち、位置情報303の物体の属性として、「人体」、「自動車」、「動物」などを記憶するようにしてもよい。また、位置情報303の属性数として、「人体」、「自動車」、「動物」等毎に、検出された物体の数を記憶してもよい。例えば、物体検出部102により検出された1つの物体に、2つの人体と1つの自動車が含まれる場合、軌跡を管理する物体の属性が人体と自動車であること、人体の数が2であり、自動車の数が1であることを管理する。
判定パラメータ設定部107は、物体の軌跡情報を判定するための判定パラメータを外部から軌跡情報判定部108に設定する。判定パラメータは、判定を行う場所を示す座標の組と、座標の組の扱いを「領域」もしくは「線」から決定する領域タイプと、物体サイズの範囲と、物体属性および属性数と、画面内での存在時間の範囲と検出イベントからなる。図5に判定パラメータの例を示す。これは、座標(10,10)と座標(20,30)とを結ぶ線分を、サイズが100から250であり、属性が人体であり、属性数が1であり、存在時間が1秒以上である物体が通過したことを検出する例である。
図6に線分通過判定の例を示す。通過の判定は、判定線分501を前画像での物体の外接矩形502の中心点と現画像での物体の外接矩形503の中心点を結ぶ線分504が交差したか否かで判定する。線分504は、物体の移動ベクトルである。ここでは、外接矩形の中心点で判定したが、外接矩形のいずれかが通過したことで通過を判定してもよい。判定パラメータが「領域」の場合、その領域に物体が入ったこと、その領域から出たことを判定する。入ったことを検出するか、出たことを検出するかは、判定パラメータの検出イベントで指定できる。
軌跡情報判定部108は、軌跡管理部106で管理される物体の軌跡情報を判定パラメータ設定部107で設定された判定パラメータに従って判定することで、所望の物体を検出する。軌跡情報の判定処理は、設定された判定パラメータすべてに対して、軌跡管理部106において軌跡情報が更新されるたびに実施する。例えば、軌跡情報判定部108は、追尾した物体が特定の場所を通過したことを判定する。
これにより、図5に示す判定パラメータにより判定をする場合、以下の検出が可能になる。すなわち、物体が判定線分501を超えた時点では人体の属性が対応付けられていなくても、その後、人体の属性が対応付けられた時点で、人体の属性が対応付けられた物体の線分通過として検出可能となる。なお、この人体の属性の対応付けは、物体対応付部105により行われる。
外部出力部109は、軌跡管理部106で管理される物体の軌跡情報と軌跡情報判定部108の判定結果を外部に出力する。
図7は処理のフローチャートである。
f1において、処理を継続するか終了するかを決定する。処理を継続する場合、画像取得部101において外部から画像を取得する(f2)。次に、取得した画像を物体検出部102において物体検出処理を行う(f3)。f3では、例えば、物体検出部102は、2つの画像を比較し、異なる部分に物体が存在すると判断する。f4において、物体検出処理結果の判定を行い、物体を検出した場合f5に進み、物体を検出していない場合f1に戻る。
物体を検出した場合、物体追尾部103において物体の追尾処理を行い(f5)、追尾処理結果を軌跡管理部106において移動情報(追尾情報)を更新する(f6)。f5では、例えば、物体追尾部103は、物体検出部102が第1の画像中に物体を検出し、第2の画像中に物体を検出した場合、それらの2つの物体の距離が所定の距離より近いと判断した場合には、同じ物体であると判断する。軌跡管理部106は、物体検出部102が検出した物体の位置を時刻ごとに記憶することにより、追尾した物体の軌跡を管理する。軌跡管理部106が管理する移動情報については、図3を用いて説明したとおりである。
次に、物体検出部102が物体を検出した領域から人体を検出する人体検出処理を人体検出部104にて行い(f7)、その結果をf8において判定する。人体を検出した場合はf9に進み、人体を検出していない場合はf11に進む。f8で行う人体検出は、特定の物体の検出の一例である。f8で検出する特定の物体は、人体に限らず、動物や自動車などでもよい。
f8で人体を検出した場合、物体対応付部105において物体と人体の対応付け処理を行い(f9)、結果に基づき軌跡管理部106において移動情報(追尾情報)を更新する(f10)。物体検出部102が検出した物体と人体検出部104が検出した人体が所定以上の割合で重複する場合、物体対応付部105は、物体検出部102が検出した物体が人体であると判断し、物体検出部102が検出した物体に人体の属性を付与する。人体検出の代わりに、自動車であること、動物であることが検出された場合、物体検出部102が検出した物体にその属性が付与される。軌跡管理部106は、物体追尾部103が追尾している物体が、人体検出部104により人体であると判断され、物体対応付部105により物体を属性が対応付けられたことを移動情報として記憶し、物体の軌跡と属性を管理する。この属性はその物体が特定の物体であることを示す。
このように、軌跡管理部106が、物体検出部102により検出した物体と人体検出部104により検出した人体とが対応付けられた場合、物体を以下のように管理する。すなわち、軌跡管理部106は、人体と対応付けられた物体が当該対応付けられた時点(図4の地点403に対応する時点)よりも過去の時点において存在した位置の情報を、人体に対応付けて管理する。この対応付けられた時点(図4の地点403に対応する時点)よりも過去の時点は、図4の軌跡402に対応する時点である。したがって、人体等の特定の物体が移動した軌跡を正確に管理することができる。
そして、軌跡情報判定部108において軌跡情報の判定処理を行い(f11)、その結果、および、軌跡管理部106で管理される物体の軌跡情報を外部に出力する(f12)。軌跡情報判定部108は、例えば、追尾した物体が特定の場所を通過したことを判定する。なお、軌跡管理部106が、軌跡情報判定部108の機能を含むように構成し、軌跡情報の判定も行ってもよい。
このように、本発明の実施形態によれば、被写体の顔や人体としての特徴が検出しにくい映像においても人体追尾を行い、更に追尾情報を更新することで精度の高い人体のカウントができる。
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
すなわち、図1の映像処理装置(追尾装置)100の一部又は全部をコンピュータにより実現することもできる。図1の映像処理装置(追尾装置)100の全部をコンピュータにより実現する形態では、図7のフローチャートは、コンピュータのプログラムの流れを示す。
また、図7のf3の物体検出処理、f7の人体検出処理の両方又は一方はハードウェアで行い、そのほかの処理はコンピュータによるソフトウェア処理により行うことも可能である。この形態は、以下の手順をコンピュータに実行されるためのプログラムにより実現される。すなわち、この形態では、映像から物体が検出されたか判断する物体判断手順f4、検出した物体を追尾する追尾手順f5、さらに、移動情報(軌跡情報)を更新することにより、追尾した物体の軌跡を管理する軌跡管理手順f6を行う。移動情報は、図3に示した情報である。また、映像から特定の物体(人体)が検出されたか判断する特定物体判断手順f8を行う。そして、物体判断手順f4で検出されたと判断した物体と特定物体判断手順f8で検出されたと判断した特定の物体とを対応付ける対応付け手順f9と、移動情報(軌跡情報)を更新する。このように更新することにより、追尾した物体が特定の物体に対応付けられたことを管理する特定物体管理手順f10を行う。
特定物体管理手順f10では、特定の物体(人体)と対応付けられた物体が当該対応付けられた時点よりも過去の時点において存在した位置の情報を、特定の物体(人体)に対応付けて管理する。さらに、追尾した物体が特定の場所を通過したことを判定する(f11)。
以上、実施形態例を詳述したが、本発明は、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
101 画像取得部
102 物体検出部
103 物体追尾部
104 人体検出部
105 物体対応付部
106 軌跡管理部
107 判定パラメータ設定部
108 軌跡情報判定部
109 外部出力部

Claims (24)

  1. 第1の方法を用いて映像から物体を検出する物体検出手段と、
    前記第1の方法とは異なる第2の方法を用いて前記映像から特定の物体を検出する特定物体検出手段と、
    前記物体検出手段によって検出される物体に対応する領域と、前記特定物体検出手段によって検出される特定の物体に対応する領域とが重複する領域に応じて、前記物体検出手段によって検出される物体と、前記特定物体検出手段によって検出される特定の物体とが対応するかを判断する判断手段と
    を有することを特徴とする映像処理装置。
  2. 前記判断手段は、前記物体検出手段によって検出される物体に対応する領域と、前記特定物体検出手段によって検出される特定の物体に対応する領域とが重複する領域のサイズと、前記特定物体検出手段によって検出される特定の物体に対応する領域のサイズとに係る割合に応じて、前記物体検出手段によって検出される物体と、前記特定物体検出手段によって検出される特定の物体とが対応するかを判断する
    ことを特徴とする請求項1に記載の映像処理装置。
  3. 前記判断手段は、前記物体検出手段によって検出される物体に対応する領域と、前記特定物体検出手段によって検出される特定の物体に対応する領域とが重複する領域に係る割合が所定の閾値を超えた場合に、前記物体検出手段によって検出される物体と、前記特定物体検出手段によって検出される特定の物体とが対応すると判断する
    ことを特徴とする請求項1に記載の映像処理装置。
  4. 前記特定物体検出手段は、前記特定の物体の特徴量のうち第1の部分の特徴量に基づいて前記映像から特定の物体を検出し、かつ、前記特定の物体の特徴量のうち第1の部分と異なる第2の部分の形状を推測して記特定の物体に対応する領域のサイズを出力する
    ことを特徴とする請求項1〜3のいずれか1項に記載の映像処理装置。
  5. 前記物体検出手段は、前記物体に対応する外接矩形を検出し、
    前記特定物体検出手段は、前記特定の物体に対応する外接矩形を検出し、
    前記判断手段は、前記物体に対応する外接矩形と、前記特定の物体に対応する外接矩形とが重複する領域に応じて、前記物体検出手段によって検出される物体と、前記特定物体検出手段によって検出される特定の物体とが対応するかを判断する
    ことを特徴とする請求項1に記載の映像処理装置。
  6. 前記判断手段は、前記物体検出手段によって検出される物体に対応する領域と、前記特定物体検出手段によって検出される特定の物体に対応する領域とが重複する領域に係る割合に応じて、前記物体検出手段によって検出される物体と、前記特定物体検出手段によって検出される特定の物体とが対応するかを判断する
    ことを特徴とする請求項1〜5のいずれか1項に記載の映像処理装置。
  7. 前記判断手段は、前記物体検出手段によって検出される物体に対応する領域と、前記特定物体検出手段によって検出される特定の物体に対応する領域とが重複する領域のサイズに応じて、前記物体検出手段によって検出される物体と、前記特定物体検出手段によって検出される特定の物体とが対応するかを判断する
    ことを特徴とする請求項1〜6のいずれか1項に記載の映像処理装置。
  8. 前記第2の方法は、前記第1の方法の検出結果を利用せずに前記特定の物体を検出可能な方法である
    ことを特徴とする請求項1〜7のいずれか1項に記載の映像処理装置。
  9. 前記第1の方法は背景差分法であることを特徴とする請求項1〜8のいずれか1項に記載の映像処理装置。
  10. 前記第2の方法はパターンマッチングであることを特徴とする請求項1〜9のいずれか1項に記載の映像処理装置。
  11. 前記物体検出手段によって検出される物体と、前記特定物体検出手段によって検出される特定の物体とが対応すると前記判断手段が判断した場合に、前記物体検出手段によって検出される物体と、前記特定物体検出手段によって検出される特定の物体とを対応付ける対応付け手段
    を有することを特徴とする請求項1〜10のいずれか1項に記載の映像処理装置。
  12. 映像から動体を検出する物体検出手段と、
    形状に基づいて、前記映像から特定の物体を検出する特定物体検出手段と、
    前記物体検出手段によって検出される動体に対応する領域と、前記特定物体検出手段によって検出される特定の物体に対応する領域とが重複する重複領域に応じて、前記物体検出手段によって検出される動体と、前記特定物体検出手段によって検出される特定の物体とが対応するかを判断する判断手段と
    を有することを特徴とする映像処理装置。
  13. 前記判断手段は、前記物体検出手段によって検出される動体に対応する領域と、前記特定物体検出手段によって検出される特定の物体に対応する領域とが重複する領域のサイズと、前記特定物体検出手段によって検出される特定の物体に対応する領域のサイズとに係る割合に応じて、前記物体検出手段によって検出される動体と、前記特定物体検出手段によって検出される特定の物体とが対応するかを判断する
    ことを特徴とする請求項12に記載の映像処理装置。
  14. 前記判断手段は、前記物体検出手段によって検出される動体に対応する領域と、前記特定物体検出手段によって検出される特定の物体に対応する領域とが重複する領域に係る割合が所定の閾値を超えた場合に、前記物体検出手段によって検出される動体と、前記特定物体検出手段によって検出される特定の物体とが対応すると判断する
    ことを特徴とする請求項12に記載の映像処理装置。
  15. 前記特定物体検出手段は、前記特定の物体の特徴量のうち第1の部分の特徴量に基づいて前記映像から特定の物体を検出し、かつ、前記特定の物体の特徴量のうち第1の部分と異なる第2の部分の形状を推測して記特定の物体に対応する領域のサイズを出力する
    ことを特徴とする請求項12〜14のいずれか1項に記載の映像処理装置。
  16. 前記物体検出手段は、前記動体に対応する外接矩形を検出し、
    前記特定物体検出手段は、前記特定の物体に対応する外接矩形を検出し、
    前記判断手段は、前記動体に対応する外接矩形と、前記特定の物体に対応する外接矩形とが重複する領域に応じて、前記物体検出手段によって検出される動体と、前記特定物体検出手段によって検出される特定の物体とが対応するかを判断する
    ことを特徴とする請求項12に記載の映像処理装置。
  17. 前記判断手段は、前記物体検出手段によって検出される動体に対応する領域と、前記特定物体検出手段によって検出される特定の物体に対応する領域とが重複する領域に係る割合に応じて、前記物体検出手段によって検出される動体と、前記特定物体検出手段によって検出される特定の物体とが対応するかを判断する
    ことを特徴とする請求項12〜16のいずれか1項に記載の映像処理装置。
  18. 前記判断手段は、前記物体検出手段によって検出される動体に対応する領域と、前記特定物体検出手段によって検出される特定の物体に対応する領域とが重複する領域のサイズに応じて、前記物体検出手段によって検出される動体と、前記特定物体検出手段によって検出される特定の物体とが対応するかを判断する
    ことを特徴とする請求項12〜17のいずれか1項に記載の映像処理装置。
  19. 前記物体検出手段は、背景差分法を用いて映像から動体を検出することを特徴とする請求項12〜18のいずれか1項に記載の映像処理装置。
  20. 前記特定物体検出手段は、パターンマッチング処理を行って映像から特定の物体を検出することを特徴とする請求項12〜19のいずれか1項に記載の映像処理装置。
  21. 前記物体検出手段によって検出される動体と、前記特定物体検出手段によって検出される特定の物体とが対応すると前記判断手段が判断した場合に、前記物体検出手段によって検出される物体と、前記特定物体検出手段によって検出される特定の物体とを対応付ける対応付け手段
    を有することを特徴とする請求項12〜20のいずれか1項に記載の映像処理装置。
  22. 第1の方法を用いて映像から物体を検出する物体検出ステップと、
    前記第1の方法とは異なる第2の方法を用いて前記映像から特定の物体を検出する特定物体検出ステップと、
    前記物体検出ステップによって検出される物体に対応する領域と、前記特定物体検出ステップによって検出される特定の物体に対応する領域とが重複する領域に応じて、前記物体検出ステップによって検出される物体と、前記特定物体検出ステップによって検出される特定の物体とが対応するかを判断する判断ステップと
    を有することを特徴とする映像処理方法。
  23. 映像から動体を検出する物体検出ステップと、
    形状に基づいて、前記映像から特定の物体を検出する特定物体検出ステップと、
    前記物体検出ステップによって検出される動体に対応する領域と、前記特定物体検出ステップによって検出される特定の物体に対応する領域とが重複する重複領域に応じて、前記物体検出ステップによって検出される動体と、前記特定物体検出ステップによって検出される特定の物体とが対応するかを判断する判断ステップと
    を有することを特徴とする映像処理方法。
  24. 請求項1〜21のいずれか1項に記載の映像処理装置の各手段としてコンピュータを機能させるためのプログラム。
JP2014240550A 2014-11-27 2014-11-27 映像処理装置、映像処理方法、及びプログラム Active JP5936667B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014240550A JP5936667B2 (ja) 2014-11-27 2014-11-27 映像処理装置、映像処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014240550A JP5936667B2 (ja) 2014-11-27 2014-11-27 映像処理装置、映像処理方法、及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010248977A Division JP5656567B2 (ja) 2010-11-05 2010-11-05 映像処理装置および方法

Publications (2)

Publication Number Publication Date
JP2015046194A JP2015046194A (ja) 2015-03-12
JP5936667B2 true JP5936667B2 (ja) 2016-06-22

Family

ID=52671577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014240550A Active JP5936667B2 (ja) 2014-11-27 2014-11-27 映像処理装置、映像処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP5936667B2 (ja)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342762A (ja) * 2001-05-22 2002-11-29 Matsushita Electric Ind Co Ltd 物体追跡方法

Also Published As

Publication number Publication date
JP2015046194A (ja) 2015-03-12

Similar Documents

Publication Publication Date Title
JP5656567B2 (ja) 映像処理装置および方法
JP5921329B2 (ja) 映像処理装置、追尾物体の管理方法、および、プログラム
JP6331785B2 (ja) 物体追跡装置、物体追跡方法および物体追跡プログラム
US20210012632A1 (en) Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not
CN111798487B (zh) 目标跟踪方法、装置和计算机可读存储介质
JP2017033559A (ja) 放置物の検出装置、方法及びシステム
JP2009110152A (ja) 混雑推定装置
WO2014061342A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP2014002462A (ja) 映像処理装置、映像処理方法、及びプログラム
JP2007272436A (ja) 物体追跡装置、異常状態検知装置及び物体追跡方法
JP2008002817A (ja) 物体識別システム
WO2018142916A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2014170368A (ja) 画像処理装置、方法及びプログラム並びに移動体
US11070719B2 (en) Image capture assist device and image capture assist method
JP5936667B2 (ja) 映像処理装置、映像処理方法、及びプログラム
CN106375654B (zh) 用于控制网络相机的设备和方法
CN109960961A (zh) 行人识别方法和装置
TWI505707B (zh) 異常物體偵測方法與電子裝置
JP6906973B2 (ja) 顔検出装置、顔検出方法、顔検出プログラム、及び対象物検出装置
JP2017151582A (ja) カメラの撮影画像に映る人物を追跡する画像解析装置、プログラム及び方法
Gossain et al. A novel approach to enhance object detection using integrated detection algorithms
JP2017005582A5 (ja) 被写体追跡装置、被写体装置の制御方法、及び画像処理装置
JP2016207120A (ja) 画像上の移動物体追跡装置
CN112700491B (zh) 视野分割线的确定方法及装置
JP4552018B2 (ja) 動画像処理装置及び動画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160510

R151 Written notification of patent or utility model registration

Ref document number: 5936667

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151