JP2012243161A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2012243161A
JP2012243161A JP2011114110A JP2011114110A JP2012243161A JP 2012243161 A JP2012243161 A JP 2012243161A JP 2011114110 A JP2011114110 A JP 2011114110A JP 2011114110 A JP2011114110 A JP 2011114110A JP 2012243161 A JP2012243161 A JP 2012243161A
Authority
JP
Japan
Prior art keywords
area
display screen
detection
image processing
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011114110A
Other languages
English (en)
Other versions
JP5885398B2 (ja
JP2012243161A5 (ja
Inventor
Hiroshi Adachi
啓史 安達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011114110A priority Critical patent/JP5885398B2/ja
Priority to US13/454,441 priority patent/US9514541B2/en
Priority to CN201210157994.9A priority patent/CN102800102B/zh
Publication of JP2012243161A publication Critical patent/JP2012243161A/ja
Publication of JP2012243161A5 publication Critical patent/JP2012243161A5/ja
Application granted granted Critical
Publication of JP5885398B2 publication Critical patent/JP5885398B2/ja
Priority to US15/341,086 priority patent/US20170076465A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】 監視カメラ等から得た映像を使用して画面内の特定箇所を物体や人体が通過したことを検知する場合において、画面端付近での誤検知を防止する為の技術を提供すること。
【解決手段】 表示画面内を移動するオブジェクトが、該表示画面内に設定されているオブジェクト検知用領域を通過したことを検知する画像処理装置100において、表示画面の枠部に上記検知を禁止する領域を設定する。そして、設定した領域以外で上記の検知を行う。
【選択図】 図1

Description

本発明は、映像を用いた監視やモニタリングを行うための技術に関するものである。
従来、監視カメラ等から得た映像を使用して画面内の特定箇所を物体や人体が通過したことを検知する場合、映像から検出した物体や人体を画面内で追尾し、特定箇所の通過を検出することで行っていた。
例えば、特許文献1では、動きベクトルから物体を検出し、次フレームでの探索位置を推定し、テンプレートマッチングにより物体の追尾を行っている。特許文献2では、顔の検出を行い、現在フレームと過去フレームとの相関から検出した動き情報から顔追尾を行っている。この追尾結果を基に特定箇所の物体の通過判定が可能となる。一般的に通過検知は、物体の追尾の軌跡である追尾線と、設定した判定線分または判定領域枠が交差したことを検出し物体が通過したと判定している。
特開2002-373332号公報 特開2010-50934号公報
しかしながら、撮像画面内の上下または左右端近辺に通過検知線が設定された場合、通過検知線上を通過した物体でも検知できない場合があった。例えば、画面の外から中へ移動してくる物体を検知する場合、検出物体内の追尾位置を物体重心ベースに追尾する方式であるとする。その場合、画面内に物体が入って映った最初の画像において既に重心位置が設定検知線より内側に位置し、通過してしまう。これは、撮像画面内に物体が現れた段階で重心位置は画面の少なくとも数画素分内側に存在することになるためである。このため、この場合は重心位置の追尾線と通過検知判定線分が交わらないため通過の検出ができない。これは特に移動速度の速い物体で顕著である。
また、その他の検出できない例として、画面端の位置では物体が最初に撮像される画像において物体の移動方向がその時点では判断できないため、通過検知として検知できない場合がある。
一方、物体重心ではなく検知物体の一部が検知線に触れた場合に通過とする検知方法に設定することも可能ではある。この場合、上記の検出漏れは回避できるが、その代わりに誤検出が発生することがある。これは例えば、物体の一部が検知線に触れたが実際は物体が検知線のそばを通りすぎただけであった場合、実際には物体は検知線を越えていないので誤検出となる。そのため、物体重心や検知物体の対角線中点などを追尾し検知線との交わりを用いて通過検知を行うことが一般的である。
また、検知物体サイズをフィルタリングして特定サイズ以下の物体は検知しない設定としていた場合においては、画面端では物体の一部が画面外に出ている。そのため画面上の見かけの検出物体サイズが小さくなり、フィルタリングの際に検出から落としてしまい、検知漏れが発生することがある。
本発明は以上の問題に鑑みてなされたものであり、監視カメラ等から得た映像を使用して画面内の特定箇所を物体や人体が通過したことを検知する場合において、画面端付近での誤検知を防止する為の技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は、表示画面内を移動するオブジェクトが、該表示画面内に設定されているオブジェクト検知用領域を通過したことを検知する検知手段を有する画像処理装置であって、前記表示画面の枠部に前記検知を禁止する領域を設定する設定手段を備え、前記検知手段は、前記設定手段が設定した領域以外で前記検知を行うことを特徴とする。
本発明の構成によれば、監視カメラ等から得た映像を使用して画面内の特定箇所を物体や人体が通過したことを検知する場合において、画面端付近での誤検知を防止することができる。
画像処理装置の機能構成例を示すブロック図。 軌跡管理部104により管理される情報の構成例を示す図。 パラメータの構成例を示す図。 軌跡情報判定部106が行う処理を説明する図。 オブジェクトの通過判定を説明する図。 アプリケーションウィンドウを説明する図。 オブジェクト検知用領域及び禁止領域の設定処理のフローチャート。 禁止領域の設定処理を説明する図。 オブジェクト検知用領域の表示例を示す図。 禁止領域の設定処理を説明する図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の一つである。
[第1の実施形態]
本実施形態は、移動するオブジェクトが写っている動画像を表示画面に表示することで該表示画面内を移動するオブジェクトが、該表示画面内に設定されているオブジェクト検知用領域を通過したことを検知する画像処理装置に係るものである。
先ず、本実施形態に係る画像処理装置の機能構成例について、図1のブロック図を用いて説明する。画像処理装置100は、上記の画像処理装置の機能を実現することができるのであれば、一般のPC(パーソナルコンピュータ)であってもよいし、動画像を撮像可能なカメラ内に搭載される画像処理回路であってもよいし、他の機器であってもよい。
画像処理装置100には、CRTや液晶画面などにより構成される表示装置190が接続されており、この表示装置190には、画像処理装置100による処理結果が画像や文字などでもって表示される。以下では、この表示装置190の表示画面に動画像を表示する場合について説明する。
画像取得部101は、1以上のオブジェクトが表示画面内にフレームインしたりフレームアウトしたり、複数フレームに渡って表示画面内を移動したりするような動画像を構成する各フレームの画像を順次取得する。そして画像取得部101は、取得した各フレームの画像を順次、物体検出部102に対して送出する。動画像は、動画像を撮像可能な撮像装置から取得してもよいし、このような動画像を予め保持しているような装置から取得してもよいし、その取得先については特定の取得先に限るものではない。
物体検出部102は、画像取得部101から受けたフレームの画像内に写っているオブジェクトを、背景差分法などの技術を用いて検出する。もちろん、オブジェクトの検出方法は特定の方法に限るものではない。そして物体検出部102は、あるフレームの画像からオブジェクトを検出すると、この検出に係る後述の様々な情報を作成する。
物体追尾部103は、物体検出部102が着目フレームよりも1フレーム前のフレームの画像から検出したオブジェクトと同じオブジェクトを着目フレームの画像から検出した場合、それぞれのフレームにおけるオブジェクトを対応づける。例えば、物体追尾部103が、着目フレームよりも1フレーム前のフレームの画像から物体検出部102が検出したオブジェクトに対してオブジェクトID=Aを割り当てたとする。そして、物体検出部102が着目フレームの画像からもこのオブジェクトを検出した場合、物体追尾部103は、このオブジェクトに対してもオブジェクトID=Aを割り当てる。このように、複数フレームに渡って同じオブジェクトが検出された場合には、それぞれのオブジェクトには同じオブジェクトIDを割り当てる。なお、着目フレームで新規に検出されたオブジェクトに対しては、新規のオブジェクトIDを割り当てる。
軌跡管理部104は、物体検出部102及び物体追尾部103によって得られる、オブジェクト毎の情報を管理する。軌跡管理部104により管理される情報の構成例を図2に示す。
軌跡管理部104が管理する管理情報201内には、オブジェクト毎の情報(オブジェクト情報)202が管理されている。換言すれば、管理情報201内には、オブジェクトID毎のオブジェクト情報202が管理されている。1つのオブジェクトに対するオブジェクト情報202内には、該オブジェクトが検出されたフレーム(Timestamp)毎の情報203が管理されている。この情報203には、検出された座標位置(Position)、検出されたオブジェクトの領域を包含する外接矩形を規定する情報(Boundingbox)、オブジェクトのサイズ(size)、が含まれている。もちろん、オブジェクト情報に含まれうる情報はこれに限らず、以下に説明する処理が達成できるのであれば、如何なる情報を含めてもよい。軌跡管理部104が管理するそれぞれの情報は軌跡情報判定部106によって適宜使用される。
判定パラメータ設定部105は、各フレームの画像中におけるオブジェクトがオブジェクト検知用領域を通過したか否かを判定するためのパラメータ、即ち、このオブジェクト検知用領域を規定するパラメータを取得若しくは設定する。そして判定パラメータ設定部105は、取得若しくは設定したパラメータを軌跡情報判定部106に設定する。
判定パラメータ設定部105が取得若しくは設定するパラメータの構成例を図3(A)に示す。図3(A)に示したパラメータは、表示装置190の表示画面における座標(10,10)と座標(20,30)とを結ぶ線分(Line)をオブジェクト検知用領域として規定している。またこのパラメータによれば、サイズ(Size)が100から250のオブジェクトがこのオブジェクト検知用領域(線分)を通過(cross)した場合に、このオブジェクトを検出対象とすることを規定している。
軌跡情報判定部106は、判定パラメータ設定部105により設定されたパラメータ及び軌跡管理部104が管理する情報に従って、オブジェクト検知用領域に対するオブジェクトの通過判定処理を行う。図3(A)に示されたパラメータが設定された場合における軌跡情報判定部106が行う処理について、図4を用いて説明する。
軌跡情報判定部106は、着目フレームより1フレーム前のフレームにおけるオブジェクトの外接矩形402から着目フレームにおけるオブジェクトの外接矩形403への移動ベクトル404が、パラメータが規定する線分401と交差したかを判定する。交差しているか否かを判定することは、オブジェクトが線分401を通過したか否かを判定することである。
ここで、このような線分を表示装置190の表示画面の端部に設けた場合に、この線分に対するオブジェクトの通過判定について、図5を用いて説明する。
画面501は時刻t1におけるフレームの画像を表示している表示装置190の表示画面であり、画面501の右端に設定されている線分502は、パラメータによってオブジェクト検知用領域として規定されている線分である。この画面501にはまだ表示されていないが、その後のフレームにおいて画面内に登場する車(図5では外接矩形503を示している)が画面501右側から近接している。
画面504は、時刻t1におけるフレームの次のフレーム(時刻t2におけるフレーム)の画像を表示している表示装置190の表示画面である。画面504内には車の一部が写っており、外接矩形505は、物体検出部102がこの画面504から検出した車の外接矩形で、位置506は、外接矩形505の中心位置である。なお、このフレームにおいて初めて車が表示画面内に登場したものとする。
画面507は時刻t2におけるフレームの次のフレーム(時刻t3におけるフレーム)の画像を表示している表示装置190の表示画面である。画面507内には車の全部が写っており、外接矩形508は、物体検出部102がこの画面507から検出した車の外接矩形で、位置509は、外接矩形508の中心位置である。
時刻t3の画面に対して通過判定を行う場合、位置506と位置509とを結ぶ線分が線分502と交差しているか否かを判定することになる。図5の場合、車としてのオブジェクトは確かに線分502を通過しているものの、位置506と位置509とを結ぶ線分と線分502とは交差していない。そのため、この場合、車としてのオブジェクトは線分502を通過していないと判定されることになり、この判定は結果として誤判定となってしまう。
このように、画面の端部にオブジェクト検知用領域を設けると、このような誤判定が生じてしまう可能性が高い。然るに本実施形態では、このような誤判定を未然に防ぐため、画面の端部(枠部)付近を、「画面内を移動するオブジェクトが該画面内に設定されているオブジェクト検知用領域を通過したか否かの検知」の禁止領域に設定する。
この禁止領域について図6を用いて説明する。601は禁止領域を設定するために表示装置190の画面上に表示するアプリケーションウィンドウで、602は、画像取得部101が取得した各フレームの画像を表示するための領域である。なお、領域602内に各フレームの画像を表示することは、以下の処理において必須ではないので、領域602内には、あるフレームの画像(静止画)を表示してもよいし、何も表示しなくてもよい。
本実施形態では、この領域602において、上記の通過判定を禁止する領域を設定するのであるが、図6ではこの禁止領域を603に示す如く設定している。この禁止領域603は、領域602において、以下の4辺で囲まれた領域(605)の外側の領域である。
・ 領域602の上辺から領域602の内部に向かう方向に設定距離だけ離間した辺
・ 領域602の下辺から領域602の内部に向かう方向に設定距離だけ離間した辺
・ 領域602の左辺から領域602の内部に向かう方向に設定距離だけ離間した辺
・ 領域602の右辺から領域602の内部に向かう方向に設定距離だけ離間した辺
換言すれば、この4辺で囲まれた領域605内でのみ、上記の通過判定を行う。図6では、領域605の下辺と領域602の下辺との間の距離(設定距離)を604で示した距離としている。領域602は、実際の表示装置190の表示画面の縮小領域であるため、禁止領域603は、実際の表示画面に設定する禁止領域を縮小したものを示している。然るに、表示装置190の実際の表示画面では、以下の4辺で囲まれた領域の外側の領域が、通過判定の禁止領域となる。
・ 表示画面の上辺から表示画面の内部に向かう方向に設定距離だけ離間した辺
・ 表示画面の下辺から表示画面の内部に向かう方向に設定距離だけ離間した辺
・ 表示画面の左辺から表示画面の内部に向かう方向に設定距離だけ離間した辺
・ 表示画面の右辺から表示画面の内部に向かう方向に設定距離だけ離間した辺
ユーザは、判定パラメータ設定部105を用いて、この領域602内にオブジェクト検知用領域だけでなく、上記のような禁止領域603を設定することができる。この場合、判定パラメータ設定部105は、例えば、キーボードやマウスなどの入力デバイスで実装される。もちろん、禁止領域603は予め決まっていてもよい。
図6では、ユーザは点606,607,608の順に点を設定して、点606と点607とを結ぶ線分及び点607と点608とを結ぶ線分で構成される一連の線分をオブジェクト検知用領域として設定しようとしている。しかし上記の通り、禁止領域603では通過判定を禁止しているため、判定パラメータ設定部105は、オブジェクト検知用領域が禁止領域603に含まれないようにする。図6の場合、点608は禁止領域603に含まれているため、ユーザが点608を設定しようとすると、判定パラメータ設定部105は、この設定を禁止する。設定を禁止する方法には様々なものが考えられる。例えばユーザが判定パラメータ設定部105を操作してカーソルを移動させ、カーソルの現在位置に点を設定するような点設定方法を採用する場合、禁止領域603へのカーソルの移動を禁止させるようにしてもよい。また、禁止領域603へのカーソルの移動は許可するものの、点の設定操作を受け付けないようにしてもよい。また、禁止領域603内に点を設定した場合、この点を強制的に禁止領域603外に移動させてもよい。
このように、本実施形態では、オブジェクト検知用領域の設定の際、オブジェクト検知用領域が禁止領域に重ならないように、この設定処理を制御する。これにより、結果として、通過判定を禁止する領域以外の領域内で通過判定を行うことになり、上記の誤判定を未然に防ぐことができる。
軌跡情報判定部106による判定結果は外部出力部107を介して外部に出力されてもよい。また、外部出力部107がCRTや液晶画面などにより構成される表示装置である場合、表示装置190に代わりに外部出力部107を用いてもよい。
オブジェクト検知用領域及び禁止領域の設定処理について、同処理のフローチャートを示す図7を用いて説明する。
ステップS701では、軌跡情報判定部106は、以下の処理を継続するか否か、即ち、本処理を終了するか否かを判断する。本処理を終了させるための指示が入力されるなど、以下の処理を終了する条件が満たされた場合には本処理を終了するし、以下の処理を継続する場合には、処理はステップS702に進む。
ステップS702では、軌跡情報判定部106は、判定パラメータ設定部105が取得若しくは設定した、図3(A)に例示するようなパラメータを、判定パラメータ設定部105から読み込む。なお、判定パラメータ設定部105がまだこのようなパラメータを取得/設定していない場合は、ステップS702,S703をスキップしてステップS704に進む。
ステップS703では、軌跡情報判定部106は、ステップS702で読み込んだパラメータから、オブジェクトの検知を許可する領域、禁止する領域を計算する。ここで、本ステップにおいて行う処理について、図3(B)及び図8を用いて説明する。
ステップS702で読み込んだパラメータが、図3(B)に示した構成のパラメータであったとする。図3(B)に示したパラメータは、表示装置190の表示画面における座標(950,250)と座標(950,600)とを結ぶ線分(Line)をオブジェクト検知用領域として規定している。またこのパラメータでは、サイズ(Size)が300から400のオブジェクトがこのオブジェクト検知用領域(線分)を通過(cross)した場合に、このオブジェクトを検出対象とすることを規定している。
軌跡情報判定部106はこのようなパラメータを判定パラメータ設定部105から取得した場合、設定距離802を、例えば、検知するオブジェクトの最大サイズの半分、即ち、200に設定してもよい。ここで、表示装置190の表示画面801の左上隅の座標位置が(0,0)、右下隅の座標位置が(1200,1000)であるとする。この場合、軌跡情報判定部106は、左上隅の座標位置が(200,200)、右下隅の座標位置が(1000,800)である矩形領域803の内部を、オブジェクト検知用領域を設定可能な領域、矩形領域803の外部を上記の禁止領域に設定する。
また、軌跡情報判定部106が判定パラメータ設定部105から図3(C)に示した構成のパラメータをステップS702で読み込んだとする。図3(C)に示したパラメータは、表示装置190の表示画面における座標(1190,250)と座標(1190,600)とを結ぶ線分(Line)をオブジェクト検知用領域として規定している。またこのパラメータでは、サイズ(Size)が150から200のオブジェクトがこのオブジェクト検知用領域(線分)を通過(cross)した場合に、このオブジェクトを検出対象とすることを規定している。
軌跡情報判定部106はこのようなパラメータを判定パラメータ設定部105から取得した場合、図10に示す如く、設定距離1001を、例えば、検知するオブジェクトの最大サイズの半分、即ち、100に設定してもよい。この場合、軌跡情報判定部106は、左上隅の座標位置が(100,100)、右下隅の座標位置が(1100,900)である矩形領域1002の内部を、オブジェクト検知用領域を設定可能な領域、矩形領域1002の外部を上記の禁止領域に設定する。この場合、オブジェクト検知用領域の一部が禁止領域に含まれてしまうことになる。この場合は、オブジェクト検知用領域が禁止領域に含まれないように、オブジェクト検知用領域、禁止領域の何れか一方若しくは両方を再設定してもよい。例えば、オブジェクト検知用領域を再設定する場合、図3(C)に示したパラメータのCoordinateを(1100,250),(1100,600)と修正してもよい。
なお、上記の説明では、検知するオブジェクトのサイズに応じて設定距離を求めたが、設定距離の求め方は他の方法を採用してもよい。例えば、このオブジェクトの画面内における移動速度に応じてこの設定距離を求めてもよい。この場合、現フレームと過去フレームとの間でオブジェクトの画面内における移動距離を移動速度として求め、求めた移動速度が大きいほど設定距離を大きくするようにしてもよい。
図7に戻って、次にステップS704では、図6に示す如く、オブジェクトの検知を禁止する領域、オブジェクト検知用領域、を示すアプリケーションウィンドウを表示装置190の表示画面に表示する。もちろん、それぞれの領域の表示方法はこれに限らない。
また、ステップS702,S703をスキップしてステップS704に処理が進んだ場合、ステップS704では、オブジェクト検知用領域、禁止領域は表示されず、ユーザが判定パラメータ設定部105を操作して新たにこれらの領域を設定することになる。
なお、上記の説明では、検知するオブジェクトのサイズは幅・高さを指定していないが、幅・高さを設定項目として追加してもよい。この場合、ステップS703での設定距離の算出において、上下辺における設定距離を高さに応じて、左右辺における設定距離を幅に応じて設定してもよい。例えば、人体を検知対象のオブジェクトとする場合、人体は幅方向よりも高さ方向に長いオブジェクトであるため、上下辺における設定距離の方が、左右辺における設定距離よりも長くなる。これは、オブジェクトの移動速度に応じて設定距離を求める場合も同様である。即ち、カメラの設置条件により同一オブジェクトの左右方向と上下方向で移動速度が異なることを前提にパラメータを設定した場合、上下辺における設定距離を上下方向の移動速度に応じて、左右辺における設定距離を左右方向の移動速度に応じて設定してもよい。
ステップS705では、軌跡情報判定部106は、禁止領域やオブジェクト検知用領域の設定(再設定)が行われたか否かを判断する。これは、アプリケーションウィンドウに対してユーザが判定パラメータ設定部105を用いて設定距離を変更したり、オブジェクト検知用領域を編集、作成等を行ったことによる禁止領域、オブジェクト検知用領域の設定(再設定)が行われたか否かの判断である。この判断の結果、設定(再設定)は行われていないと判断した場合は処理はステップS707に進み、設定(再設定)が行われたと判断した場合は、処理はステップS706に進む。
ステップS706では、軌跡情報判定部106は、設定(再設定)による変更を、禁止領域及び/又はオブジェクト検知用領域に反映させる。具体的には、軌跡管理部104が管理する情報にオブジェクト検知用領域の変更後の情報を反映させたり、設定(再設定)された禁止領域を規定する情報を保存したりする。このとき、オブジェクト検知用領域が、オブジェクトの検知を禁止する領域に含まれてしまうようなケースが発生した場合は、上記の通り対処する。
例えば、ステップS706では、図9に示す如く、ユーザがオブジェクト検知用領域として領域1201を指定した場合、この領域1201に加え、領域1201が禁止領域に含まれないように移動させた領域である領域1202も表示するようにしてもよい。
そして本処理を終了させるような状況が発生した場合(終了する条件が満たされた場合や、終了する旨の指示が入力された場合)は処理はステップS707を介してステップS702に戻り、発生していない場合は処理はステップS707を介して終了する。もちろん、ステップS706,S707を介してステップS702に戻った場合は、ステップS706における変更が反映されることになる。
以上の説明により、本実施形態によれば、監視カメラ等から得た映像を使用して撮像画面内の上下または左右端近辺に検知領域を設定する場合において、画面端付近での誤検知を防止することが出来る。
なお、以上の説明では、オブジェクト検知の一例としてある領域に対するオブジェクトの通過判定を挙げたが、他の検知内容であってもよいことはいうまでもない。
[第2の実施形態]
図1に示した各部は何れもハードウェアで構成してもよいが、一部若しくは全部をソフトウェア(コンピュータプログラム)で構成してもよい。その場合、このコンピュータプログラムは、画像処理装置100が有するメモリにインストールされ、画像処理装置100が有するCPUがこのコンピュータプログラムを実行することになる。これによりこの画像処理装置100は、図1に示した各部の動作を実現することになる。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (6)

  1. 表示画面内を移動するオブジェクトが、該表示画面内に設定されているオブジェクト検知用領域を通過したことを検知する検知手段を有する画像処理装置であって、
    前記表示画面の枠部に前記検知を禁止する領域を設定する設定手段を備え、
    前記検知手段は、前記設定手段が設定した領域以外で前記検知を行うことを特徴とする画像処理装置。
  2. 前記設定手段は、前記表示画面の上辺から前記表示画面の内部に向かう方向に設定距離だけ離間した辺、前記表示画面の下辺から前記表示画面の内部に向かう方向に設定距離だけ離間した辺、前記表示画面の左辺から前記表示画面の内部に向かう方向に設定距離だけ離間した辺、前記表示画面の右辺から前記表示画面の内部に向かう方向に設定距離だけ離間した辺、で囲まれる領域の外側を前記検知を禁止する領域として設定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記設定手段は、前記オブジェクトのサイズ、前記オブジェクトの移動速度、の何れかに応じて前記設定距離を設定することを特徴とする請求項2に記載の画像処理装置。
  4. 更に、
    前記オブジェクト検知用領域を設定する際、前記オブジェクト検知用領域の一部又は全部が前記禁止する領域に含まれた場合、前記オブジェクト検知用領域が前記禁止する領域に含まれないように、前記オブジェクト検知用領域を移動させる手段を備えることを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 表示画面内を移動するオブジェクトが、該表示画面内に設定されているオブジェクト検知用領域を通過したことを検知する検知手段を有する画像処理装置が行う画像処理方法であって、
    前記表示画面の枠部に前記検知を禁止する領域を設定する設定工程を備え、
    前記検知手段は、前記設定工程で設定した領域以外で前記検知を行うことを特徴とする画像処理方法。
  6. コンピュータを、請求項1乃至4の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2011114110A 2011-05-20 2011-05-20 画像処理装置、画像処理方法 Active JP5885398B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011114110A JP5885398B2 (ja) 2011-05-20 2011-05-20 画像処理装置、画像処理方法
US13/454,441 US9514541B2 (en) 2011-05-20 2012-04-24 Image processing apparatus and image processing method
CN201210157994.9A CN102800102B (zh) 2011-05-20 2012-05-21 图像处理设备和图像处理方法
US15/341,086 US20170076465A1 (en) 2011-05-20 2016-11-02 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011114110A JP5885398B2 (ja) 2011-05-20 2011-05-20 画像処理装置、画像処理方法

Publications (3)

Publication Number Publication Date
JP2012243161A true JP2012243161A (ja) 2012-12-10
JP2012243161A5 JP2012243161A5 (ja) 2014-07-03
JP5885398B2 JP5885398B2 (ja) 2016-03-15

Family

ID=47174593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011114110A Active JP5885398B2 (ja) 2011-05-20 2011-05-20 画像処理装置、画像処理方法

Country Status (3)

Country Link
US (2) US9514541B2 (ja)
JP (1) JP5885398B2 (ja)
CN (1) CN102800102B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014118872A1 (ja) * 2013-01-29 2014-08-07 有限会社ラムロック映像技術研究所 監視システム
JP2015018340A (ja) * 2013-07-09 2015-01-29 キヤノン株式会社 画像処理装置、画像処理方法
JP2019082795A (ja) * 2017-10-30 2019-05-30 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US11145068B2 (en) 2017-11-08 2021-10-12 Kabushiki Kaisha Toshiba Image-processing apparatus, image-processing system, image-processing method, and storage medium

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014051010A1 (ja) * 2012-09-28 2014-04-03 株式会社Jvcケンウッド 診断支援装置および診断支援方法
EP2833325A1 (en) * 2013-07-30 2015-02-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for resource-adaptive object detection and tracking
JP2015142181A (ja) 2014-01-27 2015-08-03 キヤノン株式会社 制御装置、制御方法
US9659350B2 (en) * 2014-01-31 2017-05-23 Morpho, Inc. Image processing device and image processing method for image correction, and non-transitory computer readable recording medium thereof
US9652882B2 (en) 2014-04-05 2017-05-16 Sony Interactive Entertainment America Llc Gradient adjustment for texture mapping for multiple render targets with resolution that varies by screen location
US10068311B2 (en) 2014-04-05 2018-09-04 Sony Interacive Entertainment LLC Varying effective resolution by screen location by changing active color sample count within multiple render targets
US9495790B2 (en) 2014-04-05 2016-11-15 Sony Interactive Entertainment America Llc Gradient adjustment for texture mapping to non-orthonormal grid
US9836816B2 (en) 2014-04-05 2017-12-05 Sony Interactive Entertainment America Llc Varying effective resolution by screen location in graphics processing by approximating projection of vertices onto curved viewport
US9710881B2 (en) 2014-04-05 2017-07-18 Sony Interactive Entertainment America Llc Varying effective resolution by screen location by altering rasterization parameters
US9710957B2 (en) 2014-04-05 2017-07-18 Sony Interactive Entertainment America Llc Graphics processing enhancement by tracking object and/or primitive identifiers
US9865074B2 (en) 2014-04-05 2018-01-09 Sony Interactive Entertainment America Llc Method for efficient construction of high resolution display buffers
EP3129958B1 (en) 2014-04-05 2021-06-02 Sony Interactive Entertainment LLC Method for efficient re-rendering objects to vary viewports and under varying rendering and rasterization parameters
US10783696B2 (en) 2014-04-05 2020-09-22 Sony Interactive Entertainment LLC Gradient adjustment for texture mapping to non-orthonormal grid
US11302054B2 (en) 2014-04-05 2022-04-12 Sony Interactive Entertainment Europe Limited Varying effective resolution by screen location by changing active color sample count within multiple render targets
WO2016152196A1 (ja) * 2015-03-23 2016-09-29 日本電気株式会社 監視装置、監視システム、監視方法、及びコンピュータ読み取り可能な記録媒体
JP6587489B2 (ja) * 2015-10-07 2019-10-09 キヤノン株式会社 画像処理装置、画像処理方法および画像処理システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090315712A1 (en) * 2006-06-30 2009-12-24 Ultrawave Design Holding B.V. Surveillance method and system using object based rule checking
JP2010009134A (ja) * 2008-06-24 2010-01-14 Sony Corp 画像処理システム及び画像処理方法、並びに、プログラム
JP2010128727A (ja) * 2008-11-27 2010-06-10 Hitachi Kokusai Electric Inc 画像処理装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4467838B2 (ja) 2001-06-15 2010-05-26 パナソニック株式会社 画像認識装置および画像認識方法
JP2003087772A (ja) * 2001-09-10 2003-03-20 Fujitsu Ltd 画像制御装置
JP2003259189A (ja) * 2002-03-01 2003-09-12 Sony Corp 撮像装置,画像処理方法
JP4468224B2 (ja) 2005-03-30 2010-05-26 株式会社日立製作所 エレベータの位置検出システム及び方法
JP4431532B2 (ja) * 2005-09-16 2010-03-17 富士フイルム株式会社 対象画像の位置検出装置および方法ならびに対象画像の位置検出装置を制御するプログラム
JP4658788B2 (ja) * 2005-12-06 2011-03-23 株式会社日立国際電気 画像処理装置、画像処理方法およびプログラム
JP2007249722A (ja) * 2006-03-17 2007-09-27 Hitachi Ltd 物体検知装置
JP4589261B2 (ja) * 2006-03-31 2010-12-01 パナソニック株式会社 監視カメラ装置
JP4752584B2 (ja) * 2006-04-11 2011-08-17 ソニー株式会社 表示灯制御プログラム、情報処理装置および表示灯制御方法
JP2008009341A (ja) * 2006-06-30 2008-01-17 Sony Corp オートフォーカス装置、撮像装置及びオートフォーカス方法
WO2009099022A1 (ja) * 2008-02-04 2009-08-13 Konica Minolta Holdings, Inc. 周辺監視装置及び周辺監視方法
KR100977385B1 (ko) * 2008-04-10 2010-08-20 주식회사 팬택 위젯형 대기화면을 제어할 수 있는 이동 단말기 및 그를이용한 대기화면 제어 방법
JP5219697B2 (ja) * 2008-08-25 2013-06-26 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法及びプログラム
JP4737270B2 (ja) 2008-10-31 2011-07-27 富士ゼロックス株式会社 画像処理装置及びプログラム
KR20110121125A (ko) * 2010-04-30 2011-11-07 삼성전자주식회사 인터랙티브 디스플레이 장치 및 이의 동작 방법
US8509483B2 (en) * 2011-01-31 2013-08-13 Qualcomm Incorporated Context aware augmentation interactions

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090315712A1 (en) * 2006-06-30 2009-12-24 Ultrawave Design Holding B.V. Surveillance method and system using object based rule checking
JP2010009134A (ja) * 2008-06-24 2010-01-14 Sony Corp 画像処理システム及び画像処理方法、並びに、プログラム
JP2010128727A (ja) * 2008-11-27 2010-06-10 Hitachi Kokusai Electric Inc 画像処理装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014118872A1 (ja) * 2013-01-29 2014-08-07 有限会社ラムロック映像技術研究所 監視システム
JP5870470B2 (ja) * 2013-01-29 2016-03-01 有限会社 ラムロック映像技術研究所 監視システム
US9905009B2 (en) 2013-01-29 2018-02-27 Ramrock Video Technology Laboratory Co., Ltd. Monitor system
JP2015018340A (ja) * 2013-07-09 2015-01-29 キヤノン株式会社 画像処理装置、画像処理方法
JP2019082795A (ja) * 2017-10-30 2019-05-30 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP7123545B2 (ja) 2017-10-30 2022-08-23 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US11145068B2 (en) 2017-11-08 2021-10-12 Kabushiki Kaisha Toshiba Image-processing apparatus, image-processing system, image-processing method, and storage medium

Also Published As

Publication number Publication date
CN102800102B (zh) 2016-01-20
JP5885398B2 (ja) 2016-03-15
US20120293486A1 (en) 2012-11-22
US20170076465A1 (en) 2017-03-16
US9514541B2 (en) 2016-12-06
CN102800102A (zh) 2012-11-28

Similar Documents

Publication Publication Date Title
JP5885398B2 (ja) 画像処理装置、画像処理方法
US9639759B2 (en) Video processing apparatus and video processing method
US10708508B2 (en) Control apparatus, control method, and storage medium
JP6525545B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
US8837781B2 (en) Video object fragmentation detection and management
US9953225B2 (en) Image processing apparatus and image processing method
US9367734B2 (en) Apparatus, control method, and storage medium for setting object detection region in an image
JP2022166067A (ja) 情報処理システム、情報処理方法及びプログラム
JP6381313B2 (ja) 制御装置、制御方法、およびプログラム
JP5665401B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5754990B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6414066B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP2008009849A (ja) 人物追跡装置
US8644553B2 (en) Image display device, image display method, and image display program
US20150146006A1 (en) Display control apparatus and display control method
JP2007233919A (ja) 画像処理による侵入者検知装置
US10965858B2 (en) Image processing apparatus, control method thereof, and non-transitory computer-readable storage medium for detecting moving object in captured image
JP6599644B2 (ja) 動き判定装置、動き判定方法、および動き判定プログラム
CN111986229A (zh) 视频目标检测方法、装置及计算机系统
US20130265420A1 (en) Video processing apparatus, video processing method, and recording medium
JP5983749B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US20230044673A1 (en) Detection device and control method of the same
JP2010271876A (ja) 移動体追跡装置、移動体追跡方法及びプログラム
JP4697761B2 (ja) 待ち行列検出方法及び待ち行列検出装置
JP4710562B2 (ja) 画像処理装置、および画像処理方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150306

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151019

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160209

R151 Written notification of patent or utility model registration

Ref document number: 5885398

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151