JP2005346425A - Automatic tracking system and automatic tracking method - Google Patents
Automatic tracking system and automatic tracking method Download PDFInfo
- Publication number
- JP2005346425A JP2005346425A JP2004165488A JP2004165488A JP2005346425A JP 2005346425 A JP2005346425 A JP 2005346425A JP 2004165488 A JP2004165488 A JP 2004165488A JP 2004165488 A JP2004165488 A JP 2004165488A JP 2005346425 A JP2005346425 A JP 2005346425A
- Authority
- JP
- Japan
- Prior art keywords
- image
- template
- background
- automatic tracking
- object region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、侵入物体等の監視システムにおいて撮影画像中の特定の物体を追跡する自動追尾装置及び自動追尾方法に関する。 The present invention relates to an automatic tracking device and an automatic tracking method for tracking a specific object in a captured image in a monitoring system for an intruding object or the like.
遠隔監視カメラシステムが普及し、遠隔地にある特定地点を撮影した画像を監視し、侵入者等の追跡ができるようになってきた。監視カメラシステムで用いられるカメラは、一般的に広域を監視するため撮影用レンズとして広角レンズが装着されており、侵入物体の有無は判定できるものの、例えば侵入者の人相や表情などの詳細までは把握ことができない欠点がある。 Remote monitoring camera systems have become widespread, and it has become possible to monitor an image taken at a specific point in a remote place and track an intruder or the like. Cameras used in surveillance camera systems are generally equipped with a wide-angle lens as a photographic lens to monitor a wide area, and although it is possible to determine the presence or absence of an intruding object, details such as the intruder's human phase and facial expression, etc. Has a drawback that cannot be grasped.
そこで、広角レンズを装着したカメラ以外に、パン、チルト、ズーム(以下、まとめてPTZとよぶ)の機能を備えたカメラを設置し、監視員のPTZ制御により、侵入者の人相等のより詳細な画像を取得できるようにした監視システムがある(非特許文献1)。しかし、ジョイスティック等の操作装置によりPTZ機能を持つカメラを手動操作して侵入者を追尾し続けることは高度な技術が必要であり、困難を感じる監視員が多い。このため、画像認識技術を用いて、自動的に撮影画像中の侵入者等の追跡物体を追尾できる自動追尾装置が望まれている。 Therefore, in addition to cameras equipped with wide-angle lenses, cameras equipped with pan, tilt, and zoom (hereinafter collectively referred to as PTZ) functions are installed, and the details of the intruder's human phase, etc. are controlled by the PTZ control of the observer. There is a monitoring system that can acquire a simple image (Non-Patent Document 1). However, manual operation of a camera having a PTZ function using an operation device such as a joystick to keep track of an intruder requires advanced technology, and many observers feel difficulty. Therefore, an automatic tracking device that can automatically track a tracking object such as an intruder in a captured image using an image recognition technique is desired.
このような自動追尾が可能な装置として、テンプレートマッチングの手法を利用した物体追跡方法及び物体追跡装置が提案されている(特許文献1)。テンプレートマッチングは、ある時刻の追跡物体の画像領域を切り出した部分画像をテンプレート画像として、異なる時刻の画像内でテンプレート画像と最も相関が高い領域を相関演算などにより求め、追跡物体を追跡する方法である。 As an apparatus capable of such automatic tracking, an object tracking method and an object tracking apparatus using a template matching method have been proposed (Patent Document 1). Template matching is a method in which a partial image obtained by cutting out an image area of a tracking object at a certain time is used as a template image, and an area having the highest correlation with the template image is obtained by correlation calculation or the like in images at different times, and the tracking object is tracked. is there.
図6は上記特許文献1の従来例における物体追跡時の動作を示すフローチャートである。まず、ある時刻t1の入力画像において物体検出処理を行い(ステップ901)、検出された物体領域の画像を初期のテンプレート画像として登録する(ステップ902)。次に、新たな時刻t2の入力画像を入力し(ステップ903)、テンプレートマッチングを行って入力画像からテンプレート画像と相関が最も高い領域を検出し、物体を追跡する(ステップ904)。 FIG. 6 is a flowchart showing the operation at the time of object tracking in the conventional example of Patent Document 1. First, object detection processing is performed on an input image at a certain time t1 (step 901), and an image of the detected object region is registered as an initial template image (step 902). Next, an input image at a new time t2 is input (step 903), template matching is performed to detect a region having the highest correlation with the template image from the input image, and the object is tracked (step 904).
そして、保存されているすべてのテンプレート画像についてテンプレートマッチング処理がなされたかを判定し(ステップ905)、すべてのテンプレートマッチング処理が終了している場合には、最大一致度の判定処理を行う(ステップ906)。すべてのテンプレートマッチング処理が終了していない場合は、終了するまでステップ904のテンプレートマッチング処理を繰り返す。
Then, it is determined whether template matching processing has been performed for all stored template images (step 905). If all template matching processing has been completed, maximum matching determination processing is performed (step 906). ). If all the template matching processes are not completed, the template matching process in
ステップ906において、最大一致度が所定値以下の場合は、入力画像中に追跡物体がいなくなったものとして、ステップ901に戻って再度物体検出処理を行う。一方、最大一致度が所定値以上である場合、テンプレートマッチングの結果に応じてテンプレート画像の位置を補正し(ステップ907)、補正した複数のテンプレート画像を保存する(ステップ908)。複数のテンプレート画像は、それぞれ取得時刻または更新時刻が異なり、見掛けが多少異なるものの同一物体に関するテンプレート画像である。続いて、カメラの光軸方向が追跡物体に向くようにカメラ雲台を制御する(ステップ909)。そして、例えば追跡物体が所定の警報を出す範囲に存在する場合に警報を鳴らしたり、監視モニタに追跡物体の画像を表示したりする(ステップ910)。
In
しかしながら、上記のような従来の自動追尾方法においては、背景中にテンプレート画像との相関が高い領域が存在すると、テンプレート画像が誤対応して背景に貼り付きやすく、結果として物体の追跡に失敗しやすいという課題があった。また、カメラ雲台を動かしてパンチルト動作させ、パンチルト角を制御中の撮影画像を入力した場合には、物体のみならず背景にも動きが発生するため、動きを利用して物体領域のみを抽出することができず、物体領域を用いてテンプレート画像の移動先を補正することができないという課題があった。 However, in the conventional automatic tracking method as described above, if a region having a high correlation with the template image exists in the background, the template image is likely to be erroneously attached to the background, resulting in failure to track the object. There was a problem that it was easy. In addition, when a pan / tilt operation is performed by moving the camera platform, and a captured image whose pan / tilt angle is being controlled is input, movement occurs not only in the object but also in the background, so only the object region is extracted using the movement. There is a problem that the destination of the template image cannot be corrected using the object region.
本発明は、上記事情に鑑みてなされたもので、画像中の侵入者等の物体を追跡する際に、テンプレート画像と類似する背景中の類似パターンの影響を受けることなく、安定した追尾が可能な自動追尾装置及び自動追尾方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and when tracking an object such as an intruder in an image, stable tracking is possible without being affected by a similar pattern in the background similar to the template image. It is an object to provide an automatic tracking device and an automatic tracking method.
本発明の自動追尾装置は、撮像手段によって撮影された画像を入力し、前記画像中の対象物体を追跡する自動追尾装置であって、前記対象物体の特徴を示すテンプレート画像と入力画像との相関演算を行うテンプレートマッチング手段と、前記入力画像の画像全体の動きを示す背景の動きベクトルを推定する背景ベクトル推定手段と、前記背景の動きベクトルを用いて前記画像全体の動きをキャンセルし、前記画像全体の動きとは異なる動きを物体領域として抽出する物体領域抽出手段と、前記物体領域の抽出結果に基づいて前記テンプレート画像の移動先を推定し、前記テンプレート画像の位置を補正するテンプレート位置補正手段とを備えるものである。 An automatic tracking device according to the present invention is an automatic tracking device that inputs an image captured by an imaging unit and tracks a target object in the image, and correlates a template image indicating the characteristics of the target object with an input image. Template matching means for performing calculation, background vector estimation means for estimating a motion vector of the background indicating the motion of the entire image of the input image, canceling the motion of the entire image using the motion vector of the background, and the image Object region extraction means for extracting a motion different from the overall motion as an object region, and template position correction means for estimating the destination of the template image based on the extraction result of the object region and correcting the position of the template image Are provided.
これにより、例えば撮像手段がパン、チルト、ズーム動作などで撮影範囲制御中のために背景に動きがある画像であっても、背景とは異なる動きをする物体領域を抽出し、テンプレート画像の移動先を物体領域付近へ位置補正することができる。このため、テンプレート画像と類似する背景中の類似パターンの影響を受けることなく、より安定して物体を追跡することが可能となる。 As a result, for example, even if the image is moving in the background due to the shooting range control by panning, tilting, zooming, etc., the object area that moves differently from the background is extracted, and the template image is moved. The position of the tip can be corrected near the object region. Therefore, the object can be tracked more stably without being affected by the similar pattern in the background similar to the template image.
また、本発明の一様態として、上記の自動追尾装置であって、前記テンプレート画像の位置補正結果に基づき、前記対象物体が入力画像内に位置するように前記撮像手段の撮影範囲を制御する撮影範囲制御手段を備えるものとする。
これにより、テンプレート画像の位置補正に応じて撮像手段の撮影範囲を制御することで、追跡中の対象物体が画像内から外れないようにパン、チルト、ズーム動作などを制御できる。
Further, as one aspect of the present invention, in the automatic tracking device described above, based on a position correction result of the template image, shooting that controls a shooting range of the imaging unit so that the target object is positioned in the input image Range control means shall be provided.
Thus, by controlling the shooting range of the image pickup unit in accordance with the position correction of the template image, panning, tilting, zooming operation, and the like can be controlled so that the tracking target object does not fall out of the image.
また、本発明の一様態として、上記の自動追尾装置であって、前記テンプレート位置補正手段は、注目画素の周辺で前記物体領域となった画素の密度を示す動きマップを生成し、前記動きマップを用いて前記テンプレート画像の移動先を推定するものとする。
これにより、動きマップを用いてテンプレート画像の移動先を的確に推定することが可能となる。
Also, as one aspect of the present invention, in the automatic tracking device described above, the template position correction unit generates a motion map indicating the density of pixels that have become the object region around a target pixel, and the motion map It is assumed that the destination of the template image is estimated using.
This makes it possible to accurately estimate the destination of the template image using the motion map.
また、本発明の一様態として、上記の自動追尾装置であって、前記テンプレート位置補正手段は、前記背景の動きベクトルに基づいて撮像時刻の時間差に相当する分の背景の動きをキャンセルした後、撮像時刻の異なる複数フレームの入力画像から得られた物体領域抽出結果を論理演算することで、現フレームのみで発生している物体領域とこれ以外でも発生している物体領域とを区別して重みを加えて前記動きマップを生成するものとする。
これにより、動きマップを生成する際に、現フレームのみで発生している物体領域とこれ以外でも発生している物体領域とを区別して重みを加えることで、例えば最新のフレームでのみ発生した物体領域については重みを大きくすることによって、テンプレート画像の移動先をより的確に推定することが可能となる。
Further, as one aspect of the present invention, in the above-described automatic tracking device, the template position correction unit cancels background motion by an amount corresponding to a time difference in imaging time based on the background motion vector, By logically calculating the object area extraction results obtained from multiple frames of input images with different imaging times, the object area that occurs only in the current frame is distinguished from the object area that occurs elsewhere. In addition, the motion map is generated.
As a result, when generating a motion map, for example, an object generated only in the latest frame is distinguished by adding a weight by distinguishing between an object area occurring only in the current frame and an object area occurring elsewhere. By increasing the weight for the region, it is possible to more accurately estimate the destination of the template image.
本発明の自動追尾方法は、撮像手段によって撮影された画像を入力し、前記画像中の対象物体を追跡する自動追尾方法であって、前記対象物体の特徴を示すテンプレート画像と入力画像との相関演算を行うテンプレートマッチングステップと、前記入力画像の画像全体の動きを示す背景の動きベクトルを推定する背景ベクトル推定ステップと、前記背景の動きベクトルを用いて前記画像全体の動きをキャンセルし、前記画像全体の動きとは異なる動きを物体領域として抽出する物体領域抽出ステップと、前記物体領域の抽出結果に基づいて前記テンプレート画像の移動先を推定し、前記テンプレート画像の位置を補正するテンプレート位置補正ステップとを有するものである。 The automatic tracking method of the present invention is an automatic tracking method for inputting an image taken by an imaging means and tracking a target object in the image, and correlating a template image indicating the characteristics of the target object with an input image. A template matching step for performing an operation; a background vector estimation step for estimating a motion vector of a background indicating the motion of the entire image of the input image; and canceling the motion of the entire image using the motion vector of the background; An object region extraction step for extracting a motion different from the overall motion as an object region; and a template position correction step for estimating the destination of the template image based on the extraction result of the object region and correcting the position of the template image It has.
これにより、例えば撮像手段がパン、チルト、ズーム動作などで撮影範囲制御中のために背景に動きがある画像であっても、背景とは異なる動きをする物体領域を抽出し、テンプレート画像の移動先を物体領域付近へ位置補正することができる。このため、テンプレート画像と類似する背景中の類似パターンの影響を受けることなく、より安定して物体を追跡することが可能となる。 As a result, for example, even if the image is moving in the background due to the shooting range control by panning, tilting, zooming, etc., the object area that moves differently from the background is extracted, and the template image is moved. The position of the tip can be corrected near the object region. Therefore, the object can be tracked more stably without being affected by the similar pattern in the background similar to the template image.
また、本発明は、上記の自動追尾方法の各手順をコンピュータに実行させるためのプログラムを提供する。このプログラムにより、本発明に係る自動追尾方法をコンピュータにより実行させて実現することが可能となる。このプログラムは、メモリ、ハードディスク、CD−ROMなどの記録媒体に格納することも可能である。 The present invention also provides a program for causing a computer to execute each procedure of the automatic tracking method. With this program, the automatic tracking method according to the present invention can be implemented by a computer. This program can also be stored in a recording medium such as a memory, a hard disk, or a CD-ROM.
本発明によれば、画像中の侵入者等の物体を追跡する際に、テンプレート画像と類似する背景中の類似パターンの影響を受けることなく、安定した追尾が可能な自動追尾装置及び自動追尾方法を提供できる。 According to the present invention, when tracking an object such as an intruder in an image, an automatic tracking device and an automatic tracking method capable of stable tracking without being affected by a similar pattern in the background similar to the template image. Can provide.
以下、本発明の実施形態として、侵入物体等を監視する遠隔監視システムにおいて、テンプレートを用いて撮影画像中の物体を追跡し、カメラのパン、チルト、ズーム動作(PTZ動作)を制御して詳細に侵入物体を監視するための自動追尾カメラ等の自動追尾装置、及び自動追尾方法の例を説明する。 Hereinafter, as an embodiment of the present invention, in a remote monitoring system for monitoring an intruding object or the like, an object in a captured image is tracked using a template, and panning, tilting, and zooming operations (PTZ operation) of the camera are controlled in detail. An example of an automatic tracking device such as an automatic tracking camera for monitoring an intruding object and an automatic tracking method will be described.
図1は本発明の実施形態に係る自動追尾装置の機能構成を示す図である。
自動追尾装置100は、カメラ等の撮像装置(撮像手段の一例に相当する)108によって撮影された画像を入力する画像入力部101と、入力画像の中から予め登録済みのテンプレート画像との相関が高い領域を探索するテンプレートマッチング部(テンプレートマッチング手段の一例に相当する)102と、物体以外の背景の動きベクトルを推定する背景ベクトル推定部(背景ベクトル推定手段の一例に相当する)103と、背景の動きベクトルを用いて画像全体の動きをキャンセルし、フレーム間の差分により画面全体の動きとは異なる物体領域を抽出する物体領域抽出部(物体領域抽出手段の一例に相当する)104と、テンプレート画像が物体領域から外れないように位置補正するテンプレート位置補正部(テンプレート位置補正手段の一例に相当する)105と、追跡物体が画像の中央部に位置するように撮像装置をPTZ動作させる撮像装置制御部(撮影範囲制御手段の一例に相当する)106と、画像を外部の画像表示装置109に出力する画像出力部107とを有する構成である。
FIG. 1 is a diagram showing a functional configuration of an automatic tracking device according to an embodiment of the present invention.
The
本実施形態では、撮像装置108によって撮影され画像入力部101より入力された入力画像の中から、予め登録済みのテンプレート画像との相関が高い領域を探索し、探索領域内の各位置の相関値を2次元配列としたものを相関マップとして取得する。そして、物体領域抽出部104は、背景ベクトル推定部103で推定した背景ベクトルを用いて背景の動きをキャンセルし、フレーム間差分により物体領域を抽出する。そして、テンプレート位置補正部105は、該物体領域及び相関マップを用いてテンプレートが物体領域から外れないように位置を補正する。
In the present embodiment, a region having a high correlation with a pre-registered template image is searched from input images photographed by the
次に、自動追尾装置100の主要部分の動作について説明する。本実施形態では、予め入力画像(撮像装置108による撮影画像)から追跡したい物体領域の画素を含む矩形領域をテンプレート画像として設定登録する。
Next, the operation of the main part of the
図2は、テンプレートマッチング部102の動作を説明する図である。テンプレートマッチング部102は、画像入力部101より入力された新たな入力画像と登録済みのテンプレート画像との相関を求め、相関性の高い領域を探索する。図2において、(a)に示すようなテンプレート設定部102で設定された直前のフレームのテンプレート画像をテンプレート画像Tとし、(b)に示すような新たに入力された入力画像を入力画像Iとする。テンプレートマッチング部102では、入力画像Iからテンプレート画像Tと最も相関が高くなる対応領域201を探索する。ここで、対応領域201の探索は、数十〜数百ms周期毎に繰り返すことで物体位置を追跡することができる。複数のテンプレート画像Tが存在する場合には、対象となる全てのテンプレート画像を用いて探索する。
FIG. 2 is a diagram for explaining the operation of the
このとき、直前フレームの処理において相関が最も高かった領域を基準に、最新の入力画像Iに水平垂直数十画素程度の探索範囲202を設定する。相関性を求めるとき、探索範囲202内を走査しながらテンプレート画像Tとの相関を順次に求める。探索範囲202を入力画像全体とすることも考えられるが、演算量が大きすぎることや誤対応が発生しやすいこと等から、一般的には探索範囲を限定する。探索範囲202の広さは、物体の動きにもよるが、水平垂直方向に数画素から数十画素程度である。 At this time, a search range 202 of about several tens of pixels in the horizontal and vertical directions is set in the latest input image I with reference to the region having the highest correlation in the processing of the immediately preceding frame. When obtaining the correlation, the correlation with the template image T is sequentially obtained while scanning the search range 202. Although it is conceivable that the search range 202 is the entire input image, the search range is generally limited because the amount of calculation is too large or miscorrespondence is likely to occur. The width of the search range 202 is about several to several tens of pixels in the horizontal and vertical directions, depending on the movement of the object.
画像における相関値の算出方法として、正規化相関を用いる場合の例を説明する。テンプレート画像Tの大きさをK(H)*L(V)画素とし、このテンプレート画像T(p,q)が移動して、現フレーム画像I(x,y)内の矩形領域K(H)*L(V)画素になったものとする。このテンプレート画像T(p,q)と現フレーム画像I(x,y)内の矩形領域K(H)*L(V)画素との正規化相関値NRML(xv,yv)は以下の式(1)のように表すことができる。 An example in which normalized correlation is used as a method for calculating a correlation value in an image will be described. The size of the template image T is set to K (H) * L (V) pixels, and the template image T (p, q) is moved so that the rectangular area K (H) in the current frame image I (x, y) is moved. * L (V) pixels are assumed. The normalized correlation value NRML (xv, yv) between the template image T (p, q) and the rectangular area K (H) * L (V) pixel in the current frame image I (x, y) is expressed by the following formula ( It can be expressed as 1).
正規化相関値NRMLは、両画像間の相関が高いほど1.0に近い値となり、相関が無い場合は0である。探索範囲202内にテンプレート画像Tと全く同じ画素値を持つ画像が存在した場合、正規化相関値NRMLは1.0となる。最も相関が高くなる現フレーム上の位置を対応領域201とする。直前のフレームで抽出したテンプレート画像の位置からの対応領域201の移動量が(xv,yv)であり、これがテンプレートの動きベクトルを示す。 The normalized correlation value NRML is closer to 1.0 as the correlation between both images is higher, and is 0 when there is no correlation. When an image having exactly the same pixel value as that of the template image T exists in the search range 202, the normalized correlation value NRML is 1.0. A position on the current frame having the highest correlation is defined as a corresponding area 201. The movement amount of the corresponding area 201 from the position of the template image extracted in the immediately preceding frame is (xv, yv), which indicates the motion vector of the template.
なお、上記例では正規化相関によって新たな入力画像とテンプレート画像との相関値を求める方法を説明したが、相関値の算出方法としては、より演算量が小さい差分法や差分絶対値和法などの手法も利用できる。また、輝度値を用いる例で説明したが、相関値計算には色やエッジ等を場合に応じて用いることも考えられる。 In the above example, the method of obtaining a correlation value between a new input image and a template image by normalized correlation has been described. However, as a correlation value calculation method, a difference method or a difference absolute value sum method with a smaller amount of calculation is used. This method can also be used. Further, although an example using a luminance value has been described, it is also conceivable to use a color, an edge, or the like depending on the case in the correlation value calculation.
テンプレートマッチング部102において、上記探索範囲202による探索領域内の各位置の相関値を2次元配列としたものを相関マップとして生成する。この相関マップを後述するテンプレート位置補正部105において使用する。この段階では、テンプレートの移動先は決定していない。
In the
テンプレート画像の設定方法としては、操作者が入力画像を見ながら物体領域上に手動で指示操作して設定してもよいし、入力画像中に輝度変化が発生した領域を物体領域と見なして、ラベリング処理後同一ラベルを付与された画素を含む領域をテンプレート画像として自動設定してもよい。あるいは、パターン認識技術を利用して、ある画像領域が追跡すべき物体と認識された場合にこの物体領域をテンプレートとして設定してもよい。 As a setting method of the template image, the operator may manually set and operate the object region while looking at the input image, or the region where the luminance change has occurred in the input image is regarded as the object region, An area including pixels assigned with the same label after the labeling process may be automatically set as a template image. Alternatively, when an image region is recognized as an object to be tracked using a pattern recognition technique, this object region may be set as a template.
追尾開始時における初期テンプレートの作成には、操作者が追尾したい物体上をマウス等のポインティングデバイスで指定してもよいし、入力画像中に所望の物体が存在する確率が高い領域を認識して抽出後作成してもよいし、予め追尾したい物体に関するテンプレートを保持しておくことも考えられる。このように、テンプレートの作成については任意の手法で構わない。 To create an initial template at the start of tracking, the operator may specify the object to be tracked with a pointing device such as a mouse, or recognize an area where there is a high probability that a desired object exists in the input image. It may be created after extraction, or a template relating to an object to be tracked may be stored in advance. As described above, any method may be used for creating the template.
また、テンプレートのサイズは、物体領域全体を含む大きさに設定するのが一般的であるが、物体領域の頭部周辺等の一部分をテンプレート画像として設定してもよい。また、テンプレート画像は、入力画像から切り出したものであり、入力画像の一部であるが、特に処理を加えずに用いてもよいし、エッジ抽出や各種フィルタ処理を施してテンプレート画像としてもよい。 The size of the template is generally set to a size including the entire object region, but a part of the object region such as the periphery of the head may be set as a template image. The template image is cut out from the input image and is a part of the input image. However, the template image may be used without any particular processing, or may be used as a template image by performing edge extraction or various filtering processes. .
テンプレート画像は、同一物体について取得時刻や更新時刻が異なる複数枚保持することを想定しているが、単数でも構わない。テンプレート画像と入力画像との相関が低くなった場合等には、テンプレートを保存可能な上限枚数まで追加する。上限枚数に達した際は、一部のテンプレートを削除して新しいものを追加する。テンプレート削除のルールとしては、例えば古いものから削除する、相関が低いものから削除するなどがある。 It is assumed that a plurality of template images are held for the same object with different acquisition times and update times, but a single template image may be used. When the correlation between the template image and the input image becomes low, the maximum number of templates that can be stored is added. When the maximum number is reached, delete some templates and add new ones. Examples of the template deletion rule include deletion from an old one, deletion from a lower correlation, and the like.
背景ベクトル推定部103では、撮像時刻の異なる画像から背景の動きベクトルを推定する。撮像装置108においてパンチルト動作可能なカメラを用いた場合、カメラ制御中は追跡物体以外の背景にも動きが発生する。物体領域のみを抽出するため、まず背景の動きを推定する。
The background
図3は、背景の動きベクトル推定と物体領域抽出及びテンプレート位置補正の各処理の一例を示す図であり、図3(a)は背景ベクトル推定部の動作において前々フレーム、前フレーム及び現フレームにより背景ベクトル推定を示す図、図3(b)は物体領域抽出部の動作において移動物体領域抽出を示す図、図3(c)は物体領域と背景領域と区別した2値化画像を示す図、図3(d)はテンプレート位置補正部において論理演算により得た現フレームのみで発生した物体領域と現フレームか前フレームかのどちらかで発生した物体領域を示す図である。 FIG. 3 is a diagram illustrating an example of each process of background motion vector estimation, object region extraction, and template position correction. FIG. 3A illustrates the previous frame, previous frame, and current frame in the operation of the background vector estimation unit. FIG. 3B is a diagram illustrating background vector estimation, FIG. 3B is a diagram illustrating moving object region extraction in the operation of the object region extraction unit, and FIG. 3C is a diagram illustrating a binarized image that distinguishes the object region from the background region. FIG. 3D is a diagram showing an object region generated only in the current frame obtained by logical operation in the template position correction unit and an object region generated in either the current frame or the previous frame.
背景ベクトル推定部103による背景ベクトル推定は、図3(a)のように、前フレーム及び前々フレームから背景ベクトル(bgx1,bgy1)を推定し、現フレーム及び前フレームから背景ベクトル(bgx2,bgy2)を推定する。背景ベクトル推定の方法は図3(a)に示したように、現フレームを4領域に分割し、領域ごとに前フレームからの動き量である動きベクトルを推定する。各領域で得られた動きベクトルから水平垂直方向別にの中間値を取るなどして代表動きベクトルを求め、これを画面全体の動きを示す背景ベクトル(bgx,bgy)とする。背景ベクトル推定の手法としては、ブロックマッチング手法等、一般的に知られる方式で構わない。ここでのさらに詳しい説明は省略する。
As shown in FIG. 3A, the background
なお、ここでは、現フレームを4領域に分割し、領域ごとに前フレームからの動き量である動きベクトルを推定する例を説明したが、画像を分割せずに画像全体から背景ベクトルを推定してもよいし、4領域より細かく分割して推定してもよい。 Here, an example has been described in which the current frame is divided into four regions and the motion vector that is the amount of motion from the previous frame is estimated for each region, but the background vector is estimated from the entire image without dividing the image. Alternatively, it may be estimated by dividing into four regions.
物体領域抽出部104は、背景ベクトル推定部103により得られた背景ベクトルを用いて、撮像時刻の異なる現フレームと前フレームのフレーム間差分により画像中の移動物体領域を抽出する。
The object
パンチルト動作を行ってパンチルト角制御中の撮像装置108で取得した映像は、画面全体が動いている可能性がある。このような場合に、単純なフレーム間差分法では画面全体を動きが発生したとして抽出してしまう可能性がある。
There is a possibility that the entire screen of the video acquired by the
そこで、本実施形態では、図3(b)のように、背景ベクトル推定部103で推定した背景ベクトル(bgx,bgy)を用いて前フレームを平行移動して、背景の動きをキャンセルし、下記の式(2)を用いて現フレームとフレーム間差分SA(x,y)を求める。これにより、画面中で背景とは異なる動きをする物体が存在する場合に、その動きをする物体部分のみを物体領域として抽出することができる。
Therefore, in the present embodiment, as shown in FIG. 3B, the background frame (bgx, bgy) estimated by the background
SA(x,y)=|It(x,y)−It-1(x+bgx,y+bgy)| …(2) SA (x, y) = | I t (x, y) −I t−1 (x + bgx, y + bgy) | (2)
上記の式(2)で取得したフレーム間差分結果を閾値で2値化することにより、図3(c)に示す物体領域と背景領域とを区別した2値化画像を得る。 By binarizing the difference result between frames acquired by the above equation (2) with a threshold value, a binarized image in which the object region and the background region shown in FIG. 3C are distinguished is obtained.
なお、上記説明では、フレーム間の差分で物体領域を抽出する例を説明したが、フレーム間の何かしらの特徴の変化を検出し、物体領域と背景領域とを区別してもよい。 In the above description, an example in which an object region is extracted based on a difference between frames has been described. However, a change in some feature between frames may be detected to distinguish between the object region and the background region.
テンプレート位置補正部105は、テンプレートマッチング部102で取得した相関マップと物体領域抽出部104で抽出した物体領域を用いて、テンプレートが物体領域から外れないようにテンプレートの位置を補正する。
The template position correction unit 105 uses the correlation map acquired by the
テンプレート位置補正部105でテンプレートの位置を補正する際、まず、式(2)で取得したフレーム間差分結果の内、テンプレートマッチング部102でテンプレートを用いて探索する探索領域と同じ領域について画素毎にその周辺の物体領域となった画素をカウントする。つまり、探索領域の画素毎に、周辺で物体領域となった画素の密度を求め、各画素位置での密度を2次元配列としたものを動きマップとして生成する。
When the template position correction unit 105 corrects the position of the template, first, among the inter-frame difference results obtained by Expression (2), the same region as the search region to be searched for using the template by the
また、図3(c)のような2処理周期分の2値化画像を利用して、論理演算を行うことにより、図3(d)のような現フレームのみで発生した物体領域と、現フレームか前フレームかのどちらかで発生した物体領域とを区分することができる。図3(c)に示す2処理周期分の2値化画像間には、背景ベクトル(bgx2,bgy2)に相当する画面の移動があるので、これを平行移動でキャンセルした後、論理演算を行う。このとき、最新のフレーム間差分でしか発生していない物体領域は、現フレームの物体領域であり、いずれのフレームでも発生している物体領域はどちらにも発生している物体領域であると判断する。 Further, by performing a logical operation using a binarized image for two processing cycles as shown in FIG. 3C, an object region generated only in the current frame as shown in FIG. The object area generated in either the frame or the previous frame can be distinguished. Since there is a movement of the screen corresponding to the background vector (bgx2, bgy2) between the binarized images for two processing cycles shown in FIG. 3C, a logical operation is performed after canceling this by parallel movement. . At this time, it is determined that the object area that occurs only in the latest inter-frame difference is the object area of the current frame, and the object area that occurs in any frame is the object area that occurs in both. To do.
なお、動きマップを作成する際、現フレームのみで発生した物体領域の場合は、現フレームと前フレームのいずれにも発生した物体領域に比ベて重みが大きいとして重み付けを行い、密度算出してもよい。 When creating a motion map, in the case of an object region that occurs only in the current frame, weighting is performed by calculating the density, assuming that the weight is greater than the object region occurring in both the current frame and the previous frame. Also good.
図4は、相関マップと動きマップにより統合マップを作成する際の処理の一例を示す図であり、図4(a)は相関マップを示す図、図4(b)は動きマップを示す図、図4(c)は統合マップを示す図である。 FIG. 4 is a diagram illustrating an example of processing when an integrated map is created using a correlation map and a motion map, FIG. 4A is a diagram illustrating a correlation map, and FIG. 4B is a diagram illustrating a motion map. FIG. 4C shows an integrated map.
本実施形態では、図4(a)のような相関マップと図4(b)のような動きマップをそれぞれの依存度が適当になるようにレベル補正を行って加算し、図4(c)のような統合マップを生成する。動きによるテンプレート移動先補正の効果を高める場合には、動きマップを相関マップに対し相対的に高いレベルで統合する。統合マップは、動きが発生し、かつ、テンプレートとの相関が高い位置がピークとなって現れる。なお、各マップは、値が小さいほどテンプレートの移動先である可能性が高いことを示すようになっている。この統合マップにおけるピークに対応する位置をテンプレートの移動先と判断する。 In the present embodiment, the correlation map as shown in FIG. 4A and the motion map as shown in FIG. 4B are added after performing level correction so that the respective dependencies are appropriate, and FIG. Generate an integrated map like In order to enhance the effect of template movement destination correction by movement, the movement map is integrated with the correlation map at a relatively high level. In the integrated map, a position where movement occurs and the correlation with the template is high appears as a peak. Each map shows that the smaller the value is, the higher the possibility that it is the destination of the template. The position corresponding to the peak in the integrated map is determined as the template destination.
上述のように、テンプレートとの相関を示す相関マップと物体の動き発生密度を示す動きマップとを用いて、それぞれのマップの依存度が適当になるようにレベル補正して加算することで統合マップを作成し、この統合マップによってテンプレートの移動先を推定する。これにより、テンプレートが物体領域から外れないようにテンプレートの移動先を補正することができる。 As described above, using the correlation map indicating the correlation with the template and the motion map indicating the motion occurrence density of the object, the level correction is performed so that the degree of dependence of each map becomes appropriate, and the integrated map is added. And the destination of the template is estimated using this integrated map. Thereby, the movement destination of the template can be corrected so that the template does not deviate from the object region.
次に、上記のように構成された本実施形態の自動追尾装置の全体の動作を図5に基づいて説明する。図5は本実施形態における自動追尾装置の動作手順を示すフローチャートである。 Next, the overall operation of the automatic tracking apparatus of the present embodiment configured as described above will be described with reference to FIG. FIG. 5 is a flowchart showing an operation procedure of the automatic tracking device according to the present embodiment.
まず、画像入力部101において、撮像装置108によって撮像された画像を入力する(ステップ501)。そして、テンプレートマッチング部102において、入力された画像と予め登録済みのテンプレート画像とを比較して相関値を算出し、新たな入力画像の中から予め登録済みのテンプレート画像との相関が高い領域を探索する(ステップ502)。このテンプレートマッチング処理により、相関マップが生成される。
First, the image input unit 101 inputs an image captured by the imaging device 108 (step 501). Then, the
次に、背景ベクトル推定部103において、背景の動きベクトルを推定する(ステップ503)。そして、物体領域抽出部104において、ステップ503で得られた背景ベクトルを用いて、撮像時刻の異なる現フレームと前フレームのフレーム間差分により画像中の移動物体領域を抽出する(ステップ504)。
Next, the background
続いて、テンプレート位置補正部105において、テンプレートマッチング部102で取得した相関マップと物体領域抽出部104で抽出した物体領域とを用いて、テンプレートが物体領域から外れないようにテンプレートの位置を補正する(ステップ505)。
Subsequently, the template position correction unit 105 corrects the position of the template so that the template does not deviate from the object region, using the correlation map acquired by the
その後、撮像装置制御部106において、テンプレート位置補正部105での位置補正処理結果に基づき、撮像装置108のパン、チルト、ズームの制御を行い、追跡物体が画像の中央部に位置するように撮像装置108をPTZ動作させ(ステップ506)、撮像装置108で追跡物体を含む監視領域を撮像する(ステップ507)。そして、画像出力部107において、撮像装置108で撮影した画像を外部の画像表示装置109に出力する(ステップ508)。その後、ステップ501の新たな画像入力処理に戻り、同様の処理を繰り返す。
Thereafter, the imaging
上記のように、本実施形態の自動追尾装置では、テンプレートマッチング処理で生成した相関マップと、物体の動き発生密度を示す動きマップとを用いて、テンプレートの移動先を推定し、テンプレートの位置を補正する。このように、テンプレートとの相関が高い画像領域だけを探索するのではなく、フレーム間差分によって背景とは異なる動きをする移動物体領域を求めることで、テンプレートとの相関が高くかつ動きが発生している領域を抽出し、この領域にテンプレートの移動先を補正することができる。これによって、テンプレートの誤対応や背景中の類似パターンヘの貼り付きによる追尾失敗を解消することができ、より安定して物体を追跡することが可能になる。 As described above, in the automatic tracking device according to the present embodiment, the movement destination of the template is estimated using the correlation map generated by the template matching process and the motion map indicating the motion occurrence density of the object, and the position of the template is determined. to correct. In this way, instead of searching only for image areas that have a high correlation with the template, by finding a moving object area that moves differently from the background due to interframe differences, the correlation with the template is high and movement occurs. The area to be moved can be extracted, and the template movement destination can be corrected in this area. As a result, it is possible to eliminate tracking errors caused by incorrect template correspondence and pasting to similar patterns in the background, and it becomes possible to track an object more stably.
本発明は、画像中の侵入者等の物体を追跡する際に、テンプレート画像と類似する背景中の類似パターンの影響を受けることなく、安定した追尾が可能となる効果を有し、侵入物体等の監視システムにおいて撮影画像中の特定の物体を追跡する自動追尾装置及び自動追尾方法等に有用である。 The present invention has an effect of enabling stable tracking without being affected by a similar pattern in the background similar to the template image when tracking an object such as an intruder in the image. This is useful for an automatic tracking device, an automatic tracking method, and the like that track a specific object in a captured image.
100 自動追尾装置
101 画像入力部
102 テンプレートマッチング部
103 背景ベクトル推定部
104 物体領域抽出部
105 テンプレート位置補正部
106 撮像装置制御部
107 画像出力部
108 撮像装置
109 画像表示装置
DESCRIPTION OF
Claims (6)
前記対象物体の特徴を示すテンプレート画像と入力画像との相関演算を行うテンプレートマッチング手段と、
前記入力画像の画像全体の動きを示す背景の動きベクトルを推定する背景ベクトル推定手段と、
前記背景の動きベクトルを用いて前記画像全体の動きをキャンセルし、前記画像全体の動きとは異なる動きを物体領域として抽出する物体領域抽出手段と、
前記物体領域の抽出結果に基づいて前記テンプレート画像の移動先を推定し、前記テンプレート画像の位置を補正するテンプレート位置補正手段と
を備えることを特徴とする自動追尾装置。 An automatic tracking device that inputs an image captured by an imaging means and tracks a target object in the image,
Template matching means for performing a correlation operation between a template image indicating the characteristics of the target object and an input image;
Background vector estimation means for estimating a motion vector of a background indicating the motion of the entire image of the input image;
Object region extraction means for canceling the movement of the entire image using the motion vector of the background and extracting a movement different from the movement of the entire image as an object region;
An automatic tracking device comprising: template position correcting means for estimating a destination of the template image based on the extraction result of the object region and correcting the position of the template image.
前記テンプレート画像の位置補正結果に基づき、前記対象物体が入力画像内に位置するように前記撮像手段の撮影範囲を制御する撮影範囲制御手段を備えることを特徴とする自動追尾装置。 The automatic tracking device according to claim 1,
An automatic tracking apparatus comprising: an imaging range control unit that controls an imaging range of the imaging unit so that the target object is positioned in an input image based on a position correction result of the template image.
前記テンプレート位置補正手段は、注目画素の周辺で前記物体領域となった画素の密度を示す動きマップを生成し、前記動きマップを用いて前記テンプレート画像の移動先を推定することを特徴とする自動追尾装置。 The automatic tracking device according to claim 1 or 2,
The template position correcting means generates a motion map indicating the density of pixels that have become the object region around a pixel of interest, and estimates the destination of the template image using the motion map. Tracking device.
前記テンプレート位置補正手段は、前記背景の動きベクトルに基づいて撮像時刻の時間差に相当する分の背景の動きをキャンセルした後、撮像時刻の異なる複数フレームの入力画像から得られた物体領域抽出結果を論理演算することで、現フレームのみで発生している物体領域とこれ以外でも発生している物体領域とを区別して重みを加えて前記動きマップを生成することを特徴とする自動追尾装置。 An automatic tracking device according to claim 3,
The template position correcting means cancels the background motion corresponding to the time difference of the imaging time based on the background motion vector, and then extracts the object region extraction result obtained from the input images of a plurality of frames having different imaging times. An automatic tracking device that generates a motion map by adding a weight by distinguishing between an object region that occurs only in the current frame and an object region that occurs elsewhere by performing a logical operation.
前記対象物体の特徴を示すテンプレート画像と入力画像との相関演算を行うテンプレートマッチングステップと、
前記入力画像の画像全体の動きを示す背景の動きベクトルを推定する背景ベクトル推定ステップと、
前記背景の動きベクトルを用いて前記画像全体の動きをキャンセルし、前記画像全体の動きとは異なる動きを物体領域として抽出する物体領域抽出ステップと、
前記物体領域の抽出結果に基づいて前記テンプレート画像の移動先を推定し、前記テンプレート画像の位置を補正するテンプレート位置補正ステップと
を有することを特徴とする自動追尾方法。 An automatic tracking method for inputting an image taken by an imaging means and tracking a target object in the image,
A template matching step for performing a correlation operation between a template image indicating the characteristics of the target object and an input image;
A background vector estimation step for estimating a motion vector of a background indicating the movement of the entire image of the input image;
An object region extraction step of canceling the movement of the entire image using the motion vector of the background and extracting a movement different from the movement of the entire image as an object region;
A template position correcting step of estimating a destination of the template image based on the extraction result of the object region and correcting the position of the template image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004165488A JP4578864B2 (en) | 2004-06-03 | 2004-06-03 | Automatic tracking device and automatic tracking method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004165488A JP4578864B2 (en) | 2004-06-03 | 2004-06-03 | Automatic tracking device and automatic tracking method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005346425A true JP2005346425A (en) | 2005-12-15 |
JP4578864B2 JP4578864B2 (en) | 2010-11-10 |
Family
ID=35498739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004165488A Expired - Fee Related JP4578864B2 (en) | 2004-06-03 | 2004-06-03 | Automatic tracking device and automatic tracking method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4578864B2 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006259847A (en) * | 2005-03-15 | 2006-09-28 | Matsushita Electric Ind Co Ltd | Automatic tracking device and automatic tracking method |
WO2007099762A1 (en) * | 2006-03-01 | 2007-09-07 | Nikon Corporation | Object-seeking computer program product, object-seeking device, and camera |
WO2008114683A1 (en) * | 2007-03-16 | 2008-09-25 | Nikon Corporation | Object tracking computer program product, object tracking device, and camera |
JP2010226709A (en) * | 2009-02-26 | 2010-10-07 | Nikon Corp | Subject tracking apparatus and imaging apparatus |
WO2010147137A1 (en) * | 2009-06-16 | 2010-12-23 | キヤノン株式会社 | Pattern processing device, method therefor, and program |
JP2012506647A (en) * | 2008-09-30 | 2012-03-15 | サムスン エレクトロニクス カンパニー リミテッド | High resolution video acquisition apparatus and method |
JP2012252601A (en) * | 2011-06-03 | 2012-12-20 | Nippon Telegr & Teleph Corp <Ntt> | Image tracking device and image tracking method |
JP2017037363A (en) * | 2015-08-06 | 2017-02-16 | キヤノン株式会社 | Image processing device, image processing method and program |
CN109478328A (en) * | 2016-09-30 | 2019-03-15 | 富士通株式会社 | Method for tracking target, device and image processing equipment |
JP2020057302A (en) * | 2018-10-04 | 2020-04-09 | キヤノン株式会社 | Imaging device and control method of the same, and program |
CN113111213A (en) * | 2021-04-23 | 2021-07-13 | 大同市巴什卡机械制造有限公司 | Method and device for automatically storing articles in storage system |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6024952B2 (en) | 2012-07-19 | 2016-11-16 | パナソニックIpマネジメント株式会社 | Image transmission apparatus, image transmission method, image transmission program, and image recognition authentication system |
JP5962916B2 (en) | 2012-11-14 | 2016-08-03 | パナソニックIpマネジメント株式会社 | Video surveillance system |
KR20210116966A (en) | 2020-03-18 | 2021-09-28 | 삼성전자주식회사 | Method and apparatus for tracking target |
KR20220133567A (en) | 2021-03-25 | 2022-10-05 | 삼성전자주식회사 | Method and apparatus for object tracking |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000082145A (en) * | 1998-01-07 | 2000-03-21 | Toshiba Corp | Object extraction device |
JP2001076156A (en) * | 1999-09-03 | 2001-03-23 | Mitsubishi Electric Corp | Device for monitoring image |
-
2004
- 2004-06-03 JP JP2004165488A patent/JP4578864B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000082145A (en) * | 1998-01-07 | 2000-03-21 | Toshiba Corp | Object extraction device |
JP2001076156A (en) * | 1999-09-03 | 2001-03-23 | Mitsubishi Electric Corp | Device for monitoring image |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006259847A (en) * | 2005-03-15 | 2006-09-28 | Matsushita Electric Ind Co Ltd | Automatic tracking device and automatic tracking method |
JP4699056B2 (en) * | 2005-03-15 | 2011-06-08 | パナソニック株式会社 | Automatic tracking device and automatic tracking method |
JP5018767B2 (en) * | 2006-03-01 | 2012-09-05 | 株式会社ニコン | Subject tracking program, subject tracking device, and camera |
WO2007099762A1 (en) * | 2006-03-01 | 2007-09-07 | Nikon Corporation | Object-seeking computer program product, object-seeking device, and camera |
US8131014B2 (en) | 2006-03-01 | 2012-03-06 | Nikon Corporation | Object-tracking computer program product, object-tracking device, and camera |
CN101395636B (en) * | 2006-03-01 | 2012-12-12 | 株式会社尼康 | Object-seeking computer program product, object-seeking device, and camera |
JPWO2008114683A1 (en) * | 2007-03-16 | 2010-07-01 | 株式会社ニコン | Computer program product for subject tracking, subject tracking device, and camera |
WO2008114683A1 (en) * | 2007-03-16 | 2008-09-25 | Nikon Corporation | Object tracking computer program product, object tracking device, and camera |
US8355048B2 (en) | 2007-03-16 | 2013-01-15 | Nikon Corporation | Subject tracking computer program product, subject tracking device and camera |
JP5067418B2 (en) * | 2007-03-16 | 2012-11-07 | 株式会社ニコン | Subject tracking program, subject tracking device, and camera |
JP2012506647A (en) * | 2008-09-30 | 2012-03-15 | サムスン エレクトロニクス カンパニー リミテッド | High resolution video acquisition apparatus and method |
KR101498206B1 (en) * | 2008-09-30 | 2015-03-06 | 삼성전자주식회사 | Apparatus and method for obtaining high resolution image |
JP2010226709A (en) * | 2009-02-26 | 2010-10-07 | Nikon Corp | Subject tracking apparatus and imaging apparatus |
WO2010147137A1 (en) * | 2009-06-16 | 2010-12-23 | キヤノン株式会社 | Pattern processing device, method therefor, and program |
US9117111B2 (en) | 2009-06-16 | 2015-08-25 | Canon Kabushiki Kaisha | Pattern processing apparatus and method, and program |
JP2012252601A (en) * | 2011-06-03 | 2012-12-20 | Nippon Telegr & Teleph Corp <Ntt> | Image tracking device and image tracking method |
JP2017037363A (en) * | 2015-08-06 | 2017-02-16 | キヤノン株式会社 | Image processing device, image processing method and program |
CN109478328A (en) * | 2016-09-30 | 2019-03-15 | 富士通株式会社 | Method for tracking target, device and image processing equipment |
JP2020057302A (en) * | 2018-10-04 | 2020-04-09 | キヤノン株式会社 | Imaging device and control method of the same, and program |
JP7278737B2 (en) | 2018-10-04 | 2023-05-22 | キヤノン株式会社 | IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM |
CN113111213A (en) * | 2021-04-23 | 2021-07-13 | 大同市巴什卡机械制造有限公司 | Method and device for automatically storing articles in storage system |
CN113111213B (en) * | 2021-04-23 | 2023-07-21 | 大同市巴什卡机械制造有限公司 | Automatic article storage method and device for warehouse system |
Also Published As
Publication number | Publication date |
---|---|
JP4578864B2 (en) | 2010-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4241742B2 (en) | Automatic tracking device and automatic tracking method | |
JP4699040B2 (en) | Automatic tracking control device, automatic tracking control method, program, and automatic tracking system | |
JP4575829B2 (en) | Display screen position analysis device and display screen position analysis program | |
KR101071352B1 (en) | Apparatus and method for tracking object based on PTZ camera using coordinate map | |
US7583815B2 (en) | Wide-area site-based video surveillance system | |
JP4578864B2 (en) | Automatic tracking device and automatic tracking method | |
JP6036824B2 (en) | Angle of view variation detection device, angle of view variation detection method, and field angle variation detection program | |
US8842162B2 (en) | Method and system for improving surveillance of PTZ cameras | |
WO2005107240A1 (en) | Automatic imaging method and apparatus | |
JP2004343718A (en) | Monitoring apparatus with cameras cooperating | |
US20160165129A1 (en) | Image Processing Method | |
CN112703533A (en) | Object tracking | |
JP4764172B2 (en) | Method for detecting moving object candidate by image processing, moving object detecting method for detecting moving object from moving object candidate, moving object detecting apparatus, and moving object detecting program | |
KR102410268B1 (en) | Object tracking method and object tracking apparatus for performing the method | |
EP3629570A2 (en) | Image capturing apparatus and image recording method | |
JP4699056B2 (en) | Automatic tracking device and automatic tracking method | |
JP5865710B2 (en) | Image processing device | |
CN115063750A (en) | Region position updating method, security system and computer readable storage medium | |
KR20160048428A (en) | Method and Apparatus for Playing Video by Using Pan-Tilt-Zoom Camera | |
KR101396838B1 (en) | Video stabilization method and system by selection one of various motion models | |
KR101290517B1 (en) | Photographing apparatus for tracking object and method thereof | |
JP4597543B2 (en) | Automatic tracking device and automatic tracking method | |
KR102107137B1 (en) | Method and Apparatus for Detecting Event by Using Pan-Tilt-Zoom Camera | |
JP2010074315A (en) | Object tracking method and imaging device | |
JP2009211525A (en) | Object detector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060327 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070601 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20071114 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071121 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20071128 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071205 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100416 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100511 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100707 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100727 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100825 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130903 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |