JP2005346425A - Automatic tracking system and automatic tracking method - Google Patents

Automatic tracking system and automatic tracking method Download PDF

Info

Publication number
JP2005346425A
JP2005346425A JP2004165488A JP2004165488A JP2005346425A JP 2005346425 A JP2005346425 A JP 2005346425A JP 2004165488 A JP2004165488 A JP 2004165488A JP 2004165488 A JP2004165488 A JP 2004165488A JP 2005346425 A JP2005346425 A JP 2005346425A
Authority
JP
Japan
Prior art keywords
image
template
background
automatic tracking
object region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004165488A
Other languages
Japanese (ja)
Other versions
JP4578864B2 (en
Inventor
Yasuyuki Domoto
泰之 道本
Yasusuke Hosoi
康丞 細井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004165488A priority Critical patent/JP4578864B2/en
Publication of JP2005346425A publication Critical patent/JP2005346425A/en
Application granted granted Critical
Publication of JP4578864B2 publication Critical patent/JP4578864B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make a stable tracking possible without the influence of similar patterns in a background similar with a template image when an object such as an invader in an image is tracked. <P>SOLUTION: A template matching part 102 searches an area having a high correlation with a preliminarily registered template image from input images inputted from an image input part 101 and obtains a correlation map in which correlation values of positions in the searched area are two-dimensionally arranged. An object area extraction part 104 cancels the motion of a background by using a background vector predicted by a background vector prediction part 103 and extracts an object area based on a difference between frames. A template position correction part 105 generates a movement map indicating an object-movement occurrence density in the searched area, predicts the movement destination of the template by using the correlation map and the movement map, and corrects the position of the template so that the template may not deviate from the object area. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、侵入物体等の監視システムにおいて撮影画像中の特定の物体を追跡する自動追尾装置及び自動追尾方法に関する。   The present invention relates to an automatic tracking device and an automatic tracking method for tracking a specific object in a captured image in a monitoring system for an intruding object or the like.

遠隔監視カメラシステムが普及し、遠隔地にある特定地点を撮影した画像を監視し、侵入者等の追跡ができるようになってきた。監視カメラシステムで用いられるカメラは、一般的に広域を監視するため撮影用レンズとして広角レンズが装着されており、侵入物体の有無は判定できるものの、例えば侵入者の人相や表情などの詳細までは把握ことができない欠点がある。   Remote monitoring camera systems have become widespread, and it has become possible to monitor an image taken at a specific point in a remote place and track an intruder or the like. Cameras used in surveillance camera systems are generally equipped with a wide-angle lens as a photographic lens to monitor a wide area, and although it is possible to determine the presence or absence of an intruding object, details such as the intruder's human phase and facial expression, etc. Has a drawback that cannot be grasped.

そこで、広角レンズを装着したカメラ以外に、パン、チルト、ズーム(以下、まとめてPTZとよぶ)の機能を備えたカメラを設置し、監視員のPTZ制御により、侵入者の人相等のより詳細な画像を取得できるようにした監視システムがある(非特許文献1)。しかし、ジョイスティック等の操作装置によりPTZ機能を持つカメラを手動操作して侵入者を追尾し続けることは高度な技術が必要であり、困難を感じる監視員が多い。このため、画像認識技術を用いて、自動的に撮影画像中の侵入者等の追跡物体を追尾できる自動追尾装置が望まれている。   Therefore, in addition to cameras equipped with wide-angle lenses, cameras equipped with pan, tilt, and zoom (hereinafter collectively referred to as PTZ) functions are installed, and the details of the intruder's human phase, etc. are controlled by the PTZ control of the observer. There is a monitoring system that can acquire a simple image (Non-Patent Document 1). However, manual operation of a camera having a PTZ function using an operation device such as a joystick to keep track of an intruder requires advanced technology, and many observers feel difficulty. Therefore, an automatic tracking device that can automatically track a tracking object such as an intruder in a captured image using an image recognition technique is desired.

このような自動追尾が可能な装置として、テンプレートマッチングの手法を利用した物体追跡方法及び物体追跡装置が提案されている(特許文献1)。テンプレートマッチングは、ある時刻の追跡物体の画像領域を切り出した部分画像をテンプレート画像として、異なる時刻の画像内でテンプレート画像と最も相関が高い領域を相関演算などにより求め、追跡物体を追跡する方法である。   As an apparatus capable of such automatic tracking, an object tracking method and an object tracking apparatus using a template matching method have been proposed (Patent Document 1). Template matching is a method in which a partial image obtained by cutting out an image area of a tracking object at a certain time is used as a template image, and an area having the highest correlation with the template image is obtained by correlation calculation or the like in images at different times, and the tracking object is tracked. is there.

図6は上記特許文献1の従来例における物体追跡時の動作を示すフローチャートである。まず、ある時刻t1の入力画像において物体検出処理を行い(ステップ901)、検出された物体領域の画像を初期のテンプレート画像として登録する(ステップ902)。次に、新たな時刻t2の入力画像を入力し(ステップ903)、テンプレートマッチングを行って入力画像からテンプレート画像と相関が最も高い領域を検出し、物体を追跡する(ステップ904)。   FIG. 6 is a flowchart showing the operation at the time of object tracking in the conventional example of Patent Document 1. First, object detection processing is performed on an input image at a certain time t1 (step 901), and an image of the detected object region is registered as an initial template image (step 902). Next, an input image at a new time t2 is input (step 903), template matching is performed to detect a region having the highest correlation with the template image from the input image, and the object is tracked (step 904).

そして、保存されているすべてのテンプレート画像についてテンプレートマッチング処理がなされたかを判定し(ステップ905)、すべてのテンプレートマッチング処理が終了している場合には、最大一致度の判定処理を行う(ステップ906)。すべてのテンプレートマッチング処理が終了していない場合は、終了するまでステップ904のテンプレートマッチング処理を繰り返す。   Then, it is determined whether template matching processing has been performed for all stored template images (step 905). If all template matching processing has been completed, maximum matching determination processing is performed (step 906). ). If all the template matching processes are not completed, the template matching process in step 904 is repeated until the template matching process is completed.

ステップ906において、最大一致度が所定値以下の場合は、入力画像中に追跡物体がいなくなったものとして、ステップ901に戻って再度物体検出処理を行う。一方、最大一致度が所定値以上である場合、テンプレートマッチングの結果に応じてテンプレート画像の位置を補正し(ステップ907)、補正した複数のテンプレート画像を保存する(ステップ908)。複数のテンプレート画像は、それぞれ取得時刻または更新時刻が異なり、見掛けが多少異なるものの同一物体に関するテンプレート画像である。続いて、カメラの光軸方向が追跡物体に向くようにカメラ雲台を制御する(ステップ909)。そして、例えば追跡物体が所定の警報を出す範囲に存在する場合に警報を鳴らしたり、監視モニタに追跡物体の画像を表示したりする(ステップ910)。   In step 906, if the maximum matching degree is equal to or smaller than the predetermined value, it is determined that there is no tracking object in the input image, and the process returns to step 901 to perform object detection processing again. On the other hand, when the maximum matching degree is a predetermined value or more, the position of the template image is corrected according to the result of template matching (step 907), and the corrected plurality of template images are stored (step 908). The plurality of template images are template images related to the same object although the acquisition time or update time is different and the appearance is slightly different. Subsequently, the camera platform is controlled so that the optical axis direction of the camera faces the tracking object (step 909). Then, for example, when the tracked object is present within a predetermined alarm range, an alarm is sounded or an image of the tracked object is displayed on the monitoring monitor (step 910).

特開2001−60269号公報JP 2001-60269 A 羽下、藤原、鷲見著「首振り、ズームカメラを用いたトラッキング型侵入監視システム」、電子情報通信学会 信学技報PRMU99−67(P23−30)、1999年9月Ushita, Fujiwara, Tadami, “Swinging, Tracking Intrusion Monitoring System Using Zoom Camera”, IEICE Technical Report PRMU 99-67 (P23-30), September 1999

しかしながら、上記のような従来の自動追尾方法においては、背景中にテンプレート画像との相関が高い領域が存在すると、テンプレート画像が誤対応して背景に貼り付きやすく、結果として物体の追跡に失敗しやすいという課題があった。また、カメラ雲台を動かしてパンチルト動作させ、パンチルト角を制御中の撮影画像を入力した場合には、物体のみならず背景にも動きが発生するため、動きを利用して物体領域のみを抽出することができず、物体領域を用いてテンプレート画像の移動先を補正することができないという課題があった。   However, in the conventional automatic tracking method as described above, if a region having a high correlation with the template image exists in the background, the template image is likely to be erroneously attached to the background, resulting in failure to track the object. There was a problem that it was easy. In addition, when a pan / tilt operation is performed by moving the camera platform, and a captured image whose pan / tilt angle is being controlled is input, movement occurs not only in the object but also in the background, so only the object region is extracted using the movement. There is a problem that the destination of the template image cannot be corrected using the object region.

本発明は、上記事情に鑑みてなされたもので、画像中の侵入者等の物体を追跡する際に、テンプレート画像と類似する背景中の類似パターンの影響を受けることなく、安定した追尾が可能な自動追尾装置及び自動追尾方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and when tracking an object such as an intruder in an image, stable tracking is possible without being affected by a similar pattern in the background similar to the template image. It is an object to provide an automatic tracking device and an automatic tracking method.

本発明の自動追尾装置は、撮像手段によって撮影された画像を入力し、前記画像中の対象物体を追跡する自動追尾装置であって、前記対象物体の特徴を示すテンプレート画像と入力画像との相関演算を行うテンプレートマッチング手段と、前記入力画像の画像全体の動きを示す背景の動きベクトルを推定する背景ベクトル推定手段と、前記背景の動きベクトルを用いて前記画像全体の動きをキャンセルし、前記画像全体の動きとは異なる動きを物体領域として抽出する物体領域抽出手段と、前記物体領域の抽出結果に基づいて前記テンプレート画像の移動先を推定し、前記テンプレート画像の位置を補正するテンプレート位置補正手段とを備えるものである。   An automatic tracking device according to the present invention is an automatic tracking device that inputs an image captured by an imaging unit and tracks a target object in the image, and correlates a template image indicating the characteristics of the target object with an input image. Template matching means for performing calculation, background vector estimation means for estimating a motion vector of the background indicating the motion of the entire image of the input image, canceling the motion of the entire image using the motion vector of the background, and the image Object region extraction means for extracting a motion different from the overall motion as an object region, and template position correction means for estimating the destination of the template image based on the extraction result of the object region and correcting the position of the template image Are provided.

これにより、例えば撮像手段がパン、チルト、ズーム動作などで撮影範囲制御中のために背景に動きがある画像であっても、背景とは異なる動きをする物体領域を抽出し、テンプレート画像の移動先を物体領域付近へ位置補正することができる。このため、テンプレート画像と類似する背景中の類似パターンの影響を受けることなく、より安定して物体を追跡することが可能となる。   As a result, for example, even if the image is moving in the background due to the shooting range control by panning, tilting, zooming, etc., the object area that moves differently from the background is extracted, and the template image is moved. The position of the tip can be corrected near the object region. Therefore, the object can be tracked more stably without being affected by the similar pattern in the background similar to the template image.

また、本発明の一様態として、上記の自動追尾装置であって、前記テンプレート画像の位置補正結果に基づき、前記対象物体が入力画像内に位置するように前記撮像手段の撮影範囲を制御する撮影範囲制御手段を備えるものとする。
これにより、テンプレート画像の位置補正に応じて撮像手段の撮影範囲を制御することで、追跡中の対象物体が画像内から外れないようにパン、チルト、ズーム動作などを制御できる。
Further, as one aspect of the present invention, in the automatic tracking device described above, based on a position correction result of the template image, shooting that controls a shooting range of the imaging unit so that the target object is positioned in the input image Range control means shall be provided.
Thus, by controlling the shooting range of the image pickup unit in accordance with the position correction of the template image, panning, tilting, zooming operation, and the like can be controlled so that the tracking target object does not fall out of the image.

また、本発明の一様態として、上記の自動追尾装置であって、前記テンプレート位置補正手段は、注目画素の周辺で前記物体領域となった画素の密度を示す動きマップを生成し、前記動きマップを用いて前記テンプレート画像の移動先を推定するものとする。
これにより、動きマップを用いてテンプレート画像の移動先を的確に推定することが可能となる。
Also, as one aspect of the present invention, in the automatic tracking device described above, the template position correction unit generates a motion map indicating the density of pixels that have become the object region around a target pixel, and the motion map It is assumed that the destination of the template image is estimated using.
This makes it possible to accurately estimate the destination of the template image using the motion map.

また、本発明の一様態として、上記の自動追尾装置であって、前記テンプレート位置補正手段は、前記背景の動きベクトルに基づいて撮像時刻の時間差に相当する分の背景の動きをキャンセルした後、撮像時刻の異なる複数フレームの入力画像から得られた物体領域抽出結果を論理演算することで、現フレームのみで発生している物体領域とこれ以外でも発生している物体領域とを区別して重みを加えて前記動きマップを生成するものとする。
これにより、動きマップを生成する際に、現フレームのみで発生している物体領域とこれ以外でも発生している物体領域とを区別して重みを加えることで、例えば最新のフレームでのみ発生した物体領域については重みを大きくすることによって、テンプレート画像の移動先をより的確に推定することが可能となる。
Further, as one aspect of the present invention, in the above-described automatic tracking device, the template position correction unit cancels background motion by an amount corresponding to a time difference in imaging time based on the background motion vector, By logically calculating the object area extraction results obtained from multiple frames of input images with different imaging times, the object area that occurs only in the current frame is distinguished from the object area that occurs elsewhere. In addition, the motion map is generated.
As a result, when generating a motion map, for example, an object generated only in the latest frame is distinguished by adding a weight by distinguishing between an object area occurring only in the current frame and an object area occurring elsewhere. By increasing the weight for the region, it is possible to more accurately estimate the destination of the template image.

本発明の自動追尾方法は、撮像手段によって撮影された画像を入力し、前記画像中の対象物体を追跡する自動追尾方法であって、前記対象物体の特徴を示すテンプレート画像と入力画像との相関演算を行うテンプレートマッチングステップと、前記入力画像の画像全体の動きを示す背景の動きベクトルを推定する背景ベクトル推定ステップと、前記背景の動きベクトルを用いて前記画像全体の動きをキャンセルし、前記画像全体の動きとは異なる動きを物体領域として抽出する物体領域抽出ステップと、前記物体領域の抽出結果に基づいて前記テンプレート画像の移動先を推定し、前記テンプレート画像の位置を補正するテンプレート位置補正ステップとを有するものである。   The automatic tracking method of the present invention is an automatic tracking method for inputting an image taken by an imaging means and tracking a target object in the image, and correlating a template image indicating the characteristics of the target object with an input image. A template matching step for performing an operation; a background vector estimation step for estimating a motion vector of a background indicating the motion of the entire image of the input image; and canceling the motion of the entire image using the motion vector of the background; An object region extraction step for extracting a motion different from the overall motion as an object region; and a template position correction step for estimating the destination of the template image based on the extraction result of the object region and correcting the position of the template image It has.

これにより、例えば撮像手段がパン、チルト、ズーム動作などで撮影範囲制御中のために背景に動きがある画像であっても、背景とは異なる動きをする物体領域を抽出し、テンプレート画像の移動先を物体領域付近へ位置補正することができる。このため、テンプレート画像と類似する背景中の類似パターンの影響を受けることなく、より安定して物体を追跡することが可能となる。   As a result, for example, even if the image is moving in the background due to the shooting range control by panning, tilting, zooming, etc., the object area that moves differently from the background is extracted, and the template image is moved. The position of the tip can be corrected near the object region. Therefore, the object can be tracked more stably without being affected by the similar pattern in the background similar to the template image.

また、本発明は、上記の自動追尾方法の各手順をコンピュータに実行させるためのプログラムを提供する。このプログラムにより、本発明に係る自動追尾方法をコンピュータにより実行させて実現することが可能となる。このプログラムは、メモリ、ハードディスク、CD−ROMなどの記録媒体に格納することも可能である。   The present invention also provides a program for causing a computer to execute each procedure of the automatic tracking method. With this program, the automatic tracking method according to the present invention can be implemented by a computer. This program can also be stored in a recording medium such as a memory, a hard disk, or a CD-ROM.

本発明によれば、画像中の侵入者等の物体を追跡する際に、テンプレート画像と類似する背景中の類似パターンの影響を受けることなく、安定した追尾が可能な自動追尾装置及び自動追尾方法を提供できる。   According to the present invention, when tracking an object such as an intruder in an image, an automatic tracking device and an automatic tracking method capable of stable tracking without being affected by a similar pattern in the background similar to the template image. Can provide.

以下、本発明の実施形態として、侵入物体等を監視する遠隔監視システムにおいて、テンプレートを用いて撮影画像中の物体を追跡し、カメラのパン、チルト、ズーム動作(PTZ動作)を制御して詳細に侵入物体を監視するための自動追尾カメラ等の自動追尾装置、及び自動追尾方法の例を説明する。   Hereinafter, as an embodiment of the present invention, in a remote monitoring system for monitoring an intruding object or the like, an object in a captured image is tracked using a template, and panning, tilting, and zooming operations (PTZ operation) of the camera are controlled in detail. An example of an automatic tracking device such as an automatic tracking camera for monitoring an intruding object and an automatic tracking method will be described.

図1は本発明の実施形態に係る自動追尾装置の機能構成を示す図である。
自動追尾装置100は、カメラ等の撮像装置(撮像手段の一例に相当する)108によって撮影された画像を入力する画像入力部101と、入力画像の中から予め登録済みのテンプレート画像との相関が高い領域を探索するテンプレートマッチング部(テンプレートマッチング手段の一例に相当する)102と、物体以外の背景の動きベクトルを推定する背景ベクトル推定部(背景ベクトル推定手段の一例に相当する)103と、背景の動きベクトルを用いて画像全体の動きをキャンセルし、フレーム間の差分により画面全体の動きとは異なる物体領域を抽出する物体領域抽出部(物体領域抽出手段の一例に相当する)104と、テンプレート画像が物体領域から外れないように位置補正するテンプレート位置補正部(テンプレート位置補正手段の一例に相当する)105と、追跡物体が画像の中央部に位置するように撮像装置をPTZ動作させる撮像装置制御部(撮影範囲制御手段の一例に相当する)106と、画像を外部の画像表示装置109に出力する画像出力部107とを有する構成である。
FIG. 1 is a diagram showing a functional configuration of an automatic tracking device according to an embodiment of the present invention.
The automatic tracking device 100 has a correlation between an image input unit 101 that inputs an image captured by an imaging device 108 (corresponding to an example of an imaging unit) 108 such as a camera, and a template image registered in advance from the input image. A template matching unit (corresponding to an example of a template matching unit) 102 that searches for a high area, a background vector estimation unit (corresponding to an example of a background vector estimation unit) 103 that estimates a motion vector of a background other than an object, and a background An object region extracting unit (corresponding to an example of an object region extracting means) 104 that cancels the motion of the entire image using the motion vector of the image and extracts an object region different from the motion of the entire screen due to the difference between frames, and a template Template position correction unit that corrects the position so that the image does not deviate from the object area (template position correction 105 (corresponding to an example of a stage), an imaging device control unit (corresponding to an example of imaging range control means) 106 that causes the imaging device to perform a PTZ operation so that the tracking object is located at the center of the image, and an image The image output unit 107 outputs to the image display device 109.

本実施形態では、撮像装置108によって撮影され画像入力部101より入力された入力画像の中から、予め登録済みのテンプレート画像との相関が高い領域を探索し、探索領域内の各位置の相関値を2次元配列としたものを相関マップとして取得する。そして、物体領域抽出部104は、背景ベクトル推定部103で推定した背景ベクトルを用いて背景の動きをキャンセルし、フレーム間差分により物体領域を抽出する。そして、テンプレート位置補正部105は、該物体領域及び相関マップを用いてテンプレートが物体領域から外れないように位置を補正する。   In the present embodiment, a region having a high correlation with a pre-registered template image is searched from input images photographed by the imaging device 108 and input from the image input unit 101, and the correlation value of each position in the search region. Is obtained as a correlation map. Then, the object region extraction unit 104 cancels the background motion using the background vector estimated by the background vector estimation unit 103, and extracts the object region based on the inter-frame difference. Then, the template position correcting unit 105 corrects the position using the object region and the correlation map so that the template does not deviate from the object region.

次に、自動追尾装置100の主要部分の動作について説明する。本実施形態では、予め入力画像(撮像装置108による撮影画像)から追跡したい物体領域の画素を含む矩形領域をテンプレート画像として設定登録する。   Next, the operation of the main part of the automatic tracking device 100 will be described. In this embodiment, a rectangular area including pixels of an object area to be tracked from an input image (an image taken by the imaging device 108) is set and registered as a template image in advance.

図2は、テンプレートマッチング部102の動作を説明する図である。テンプレートマッチング部102は、画像入力部101より入力された新たな入力画像と登録済みのテンプレート画像との相関を求め、相関性の高い領域を探索する。図2において、(a)に示すようなテンプレート設定部102で設定された直前のフレームのテンプレート画像をテンプレート画像Tとし、(b)に示すような新たに入力された入力画像を入力画像Iとする。テンプレートマッチング部102では、入力画像Iからテンプレート画像Tと最も相関が高くなる対応領域201を探索する。ここで、対応領域201の探索は、数十〜数百ms周期毎に繰り返すことで物体位置を追跡することができる。複数のテンプレート画像Tが存在する場合には、対象となる全てのテンプレート画像を用いて探索する。   FIG. 2 is a diagram for explaining the operation of the template matching unit 102. The template matching unit 102 obtains a correlation between a new input image input from the image input unit 101 and a registered template image, and searches for a highly correlated area. In FIG. 2, the template image of the immediately preceding frame set by the template setting unit 102 as shown in FIG. 2A is set as a template image T, and the newly input input image as shown in FIG. To do. The template matching unit 102 searches the corresponding area 201 having the highest correlation with the template image T from the input image I. Here, the search for the corresponding region 201 can be repeated every tens to hundreds of milliseconds to track the object position. When there are a plurality of template images T, the search is performed using all target template images.

このとき、直前フレームの処理において相関が最も高かった領域を基準に、最新の入力画像Iに水平垂直数十画素程度の探索範囲202を設定する。相関性を求めるとき、探索範囲202内を走査しながらテンプレート画像Tとの相関を順次に求める。探索範囲202を入力画像全体とすることも考えられるが、演算量が大きすぎることや誤対応が発生しやすいこと等から、一般的には探索範囲を限定する。探索範囲202の広さは、物体の動きにもよるが、水平垂直方向に数画素から数十画素程度である。   At this time, a search range 202 of about several tens of pixels in the horizontal and vertical directions is set in the latest input image I with reference to the region having the highest correlation in the processing of the immediately preceding frame. When obtaining the correlation, the correlation with the template image T is sequentially obtained while scanning the search range 202. Although it is conceivable that the search range 202 is the entire input image, the search range is generally limited because the amount of calculation is too large or miscorrespondence is likely to occur. The width of the search range 202 is about several to several tens of pixels in the horizontal and vertical directions, depending on the movement of the object.

画像における相関値の算出方法として、正規化相関を用いる場合の例を説明する。テンプレート画像Tの大きさをK(H)*L(V)画素とし、このテンプレート画像T(p,q)が移動して、現フレーム画像I(x,y)内の矩形領域K(H)*L(V)画素になったものとする。このテンプレート画像T(p,q)と現フレーム画像I(x,y)内の矩形領域K(H)*L(V)画素との正規化相関値NRML(xv,yv)は以下の式(1)のように表すことができる。   An example in which normalized correlation is used as a method for calculating a correlation value in an image will be described. The size of the template image T is set to K (H) * L (V) pixels, and the template image T (p, q) is moved so that the rectangular area K (H) in the current frame image I (x, y) is moved. * L (V) pixels are assumed. The normalized correlation value NRML (xv, yv) between the template image T (p, q) and the rectangular area K (H) * L (V) pixel in the current frame image I (x, y) is expressed by the following formula ( It can be expressed as 1).

Figure 2005346425
Figure 2005346425

正規化相関値NRMLは、両画像間の相関が高いほど1.0に近い値となり、相関が無い場合は0である。探索範囲202内にテンプレート画像Tと全く同じ画素値を持つ画像が存在した場合、正規化相関値NRMLは1.0となる。最も相関が高くなる現フレーム上の位置を対応領域201とする。直前のフレームで抽出したテンプレート画像の位置からの対応領域201の移動量が(xv,yv)であり、これがテンプレートの動きベクトルを示す。   The normalized correlation value NRML is closer to 1.0 as the correlation between both images is higher, and is 0 when there is no correlation. When an image having exactly the same pixel value as that of the template image T exists in the search range 202, the normalized correlation value NRML is 1.0. A position on the current frame having the highest correlation is defined as a corresponding area 201. The movement amount of the corresponding area 201 from the position of the template image extracted in the immediately preceding frame is (xv, yv), which indicates the motion vector of the template.

なお、上記例では正規化相関によって新たな入力画像とテンプレート画像との相関値を求める方法を説明したが、相関値の算出方法としては、より演算量が小さい差分法や差分絶対値和法などの手法も利用できる。また、輝度値を用いる例で説明したが、相関値計算には色やエッジ等を場合に応じて用いることも考えられる。   In the above example, the method of obtaining a correlation value between a new input image and a template image by normalized correlation has been described. However, as a correlation value calculation method, a difference method or a difference absolute value sum method with a smaller amount of calculation is used. This method can also be used. Further, although an example using a luminance value has been described, it is also conceivable to use a color, an edge, or the like depending on the case in the correlation value calculation.

テンプレートマッチング部102において、上記探索範囲202による探索領域内の各位置の相関値を2次元配列としたものを相関マップとして生成する。この相関マップを後述するテンプレート位置補正部105において使用する。この段階では、テンプレートの移動先は決定していない。   In the template matching unit 102, a correlation map in which the correlation values of the respective positions in the search area by the search range 202 are arranged in a two-dimensional array is generated. This correlation map is used in the template position correction unit 105 described later. At this stage, the template destination has not been determined.

テンプレート画像の設定方法としては、操作者が入力画像を見ながら物体領域上に手動で指示操作して設定してもよいし、入力画像中に輝度変化が発生した領域を物体領域と見なして、ラベリング処理後同一ラベルを付与された画素を含む領域をテンプレート画像として自動設定してもよい。あるいは、パターン認識技術を利用して、ある画像領域が追跡すべき物体と認識された場合にこの物体領域をテンプレートとして設定してもよい。   As a setting method of the template image, the operator may manually set and operate the object region while looking at the input image, or the region where the luminance change has occurred in the input image is regarded as the object region, An area including pixels assigned with the same label after the labeling process may be automatically set as a template image. Alternatively, when an image region is recognized as an object to be tracked using a pattern recognition technique, this object region may be set as a template.

追尾開始時における初期テンプレートの作成には、操作者が追尾したい物体上をマウス等のポインティングデバイスで指定してもよいし、入力画像中に所望の物体が存在する確率が高い領域を認識して抽出後作成してもよいし、予め追尾したい物体に関するテンプレートを保持しておくことも考えられる。このように、テンプレートの作成については任意の手法で構わない。   To create an initial template at the start of tracking, the operator may specify the object to be tracked with a pointing device such as a mouse, or recognize an area where there is a high probability that a desired object exists in the input image. It may be created after extraction, or a template relating to an object to be tracked may be stored in advance. As described above, any method may be used for creating the template.

また、テンプレートのサイズは、物体領域全体を含む大きさに設定するのが一般的であるが、物体領域の頭部周辺等の一部分をテンプレート画像として設定してもよい。また、テンプレート画像は、入力画像から切り出したものであり、入力画像の一部であるが、特に処理を加えずに用いてもよいし、エッジ抽出や各種フィルタ処理を施してテンプレート画像としてもよい。   The size of the template is generally set to a size including the entire object region, but a part of the object region such as the periphery of the head may be set as a template image. The template image is cut out from the input image and is a part of the input image. However, the template image may be used without any particular processing, or may be used as a template image by performing edge extraction or various filtering processes. .

テンプレート画像は、同一物体について取得時刻や更新時刻が異なる複数枚保持することを想定しているが、単数でも構わない。テンプレート画像と入力画像との相関が低くなった場合等には、テンプレートを保存可能な上限枚数まで追加する。上限枚数に達した際は、一部のテンプレートを削除して新しいものを追加する。テンプレート削除のルールとしては、例えば古いものから削除する、相関が低いものから削除するなどがある。   It is assumed that a plurality of template images are held for the same object with different acquisition times and update times, but a single template image may be used. When the correlation between the template image and the input image becomes low, the maximum number of templates that can be stored is added. When the maximum number is reached, delete some templates and add new ones. Examples of the template deletion rule include deletion from an old one, deletion from a lower correlation, and the like.

背景ベクトル推定部103では、撮像時刻の異なる画像から背景の動きベクトルを推定する。撮像装置108においてパンチルト動作可能なカメラを用いた場合、カメラ制御中は追跡物体以外の背景にも動きが発生する。物体領域のみを抽出するため、まず背景の動きを推定する。   The background vector estimation unit 103 estimates a background motion vector from images with different imaging times. When a camera capable of pan / tilt operation is used in the imaging device 108, movement occurs in the background other than the tracking object during camera control. In order to extract only the object region, first the background motion is estimated.

図3は、背景の動きベクトル推定と物体領域抽出及びテンプレート位置補正の各処理の一例を示す図であり、図3(a)は背景ベクトル推定部の動作において前々フレーム、前フレーム及び現フレームにより背景ベクトル推定を示す図、図3(b)は物体領域抽出部の動作において移動物体領域抽出を示す図、図3(c)は物体領域と背景領域と区別した2値化画像を示す図、図3(d)はテンプレート位置補正部において論理演算により得た現フレームのみで発生した物体領域と現フレームか前フレームかのどちらかで発生した物体領域を示す図である。   FIG. 3 is a diagram illustrating an example of each process of background motion vector estimation, object region extraction, and template position correction. FIG. 3A illustrates the previous frame, previous frame, and current frame in the operation of the background vector estimation unit. FIG. 3B is a diagram illustrating background vector estimation, FIG. 3B is a diagram illustrating moving object region extraction in the operation of the object region extraction unit, and FIG. 3C is a diagram illustrating a binarized image that distinguishes the object region from the background region. FIG. 3D is a diagram showing an object region generated only in the current frame obtained by logical operation in the template position correction unit and an object region generated in either the current frame or the previous frame.

背景ベクトル推定部103による背景ベクトル推定は、図3(a)のように、前フレーム及び前々フレームから背景ベクトル(bgx1,bgy1)を推定し、現フレーム及び前フレームから背景ベクトル(bgx2,bgy2)を推定する。背景ベクトル推定の方法は図3(a)に示したように、現フレームを4領域に分割し、領域ごとに前フレームからの動き量である動きベクトルを推定する。各領域で得られた動きベクトルから水平垂直方向別にの中間値を取るなどして代表動きベクトルを求め、これを画面全体の動きを示す背景ベクトル(bgx,bgy)とする。背景ベクトル推定の手法としては、ブロックマッチング手法等、一般的に知られる方式で構わない。ここでのさらに詳しい説明は省略する。   As shown in FIG. 3A, the background vector estimation unit 103 estimates the background vector (bgx1, bgy1) from the previous frame and the previous frame and the background vector (bgx2, bgy2) from the current frame and the previous frame. ). As shown in FIG. 3A, the background vector estimation method divides the current frame into four regions, and estimates a motion vector that is a motion amount from the previous frame for each region. A representative motion vector is obtained by taking an intermediate value for each horizontal and vertical direction from the motion vectors obtained in each region, and this is used as a background vector (bgx, bgy) indicating the motion of the entire screen. As a background vector estimation method, a generally known method such as a block matching method may be used. A more detailed explanation here is omitted.

なお、ここでは、現フレームを4領域に分割し、領域ごとに前フレームからの動き量である動きベクトルを推定する例を説明したが、画像を分割せずに画像全体から背景ベクトルを推定してもよいし、4領域より細かく分割して推定してもよい。   Here, an example has been described in which the current frame is divided into four regions and the motion vector that is the amount of motion from the previous frame is estimated for each region, but the background vector is estimated from the entire image without dividing the image. Alternatively, it may be estimated by dividing into four regions.

物体領域抽出部104は、背景ベクトル推定部103により得られた背景ベクトルを用いて、撮像時刻の異なる現フレームと前フレームのフレーム間差分により画像中の移動物体領域を抽出する。   The object region extraction unit 104 extracts a moving object region in the image based on a difference between frames of the current frame and the previous frame having different imaging times, using the background vector obtained by the background vector estimation unit 103.

パンチルト動作を行ってパンチルト角制御中の撮像装置108で取得した映像は、画面全体が動いている可能性がある。このような場合に、単純なフレーム間差分法では画面全体を動きが発生したとして抽出してしまう可能性がある。   There is a possibility that the entire screen of the video acquired by the imaging device 108 performing the pan / tilt operation and controlling the pan / tilt angle is moving. In such a case, the simple inter-frame difference method may extract the entire screen as a movement has occurred.

そこで、本実施形態では、図3(b)のように、背景ベクトル推定部103で推定した背景ベクトル(bgx,bgy)を用いて前フレームを平行移動して、背景の動きをキャンセルし、下記の式(2)を用いて現フレームとフレーム間差分SA(x,y)を求める。これにより、画面中で背景とは異なる動きをする物体が存在する場合に、その動きをする物体部分のみを物体領域として抽出することができる。   Therefore, in the present embodiment, as shown in FIG. 3B, the background frame (bgx, bgy) estimated by the background vector estimation unit 103 is used to translate the previous frame to cancel the background motion. The difference between the current frame and the interframe difference SA (x, y) is obtained using equation (2). As a result, when there is an object that moves differently from the background in the screen, only the object part that moves can be extracted as the object region.

SA(x,y)=|It(x,y)−It-1(x+bgx,y+bgy)| …(2) SA (x, y) = | I t (x, y) −I t−1 (x + bgx, y + bgy) | (2)

上記の式(2)で取得したフレーム間差分結果を閾値で2値化することにより、図3(c)に示す物体領域と背景領域とを区別した2値化画像を得る。   By binarizing the difference result between frames acquired by the above equation (2) with a threshold value, a binarized image in which the object region and the background region shown in FIG. 3C are distinguished is obtained.

なお、上記説明では、フレーム間の差分で物体領域を抽出する例を説明したが、フレーム間の何かしらの特徴の変化を検出し、物体領域と背景領域とを区別してもよい。   In the above description, an example in which an object region is extracted based on a difference between frames has been described. However, a change in some feature between frames may be detected to distinguish between the object region and the background region.

テンプレート位置補正部105は、テンプレートマッチング部102で取得した相関マップと物体領域抽出部104で抽出した物体領域を用いて、テンプレートが物体領域から外れないようにテンプレートの位置を補正する。   The template position correction unit 105 uses the correlation map acquired by the template matching unit 102 and the object region extracted by the object region extraction unit 104 to correct the template position so that the template does not deviate from the object region.

テンプレート位置補正部105でテンプレートの位置を補正する際、まず、式(2)で取得したフレーム間差分結果の内、テンプレートマッチング部102でテンプレートを用いて探索する探索領域と同じ領域について画素毎にその周辺の物体領域となった画素をカウントする。つまり、探索領域の画素毎に、周辺で物体領域となった画素の密度を求め、各画素位置での密度を2次元配列としたものを動きマップとして生成する。   When the template position correction unit 105 corrects the position of the template, first, among the inter-frame difference results obtained by Expression (2), the same region as the search region to be searched for using the template by the template matching unit 102 for each pixel. The pixels that are the surrounding object regions are counted. That is, for each pixel in the search area, the density of the pixels that have become object areas in the vicinity is obtained, and a two-dimensional array of the density at each pixel position is generated as a motion map.

また、図3(c)のような2処理周期分の2値化画像を利用して、論理演算を行うことにより、図3(d)のような現フレームのみで発生した物体領域と、現フレームか前フレームかのどちらかで発生した物体領域とを区分することができる。図3(c)に示す2処理周期分の2値化画像間には、背景ベクトル(bgx2,bgy2)に相当する画面の移動があるので、これを平行移動でキャンセルした後、論理演算を行う。このとき、最新のフレーム間差分でしか発生していない物体領域は、現フレームの物体領域であり、いずれのフレームでも発生している物体領域はどちらにも発生している物体領域であると判断する。   Further, by performing a logical operation using a binarized image for two processing cycles as shown in FIG. 3C, an object region generated only in the current frame as shown in FIG. The object area generated in either the frame or the previous frame can be distinguished. Since there is a movement of the screen corresponding to the background vector (bgx2, bgy2) between the binarized images for two processing cycles shown in FIG. 3C, a logical operation is performed after canceling this by parallel movement. . At this time, it is determined that the object area that occurs only in the latest inter-frame difference is the object area of the current frame, and the object area that occurs in any frame is the object area that occurs in both. To do.

なお、動きマップを作成する際、現フレームのみで発生した物体領域の場合は、現フレームと前フレームのいずれにも発生した物体領域に比ベて重みが大きいとして重み付けを行い、密度算出してもよい。   When creating a motion map, in the case of an object region that occurs only in the current frame, weighting is performed by calculating the density, assuming that the weight is greater than the object region occurring in both the current frame and the previous frame. Also good.

図4は、相関マップと動きマップにより統合マップを作成する際の処理の一例を示す図であり、図4(a)は相関マップを示す図、図4(b)は動きマップを示す図、図4(c)は統合マップを示す図である。   FIG. 4 is a diagram illustrating an example of processing when an integrated map is created using a correlation map and a motion map, FIG. 4A is a diagram illustrating a correlation map, and FIG. 4B is a diagram illustrating a motion map. FIG. 4C shows an integrated map.

本実施形態では、図4(a)のような相関マップと図4(b)のような動きマップをそれぞれの依存度が適当になるようにレベル補正を行って加算し、図4(c)のような統合マップを生成する。動きによるテンプレート移動先補正の効果を高める場合には、動きマップを相関マップに対し相対的に高いレベルで統合する。統合マップは、動きが発生し、かつ、テンプレートとの相関が高い位置がピークとなって現れる。なお、各マップは、値が小さいほどテンプレートの移動先である可能性が高いことを示すようになっている。この統合マップにおけるピークに対応する位置をテンプレートの移動先と判断する。   In the present embodiment, the correlation map as shown in FIG. 4A and the motion map as shown in FIG. 4B are added after performing level correction so that the respective dependencies are appropriate, and FIG. Generate an integrated map like In order to enhance the effect of template movement destination correction by movement, the movement map is integrated with the correlation map at a relatively high level. In the integrated map, a position where movement occurs and the correlation with the template is high appears as a peak. Each map shows that the smaller the value is, the higher the possibility that it is the destination of the template. The position corresponding to the peak in the integrated map is determined as the template destination.

上述のように、テンプレートとの相関を示す相関マップと物体の動き発生密度を示す動きマップとを用いて、それぞれのマップの依存度が適当になるようにレベル補正して加算することで統合マップを作成し、この統合マップによってテンプレートの移動先を推定する。これにより、テンプレートが物体領域から外れないようにテンプレートの移動先を補正することができる。   As described above, using the correlation map indicating the correlation with the template and the motion map indicating the motion occurrence density of the object, the level correction is performed so that the degree of dependence of each map becomes appropriate, and the integrated map is added. And the destination of the template is estimated using this integrated map. Thereby, the movement destination of the template can be corrected so that the template does not deviate from the object region.

次に、上記のように構成された本実施形態の自動追尾装置の全体の動作を図5に基づいて説明する。図5は本実施形態における自動追尾装置の動作手順を示すフローチャートである。   Next, the overall operation of the automatic tracking apparatus of the present embodiment configured as described above will be described with reference to FIG. FIG. 5 is a flowchart showing an operation procedure of the automatic tracking device according to the present embodiment.

まず、画像入力部101において、撮像装置108によって撮像された画像を入力する(ステップ501)。そして、テンプレートマッチング部102において、入力された画像と予め登録済みのテンプレート画像とを比較して相関値を算出し、新たな入力画像の中から予め登録済みのテンプレート画像との相関が高い領域を探索する(ステップ502)。このテンプレートマッチング処理により、相関マップが生成される。   First, the image input unit 101 inputs an image captured by the imaging device 108 (step 501). Then, the template matching unit 102 compares the input image with a pre-registered template image to calculate a correlation value, and selects a region having a high correlation with the pre-registered template image from the new input images. Search (step 502). A correlation map is generated by this template matching process.

次に、背景ベクトル推定部103において、背景の動きベクトルを推定する(ステップ503)。そして、物体領域抽出部104において、ステップ503で得られた背景ベクトルを用いて、撮像時刻の異なる現フレームと前フレームのフレーム間差分により画像中の移動物体領域を抽出する(ステップ504)。   Next, the background vector estimation unit 103 estimates a background motion vector (step 503). Then, the object region extraction unit 104 extracts a moving object region in the image based on the difference between the current frame and the previous frame having different imaging times using the background vector obtained in step 503 (step 504).

続いて、テンプレート位置補正部105において、テンプレートマッチング部102で取得した相関マップと物体領域抽出部104で抽出した物体領域とを用いて、テンプレートが物体領域から外れないようにテンプレートの位置を補正する(ステップ505)。   Subsequently, the template position correction unit 105 corrects the position of the template so that the template does not deviate from the object region, using the correlation map acquired by the template matching unit 102 and the object region extracted by the object region extraction unit 104. (Step 505).

その後、撮像装置制御部106において、テンプレート位置補正部105での位置補正処理結果に基づき、撮像装置108のパン、チルト、ズームの制御を行い、追跡物体が画像の中央部に位置するように撮像装置108をPTZ動作させ(ステップ506)、撮像装置108で追跡物体を含む監視領域を撮像する(ステップ507)。そして、画像出力部107において、撮像装置108で撮影した画像を外部の画像表示装置109に出力する(ステップ508)。その後、ステップ501の新たな画像入力処理に戻り、同様の処理を繰り返す。   Thereafter, the imaging device control unit 106 controls the pan, tilt, and zoom of the imaging device 108 based on the position correction processing result in the template position correction unit 105, and images the tracking object so that it is positioned at the center of the image. The apparatus 108 is PTZ-operated (step 506), and the monitoring area including the tracking object is imaged by the imaging apparatus 108 (step 507). Then, the image output unit 107 outputs the image captured by the imaging device 108 to the external image display device 109 (step 508). Thereafter, the process returns to the new image input process of step 501 and the same process is repeated.

上記のように、本実施形態の自動追尾装置では、テンプレートマッチング処理で生成した相関マップと、物体の動き発生密度を示す動きマップとを用いて、テンプレートの移動先を推定し、テンプレートの位置を補正する。このように、テンプレートとの相関が高い画像領域だけを探索するのではなく、フレーム間差分によって背景とは異なる動きをする移動物体領域を求めることで、テンプレートとの相関が高くかつ動きが発生している領域を抽出し、この領域にテンプレートの移動先を補正することができる。これによって、テンプレートの誤対応や背景中の類似パターンヘの貼り付きによる追尾失敗を解消することができ、より安定して物体を追跡することが可能になる。   As described above, in the automatic tracking device according to the present embodiment, the movement destination of the template is estimated using the correlation map generated by the template matching process and the motion map indicating the motion occurrence density of the object, and the position of the template is determined. to correct. In this way, instead of searching only for image areas that have a high correlation with the template, by finding a moving object area that moves differently from the background due to interframe differences, the correlation with the template is high and movement occurs. The area to be moved can be extracted, and the template movement destination can be corrected in this area. As a result, it is possible to eliminate tracking errors caused by incorrect template correspondence and pasting to similar patterns in the background, and it becomes possible to track an object more stably.

本発明は、画像中の侵入者等の物体を追跡する際に、テンプレート画像と類似する背景中の類似パターンの影響を受けることなく、安定した追尾が可能となる効果を有し、侵入物体等の監視システムにおいて撮影画像中の特定の物体を追跡する自動追尾装置及び自動追尾方法等に有用である。   The present invention has an effect of enabling stable tracking without being affected by a similar pattern in the background similar to the template image when tracking an object such as an intruder in the image. This is useful for an automatic tracking device, an automatic tracking method, and the like that track a specific object in a captured image.

本発明の実施形態に係る自動追尾装置の機能構成を示す図The figure which shows the function structure of the automatic tracking apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るテンプレートマッチング部の動作を説明する図The figure explaining operation | movement of the template matching part which concerns on embodiment of this invention. 本実施形態における背景の動きベクトル推定と物体領域抽出及びテンプレート位置補正の各処理の一例を示す図The figure which shows an example of each process of the motion vector estimation of a background, object area extraction, and template position correction in this embodiment 本実施形態における相関マップと動きマップにより統合マップを作成する際の処理の一例を示す図The figure which shows an example of the process at the time of creating an integrated map by the correlation map and motion map in this embodiment 本実施形態における自動追尾装置の動作手順を示すフローチャートThe flowchart which shows the operation | movement procedure of the automatic tracking apparatus in this embodiment. 従来例における物体追跡時の動作を示すフローチャートFlow chart showing the operation at the time of object tracking in the conventional example

符号の説明Explanation of symbols

100 自動追尾装置
101 画像入力部
102 テンプレートマッチング部
103 背景ベクトル推定部
104 物体領域抽出部
105 テンプレート位置補正部
106 撮像装置制御部
107 画像出力部
108 撮像装置
109 画像表示装置
DESCRIPTION OF SYMBOLS 100 Automatic tracking apparatus 101 Image input part 102 Template matching part 103 Background vector estimation part 104 Object area extraction part 105 Template position correction part 106 Imaging apparatus control part 107 Image output part 108 Imaging apparatus 109 Image display apparatus

Claims (6)

撮像手段によって撮影された画像を入力し、前記画像中の対象物体を追跡する自動追尾装置であって、
前記対象物体の特徴を示すテンプレート画像と入力画像との相関演算を行うテンプレートマッチング手段と、
前記入力画像の画像全体の動きを示す背景の動きベクトルを推定する背景ベクトル推定手段と、
前記背景の動きベクトルを用いて前記画像全体の動きをキャンセルし、前記画像全体の動きとは異なる動きを物体領域として抽出する物体領域抽出手段と、
前記物体領域の抽出結果に基づいて前記テンプレート画像の移動先を推定し、前記テンプレート画像の位置を補正するテンプレート位置補正手段と
を備えることを特徴とする自動追尾装置。
An automatic tracking device that inputs an image captured by an imaging means and tracks a target object in the image,
Template matching means for performing a correlation operation between a template image indicating the characteristics of the target object and an input image;
Background vector estimation means for estimating a motion vector of a background indicating the motion of the entire image of the input image;
Object region extraction means for canceling the movement of the entire image using the motion vector of the background and extracting a movement different from the movement of the entire image as an object region;
An automatic tracking device comprising: template position correcting means for estimating a destination of the template image based on the extraction result of the object region and correcting the position of the template image.
請求項1記載の自動追尾装置であって、
前記テンプレート画像の位置補正結果に基づき、前記対象物体が入力画像内に位置するように前記撮像手段の撮影範囲を制御する撮影範囲制御手段を備えることを特徴とする自動追尾装置。
The automatic tracking device according to claim 1,
An automatic tracking apparatus comprising: an imaging range control unit that controls an imaging range of the imaging unit so that the target object is positioned in an input image based on a position correction result of the template image.
請求項1または2記載の自動追尾装置であって、
前記テンプレート位置補正手段は、注目画素の周辺で前記物体領域となった画素の密度を示す動きマップを生成し、前記動きマップを用いて前記テンプレート画像の移動先を推定することを特徴とする自動追尾装置。
The automatic tracking device according to claim 1 or 2,
The template position correcting means generates a motion map indicating the density of pixels that have become the object region around a pixel of interest, and estimates the destination of the template image using the motion map. Tracking device.
請求項3記載の自動追尾装置であって、
前記テンプレート位置補正手段は、前記背景の動きベクトルに基づいて撮像時刻の時間差に相当する分の背景の動きをキャンセルした後、撮像時刻の異なる複数フレームの入力画像から得られた物体領域抽出結果を論理演算することで、現フレームのみで発生している物体領域とこれ以外でも発生している物体領域とを区別して重みを加えて前記動きマップを生成することを特徴とする自動追尾装置。
An automatic tracking device according to claim 3,
The template position correcting means cancels the background motion corresponding to the time difference of the imaging time based on the background motion vector, and then extracts the object region extraction result obtained from the input images of a plurality of frames having different imaging times. An automatic tracking device that generates a motion map by adding a weight by distinguishing between an object region that occurs only in the current frame and an object region that occurs elsewhere by performing a logical operation.
撮像手段によって撮影された画像を入力し、前記画像中の対象物体を追跡する自動追尾方法であって、
前記対象物体の特徴を示すテンプレート画像と入力画像との相関演算を行うテンプレートマッチングステップと、
前記入力画像の画像全体の動きを示す背景の動きベクトルを推定する背景ベクトル推定ステップと、
前記背景の動きベクトルを用いて前記画像全体の動きをキャンセルし、前記画像全体の動きとは異なる動きを物体領域として抽出する物体領域抽出ステップと、
前記物体領域の抽出結果に基づいて前記テンプレート画像の移動先を推定し、前記テンプレート画像の位置を補正するテンプレート位置補正ステップと
を有することを特徴とする自動追尾方法。
An automatic tracking method for inputting an image taken by an imaging means and tracking a target object in the image,
A template matching step for performing a correlation operation between a template image indicating the characteristics of the target object and an input image;
A background vector estimation step for estimating a motion vector of a background indicating the movement of the entire image of the input image;
An object region extraction step of canceling the movement of the entire image using the motion vector of the background and extracting a movement different from the movement of the entire image as an object region;
A template position correcting step of estimating a destination of the template image based on the extraction result of the object region and correcting the position of the template image.
請求項5記載の自動追尾方法の各手順をコンピュータに実行させるためのプログラム。   The program for making a computer perform each procedure of the automatic tracking method of Claim 5.
JP2004165488A 2004-06-03 2004-06-03 Automatic tracking device and automatic tracking method Expired - Fee Related JP4578864B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004165488A JP4578864B2 (en) 2004-06-03 2004-06-03 Automatic tracking device and automatic tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004165488A JP4578864B2 (en) 2004-06-03 2004-06-03 Automatic tracking device and automatic tracking method

Publications (2)

Publication Number Publication Date
JP2005346425A true JP2005346425A (en) 2005-12-15
JP4578864B2 JP4578864B2 (en) 2010-11-10

Family

ID=35498739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004165488A Expired - Fee Related JP4578864B2 (en) 2004-06-03 2004-06-03 Automatic tracking device and automatic tracking method

Country Status (1)

Country Link
JP (1) JP4578864B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006259847A (en) * 2005-03-15 2006-09-28 Matsushita Electric Ind Co Ltd Automatic tracking device and automatic tracking method
WO2007099762A1 (en) * 2006-03-01 2007-09-07 Nikon Corporation Object-seeking computer program product, object-seeking device, and camera
WO2008114683A1 (en) * 2007-03-16 2008-09-25 Nikon Corporation Object tracking computer program product, object tracking device, and camera
JP2010226709A (en) * 2009-02-26 2010-10-07 Nikon Corp Subject tracking apparatus and imaging apparatus
WO2010147137A1 (en) * 2009-06-16 2010-12-23 キヤノン株式会社 Pattern processing device, method therefor, and program
JP2012506647A (en) * 2008-09-30 2012-03-15 サムスン エレクトロニクス カンパニー リミテッド High resolution video acquisition apparatus and method
JP2012252601A (en) * 2011-06-03 2012-12-20 Nippon Telegr & Teleph Corp <Ntt> Image tracking device and image tracking method
JP2017037363A (en) * 2015-08-06 2017-02-16 キヤノン株式会社 Image processing device, image processing method and program
CN109478328A (en) * 2016-09-30 2019-03-15 富士通株式会社 Method for tracking target, device and image processing equipment
JP2020057302A (en) * 2018-10-04 2020-04-09 キヤノン株式会社 Imaging device and control method of the same, and program
CN113111213A (en) * 2021-04-23 2021-07-13 大同市巴什卡机械制造有限公司 Method and device for automatically storing articles in storage system

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6024952B2 (en) 2012-07-19 2016-11-16 パナソニックIpマネジメント株式会社 Image transmission apparatus, image transmission method, image transmission program, and image recognition authentication system
JP5962916B2 (en) 2012-11-14 2016-08-03 パナソニックIpマネジメント株式会社 Video surveillance system
KR20210116966A (en) 2020-03-18 2021-09-28 삼성전자주식회사 Method and apparatus for tracking target
KR20220133567A (en) 2021-03-25 2022-10-05 삼성전자주식회사 Method and apparatus for object tracking

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000082145A (en) * 1998-01-07 2000-03-21 Toshiba Corp Object extraction device
JP2001076156A (en) * 1999-09-03 2001-03-23 Mitsubishi Electric Corp Device for monitoring image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000082145A (en) * 1998-01-07 2000-03-21 Toshiba Corp Object extraction device
JP2001076156A (en) * 1999-09-03 2001-03-23 Mitsubishi Electric Corp Device for monitoring image

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006259847A (en) * 2005-03-15 2006-09-28 Matsushita Electric Ind Co Ltd Automatic tracking device and automatic tracking method
JP4699056B2 (en) * 2005-03-15 2011-06-08 パナソニック株式会社 Automatic tracking device and automatic tracking method
JP5018767B2 (en) * 2006-03-01 2012-09-05 株式会社ニコン Subject tracking program, subject tracking device, and camera
WO2007099762A1 (en) * 2006-03-01 2007-09-07 Nikon Corporation Object-seeking computer program product, object-seeking device, and camera
US8131014B2 (en) 2006-03-01 2012-03-06 Nikon Corporation Object-tracking computer program product, object-tracking device, and camera
CN101395636B (en) * 2006-03-01 2012-12-12 株式会社尼康 Object-seeking computer program product, object-seeking device, and camera
JPWO2008114683A1 (en) * 2007-03-16 2010-07-01 株式会社ニコン Computer program product for subject tracking, subject tracking device, and camera
WO2008114683A1 (en) * 2007-03-16 2008-09-25 Nikon Corporation Object tracking computer program product, object tracking device, and camera
US8355048B2 (en) 2007-03-16 2013-01-15 Nikon Corporation Subject tracking computer program product, subject tracking device and camera
JP5067418B2 (en) * 2007-03-16 2012-11-07 株式会社ニコン Subject tracking program, subject tracking device, and camera
JP2012506647A (en) * 2008-09-30 2012-03-15 サムスン エレクトロニクス カンパニー リミテッド High resolution video acquisition apparatus and method
KR101498206B1 (en) * 2008-09-30 2015-03-06 삼성전자주식회사 Apparatus and method for obtaining high resolution image
JP2010226709A (en) * 2009-02-26 2010-10-07 Nikon Corp Subject tracking apparatus and imaging apparatus
WO2010147137A1 (en) * 2009-06-16 2010-12-23 キヤノン株式会社 Pattern processing device, method therefor, and program
US9117111B2 (en) 2009-06-16 2015-08-25 Canon Kabushiki Kaisha Pattern processing apparatus and method, and program
JP2012252601A (en) * 2011-06-03 2012-12-20 Nippon Telegr & Teleph Corp <Ntt> Image tracking device and image tracking method
JP2017037363A (en) * 2015-08-06 2017-02-16 キヤノン株式会社 Image processing device, image processing method and program
CN109478328A (en) * 2016-09-30 2019-03-15 富士通株式会社 Method for tracking target, device and image processing equipment
JP2020057302A (en) * 2018-10-04 2020-04-09 キヤノン株式会社 Imaging device and control method of the same, and program
JP7278737B2 (en) 2018-10-04 2023-05-22 キヤノン株式会社 IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
CN113111213A (en) * 2021-04-23 2021-07-13 大同市巴什卡机械制造有限公司 Method and device for automatically storing articles in storage system
CN113111213B (en) * 2021-04-23 2023-07-21 大同市巴什卡机械制造有限公司 Automatic article storage method and device for warehouse system

Also Published As

Publication number Publication date
JP4578864B2 (en) 2010-11-10

Similar Documents

Publication Publication Date Title
JP4241742B2 (en) Automatic tracking device and automatic tracking method
JP4699040B2 (en) Automatic tracking control device, automatic tracking control method, program, and automatic tracking system
JP4575829B2 (en) Display screen position analysis device and display screen position analysis program
KR101071352B1 (en) Apparatus and method for tracking object based on PTZ camera using coordinate map
US7583815B2 (en) Wide-area site-based video surveillance system
JP4578864B2 (en) Automatic tracking device and automatic tracking method
JP6036824B2 (en) Angle of view variation detection device, angle of view variation detection method, and field angle variation detection program
US8842162B2 (en) Method and system for improving surveillance of PTZ cameras
WO2005107240A1 (en) Automatic imaging method and apparatus
JP2004343718A (en) Monitoring apparatus with cameras cooperating
US20160165129A1 (en) Image Processing Method
CN112703533A (en) Object tracking
JP4764172B2 (en) Method for detecting moving object candidate by image processing, moving object detecting method for detecting moving object from moving object candidate, moving object detecting apparatus, and moving object detecting program
KR102410268B1 (en) Object tracking method and object tracking apparatus for performing the method
EP3629570A2 (en) Image capturing apparatus and image recording method
JP4699056B2 (en) Automatic tracking device and automatic tracking method
JP5865710B2 (en) Image processing device
CN115063750A (en) Region position updating method, security system and computer readable storage medium
KR20160048428A (en) Method and Apparatus for Playing Video by Using Pan-Tilt-Zoom Camera
KR101396838B1 (en) Video stabilization method and system by selection one of various motion models
KR101290517B1 (en) Photographing apparatus for tracking object and method thereof
JP4597543B2 (en) Automatic tracking device and automatic tracking method
KR102107137B1 (en) Method and Apparatus for Detecting Event by Using Pan-Tilt-Zoom Camera
JP2010074315A (en) Object tracking method and imaging device
JP2009211525A (en) Object detector

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070601

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071114

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071121

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071128

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071205

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100511

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100727

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100825

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130903

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees