JP3440916B2 - Automatic tracking device, automatic tracking method, and recording medium recording automatic tracking program - Google Patents

Automatic tracking device, automatic tracking method, and recording medium recording automatic tracking program

Info

Publication number
JP3440916B2
JP3440916B2 JP2000095564A JP2000095564A JP3440916B2 JP 3440916 B2 JP3440916 B2 JP 3440916B2 JP 2000095564 A JP2000095564 A JP 2000095564A JP 2000095564 A JP2000095564 A JP 2000095564A JP 3440916 B2 JP3440916 B2 JP 3440916B2
Authority
JP
Japan
Prior art keywords
tracking
pan
moving
image
image input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2000095564A
Other languages
Japanese (ja)
Other versions
JP2001285850A (en
Inventor
祐介 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2000095564A priority Critical patent/JP3440916B2/en
Publication of JP2001285850A publication Critical patent/JP2001285850A/en
Application granted granted Critical
Publication of JP3440916B2 publication Critical patent/JP3440916B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、監視カメラ等から
入力された画像中の物体を旋回機能を備えた撮像装置に
より追尾を行う自動追尾技術に係わり、特に物体の動き
に頑強な自動追尾装置、自動追尾方法及び自動追尾プロ
グラムを記録した記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic tracking technique for tracking an object in an image input from a surveillance camera or the like by an image pickup device having a turning function, and particularly to an automatic tracking device that is robust to the movement of the object. The present invention relates to an automatic tracking method and a recording medium having an automatic tracking program recorded therein.

【0002】[0002]

【従来の技術】従来、この種の自動追尾システムは、旋
回装置に設置された監視カメラ等で撮影された画像から
目的とする物体を抽出し、抽出した物体を常に画像内に
収まるように旋回装置のパン・チルト角を制御すること
で追尾を行っている。従来の自動追尾システムの一例
が、特開平10−210343号公報に記載されてい
る。この公報に記載された自動追尾システムは、撮像装
置の出力画像から追尾対象となる物体を抽出し、その物
体の画像中心からの位置ずれ量をパン・チルト旋回装置
の角速度指令に変換し、抽出した物体の画像上のサイズ
と設定された目標サイズとの大きさのずれをズーム操作
指令に変換する手段で構成される。
2. Description of the Related Art Conventionally, this type of automatic tracking system extracts an object of interest from an image taken by a surveillance camera or the like installed in a turning device, and turns the extracted object so that it is always contained in the image. Tracking is performed by controlling the pan / tilt angle of the device. An example of a conventional automatic tracking system is described in Japanese Patent Laid-Open No. 10-210343. The automatic tracking system described in this publication extracts an object to be tracked from an output image of an imaging device, converts the amount of displacement of the object from the image center into an angular velocity command of a pan / tilt turning device, and extracts the object. It is configured by means for converting a size shift between the size of the object on the image and the set target size into a zoom operation command.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
技術による追尾装置は、パン・チルト旋回での追尾にお
いて、物体の画面上の位置情報のみ用いた制御を行って
いるため、移動物体の追尾を精度良く行えないという問
題がある。例えば図11に示すように、物体が画面端に
位置して画面中央に向かっている場合を考える。画面の
端にいる物体を画面中央に捉えるようにカメラのパンを
操作するように制御パラメータを設定している状態にお
いて、図12に示すように物体が画面端に位置し、画面
から外れる向きに移動している場合、図11の場合と同
様の制御を行行おうとすると、物体を画面の中央に捉え
ることができず、物体の動きが大きい場合には画角から
外れてしまうこともある。すなわち、物体を画面上の位
置のみで追尾を行う方法では、物体の移動の大きさや向
きによっては安定した追尾が行えないという問題があ
る。
However, since the tracking device according to the conventional technique performs control using only the position information of the object on the screen in tracking in pan / tilt turning, tracking of a moving object is performed. There is a problem that it cannot be performed accurately. For example, as shown in FIG. 11, consider a case where an object is located at the edge of the screen and heads toward the center of the screen. With the control parameter set to operate the pan of the camera so that the object at the edge of the screen is captured in the center of the screen, the object is positioned at the edge of the screen as shown in FIG. When moving, if an attempt is made to perform the same control as in the case of FIG. 11, the object cannot be captured in the center of the screen, and if the movement of the object is large, it may deviate from the angle of view. That is, the method of tracking an object only on the position on the screen has a problem that stable tracking cannot be performed depending on the size and direction of movement of the object.

【0004】また、物体の画像上での大きさを一定にす
るようなズームの制御方法では、停止している物体と動
きのある物体のズーム制御量は同一となるが、図13に
示すように動きのある物体はズームアップするほど画像
上での見かけの移動量が大きくなるため、移動速度が大
きい物体に関しては画角から外れやすくなり、ズーム制
御を用いた際においても移動物体の追尾が安定に行えな
いという問題がある。
Further, in the zoom control method for making the size of the object on the image constant, the zoom control amount of the stationary object and the moving object are the same, but as shown in FIG. Since the apparent amount of movement on the image increases with zooming in on a moving object, it is easy to deviate from the angle of view for an object with a high moving speed, and tracking of a moving object is also possible when zoom control is used. There is a problem that it cannot be performed stably.

【0005】本発明は、このような事情に鑑みてなされ
たもので、動きのある物体でも、追尾の安定度を損なう
ことなくズーム・アップを行うことができ、さらに精度
良く追尾できる自動追尾装置、自動追尾方法及び自動追
尾プログラムを記録した記録媒体を提供することを目的
とする。
The present invention has been made in view of the above circumstances, and an automatic tracking device capable of performing zoom-up even with a moving object without impairing the stability of tracking and more accurately tracking. An object of the present invention is to provide an automatic tracking method and a recording medium recording an automatic tracking program.

【0006】[0006]

【課題を解決するための手段】請求項1に記載の発明
は、撮像した画像を用いて物体の追尾を行う自動追尾装
置であって、前記自動追尾装置は、物体の追尾を行う必
要がある領域の画像を取得するカメラを備えた画像入力
手段と、入力されたパン・チルト角制御量に基づいて前
記画像入力手段を2軸方向に旋回する旋回手段と、前記
画像入力手段によって取得した画像から追尾の対象とな
る物体を抽出する追尾物体抽出手段と、異なる時刻での
追尾対象の物体の追尾点の位置を、前記旋回手段のパン
・チルト角を用いて絶対座標上の位置に変換して時系列
に記憶し、記憶されている複数の追尾点の位置をカメラ
座標に再度変換して出力する位置記憶手段と、過去の物
体の追尾点の位置から物体の移動位置を推定する位置推
定手段と、過去の物体の追尾点の位置から物体の移動速
度を算出する速度算出手段と、前記推定移動位置と前記
移動速度に基づいて前記旋回手段のパン・チルト角を制
御する旋回制御手段とを備えたことを特徴とする。
According to a first aspect of the present invention, there is provided an automatic tracking device for tracking an object using a captured image, wherein the automatic tracking device needs to track the object. Image input means including a camera for obtaining an image of a region, turning means for turning the image input means in two axial directions based on the input pan / tilt angle control amount, and an image obtained by the image input means Tracking object extraction means for extracting an object to be tracked from, and the position of the tracking point of the tracking target object at different times are converted into positions on absolute coordinates using the pan / tilt angle of the turning means. And position estimation means for estimating the moving position of the object from the position of the tracking point of the past object Means and past things And a turning control means for controlling the pan / tilt angle of the turning means based on the estimated moving position and the moving speed. And

【0007】請求項2に記載の発明は、撮像した画像を
用いて物体の追尾を行う自動追尾装置であって、前記自
動追尾装置は、物体の追尾を行う必要がある領域の画像
を取得するカメラを備えた画像入力手段と、入力された
パン・チルト角制御量に基づいて前記画像入力手段を2
軸方向に旋回する旋回手段と、前記画像入力手段によっ
て取得した画像から追尾の対象となる物体を抽出する追
尾物体抽出手段と、異なる時刻での追尾対象の物体の追
尾点の位置を、前記旋回手段のパン・チルト角及び画像
入力手段のズーム倍率を用いて絶対座標上の位置に変換
して時系列に記憶し、記憶されている複数の追尾点の位
置をカメラ座標に再度変換して出力する位置記憶手段
と、過去の物体の追尾点の位置から物体の移動位置を推
定する位置推定手段と、過去の物体の追尾点の位置から
物体の移動速度を算出する速度算出手段と、前記推定移
動位置と前記移動速度に基づいて前記旋回手段のパン・
チルト角を制御する旋回制御手段と、追尾物体の移動に
よりカメラ座標上で掃く領域の面積を算出する物体移動
領域算出手段と、前記追尾物体の移動領域面積から前記
画像入力手段のズーム倍率を制御するズーム制御手段と
を備えたことを特徴とする。
According to a second aspect of the present invention, there is provided an automatic tracking device for tracking an object using a picked-up image, wherein the automatic tracking device acquires an image of a region in which the object needs to be tracked. The image input means provided with a camera and the image input means based on the input pan / tilt angle control amount
The turning means that turns in the axial direction, the tracking object extraction means that extracts the object to be tracked from the image acquired by the image input means, and the position of the tracking point of the object to be tracked at different times are the turning. The pan / tilt angle of the camera and the zoom factor of the image input device are used to convert the positions to absolute coordinates, which are stored in time series, and the positions of the stored tracking points are converted to camera coordinates again and output. Position storage means, position estimation means for estimating the moving position of the object from the position of the tracking point of the past object, speed calculation means for calculating the moving speed of the object from the position of the tracking point of the past object, and said estimation Pan of the turning means based on the moving position and the moving speed
Rotation control means for controlling the tilt angle, object movement area calculation means for calculating the area of the area swept on the camera coordinates by movement of the tracking object, and zoom magnification of the image input means from the movement area area of the tracking object And a zoom control means for controlling the zoom control.

【0008】請求項3に記載の発明は、撮像した画像を
用いて物体の追尾を行う自動追尾方法であって、前記自
動追尾方法は、異なる時刻での追尾対象の物体の追尾点
の位置を、画像入力手段のパン・チルト角を用いて絶対
座標上の位置に変換して時系列に記憶し、この記憶され
ている複数の追尾点の位置をカメラ座標に再度変換して
出力し、過去の物体の追尾点の位置から物体の移動位置
の推定と物体の移動速度の算出を行い、この推定位置と
移動速度から画像入力手段のパン・チルト角を制御する
ことを特徴とする。
According to a third aspect of the present invention, there is provided an automatic tracking method for tracking an object using a captured image, wherein the automatic tracking method determines the position of the tracking point of the tracking target object at different times. , The position of the absolute coordinate is converted using the pan / tilt angle of the image input means and stored in time series, and the positions of the plurality of tracking points stored are converted into camera coordinates again and output. The moving position of the object is estimated from the position of the tracking point of the object and the moving speed of the object is calculated, and the pan / tilt angle of the image input means is controlled from the estimated position and the moving speed.

【0009】請求項4に記載の発明は、撮像した画像を
用いて物体の追尾を行う自動追尾方法であって、前記自
動追尾方法は、異なる時刻での追尾対象の物体の追尾点
の位置を、画像入力手段のパン・チルト角およびズーム
倍率を用いて絶対座標上の位置に変換して時系列に記憶
し、この記憶されている複数の追尾点の位置をカメラ座
標に再度変換して出力し、過去の追尾物体の追尾点の位
置から物体の移動位置の推定と物体の移動速度の算出を
行い、この推定位置と移動速度から画像入力手段のパン
・チルト角を制御し、追尾物体の移動によりカメラ座標
上で掃く領域の面積を算出し、追尾物体の移動領域面積
からズーム倍率を制御することを特徴とする。
According to a fourth aspect of the present invention, there is provided an automatic tracking method for tracking an object using a picked-up image, wherein the automatic tracking method determines the position of the tracking point of the object to be tracked at different times. , Converts to positions on absolute coordinates using the pan / tilt angle and zoom magnification of the image input means and stores them in time series, and converts the stored positions of a plurality of tracking points into camera coordinates again and outputs. Then, the moving position of the object is estimated from the position of the tracking point of the past tracking object and the moving speed of the object is calculated, and the pan / tilt angle of the image input means is controlled based on the estimated position and the moving speed, and the tracking object It is characterized in that the area of the area swept on the camera coordinates is calculated by the movement, and the zoom magnification is controlled from the area of the moving area of the tracking object.

【0010】請求項5に記載の発明は、撮像した画像を
用いて追尾を行う自動追尾プログラムを記録したコンピ
ュータ読み取り可能な記録媒体であって、前記自動追尾
プログラムは、異なる時刻での追尾対象の物体の追尾点
の位置を、画像入力手段のパン・チルト角を用いて絶対
座標上の位置に変換して時系列に記憶し、この記憶され
ている複数の追尾点の位置をカメラ座標に再度変換して
出力し、過去の物体の追尾点の位置から物体の移動位置
の推定と物体の移動速度の算出を行い、この推定位置と
移動速度から画像入力手段のパン・チルト角を制御する
ことをコンピュータに行わせることを特徴とする。
According to a fifth aspect of the present invention, there is provided a computer-readable recording medium recording an automatic tracking program for performing tracking using a captured image, wherein the automatic tracking program is a tracking target at different times. The position of the tracking point of the object is converted into a position on the absolute coordinate by using the pan / tilt angle of the image input means and stored in time series, and the positions of the plurality of stored tracking points are again set to the camera coordinates. Converting and outputting, estimating the moving position of the object from the position of the tracking point of the past object and calculating the moving speed of the object, and controlling the pan / tilt angle of the image input means from this estimated position and moving speed. It is characterized by making a computer do.

【0011】請求項6に記載の発明は、撮像した画像を
用いて追尾を行う自動追尾プログラムを記録したコンピ
ュータ読み取り可能な記録媒体であって、前記自動追尾
プログラムは、異なる時刻での追尾対象の物体の追尾点
の位置を、画像入力手段のパン・チルト角およびズーム
倍率を用いて絶対座標上の位置に変換して時系列に記憶
し、この記憶されている複数の追尾点の位置をカメラ座
標に再度変換して出力し、過去の追尾物体の追尾点の位
置から物体の移動位置の推定と物体の移動速度の算出を
行い、この推定位置と移動速度から画像入力手段のパン
・チルト角を制御し、追尾物体の移動によりカメラ座標
上で掃く領域の面積を算出し、追尾物体の移動領域面積
からズーム倍率を制御することをコンピュータに行わせ
ることを特徴とする。
According to a sixth aspect of the present invention, there is provided a computer-readable recording medium in which an automatic tracking program for performing tracking using a captured image is recorded, the automatic tracking program being a tracking target at different times. The position of the tracking point of the object is converted into a position on the absolute coordinates by using the pan / tilt angle and the zoom magnification of the image input means and stored in time series, and the positions of the plurality of stored tracking points are stored in the camera. The converted coordinates are output again, the moving position of the object is estimated from the position of the tracking point of the tracking object in the past, and the moving speed of the object is calculated. From the estimated position and moving speed, the pan / tilt angle of the image input means is calculated. It is characterized by causing the computer to calculate the area of the area to be swept on the camera coordinates by moving the tracking object and control the zoom magnification from the area of the moving area of the tracking object. .

【0012】[0012]

【発明の実施の形態】以下、本発明の一実施形態による
自動追尾装置を図面を参照して説明する。図1は第1の
実施形態の構成を示すブロック図である。この図におい
て、符号1は、CCDカメラなどによって構成される画
像入力装置であり、取り込まれる画像は動画像である。
符号3は、画像入力装置1を上下および左右の2軸で旋
回させる旋回装置である。符号4は、画像入力装置1で
取得した画像を表示する画像出力装置である。符号5
は、画像入力装置1で取得した画像から追尾対象である
物体の領域を抽出する追尾物体抽出手段である。符号7
は、追尾物体抽出手段5で抽出した追尾対象の物体領域
から追尾点の位置を算出し、さらに旋回装置3からパン
・チルト角を取得して追尾点の位置を絶対座標上の位置
に変換してから記憶し、記憶してある複数の絶対座標で
の追尾点の位置を旋回装置3から取得したパン・チルト
角を用い再度カメラ座標上での位置に変換し出力する位
置記憶手段である。符号8は、位置記憶手段7から出力
された複数の追尾点の位置から追尾点の移動速度を算出
する速度算出手段である。符号9は、位置記憶手段7か
ら出力された複数の追尾点の位置から次時刻における追
尾物体の追尾点位置を予測する位置推定手段である。符
号10は、速度算出手段8と位置推定手段9の出力であ
る追尾点位置および移動速度から旋回装置3のパン・チ
ルト制御量を決定する旋回装置制御手段10である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An automatic tracking device according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the first embodiment. In this figure, reference numeral 1 is an image input device composed of a CCD camera or the like, and the captured image is a moving image.
Reference numeral 3 is a turning device that turns the image input device 1 on two axes, that is, vertical and horizontal. Reference numeral 4 is an image output device that displays the image acquired by the image input device 1. Code 5
Is a tracking object extraction means for extracting a region of an object which is a tracking target from the image acquired by the image input apparatus 1. Code 7
Calculates the position of the tracking point from the tracking target object region extracted by the tracking object extraction means 5, and further acquires the pan / tilt angle from the turning device 3 to convert the position of the tracking point into a position on absolute coordinates. It is a position storage unit that stores the data afterwards, converts the stored positions of the tracking points at a plurality of absolute coordinates into the position on the camera coordinates again using the pan / tilt angle acquired from the turning device 3, and outputs the converted position. Reference numeral 8 is a speed calculation means for calculating the moving speed of the tracking point from the positions of the plurality of tracking points output from the position storage means 7. Reference numeral 9 is position estimation means for predicting the tracking point position of the tracking object at the next time from the positions of the plurality of tracking points output from the position storage means 7. Reference numeral 10 is a turning device control means 10 which determines the pan / tilt control amount of the turning device 3 from the tracking point position and the moving speed which are outputs of the speed calculation means 8 and the position estimation means 9.

【0013】次に、図1を参照して本実施の形態の全体
の動作について詳細に説明する。まず、追尾物体抽出手
段5は、画像入力装置1で取り込まれた画像から追尾す
る対象物体の領域を抽出する。追尾物体の決定法と抽出
方法には背景差分とテンプレートマッチングを用いた既
存の方法を説明する。まず、パン・チルト旋回装置3が
停止した状態において既存の背景差分法を用い侵入物体
の検出を行う。背景差分法とは予め検出対象の物体が入
っていない画像を背景画像f(x,y)として記憶して
おき、入力画像g(x,y)と背景画像の輝度値の差分
画像h(x,y)=|g(x,y)−f(x,y)|を
求める。さらに、h(x,y)の階調値をあるしきい値
で2値化することで、背景画像に無い物体が侵入した際
の侵入物体領域を検出することができる。
The overall operation of this embodiment will be described in detail with reference to FIG. First, the tracking object extraction means 5 extracts the area of the target object to be tracked from the image captured by the image input device 1. An existing method using background subtraction and template matching will be described as a method for determining and extracting a tracking object. First, an intruding object is detected using the existing background subtraction method while the pan / tilt turning device 3 is stopped. In the background subtraction method, an image that does not include an object to be detected is stored in advance as a background image f (x, y), and a difference image h (x of the input image g (x, y) and the brightness value of the background image h (x , Y) = | g (x, y) −f (x, y) | Further, by binarizing the gradation value of h (x, y) with a certain threshold value, it is possible to detect the intruding object area when an object not present in the background image intrudes.

【0014】ここでは、検出された侵入物体を追尾対象
の物体とし追尾を行うことにする。この侵入物体の領域
を外接矩形でくくり、その左上座標を(x1,y1)で
右下座標を(x2,y2)で表わす。この(x1,y
1), (x2,y2)で表わされる物体領域の画像を
初期テンプレートt(x,y)として保存する。このテ
ンプレートを基にテンプレートマッチングを用いてパン
・チルト旋回によって変化する入力画像から追尾対象の
物体抽出をおこなう。
Here, it is assumed that the detected intruding object is an object to be tracked and tracking is performed. The area of this intruding object is bounded by a circumscribed rectangle, and the upper left coordinates are represented by (x1, y1) and the lower right coordinates are represented by (x2, y2). This (x1, y
1), the image of the object area represented by (x2, y2) is saved as an initial template t (x, y). Based on this template, template matching is used to extract the tracking target object from the input image that changes due to pan / tilt rotation.

【0015】テンプレートマッチングとは、入力画像g
(x,y)の中からテンプレート画像t(x,y)との
類似度が最も高い位置を探す方法である。テンプレート
マッチングの計算方法は「コンピュータ画像処理入門」
田村秀行 監修、総研出版(ISBN4−7952−6
304−3)p149に詳しい。追尾物体が移動したり
向きを変えたりすることにより画像上での大きさや物体
形状が変化するため、入力画像内の追尾物体とテンプレ
ート画像が一致せず物体抽出が困難になる恐れがある。
そのため、大きさの変化に対応するため予めテンプレー
トを拡大および縮小したサイズのテンプレートも複数用
意しておき、それらの複数のテンプレートを用いてテン
プレートマッチングを行い、類似度が最も大きくなるテ
ンプレートサイズと位置を決定する。物体の形状変化に
対応するため、入力画像で最も類似度が高いと決定され
た位置からテンプレートのサイズの画像を切り抜き新し
いテンプレートとして保存する。これにより入力画像で
大きさや形が徐々に変化する追尾物体の抽出が可能にな
る。
Template matching is the input image g
This is a method of searching the position having the highest degree of similarity with the template image t (x, y) from (x, y). The template matching calculation method is "Introduction to computer image processing"
Supervised by Hideyuki Tamura, Research Institute Publishing (ISBN 4-7952-6
304-3) Details on p149. Since the size and the shape of the object on the image change as the tracking object moves or changes its direction, the tracking object in the input image and the template image may not match, which may make it difficult to extract the object.
Therefore, in order to respond to the change in size, prepare a plurality of templates that are enlarged and reduced in size in advance, perform template matching using these multiple templates, and select the template size and position that maximize the similarity. To decide. In order to deal with the shape change of the object, the image of the template size is cut out from the position determined to have the highest similarity in the input image and saved as a new template. This makes it possible to extract a tracking object whose size and shape gradually change in the input image.

【0016】また、物体抽出には既存の動きベクトルを
用いてもよい。この方法では、画像内での動きをベクト
ルで表わし、類似の方向のベクトルを含むブロックにク
ラスタリングを行い、カメラが動くことで起きる背景の
大きな領域を除いた最大のブロックを移動物体の領域と
みなし移動物体として抽出する。抽出した領域の外接矩
形を求め、その左上座標(x1,y1)と右下座標(x
2,y2)で表わす。動きベクトル算出法は、「画像の
処理と認識」阿久院猛・長尾智晴 共著、昭晃堂 P.
164(ISBN4−7856−9043−7)に詳し
い。
An existing motion vector may be used for object extraction. In this method, motion in the image is represented by a vector, clustering is performed on blocks that include vectors in similar directions, and the largest block excluding the large background area caused by camera movement is regarded as the moving object area. Extract as a moving object. The circumscribed rectangle of the extracted area is obtained, and its upper left coordinates (x1, y1) and lower right coordinates (x
2, y2). The motion vector calculation method is described in “Image Processing and Recognition” by Takeshi Akuin and Tomoharu Nagao, Shokodo P.
164 (ISBN 4-7856-9043-7).

【0017】位置記憶手段7は、まず、追尾物体抽出手
段5で抽出した物体の領域を代表する点を追尾点として
抽出する。追尾点の抽出方法としては、テンプレートマ
ッチングを用いて追尾物体を抽出した際に、抽出した位
置でのテンプレート矩形の左上座標(x1,y1)と右
下座標(x2,y2)の平均をとった中心画素((x1
+x2)/2,(y1+y2)/2)を追尾点として算
出する。人物のみが追尾の対象となる用途においては、
人物領域の中心部を追尾するより、頭部を追尾した方が
都合のよい場合がある。この場合、追尾点はテンプレー
トの中心画素ではなく、テンプレート上部、例えば高さ
8割の位置((x1+x2)/2,(4×y1+y2)
/5)、を追尾点として選んでも良い。動きベクトルで
追尾物体の領域を抽出した場合では、追尾物体領域の重
心を追尾点として選んでも良いし、物体の外接矩形の中
心を選択することも可能である。
The position storage means 7 first extracts a point representing the area of the object extracted by the tracking object extraction means 5 as a tracking point. As a tracking point extraction method, when a tracking object was extracted using template matching, the upper left coordinates (x1, y1) and the lower right coordinates (x2, y2) of the template rectangle at the extracted positions were averaged. Center pixel ((x1
+ X2) / 2, (y1 + y2) / 2) are calculated as tracking points. In applications where only people are tracked,
Sometimes it is more convenient to track the head than to track the center of the person area. In this case, the tracking point is not the center pixel of the template, but the upper part of the template, for example, the position of 80% height ((x1 + x2) / 2, (4xy1 + y2)
/ 5), may be selected as the tracking point. When the area of the tracking object is extracted by the motion vector, the center of gravity of the tracking object area may be selected as the tracking point, or the center of the circumscribed rectangle of the object may be selected.

【0018】次に、位置記憶手段7は、旋回装置3から
左右方向の旋回角度に相当するパン角および上下方向の
旋回角度に相当するチルト角を取得し、あらかじめ取得
してある画像入力装置1の画角(視野角)とから、抽出
した追尾点の位置をいったん絶対座標上での位置に変換
する。追尾点を絶対座標上の位置に変換するための方法
として、図3に示すように、パン・チルト角で表わされ
る極座標を絶対座標として用いる。
Next, the position storage means 7 acquires the pan angle corresponding to the turning angle in the left and right direction and the tilt angle corresponding to the turning angle in the up and down direction from the turning device 3, and the image input device 1 acquired in advance. From the angle of view (viewing angle) of, the position of the extracted tracking point is once converted into a position on absolute coordinates. As a method for converting a tracking point into a position on absolute coordinates, polar coordinates represented by pan / tilt angles are used as absolute coordinates, as shown in FIG.

【0019】ここで、カメラ画像中央(カメラ座標の原
点)の点Ocはパン・チルト角で表わすと、(1)式で
表わせる。画像上の点Pも同様に、パン・チルト角で
(2)式として表わせる。
Here, the point Oc at the center of the camera image (the origin of the camera coordinates) can be expressed by equation (1) when expressed by the pan / tilt angle. Similarly, the point P on the image can be expressed by the pan / tilt angle as the expression (2).

【数1】 [Equation 1]

【数2】 [Equation 2]

【0020】だたし、fはレンズ系の焦点距離[mm]
であり、x,yはカメラ結像面(CCD素子面)におけ
る位置[mm]であり、結像面での位置は、カメラ撮像
素子CCDの大きさおよびピクセル数から算出する。ま
た、x,y<<fであれば、(3)式のように線形近似
で表わすことができる。
However, f is the focal length of the lens system [mm]
Where x and y are positions [mm] on the camera image plane (CCD element plane), and the position on the image plane is calculated from the size of the camera image sensor CCD and the number of pixels. Further, if x and y << f, it can be expressed by a linear approximation as in the equation (3).

【数3】 [Equation 3]

【0021】この変換を用いることで、図4に示すよう
に、カメラ座標上の任意の点の位置をパン・チルト角を
用いた極座標で表わすことができ、絶対座標による物体
の追尾点の位置の把握が行える。
By using this conversion, as shown in FIG. 4, the position of an arbitrary point on the camera coordinates can be expressed in polar coordinates using the pan / tilt angle, and the position of the tracking point of the object in absolute coordinates can be expressed. Can be grasped.

【0022】次に、この絶対座標上に変換された追尾点
の位置を時系列に記憶する。記憶するメモリには制限が
あるため、N(N≧2)個の追尾点の位置のみ記憶す
る。新しい追尾点の位置を記憶するときは、一番古い追
尾点の位置を消去し、新しい追尾点の位置を追加してい
く。
Next, the positions of the tracking points converted on the absolute coordinates are stored in time series. Since the memory to be stored is limited, only the positions of N (N ≧ 2) tracking points are stored. When memorizing the position of a new tracking point, the position of the oldest tracking point is erased and the position of a new tracking point is added.

【0023】最後に、図5に示すように、このメモリに
記憶させてあるN個の追尾点の位置を、旋回装置3から
のパン・チルト角に応じて、(4)式を用いて再度カメ
ラ座標上での位置に変換し出力する。つまり、記憶して
いるN個の追尾点の位置を任意のカメラ視線上で仮想的
に再現することになり、カメラ座標に変換された追尾点
の位置は、カメラ画角内に収まっている必要はない。
Finally, as shown in FIG. 5, the positions of the N tracking points stored in this memory are again calculated by using the equation (4) according to the pan / tilt angle from the turning device 3. It is converted to the position on the camera coordinates and output. That is, the stored positions of the N tracking points are virtually reproduced on the line of sight of the camera, and the positions of the tracking points converted into the camera coordinates must be within the camera angle of view. There is no.

【数4】 [Equation 4]

【0024】速度算出手段8では、位置記憶手段7から
出力されたN個の追尾点位置から、移動速度Vを算出す
る。図6に示すように、移動速度Vは物体の動きがカメ
ラ座標上で直線的であると仮定すると、現在の追尾点位
置G0と1単位時間前の追尾点位置G1を用い、(5)
式で求められる。
The speed calculating means 8 calculates the moving speed V from the N tracking point positions output from the position storing means 7. As shown in FIG. 6, assuming that the movement of the object is linear on the camera coordinates, the moving speed V uses the current tracking point position G0 and the tracking point position G1 one unit time before, and (5)
It is calculated by the formula.

【数5】 [Equation 5]

【0025】位置推定手段9では、位置記憶手段7から
出力されたN個の追尾点位置から、次時刻の追尾点位置
Objを推定する。追尾点推定位置は過去のN個の位置
から多項式による補外や有理関数による補外を用いて行
える。これらは、「ニューメリカルレシピー・イン・シ
ー」技術評論社、William H.Press,S
aul A. Teukolsky, William
T. Vetterling, Brian P.
Flannery著、丹慶勝市・奥村晴彦・佐藤俊郎・
小林誠 訳 P.96(ISBN4−87408−56
0−1)に詳しい。N=2の場合、現在の追尾点位置を
G0、1単位時間前の追尾点位置をG1とすると(6)
式で求められる。
The position estimating means 9 estimates the tracking point position Obj at the next time from the N tracking point positions output from the position storing means 7. The estimated position of the tracking point can be calculated from the past N positions by extrapolation using a polynomial or extrapolation using a rational function. These are described in "Numerical Recipe in Sea" Technical Review, William H. et al. Press, S
aul A. Teukolsky, William
T. Vetterling, Brian P.
By Flannery, Katsuichi Dankei, Haruhiko Okumura, Toshiro Sato,
Translated by Makoto Kobayashi P. 96 (ISBN4-87408-56
Details on 0-1). If N = 2, the current tracking point position is G0, and the tracking point position one unit time ago is G1 (6)
It is calculated by the formula.

【数6】 [Equation 6]

【0026】旋回装置制御手段10は、速度算出手段8
で算出された移動速度および位置推定手段9で推定され
た次時刻の追尾点の位置から、追尾物体(追尾点)を画
像の中央で捉えられるように適切なパン・チルト制御値
を算出する。次時刻における追尾点の推定位置と、画像
中央とのずれ(Δx,Δy)を算出し、ずれが0になる
ようにフィードバック制御を行う。パン・チルトの制御
量は図7に示すようにx座標のずれΔxからパン移動角
速度を、y座標のずれΔyからチルト移動角速度をそれ
ぞれ算出する。この時、ずれ(Δx,Δy)がパン・チ
ルトの画像上における最小移動量より小さいと、物体を
画像中央で捉えることができず、行き過ぎ(オーバーシ
ュート)を起こし、制御が不安定になる(振動してしま
う)。
The turning device control means 10 comprises a speed calculation means 8
An appropriate pan / tilt control value is calculated so that the tracking object (tracking point) can be captured in the center of the image from the moving speed calculated in step 1 and the position of the tracking point at the next time estimated by the position estimating means 9. The deviation (Δx, Δy) between the estimated position of the tracking point at the next time and the center of the image is calculated, and feedback control is performed so that the deviation becomes zero. As the pan / tilt control amount, as shown in FIG. 7, the pan movement angular velocity is calculated from the x coordinate shift Δx, and the tilt movement angular velocity is calculated from the y coordinate shift Δy. At this time, if the deviation (Δx, Δy) is smaller than the minimum movement amount of the pan / tilt on the image, the object cannot be captured in the center of the image, causing an overshoot (overshoot), which makes the control unstable ( Will vibrate).

【0027】このため、画像入力装置1の画角とパンお
よびチルトの最小制御量から、画像上における最小移動
量(Pmin,Tmin)を予めそれぞれ算出してお
き、ずれ(Δx,Δy)がパン・チルトそれぞれの最小
移動量より小さい場合は、パンまたはチルト操作を行わ
ないようにする。さらに、速度算出手段8から得られる
物体の移動速度(ベクトル)から、物体が画像中央方向
に移動している場合と、画像中央から離れていく場合と
で、パン・チルトの制御量を変更することができる。画
像中央から離れていく物体は画角から外れる恐れがある
ため、画角からはずれる前に迅速なパン・チルト制御を
行う必要がある。
Therefore, the minimum movement amount (Pmin, Tmin) on the image is calculated in advance from the angle of view of the image input apparatus 1 and the minimum pan and tilt control amounts, and the deviation (Δx, Δy) is panned. -If the tilt movement amount is smaller than the minimum movement amount, do not perform pan or tilt operation. Further, the pan / tilt control amount is changed based on the moving speed (vector) of the object obtained from the speed calculating means 8 depending on whether the object is moving in the image center direction or moving away from the image center. be able to. An object moving away from the center of the image may deviate from the angle of view, so it is necessary to perform quick pan / tilt control before the object deviates from the angle of view.

【0028】しかし、画面中央に向かってくる物体に関
しては画角から外れる危険性が少ないため、できるだけ
緩やかな制御を行う。つまり、一回のパン・チルト制御
で追尾点を画像中央に移動させる必要はなく、数回の制
御で徐々に画像中央に近づくように緩やかな制御を行え
ば良い。これにより画像内での物体の急激な移動が起こ
らず、監視者に不快感を与えない追尾画像を提供するこ
とが可能となる。
However, an object coming toward the center of the screen is less likely to deviate from the angle of view, so control is performed as gently as possible. In other words, it is not necessary to move the tracking point to the center of the image with one pan / tilt control, and it is sufficient to perform gentle control so as to gradually approach the center of the image with several times of control. This makes it possible to provide a tracking image that does not cause any discomfort to the observer without causing a sudden movement of the object in the image.

【0029】このように、異なる時刻の追尾の対象とな
る物体の複数の追尾点の位置をパン・チルト角を用いて
絶対座標上での位置に変換し記憶し、これらの追尾点の
位置を再度、現時点でのパン・チルト角からカメラ座標
上に変換することで、次時刻の追尾点の位置を推定し、
移動速度を算出することができ、これらの値を用いてパ
ン・チルト制御を行うようにしたため、物体の位置・速
度に応じて物体を見失うこと無く、スムーズに追尾を行
うことができる。
As described above, the positions of a plurality of tracking points of the object to be tracked at different times are converted into positions on the absolute coordinates by using the pan / tilt angles and stored, and the positions of these tracking points are stored. Once again, the position of the tracking point at the next time is estimated by converting the current pan / tilt angle to the camera coordinates,
Since the moving speed can be calculated and the pan / tilt control is performed using these values, the tracking can be smoothly performed without losing the object according to the position / speed of the object.

【0030】次に、本発明の第2の実施の形態について
図面を参照して詳細に説明する。図2は第2の実施の形
態の構成を示すブロック図である。この図において、図
1に示す装置と同一の部分には同一の符号を付し、その
説明を省略する。符号2は、画像入力装置1に装着され
た電動ズームレンズで構成されたズーム駆動装置あり、
ズームレンズを操作することにより画像入力装置1の画
角を制御することができる。旋回装置3によって、画像
入力装置1と共に上下および左右の2軸で旋回すること
ができる。符号6は、ズーム値によりあらかじめ設定し
てある画像入力装置1の画角情報を参照する画角参照手
段である。符号11は、追尾物体抽出手段5で抽出した
物体領域の面積と速度算出手段8の出力の移動速度よ
り、単位時間に物体が移動することで掃く画面上の面積
を算出する物体移動領域算出手段である。符号12は、
物体移動領域算出手段11からズームの操作量を決定す
るズーム制御手段である。この図に示す装置が図1に示
す装置と異なる点は、画像入力装置1に装着されたズー
ム駆動装置2、画角参照手段6、物体移動領域算出手段
11、およびズーム制御手段12がさらに設けられてい
る点である。
Next, a second embodiment of the present invention will be described in detail with reference to the drawings. FIG. 2 is a block diagram showing the configuration of the second embodiment. In this figure, the same parts as those of the device shown in FIG. 1 are designated by the same reference numerals, and the description thereof will be omitted. Reference numeral 2 denotes a zoom drive device including an electric zoom lens attached to the image input device 1,
The angle of view of the image input device 1 can be controlled by operating the zoom lens. By the turning device 3, it is possible to turn with the image input device 1 on two axes, that is, vertical and horizontal. Reference numeral 6 is an angle-of-view reference unit that refers to angle-of-view information of the image input device 1 that is set in advance by the zoom value. Reference numeral 11 is an object moving area calculating means for calculating the area on the screen swept by moving the object in a unit time, based on the area of the object area extracted by the tracking object extracting means 5 and the moving speed of the output of the speed calculating means 8. Is. Reference numeral 12 is
It is a zoom control unit that determines the zoom operation amount from the object movement region calculation unit 11. The device shown in this figure is different from the device shown in FIG. 1 in that a zoom drive device 2, an angle-of-view reference device 6, an object movement region calculation device 11, and a zoom control device 12 mounted on the image input device 1 are further provided. That is the point.

【0031】次に、図2を参照して本実施の形態の全体
の動作について詳細に説明する。まず、画角参照手段6
は、ズーム駆動装置2からズーム値を取得し、得られた
ズーム値に対応する画角情報を出力する。ズーム値とは
ズーム駆動装置2のズームレンズのフォーカス値fに相
当する値で、予めズーム値と対応する画像入力装置1の
画角の組合せをメモリ等に記憶しておく。なお、メモリ
等の制限により予め記憶させるズーム値と画角の組合せ
数には制限があるため、主要な組合せのみ記憶し、残り
は補間により近似させるようにしてもよい。
Next, the overall operation of this embodiment will be described in detail with reference to FIG. First, the angle-of-view reference unit 6
Acquires a zoom value from the zoom drive device 2 and outputs angle-of-view information corresponding to the obtained zoom value. The zoom value is a value corresponding to the focus value f of the zoom lens of the zoom driving device 2, and the combination of the angle of view of the image input device 1 corresponding to the zoom value is stored in a memory or the like in advance. Since the number of combinations of the zoom value and the angle of view to be stored in advance is limited due to the limitation of the memory or the like, only the main combinations may be stored and the rest may be approximated by interpolation.

【0032】次に、位置記憶手段7は、追尾物体抽出手
段5で抽出した物体の領域を代表する点を追尾点として
抽出し、旋回装置3からパン・チルト角を取得し、画角
参照手段6から画像入力装置1の画角を取得して、抽出
した追尾点位置をいったん絶対座標での位置に変換し時
系列に記憶しておき、記憶してある複数の追尾点位置を
旋回装置3からのパン・チルト角を用いてカメラ座標で
の追尾位置に再度変換する。
Next, the position storage means 7 extracts a point representative of the area of the object extracted by the tracking object extraction means 5 as a tracking point, acquires the pan / tilt angle from the turning device 3, and obtains the angle-of-view reference means. 6, the angle of view of the image input device 1 is acquired, the extracted tracking point position is once converted into an absolute coordinate position and stored in time series, and the plurality of stored tracking point positions are stored in the turning device 3 The pan / tilt angle from is converted again to the tracking position in camera coordinates.

【0033】物体移動領域算出手段11は、図8示すよ
うに単位時間に物体の移動により物体が画面上で掃く面
積Sを算出する。物体面積を簡略化して矩形近似した場
合では、物体を幅W高さHとし、移動速度ベクトルをV
(Vx,Vy)とすると、物体移動面積Sは(7)式と
して求められる。
As shown in FIG. 8, the object moving area calculating means 11 calculates the area S swept on the screen by the movement of the object per unit time. When the object area is simplified and approximated to a rectangle, the object has a width W and a height H, and the moving velocity vector is V.
Assuming that (Vx, Vy), the object moving area S can be obtained by the equation (7).

【数7】 [Equation 7]

【0034】ズーム制御手段12は、物体移動領域算出
手段11で算出された移動領域面積を基にズーム操作を
制御する。ズーム制御方法としては、予め画像上で物体
をどの程度ズーム・インするかを決め、このときの物体
面積を設定面積S0とし登録しておき、追尾物体の移動
領域面積SがS0になるようにズームのフィードバック
制御を行う。つまり、S−S0>0の場合はズーム・ア
ウトし、S−S0<0の場合はズーム・インを行うよう
にズーム操作装置2に制御信号を送る。ただし、S≒S
0での物体領域面積Sの微少の変化により、ズーム制御
が不安定になるのを防ぐために、図9に示すように、設
定面積とのずれがあるしきい値TH以下の場合はズーム
制御を行わないようにすると、取得画像も安定し、かつ
無駄に電動ズーム装置を駆動させずにすむ。
The zoom control means 12 controls the zoom operation based on the moving area area calculated by the object moving area calculating means 11. As a zoom control method, it is determined in advance how much the object should be zoomed in on the image, and the object area at this time is registered as the set area S0 so that the moving area area S of the tracking object becomes S0. Performs feedback control of zoom. That is, a control signal is sent to the zoom operating device 2 so as to zoom out when S-S0> 0 and to zoom in when S-S0 <0. However, S ≒ S
In order to prevent the zoom control from becoming unstable due to a slight change in the object region area S at 0, as shown in FIG. 9, when the deviation from the set area is equal to or less than the threshold value TH, the zoom control is performed. If not performed, the acquired image will be stable and the electric zoom device will not be uselessly driven.

【0035】さらに、追尾物体抽出手段5におけるテン
プレートマッチングで追尾対象の物体抽出を行っている
場合では、テンプレート更新速度に合わせたズームの速
度制限をするほうが良い。なぜなら、テンプレートマッ
チングにおける大きさに対する変化の許容範囲(図9に
示すZoom_Max)よりもズームの変化量が大きい
と物体を抽出することが困難になるからである。
Further, when the object to be tracked is extracted by the template matching in the tracking object extracting means 5, it is better to limit the zoom speed according to the template update speed. This is because it is difficult to extract an object when the amount of change in zoom is larger than the allowable range of change in size (Zoom_Max shown in FIG. 9) in template matching.

【0036】ズーム・インに関しては、図10に示すよ
うに画面上でズーム・イン可能エリアを予め設定してお
き、物体の追尾点(Gx,Gy)がエリア内に位置して
いるとき((8)式を満たすとき)のみズーム・イン制
御を行う。なぜなら、物体が画面中央から離れている場
合、ズーム・インを行うと追尾物体が画角から外れる恐
れがあるからである。
With respect to zoom-in, as shown in FIG. 10, when the zoom-in possible area is set on the screen in advance and the object tracking point (Gx, Gy) is located within the area ((( Zoom-in control is performed only when (8) is satisfied. This is because, if the object is far from the center of the screen, zooming in may cause the tracking object to be out of the angle of view.

【数8】 [Equation 8]

【0037】このように、異なる時刻の追尾物体の追尾
点の位置をパン・チルト・ズーム値を用いて絶対座標上
の位置に変換し記憶し、これらの複数の追尾点の位置を
再度、パン・チルト角から現時点でのカメラ座標上に変
換することで、次時刻の追尾点の位置を推定し、移動速
度を算出し、これと物体面積から物体の移動領域の面積
を算出することができ、これらの値を用いてパン・チル
トおよびズーム制御を行うようしたため、追尾対象の物
体の位置・速度に応じたパン・チルト制御と、追尾対象
の物体の位置・速度・大きさに応じズーム率を調整する
ことで物体を見失わずにズーム・アップを行った追尾を
行うことができる。
As described above, the positions of the tracking points of the tracking object at different times are converted into positions on the absolute coordinates by using the pan / tilt / zoom values and stored, and the positions of these tracking points are panned again.・ By converting from the tilt angle to the current camera coordinates, the position of the tracking point at the next time can be estimated, the moving speed can be calculated, and the area of the moving area of the object can be calculated from this and the object area. Since the pan / tilt and zoom controls are performed using these values, the pan / tilt control according to the position / speed of the tracking target object and the zoom ratio according to the position / speed / size of the tracking target object. By adjusting, it is possible to perform tracking with zooming up without losing sight of the object.

【0038】なお、図1、2に示す構成を実現するため
のプログラムをコンピュータ読み取り可能な記録媒体に
記録して、この記録媒体に記録されたプログラムをコン
ピュータシステムに読み込ませ、実行することにより自
動追尾処理を行ってもよい。なお、ここでいう「コンピ
ュータシステム」とは、OSや周辺機器等のハードウェ
アを含むものとする。また、「コンピュータシステム」
は、WWWシステムを利用している場合であれば、ホー
ムページ提供環境(あるいは表示環境)も含むものとす
る。また、「コンピュータ読み取り可能な記録媒体」と
は、フロッピー(登録商標)ディスク、光磁気ディス
ク、ROM、CD−ROM等の可搬媒体、コンピュータ
システムに内蔵されるハードディスク等の記憶装置のこ
とをいう。さらに「コンピュータ読み取り可能な記録媒
体」とは、インターネット等のネットワークや電話回線
等の通信回線を介してプログラムが送信された場合のサ
ーバやクライアントとなるコンピュータシステム内部の
揮発性メモリ(RAM)のように、一定時間プログラム
を保持しているものも含むものとする。
It should be noted that a program for realizing the configuration shown in FIGS. 1 and 2 is recorded in a computer-readable recording medium, and the program recorded in the recording medium is read by a computer system and executed to automatically execute the program. Tracking processing may be performed. The “computer system” mentioned here includes an OS and hardware such as peripheral devices. Also, "computer system"
Includes the homepage providing environment (or display environment) if the WWW system is used. The "computer-readable recording medium" means a portable medium such as a floppy (registered trademark) disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in a computer system. . Further, the "computer-readable recording medium" is a volatile memory (RAM) inside a computer system which serves as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those that hold the program for a certain period of time are also included.

【0039】また、上記プログラムは、このプログラム
を記憶装置等に格納したコンピュータシステムから、伝
送媒体を介して、あるいは、伝送媒体中の伝送波により
他のコンピュータシステムに伝送されてもよい。ここ
で、プログラムを伝送する「伝送媒体」は、インターネ
ット等のネットワーク(通信網)や電話回線等の通信回
線(通信線)のように情報を伝送する機能を有する媒体
のことをいう。また、上記プログラムは、前述した機能
の一部を実現するためのものであっても良い。さらに、
前述した機能をコンピュータシステムにすでに記録され
ているプログラムとの組み合わせで実現できるもの、い
わゆる差分ファイル(差分プログラム)であっても良
い。
Further, the above program may be transmitted from a computer system in which the program is stored in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the "transmission medium" for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the program may be a program for realizing some of the functions described above. further,
It may be a so-called difference file (difference program) that can realize the above-mentioned functions in combination with a program already recorded in the computer system.

【0040】[0040]

【発明の効果】以上説明したように、この発明によれ
ば、異なる時刻での物体位置を絶対座標上の位置に変換
し保存することで、任意のカメラ視線においても追尾対
象の物体の移動速度およびその物体の予測位置を算出
し、位置・移動速度の向きに応じたパン・チルトを制御
するようにしたため、物体の位置および移動速度に応じ
て、パン・チルト追尾を行え、この結果、物体の向きの
反転などが起こった際でも見失うこと無く、スムーズで
精度良く追尾が行えるという効果が得られる。
As described above, according to the present invention, by converting the object positions at different times into positions on the absolute coordinates and storing the positions, the moving speed of the object to be tracked is tracked even with an arbitrary camera line of sight. And the predicted position of the object is calculated, and the pan / tilt is controlled according to the direction of the position / moving speed, so pan / tilt tracking can be performed according to the position and moving speed of the object. Even if the direction of the object is reversed, it is possible to obtain the effect that the tracking can be performed smoothly and accurately without being lost.

【0041】また、この発明によれば、異なる時刻での
物体位置を絶対座標上の位置に変換し保存することで、
任意のカメラ視線においても追尾対象の物体が掃く移動
領域面積に応じてズームを制御するようにしたため、物
体の移動速度に応じたズーム・アップを行った追尾がで
き、この結果、動きの大きい物体追尾では、見逃すこと
のないようズーム・アップを抑えた追尾を行い、動きの
少ない物体に関してはよりズーム・アップしての追尾を
自動的に行えという効果も得られる。
Further, according to the present invention, by converting the object positions at different times into positions on the absolute coordinates and storing them,
Since the zoom is controlled according to the area of the moving region swept by the object to be tracked even with the arbitrary line of sight of the camera, tracking can be performed by zooming up according to the moving speed of the object. In tracking, it is possible to obtain an effect that the tracking is performed with the zoom-up suppressed so as not to be overlooked, and the tracking can be automatically performed with the zoom-up even for an object having a small movement.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の第1の実施の形態の構成を示すブロ
ック図である。
FIG. 1 is a block diagram showing a configuration of a first exemplary embodiment of the present invention.

【図2】 本発明の第2の実施の形態の構成を示すブロ
ック図である。
FIG. 2 is a block diagram showing a configuration of a second exemplary embodiment of the present invention.

【図3】 本発明の第1の実施の形態の動作を示す説明
図である。
FIG. 3 is an explanatory diagram showing an operation of the first exemplary embodiment of the present invention.

【図4】 本発明の第1の実施の形態の動作を示す説明
図である。
FIG. 4 is an explanatory diagram showing an operation of the first exemplary embodiment of the present invention.

【図5】 本発明の第1の実施の形態の動作を示す説明
図である。
FIG. 5 is an explanatory diagram showing an operation of the first exemplary embodiment of the present invention.

【図6】 本発明の第1の実施の形態の動作を示す説明
図である。
FIG. 6 is an explanatory diagram showing an operation of the first exemplary embodiment of the present invention.

【図7】 本発明の第1の実施の形態の動作を示す説明
図である。
FIG. 7 is an explanatory diagram showing an operation of the first exemplary embodiment of the present invention.

【図8】 本発明の第2の実施の形態の動作を示す説明
図である。
FIG. 8 is an explanatory diagram showing an operation of the second exemplary embodiment of the present invention.

【図9】 本発明の第2の実施の形態の動作を示す説明
図である。
FIG. 9 is an explanatory diagram showing an operation of the second exemplary embodiment of the present invention.

【図10】 本発明の第2の実施の形態の動作を示す説
明図である。
FIG. 10 is an explanatory diagram showing operations according to the second embodiment of the present invention.

【図11】 従来の方法による追尾動作を示す説明図で
ある。
FIG. 11 is an explanatory diagram showing a tracking operation according to a conventional method.

【図12】 従来の方法による追尾動作を示す説明図で
ある。
FIG. 12 is an explanatory diagram showing a tracking operation by a conventional method.

【図13】 従来の方法による追尾動作を示す説明図で
ある。
FIG. 13 is an explanatory diagram showing a tracking operation according to a conventional method.

【符号の説明】[Explanation of symbols]

1・・・画像入力装置、 2・・・ズーム駆動装置、 3・・・旋回装置、 4・・・画像出力装置、 5・・・追尾物体抽出手段、 6・・・画角参照手段、 7・・・位置記憶手段、 8・・・速度算出手段、 9・・・位置推定手段、 10・・・旋回装置制御手段、 11・・・物体移動領域算出手段、 12・・・ズーム制御手段。 1 ... Image input device, 2 ... Zoom drive, 3 ... turning device, 4 ... Image output device, 5 ... Tracking object extraction means, 6 ... View angle reference means, 7 ... position storage means, 8: speed calculation means, 9 ... Position estimation means, 10 ... turning device control means, 11 ... Object movement region calculation means, 12 ... Zoom control means.

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 撮像した画像を用いて物体の追尾を行う
自動追尾装置であって、 前記自動追尾装置は、 物体の追尾を行う必要がある領域の画像を取得するカメ
ラを備えた画像入力手段と、 入力されたパン・チルト角制御量に基づいて前記画像入
力手段を2軸方向に旋回する旋回手段と、 前記画像入力手段によって取得した画像から追尾の対象
となる物体を抽出する追尾物体抽出手段と、 異なる時刻での追尾対象の物体の追尾点の位置を、前記
旋回手段のパン・チルト角を用いて絶対座標上の位置に
変換して時系列に記憶し、記憶されている複数の追尾点
の位置をカメラ座標に再度変換して出力する位置記憶手
段と、 過去の物体の追尾点の位置から物体の移動位置を推定す
る位置推定手段と、 過去の物体の追尾点の位置から物体の移動速度を算出す
る速度算出手段と、 前記推定移動位置と前記移動速度に基づいて前記旋回手
段のパン・チルト角を制御する旋回制御手段と、 を備えたことを特徴とする自動追尾装置。
1. An automatic tracking device for tracking an object using a captured image, wherein the automatic tracking device includes an image input means including a camera for acquiring an image of a region in which the object needs to be tracked. A turning means for turning the image input means in two axial directions based on the input pan / tilt angle control amount; and a tracking object extraction for extracting an object to be tracked from the image acquired by the image input means. Means and the position of the tracking point of the tracking target object at different times are converted into positions on the absolute coordinates by using the pan / tilt angle of the turning means and stored in time series. Position storage means that converts the position of the tracking point into camera coordinates again and outputs it, position estimation means that estimates the moving position of the object from the position of the tracking point of the past object, and object from the position of the tracking point of the past object Moving speed A speed calculation means for calculating, automatic tracking apparatus being characterized in that and a turning control means for controlling the pan and tilt angles of the turning unit based on the moving speed and the estimated travel position.
【請求項2】 撮像した画像を用いて物体の追尾を行う
自動追尾装置であって、 前記自動追尾装置は、 物体の追尾を行う必要がある領域の画像を取得するカメ
ラを備えた画像入力手段と、 入力されたパン・チルト角制御量に基づいて前記画像入
力手段を2軸方向に旋回する旋回手段と、 前記画像入力手段によって取得した画像から追尾の対象
となる物体を抽出する追尾物体抽出手段と、 異なる時刻での追尾対象の物体の追尾点の位置を、前記
旋回手段のパン・チルト角及び画像入力手段のズーム倍
率を用いて絶対座標上の位置に変換して時系列に記憶
し、記憶されている複数の追尾点の位置をカメラ座標に
再度変換して出力する位置記憶手段と、 過去の物体の追尾点の位置から物体の移動位置を推定す
る位置推定手段と、 過去の物体の追尾点の位置から物体の移動速度を算出す
る速度算出手段と、 前記推定移動位置と前記移動速度に基づいて前記旋回手
段のパン・チルト角を制御する旋回制御手段と、 追尾物体の移動によりカメラ座標上で掃く領域の面積を
算出する物体移動領域算出手段と、 前記追尾物体の移動領域面積から前記画像入力手段のズ
ーム倍率を制御するズーム制御手段と、 を備えたことを特徴とする自動追尾装置。
2. An automatic tracking device for tracking an object using a captured image, wherein the automatic tracking device includes an image input means including a camera for acquiring an image of a region in which the object needs to be tracked. A turning means for turning the image input means in two axial directions based on the input pan / tilt angle control amount; and a tracking object extraction for extracting an object to be tracked from the image acquired by the image input means. Means and the position of the tracking point of the tracking target object at different times are converted into positions on absolute coordinates using the pan / tilt angle of the turning means and the zoom magnification of the image input means, and stored in time series. , A position storage unit that converts the stored positions of a plurality of tracking points into camera coordinates again and outputs the position, a position estimation unit that estimates the moving position of the object from the positions of the past tracking points of the object, and a past object Addition Speed calculation means for calculating the moving speed of the object from the position of the point, turning control means for controlling the pan / tilt angle of the turning means based on the estimated moving position and the moving speed, and camera coordinates by moving the tracking object. An automatic tracking device, comprising: an object moving area calculating means for calculating an area of an area to be swept above; and a zoom control means for controlling a zoom magnification of the image input means based on a moving area area of the tracking object. .
【請求項3】 撮像した画像を用いて物体の追尾を行う
自動追尾方法であって、 前記自動追尾方法は、 異なる時刻での追尾対象の物体の追尾点の位置を、画像
入力手段のパン・チルト角を用いて絶対座標上の位置に
変換して時系列に記憶し、この記憶されている複数の追
尾点の位置をカメラ座標に再度変換して出力し、過去の
物体の追尾点の位置から物体の移動位置の推定と物体の
移動速度の算出を行い、この推定位置と移動速度から画
像入力手段のパン・チルト角を制御することを特徴とす
る自動追尾方法。
3. An automatic tracking method for tracking an object using a captured image, wherein the automatic tracking method determines the position of a tracking point of an object to be tracked at different times by using a pan / scan of an image input means. The positions of the tracking points of the past object are converted and output again by converting the stored positions of the tracking points into camera coordinates and converting the positions into absolute coordinates using the tilt angle and storing them in time series. An automatic tracking method characterized in that the moving position of an object is estimated from the calculated position and the moving speed of the object is calculated, and the pan / tilt angle of the image input means is controlled from the estimated position and moving speed.
【請求項4】 撮像した画像を用いて物体の追尾を行う
自動追尾方法であって、 前記自動追尾方法は、 異なる時刻での追尾対象の物体の追尾点の位置を、画像
入力手段のパン・チルト角およびズーム倍率を用いて絶
対座標上の位置に変換して時系列に記憶し、この記憶さ
れている複数の追尾点の位置をカメラ座標に再度変換し
て出力し、過去の追尾物体の追尾点の位置から物体の移
動位置の推定と物体の移動速度の算出を行い、この推定
位置と移動速度から画像入力手段のパン・チルト角を制
御し、追尾物体の移動によりカメラ座標上で掃く領域の
面積を算出し、追尾物体の移動領域面積からズーム倍率
を制御することを特徴とする自動追尾方法。
4. An automatic tracking method for tracking an object using a captured image, wherein the automatic tracking method determines the position of a tracking point of an object to be tracked at different times by the pan / scan of the image input means. It is converted to a position on absolute coordinates using the tilt angle and zoom magnification and stored in time series, and the positions of the stored multiple tracking points are converted to camera coordinates again and output, and the past tracking object The moving position of the object is estimated from the position of the tracking point and the moving speed of the object is calculated.The pan / tilt angle of the image input means is controlled based on the estimated position and moving speed, and the tracking object sweeps on the camera coordinates. An automatic tracking method, wherein the area of a region is calculated and the zoom magnification is controlled based on the moving region area of a tracking object.
【請求項5】 撮像した画像を用いて追尾を行う自動追
尾プログラムを記録したコンピュータ読み取り可能な記
録媒体であって、 前記自動追尾プログラムは、 異なる時刻での追尾対象の物体の追尾点の位置を、画像
入力手段のパン・チルト角を用いて絶対座標上の位置に
変換して時系列に記憶し、この記憶されている複数の追
尾点の位置をカメラ座標に再度変換して出力し、過去の
物体の追尾点の位置から物体の移動位置の推定と物体の
移動速度の算出を行い、この推定位置と移動速度から画
像入力手段のパン・チルト角を制御することをコンピュ
ータに行わせることを特徴とする自動追尾プログラムを
記録した記録媒体。
5. A computer-readable recording medium in which an automatic tracking program for performing tracking using a captured image is recorded, wherein the automatic tracking program determines the positions of tracking points of an object to be tracked at different times. , The position of the absolute coordinate is converted using the pan / tilt angle of the image input means and stored in time series, and the positions of the plurality of tracking points stored are converted into camera coordinates again and output. The moving position of the object is estimated from the position of the tracking point of the object and the moving speed of the object is calculated, and the computer is made to control the pan / tilt angle of the image input means from the estimated position and the moving speed. A recording medium on which the characteristic automatic tracking program is recorded.
【請求項6】 撮像した画像を用いて追尾を行う自動追
尾プログラムを記録したコンピュータ読み取り可能な記
録媒体であって、 前記自動追尾プログラムは、 異なる時刻での追尾対象の物体の追尾点の位置を、画像
入力手段のパン・チルト角およびズーム倍率を用いて絶
対座標上の位置に変換して時系列に記憶し、この記憶さ
れている複数の追尾点の位置をカメラ座標に再度変換し
て出力し、過去の追尾物体の追尾点の位置から物体の移
動位置の推定と物体の移動速度の算出を行い、この推定
位置と移動速度から画像入力手段のパン・チルト角を制
御し、追尾物体の移動によりカメラ座標上で掃く領域の
面積を算出し、追尾物体の移動領域面積からズーム倍率
を制御することをコンピュータに行わせることを特徴と
する自動追尾プログラムを記録した記録媒体。
6. A computer-readable recording medium in which an automatic tracking program for performing tracking using a captured image is recorded, wherein the automatic tracking program determines the positions of tracking points of an object to be tracked at different times. , Converts to positions on absolute coordinates using the pan / tilt angle and zoom magnification of the image input means and stores them in time series, and converts the stored positions of a plurality of tracking points into camera coordinates again and outputs. Then, the moving position of the object is estimated from the position of the tracking point of the past tracking object and the moving speed of the object is calculated, and the pan / tilt angle of the image input means is controlled based on the estimated position and the moving speed, and the tracking object An automatic tracking program characterized by causing a computer to calculate the area of a region to be swept on camera coordinates by movement and control the zoom magnification from the moving region area of the tracking object. Recording the recording medium.
JP2000095564A 2000-03-30 2000-03-30 Automatic tracking device, automatic tracking method, and recording medium recording automatic tracking program Expired - Lifetime JP3440916B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000095564A JP3440916B2 (en) 2000-03-30 2000-03-30 Automatic tracking device, automatic tracking method, and recording medium recording automatic tracking program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000095564A JP3440916B2 (en) 2000-03-30 2000-03-30 Automatic tracking device, automatic tracking method, and recording medium recording automatic tracking program

Publications (2)

Publication Number Publication Date
JP2001285850A JP2001285850A (en) 2001-10-12
JP3440916B2 true JP3440916B2 (en) 2003-08-25

Family

ID=18610454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000095564A Expired - Lifetime JP3440916B2 (en) 2000-03-30 2000-03-30 Automatic tracking device, automatic tracking method, and recording medium recording automatic tracking program

Country Status (1)

Country Link
JP (1) JP3440916B2 (en)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7256817B2 (en) 2000-10-26 2007-08-14 Fujinon Corporation Following device
US20040100563A1 (en) 2002-11-27 2004-05-27 Sezai Sablak Video tracking system and method
KR101017362B1 (en) 2004-01-08 2011-02-28 삼성전자주식회사 Automatic zoom apparatus and method for dynamic playing of image
JP4568916B2 (en) * 2005-01-17 2010-10-27 富士フイルム株式会社 Auto focus system
JP4525402B2 (en) * 2005-03-18 2010-08-18 パナソニック電工株式会社 Image sensor device
JP4572815B2 (en) * 2005-11-18 2010-11-04 富士フイルム株式会社 Imaging apparatus and imaging method
JP4241742B2 (en) * 2006-01-31 2009-03-18 パナソニック株式会社 Automatic tracking device and automatic tracking method
JP4826316B2 (en) * 2006-03-31 2011-11-30 ソニー株式会社 Image processing apparatus and method, program, and recording medium
JP4717701B2 (en) * 2006-04-24 2011-07-06 キヤノン株式会社 Imaging system, imaging direction control method, and program
JP4697810B2 (en) 2007-03-05 2011-06-08 パナソニック株式会社 Automatic tracking device and automatic tracking method
JP5225047B2 (en) * 2008-12-04 2013-07-03 キヤノン株式会社 Tracking imaging apparatus, tracking imaging method, and computer program
JP2012033982A (en) * 2008-12-05 2012-02-16 Panasonic Corp Camera device with rotating table
JP5360403B2 (en) * 2009-09-29 2013-12-04 サクサ株式会社 Mobile imaging device
KR101149329B1 (en) * 2010-06-30 2012-05-23 아주대학교산학협력단 Active object tracking device by using monitor camera and method
JP2013045152A (en) * 2011-08-22 2013-03-04 Dainippon Printing Co Ltd Dynamic body tracker
CN102866712B (en) * 2012-09-07 2015-11-18 杭州天视智能系统有限公司 A kind of method and system realizing The Cloud Terrace automatic cruising
CN103679687A (en) 2012-09-18 2014-03-26 杭州海康威视数字技术股份有限公司 Target tracking method of intelligent tracking high-speed dome camera
JP2013009435A (en) * 2012-10-05 2013-01-10 Casio Comput Co Ltd Imaging apparatus, object tracking zooming method and object tracking zooming program
JP2014135683A (en) * 2013-01-11 2014-07-24 Sumitomo Electric Ind Ltd Imaging control apparatus, imaging control method, and imaging control program
JP6413530B2 (en) * 2014-09-12 2018-10-31 沖電気工業株式会社 Surveillance system, video analysis apparatus, video analysis method and program
JP6639151B2 (en) * 2015-08-24 2020-02-05 キヤノン株式会社 Imaging control device, imaging device, and imaging control program
JPWO2017119034A1 (en) * 2016-01-06 2018-11-22 ソニー株式会社 Imaging system, imaging method and program
JP7183920B2 (en) * 2019-04-01 2022-12-06 株式会社Jvcケンウッド Auto-tracking camera control device, auto-tracking camera, control method for auto-tracking camera

Also Published As

Publication number Publication date
JP2001285850A (en) 2001-10-12

Similar Documents

Publication Publication Date Title
JP3440916B2 (en) Automatic tracking device, automatic tracking method, and recording medium recording automatic tracking program
JP4915655B2 (en) Automatic tracking device
EP3304492B1 (en) Modelling a three-dimensional space
JP4575829B2 (en) Display screen position analysis device and display screen position analysis program
JP4241742B2 (en) Automatic tracking device and automatic tracking method
US9396399B1 (en) Unusual event detection in wide-angle video (based on moving object trajectories)
JP4715909B2 (en) Image processing apparatus and method, image processing system, and image processing program
US10218899B2 (en) Control method in image capture system, control apparatus and a non-transitory computer-readable storage medium
KR101071352B1 (en) Apparatus and method for tracking object based on PTZ camera using coordinate map
JP2023518562A (en) Method and system for hand-gesture-based control of devices
JPH07168932A (en) Method for search of human being in video image
US20050052533A1 (en) Object tracking method and object tracking apparatus
WO2013121215A1 (en) Video tracking apparatus and method
EP3629570A2 (en) Image capturing apparatus and image recording method
KR102295183B1 (en) object tracking method for CCTV video by use of CCTV projection model
JP2002374521A (en) Method and device for monitoring mobile object
JP4699056B2 (en) Automatic tracking device and automatic tracking method
JP2006311099A (en) Device and method for automatic tracking
JP4572190B2 (en) Object detection device
JP3828096B2 (en) Object tracking device
KR101210866B1 (en) An object tracking system based on a PTZ(Pan-Tilt-Zoom) camera using Mean-shift algorithm
JP4597543B2 (en) Automatic tracking device and automatic tracking method
KR101070448B1 (en) The method for tracking object and the apparatus thereof
JP2007087049A (en) Dynamic image processor
JP2021022783A (en) Control device, tracking system, control method, and program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030520

R150 Certificate of patent or registration of utility model

Ref document number: 3440916

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080620

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090620

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100620

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100620

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130620

Year of fee payment: 10

EXPY Cancellation because of completion of term