JP2001285850A - Device and method for automatic following, and recording medium for recording automatic following program - Google Patents

Device and method for automatic following, and recording medium for recording automatic following program

Info

Publication number
JP2001285850A
JP2001285850A JP2000095564A JP2000095564A JP2001285850A JP 2001285850 A JP2001285850 A JP 2001285850A JP 2000095564 A JP2000095564 A JP 2000095564A JP 2000095564 A JP2000095564 A JP 2000095564A JP 2001285850 A JP2001285850 A JP 2001285850A
Authority
JP
Japan
Prior art keywords
tracking
moving
pan
image
tilt angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000095564A
Other languages
Japanese (ja)
Other versions
JP3440916B2 (en
Inventor
Yusuke Takahashi
祐介 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2000095564A priority Critical patent/JP3440916B2/en
Publication of JP2001285850A publication Critical patent/JP2001285850A/en
Application granted granted Critical
Publication of JP3440916B2 publication Critical patent/JP3440916B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an automatic following device which is capable of zooming up even to a moving object and following it efficiently. SOLUTION: The device is provided with a picture input means, a turning means for turning the picture input means in a bi-axial direction, a following object extracting means for extracting an object to be the object of following from a picture, a position storing means for transforming the positions of the following points of the object at different times to positions on absolute coordinates by using the pan tilt angle of the turning means and the zooming power of the picture input means to store them time serially and retransforming the stored position of the following points to camera coordinates, a position estimating means for estimating the moving position of the object, a velocity calculating means for calculating the moving velocity of the object, a turning control means for controlling the pan tilt angle from the estimated moving position and the moving velocity, an object moving area calculating means for calculating the area of a space to be swept on the camera coordinates by moving of the following object, and a zooming control means for controlling the zoom power of the picture from the moving space area of the following object.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、監視カメラ等から
入力された画像中の物体を旋回機能を備えた撮像装置に
より追尾を行う自動追尾技術に係わり、特に物体の動き
に頑強な自動追尾装置、自動追尾方法及び自動追尾プロ
グラムを記録した記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic tracking technique for tracking an object in an image input from a surveillance camera or the like by an imaging device having a turning function, and more particularly to an automatic tracking device that is robust to the movement of an object. , An automatic tracking method, and a recording medium on which an automatic tracking program is recorded.

【0002】[0002]

【従来の技術】従来、この種の自動追尾システムは、旋
回装置に設置された監視カメラ等で撮影された画像から
目的とする物体を抽出し、抽出した物体を常に画像内に
収まるように旋回装置のパン・チルト角を制御すること
で追尾を行っている。従来の自動追尾システムの一例
が、特開平10−210343号公報に記載されてい
る。この公報に記載された自動追尾システムは、撮像装
置の出力画像から追尾対象となる物体を抽出し、その物
体の画像中心からの位置ずれ量をパン・チルト旋回装置
の角速度指令に変換し、抽出した物体の画像上のサイズ
と設定された目標サイズとの大きさのずれをズーム操作
指令に変換する手段で構成される。
2. Description of the Related Art Conventionally, an automatic tracking system of this kind extracts a target object from an image taken by a monitoring camera or the like installed in a turning device, and turns the extracted object so as to always fit in the image. Tracking is performed by controlling the pan / tilt angle of the device. An example of a conventional automatic tracking system is described in Japanese Patent Application Laid-Open No. H10-210343. The automatic tracking system described in this publication extracts an object to be tracked from an output image of an imaging device, converts the displacement of the object from the image center into an angular velocity command of a pan / tilt rotation device, and extracts the object. Means for converting a size difference between the size of the object on the image and the set target size into a zoom operation command.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
技術による追尾装置は、パン・チルト旋回での追尾にお
いて、物体の画面上の位置情報のみ用いた制御を行って
いるため、移動物体の追尾を精度良く行えないという問
題がある。例えば図11に示すように、物体が画面端に
位置して画面中央に向かっている場合を考える。画面の
端にいる物体を画面中央に捉えるようにカメラのパンを
操作するように制御パラメータを設定している状態にお
いて、図12に示すように物体が画面端に位置し、画面
から外れる向きに移動している場合、図11の場合と同
様の制御を行行おうとすると、物体を画面の中央に捉え
ることができず、物体の動きが大きい場合には画角から
外れてしまうこともある。すなわち、物体を画面上の位
置のみで追尾を行う方法では、物体の移動の大きさや向
きによっては安定した追尾が行えないという問題があ
る。
However, the tracking device according to the prior art performs control using only the position information on the screen of the object in the tracking in the pan / tilt rotation, so that the tracking of the moving object is performed. There is a problem that it cannot be performed with high accuracy. For example, as shown in FIG. 11, consider a case where an object is located at the edge of the screen and is facing the center of the screen. In the state where the control parameters are set so that the camera pan is operated so that the object at the edge of the screen is captured in the center of the screen, the object is located at the edge of the screen as shown in FIG. When moving, when performing the same control as in the case of FIG. 11, the object cannot be captured in the center of the screen, and when the movement of the object is large, the object may deviate from the angle of view. That is, in the method of tracking an object only at the position on the screen, there is a problem that stable tracking cannot be performed depending on the size and direction of movement of the object.

【0004】また、物体の画像上での大きさを一定にす
るようなズームの制御方法では、停止している物体と動
きのある物体のズーム制御量は同一となるが、図13に
示すように動きのある物体はズームアップするほど画像
上での見かけの移動量が大きくなるため、移動速度が大
きい物体に関しては画角から外れやすくなり、ズーム制
御を用いた際においても移動物体の追尾が安定に行えな
いという問題がある。
In a zoom control method in which the size of an object on an image is kept constant, the zoom control amounts of a stopped object and a moving object are the same, as shown in FIG. Since the apparent amount of movement on the image increases as the object zooms in, the object that moves at a high speed tends to deviate from the angle of view, and the tracking of the moving object is difficult even when using zoom control. There is a problem that it cannot be performed stably.

【0005】本発明は、このような事情に鑑みてなされ
たもので、動きのある物体でも、追尾の安定度を損なう
ことなくズーム・アップを行うことができ、さらに精度
良く追尾できる自動追尾装置、自動追尾方法及び自動追
尾プログラムを記録した記録媒体を提供することを目的
とする。
The present invention has been made in view of such circumstances, and enables an automatic tracking apparatus that can perform zoom-up even for a moving object without deteriorating the stability of tracking, and that can track with high accuracy. It is an object of the present invention to provide a recording medium recording an automatic tracking method and an automatic tracking program.

【0006】[0006]

【課題を解決するための手段】請求項1に記載の発明
は、撮像した画像を用いて物体の追尾を行う自動追尾装
置であって、前記自動追尾装置は、物体の追尾を行う必
要がある領域の画像を取得するカメラを備えた画像入力
手段と、入力されたパン・チルト角制御量に基づいて前
記画像入力手段を2軸方向に旋回する旋回手段と、前記
画像入力手段によって取得した画像から追尾の対象とな
る物体を抽出する追尾物体抽出手段と、異なる時刻での
追尾対象の物体の追尾点の位置を、前記旋回手段のパン
・チルト角を用いて絶対座標上の位置に変換して時系列
に記憶し、記憶されている複数の追尾点の位置をカメラ
座標に再度変換して出力する位置記憶手段と、過去の物
体の追尾点の位置から物体の移動位置を推定する位置推
定手段と、過去の物体の追尾点の位置から物体の移動速
度を算出する速度算出手段と、前記推定移動位置と前記
移動速度に基づいて前記旋回手段のパン・チルト角を制
御する旋回制御手段とを備えたことを特徴とする。
According to the present invention, there is provided an automatic tracking apparatus for tracking an object using a captured image, wherein the automatic tracking apparatus needs to track the object. Image input means having a camera for obtaining an image of an area, turning means for turning the image input means in two axial directions based on the input pan / tilt angle control amount, and image obtained by the image input means A tracking object extracting means for extracting an object to be tracked from, and converting a position of a tracking point of the tracking target object at a different time into a position on absolute coordinates using the pan / tilt angle of the turning means. Position storage means for storing a plurality of tracking points stored in chronological order, converting the stored positions of the tracking points again into camera coordinates and outputting the coordinates, and estimating the position of the object based on the positions of the tracking points of the past object. Means and things of the past Speed calculating means for calculating the moving speed of the object from the position of the tracking point, and turning control means for controlling a pan / tilt angle of the turning means based on the estimated moving position and the moving speed. And

【0007】請求項2に記載の発明は、撮像した画像を
用いて物体の追尾を行う自動追尾装置であって、前記自
動追尾装置は、物体の追尾を行う必要がある領域の画像
を取得するカメラを備えた画像入力手段と、入力された
パン・チルト角制御量に基づいて前記画像入力手段を2
軸方向に旋回する旋回手段と、前記画像入力手段によっ
て取得した画像から追尾の対象となる物体を抽出する追
尾物体抽出手段と、異なる時刻での追尾対象の物体の追
尾点の位置を、前記旋回手段のパン・チルト角及び画像
入力手段のズーム倍率を用いて絶対座標上の位置に変換
して時系列に記憶し、記憶されている複数の追尾点の位
置をカメラ座標に再度変換して出力する位置記憶手段
と、過去の物体の追尾点の位置から物体の移動位置を推
定する位置推定手段と、過去の物体の追尾点の位置から
物体の移動速度を算出する速度算出手段と、前記推定移
動位置と前記移動速度に基づいて前記旋回手段のパン・
チルト角を制御する旋回制御手段と、追尾物体の移動に
よりカメラ座標上で掃く領域の面積を算出する物体移動
領域算出手段と、前記追尾物体の移動領域面積から前記
画像入力手段のズーム倍率を制御するズーム制御手段と
を備えたことを特徴とする。
According to a second aspect of the present invention, there is provided an automatic tracking apparatus for tracking an object using a captured image, wherein the automatic tracking apparatus obtains an image of a region where the object needs to be tracked. An image input unit provided with a camera; and an image input unit based on the input pan / tilt angle control amount.
Turning means for turning in the axial direction, tracking object extracting means for extracting an object to be tracked from an image obtained by the image input means, and a position of a tracking point of the object to be tracked at a different time, Using the pan / tilt angle of the means and the zoom magnification of the image input means, convert to absolute coordinates and store them in chronological order, and convert the stored multiple tracking points to camera coordinates again for output. Position estimating means for estimating the moving position of the object from the position of the tracking point of the past object; speed calculating means for calculating the moving speed of the object from the position of the past object tracking point; Panning of the turning means based on the moving position and the moving speed
Turning control means for controlling a tilt angle, object moving area calculating means for calculating an area of an area swept on camera coordinates by movement of a tracking object, and controlling a zoom magnification of the image input means from the moving area area of the tracking object. And a zoom control unit that performs the control.

【0008】請求項3に記載の発明は、撮像した画像を
用いて物体の追尾を行う自動追尾方法であって、前記自
動追尾方法は、異なる時刻での追尾対象の物体の追尾点
の位置を、画像入力手段のパン・チルト角を用いて絶対
座標上の位置に変換して時系列に記憶し、この記憶され
ている複数の追尾点の位置をカメラ座標に再度変換して
出力し、過去の物体の追尾点の位置から物体の移動位置
の推定と物体の移動速度の算出を行い、この推定位置と
移動速度から画像入力手段のパン・チルト角を制御する
ことを特徴とする。
According to a third aspect of the present invention, there is provided an automatic tracking method for tracking an object using a captured image, wherein the automatic tracking method determines a position of a tracking point of an object to be tracked at different times. By using the pan / tilt angle of the image input means, the position is converted to a position on absolute coordinates and stored in chronological order, and the stored positions of the plurality of tracking points are converted again to camera coordinates and output. The position of the object is estimated from the position of the tracking point of the object, and the moving speed of the object is calculated, and the pan / tilt angle of the image input means is controlled from the estimated position and the moving speed.

【0009】請求項4に記載の発明は、撮像した画像を
用いて物体の追尾を行う自動追尾方法であって、前記自
動追尾方法は、異なる時刻での追尾対象の物体の追尾点
の位置を、画像入力手段のパン・チルト角およびズーム
倍率を用いて絶対座標上の位置に変換して時系列に記憶
し、この記憶されている複数の追尾点の位置をカメラ座
標に再度変換して出力し、過去の追尾物体の追尾点の位
置から物体の移動位置の推定と物体の移動速度の算出を
行い、この推定位置と移動速度から画像入力手段のパン
・チルト角を制御し、追尾物体の移動によりカメラ座標
上で掃く領域の面積を算出し、追尾物体の移動領域面積
からズーム倍率を制御することを特徴とする。
According to a fourth aspect of the present invention, there is provided an automatic tracking method for tracking an object using a captured image, wherein the automatic tracking method determines a position of a tracking point of an object to be tracked at different times. Using the pan / tilt angle and the zoom magnification of the image input means, the position is converted to a position on absolute coordinates and stored in chronological order, and the stored positions of the plurality of tracking points are again converted to camera coordinates and output. Estimating the moving position of the object and calculating the moving speed of the object from the position of the tracking point of the past tracked object, controlling the pan / tilt angle of the image input means from the estimated position and the moving speed, It is characterized in that the area of a region to be swept on the camera coordinates by movement is calculated, and the zoom magnification is controlled from the area of the moving region of the tracking object.

【0010】請求項5に記載の発明は、撮像した画像を
用いて追尾を行う自動追尾プログラムを記録したコンピ
ュータ読み取り可能な記録媒体であって、前記自動追尾
プログラムは、異なる時刻での追尾対象の物体の追尾点
の位置を、画像入力手段のパン・チルト角を用いて絶対
座標上の位置に変換して時系列に記憶し、この記憶され
ている複数の追尾点の位置をカメラ座標に再度変換して
出力し、過去の物体の追尾点の位置から物体の移動位置
の推定と物体の移動速度の算出を行い、この推定位置と
移動速度から画像入力手段のパン・チルト角を制御する
ことをコンピュータに行わせることを特徴とする。
According to a fifth aspect of the present invention, there is provided a computer-readable recording medium having recorded thereon an automatic tracking program for performing tracking by using a captured image, wherein the automatic tracking program is configured to perform tracking of tracking objects at different times. The position of the tracking point of the object is converted into a position on absolute coordinates using the pan / tilt angle of the image input means and stored in time series, and the stored positions of the plurality of tracking points are converted into camera coordinates again. Converting and outputting, estimating the moving position of the object and calculating the moving speed of the object from the position of the tracking point of the past object, and controlling the pan / tilt angle of the image input means from the estimated position and the moving speed. Is performed by a computer.

【0011】請求項6に記載の発明は、撮像した画像を
用いて追尾を行う自動追尾プログラムを記録したコンピ
ュータ読み取り可能な記録媒体であって、前記自動追尾
プログラムは、異なる時刻での追尾対象の物体の追尾点
の位置を、画像入力手段のパン・チルト角およびズーム
倍率を用いて絶対座標上の位置に変換して時系列に記憶
し、この記憶されている複数の追尾点の位置をカメラ座
標に再度変換して出力し、過去の追尾物体の追尾点の位
置から物体の移動位置の推定と物体の移動速度の算出を
行い、この推定位置と移動速度から画像入力手段のパン
・チルト角を制御し、追尾物体の移動によりカメラ座標
上で掃く領域の面積を算出し、追尾物体の移動領域面積
からズーム倍率を制御することをコンピュータに行わせ
ることを特徴とする。
According to a sixth aspect of the present invention, there is provided a computer-readable recording medium having recorded thereon an automatic tracking program for performing tracking by using a captured image, wherein the automatic tracking program is configured to perform tracking of an object to be tracked at different times. The position of the tracking point of the object is converted into a position on absolute coordinates using the pan / tilt angle and the zoom magnification of the image input means and stored in chronological order, and the stored positions of the plurality of tracking points are stored in the camera. The coordinates are again converted and output, and the moving position of the object is estimated and the moving speed of the object is calculated from the position of the tracking point of the past tracked object, and the pan / tilt angle of the image input means is calculated from the estimated position and the moving speed. Calculating the area of the area swept on the camera coordinates by the movement of the tracking object, and controlling the zoom magnification from the area of the movement area of the tracking object. .

【0012】[0012]

【発明の実施の形態】以下、本発明の一実施形態による
自動追尾装置を図面を参照して説明する。図1は第1の
実施形態の構成を示すブロック図である。この図におい
て、符号1は、CCDカメラなどによって構成される画
像入力装置であり、取り込まれる画像は動画像である。
符号3は、画像入力装置1を上下および左右の2軸で旋
回させる旋回装置である。符号4は、画像入力装置1で
取得した画像を表示する画像出力装置である。符号5
は、画像入力装置1で取得した画像から追尾対象である
物体の領域を抽出する追尾物体抽出手段である。符号7
は、追尾物体抽出手段5で抽出した追尾対象の物体領域
から追尾点の位置を算出し、さらに旋回装置3からパン
・チルト角を取得して追尾点の位置を絶対座標上の位置
に変換してから記憶し、記憶してある複数の絶対座標で
の追尾点の位置を旋回装置3から取得したパン・チルト
角を用い再度カメラ座標上での位置に変換し出力する位
置記憶手段である。符号8は、位置記憶手段7から出力
された複数の追尾点の位置から追尾点の移動速度を算出
する速度算出手段である。符号9は、位置記憶手段7か
ら出力された複数の追尾点の位置から次時刻における追
尾物体の追尾点位置を予測する位置推定手段である。符
号10は、速度算出手段8と位置推定手段9の出力であ
る追尾点位置および移動速度から旋回装置3のパン・チ
ルト制御量を決定する旋回装置制御手段10である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an automatic tracking device according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the first embodiment. In this figure, reference numeral 1 denotes an image input device constituted by a CCD camera or the like, and the captured image is a moving image.
Reference numeral 3 denotes a turning device for turning the image input device 1 in two axes, up and down and left and right. Reference numeral 4 denotes an image output device that displays an image acquired by the image input device 1. Code 5
Is a tracking object extracting unit that extracts a region of a tracking target object from an image acquired by the image input device 1. Code 7
Calculates the position of the tracking point from the object area of the tracking target extracted by the tracking object extracting means 5, further obtains the pan / tilt angle from the turning device 3, and converts the position of the tracking point into a position on absolute coordinates. This is a position storage unit that stores the tracking points at a plurality of absolute coordinates stored in the memory and converts the stored positions to the camera coordinates again using the pan / tilt angles obtained from the turning device 3 and outputs the converted positions. Reference numeral 8 denotes a speed calculating unit that calculates the moving speed of the tracking point from the positions of the plurality of tracking points output from the position storage unit 7. Reference numeral 9 denotes position estimating means for estimating the tracking point position of the tracked object at the next time from the positions of the plurality of tracking points output from the position storage means 7. Reference numeral 10 denotes a turning device control unit 10 that determines a pan / tilt control amount of the turning device 3 from the tracking point position and the moving speed output from the speed calculating unit 8 and the position estimating unit 9.

【0013】次に、図1を参照して本実施の形態の全体
の動作について詳細に説明する。まず、追尾物体抽出手
段5は、画像入力装置1で取り込まれた画像から追尾す
る対象物体の領域を抽出する。追尾物体の決定法と抽出
方法には背景差分とテンプレートマッチングを用いた既
存の方法を説明する。まず、パン・チルト旋回装置3が
停止した状態において既存の背景差分法を用い侵入物体
の検出を行う。背景差分法とは予め検出対象の物体が入
っていない画像を背景画像f(x,y)として記憶して
おき、入力画像g(x,y)と背景画像の輝度値の差分
画像h(x,y)=|g(x,y)−f(x,y)|を
求める。さらに、h(x,y)の階調値をあるしきい値
で2値化することで、背景画像に無い物体が侵入した際
の侵入物体領域を検出することができる。
Next, the overall operation of this embodiment will be described in detail with reference to FIG. First, the tracking object extracting unit 5 extracts a region of a target object to be tracked from an image captured by the image input device 1. An existing method using background difference and template matching will be described as a method for determining and extracting a tracking object. First, in a state where the pan / tilt turning device 3 is stopped, an intruding object is detected using the existing background subtraction method. In the background subtraction method, an image containing no object to be detected is stored in advance as a background image f (x, y), and a difference image h (x) between the input image g (x, y) and the luminance value of the background image is stored. , Y) = | g (x, y) −f (x, y) |. Further, by binarizing the gradation value of h (x, y) with a certain threshold value, it is possible to detect an intruding object region when an object that is not in the background image enters.

【0014】ここでは、検出された侵入物体を追尾対象
の物体とし追尾を行うことにする。この侵入物体の領域
を外接矩形でくくり、その左上座標を(x1,y1)で
右下座標を(x2,y2)で表わす。この(x1,y
1), (x2,y2)で表わされる物体領域の画像を
初期テンプレートt(x,y)として保存する。このテ
ンプレートを基にテンプレートマッチングを用いてパン
・チルト旋回によって変化する入力画像から追尾対象の
物体抽出をおこなう。
Here, tracking is performed with the detected intruding object as an object to be tracked. The area of this intruding object is circumscribed by a circumscribed rectangle, and its upper left coordinate is represented by (x1, y1) and its lower right coordinate is represented by (x2, y2). This (x1, y
1) The image of the object region represented by (x2, y2) is stored as an initial template t (x, y). Based on this template, an object to be tracked is extracted from an input image that changes due to pan / tilt turning using template matching.

【0015】テンプレートマッチングとは、入力画像g
(x,y)の中からテンプレート画像t(x,y)との
類似度が最も高い位置を探す方法である。テンプレート
マッチングの計算方法は「コンピュータ画像処理入門」
田村秀行 監修、総研出版(ISBN4−7952−6
304−3)p149に詳しい。追尾物体が移動したり
向きを変えたりすることにより画像上での大きさや物体
形状が変化するため、入力画像内の追尾物体とテンプレ
ート画像が一致せず物体抽出が困難になる恐れがある。
そのため、大きさの変化に対応するため予めテンプレー
トを拡大および縮小したサイズのテンプレートも複数用
意しておき、それらの複数のテンプレートを用いてテン
プレートマッチングを行い、類似度が最も大きくなるテ
ンプレートサイズと位置を決定する。物体の形状変化に
対応するため、入力画像で最も類似度が高いと決定され
た位置からテンプレートのサイズの画像を切り抜き新し
いテンプレートとして保存する。これにより入力画像で
大きさや形が徐々に変化する追尾物体の抽出が可能にな
る。
The template matching means that the input image g
In this method, a position having the highest similarity to the template image t (x, y) is searched from (x, y). "Introduction to Computer Image Processing" for how to calculate template matching
Supervised by Hideyuki Tamura, Soken Publishing (ISBN4-7952-6)
304-3) Details on p149. Since the size or the shape of the object on the image changes as the tracking object moves or changes its direction, the tracking object in the input image may not match the template image, which may make it difficult to extract the object.
Therefore, in order to cope with a change in size, a plurality of templates having a size obtained by enlarging and reducing the template are prepared in advance, and template matching is performed using the plurality of templates, and the template size and position at which the similarity becomes the largest are obtained. To determine. In order to cope with a change in the shape of the object, an image of the template size is cut out from a position determined to have the highest similarity in the input image and stored as a new template. This makes it possible to extract a tracking object whose size and shape gradually changes in the input image.

【0016】また、物体抽出には既存の動きベクトルを
用いてもよい。この方法では、画像内での動きをベクト
ルで表わし、類似の方向のベクトルを含むブロックにク
ラスタリングを行い、カメラが動くことで起きる背景の
大きな領域を除いた最大のブロックを移動物体の領域と
みなし移動物体として抽出する。抽出した領域の外接矩
形を求め、その左上座標(x1,y1)と右下座標(x
2,y2)で表わす。動きベクトル算出法は、「画像の
処理と認識」阿久院猛・長尾智晴 共著、昭晃堂 P.
164(ISBN4−7856−9043−7)に詳し
い。
An existing motion vector may be used for object extraction. In this method, motion in an image is represented by a vector, clustering is performed on blocks containing vectors in similar directions, and the largest block excluding a large background area caused by camera movement is regarded as a moving object area. Extract as a moving object. A circumscribed rectangle of the extracted area is obtained, and its upper left coordinates (x1, y1) and lower right coordinates (x
2, y2). The motion vector calculation method is described in "Processing and Recognition of Images" by Takeshi Akuin and Tomoharu Nagao, Shokodo P.
164 (ISBN4-7856-9043-7).

【0017】位置記憶手段7は、まず、追尾物体抽出手
段5で抽出した物体の領域を代表する点を追尾点として
抽出する。追尾点の抽出方法としては、テンプレートマ
ッチングを用いて追尾物体を抽出した際に、抽出した位
置でのテンプレート矩形の左上座標(x1,y1)と右
下座標(x2,y2)の平均をとった中心画素((x1
+x2)/2,(y1+y2)/2)を追尾点として算
出する。人物のみが追尾の対象となる用途においては、
人物領域の中心部を追尾するより、頭部を追尾した方が
都合のよい場合がある。この場合、追尾点はテンプレー
トの中心画素ではなく、テンプレート上部、例えば高さ
8割の位置((x1+x2)/2,(4×y1+y2)
/5)、を追尾点として選んでも良い。動きベクトルで
追尾物体の領域を抽出した場合では、追尾物体領域の重
心を追尾点として選んでも良いし、物体の外接矩形の中
心を選択することも可能である。
The position storage means 7 first extracts points representative of the area of the object extracted by the tracking object extraction means 5 as tracking points. As a tracking point extraction method, when a tracking object is extracted using template matching, an average of upper left coordinates (x1, y1) and lower right coordinates (x2, y2) of the template rectangle at the extracted position is taken. The center pixel ((x1
+ X2) / 2, (y1 + y2) / 2) are calculated as tracking points. In applications where only people are tracked,
In some cases, tracking the head is more convenient than tracking the center of the person area. In this case, the tracking point is not at the center pixel of the template but at the upper part of the template, for example, at a position at 80% height ((x1 + x2) / 2, (4 × y1 + y2)).
/ 5) may be selected as the tracking point. When the area of the tracking object is extracted by the motion vector, the center of gravity of the tracking object area may be selected as the tracking point, or the center of the circumscribed rectangle of the object may be selected.

【0018】次に、位置記憶手段7は、旋回装置3から
左右方向の旋回角度に相当するパン角および上下方向の
旋回角度に相当するチルト角を取得し、あらかじめ取得
してある画像入力装置1の画角(視野角)とから、抽出
した追尾点の位置をいったん絶対座標上での位置に変換
する。追尾点を絶対座標上の位置に変換するための方法
として、図3に示すように、パン・チルト角で表わされ
る極座標を絶対座標として用いる。
Next, the position storage means 7 obtains a pan angle corresponding to the horizontal turning angle and a tilt angle corresponding to the vertical turning angle from the turning device 3 and obtains the image input device 1 obtained in advance. From the angle of view (viewing angle), the position of the extracted tracking point is temporarily converted to a position on absolute coordinates. As a method for converting a tracking point into a position on absolute coordinates, polar coordinates represented by pan / tilt angles are used as absolute coordinates as shown in FIG.

【0019】ここで、カメラ画像中央(カメラ座標の原
点)の点Ocはパン・チルト角で表わすと、(1)式で
表わせる。画像上の点Pも同様に、パン・チルト角で
(2)式として表わせる。
Here, the point Oc at the center of the camera image (the origin of the camera coordinates) can be expressed by equation (1) when expressed by a pan / tilt angle. Similarly, the point P on the image can be expressed as the equation (2) by the pan / tilt angle.

【数1】 (Equation 1)

【数2】 (Equation 2)

【0020】だたし、fはレンズ系の焦点距離[mm]
であり、x,yはカメラ結像面(CCD素子面)におけ
る位置[mm]であり、結像面での位置は、カメラ撮像
素子CCDの大きさおよびピクセル数から算出する。ま
た、x,y<<fであれば、(3)式のように線形近似
で表わすことができる。
Where f is the focal length of the lens system [mm]
Where x and y are positions [mm] on the camera image plane (CCD element plane), and the position on the image plane is calculated from the size and the number of pixels of the camera image sensor CCD. If x, y << f, it can be represented by linear approximation as in equation (3).

【数3】 (Equation 3)

【0021】この変換を用いることで、図4に示すよう
に、カメラ座標上の任意の点の位置をパン・チルト角を
用いた極座標で表わすことができ、絶対座標による物体
の追尾点の位置の把握が行える。
By using this transformation, as shown in FIG. 4, the position of an arbitrary point on the camera coordinates can be represented by polar coordinates using the pan / tilt angle, and the position of the tracking point of the object in absolute coordinates Can be grasped.

【0022】次に、この絶対座標上に変換された追尾点
の位置を時系列に記憶する。記憶するメモリには制限が
あるため、N(N≧2)個の追尾点の位置のみ記憶す
る。新しい追尾点の位置を記憶するときは、一番古い追
尾点の位置を消去し、新しい追尾点の位置を追加してい
く。
Next, the positions of the tracking points converted on the absolute coordinates are stored in time series. Since there is a limit on the memory to be stored, only the positions of N (N ≧ 2) tracking points are stored. When storing the position of the new tracking point, the position of the oldest tracking point is deleted, and the position of the new tracking point is added.

【0023】最後に、図5に示すように、このメモリに
記憶させてあるN個の追尾点の位置を、旋回装置3から
のパン・チルト角に応じて、(4)式を用いて再度カメ
ラ座標上での位置に変換し出力する。つまり、記憶して
いるN個の追尾点の位置を任意のカメラ視線上で仮想的
に再現することになり、カメラ座標に変換された追尾点
の位置は、カメラ画角内に収まっている必要はない。
Finally, as shown in FIG. 5, the positions of the N tracking points stored in this memory are again determined by using the equation (4) according to the pan / tilt angle from the turning device 3. Convert to a position on camera coordinates and output. That is, the stored positions of the N tracking points are virtually reproduced on an arbitrary camera line of sight, and the positions of the tracking points converted into camera coordinates need to be within the camera view angle. There is no.

【数4】 (Equation 4)

【0024】速度算出手段8では、位置記憶手段7から
出力されたN個の追尾点位置から、移動速度Vを算出す
る。図6に示すように、移動速度Vは物体の動きがカメ
ラ座標上で直線的であると仮定すると、現在の追尾点位
置G0と1単位時間前の追尾点位置G1を用い、(5)
式で求められる。
The speed calculating means 8 calculates the moving speed V from the N tracking point positions output from the position storage means 7. As shown in FIG. 6, assuming that the movement of the object is linear on the camera coordinates, the moving speed V is calculated using the current tracking point position G0 and the tracking point position G1 one unit time ago (5).
It is obtained by the formula.

【数5】 (Equation 5)

【0025】位置推定手段9では、位置記憶手段7から
出力されたN個の追尾点位置から、次時刻の追尾点位置
Objを推定する。追尾点推定位置は過去のN個の位置
から多項式による補外や有理関数による補外を用いて行
える。これらは、「ニューメリカルレシピー・イン・シ
ー」技術評論社、William H.Press,S
aul A. Teukolsky, William
T. Vetterling, Brian P.
Flannery著、丹慶勝市・奥村晴彦・佐藤俊郎・
小林誠 訳 P.96(ISBN4−87408−56
0−1)に詳しい。N=2の場合、現在の追尾点位置を
G0、1単位時間前の追尾点位置をG1とすると(6)
式で求められる。
The position estimating means 9 estimates the tracking point position Obj at the next time from the N tracking point positions output from the position storage means 7. The tracking point estimation position can be determined from the past N positions using extrapolation using a polynomial or extrapolation using a rational function. These are described in "Numerical Recipes in Sea" Technical Review, William H.S. Press, S
aul A. Teukolsky, William
T. Vetterling, Brian P .;
By Frankery, Dankatsu Katsuichi, Haruhiko Okumura, Toshiro Sato,
Translated by Makoto Kobayashi 96 (ISBN4-87408-56
0-1). When N = 2, assuming that the current tracking point position is G0 and the tracking point position one unit time ago is G1 (6)
It is obtained by the formula.

【数6】 (Equation 6)

【0026】旋回装置制御手段10は、速度算出手段8
で算出された移動速度および位置推定手段9で推定され
た次時刻の追尾点の位置から、追尾物体(追尾点)を画
像の中央で捉えられるように適切なパン・チルト制御値
を算出する。次時刻における追尾点の推定位置と、画像
中央とのずれ(Δx,Δy)を算出し、ずれが0になる
ようにフィードバック制御を行う。パン・チルトの制御
量は図7に示すようにx座標のずれΔxからパン移動角
速度を、y座標のずれΔyからチルト移動角速度をそれ
ぞれ算出する。この時、ずれ(Δx,Δy)がパン・チ
ルトの画像上における最小移動量より小さいと、物体を
画像中央で捉えることができず、行き過ぎ(オーバーシ
ュート)を起こし、制御が不安定になる(振動してしま
う)。
The turning device control means 10 includes a speed calculation means 8
An appropriate pan / tilt control value is calculated from the moving speed calculated in step (1) and the position of the tracking point at the next time estimated by the position estimating means 9 so that the tracking object (tracking point) can be captured at the center of the image. The shift (Δx, Δy) between the estimated position of the tracking point at the next time and the center of the image is calculated, and feedback control is performed so that the shift becomes zero. For the pan / tilt control amount, as shown in FIG. 7, the pan movement angular velocity is calculated from the x coordinate deviation Δx, and the tilt movement angular velocity is calculated from the y coordinate deviation Δy. At this time, if the deviation (Δx, Δy) is smaller than the minimum movement amount of the pan / tilt on the image, the object cannot be captured at the center of the image, causing an overshoot (overshoot) and unstable control ( Vibrates).

【0027】このため、画像入力装置1の画角とパンお
よびチルトの最小制御量から、画像上における最小移動
量(Pmin,Tmin)を予めそれぞれ算出してお
き、ずれ(Δx,Δy)がパン・チルトそれぞれの最小
移動量より小さい場合は、パンまたはチルト操作を行わ
ないようにする。さらに、速度算出手段8から得られる
物体の移動速度(ベクトル)から、物体が画像中央方向
に移動している場合と、画像中央から離れていく場合と
で、パン・チルトの制御量を変更することができる。画
像中央から離れていく物体は画角から外れる恐れがある
ため、画角からはずれる前に迅速なパン・チルト制御を
行う必要がある。
For this reason, the minimum movement amount (Pmin, Tmin) on the image is calculated in advance from the angle of view of the image input device 1 and the minimum control amount of pan and tilt, and the deviation (Δx, Δy) is calculated by -If the tilt is smaller than the minimum movement amount, do not perform the pan or tilt operation. Further, based on the moving speed (vector) of the object obtained from the speed calculating means 8, the control amount of pan / tilt is changed depending on whether the object is moving toward the center of the image or away from the center of the image. be able to. Since an object moving away from the center of the image may deviate from the angle of view, it is necessary to perform quick pan / tilt control before deviating from the angle of view.

【0028】しかし、画面中央に向かってくる物体に関
しては画角から外れる危険性が少ないため、できるだけ
緩やかな制御を行う。つまり、一回のパン・チルト制御
で追尾点を画像中央に移動させる必要はなく、数回の制
御で徐々に画像中央に近づくように緩やかな制御を行え
ば良い。これにより画像内での物体の急激な移動が起こ
らず、監視者に不快感を与えない追尾画像を提供するこ
とが可能となる。
However, since there is little danger of the object coming toward the center of the screen deviating from the angle of view, the control is made as gentle as possible. That is, it is not necessary to move the tracking point to the center of the image by one pan / tilt control, and it is sufficient to perform gentle control so that the tracking point gradually approaches the center of the image by several controls. As a result, it is possible to provide a tracking image that does not cause a sudden movement of the object in the image and does not cause discomfort to the observer.

【0029】このように、異なる時刻の追尾の対象とな
る物体の複数の追尾点の位置をパン・チルト角を用いて
絶対座標上での位置に変換し記憶し、これらの追尾点の
位置を再度、現時点でのパン・チルト角からカメラ座標
上に変換することで、次時刻の追尾点の位置を推定し、
移動速度を算出することができ、これらの値を用いてパ
ン・チルト制御を行うようにしたため、物体の位置・速
度に応じて物体を見失うこと無く、スムーズに追尾を行
うことができる。
As described above, the positions of a plurality of tracking points of an object to be tracked at different times are converted into positions on absolute coordinates using pan / tilt angles and stored, and the positions of these tracking points are determined. Again, by converting the current pan / tilt angle to camera coordinates, the position of the tracking point at the next time is estimated,
The moving speed can be calculated, and the pan / tilt control is performed using these values. Therefore, tracking can be performed smoothly without losing the object according to the position and speed of the object.

【0030】次に、本発明の第2の実施の形態について
図面を参照して詳細に説明する。図2は第2の実施の形
態の構成を示すブロック図である。この図において、図
1に示す装置と同一の部分には同一の符号を付し、その
説明を省略する。符号2は、画像入力装置1に装着され
た電動ズームレンズで構成されたズーム駆動装置あり、
ズームレンズを操作することにより画像入力装置1の画
角を制御することができる。旋回装置3によって、画像
入力装置1と共に上下および左右の2軸で旋回すること
ができる。符号6は、ズーム値によりあらかじめ設定し
てある画像入力装置1の画角情報を参照する画角参照手
段である。符号11は、追尾物体抽出手段5で抽出した
物体領域の面積と速度算出手段8の出力の移動速度よ
り、単位時間に物体が移動することで掃く画面上の面積
を算出する物体移動領域算出手段である。符号12は、
物体移動領域算出手段11からズームの操作量を決定す
るズーム制御手段である。この図に示す装置が図1に示
す装置と異なる点は、画像入力装置1に装着されたズー
ム駆動装置2、画角参照手段6、物体移動領域算出手段
11、およびズーム制御手段12がさらに設けられてい
る点である。
Next, a second embodiment of the present invention will be described in detail with reference to the drawings. FIG. 2 is a block diagram showing the configuration of the second embodiment. In this figure, the same parts as those of the apparatus shown in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted. Reference numeral 2 denotes a zoom driving device including an electric zoom lens mounted on the image input device 1,
By operating the zoom lens, the angle of view of the image input device 1 can be controlled. The swivel device 3 enables the user to swing with the image input device 1 in two axes, up and down and left and right. Reference numeral 6 denotes an angle-of-view referencing unit that refers to the angle-of-view information of the image input device 1 that is set in advance by a zoom value. Reference numeral 11 denotes an object moving area calculating unit that calculates an area on a screen that is swept by moving an object in a unit time based on the area of the object region extracted by the tracking object extracting unit 5 and the moving speed output from the speed calculating unit 8. It is. Symbol 12 is
This is a zoom control unit that determines the amount of zoom operation from the object movement area calculation unit 11. The device shown in this figure is different from the device shown in FIG. 1 in that a zoom driving device 2, an angle-of-view referencing device 6, an object moving area calculating device 11, and a zoom controlling device 12 mounted on the image input device 1 are further provided. It is a point that is.

【0031】次に、図2を参照して本実施の形態の全体
の動作について詳細に説明する。まず、画角参照手段6
は、ズーム駆動装置2からズーム値を取得し、得られた
ズーム値に対応する画角情報を出力する。ズーム値とは
ズーム駆動装置2のズームレンズのフォーカス値fに相
当する値で、予めズーム値と対応する画像入力装置1の
画角の組合せをメモリ等に記憶しておく。なお、メモリ
等の制限により予め記憶させるズーム値と画角の組合せ
数には制限があるため、主要な組合せのみ記憶し、残り
は補間により近似させるようにしてもよい。
Next, the overall operation of the present embodiment will be described in detail with reference to FIG. First, the angle of view reference means 6
Acquires a zoom value from the zoom drive device 2 and outputs angle-of-view information corresponding to the obtained zoom value. The zoom value is a value corresponding to the focus value f of the zoom lens of the zoom driving device 2, and a combination of the zoom value and the corresponding angle of view of the image input device 1 is stored in a memory or the like in advance. Since the number of combinations of the zoom value and the angle of view to be stored in advance is limited due to the limitation of the memory or the like, only the main combinations may be stored, and the rest may be approximated by interpolation.

【0032】次に、位置記憶手段7は、追尾物体抽出手
段5で抽出した物体の領域を代表する点を追尾点として
抽出し、旋回装置3からパン・チルト角を取得し、画角
参照手段6から画像入力装置1の画角を取得して、抽出
した追尾点位置をいったん絶対座標での位置に変換し時
系列に記憶しておき、記憶してある複数の追尾点位置を
旋回装置3からのパン・チルト角を用いてカメラ座標で
の追尾位置に再度変換する。
Next, the position storage means 7 extracts a point representing the area of the object extracted by the tracking object extracting means 5 as a tracking point, acquires a pan / tilt angle from the turning device 3, and obtains a view angle reference means. 6, the angle of view of the image input device 1 is acquired, the extracted tracking point position is temporarily converted into a position in absolute coordinates, and stored in chronological order. Is converted again into a tracking position in camera coordinates using the pan / tilt angle from.

【0033】物体移動領域算出手段11は、図8示すよ
うに単位時間に物体の移動により物体が画面上で掃く面
積Sを算出する。物体面積を簡略化して矩形近似した場
合では、物体を幅W高さHとし、移動速度ベクトルをV
(Vx,Vy)とすると、物体移動面積Sは(7)式と
して求められる。
The object moving area calculating means 11 calculates an area S swept on the screen by the movement of the object in a unit time as shown in FIG. In the case of approximating the rectangle by simplifying the object area, the object is set to the width W and the height H, and the moving speed vector is set to V
Assuming that (Vx, Vy), the object moving area S is obtained as the equation (7).

【数7】 (Equation 7)

【0034】ズーム制御手段12は、物体移動領域算出
手段11で算出された移動領域面積を基にズーム操作を
制御する。ズーム制御方法としては、予め画像上で物体
をどの程度ズーム・インするかを決め、このときの物体
面積を設定面積S0とし登録しておき、追尾物体の移動
領域面積SがS0になるようにズームのフィードバック
制御を行う。つまり、S−S0>0の場合はズーム・ア
ウトし、S−S0<0の場合はズーム・インを行うよう
にズーム操作装置2に制御信号を送る。ただし、S≒S
0での物体領域面積Sの微少の変化により、ズーム制御
が不安定になるのを防ぐために、図9に示すように、設
定面積とのずれがあるしきい値TH以下の場合はズーム
制御を行わないようにすると、取得画像も安定し、かつ
無駄に電動ズーム装置を駆動させずにすむ。
The zoom control means 12 controls a zoom operation based on the moving area area calculated by the object moving area calculating means 11. As a zoom control method, it is determined in advance how much the object is to be zoomed in on the image, and the object area at this time is registered as a set area S0 so that the moving area area S of the tracking object becomes S0. Performs zoom feedback control. That is, when S-S0> 0, the control signal is sent to the zoom operation device 2 to perform zoom-out, and when S-S0 <0, to perform zoom-in. Where S ≒ S
In order to prevent the zoom control from becoming unstable due to a small change in the object area S at 0, as shown in FIG. 9, when the deviation from the set area is equal to or less than a threshold value TH, the zoom control is performed. If not performed, the obtained image is also stable, and the electric zoom device need not be driven unnecessarily.

【0035】さらに、追尾物体抽出手段5におけるテン
プレートマッチングで追尾対象の物体抽出を行っている
場合では、テンプレート更新速度に合わせたズームの速
度制限をするほうが良い。なぜなら、テンプレートマッ
チングにおける大きさに対する変化の許容範囲(図9に
示すZoom_Max)よりもズームの変化量が大きい
と物体を抽出することが困難になるからである。
Further, when an object to be tracked is extracted by template matching in the tracking object extracting means 5, it is better to limit the zoom speed in accordance with the template update speed. This is because it is difficult to extract an object if the amount of change in zoom is larger than the allowable range of change with respect to size in template matching (Zoom_Max shown in FIG. 9).

【0036】ズーム・インに関しては、図10に示すよ
うに画面上でズーム・イン可能エリアを予め設定してお
き、物体の追尾点(Gx,Gy)がエリア内に位置して
いるとき((8)式を満たすとき)のみズーム・イン制
御を行う。なぜなら、物体が画面中央から離れている場
合、ズーム・インを行うと追尾物体が画角から外れる恐
れがあるからである。
As for zoom-in, as shown in FIG. 10, a zoom-in area is set in advance on the screen, and when the tracking point (Gx, Gy) of the object is located in the area (( Only when the expression 8) is satisfied), zoom-in control is performed. This is because, when the object is away from the center of the screen, the zoom-in may cause the tracked object to deviate from the angle of view.

【数8】 (Equation 8)

【0037】このように、異なる時刻の追尾物体の追尾
点の位置をパン・チルト・ズーム値を用いて絶対座標上
の位置に変換し記憶し、これらの複数の追尾点の位置を
再度、パン・チルト角から現時点でのカメラ座標上に変
換することで、次時刻の追尾点の位置を推定し、移動速
度を算出し、これと物体面積から物体の移動領域の面積
を算出することができ、これらの値を用いてパン・チル
トおよびズーム制御を行うようしたため、追尾対象の物
体の位置・速度に応じたパン・チルト制御と、追尾対象
の物体の位置・速度・大きさに応じズーム率を調整する
ことで物体を見失わずにズーム・アップを行った追尾を
行うことができる。
As described above, the positions of the tracking points of the tracking object at different times are converted into the positions on the absolute coordinates by using the pan / tilt / zoom values and stored, and the positions of the plurality of tracking points are panned again. By converting the tilt angle to the current camera coordinates, the position of the tracking point at the next time can be estimated, the moving speed can be calculated, and the area of the moving area of the object can be calculated from this and the object area. Since these values are used to perform pan / tilt and zoom control, the pan / tilt control according to the position / speed of the tracking target object and the zoom ratio according to the position / speed / size of the tracking target object By adjusting, it is possible to perform tracking with zoom up without losing sight of the object.

【0038】なお、図1、2に示す構成を実現するため
のプログラムをコンピュータ読み取り可能な記録媒体に
記録して、この記録媒体に記録されたプログラムをコン
ピュータシステムに読み込ませ、実行することにより自
動追尾処理を行ってもよい。なお、ここでいう「コンピ
ュータシステム」とは、OSや周辺機器等のハードウェ
アを含むものとする。また、「コンピュータシステム」
は、WWWシステムを利用している場合であれば、ホー
ムページ提供環境(あるいは表示環境)も含むものとす
る。また、「コンピュータ読み取り可能な記録媒体」と
は、フロッピー(登録商標)ディスク、光磁気ディス
ク、ROM、CD−ROM等の可搬媒体、コンピュータ
システムに内蔵されるハードディスク等の記憶装置のこ
とをいう。さらに「コンピュータ読み取り可能な記録媒
体」とは、インターネット等のネットワークや電話回線
等の通信回線を介してプログラムが送信された場合のサ
ーバやクライアントとなるコンピュータシステム内部の
揮発性メモリ(RAM)のように、一定時間プログラム
を保持しているものも含むものとする。
A program for realizing the configuration shown in FIGS. 1 and 2 is recorded on a computer-readable recording medium, and the program recorded on this recording medium is read by a computer system and executed to automatically execute the program. Tracking processing may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices. "Computer system"
If a WWW system is used, this also includes a homepage providing environment (or display environment). The “computer-readable recording medium” means a portable medium such as a floppy (registered trademark) disk, a magneto-optical disk, a ROM, a CD-ROM, and a storage device such as a hard disk built in a computer system. . Further, the “computer-readable recording medium” refers to a volatile memory (RAM) inside a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. And those holding programs for a certain period of time.

【0039】また、上記プログラムは、このプログラム
を記憶装置等に格納したコンピュータシステムから、伝
送媒体を介して、あるいは、伝送媒体中の伝送波により
他のコンピュータシステムに伝送されてもよい。ここ
で、プログラムを伝送する「伝送媒体」は、インターネ
ット等のネットワーク(通信網)や電話回線等の通信回
線(通信線)のように情報を伝送する機能を有する媒体
のことをいう。また、上記プログラムは、前述した機能
の一部を実現するためのものであっても良い。さらに、
前述した機能をコンピュータシステムにすでに記録され
ているプログラムとの組み合わせで実現できるもの、い
わゆる差分ファイル(差分プログラム)であっても良
い。
The above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the "transmission medium" for transmitting a program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the program may be for realizing a part of the functions described above. further,
What can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

【0040】[0040]

【発明の効果】以上説明したように、この発明によれ
ば、異なる時刻での物体位置を絶対座標上の位置に変換
し保存することで、任意のカメラ視線においても追尾対
象の物体の移動速度およびその物体の予測位置を算出
し、位置・移動速度の向きに応じたパン・チルトを制御
するようにしたため、物体の位置および移動速度に応じ
て、パン・チルト追尾を行え、この結果、物体の向きの
反転などが起こった際でも見失うこと無く、スムーズで
精度良く追尾が行えるという効果が得られる。
As described above, according to the present invention, the moving speed of an object to be tracked in any camera line of sight can be obtained by converting the object position at different times into a position on absolute coordinates and storing it. And the predicted position of the object is calculated, and the pan / tilt is controlled according to the direction of the position / movement speed, so that pan / tilt tracking can be performed according to the position and movement speed of the object. Even if the reversal of the direction occurs, an effect is obtained that tracking can be performed smoothly and accurately without losing sight.

【0041】また、この発明によれば、異なる時刻での
物体位置を絶対座標上の位置に変換し保存することで、
任意のカメラ視線においても追尾対象の物体が掃く移動
領域面積に応じてズームを制御するようにしたため、物
体の移動速度に応じたズーム・アップを行った追尾がで
き、この結果、動きの大きい物体追尾では、見逃すこと
のないようズーム・アップを抑えた追尾を行い、動きの
少ない物体に関してはよりズーム・アップしての追尾を
自動的に行えという効果も得られる。
Further, according to the present invention, the object positions at different times are converted into absolute coordinate positions and stored, whereby
Since the zoom is controlled according to the area of the moving area swept by the object to be tracked even in an arbitrary camera line of sight, tracking can be performed by zooming up according to the moving speed of the object. In tracking, tracking is performed with zoom-up suppressed so as not to be overlooked, and the effect of automatically zooming-up tracking of an object with little motion can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の第1の実施の形態の構成を示すブロ
ック図である。
FIG. 1 is a block diagram showing a configuration of a first exemplary embodiment of the present invention.

【図2】 本発明の第2の実施の形態の構成を示すブロ
ック図である。
FIG. 2 is a block diagram showing a configuration of a second exemplary embodiment of the present invention.

【図3】 本発明の第1の実施の形態の動作を示す説明
図である。
FIG. 3 is an explanatory diagram showing an operation of the first exemplary embodiment of the present invention.

【図4】 本発明の第1の実施の形態の動作を示す説明
図である。
FIG. 4 is an explanatory diagram showing an operation of the first exemplary embodiment of the present invention.

【図5】 本発明の第1の実施の形態の動作を示す説明
図である。
FIG. 5 is an explanatory diagram showing an operation of the first exemplary embodiment of the present invention.

【図6】 本発明の第1の実施の形態の動作を示す説明
図である。
FIG. 6 is an explanatory diagram showing an operation of the first exemplary embodiment of the present invention.

【図7】 本発明の第1の実施の形態の動作を示す説明
図である。
FIG. 7 is an explanatory diagram showing an operation of the first exemplary embodiment of the present invention.

【図8】 本発明の第2の実施の形態の動作を示す説明
図である。
FIG. 8 is an explanatory diagram showing an operation of the second exemplary embodiment of the present invention.

【図9】 本発明の第2の実施の形態の動作を示す説明
図である。
FIG. 9 is an explanatory diagram showing the operation of the second exemplary embodiment of the present invention.

【図10】 本発明の第2の実施の形態の動作を示す説
明図である。
FIG. 10 is an explanatory diagram showing an operation of the second exemplary embodiment of the present invention.

【図11】 従来の方法による追尾動作を示す説明図で
ある。
FIG. 11 is an explanatory diagram showing a tracking operation according to a conventional method.

【図12】 従来の方法による追尾動作を示す説明図で
ある。
FIG. 12 is an explanatory diagram showing a tracking operation according to a conventional method.

【図13】 従来の方法による追尾動作を示す説明図で
ある。
FIG. 13 is an explanatory diagram showing a tracking operation according to a conventional method.

【符号の説明】[Explanation of symbols]

1・・・画像入力装置、 2・・・ズーム駆動装置、 3・・・旋回装置、 4・・・画像出力装置、 5・・・追尾物体抽出手段、 6・・・画角参照手段、 7・・・位置記憶手段、 8・・・速度算出手段、 9・・・位置推定手段、 10・・・旋回装置制御手段、 11・・・物体移動領域算出手段、 12・・・ズーム制御手段。 DESCRIPTION OF SYMBOLS 1 ... Image input device, 2 ... Zoom drive device, 3 ... Turning device, 4 ... Image output device, 5 ... Tracking object extraction means, 6 ... View angle reference means, 7 ··· Position storage means ·············································································································································································································

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 撮像した画像を用いて物体の追尾を行う
自動追尾装置であって、 前記自動追尾装置は、 物体の追尾を行う必要がある領域の画像を取得するカメ
ラを備えた画像入力手段と、 入力されたパン・チルト角制御量に基づいて前記画像入
力手段を2軸方向に旋回する旋回手段と、 前記画像入力手段によって取得した画像から追尾の対象
となる物体を抽出する追尾物体抽出手段と、 異なる時刻での追尾対象の物体の追尾点の位置を、前記
旋回手段のパン・チルト角を用いて絶対座標上の位置に
変換して時系列に記憶し、記憶されている複数の追尾点
の位置をカメラ座標に再度変換して出力する位置記憶手
段と、 過去の物体の追尾点の位置から物体の移動位置を推定す
る位置推定手段と、 過去の物体の追尾点の位置から物体の移動速度を算出す
る速度算出手段と、 前記推定移動位置と前記移動速度に基づいて前記旋回手
段のパン・チルト角を制御する旋回制御手段と、 を備えたことを特徴とする自動追尾装置。
1. An automatic tracking device that performs tracking of an object using a captured image, wherein the automatic tracking device includes a camera that acquires an image of an area where the object needs to be tracked. Turning means for turning the image input means in two axial directions based on the input pan / tilt angle control amount; and tracking object extraction for extracting an object to be tracked from an image obtained by the image input means. Means, the position of the tracking point of the object to be tracked at different times is converted to a position on absolute coordinates using the pan / tilt angle of the turning means, and stored in chronological order; Position storage means for converting the position of the tracking point into camera coordinates again for output, position estimating means for estimating the moving position of the object from the position of the past object tracking point, and object from the position of the past object tracking point Travel speed A speed calculation means for calculating, automatic tracking apparatus being characterized in that and a turning control means for controlling the pan and tilt angles of the turning unit based on the moving speed and the estimated travel position.
【請求項2】 撮像した画像を用いて物体の追尾を行う
自動追尾装置であって、 前記自動追尾装置は、 物体の追尾を行う必要がある領域の画像を取得するカメ
ラを備えた画像入力手段と、 入力されたパン・チルト角制御量に基づいて前記画像入
力手段を2軸方向に旋回する旋回手段と、 前記画像入力手段によって取得した画像から追尾の対象
となる物体を抽出する追尾物体抽出手段と、 異なる時刻での追尾対象の物体の追尾点の位置を、前記
旋回手段のパン・チルト角及び画像入力手段のズーム倍
率を用いて絶対座標上の位置に変換して時系列に記憶
し、記憶されている複数の追尾点の位置をカメラ座標に
再度変換して出力する位置記憶手段と、 過去の物体の追尾点の位置から物体の移動位置を推定す
る位置推定手段と、 過去の物体の追尾点の位置から物体の移動速度を算出す
る速度算出手段と、 前記推定移動位置と前記移動速度に基づいて前記旋回手
段のパン・チルト角を制御する旋回制御手段と、 追尾物体の移動によりカメラ座標上で掃く領域の面積を
算出する物体移動領域算出手段と、 前記追尾物体の移動領域面積から前記画像入力手段のズ
ーム倍率を制御するズーム制御手段と、 を備えたことを特徴とする自動追尾装置。
2. An automatic tracking device for tracking an object using a captured image, wherein the automatic tracking device includes a camera for acquiring an image of a region where the object needs to be tracked. Turning means for turning the image input means in two axial directions based on the input pan / tilt angle control amount; and tracking object extraction for extracting an object to be tracked from an image obtained by the image input means. Means, the position of the tracking point of the object to be tracked at different times is converted into a position on absolute coordinates using the pan / tilt angle of the turning means and the zoom magnification of the image input means, and stored in chronological order. A position storage means for converting the stored positions of the plurality of tracking points into camera coordinates again and outputting the coordinates, a position estimating means for estimating the moving position of the object from the positions of the tracking points of the past object, and a past object. Follow-up Speed calculating means for calculating a moving speed of an object from a position of a point; turning control means for controlling a pan / tilt angle of the turning means based on the estimated moving position and the moving speed; and camera coordinates by moving the tracked object. An automatic tracking device, comprising: an object moving region calculating unit that calculates an area of a region to be swept up above; and a zoom control unit that controls a zoom magnification of the image input unit based on a moving region area of the tracking object. .
【請求項3】 撮像した画像を用いて物体の追尾を行う
自動追尾方法であって、 前記自動追尾方法は、 異なる時刻での追尾対象の物体の追尾点の位置を、画像
入力手段のパン・チルト角を用いて絶対座標上の位置に
変換して時系列に記憶し、この記憶されている複数の追
尾点の位置をカメラ座標に再度変換して出力し、過去の
物体の追尾点の位置から物体の移動位置の推定と物体の
移動速度の算出を行い、この推定位置と移動速度から画
像入力手段のパン・チルト角を制御することを特徴とす
る自動追尾方法。
3. An automatic tracking method for tracking an object using a captured image, the automatic tracking method comprising: determining a position of a tracking point of an object to be tracked at different times by using a pan Using the tilt angle, the position is converted to a position on absolute coordinates and stored in chronological order.The stored positions of the plurality of tracking points are converted back to camera coordinates and output, and the positions of the tracking points of the past object are output. An automatic tracking method comprising: estimating a moving position of an object and calculating a moving speed of the object from the image data; and controlling a pan / tilt angle of the image input means based on the estimated position and the moving speed.
【請求項4】 撮像した画像を用いて物体の追尾を行う
自動追尾方法であって、 前記自動追尾方法は、 異なる時刻での追尾対象の物体の追尾点の位置を、画像
入力手段のパン・チルト角およびズーム倍率を用いて絶
対座標上の位置に変換して時系列に記憶し、この記憶さ
れている複数の追尾点の位置をカメラ座標に再度変換し
て出力し、過去の追尾物体の追尾点の位置から物体の移
動位置の推定と物体の移動速度の算出を行い、この推定
位置と移動速度から画像入力手段のパン・チルト角を制
御し、追尾物体の移動によりカメラ座標上で掃く領域の
面積を算出し、追尾物体の移動領域面積からズーム倍率
を制御することを特徴とする自動追尾方法。
4. An automatic tracking method for tracking an object using a captured image, the automatic tracking method comprising: determining a position of a tracking point of an object to be tracked at a different time by using a pan Using the tilt angle and zoom magnification, the position is converted to a position on absolute coordinates and stored in chronological order.The stored positions of the plurality of tracking points are again converted to camera coordinates and output, and the past tracking object Estimate the moving position of the object and calculate the moving speed of the object from the position of the tracking point, control the pan / tilt angle of the image input means from the estimated position and the moving speed, and sweep on the camera coordinates by moving the tracking object. An automatic tracking method comprising calculating an area of a region, and controlling a zoom magnification based on a moving region area of a tracking object.
【請求項5】 撮像した画像を用いて追尾を行う自動追
尾プログラムを記録したコンピュータ読み取り可能な記
録媒体であって、 前記自動追尾プログラムは、 異なる時刻での追尾対象の物体の追尾点の位置を、画像
入力手段のパン・チルト角を用いて絶対座標上の位置に
変換して時系列に記憶し、この記憶されている複数の追
尾点の位置をカメラ座標に再度変換して出力し、過去の
物体の追尾点の位置から物体の移動位置の推定と物体の
移動速度の算出を行い、この推定位置と移動速度から画
像入力手段のパン・チルト角を制御することをコンピュ
ータに行わせることを特徴とする自動追尾プログラムを
記録した記録媒体。
5. A computer-readable recording medium recording an automatic tracking program for performing tracking using a captured image, wherein the automatic tracking program determines a position of a tracking point of an object to be tracked at different times. By using the pan / tilt angle of the image input means, the position is converted to a position on absolute coordinates and stored in chronological order, and the stored positions of the plurality of tracking points are converted again to camera coordinates and output. Estimating the moving position of the object from the position of the tracking point of the object and calculating the moving speed of the object, and causing the computer to control the pan / tilt angle of the image input means from the estimated position and the moving speed. A recording medium on which a featured automatic tracking program is recorded.
【請求項6】 撮像した画像を用いて追尾を行う自動追
尾プログラムを記録したコンピュータ読み取り可能な記
録媒体であって、 前記自動追尾プログラムは、 異なる時刻での追尾対象の物体の追尾点の位置を、画像
入力手段のパン・チルト角およびズーム倍率を用いて絶
対座標上の位置に変換して時系列に記憶し、この記憶さ
れている複数の追尾点の位置をカメラ座標に再度変換し
て出力し、過去の追尾物体の追尾点の位置から物体の移
動位置の推定と物体の移動速度の算出を行い、この推定
位置と移動速度から画像入力手段のパン・チルト角を制
御し、追尾物体の移動によりカメラ座標上で掃く領域の
面積を算出し、追尾物体の移動領域面積からズーム倍率
を制御することをコンピュータに行わせることを特徴と
する自動追尾プログラムを記録した記録媒体。
6. A computer-readable recording medium recording an automatic tracking program for performing tracking using a captured image, wherein the automatic tracking program determines a position of a tracking point of an object to be tracked at different times. Using the pan / tilt angle and the zoom magnification of the image input means, the position is converted to a position on absolute coordinates and stored in chronological order, and the stored positions of the plurality of tracking points are again converted to camera coordinates and output. Estimating the moving position of the object and calculating the moving speed of the object from the position of the tracking point of the past tracked object, controlling the pan / tilt angle of the image input means from the estimated position and the moving speed, An automatic tracking program characterized by calculating the area of the area swept on the camera coordinates by movement and causing the computer to control the zoom magnification from the area of the movement area of the tracking object. Recording the recording medium.
JP2000095564A 2000-03-30 2000-03-30 Automatic tracking device, automatic tracking method, and recording medium recording automatic tracking program Expired - Lifetime JP3440916B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000095564A JP3440916B2 (en) 2000-03-30 2000-03-30 Automatic tracking device, automatic tracking method, and recording medium recording automatic tracking program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000095564A JP3440916B2 (en) 2000-03-30 2000-03-30 Automatic tracking device, automatic tracking method, and recording medium recording automatic tracking program

Publications (2)

Publication Number Publication Date
JP2001285850A true JP2001285850A (en) 2001-10-12
JP3440916B2 JP3440916B2 (en) 2003-08-25

Family

ID=18610454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000095564A Expired - Lifetime JP3440916B2 (en) 2000-03-30 2000-03-30 Automatic tracking device, automatic tracking method, and recording medium recording automatic tracking program

Country Status (1)

Country Link
JP (1) JP3440916B2 (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2368741A (en) * 2000-10-26 2002-05-08 Fuji Photo Optical Co Ltd A following device for a camera pan head
JP2006195341A (en) * 2005-01-17 2006-07-27 Fujinon Corp Autofocus system
JP2006262359A (en) * 2005-03-18 2006-09-28 Matsushita Electric Works Ltd Image sensor unit
JP2007142866A (en) * 2005-11-18 2007-06-07 Fujifilm Corp Imaging apparatus
WO2007088856A1 (en) * 2006-01-31 2007-08-09 Matsushita Electric Industrial Co., Ltd. Automatic tracking device and automatic tracking method
JP2007272734A (en) * 2006-03-31 2007-10-18 Sony Corp Image processing apparatus and method, program, and recording medium
JP2007295175A (en) * 2006-04-24 2007-11-08 Canon Inc Imaging system, method for controlling photographing direction, and program
WO2008108088A1 (en) 2007-03-05 2008-09-12 Panasonic Corporation Automatic tracking device and automatic tracking method
US7432984B2 (en) 2004-01-08 2008-10-07 Samsung Electronics Co., Ltd. Automatic zoom apparatus and method for playing dynamic images
WO2010064445A1 (en) * 2008-12-05 2010-06-10 パナソニック株式会社 Camera device with rotation table
JP2010136095A (en) * 2008-12-04 2010-06-17 Canon Inc Track imaging device, track imaging method, and computer program
JP2011077617A (en) * 2009-09-29 2011-04-14 Saxa Inc Moving body imaging apparatus
JP2012016003A (en) * 2010-06-30 2012-01-19 Ajou Univ Industry Cooperation Foundation Active object tracking device and method using monitoring camera
CN102866712A (en) * 2012-09-07 2013-01-09 安科智慧城市技术(中国)有限公司 Method and system for realizing automatic cruise of pan-tilts
JP2013009435A (en) * 2012-10-05 2013-01-10 Casio Comput Co Ltd Imaging apparatus, object tracking zooming method and object tracking zooming program
JP2013045152A (en) * 2011-08-22 2013-03-04 Dainippon Printing Co Ltd Dynamic body tracker
JP2014135683A (en) * 2013-01-11 2014-07-24 Sumitomo Electric Ind Ltd Imaging control apparatus, imaging control method, and imaging control program
JP2016059014A (en) * 2014-09-12 2016-04-21 沖電気工業株式会社 Monitoring system, video analyzer, video analyzing method, and program
EP2899691A4 (en) * 2012-09-18 2016-06-15 Hangzhou Hikvision Digital Tec Target tracking method and system for intelligent tracking high speed dome camera
JP2017046029A (en) * 2015-08-24 2017-03-02 キヤノン株式会社 Imaging control apparatus, imaging apparatus, and imaging control program
US9876993B2 (en) 2002-11-27 2018-01-23 Bosch Security Systems, Inc. Video tracking system and method
JPWO2017119034A1 (en) * 2016-01-06 2018-11-22 ソニー株式会社 Imaging system, imaging method and program
JP2020170892A (en) * 2019-04-01 2020-10-15 株式会社Jvcケンウッド Controller for automatic tracking camera, automatic tracking camera, and control method therefor

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2368741B (en) * 2000-10-26 2004-12-15 Fuji Photo Optical Co Ltd Following device
US7256817B2 (en) 2000-10-26 2007-08-14 Fujinon Corporation Following device
GB2368741A (en) * 2000-10-26 2002-05-08 Fuji Photo Optical Co Ltd A following device for a camera pan head
US9876993B2 (en) 2002-11-27 2018-01-23 Bosch Security Systems, Inc. Video tracking system and method
US7432984B2 (en) 2004-01-08 2008-10-07 Samsung Electronics Co., Ltd. Automatic zoom apparatus and method for playing dynamic images
JP2006195341A (en) * 2005-01-17 2006-07-27 Fujinon Corp Autofocus system
JP4568916B2 (en) * 2005-01-17 2010-10-27 富士フイルム株式会社 Auto focus system
JP4525402B2 (en) * 2005-03-18 2010-08-18 パナソニック電工株式会社 Image sensor device
JP2006262359A (en) * 2005-03-18 2006-09-28 Matsushita Electric Works Ltd Image sensor unit
JP2007142866A (en) * 2005-11-18 2007-06-07 Fujifilm Corp Imaging apparatus
US7868917B2 (en) 2005-11-18 2011-01-11 Fujifilm Corporation Imaging device with moving object prediction notification
JP4572815B2 (en) * 2005-11-18 2010-11-04 富士フイルム株式会社 Imaging apparatus and imaging method
WO2007088856A1 (en) * 2006-01-31 2007-08-09 Matsushita Electric Industrial Co., Ltd. Automatic tracking device and automatic tracking method
US8170277B2 (en) 2006-01-31 2012-05-01 Panasonic Corporation Automatic tracking apparatus and automatic tracking method
JP2007272734A (en) * 2006-03-31 2007-10-18 Sony Corp Image processing apparatus and method, program, and recording medium
JP2007295175A (en) * 2006-04-24 2007-11-08 Canon Inc Imaging system, method for controlling photographing direction, and program
JP2008219467A (en) * 2007-03-05 2008-09-18 Matsushita Electric Ind Co Ltd Automatic tracking device and automatic tracking method
WO2008108088A1 (en) 2007-03-05 2008-09-12 Panasonic Corporation Automatic tracking device and automatic tracking method
JP4697810B2 (en) * 2007-03-05 2011-06-08 パナソニック株式会社 Automatic tracking device and automatic tracking method
JP2010136095A (en) * 2008-12-04 2010-06-17 Canon Inc Track imaging device, track imaging method, and computer program
WO2010064445A1 (en) * 2008-12-05 2010-06-10 パナソニック株式会社 Camera device with rotation table
JP2011077617A (en) * 2009-09-29 2011-04-14 Saxa Inc Moving body imaging apparatus
JP2012016003A (en) * 2010-06-30 2012-01-19 Ajou Univ Industry Cooperation Foundation Active object tracking device and method using monitoring camera
JP2013045152A (en) * 2011-08-22 2013-03-04 Dainippon Printing Co Ltd Dynamic body tracker
CN102866712B (en) * 2012-09-07 2015-11-18 杭州天视智能系统有限公司 A kind of method and system realizing The Cloud Terrace automatic cruising
CN102866712A (en) * 2012-09-07 2013-01-09 安科智慧城市技术(中国)有限公司 Method and system for realizing automatic cruise of pan-tilts
US9955074B2 (en) 2012-09-18 2018-04-24 Hangzhou Hikvision Digital Technology Co., Ltd. Target tracking method and system for intelligent tracking high speed dome camera
EP2899691A4 (en) * 2012-09-18 2016-06-15 Hangzhou Hikvision Digital Tec Target tracking method and system for intelligent tracking high speed dome camera
JP2013009435A (en) * 2012-10-05 2013-01-10 Casio Comput Co Ltd Imaging apparatus, object tracking zooming method and object tracking zooming program
JP2014135683A (en) * 2013-01-11 2014-07-24 Sumitomo Electric Ind Ltd Imaging control apparatus, imaging control method, and imaging control program
JP2016059014A (en) * 2014-09-12 2016-04-21 沖電気工業株式会社 Monitoring system, video analyzer, video analyzing method, and program
JP2017046029A (en) * 2015-08-24 2017-03-02 キヤノン株式会社 Imaging control apparatus, imaging apparatus, and imaging control program
JPWO2017119034A1 (en) * 2016-01-06 2018-11-22 ソニー株式会社 Imaging system, imaging method and program
US11245859B2 (en) 2016-01-06 2022-02-08 Sony Corporation Shooting system, shooting method, and program
JP2020170892A (en) * 2019-04-01 2020-10-15 株式会社Jvcケンウッド Controller for automatic tracking camera, automatic tracking camera, and control method therefor
JP7183920B2 (en) 2019-04-01 2022-12-06 株式会社Jvcケンウッド Auto-tracking camera control device, auto-tracking camera, control method for auto-tracking camera

Also Published As

Publication number Publication date
JP3440916B2 (en) 2003-08-25

Similar Documents

Publication Publication Date Title
JP3440916B2 (en) Automatic tracking device, automatic tracking method, and recording medium recording automatic tracking program
US9886770B2 (en) Image processing device and method, image processing system, and image processing program
US10460463B2 (en) Modelling a three-dimensional space
JP5454570B2 (en) Tracking target determination device, tracking target determination method, and tracking target determination program
JP4575829B2 (en) Display screen position analysis device and display screen position analysis program
KR101964861B1 (en) Cameara apparatus and method for tracking object of the camera apparatus
JP6184271B2 (en) Imaging management apparatus, imaging management system control method, and program
WO2021218282A1 (en) Scene depth prediction method and apparatus, camera motion prediction method and apparatus, device, medium, and program
JP2008113071A (en) Automatic tracking device
JP2008283680A (en) Supporting continuous pan rotation in pan-tilt camera
US20050052533A1 (en) Object tracking method and object tracking apparatus
WO2013121215A1 (en) Video tracking apparatus and method
EP3629570A2 (en) Image capturing apparatus and image recording method
KR102295183B1 (en) object tracking method for CCTV video by use of CCTV projection model
JP2006092450A (en) Image processor and image processing method
JP2002374521A (en) Method and device for monitoring mobile object
JP2006311099A (en) Device and method for automatic tracking
CN117014716A (en) Target tracking method and electronic equipment
KR20210050997A (en) Method and apparatus for estimating pose, computer-readable storage medium and computer program for controlling the holder device
JP3828096B2 (en) Object tracking device
JPH11331828A (en) Automatic tracking device
JP4743601B2 (en) Moving image processing device
KR101210866B1 (en) An object tracking system based on a PTZ(Pan-Tilt-Zoom) camera using Mean-shift algorithm
KR20210051002A (en) Method and apparatus for estimating pose, computer-readable storage medium and computer program for controlling the holder device
JP7207976B2 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030520

R150 Certificate of patent or registration of utility model

Ref document number: 3440916

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080620

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090620

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100620

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100620

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130620

Year of fee payment: 10

EXPY Cancellation because of completion of term