JP2002247440A - Automatic tracking device - Google Patents

Automatic tracking device

Info

Publication number
JP2002247440A
JP2002247440A JP2001035681A JP2001035681A JP2002247440A JP 2002247440 A JP2002247440 A JP 2002247440A JP 2001035681 A JP2001035681 A JP 2001035681A JP 2001035681 A JP2001035681 A JP 2001035681A JP 2002247440 A JP2002247440 A JP 2002247440A
Authority
JP
Japan
Prior art keywords
image
camera
moving object
pan
tilt
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001035681A
Other languages
Japanese (ja)
Other versions
JP4403483B2 (en
Inventor
Kunio Tanida
邦男 谷田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujinon Corp
Original Assignee
Fuji Photo Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Optical Co Ltd filed Critical Fuji Photo Optical Co Ltd
Priority to JP2001035681A priority Critical patent/JP4403483B2/en
Publication of JP2002247440A publication Critical patent/JP2002247440A/en
Application granted granted Critical
Publication of JP4403483B2 publication Critical patent/JP4403483B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an automatic tracking device that generates and registers trace data storing a series of operations such as panning, tilt, zoom and focus of a television camera, controls the panning position on the basis of gravity center coordinates of a mobile object to be traced, and controls the tilt, zooming and focal position on the basis of the trace data so as to automatically trace the moving object while providing an easy to see video image. SOLUTION: An image processing unit 14 detects coordinates of the gravity center of the moving object from an image photographed by the television camera. A universal head controller 12 controls a panning position by a universal head 10 so that the coordinates of the gravity center in the panning direction comes in the middle of an image and controls the position by the tilt, zoom and focus so that the position comes to a position associated with the panning position according to the trace data generated in advance.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は自動追尾装置に係
り、特にカメラをパン、チルト等させて移動物体を自動
追尾する自動追尾装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic tracking device, and more particularly to an automatic tracking device for automatically tracking a moving object by panning or tilting a camera.

【0002】[0002]

【従来の技術】自動追尾装置は、テレビカメラを雲台に
搭載し、雲台をモータ駆動によりパン/チルト動作させ
ることでカメラをパン、チルトさせて、移動する被写体
(移動物体)を自動で追尾できるようにした装置であ
る。自動追尾の方法として特開昭59−208983号
公報に記載のものが一般的に知られている。この方法に
よれば、カメラから出力される映像信号から所定時間間
隔の2フレーム分(2画面分)の画像を取り込み、それ
らの画像の比較によって移動物体の画像を抽出する。そ
して、その抽出した移動物体の画像の重心位置から移動
物体の移動量及び移動方向を検出し、これに基づいて雲
台(カメラ)のパン、チルトの位置を自動で制御し、移
動物体の重心が常に画面中央(撮影範囲の中央)となる
ようにしている。尚、このような自動追尾装置の機能
(自動追尾機能)は、雲台(雲台システム)の1つの制
御機能(自動追尾機能)として組み込むことができる。
2. Description of the Related Art An automatic tracking device mounts a television camera on a camera platform and pans / tilts the camera by driving the camera platform with a motor to automatically pan and tilt a moving object (moving object). This is a device that enables tracking. As an automatic tracking method, a method described in JP-A-59-208983 is generally known. According to this method, images of two frames (two screens) at predetermined time intervals are captured from a video signal output from a camera, and an image of a moving object is extracted by comparing the images. Then, the moving amount and moving direction of the moving object are detected from the position of the center of gravity of the extracted image of the moving object, and based on this, the pan and tilt positions of the camera platform (camera) are automatically controlled, and the center of gravity of the moving object is detected. Is always at the center of the screen (the center of the shooting range). The function of the automatic tracking device (automatic tracking function) can be incorporated as one control function (automatic tracking function) of the camera platform (head system).

【0003】一方、雲台システムの制御機能として、従
来、パン、チルト、フォーカス、ズームの一連の動作を
トレースデータとして予め登録しておくと、スイッチの
ワンタッチ操作によりその動作を再現することができる
トレース機能(特許第2868087号)が知られてい
る。このようなトレース機能は、移動物体の移動の範囲
が予め決まっている場合、例えば、ニュース番組のキャ
スターがある立ち位置から別の立ち位置まで移動するこ
とが決まっている場合に便利である。
On the other hand, if a series of operations of pan, tilt, focus, and zoom are registered as trace data in advance as a control function of the camera platform system, the operation can be reproduced by one-touch operation of a switch. A trace function (Japanese Patent No. 2868087) is known. Such a trace function is useful when the range of movement of the moving object is predetermined, for example, when it is determined that the caster of the news program moves from one standing position to another standing position.

【0004】[0004]

【発明が解決しようとする課題】上述のような自動追尾
機能やトレース機能は、自動的にパン、チルト等の位置
を制御する機能といえるが、各機能は用途が異なり、そ
れぞれの利点、欠点がある。
The automatic tracking function and the tracing function as described above can be said to be functions for automatically controlling positions such as panning and tilting. However, each function has a different application, and each has advantages and disadvantages. There is.

【0005】自動追尾機能は、例えば、移動物体を検出
すると、その移動物体が画面中央となるように自動でパ
ン、チルト等の位置を制御するため、上述のようなトレ
ースデータを予め作成しておく必要がなく、また、トレ
ースデータにより規定された動作範囲に制限されないと
いう利点がある。更に、自動追尾のモードを選択してお
けば、操作者なしの撮影も可能であり、監視等の用途に
も適用できる。この一方で、移動物体が常に画面中央と
なるようにパン、チルト等が動作するため、画面の映像
が無駄に上下動するなどして映像が見づらくなる場合が
ある。
In the automatic tracking function, for example, when a moving object is detected, the position of panning, tilting, etc. is automatically controlled so that the moving object is at the center of the screen. There is an advantage that there is no necessity to perform the operation and the operation range is not limited to the operation range defined by the trace data. Furthermore, if the automatic tracking mode is selected, photographing without an operator is possible, and the present invention can be applied to uses such as monitoring. On the other hand, since panning, tilting, and the like operate such that the moving object is always at the center of the screen, the image on the screen may move up and down unnecessarily, making it difficult to see the image.

【0006】これに対してトレース機能は、パン、チル
ト等の一連の動作を予め登録しておくため、滑らかな動
作により見やすい映像で移動物体を撮影することがで
き、また、ズームやフォーカスの一連の動作の設定も可
能であるため、より精細なカメラワークの設定、実行が
可能であると共に、オートフォーカス機能のないテレビ
カメラを使用することもできる。この一方で、移動物体
の移動範囲が全く決まっていない場合には、移動物体を
追尾する目的でこの機能は使用できず、また、移動範囲
がある程度制限されている移動物体であってもその動き
が決まっていない場合、例えば、制限された移動範囲内
において移動物体がどのような位置、タイミングでどの
方向、速度で移動するかが分からないような場合にもこ
の機能は使用できない。更に、無人化による監視の用途
にもトレース機能は適さない。
On the other hand, in the trace function, a series of operations such as panning and tilting are registered in advance, so that a moving object can be photographed in an easy-to-view image by a smooth operation, and a series of zooming and focusing can be performed. Can be set, and more precise camera work can be set and executed, and a television camera without an autofocus function can be used. On the other hand, if the moving range of the moving object is not determined at all, this function cannot be used for the purpose of tracking the moving object, and even if the moving object has a limited moving range, Is not determined, for example, this function cannot be used when it is not known what position, timing, direction, and speed the moving object moves within the limited moving range. Furthermore, the trace function is not suitable for use in monitoring by unmanned operation.

【0007】本発明はこのような事情に鑑みてなされた
もので、従来の自動追尾機能とトレース機能のそれぞれ
の利点を生かし、より見やすい映像により移動物体を自
動追尾することができる自動追尾装置を提供することを
目的とする。
[0007] The present invention has been made in view of such circumstances, and an automatic tracking device that can automatically track a moving object with a more easily viewable image by making use of the respective advantages of the conventional automatic tracking function and tracing function. The purpose is to provide.

【0008】[0008]

【課題を解決するための手段】前記目的を達成するため
に、請求項1に記載の発明は、雲台により、パン、チル
ト、及び、ハイトのうち少なくともいずれか1つの移動
方向に移動可能にカメラを支持し、該カメラにより撮影
された画像から追尾すべき移動物体の位置を検出して、
該検出した位置に基づいて前記移動物体が前記カメラの
撮影範囲外とならないように前記カメラを前記移動方向
に移動させる自動追尾装置において、前記カメラの移動
可能な移動方向のうち、少なくともいずれか1つの移動
方向についての位置を主制御位置とし、前記カメラの移
動可能な移動方向のうち、前記主制御位置に係る移動方
向と異なる移動方向と、前記カメラのズームとフォーカ
スのうち、少なくともいずれか1つについての位置を副
制御位置として、前記主制御位置に対して前記副制御位
置を関連付けるトレースデータを作成するトレースデー
タ作成手段と、前記移動物体の位置が前記主制御位置に
係る移動方向について前記カメラの撮影範囲外とならな
いように前記主制御位置を制御すると共に、前記主制御
位置に対して前記トレースデータによって関連付けされ
た位置となるように前記副制御位置を制御する制御手段
と、を備えたことを特徴としている。
According to a first aspect of the present invention, there is provided a camera which can be moved in at least one of pan, tilt, and height directions by a camera platform. Supporting the camera, detecting the position of the moving object to be tracked from the image taken by the camera,
In an automatic tracking device that moves the camera in the moving direction based on the detected position so that the moving object does not fall outside the shooting range of the camera, at least one of the moving directions in which the camera can move A position in one of the two moving directions is defined as a main control position, and at least one of a moving direction different from the moving direction related to the main control position and a zoom and focus of the camera among the movable directions of the camera. Trace data creating means for creating trace data associating the sub-control position with the main control position with the position of one of the two as the sub-control position; and While controlling the main control position so as not to be outside the shooting range of the camera, the main control position with respect to the main control position Is characterized by and a control means for controlling the sub-control position so that the associated position by racing data.

【0009】また、請求項2に記載の発明は、請求項1
に記載の発明において、前記主制御位置をパンについて
の位置として、前記副制御位置をチルト、ズーム、フォ
ーカスについての位置とすることを特徴としている。
The invention described in claim 2 is the first invention.
In the invention described in (1), the main control position is a position for pan, and the sub control position is a position for tilt, zoom, and focus.

【0010】また、請求項3に記載の発明は、請求項2
に記載の発明において、前記トレースデータは、パン、
チルト、ズーム、フォーカスについての一連の動作を一
定時間間隔の各時点での各位置で記録したデータである
ことを特徴としている。
[0010] Further, the invention described in claim 3 is based on claim 2.
In the invention described in the above, the trace data is a pan,
It is characterized in that the data is a series of tilt, zoom and focus operations recorded at each position at certain time intervals.

【0011】また、請求項4に記載の発明は、請求項1
に記載の発明において、追尾すべき所望の移動物体を色
相により識別し、該識別した追尾すべき移動物体の重心
座標を検出する検出手段を備えたことを特徴としてい
る。
The invention described in claim 4 is the first invention.
In the invention described in (1), there is provided a detecting means for identifying a desired moving object to be tracked by a hue and detecting the barycentric coordinates of the identified moving object to be tracked.

【0012】本発明によれば、パン、チルト、ハイトの
うち少なくともいずれか1つのカメラの移動方向につい
ての位置を主制御位置とし、他の移動方向とカメラのズ
ームとフォーカスのうち少なくともいずれか1つについ
ての位置を副制御位置とし、主制御位置については、追
尾すべき移動物体の位置(重心座標)に基づいて制御す
る一方、副制御位置については、主制御位置に対してト
レースデータによって関連付けされた位置となるように
制御するようにしたため、トレースデータの作成内容に
よって移動物体の位置に応じた精細なカメラ制御が可能
になる。また、移動物体の主たる移動方向に対するカメ
ラの移動方向(例えば、パン方向)についての位置を主
制御位置とし、その他のカメラの移動方向(チルト方
向、ハイト方向)についての位置を副制御位置とするこ
とによって、主制御位置に対する副制御位置をトレース
データの作成によって予め決めておくことができ、自動
追尾中の映像を見やすいものとすることができる。ま
た、フォーカスを副制御位置とすることによってカメラ
にオートフォーカス機能がない場合でも移動物体の位置
に応じてフォーカス調整を自動で行なうことができ、ズ
ームを副制御位置とすることによって移動物体の位置に
応じたズーム調整も自動で行なうことができるようにな
る。
According to the present invention, the position in the movement direction of at least one of the pan, tilt and height is set as the main control position, and the other movement direction and at least one of the zoom and focus of the camera are selected. One of the positions is set as a sub control position, and the main control position is controlled based on the position of the moving object to be tracked (coordinates of the center of gravity), while the sub control position is associated with the main control position by trace data. Since the control is performed so as to be at the specified position, fine camera control according to the position of the moving object can be performed according to the content of the trace data. The position in the camera movement direction (for example, the pan direction) with respect to the main movement direction of the moving object is set as the main control position, and the positions in the other camera movement directions (tilt direction, height direction) are set as the sub control positions. Thus, the sub-control position with respect to the main control position can be determined in advance by creating the trace data, and it is possible to make it easy to see the video being automatically tracked. Also, by setting the focus to the sub-control position, the focus can be automatically adjusted according to the position of the moving object even when the camera does not have an auto-focus function, and by setting the zoom to the sub-control position, the position of the moving object can be adjusted. Can be automatically adjusted according to.

【0013】[0013]

【発明の実施の形態】以下添付図面に従って本発明に係
る自動追尾装置の好ましい実施の形態を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of an automatic tracking device according to the present invention will be described below in detail with reference to the accompanying drawings.

【0014】図1は、本発明が適用される自動追尾機能
搭載のリモコン雲台システムの全体構成図である。同図
に示すリモコン雲台システムは、リモコン雲台10(以
下、単に雲台10という)、雲台コントローラ12、及
び、画像処理装置14とから構成される。雲台10は、
テレビカメラ(以下、単にカメラという)を収容するハ
ウジング15と、ハウジング15全体を回動させてハウ
ジング15内のカメラをパンニング及びチルティングさ
せる雲台本体16とから構成される。ハウジング15の
前面には透明の保護ガラス17が設けられ、ハウジング
15内に収納されたカメラはこの保護ガラス17を介し
てハウジング15外部の映像を撮影する。
FIG. 1 is an overall configuration diagram of a remote control pan head system equipped with an automatic tracking function to which the present invention is applied. The remote control head system shown in FIG. 1 includes a remote control head 10 (hereinafter, simply referred to as a head 10), a head controller 12, and an image processing device 14. Head 10
It comprises a housing 15 for housing a television camera (hereinafter simply referred to as a camera), and a camera platform body 16 for rotating the entire housing 15 to pan and tilt the camera in the housing 15. A transparent protective glass 17 is provided on the front surface of the housing 15, and a camera housed in the housing 15 captures an image outside the housing 15 through the protective glass 17.

【0015】上記ハウジング15は、雲台本体16から
延設されたチルト軸(図示せず)に支持され、このチル
ト軸は雲台本体16に内蔵されたチルトモータによって
回転駆動される。従って、チルトモータが駆動される
と、チルト軸を介してハウジング15が回動し、これに
伴いハウジング15内のカメラがチルティングする。ま
た、雲台本体16は図示しない据付台上に固定されたパ
ン軸18によって支持され、このパン軸18を軸として
雲台本体16が内蔵のパンモータによって回転駆動され
る。従って、パンモータが駆動されると、雲台本体16
と共にハウジング15が回動し、ハウジング15内のカ
メラがパンニングする。
The housing 15 is supported by a tilt shaft (not shown) extending from the camera platform main body 16, and the tilt shaft is driven to rotate by a tilt motor built in the camera platform main body 16. Therefore, when the tilt motor is driven, the housing 15 rotates via the tilt shaft, and the camera in the housing 15 tilts accordingly. The pan head main body 16 is supported by a pan shaft 18 fixed on a mounting table (not shown), and the pan head main body 16 is driven to rotate by a built-in pan motor around the pan shaft 18. Therefore, when the pan motor is driven, the pan head body 16
At the same time, the housing 15 rotates, and the camera in the housing 15 pans.

【0016】上記雲台コントローラ12は、雲台10に
ケーブルを介して接続され(尚、専用回線、公衆回線等
の通信回線を介して接続することも可能である。)、雲
台コントローラ12に設けられている各種操作部材の操
作に基づいて制御信号を雲台10に送信し、雲台10及
び雲台10に搭載されたカメラの各種動作を制御する。
また、雲台コントローラ12は、自動追尾機能を搭載し
ており、自動追尾モードとなっている場合には、画像処
理装置14から与えられる信号に基づいて制御信号を雲
台10に送信し、雲台10のパン/チルト動作等により
移動する被写体(移動物体)をカメラで追尾する。
The camera platform controller 12 is connected to the camera platform 10 via a cable (it is also possible to connect the camera via a communication line such as a dedicated line or a public line). A control signal is transmitted to the camera platform 10 based on the operation of the various operating members provided, and various operations of the camera platform 10 and the camera mounted on the camera platform 10 are controlled.
The head controller 12 has an automatic tracking function. When the camera is in the automatic tracking mode, the head controller 12 transmits a control signal to the head 10 based on a signal given from the image processing device 14, and An object (moving object) moving by the pan / tilt operation of the table 10 is tracked by the camera.

【0017】図2は、上記リモコン雲台システムの構成
を示したブロック図である。同図に示すように雲台10
のハウジング15に収納されるカメラ40は、カメラ本
体42とカメラ本体42に装着されるレンズ装置44と
から構成される。カメラ本体42には、撮像素子や所要
の処理回路が搭載されており、レンズ装置44の光学系
を介して撮像素子に結像された画像(動画)が映像信号
(本実施の形態ではNTSC方式の映像信号)として外
部に出力される。カメラ本体42における撮影開始や終
了等の撮影動作は雲台コントローラ12から雲台10を
介して与えられる制御信号に基づいて制御される。ま
た、レンズ装置44には、モータ駆動可能なフォーカス
レンズやズームレンズ等の光学部材が搭載されており、
これらのフォーカスレンズやズームレンズが移動するこ
とによってカメラ40のフォーカスやズームが調整され
る。フォーカスやズーム等のレンズ装置44の動作は、
カメラ本体42と同様に雲台コントローラ12から与え
られる制御信号に基づいて制御される。
FIG. 2 is a block diagram showing the configuration of the remote control pan head system. As shown in FIG.
The camera 40 housed in the housing 15 is composed of a camera body 42 and a lens device 44 mounted on the camera body 42. The camera body 42 has an image sensor and necessary processing circuits mounted thereon, and an image (moving image) formed on the image sensor via the optical system of the lens device 44 is converted into a video signal (NTSC system in this embodiment). As a video signal). The shooting operation such as the start and end of shooting in the camera body 42 is controlled based on a control signal given from the camera platform controller 12 via the camera platform 10. In addition, the lens device 44 is equipped with an optical member such as a focus lens and a zoom lens that can be driven by a motor.
The focus and zoom of the camera 40 are adjusted by moving these focus lenses and zoom lenses. The operation of the lens device 44 such as focus and zoom,
Like the camera body 42, the camera is controlled based on a control signal given from the camera platform controller 12.

【0018】雲台10には、上述のようにパンモータや
チルトモータが搭載されており、雲台コントローラ12
から与えられる制御信号によってこれらのパンモータや
チルトモータが駆動されると、カメラ40がパンニング
又はチルティングし、カメラ40の撮影範囲が移動す
る。
The pan head and the tilt motor are mounted on the pan head 10 as described above.
When these pan motors and tilt motors are driven by the control signal given by the camera 40, the camera 40 pans or tilts, and the shooting range of the camera 40 moves.

【0019】同図に示すように画像処理装置14は、Y
/C分離回路46、画像メモリ50、画像処理プロセッ
サ52、CPU54等の各種信号処理回路から構成さ
れ、これらの信号処理回路は、雲台コントローラ12が
自動追尾モードとなっているときに有効に動作する。こ
の画像処理装置14には、カメラ本体42から出力され
た映像信号が入力され、自動追尾モード時においてその
映像信号はY/C分離回路46によって輝度信号(Y信
号)と色差信号に分離される。ここで分離された輝度信
号はA/Dコンバータ48によってデジタル信号(以
下、画像データという)に変換され、画像メモリ50に
入力される。一方、Y/C分離回路46から画像処理プ
ロセッサ52には、映像信号の同期信号が与えられてお
り、この同期信号に基づいて所要のタイミングで画像処
理プロセッサ52から画像メモリ50にデータ書込みの
コマンドが与えられる。これによって、画像メモリ50
には、後述のように所定時間間隔の複数フレーム分の画
像データが記憶される。尚、NTSC方式の映像信号で
はインタレース方式を採用しているため、1フレーム分
の画像は、2フィールド分の画像によって構成される
が、本明細書において1フレームの画像データという場
合には、連続して撮影される一連の画像のうち1画面を
構成する画像データを意味しており、本実施の形態で
は、1フレームの画像データは1フィールド分の画像デ
ータをいうものとする。
As shown in FIG. 1, the image processing device 14
/ C separation circuit 46, image memory 50, image processing processor 52, various signal processing circuits such as CPU 54. These signal processing circuits operate effectively when the pan head controller 12 is in the automatic tracking mode. I do. A video signal output from the camera body 42 is input to the image processing device 14, and the video signal is separated into a luminance signal (Y signal) and a color difference signal by a Y / C separation circuit 46 in the automatic tracking mode. . The separated luminance signal is converted into a digital signal (hereinafter referred to as image data) by an A / D converter 48 and input to an image memory 50. On the other hand, a synchronization signal of a video signal is given from the Y / C separation circuit 46 to the image processor 52, and a command for writing data from the image processor 52 to the image memory 50 at a required timing based on the synchronization signal. Is given. Thereby, the image memory 50
Stores image data of a plurality of frames at predetermined time intervals as described later. It should be noted that an image for one frame is composed of an image for two fields since the NTSC video signal employs an interlaced system. In the present specification, when one frame of image data is called, It means image data constituting one screen in a series of images taken continuously, and in this embodiment, one frame of image data refers to one field of image data.

【0020】以上のようにして画像メモリ50に記憶さ
れた複数フレーム分の画像データは、以下で詳説するよ
うに画像処理プロセッサ52によって読み出されて画像
処理され、また、その画像処理の結果に基づいてCPU
54によって演算処理され、移動物体をカメラ40で自
動追尾するための重心座標が算出される。尚、CPU5
4には、後述の比較枠の算出のため、各時点でのレンズ
装置44の焦点距離(画角)及び雲台10の移動スピー
ド(パンスピード及びチルトスピード)が雲台コントロ
ーラ12から与えられる。
The image data for a plurality of frames stored in the image memory 50 as described above is read out and image-processed by the image processor 52 as will be described in detail below. Based cpu
The arithmetic processing is performed by 54, and the barycentric coordinates for automatically tracking the moving object with the camera 40 are calculated. In addition, CPU5
4, the focal length (angle of view) of the lens device 44 and the moving speed (pan speed and tilt speed) of the camera platform 10 at each time are provided from the camera platform controller 12 to calculate a comparison frame to be described later.

【0021】雲台コントローラ12には、同図に示すよ
うにCPU60、メモリ62等が搭載されており、CP
U60で各種処理が実行され、メモリ62に所要のデー
タが格納されるようになっている。所定のスイッチによ
って雲台コントローラ12が自動追尾モードに設定され
た場合、雲台コントローラ12のCPU60には、上述
のように画像処理装置14で求められた移動物体の重心
座標が与えられ、CPU60は、その重心座標に基づい
て雲台10に制御信号を送信し、雲台10をパン/チル
ト動作等させて移動物体をカメラ40で追尾する。一
方、自動追尾モードに設定されていない場合には、雲台
コントローラ12に設けられている各種操作部材の操作
に基づいて雲台10に制御信号を送信し、雲台10及び
雲台10に搭載されたカメラ40の各種動作を制御す
る。
The head controller 12 has a CPU 60, a memory 62 and the like as shown in FIG.
Various processes are executed in U60, and required data is stored in the memory 62. When the pan head controller 12 is set to the automatic tracking mode by a predetermined switch, the barycenter coordinates of the moving object obtained by the image processing device 14 are given to the CPU 60 of the pan head controller 12 as described above. Then, a control signal is transmitted to the camera platform 10 based on the coordinates of the center of gravity, and the camera 40 tracks the moving object by performing pan / tilt operations and the like on the camera platform 10. On the other hand, when the automatic tracking mode is not set, a control signal is transmitted to the camera platform 10 based on the operation of various operation members provided in the camera platform controller 12, and the camera is mounted on the camera platform 10 and the camera platform 10. Various operations of the camera 40 are controlled.

【0022】以上の如く構成されたリモコン雲台システ
ムにおいて、まず、自動追尾モードに設定された場合に
画像処理装置14の画像処理プロセッサ52及びCPU
54が行なう移動物体の重心座標の検出処理について図
3のフローチャートに従って説明する。尚、以下の説明
では、主に、移動物体のパン方向(水平方向)について
の重心座標の検出処理について説明し、チルト方向につ
いてはパン方向と同様であるため説明を省略する。ただ
し、後述のように本実施の形態における自動追尾では、
パン方向についての重心座標を検出すれば、チルト方向
についての重心座標を検出することは必ずしも必要では
ない。
In the remote control head system configured as described above, first, when the automatic tracking mode is set, the image processing processor 52 and the CPU
The detection processing of the barycenter coordinate of the moving object performed by 54 will be described with reference to the flowchart of FIG. In the following description, the process of detecting the center of gravity of the moving object in the pan direction (horizontal direction) will be mainly described, and the tilt direction is the same as that in the pan direction. However, as described later, in the automatic tracking according to the present embodiment,
If the coordinates of the center of gravity in the pan direction are detected, it is not always necessary to detect the coordinates of the center of gravity in the tilt direction.

【0023】まず、画像処理プロセッサ52は、カメラ
40のカメラ本体42からY/C分離回路46、A/D
コンバータ48を介して得られる1フレーム分の画像デ
ータ(この画像を画像とする)を画像メモリ50に取
り込む(ステップS10)。
First, the image processor 52 sends the Y / C separation circuit 46 from the camera body 42 of the camera 40 to the A / D
One frame of image data (this image is defined as an image) obtained via the converter 48 is loaded into the image memory 50 (step S10).

【0024】続いて、画像処理プロセッサ52は、Y/
C分離回路46から与えられる同期信号により4フィー
ルド分の時間(1フィールド当たり1/59.94秒)
が経過したか否かを判定し(ステップS12)、4フィ
ールド分の時間が経過すると、画像と同様に1フレー
ム分の画像データ(この画像を画像とする)を画像メ
モリ50に取り込む(ステップS14)。尚、ステップ
S12において画像の取り込み後、画像の取り込む
までの時間は4フィールド分の時間でなくてもよい。
Subsequently, the image processor 52 sets the Y /
Time for 4 fields (1 / 59.94 seconds per field) by the synchronization signal given from the C separation circuit 46
Is determined (step S12), and when the time for four fields has elapsed, one frame of image data (this image is defined as an image) is fetched into the image memory 50 in the same manner as the image (step S14). ). It should be noted that the time from the capture of the image in step S12 to the capture of the image need not be the time for four fields.

【0025】以上のように2フレーム分の画像データが
画像メモリ50に記憶されると、CPU54は、現在の
カメラ40(レンズ装置44)の焦点距離(画角)と雲
台10の移動スピード(パンスピード及びチルトスピー
ド)を雲台コントローラ12から取得し、これに基づい
て画像と画像の比較範囲(比較枠)を設定し、画像
処理プロセッサ52にその比較枠を指定する(ステップ
S16)。
When the image data for two frames is stored in the image memory 50 as described above, the CPU 54 determines the current focal length (angle of view) of the camera 40 (lens device 44) and the moving speed of the camera platform 10 ( The pan speed and the tilt speed are acquired from the pan head controller 12, and based on the acquired pan and tilt, a comparison range (comparison frame) between images is set, and the comparison frame is designated to the image processor 52 (step S16).

【0026】ここで、比較枠について説明する。後述の
ように、画像処理プロセッサ52は、画像と画像と
を比較し、これらの画像データの各画素の値(以下、画
素値)の差を求めることによって差画像を生成する。差
画像を生成するのは、追尾すべき被写体となる移動物体
の画像を2つの画像、から抽出するためであるが、
この差画像によって移動物体の画像を抽出するために
は、画像の撮影範囲と画像の撮影範囲のうち同じ撮
影範囲(撮影範囲が重なる範囲)内の画像から差画像を
求める必要がある。
Here, the comparison frame will be described. As described later, the image processor 52 compares the image with the image, and generates a difference image by obtaining a difference between the values (hereinafter, pixel values) of respective pixels of the image data. The reason for generating the difference image is to extract an image of a moving object to be tracked from the two images.
In order to extract an image of a moving object from the difference image, it is necessary to obtain a difference image from images within the same shooting range (a range where the shooting ranges overlap) of the image shooting range and the image shooting range.

【0027】例えば、自動追尾処理の開始直後のように
雲台10が停止している場合には、画像と画像の撮
影範囲は等しい。図4(A)は、この場合の被写体と撮
影範囲の関係を示しており、画像の撮影範囲Lと画像
の撮影範囲L′は完全に一致する。尚、図中○で示し
た被写体は移動物体であり、△で示した被写体は静止物
体である。また、移動物体は画像の撮影時には図中A
で示す位置にあり、画像の撮影時には図中Bで示す位
置に移動したものとする。
For example, when the camera platform 10 is stopped immediately after the start of the automatic tracking process, the image and the image capturing range are equal. FIG. 4A shows the relationship between the subject and the shooting range in this case, and the shooting range L of the image and the shooting range L ′ of the image completely match. In the drawing, the subject indicated by a circle is a moving object, and the subject indicated by a triangle is a stationary object. The moving object is indicated by A in the figure when the image is captured.
It is assumed that the camera has moved to the position indicated by B in the figure at the time of capturing an image.

【0028】このとき、画像メモリ50に記憶される画
像と画像はそれぞれ図4(B)、図4(C)に示す
ような画面を構成し、これらの画像と画像のそれぞ
れの画面上において、静止物体の画像(△)は同じ座標
上に存在し、移動物体の画像(○)のみが異なる座標上
に存在することになる。
At this time, the images and the images stored in the image memory 50 form screens as shown in FIGS. 4B and 4C, respectively. The image (△) of the stationary object exists on the same coordinates, and only the image (○) of the moving object exists on different coordinates.

【0029】従って、画像と画像の全画面範囲(全
撮影範囲内)において、対応する位置(同一座標)の画
素間で画素値の差を求めれば、その差画像において静止
物体の画素値は0となり、図5に示すように移動物体の
みが抽出された差画像が得られる。尚、各画像の画面上
における各点の座標は、1画面を構成するマトリクス状
の画素の配列に従い、図6に示すように水平方向につい
ては各点の画素の列番号(画面左端の画素から順に割り
当てた1〜X(Xは水平解像度を示す画素数に対応))
で表し、垂直方向については各点の画素の行番号(画面
上端の画素から順に割り当てた1〜Y(Yは垂直解像度
を示す画素数に対応))で表す。
Accordingly, if the pixel value difference between the pixels at the corresponding positions (same coordinates) in the entire image range (within the entire photographing range) of the image and the image, the pixel value of the stationary object in the difference image is 0. As shown in FIG. 5, a difference image in which only the moving object is extracted is obtained. The coordinates of each point on the screen of each image are in accordance with the arrangement of pixels in a matrix forming one screen, and as shown in FIG. 6, the column numbers of the pixels of each point in the horizontal direction (from the leftmost pixel on the screen) 1 to X assigned in order (X corresponds to the number of pixels indicating horizontal resolution))
The vertical direction is represented by the row number of the pixel at each point (1 to Y (Y corresponds to the number of pixels indicating the vertical resolution) assigned in order from the pixel at the top of the screen).

【0030】一方、雲台10が移動しているような場合
には、画像と画像のそれぞれの撮影時では撮影範囲
が異なる。図7(A)は、この場合の被写体と撮影範囲
の関係を示しており、画像の撮影範囲Lと画像の撮
影範囲L′とは異なる。尚、図中の被写体(移動物体と
静止物体)に関しては図4(A)と同じ条件とする。こ
のとき画像メモリ50に記憶される画像と画像は、
それぞれ図7(B)、(C)に示すような画面を構成
し、これらの画像と画像のそれぞれの画面上におい
て、静止物体の画像(△)は同じ座標上には存在しなく
なる。従って、もし、上述と同じようにこれらの全画面
範囲で差画像を求めると、静止物体があたかも移動物体
であるかのような差画像が得られることになり、適切に
移動物体のみを抽出することができない。
On the other hand, when the camera platform 10 is moving, the photographing range differs between the image and the image. FIG. 7A shows the relationship between the subject and the shooting range in this case, and the shooting range L of the image is different from the shooting range L ′ of the image. Note that the same conditions as in FIG. 4A are applied to the subjects (moving objects and stationary objects) in the figure. At this time, the images stored in the image memory 50 are
Screens such as those shown in FIGS. 7B and 7C are respectively formed, and on each of these images and images, the image (△) of the stationary object does not exist on the same coordinates. Therefore, if a difference image is obtained in the entire screen range in the same manner as described above, a difference image as if the stationary object is a moving object is obtained, and only the moving object is appropriately extracted. Can not do.

【0031】そこで、画像の全画面範囲と画像の全
画面範囲のうち、撮影範囲が重なる範囲、即ち、図7
(A)において、画像の撮影範囲Lと画像の撮影範
囲L′とが重なる範囲の画像を画像と画像からそれ
ぞれ抽出し、その抽出した範囲内の画像間において対応
する位置の画素値の差を求めることによって差画像を求
めるようにする。これによって、その差画像において静
止物体の画素値は0となり、図8に示すように移動物体
のみが抽出された差画像が得られるようになる。
Therefore, of the entire screen area of the image and the entire screen area of the image, the area where the photographing area overlaps, that is, FIG.
In (A), an image in a range where an image capturing range L and an image capturing range L ′ overlap each other is extracted from the image and the image, and a difference between pixel values at a corresponding position between the images in the extracted range is determined. By doing so, a difference image is obtained. As a result, the pixel value of the stationary object in the difference image becomes 0, and a difference image in which only the moving object is extracted can be obtained as shown in FIG.

【0032】このように画像と画像とから移動物体
を抽出した差画像を得るためには、画像と画像のそ
れぞれの画面上においてその差画像を得るための比較範
囲を設定する必要があり、その比較範囲を枠で表したも
のが比較枠である。そして、比較枠は、画像の撮影範
囲Lと画像の撮影範囲L′とが重なる撮影範囲の枠と
して設定される。図4のように雲台10が停止している
場合には、画像の撮影範囲Lと画像の撮影範囲L′
とが完全に一致するため、図4(B)、(C)に示すよ
うに画像と画像のそれぞれの画面上において全画面
範囲の枠として比較枠Pが設定される。一方、図7のよ
うに雲台10が移動している場合には、画像の撮影範
囲Lと画像の撮影範囲L′とが異なるため、図7
(B)、(C)に示すように画像と画像のそれぞれ
の画面上において、画像の撮影範囲Lと画像の撮影
範囲L′が重なる範囲の枠として比較枠Pが設定され
る。
In order to obtain a difference image in which a moving object is extracted from an image and an image, it is necessary to set a comparison range for obtaining the difference image on each screen of the image and the image. The comparison range is represented by a frame as a comparison frame. Then, the comparison frame is set as a frame of a shooting range where the shooting range L of the image and the shooting range L 'of the image overlap. When the camera platform 10 is stopped as shown in FIG. 4, the image shooting range L and the image shooting range L '
4B and 4C, the comparison frame P is set as a frame of the entire screen range on each screen of the image and the image as shown in FIGS. On the other hand, when the camera platform 10 is moving as shown in FIG. 7, the photographing range L of the image is different from the photographing range L ′ of the image.
As shown in (B) and (C), on each screen of the image and the image, a comparison frame P is set as a frame of a range where the image shooting range L and the image shooting range L 'overlap.

【0033】比較枠の設定の具体的処理内容について説
明すると、上述のように画像メモリ50に画像と画像
が取り込まれると、CPU54はレンズ装置44の現
在の焦点距離と雲台10の現在の移動スピード(パンス
ピード)を雲台コントローラ12から取得する。そし
て、CPU54はレンズ装置44の焦点距離から撮影画
角(水平方向の角度範囲を示す水平画角)を求め、その
撮影画角と移動スピードとにより、画像の撮影範囲に
対して画像の撮影範囲が、水平方向に画素数にして何
画素分シフトしたかを算出する。そのシフト量shift
(単位:画素)は、雲台10の移動スピード(パンスピ
ード)をV(単位:角度/秒)、画像の解像度(水平解
像度)をR(単位:画素)、撮影画角(水平画角)を2
θ(単位:角度)、画像に対する画像の撮影時間差
(画像と画像の画像取込み時間間隔)をT(単位:
秒)とすると、 shift =(R/2θ)×V×T で表される。尚、垂直方向のシフト量shift の算出にお
いては、移動スピードVはチルトスピード、解像度Rは
垂直解像度、撮影画角Aは垂直方向の角度範囲を示す垂
直画角である。また、画像が、画像の取り込み後に
4フィールド分の時間が経過した後に取り込まれたとす
ると、撮影時間差Tは、1フィールド分の時間(1/5
9.94秒)を4倍した値である。
The specific processing for setting the comparison frame will be described. When an image and an image are loaded into the image memory 50 as described above, the CPU 54 sets the current focal length of the lens device 44 and the current movement of the camera platform 10. The speed (pan speed) is acquired from the pan head controller 12. Then, the CPU 54 obtains a shooting angle of view (horizontal angle of view indicating an angle range in the horizontal direction) from the focal length of the lens device 44, and calculates the image shooting range with respect to the image shooting range based on the shooting angle and moving speed. Is calculated by the number of pixels in the horizontal direction. Shift amount shift
(Unit: pixel) is V (unit: angle / second) for the moving speed (pan speed) of the camera platform 10, R (unit: pixel) for image resolution (horizontal resolution), and shooting angle of view (horizontal angle of view). 2
θ (unit: angle) and T (unit: image capture time difference between images)
Second), it is expressed as shift = (R / 2θ) × V × T. In calculating the vertical shift amount shift, the moving speed V is the tilt speed, the resolution R is the vertical resolution, and the shooting angle of view A is the vertical angle of view indicating the vertical angle range. If the image is captured after a lapse of four fields of time after the capture of the image, the photographing time difference T is equal to the time of one field (1/5).
(9.94 seconds).

【0034】上式によりシフト量shift を算出すると、
CPU54は、このシフト量shiftに基づいて、比較枠
を画像と画像の画面上に設定する。即ち、図9に示
すように画像の撮影範囲Lに対して画像の撮影範囲
L′が右方向に移動(雲台10が右方向に移動)した場
合には、画像の比較枠に関しては、画像の全画面範
囲のうち画面の左端側からシフト量shift の画素数分だ
け除外した範囲(図中斜線で示す範囲)の輪郭を比較枠
Pとして設定し、一方、画像の比較枠に関しては、画
像の全画面範囲のうち画面の右端側からシフト量shif
t の画素数分だけ除外した範囲(図中斜線で示す範囲)
の輪郭を比較枠Pとして設定する。図10に示すように
画像の撮影範囲Lに対して画像の撮影範囲L′が左
方向に移動(雲台10が左方向に移動)した場合には、
画像の比較枠に関しては、画像の全画面範囲のうち
画面の右端側からシフト量shift の画素数分だけ除外し
た範囲(図中斜線で示す範囲)の輪郭を比較枠Pとして
設定し、一方、画像の比較枠に関しては、画像の全
画面範囲のうち画面の左端側からシフト量shift の画素
数分だけ除外した範囲(図中斜線で示す範囲)の輪郭を
比較枠Pとして設定する。尚、雲台10が上下方向に移
動した場合も同様である。
When the shift amount shift is calculated by the above equation,
The CPU 54 sets a comparison frame on the screen of the image and the image based on the shift amount shift. That is, as shown in FIG. 9, when the photographing range L 'of the image moves rightward with respect to the photographing range L of the image (the camera platform 10 moves rightward), the comparison frame of the image Is set as a comparison frame P from the left end of the screen in the entire screen range excluding the number of pixels of the shift amount shift (the range indicated by oblique lines in the figure). Shift amount shif from the right end of the screen in the entire screen range
Excluded area for the number of pixels of t (range shaded in the figure)
Is set as the comparison frame P. As shown in FIG. 10, when the photographing range L ′ of the image moves leftward relative to the photographing range L of the image (the camera platform 10 moves leftward),
As for the comparison frame of the image, the outline of the range (shaded area in the figure) excluded from the right end of the screen by the number of pixels of the shift amount out of the entire screen range of the image is set as the comparison frame P. As for the comparison frame of the image, the outline of the range (the range shown by the diagonal lines in the figure) excluded from the left end of the screen by the number of pixels of the shift amount out of the entire screen range of the image is set as the comparison frame P. The same applies to the case where the camera platform 10 moves in the vertical direction.

【0035】図3のフローチャートに戻って説明する
と、以上のようにCPU54によって比較枠が設定さ
れ、その比較枠が画像処理プロセッサ52に指示される
と、次に画像処理プロセッサ52は、画像と画像か
らそれぞれ比較枠内の画像を抽出し、その抽出した画像
により画像と画像の差画像を求める(ステップS1
8)。即ち、画像と画像の比較枠内の画像データか
ら、対応する位置の画素(比較枠内において同一位置に
ある画素)の画素値の差を求め、その絶対値を求める
(|−|)。これによって、上述した図5、図8の
ように移動物体の画像のみが抽出され、その移動物体が
追尾すべき被写体として認識される。
Returning to the flowchart of FIG. 3, a comparison frame is set by the CPU 54 as described above, and when the comparison frame is instructed to the image processor 52, the image processor 52 , An image in the comparison frame is extracted from each of them, and a difference image between the images is obtained from the extracted image (step S1).
8). That is, the difference between the pixel values of the pixels at the corresponding positions (pixels at the same position in the comparison frame) is determined from the image data in the comparison frame between the images, and the absolute value is calculated (|-|). As a result, only the image of the moving object is extracted as shown in FIGS. 5 and 8, and the moving object is recognized as the subject to be tracked.

【0036】続いて、画像処理プロセッサ52は、ステ
ップS18で求めた差画像の各画素の画像データを2値
化する(ステップS20)。この処理により理想的には
移動物体の画像の画素値が1、それ以外で0となる。そ
して、2値化した差画像を収縮する処理を行い、細かい
ノイズを除去する(ステップS22)。尚、以下におい
て2値化し、収縮処理した差画像を単に差画像という。
Subsequently, the image processor 52 binarizes the image data of each pixel of the difference image obtained in step S18 (step S20). By this processing, the pixel value of the image of the moving object becomes 1 ideally, and 0 otherwise. Then, a process of contracting the binarized difference image is performed to remove fine noise (step S22). In the following, the difference image that has been binarized and contracted is simply referred to as a difference image.

【0037】次に、画像処理プロセッサ52は、差画像
に基づいて画素値が1である画素の総数を求め、移動物
体の画像全体の面積(以下、単に移動物体の面積とい
う)を求める(ステップS24)。図5、図8の例で
は、移動物体の移動前後の画像を示した2つの○の面積
を求める。そして、求めた面積をCPU54に与える。
Next, the image processor 52 calculates the total number of pixels having a pixel value of 1 based on the difference image, and calculates the area of the entire image of the moving object (hereinafter simply referred to as the area of the moving object) (step). S24). In the examples of FIGS. 5 and 8, the areas of two circles indicating images before and after the movement of the moving object are obtained. Then, the obtained area is given to the CPU 54.

【0038】CPU54は、移動物体の面積を画像処理
プロセッサ52から取得すると、その面積が所定のしき
い値よりも大きいか否かを判定する(ステップS2
6)。ここで、NOと判定する場合としては、追尾の対
象となる程の移動物体が存在しない場合であり、それま
で追尾していた移動物体が停止した場合、移動物体の動
きが少ない場合、又は、追尾の対象とならない小さな物
体のみが動いているのみ場合等がある。このときには上
記ステップS14の処理に戻り、画像を画像メモリ5
0に取り込む処理から繰り返す。
When the area of the moving object is obtained from the image processor 52, the CPU 54 determines whether or not the area is larger than a predetermined threshold (step S2).
6). Here, when the determination is NO, there is no moving object enough to be tracked, when the moving object that has been tracked so far stops, when the movement of the moving object is small, or There are cases where only a small object that is not a tracking target is moving. At this time, the process returns to the step S14, and the image is stored in the image memory 5
It repeats from the process which takes in to 0.

【0039】一方、上記ステップS26においてYES
と判定した場合、即ち、差画像から移動物体を検出した
場合、次に、画像処理プロセッサ52は、差画像から移
動物体の画像全体の1次モーメントを求め(ステップS
28)、1次モーメントを移動物体の面積で割り、移動
物体の重心を求める(ステップS30)。ここで、移動
物体の重心は、画像の画面上の座標で表され、その重
心座標(水平方向についての重心座標)はCPU54に
より、雲台コントローラ12のCPU60に送信される
(ステップS32)。以上のステップS32の処理が終
了すると、上記ステップS10に戻り、上述したステッ
プS10からの処理を繰り返し実行する。
On the other hand, YES in step S26
Is determined, that is, when a moving object is detected from the difference image, the image processor 52 next calculates the first moment of the entire image of the moving object from the difference image (Step S).
28) Divide the first moment by the area of the moving object to obtain the center of gravity of the moving object (step S30). Here, the center of gravity of the moving object is represented by coordinates on the screen of the image, and the coordinates of the center of gravity (the coordinates of the center of gravity in the horizontal direction) are transmitted by the CPU 54 to the CPU 60 of the pan head controller 12 (step S32). When the process of step S32 is completed, the process returns to step S10, and the process from step S10 is repeatedly executed.

【0040】次に、雲台コントローラ12における自動
追尾機能の処理について説明する。雲台コントローラ1
2のCPU60は、所定のスイッチにより自動追尾モー
ドに設定されると、上述のように画像処理装置14から
追尾すべき移動物体の重心座標を取得し、その移動物体
がカメラ40の撮影範囲内に納まるように、取得した重
心座標及びトレースデータに基づいて、雲台10のパ
ン、チルトの位置、及び、カメラ40のレンズ装置44
のズーム、フォーカスの位置を制御する。
Next, the processing of the automatic tracking function in the camera platform controller 12 will be described. Head controller 1
When the automatic tracking mode is set by a predetermined switch, the second CPU 60 obtains the barycentric coordinates of the moving object to be tracked from the image processing device 14 as described above, and the moving object falls within the shooting range of the camera 40. Based on the obtained center-of-gravity coordinates and the trace data, the pan and tilt positions of the camera platform 10 and the lens device 44 of the camera 40
To control the zoom and focus positions.

【0041】ここで、トレースデータは、雲台コントロ
ーラ12に搭載された自動追尾機能とは別のトレース機
能で使用されるデータであり、パン、チルト、ズーム、
フォーカスについての一連の動作を記録したデータであ
る。トレース機能は、このようなトレースデータを予め
作成し、登録しておくと、トレース再生の指示操作によ
ってトレースデータとして記録した一連の動作を自動で
再現できるようにした機能である。トレースデータを作
成、登録する場合は、例えば、雲台コントローラ12を
トレース登録モードに設定し、登録したいパン、チル
ト、ズーム、フォーカスの一連の動作を操作者がマニュ
アル操作により実際に実行させる。これにより、その間
のパン、チルト、ズーム、フォーカスの位置データが一
定時間おきに取り込まれ、トレースデータとしてメモリ
62に記憶される。
Here, the trace data is data used in a trace function different from the automatic tracking function mounted on the camera platform controller 12, and includes pan, tilt, zoom,
This is data that records a series of operations for focus. The trace function is a function that, when such trace data is created and registered in advance, a series of operations recorded as trace data by a trace reproduction instruction operation can be automatically reproduced. When creating and registering trace data, for example, the pan head controller 12 is set to a trace registration mode, and the operator actually performs a series of operations of pan, tilt, zoom, and focus to be registered by manual operation. As a result, the pan, tilt, zoom, and focus position data during that period are captured at regular intervals and stored in the memory 62 as trace data.

【0042】尚、自動追尾機能において使用するトレー
スデータは、トレース機能において使用するトレースデ
ータと共用であってもよいし、自動追尾機能においての
み使用されるものであってもよい。即ち、自動追尾機能
において使用されるトレースデータと、トレース機能に
おいて使用されるトレースデータとは、いずれもパン、
チルト、ズーム、フォーカスのそれぞれを関連付けて動
作させるものとして共通しているため共用することがで
き、もし、雲台コントローラ12に自動追尾機能とは別
にトレース機能が搭載されているのであれば、自動追尾
機能又はトレース機能の区別なくトレースデータを作
成、登録することができ、また、使用することができ
る。複数のトレースデータを作成、登録できるようにす
るのであれば、自動追尾機能又はトレース機能で使用す
るトレースデータを、これらの機能の区別なく作成、登
録した複数のトレースデータの中から選択できるように
することも可能である。一方、雲台コントローラ12に
トレース機能が搭載されていない場合であっても(トレ
ース機能が搭載されている場合であっても)、自動追尾
機能における専用のトレースデータを作成、登録できる
ようにし、そのトレースデータを自動追尾機能にのみ使
用できるようにすることも可能である。
The trace data used in the automatic tracking function may be shared with the trace data used in the trace function, or may be used only in the automatic tracking function. That is, both the trace data used in the automatic tracking function and the trace data used in the trace function are pan,
Tilt, zoom, and focus can be shared because they are operated in association with each other. If the pan head controller 12 is equipped with a tracing function separately from the automatic tracking function, an automatic tracing function can be used. Trace data can be created, registered, and used without distinction between a tracking function and a trace function. If multiple trace data can be created and registered, the trace data to be used in the automatic tracking function or the trace function can be selected from the multiple trace data created and registered regardless of these functions. It is also possible. On the other hand, even when the camera platform controller 12 is not equipped with a trace function (even if it is equipped with a trace function), it is possible to create and register exclusive trace data in the automatic tracking function, The trace data can be used only for the automatic tracking function.

【0043】具体的に、自動追尾機能においてトレース
データは以下のように使用される。例えば、追尾すべき
移動物体(例えば、報道番組でのキャスタ等)が、主に
左右に移動し、上下、前後にはほとんど移動しないか、
又は、上下、前後に移動したとしても左右方向の位置に
よってその上下、前後方向についての位置がほとんど決
まってしまうような場合がある。このような場合、雲台
10のパン位置をその移動物体のパン方向(画面水平方
向)についての重心座標に基づいて動かせば、チルト、
ズーム、フォーカスについては、パン位置に対して予め
決めておいた特定の位置に移動させても、移動物体をカ
メラ40の撮影範囲内で追尾することができる。一方、
トレースデータは、パン、チルト、ズーム、フォーカス
についての一連の動作において、各位置を関連付けした
ものである。そこで、移動物体を追尾する際のパン、チ
ルト、ズーム、フォーカスの位置の関連付けを、トレー
スデータの作成、登録により、予め行っておくと、自動
追尾の実行の際には、移動物体のパン方向についての重
心座標に従ってその移動物体がパン方向についての画面
中央となるようにパン位置が移動すると共に、チルト、
ズーム、フォーカスについては、トレースデータによっ
てパン位置に対して関連付けられた位置に移動するよう
にしている。このようにトレースデータを自動追尾機能
において使用することによって、トレースデータの作成
の際に、自動追尾中の映像が見やすいものとなるように
予め自動追尾中の動作を決めてくことができる。例え
ば、移動物体の僅かな上下動に連動して自動追尾中の画
面が無駄に上下動することがないようにすることができ
る。また、カメラ40にオートフォーカス機能がない場
合でもフォーカス調整を自動で行なうことができ、ズー
ム調整も自動で行なうことができるようになる。
Specifically, the trace data is used in the automatic tracking function as follows. For example, a moving object to be tracked (for example, a caster in a news program) mainly moves left and right, and hardly moves up and down, back and forth,
Or, even if the image is moved up and down and back and forth, the position in the up and down and back and forth directions may be almost determined by the position in the left and right direction. In such a case, if the pan position of the camera platform 10 is moved based on the barycentric coordinates of the moving object in the pan direction (horizontal direction of the screen), tilt,
Regarding the zoom and focus, the moving object can be tracked within the shooting range of the camera 40 even when the moving object is moved to a specific position that is predetermined with respect to the pan position. on the other hand,
The trace data is obtained by associating each position in a series of operations for pan, tilt, zoom, and focus. Therefore, if the pan, tilt, zoom, and focus positions when tracking a moving object are preliminarily linked by creating and registering trace data, the panning direction of the moving object can be set when performing automatic tracking. The pan position is moved so that the moving object is located at the center of the screen in the pan direction according to the barycenter coordinates of, and tilt,
The zoom and focus are moved to a position associated with the pan position by the trace data. As described above, by using the trace data in the automatic tracking function, the operation during the automatic tracking can be determined in advance so that the video during the automatic tracking becomes easy to see when creating the trace data. For example, it is possible to prevent the screen during automatic tracking from moving unnecessarily up and down in conjunction with a slight up and down movement of the moving object. Further, even when the camera 40 does not have an autofocus function, the focus adjustment can be automatically performed, and the zoom adjustment can also be automatically performed.

【0044】次いで、雲台コントローラ12における自
動追尾機能の処理内容について詳説する。まず、自動追
尾機能において使用する上記トレースデータの作成、登
録の処理について説明する。トレースデータを作成、登
録する場合、操作者は、雲台コントローラ12をトレー
ス登録モードに設定する。そして、登録したいパン、チ
ルト、ズーム、フォーカスの一連の動作を雲台コントロ
ーラ12でのマニュアル操作により実行する。例えば、
報道番組等の制作で図11に示すようにスタジオ内に上
記雲台10及びカメラ40を設置し、キャスタMを自動
追尾機能により撮影するものとする。そして、撮影本番
中にキャスタMが移動する範囲が、図中の位置、位置
、位置の間を移動する範囲(図中斜線部)に限られ
ているとする。このとき、その範囲内で例えばキャスタ
Mが位置、位置、位置の順に移動したとして、そ
のキャスタMを自動追尾で撮影する際のパン、チルト、
フォーカス、ズームの動作をマニュアル操作で実行す
る。
Next, the processing contents of the automatic tracking function in the camera platform controller 12 will be described in detail. First, a process of creating and registering the trace data used in the automatic tracking function will be described. When creating and registering trace data, the operator sets the pan head controller 12 to the trace registration mode. Then, a series of pan, tilt, zoom, and focus operations to be registered are executed by manual operation of the camera platform controller 12. For example,
In producing a news program or the like, it is assumed that the pan head 10 and the camera 40 are installed in the studio as shown in FIG. 11, and the caster M is photographed by the automatic tracking function. Then, it is assumed that the range in which the caster M moves during the actual shooting is limited to the position in the figure, the position, and the range in which the caster M moves between the positions (hatched portion in the figure). At this time, for example, assuming that the caster M has moved in the order of position, position, and position within that range, panning, tilting,
Execute focus and zoom operations manually.

【0045】このトレース登録モードでのマニュアル操
作の間、雲台コントローラ12のCPU60は、雲台1
0から、パン、チルト、ズーム、フォーカスの位置デー
タを逐次取得し、図12のようなトレースデータを作成
してメモリ62に登録する。同図においてトレースデー
タは、データ番号(TNO)1、2、3、…と、各デー
タ番号のパン、チルト、ズーム、フォーカスの位置デー
タとから構成される。トレース登録モード時において、
パン、チルト、ズーム、フォーカスの位置データは、映
像信号の水平同期信号のタイミング(1周期の時間を1
Hと記す)で取り込まれており、取り込まれた順にデー
タ番号1、2、3、…が付けられるようになっている。
尚、図11において位置、位置、位置のそれぞれ
を撮影した際のトレースデータは、例えば、図12にお
いてデータ番号TNO=1、1000、2000のパ
ン、チルト、ズーム、フォーカスの位置データ((PANDA
TA1,TILTDATA1,ZOOMDATA1,FOCUSDATA1)、(PANDATA2,TIL
TDATA2,ZOOMDATA2,FOCUSDATA2) 、(PANDATA1,TILTDATA
1,ZOOMDATA1,FOCUSDATA1))として示されている。ま
た、パン、チルト、ズーム、フォーカスの位置データ
は、例えば、16ビットの数値範囲0x0000〜0xffffによ
り換算されて記録されている。
During the manual operation in the trace registration mode, the CPU 60 of the pan head controller 12
From 0, the pan, tilt, zoom, and focus position data are sequentially obtained, and trace data as shown in FIG. 12 is created and registered in the memory 62. In the figure, the trace data includes data numbers (TNO) 1, 2, 3,... And position data of pan, tilt, zoom, and focus of each data number. In trace registration mode,
The position data of pan, tilt, zoom, and focus is based on the timing of the horizontal synchronization signal of the video signal (the time of one cycle is 1).
H)) and data numbers 1, 2, 3,...
Note that, in FIG. 11, the position, the position, and the trace data at the time of capturing each position are, for example, pan, tilt, zoom, and focus position data ((PANDA) of data numbers TNO = 1, 1000, and 2000 in FIG.
TA1, TILTDATA1, ZOOMDATA1, FOCUSDATA1), (PANDATA2, TIL
TDATA2, ZOOMDATA2, FOCUSDATA2), (PANDATA1, TILTDATA
1, ZOOMDATA1, FOCUSDATA1)). Further, the pan, tilt, zoom, and focus position data are converted and recorded in, for example, a 16-bit numerical value range of 0x0000 to 0xffff.

【0046】次に、雲台コントローラ12における自動
追尾機能の処理手順について図13のフローチャートを
用いて説明する。まず、操作者は、上述のようにトレー
スデータを作成し、メモリ62に登録しておく(ステッ
プS50)。次いで、雲台コントローラ12を自動追尾
モードに設定する。これにより、雲台コントローラ12
のCPU60は、自動追尾の処理を開始する(ステップ
S52)。自動追尾の処理を開始すると、CPU60
は、上述のように画像処理装置14から送信される移動
物体の重心座標(パン方向についての重心座標)を取得
する(ステップS54)。次いで、その重心座標が画面
上に設定された不感帯の範囲外となったか否かを判定す
る(ステップS56)。
Next, the processing procedure of the automatic tracking function in the camera platform controller 12 will be described with reference to the flowchart of FIG. First, the operator creates trace data as described above and registers it in the memory 62 (step S50). Next, the camera platform controller 12 is set to the automatic tracking mode. Thereby, the pan head controller 12
CPU 60 starts the automatic tracking process (step S52). When the automatic tracking process starts, the CPU 60
Acquires the coordinates of the center of gravity of the moving object (the coordinates of the center of gravity in the pan direction) transmitted from the image processing apparatus 14 as described above (step S54). Next, it is determined whether or not the barycentric coordinates are outside the range of the dead zone set on the screen (step S56).

【0047】ここで、不感帯の範囲は、例えば、図14
に示すカメラ40の撮影範囲Lの斜線範囲のように画面
の中央部分に所定幅で設定される。重心座標が同図のa
点のように不感帯の範囲内にある場合には上記ステップ
S56でNOと判定され、重心座標が同図のb点のよう
に不感帯の範囲外にある場合には上記ステップS56で
YESと判定される。尚、このステップS56の判定処
理は、雲台10のパン/チルト動作が停止している場合
にのみ行なうものとする。ただし、パン/チルト動作が
停止していない場合であっても行うようにしてもよい。
雲台10がパン/チルト動作しているときはステップS
56の判定処理を行なわずにステップS58の処理に移
行する。
Here, the range of the dead zone is, for example, as shown in FIG.
Is set at a predetermined width at the center of the screen as shown by the hatched area of the shooting range L of the camera 40 shown in FIG. The barycentric coordinates are a
If the point is within the range of the dead zone as in the case of the point, NO is determined in the above step S56, and if the barycentric coordinate is outside the range of the dead zone as in the point b in the same figure, the determination is YES in the above step S56. You. The determination process in step S56 is performed only when the pan / tilt operation of the camera platform 10 is stopped. However, the operation may be performed even when the pan / tilt operation is not stopped.
Step S when the pan / tilt head 10 is performing the pan / tilt operation.
The flow shifts to the processing in step S58 without performing the determination processing in 56.

【0048】上述のようにステップS56でNOと判定
した場合には、パン、チルト、ズーム、フォーカスの位
置を変更せず、即ち、これらの位置を静止させたまま上
記ステップS54に戻る。一方、ステップS56でYE
Sと判定した場合には、次に、CPU60は、レンズ装
置44の焦点距離を取得し、その焦点距離とその他の既
知の値とに基づいて以下のようにパン移動量を計算する
(ステップS58)。
As described above, if NO is determined in step S56, the pan, tilt, zoom, and focus positions are not changed, that is, the process returns to step S54 while keeping these positions stationary. On the other hand, in step S56, YE
If determined to be S, then the CPU 60 obtains the focal length of the lens device 44 and calculates the pan movement amount based on the focal length and other known values as follows (step S58). ).

【0049】図15に示すようにカメラ40の撮影範囲
Lの画面上において、画面中心Oに対して重心座標がa
点で検出されたとする。このとき、a点を画面中心に一
致させるための雲台10のパン方向への移動量をパン移
動量といい、そのパン移動量を求める。そこで、図1
5、図16に示すようにカメラ40の水平方向の撮影画
角(水平画角)を2θ(単位:角度)とすると、θは、
レンズ装置44の焦点距離f、カメラ40の撮像素子の
イメージサイズHとから、 θ=tan-1(H/2/f) により求められる。そして、画像の解像度(水平解像
度)をR(単位:画素)、画面上において重心座標の画
面中心からの距離をd(単位:画素)とすると、パン移
動量θm(単位:角度)は、 θm=(θ×d)/(R/2) である。CPU60は、パン位置を、360°の角度範
囲に対して16ビットの値0x0000〜0xffffで処理してお
り、この処理値に換算したパン移動量θmは、 θm=θm(単位:角度)×0xffff/360° により算出される。
As shown in FIG. 15, on the screen of the photographing range L of the camera 40, the barycenter coordinate is a with respect to the center O of the screen.
It is assumed that a point is detected. At this time, the amount of movement of the camera platform 10 in the pan direction to match the point a with the center of the screen is called a pan movement amount, and the pan movement amount is obtained. Therefore, FIG.
5. As shown in FIG. 16, when the angle of view (horizontal angle of view) of the camera 40 in the horizontal direction is 2θ (unit: angle), θ is
From the focal length f of the lens device 44 and the image size H of the image sensor of the camera 40, it can be obtained by θ = tan −1 (H / 2 / f). Assuming that the resolution (horizontal resolution) of the image is R (unit: pixel) and the distance of the barycentric coordinates from the center of the screen on the screen is d (unit: pixel), the pan movement amount θm (unit: angle) is θm = (Θ × d) / (R / 2). The CPU 60 processes the pan position with a 16-bit value of 0x0000 to 0xffff for an angle range of 360 °, and the pan movement amount θm converted into the processed value is: θm = θm (unit: angle) × 0xffff / 360 °.

【0050】以上のようにして、パン移動量θmを算出
すると、続いて、パン追尾位置TRKを算出する(ステ
ップS60)。パン追尾位置TRKは、現在のパン位置
に上記パン移動量θmを加算した位置である。次に、C
PU60は、メモリ62に登録されたトレースデータの
中から、パン追尾位置TRKに最も近いパンについての
位置データを有するものを検索し、そのデータ番号をT
RKNOとする(ステップS62)。また、後述の処理
からも分かるようにCPU60は、トレースデータにお
けるいずれかのデータ番号のパン、チルト、ズーム、フ
ォーカスの位置データに従って実際のパン、チルト、ズ
ーム、フォーカスの位置を制御しており、現在のパン位
置を指定したトレースデータのデータ番号をTNOとす
る(ステップS64)。
After calculating the pan movement amount θm as described above, subsequently, the pan tracking position TRK is calculated (step S60). The pan tracking position TRK is a position obtained by adding the pan movement amount θm to the current pan position. Next, C
The PU 60 searches the trace data registered in the memory 62 for one having position data on the pan closest to the pan tracking position TRK, and sets its data number to T
RKNO is set (step S62). Further, as can be seen from the processing described later, the CPU 60 controls the actual pan, tilt, zoom, and focus positions according to the pan, tilt, zoom, and focus position data of any data number in the trace data. The data number of the trace data specifying the current pan position is set to TNO (step S64).

【0051】次いで、CPU60は、TRKNO>TN
Oか否かを判定する(ステップS66)。YESと判定
した場合には、TNOに1を加算してその値をTNOと
する(ステップS68)。そして、データ番号がTNO
であるトレースデータのパン、チルト、ズーム、フォー
カスの位置への移動を指令する制御信号を雲台10及び
レンズ装置44に送信する(ステップS70)。次い
で、TNOがTRKNOに等しくなったか否かを判定し
(ステップS72)、NOと判定した場合には、上記ス
テップS68からの処理を繰り返し実行し、パン、チル
ト、ズーム、フォーカスをデータ番号がTRKNOであ
るトレースデータの位置に近づける。そして、ステップ
S72でYESと判定した場合には上記ステップS54
の処理から繰り返し実行する。
Next, the CPU 60 determines that TRKNO> TN
It is determined whether it is O (step S66). If the determination is YES, 1 is added to TNO, and the value is set as TNO (step S68). And the data number is TNO
A control signal for instructing the movement of the trace data to pan, tilt, zoom, and focus positions is transmitted to the camera platform 10 and the lens device 44 (step S70). Next, it is determined whether or not TNO has become equal to TRKNO (step S72). If the determination is NO, the processing from step S68 is repeatedly executed, and the pan, tilt, zoom, and focus data numbers are set to TRKNO. To the position of the trace data. If YES is determined in the step S72, the step S54 is performed.
It is repeatedly executed from the processing of.

【0052】上記ステップS66でNOと判定した場合
には、TNOから1を減算してその値をTNOとする
(ステップS74)。そして、データ番号がTNOであ
るトレースデータのパン、チルト、ズーム、フォーカス
の位置への移動を指令する制御信号を雲台10及びレン
ズ装置44に送信する(ステップS76)。次いで、T
NOがTRKNOに等しくなったか否かを判定し(ステ
ップS78)、NOと判定した場合には、上記ステップ
S74からの処理を繰り返し実行し、パン、チルト、ズ
ーム、フォーカスをデータ番号がTRKNOであるトレ
ースデータの位置に近づける。そして、ステップS78
でYESと判定した場合には上記ステップS54の処理
から繰り返し実行する。
If NO is determined in step S66, 1 is subtracted from TNO and the value is set as TNO (step S74). Then, a control signal for instructing movement of the trace data having the data number TNO to the pan, tilt, zoom, and focus positions is transmitted to the camera platform 10 and the lens device 44 (step S76). Then, T
It is determined whether or not NO has become equal to TRKNO (step S78). If the determination is NO, the processing from step S74 is repeatedly performed, and the data number for pan, tilt, zoom, and focus is TRKNO. Move closer to the position of the trace data. Then, Step S78
If it is determined as YES, the process is repeatedly executed from the process of step S54.

【0053】以上の自動追尾処理により、パンについて
の位置が追尾すべき移動物体の重心座標に基づいて移動
し、チルト、ズーム、フォーカスについての位置がトレ
ースデータによって主制御位置に関連付けされた位置と
なるように移動する。
With the above automatic tracking processing, the pan position moves based on the barycentric coordinates of the moving object to be tracked, and the tilt, zoom, and focus positions correspond to the positions associated with the main control position by the trace data. Move to become.

【0054】尚、上記ステップS68及びステップS7
4では、トレースデータのデータ番号を1ずつ増加又は
減少させ、パン、チルト、ズーム、フォーカスをその増
加又は減少させたデータ番号の位置に順次移動させるよ
うにしたが、移動物体の移動スピードに応じて、即ち、
図13のフローチャートのステップS58において算出
したパン移動量θmの大きさに応じてステップS68及
びステップS74でデータ番号に加算又は減算する値の
大きさを可変するようにしてもよい。
The above steps S68 and S7
In No. 4, the data number of the trace data is increased or decreased by one, and the pan, tilt, zoom, and focus are sequentially moved to the position of the increased or decreased data number, but according to the moving speed of the moving object. That is,
The magnitude of the value to be added to or subtracted from the data number in steps S68 and S74 may be varied according to the magnitude of the pan movement amount θm calculated in step S58 in the flowchart of FIG.

【0055】また、上述のような自動追尾機能で使用す
るトレースデータは、上述と異なる方法により作成する
ことも可能である。上述の方法では、操作者がマニュア
ル操作により、パン、チルト、ズーム、フォーカスを実
際に動かすことによってトレースデータを作成するよう
にしたが、いわゆるプリセットとよばれている特定のシ
ョットを登録し、再生する機能を利用してトレースデー
タを作成することもできる。例えば、図11において、
自動追尾により位置、位置、位置を撮影する際の
パン、チルト、ズーム、フォーカスの位置をショット登
録する。即ち、図12において、データ番号1、100
0、2000のデータのみをショット登録する。尚、シ
ョット登録は、マニュアル操作で実際にパン、チルト、
ズーム、フォーカスをショット登録したい位置に設定し
た後、所定の登録実行ボタンをオンすることにより行な
うことができる。そして、位置から位置、及び位置
から位置までの中間データを以下のような方法によ
り作成する。
The trace data used in the automatic tracking function as described above can be created by a method different from that described above. In the method described above, the operator manually creates the trace data by actually moving the pan, tilt, zoom, and focus.However, a specific shot called a preset is registered and played. The trace data can also be created using the function to perform the trace. For example, in FIG.
The position of pan, tilt, zoom, and focus at the time of shooting the position, position, and position by automatic tracking is registered as a shot. That is, in FIG.
Only the data of 0 and 2000 are shot registered. Note that shot registration can be performed manually by actually operating pan, tilt,
After setting the zoom and focus to the position where the shot registration is desired, the user can turn on a predetermined registration execution button. Then, intermediate data from the position to the position and from the position to the position are created by the following method.

【0056】1つの方法としては、位置を撮影するた
めにショット登録したパン、チルト、ズーム、フォーカ
スの位置から位置を撮影するためにショット登録した
パン、チルト、ズーム、フォーカスの位置までプリセッ
ト機能により実際に動作させ、次いで位置を撮影する
ためにショット登録したパン、チルト、ズーム、フォー
カスの位置から位置を撮影するためにショット登録し
たパン、チルト、ズーム、フォーカスの位置まで同様に
動作させる。この間、パン、チルト、ズーム、フォーカ
スの中間データを水平同期信号のタイミングで取り込
み、それらの中間データにより、トレースデータを作成
してメモリ62に記憶しておく。
As one method, from the pan, tilt, zoom, and focus positions registered for shooting the position to the pan, tilt, zoom, and focus positions registered for the shot to shoot the position, a preset function is used. The operation is actually performed, and then the operation is similarly performed from the pan, tilt, zoom, and focus positions registered for shots for photographing the position to the pan, tilt, zoom, and focus positions registered for shots for photographing the position. During this time, intermediate data of pan, tilt, zoom, and focus are taken in at the timing of the horizontal synchronization signal, and trace data is created and stored in the memory 62 based on the intermediate data.

【0057】他の方法としては、中間データを計算によ
り作成することもできる。例えば、パンを2(°/s)
で作動させた場合、1Hあたりの位置データの変化量PA
NDATA1H は、 PANDATA1H=2(°/s)×0xffff/360(°)×1/
59.94 である。従って、位置から位置までのデータ番号T
NOのパンについての位置データは、 PANDATA1+PANDATA1H ×TNO の式により算出される。尚、全データ数DATAは、 DATA= |PANDATA1-PANDATA2 |/PANDATA1H となる。位置から位置までのパンについての位置デ
ータも同様に算出される。同様の演算により、チルト、
ズーム、フォーカスの中間データも算出することができ
る。そして、以上のようにして算出した中間データをト
レースデータとしてメモリ62に記憶させておく。ま
た、以上のような中間データは予め計算してメモリ62
に記憶させておくのではなく、追尾動作中に計算しなが
ら求めることも可能である。
As another method, intermediate data can be created by calculation. For example, if bread is 2 (° / s)
When operated with, position data change PA per 1H
NDATA1H is: PANDATA1H = 2 (° / s) × 0xffff / 360 (°) × 1 /
59.94. Therefore, the data number T from position to position
The position data for the pan of NO is calculated by the formula: PANDATA1 + PANDATA1H × TNO. Note that the total data number DATA is as follows: DATA = | PANDATA1-PANDATA2 | / PANDATA1H The position data for the pan from position to position is calculated in a similar manner. By the same operation, tilt,
Zoom and focus intermediate data can also be calculated. Then, the intermediate data calculated as described above is stored in the memory 62 as trace data. The above intermediate data is calculated in advance and stored in the memory 62.
Instead of storing the information in the tracking operation, it is also possible to obtain the value while calculating during the tracking operation.

【0058】また、追尾すべき移動物体の重心座標に基
づいて直接的に制御される位置を主制御位置といい、ト
レースデータに基づいて主制御位置に関連付けされた位
置となるように制御される位置を副制御位置というもの
とすると、上記実施の形態では、パンについての位置が
主制御位置であり、チルト、ズーム、フォーカスについ
ての位置が副制御位置である。しかしながら、主制御位
置と副制御位置はこれに限らない。主制御位置は、雲台
10(カメラ40)の移動可能な移動方向のうち、少な
くともいずれか1つの移動方向についての位置とするこ
とができる。例えば、上記実施の形態の雲台10では、
パンとチルトの方向にカメラ40を移動させることがで
きるため、パンではなく、チルトについて位置を主制御
位置とすることができ、また、パンとチルトのいずれか
一方でなく両方についての位置を主制御位置とすること
もできる。更に、雲台10の機能としてカメラ40を高
さ方向(ハイト)にも移動させる機能がある場合には、
パンとチルトにハイトを含めた移動方向のうち、少なく
ともいずれか1つの移動方向についての位置を主制御位
置とすることができる。これに対して副制御位置は、主
制御位置としたカメラ40の移動方向以外の移動方向
と、カメラ40のズームとフォーカスのうち、少なくと
もいずれか1つについての位置とすることができる。例
えば、主制御位置が、チルトについての位置であれば、
パン、ズーム、フォーカスについての位置を副制御位置
とすることができ、主制御位置がパンとチルトについて
の位置であれば、副制御位置はズームとフォーカスにつ
いての位置とすることができる。更に、パン、チルト、
ハイト、ズーム、フォーカスの全てについての位置を主
制御位置又は副制御位置として制御対象に含める必要は
なく、例えば、主制御位置をパンについての位置とし、
副制御位置をチルトについての位置のみとしてもよい
し、ズーム又はフォーカスについての位置のみとしても
よい。パン、チルト、ズーム、フォーカス等のうち何に
ついての位置を主制御位置と副制御位置とにするかをユ
ーザが任意に選択できるようにしてもよい。
A position directly controlled based on the barycentric coordinates of the moving object to be tracked is called a main control position, and is controlled to be a position associated with the main control position based on the trace data. Assuming that the position is a sub-control position, in the above embodiment, the position for pan is the main control position, and the position for tilt, zoom, and focus is the sub-control position. However, the main control position and the sub control position are not limited to this. The main control position can be a position in at least one of the moving directions in which the camera platform 10 (camera 40) can move. For example, in the camera platform 10 of the above embodiment,
Since the camera 40 can be moved in the directions of pan and tilt, the position can be set as the main control position for tilt instead of pan, and the position for both but not one of pan and tilt can be set as the main control position. It can also be a control position. Further, when there is a function of moving the camera 40 also in the height direction (height) as a function of the camera platform 10,
A position in at least one of the moving directions including the pan and tilt and the height can be set as the main control position. On the other hand, the sub-control position can be a position in at least one of a moving direction other than the moving direction of the camera 40 as the main control position, and zoom and focus of the camera 40. For example, if the main control position is a position for tilt,
The positions for pan, zoom, and focus can be the sub-control positions. If the main control position is the position for pan and tilt, the sub-control position can be the position for zoom and focus. In addition, pan, tilt,
Height, zoom, it is not necessary to include the position for all of the focus as a main control position or a sub-control position in the control target, for example, the main control position as a position for pan,
The sub control position may be only the position for tilt, or may be only the position for zoom or focus. The user may arbitrarily select what position among pan, tilt, zoom, focus, and the like is to be the main control position and the sub control position.

【0059】また、トレースデータの形式は、上記実施
の形態に限らず、主制御位置と副制御位置とを関連づけ
るデータであればどのようなものであってもよく、その
作成方法も特定の方法に限定されない。
The format of the trace data is not limited to the above-described embodiment, but may be any data as long as the data associates the main control position with the sub-control position. It is not limited to.

【0060】次に、画面上に移動物体が複数存在する場
合等において、所望の移動物体を色相により識別し、そ
の移動物体のみを追尾できるようにした画像処理装置1
4の構成及び処理について説明する。図17は、この場
合におけるリモコン雲台システムの構成を示したブロッ
ク図である。尚、図2に示した構成ブロックと同一又は
類似作用のものには図2と同一符号を付し、また、雲台
10、雲台コントローラ12、カメラ40の構成及び処
理は、図2の場合と全く同一であるため説明を省略す
る。
Next, when there are a plurality of moving objects on the screen, an image processing apparatus 1 which identifies a desired moving object by hue and can track only the moving object.
4 will be described. FIG. 17 is a block diagram showing the configuration of the remote control pan head system in this case. 2 are denoted by the same reference numerals as those in FIG. 2, and the configuration and processing of the camera platform 10, the camera platform controller 12, and the camera 40 are the same as those in FIG. The description is omitted because it is completely the same.

【0061】カメラ40のカメラ本体42から画像処理
装置14に入力された映像信号は、Y/C分離回路46
によって輝度信号(Y信号)と色差信号(R−Y信号、
B−Y信号)に分離される。ここで分離された輝度信号
と色差信号はそれぞれA/Dコンバータ48、49によ
ってデジタル信号(以下、それぞれ輝度信号の画像デー
タ、色差信号の画像データといい、両方含むときは単に
画像データという)に変換され、画像メモリ50に入力
される。一方、Y/C分離回路46から画像処理プロセ
ッサ52には、映像信号の同期信号が与えられており、
この同期信号に基づいて所要のタイミングで画像処理プ
ロセッサ52から画像メモリ50にデータ書込みのコマ
ンドが与えられる。これによって、画像メモリ50に
は、後述のように所定時間間隔の複数フレーム分の画像
データが記憶される。
The video signal input from the camera body 42 of the camera 40 to the image processing device 14 is converted into a Y / C separation circuit 46.
The luminance signal (Y signal) and the color difference signal (RY signal,
(BY signal). The separated luminance signal and color difference signal are converted into digital signals by the A / D converters 48 and 49, respectively (hereinafter, referred to as luminance signal image data and color difference signal image data, and when both are included, simply referred to as image data). The data is converted and input to the image memory 50. On the other hand, a synchronization signal of a video signal is given from the Y / C separation circuit 46 to the image processor 52,
Based on this synchronization signal, a data write command is given from the image processor 52 to the image memory 50 at a required timing. Thus, the image memory 50 stores image data for a plurality of frames at predetermined time intervals as described later.

【0062】画像メモリ50に記憶された色差信号の画
像データは、画像処理プロセッサ52によって指定され
た範囲の各画素について読み出され、HUE変換回路5
1によって色相を示すデータ(HUE値)に変換された
後、そのHUE値が、画像処理プロセッサ52に与えら
れる。HUE値(H)は、次式によって求められる。
The image data of the color difference signal stored in the image memory 50 is read out for each pixel in the range designated by the image processor 52, and the HUE conversion circuit 5
After being converted into data indicating the hue (HUE value) by 1, the HUE value is provided to the image processor 52. The HUE value (H) is obtained by the following equation.

【0063】H=tan-1((B−Y)/(R−Y)) (ただし、(R−Y)、(B−Y)は、それぞれR−Y
信号とB−Y信号の画像データの値を示す。) 画像処理プロセッサ52及びCPU54は、画像メモリ
50に記憶された輝度信号の画像データ及びHUE変換
回路51から得られるHUE値とに基づいて、カメラ4
0で追尾すべき特定の移動物体の重心座標を後述のよう
に検出し、検出した重心座標を雲台コントローラ12に
送信する。
H = tan -1 ((BY) / (RY)) (where (RY) and (BY) are respectively RY
The values of the image data of the signal and the BY signal are shown. The image processor 52 and the CPU 54 determine the camera 4 based on the image data of the luminance signal stored in the image memory 50 and the HUE value obtained from the HUE conversion circuit 51.
The coordinates of the center of gravity of a specific moving object to be tracked at 0 are detected as described later, and the detected coordinates of the center of gravity are transmitted to the pan head controller 12.

【0064】以上の如く構成された画像処理装置14に
おける自動追尾(重心座標検出)の処理手順について図
18のフローチャート及び図19を用いて説明する。ま
ず、自動追尾を開始する前に、画像処理プロセッサ52
は、追尾すべき移動物体のHUE値(色相)のヒストグ
ラムを作成する(ステップS8)。即ち、自動追尾開始
前に追尾したい特定の被写体をカメラ40で撮影し、カ
メラ本体42からY/C分離回路46、A/Dコンバー
タ48、49を介して、その被写体を映した1フレーム
分の画像データを画像処理装置14の画像メモリ50に
取り込む。操作者は、その画像メモリ50に記憶された
画像データをモニタに表示させ、追尾すべき被写体の画
像範囲をマウス等で指定する。画像処理プロセッサ52
は、その指定された範囲について、画像メモリ50の色
差信号の画像データに基づきHUE変換回路51から各
画素のHUE値を取得し、その指定された範囲のHUE
値のヒストグラムを作成する。そして、そのヒストグラ
ムのデータをCPU54内のメモリに格納しておく。
The processing procedure of automatic tracking (coordinate detection of the center of gravity) in the image processing apparatus 14 configured as described above will be described with reference to the flowchart of FIG. 18 and FIG. First, before starting the automatic tracking, the image processor 52
Creates a histogram of the HUE value (hue) of the moving object to be tracked (step S8). That is, a specific subject to be tracked is photographed by the camera 40 before the automatic tracking is started, and one frame worth of the subject is projected from the camera body 42 via the Y / C separation circuit 46 and the A / D converters 48 and 49. The image data is taken into the image memory 50 of the image processing device 14. The operator displays the image data stored in the image memory 50 on a monitor, and specifies the image range of the subject to be tracked with a mouse or the like. Image processor 52
Obtains the HUE value of each pixel from the HUE conversion circuit 51 based on the image data of the color difference signal in the image memory 50 for the specified range, and obtains the HUE of the specified range.
Create a histogram of values. Then, the histogram data is stored in a memory in the CPU 54.

【0065】以下、ステップS10〜ステップS22ま
では、上記実施の形態での処理と同様である。ただし、
ステップS10における画像の取り込みについては、
輝度信号の画像データのみを取り込み、ステップS14
における画像の取り込みについては、輝度信号と色差
信号の両方の画像データを画像メモリ50に取り込む。
ステップS18における画像と画像の差画像を求め
る際には、輝度信号の画像データを使用する。
Steps S10 to S22 are the same as those in the above embodiment. However,
Regarding the capture of the image in step S10,
Only the image data of the luminance signal is fetched, and step S14
The image data of both the luminance signal and the color difference signal is input to the image memory 50.
When obtaining the difference image between the images in step S18, the image data of the luminance signal is used.

【0066】図19(A)は、画像メモリ50に取り込
まれた画像と画像の例を示した図であり、△は静止
物体、□と○は移動物体を示している。上記ステップS
8において例えば□の移動物体のHUE値のヒストグラ
ムを作成すると、□の移動物体が追尾すべき移動物体と
なる。図19(B)は、ステップS18〜ステップS2
2の処理によって得られた画像と画像の差画像を示
した図であり、□と○の移動物体のみが抽出される。
尚、図19では、画像と画像の撮影範囲は一致して
いるものとし、ステップS16において比較枠が、画像
及び画像の全撮影範囲を含むように設定された場合
を示している。
FIG. 19A is a diagram showing an example of an image and an image taken into the image memory 50, where △ indicates a stationary object, and □ and ○ indicate a moving object. Step S above
For example, when a histogram of the HUE value of the moving object indicated by □ is created in 8, the moving object indicated by □ is the moving object to be tracked. FIG. 19B shows steps S18 to S2.
FIG. 7 is a diagram showing a difference image between an image obtained by the process 2 and only moving objects indicated by □ and ○.
Note that FIG. 19 shows a case where the image and the shooting range of the image coincide with each other, and the comparison frame is set to include the entire shooting range of the image and the image in step S16.

【0067】ステップS22の処理が終了すると、CP
U54は、差画像のデータに基づいて一体とみなされる
移動物体の画像ごとにラベリングNOを付ける(ステッ
プS23)。尚、同一の移動物体であっても、差画像に
おいて一体でなければ別のラベリングNOが付けられ
る。図19(C)は、移動物体の画像にラベリングNO
を付した様子を示したもので、差画像に含まれる各移動
物体のそれぞれにラベリングNO1〜4が付されてい
る。
When the processing in step S22 ends, the CP
U54 attaches a labeling NO to each image of the moving object regarded as one based on the data of the difference image (step S23). Note that even if the moving objects are the same, different labeling NOs are assigned to the difference images unless they are integrated. FIG. 19 (C) shows the labeling NO on the image of the moving object.
The labeling NOs 1 to 4 are attached to the respective moving objects included in the difference image.

【0068】続いて画像処理プロセッサ52は、各ラベ
リングNOの移動物体の画像ごとに面積を求める(ステ
ップS24)。CPU54は、各ラベリングNOの移動
物体の面積を画像処理プロセッサ52から取得してそれ
ぞれの面積を所定のしきい値と比較し、そのしきい値よ
りも大きい移動物体の画像だけを選出する(ステップS
26)。これにより、しきい値よりも小さな移動物体、
又は動きの少ない移動物体は以下の処理の対象から除外
される。もし、しきい値よりも大きい移動物体がなけれ
ば、上記ステップS14に戻り、上述の処理を繰り返
す。
Subsequently, the image processor 52 obtains an area for each image of the moving object of each labeling NO (step S24). The CPU 54 obtains the area of the moving object of each labeling NO from the image processing processor 52, compares each area with a predetermined threshold value, and selects only the image of the moving object larger than the threshold value (step). S
26). This allows moving objects smaller than the threshold,
Alternatively, a moving object having little motion is excluded from the following processing. If there is no moving object larger than the threshold, the process returns to step S14, and the above-described processing is repeated.

【0069】次に、画像処理プロセッサ52は、CPU
54によって選出されたラベリングNOの移動物体ごと
に1次モーメントを求め(ステップS28)、各移動物
体の画面上における重心座標を求める(ステップS3
0)。図19(D)は、各ラベリングNO1〜4の被写
体の重心座標を求めた結果を示した図であり、同図に示
す+の位置が重心位置を示している。
Next, the image processor 52 has a CPU
The first moment is obtained for each moving object of the labeling NO selected by 54 (step S28), and the barycentric coordinates of each moving object on the screen are obtained (step S3).
0). FIG. 19D is a diagram showing the result of obtaining the barycentric coordinates of the subject of each of the labeling NOs 1 to 4, and the + position shown in the drawing indicates the barycentric position.

【0070】次に、画像処理プロセッサ52は、各ラベ
リングNOの移動物体の画素範囲について、画像メモリ
50から画像の色差信号の画像データを読み出し、H
UE変換回路51によってHUE値を取得する。そし
て、各ラベリングNOの移動物体についてのHUE値の
ヒストグラムを作成する(ステップS34)。続いて、
ステップS10で作成した追尾すべき移動物体の色相に
もっとも近い移動物体を選出する(ステップS36)。
例えば、ステップS8で作成した追尾すべき移動物体の
ヒストグラムにおいて最大度数となるHUE値及びその
近傍のHUE値の画素数が最も多い移動物体を選出す
る。図19で示した例において、□の移動物体を追尾す
べき移動物体としてステップS8でHUE値のヒストグ
ラムを作成した場合、差画像のラベリングNO1と2が
追尾すべき移動物体となるが、画像の色差信号の画像
データによりHUE値のヒストグラムを作成しているた
め、図19(E)に示すようにラベリングNO1の移動
物体がステップS36の処理で選出される移動物体とな
る。
Next, the image processor 52 reads out the image data of the color difference signal of the image from the image memory 50 with respect to the pixel range of the moving object of each labeling No.
The UE conversion circuit 51 obtains the HUE value. Then, a histogram of the HUE value for the moving object of each labeling NO is created (step S34). continue,
A moving object closest to the hue of the moving object to be tracked created in step S10 is selected (step S36).
For example, in the histogram of the moving object to be tracked created in step S8, a moving object having the largest number of pixels of the HUE value having the maximum frequency and the HUE value in the vicinity thereof is selected. In the example shown in FIG. 19, when the histogram of the HUE value is created in step S8 with the moving object indicated by □ as the moving object to be tracked, the difference images labeled NO1 and NO2 are the moving objects to be tracked. Since the histogram of the HUE value is created based on the image data of the color difference signal, as shown in FIG. 19E, the moving object with the labeling NO1 is the moving object selected in the process of step S36.

【0071】CPU54は、以上のようにして選出され
たラベリングNOの移動物体の重心座標を雲台コントロ
ーラ12に送信す(ステップS32)、上記ステップS
10からの処理を繰り返す。尚、CPU54から移動物
体の重心座標を取得した際の雲台コントローラ12での
処理は上述したのと全く同様である。
The CPU 54 transmits the coordinates of the center of gravity of the moving object having the labeling NO selected as described above to the camera platform controller 12 (step S32).
The processing from step 10 is repeated. The processing in the pan head controller 12 when acquiring the barycentric coordinates of the moving object from the CPU 54 is exactly the same as described above.

【0072】以上のように、追尾すべき所望の移動物体
をその色相により特定することで、画面内に複数の移動
物体が存在する場合等においても所望の移動物体の重心
座標を検出することができ、その所望の移動物体のみを
適切に自動追尾することができる。
As described above, by specifying the desired moving object to be tracked by its hue, it is possible to detect the barycentric coordinates of the desired moving object even when there are a plurality of moving objects on the screen. It is possible to appropriately and automatically track only the desired moving object.

【0073】尚、追尾すべき移動物体のHUE値のヒス
トグラムの作成は、操作者がその移動物体をモニタ上で
指定して行うようにしたが、これに限らず、例えば、最
初に移動する移動物体を検出し、その移動物体を追尾す
べき移動物体としてその移動物体のHUE値のヒストグ
ラムを自動で作成するようにしてもよい。
The histogram of the HUE value of the moving object to be tracked is created by the operator by designating the moving object on the monitor. However, the present invention is not limited to this. An object may be detected, and a histogram of the HUE values of the moving object may be automatically created as the moving object to be tracked.

【0074】以上、上記実施の形態では、テレビカメラ
により自動追尾する場合について説明したが、本発明は
これに限らず、静止画を撮影するカメラ(例えばデジタ
ルスチルカメラ等)を使用して移動物体をを自動追尾す
る場合にも適用できる。
In the above embodiment, a case has been described in which automatic tracking is performed by a television camera. However, the present invention is not limited to this, and a moving object can be captured using a camera (for example, a digital still camera) that captures a still image. Can also be applied to automatic tracking of

【0075】[0075]

【発明の効果】以上説明したように本発明に係る自動追
尾装置によれば、パン、チルト、ハイトのうち少なくと
もいずれか1つのカメラの移動方向についての位置を主
制御位置とし、他の移動方向とカメラのズームとフォー
カスのうち少なくともいずれか1つについての位置を副
制御位置とし、主制御位置については、追尾すべき移動
物体の位置(重心座標)に基づいて制御する一方、副制
御位置については、主制御位置に対してトレースデータ
によって関連付けされた位置となるように制御するよう
にしたため、トレースデータの作成内容によって移動物
体の位置に応じた精細なカメラ制御が可能になる。ま
た、移動物体の主たる移動方向に対するカメラの移動方
向(例えば、パン方向)についての位置を主制御位置と
し、その他のカメラの移動方向(チルト方向、ハイト方
向)についての位置を副制御位置とすることによって、
主制御位置に対する副制御位置をトレースデータの作成
によって予め決めておくことができ、自動追尾中の映像
を見やすいものとすることができる。また、フォーカス
を副制御位置とすることによってカメラにオートフォー
カス機能がない場合でも移動物体の位置に応じてフォー
カス調整を自動で行なうことができ、ズームを副制御位
置とすることによって移動物体の位置に応じたズーム調
整も自動で行なうことができるようになる。
As described above, according to the automatic tracking apparatus of the present invention, the position in the moving direction of at least one of the pan, tilt, and height is set as the main control position, and the other moving directions are controlled. The position of at least one of zoom and focus of the camera is set as a sub-control position, and the main control position is controlled based on the position (coordinate of the center of gravity) of the moving object to be tracked. Is controlled so as to be a position associated with the main control position by the trace data, so that precise camera control can be performed according to the position of the moving object depending on the contents of the trace data created. The position in the camera movement direction (for example, the pan direction) with respect to the main movement direction of the moving object is set as the main control position, and the positions in the other camera movement directions (tilt direction, height direction) are set as the sub control positions. By
The sub-control position with respect to the main control position can be determined in advance by creating the trace data, and it is possible to make it easy to see the video being automatically tracked. Also, by setting the focus to the sub-control position, the focus can be automatically adjusted according to the position of the moving object even when the camera does not have an auto-focus function, and by setting the zoom to the sub-control position, the position of the moving object can be adjusted. Can be automatically adjusted according to.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は、本発明が適用される自動追尾機能搭載
のリモコン雲台システムの全体構成図である。
FIG. 1 is an overall configuration diagram of a remote control pan head system equipped with an automatic tracking function to which the present invention is applied.

【図2】図2は、リモコン雲台システムの構成を示した
ブロック図である。
FIG. 2 is a block diagram showing a configuration of a remote control pan head system.

【図3】図3は、自動追尾モードにおいて画像処理装置
の画像処理プロセッサ及びCPUが行なう移動物体の重
心座標の検出処理手順を示したフローチャートである。
FIG. 3 is a flowchart illustrating a procedure of a barycenter coordinate detection of a moving object performed by an image processor and a CPU of the image processing apparatus in the automatic tracking mode.

【図4】図4(A)乃至(C)は、雲台が停止している
場合の被写体と撮影範囲の関係を示した説明図である。
FIGS. 4A to 4C are explanatory diagrams showing a relationship between a subject and a shooting range when a camera platform is stopped.

【図5】図5は、図4の場合における差画像を例示した
説明図である。
FIG. 5 is an explanatory diagram illustrating a difference image in the case of FIG. 4;

【図6】図6は、画面上の座標の説明に使用した説明図
である。
FIG. 6 is an explanatory diagram used for describing coordinates on a screen.

【図7】図7(A)乃至(C)は、雲台が移動している
場合の被写体と撮影範囲の関係を示した説明図である。
FIGS. 7A to 7C are explanatory diagrams showing a relationship between a subject and a shooting range when a camera platform is moving.

【図8】図8は、図7の場合における差画像を例示した
説明図である。
FIG. 8 is an explanatory diagram exemplifying a difference image in the case of FIG. 7;

【図9】図9は、撮影範囲が右方向にシフトした場合の
比較枠(比較範囲)の様子を示した説明図である。
FIG. 9 is an explanatory diagram illustrating a state of a comparison frame (comparison range) when the shooting range is shifted rightward.

【図10】図10は、撮影範囲が左方向にシフトした場
合の比較枠(比較範囲)の様子を示した説明図である。
FIG. 10 is an explanatory diagram showing a state of a comparison frame (comparison range) when the photographing range is shifted to the left.

【図11】図11は、トレースデータの作成、登録につ
いての説明に使用した説明図である。
FIG. 11 is an explanatory diagram used for describing creation and registration of trace data.

【図12】図12は、トレースデータの構成を示した図
である。
FIG. 12 is a diagram showing a configuration of trace data.

【図13】図13は、雲台コントローラにおける自動追
尾機能の処理手順を示したフローチャートである。
FIG. 13 is a flowchart illustrating a processing procedure of an automatic tracking function in the camera platform controller.

【図14】図14は、不感帯の説明に使用した説明図で
ある。
FIG. 14 is an explanatory diagram used for explaining a dead zone.

【図15】図15は、パン移動量算出の説明に使用した
説明図である。
FIG. 15 is an explanatory diagram used for explaining the pan movement amount calculation;

【図16】図16は、パン移動量算出の説明に使用した
説明図である。
FIG. 16 is an explanatory diagram used for explaining a pan movement amount calculation;

【図17】図17は、リモコン雲台システムの他の実施
の形態の構成を示したブロック図である。
FIG. 17 is a block diagram showing a configuration of another embodiment of the remote control pan head system.

【図18】図18は、追尾すべき移動物体を色相により
識別して重心座標を検出する画像処理装置の処理手順を
示したフローチャートである。
FIG. 18 is a flowchart illustrating a processing procedure of the image processing apparatus that identifies a moving object to be tracked based on hue and detects barycentric coordinates.

【図19】図19は、図18の処理の説明に使用した説
明図である。
FIG. 19 is an explanatory diagram used for describing the processing in FIG. 18;

【符号の説明】[Explanation of symbols]

10…雲台、12…雲台コントローラ、14…画像処理
装置、40…カメラ、42…カメラ本体、44…レンズ
装置、46…Y/C分離回路、48、49…A/Dコン
バータ、50…画像メモリ、52…画像処理プロセッ
サ、54…CPU、60…CPU、62…メモリ
DESCRIPTION OF SYMBOLS 10 ... head, 12 ... head controller, 14 ... image processing apparatus, 40 ... camera, 42 ... camera main body, 44 ... lens apparatus, 46 ... Y / C separation circuit, 48, 49 ... A / D converter, 50 ... Image memory, 52: Image processor, 54: CPU, 60: CPU, 62: Memory

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/18 H04N 7/18 G Fターム(参考) 2F065 AA17 AA58 FF04 FF26 FF28 LL06 MM24 MM25 PP04 QQ04 QQ24 UU05 5C022 AB21 AB62 AB63 AB66 AC27 AC69 5C054 CF03 CF05 CF06 EA01 FC09 FC11 FC12 FC13 FC16 FF02 GA04 HA04 HA31 5L096 AA02 BA02 CA02 DA02 FA15 FA57 FA60 FA67 FA69 FA76 GA08 GA41 HA03 HA04 LA04 LA05 LA12 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 7/18 H04N 7/18 GF Term (Reference) 2F065 AA17 AA58 FF04 FF26 FF28 LL06 MM24 MM25 PP04 QQ04 QQ24 UU05 5C022 AB21 AB62 AB63 AB66 AC27 AC69 5C054 CF03 CF05 CF06 EA01 FC09 FC11 FC12 FC13 FC16 FF02 GA04 HA04 HA31 5L096 AA02 BA02 CA02 DA02 FA15 FA57 FA60 FA67 FA69 FA76 GA08 GA41 HA03 HA04 LA04 LA05 LA12

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】雲台により、パン、チルト、及び、ハイト
のうち少なくともいずれか1つの移動方向に移動可能に
カメラを支持し、該カメラにより撮影された画像から追
尾すべき移動物体の位置を検出して、該検出した位置に
基づいて前記移動物体が前記カメラの撮影範囲外となら
ないように前記カメラを前記移動方向に移動させる自動
追尾装置において、 前記カメラの移動可能な移動方向のうち、少なくともい
ずれか1つの移動方向についての位置を主制御位置と
し、前記カメラの移動可能な移動方向のうち、前記主制
御位置に係る移動方向と異なる移動方向と、前記カメラ
のズームとフォーカスのうち、少なくともいずれか1つ
についての位置を副制御位置として、前記主制御位置に
対して前記副制御位置を関連付けるトレースデータを作
成するトレースデータ作成手段と、 前記移動物体の位置が前記主制御位置に係る移動方向に
ついて前記カメラの撮影範囲外とならないように前記主
制御位置を制御すると共に、前記主制御位置に対して前
記トレースデータによって関連付けされた位置となるよ
うに前記副制御位置を制御する制御手段と、 を備えたことを特徴とする自動追尾装置。
A camera is supported by a camera platform so as to be movable in at least one of pan, tilt, and height directions, and the position of a moving object to be tracked from an image captured by the camera is determined. Detecting, in an automatic tracking device that moves the camera in the moving direction so that the moving object is not outside the shooting range of the camera based on the detected position, of the movable directions of the camera, A position in at least one of the moving directions is a main control position, and among the movable directions of the camera, a moving direction different from the moving direction related to the main control position, and a zoom and focus of the camera, Trace data for associating the sub-control position with the main control position is created using the position of at least one of the sub-control positions as a sub-control position. And a trace data generating unit configured to control the main control position so that the position of the moving object does not fall outside the photographing range of the camera in the moving direction related to the main control position, and Control means for controlling the sub-control position so as to be a position associated with the trace data.
【請求項2】前記主制御位置をパンについての位置とし
て、前記副制御位置をチルト、ズーム、フォーカスにつ
いての位置とすることを特徴とする請求項1の自動追尾
装置。
2. The automatic tracking device according to claim 1, wherein the main control position is a position for panning, and the sub-control position is a position for tilt, zoom and focus.
【請求項3】前記トレースデータは、パン、チルト、ズ
ーム、フォーカスについての一連の動作に対して一定時
間間隔の各時点でのそれぞれの位置を記録したデータで
あることを特徴とする請求項2の自動追尾装置。
3. The trace data according to claim 2, wherein each of the trace data is a record of a position at each point in time at a predetermined time interval with respect to a series of operations for pan, tilt, zoom, and focus. Automatic tracking device.
【請求項4】追尾すべき所望の移動物体を色相により識
別し、該識別した追尾すべき移動物体の位置を検出する
検出手段を備えたことを特徴とする請求項1の自動追尾
装置。
4. The automatic tracking apparatus according to claim 1, further comprising a detecting means for identifying a desired moving object to be tracked by hue and detecting the position of the identified moving object to be tracked.
JP2001035681A 2001-02-13 2001-02-13 Automatic tracking device Expired - Fee Related JP4403483B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001035681A JP4403483B2 (en) 2001-02-13 2001-02-13 Automatic tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001035681A JP4403483B2 (en) 2001-02-13 2001-02-13 Automatic tracking device

Publications (2)

Publication Number Publication Date
JP2002247440A true JP2002247440A (en) 2002-08-30
JP4403483B2 JP4403483B2 (en) 2010-01-27

Family

ID=18899096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001035681A Expired - Fee Related JP4403483B2 (en) 2001-02-13 2001-02-13 Automatic tracking device

Country Status (1)

Country Link
JP (1) JP4403483B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100457302B1 (en) * 2002-10-31 2004-11-16 전자부품연구원 Auto tracking and auto zooming method of multi channel by digital image processing
JP2007081754A (en) * 2005-09-13 2007-03-29 Canon Inc Camera platform apparatus
CN102314179A (en) * 2011-05-04 2012-01-11 杭州电子科技大学 Cradle head control method based on mobile phone and built-in gravity sensor
JP2012133573A (en) * 2010-12-21 2012-07-12 Canon Inc Image recognition device, image recognition method and program
JP2013040985A (en) * 2011-08-11 2013-02-28 Nikon Corp Imaging device
JP2013223220A (en) * 2012-04-19 2013-10-28 Canon Inc Automatic tracking device
JP2013247508A (en) * 2012-05-25 2013-12-09 Canon Inc Control device for automatic-tracking camera and automatic-tracking camera with the control device
WO2017023151A1 (en) * 2015-08-06 2017-02-09 엘지이노텍 주식회사 Image processing apparatus
CN109873950A (en) * 2019-01-30 2019-06-11 努比亚技术有限公司 A kind of image correcting method, terminal and computer readable storage medium
WO2020026557A1 (en) * 2018-08-01 2020-02-06 ソニー株式会社 Drive control device, drive control method, and program
CN114225281A (en) * 2021-12-21 2022-03-25 中科永安(六安)科技有限公司 Automatic fire monitor positioning algorithm based on image recognition
CN115103121A (en) * 2022-07-05 2022-09-23 长江三峡勘测研究院有限公司(武汉) Slope oblique photography device, image data acquisition method and image data acquisition instrument

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100457302B1 (en) * 2002-10-31 2004-11-16 전자부품연구원 Auto tracking and auto zooming method of multi channel by digital image processing
JP2007081754A (en) * 2005-09-13 2007-03-29 Canon Inc Camera platform apparatus
EP1764622A3 (en) * 2005-09-13 2008-07-16 Canon Kabushiki Kaisha Image pickup apparatus
US7916172B2 (en) 2005-09-13 2011-03-29 Canon Kabushiki Kaisha Image pickup apparatus with object tracking capability
JP2012133573A (en) * 2010-12-21 2012-07-12 Canon Inc Image recognition device, image recognition method and program
CN102314179A (en) * 2011-05-04 2012-01-11 杭州电子科技大学 Cradle head control method based on mobile phone and built-in gravity sensor
JP2013040985A (en) * 2011-08-11 2013-02-28 Nikon Corp Imaging device
US9565348B2 (en) 2012-04-19 2017-02-07 Canon Kabushiki Kaisha Automatic tracking apparatus
JP2013223220A (en) * 2012-04-19 2013-10-28 Canon Inc Automatic tracking device
JP2013247508A (en) * 2012-05-25 2013-12-09 Canon Inc Control device for automatic-tracking camera and automatic-tracking camera with the control device
WO2017023151A1 (en) * 2015-08-06 2017-02-09 엘지이노텍 주식회사 Image processing apparatus
WO2020026557A1 (en) * 2018-08-01 2020-02-06 ソニー株式会社 Drive control device, drive control method, and program
JPWO2020026557A1 (en) * 2018-08-01 2021-08-12 ソニーグループ株式会社 Drive control device, drive control method, program
US11438513B2 (en) 2018-08-01 2022-09-06 Sony Corporation Drive control device and drive control method
JP7310818B2 (en) 2018-08-01 2023-07-19 ソニーグループ株式会社 DRIVE CONTROL DEVICE, DRIVE CONTROL METHOD, AND PROGRAM
CN109873950A (en) * 2019-01-30 2019-06-11 努比亚技术有限公司 A kind of image correcting method, terminal and computer readable storage medium
CN114225281A (en) * 2021-12-21 2022-03-25 中科永安(六安)科技有限公司 Automatic fire monitor positioning algorithm based on image recognition
CN115103121A (en) * 2022-07-05 2022-09-23 长江三峡勘测研究院有限公司(武汉) Slope oblique photography device, image data acquisition method and image data acquisition instrument

Also Published As

Publication number Publication date
JP4403483B2 (en) 2010-01-27

Similar Documents

Publication Publication Date Title
JP4745769B2 (en) Camera head unit
US8638372B2 (en) Image capture unit with changeable image capture direction
US7548269B2 (en) System for autofocusing a moving object
JP5911201B2 (en) Automatic tracking control device for camera device and automatic tracking camera system having the same
JP2007086269A (en) Camera system and focal length adjusting method of zoom lens optical system of camera system
JP4403483B2 (en) Automatic tracking device
JP5200821B2 (en) Imaging apparatus and program thereof
JP2006058431A (en) Autofocusing system
JP2005338352A (en) Autofocus system
JP2000101895A (en) Image signal photographing device and its method
JP2011205395A (en) Imaging apparatus, and program
JP5317607B2 (en) Automatic tracking camera control device, automatic tracking camera system, and automatic tracking camera control method
JPH07226873A (en) Automatic tracking image pickup unit
JP2013034158A (en) Imaging apparatus
JP2003241065A (en) Autofocusing system
JP2011188258A (en) Camera system
JP4189534B2 (en) Automatic tracking device
EP2763395B1 (en) Imaging apparatus
JP2001169169A (en) Automatic tracking device
JP2002135766A (en) Automatic tracking device
JP3948050B2 (en) Imaging, storage, processing, display, playback, transmission device and recording medium
JP4148251B2 (en) Imaging device and display device
JP2012099887A (en) Imaging device
JP2002171438A (en) Automatic tracking device
JP2000175101A (en) Automatic tracking device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091008

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091021

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4403483

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131113

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees