JP2002112250A - Automatic tracking device - Google Patents

Automatic tracking device

Info

Publication number
JP2002112250A
JP2002112250A JP2000300475A JP2000300475A JP2002112250A JP 2002112250 A JP2002112250 A JP 2002112250A JP 2000300475 A JP2000300475 A JP 2000300475A JP 2000300475 A JP2000300475 A JP 2000300475A JP 2002112250 A JP2002112250 A JP 2002112250A
Authority
JP
Japan
Prior art keywords
image
camera
range
moving object
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000300475A
Other languages
Japanese (ja)
Other versions
JP4568915B2 (en
Inventor
Kunio Tanida
邦男 谷田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujinon Corp
Original Assignee
Fuji Photo Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Optical Co Ltd filed Critical Fuji Photo Optical Co Ltd
Priority to JP2000300475A priority Critical patent/JP4568915B2/en
Publication of JP2002112250A publication Critical patent/JP2002112250A/en
Application granted granted Critical
Publication of JP4568915B2 publication Critical patent/JP4568915B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an automatic tracking device that can automatically track a mobile object with a low-cost circuit by deciding the setting of a comparison range of images on the basis of a moving speed of a universal head in the case of comparing the images by two frames captured from a camera during movement of the universal head so as to extract an image of the mobile object. SOLUTION: The automatic tracking device captures an image (1) of a photographing range L during movement of the universal head and then captures an image (2) of a photographing range L'. Then a range where the photographing ranges of both the images are in duplicate on a picture of the images (1), (2) is decided as a comparison range (comparison frame P). The comparison range P is obtained by calculating how much the photographing range L' of the image (2) is shifted with respect to the photographing range L of the image (1) on the basis of a moving speed (panning speed) of the universal head. Then comparing the images (1), (2) within the comparison frame P extracts the image of the mobile object to set the suitable moving speed of the universal head on the basis of a position of the image of the mobile object of the picture.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は自動追尾装置に係
り、特にカメラの撮影方向を自動で移動させて移動物体
を自動追尾する自動追尾装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic tracking device, and more particularly, to an automatic tracking device that automatically moves a shooting direction of a camera and automatically tracks a moving object.

【0002】[0002]

【従来の技術】自動追尾装置は、テレビカメラを搭載し
た雲台をモータ駆動によりパン/チルトさせてカメラの
撮影方向を自動で移動させ、移動する被写体(移動物
体)を自動追尾する装置である。自動追尾の方法として
特開昭59−208983号公報に記載のものが一般的
に知られている。この方法によれば、カメラから出力さ
れる映像信号から所定時間間隔の2フレーム分(2画面
分)の画像が取り込まれ、それらの画像の比較によって
移動物体の画像が抽出される。そして、その抽出された
移動物体の画像の重心位置から移動物体の移動量及び移
動方向が検出され、これに基づいて移動物体の重心が常
に画面中央となるようにカメラの撮影方向が雲台のパン
/チルトにより自動で制御される。尚、本明細書におい
て、カメラの撮影方向をパン方向又はチルト方向に移動
させる雲台の動作を、雲台のパン方向若しくはチルト方
向への移動、又は、単に雲台の移動という。
2. Description of the Related Art An automatic tracking device is a device for automatically moving a shooting direction of a camera by panning / tilting a pan head mounted with a television camera by driving a motor and automatically tracking a moving object (moving object). . As an automatic tracking method, a method described in JP-A-59-208983 is generally known. According to this method, images of two frames (two screens) at predetermined time intervals are captured from a video signal output from a camera, and an image of a moving object is extracted by comparing the images. Then, the moving amount and moving direction of the moving object are detected from the position of the center of gravity of the extracted image of the moving object, and based on this, the shooting direction of the camera is set so that the center of gravity of the moving object is always at the center of the screen. Automatically controlled by pan / tilt. In this specification, the operation of the camera platform for moving the shooting direction of the camera in the pan direction or the tilt direction is referred to as the movement of the camera platform in the pan or tilt direction, or simply as the movement of the camera platform.

【0003】ところで、上述の特開昭59−20898
3号公報に記載の自動追尾の方法では、カメラから取り
込んだ2フレーム分の画像を比較して移動物体の画像を
抽出するため、それらの比較する画像を取り込む間は、
雲台を停止させておく必要があった。即ち、雲台が移動
することによって比較する画像の撮影範囲が異なると、
画面上では静止物体の画像も移動し、移動物体の画像を
識別することができなくなるため、比較する画像を取り
込む間は雲台を移動させることができない。このため、
上述の自動追尾の方法では動きの速い移動物体を追尾で
きず、また、雲台が移動と停止を繰を返し、画面が見づ
らくなるなどの欠点があった。
Incidentally, the above-mentioned Japanese Patent Application Laid-Open No. Sho 59-20898 is disclosed.
In the automatic tracking method described in Japanese Patent Application Laid-Open No. 3 (1999) -1995, since images of a moving object are extracted by comparing images of two frames captured from a camera, while capturing the images to be compared,
The head had to be stopped. In other words, if the shooting range of the compared image differs due to the movement of the camera platform,
Since the image of the stationary object also moves on the screen and the image of the moving object cannot be identified, the camera platform cannot be moved while capturing the image to be compared. For this reason,
The above-described automatic tracking method has a drawback that a fast-moving moving object cannot be tracked, and the camera platform repeatedly moves and stops, making the screen difficult to see.

【0004】そこで、本願出願人は、このような欠点を
解消するため特願平10−345664号において移動
物体の画像を異なる撮影範囲の画像からでも抽出できる
ようにし、雲台を移動させながらでも移動物体の画像を
認識できるようにした自動追尾の方法を提案している。
これによれば、雲台の停止中又は移動中にかかわらず、
カメラから画像を取り込むとと共に、そのときの雲台の
パン/チルト位置を取得しておく。所定時間をおいて2
フレーム分の画像を取り込むと、各画像が取り込ん際の
パン/チルト位置に基づいて、各画像が撮影された際の
カメラの撮影範囲を求め、各画像の撮影範囲のうち重複
する範囲を比較範囲として決定する。この比較範囲内で
は、静止物体の画像は移動しないため、比較範囲内の画
像を比較することによって移動物体の画像のみを抽出す
ることが可能となる。
[0004] In order to solve such a drawback, the applicant of the present invention disclosed in Japanese Patent Application No. 10-345664 so that an image of a moving object can be extracted from an image in a different photographing range. We have proposed an automatic tracking method that can recognize images of moving objects.
According to this, regardless of whether the head is stopped or moving
At the same time as capturing an image from the camera, the pan / tilt position of the camera platform at that time is acquired. After a predetermined time 2
When the image of the frame is captured, the photographing range of the camera at the time of capturing each image is obtained based on the pan / tilt position at the time of capturing each image, and the overlapping range of the capturing range of each image is compared with the comparison range. To be determined. Since the image of the stationary object does not move within this comparison range, it is possible to extract only the image of the moving object by comparing the images within the comparison range.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上述の
特願平10−345664号において提案した自動追尾
の方法のように、比較範囲を決定するために各画像の撮
影範囲をパン/チルト位置に基づいて算出するようにす
ると、高精度及びの高分解能の位置検出が要求され、ま
た、各画像の取込み時のパン/チルト位置を正確に検出
するための高い時間精度も要求される。即ち、上述のよ
うに比較範囲を求める際に、一方の画像の撮影範囲が他
方の画像の撮影範囲に対してシフトした量(シフト量)
を、画像を構成する画素の単位で求める必要があり、1
画素分のシフトに対応するパン/チルト位置の変位は感
覚的にもかなり微小であることが分かる。従って、この
ような微小な変位の検出を位置検出によって精度良く行
うためには分解能が高く高価なセンサー、A/Dコンバ
ータ等の使用が不可欠であり、コストが高くなるという
欠点があった。また、パン/チルト駆動用にステッピン
グモータを使用した場合は、位置検出センサーが必須で
はないため、それを設けないことがある。その場合、パ
ン/チルト位置データが出力されず、そこから比較範囲
を求めることが不可能となってしまうという欠点があっ
た。
However, as in the automatic tracking method proposed in Japanese Patent Application No. 10-345664, the photographing range of each image is determined based on the pan / tilt position in order to determine the comparison range. If such calculation is performed, high-precision and high-resolution position detection is required, and high time accuracy for accurately detecting the pan / tilt position at the time of capturing each image is also required. That is, when the comparison range is obtained as described above, the amount by which the shooting range of one image is shifted with respect to the shooting range of the other image (shift amount).
Must be obtained in units of pixels constituting the image, and 1
It can be seen that the displacement of the pan / tilt position corresponding to the shift of the pixel is quite small in a sense. Therefore, in order to accurately detect such a minute displacement by position detection, it is indispensable to use an expensive sensor and an A / D converter with a high resolution, resulting in a high cost. When a stepping motor is used for pan / tilt driving, a position detection sensor is not essential, and may not be provided. In this case, there is a disadvantage that the pan / tilt position data is not output, and it is impossible to obtain a comparison range therefrom.

【0006】本発明はこのような事情に鑑みてなされた
もので、雲台の移動中にカメラから取り込んだ2フレー
ム分の画像を比較して移動物体の画像を抽出する場合に
おいて、画像を比較する比較範囲を、画像取り込み時の
雲台の位置に基づいて決定するのではなく、コストがか
からない方法で決定できるようにした自動追尾装置を提
供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and when comparing two frames of images captured from a camera while moving a camera platform to extract an image of a moving object, the images are compared. It is an object of the present invention to provide an automatic tracking device that can determine a comparison range to be determined based on a position of a camera platform at the time of capturing an image, without using a cost.

【0007】[0007]

【課題を解決するための手段】本発明は、前記目的を達
成するために、請求項1に記載の発明は、カメラを載置
した雲台の移動によってカメラの撮影方向を移動させな
がら前記カメラで撮影された画像を逐次取り込み、該取
り込んだ画像を比較して移動物体の画像を抽出すると共
に、前記移動物体の画像の画面上の位置に基づいて前記
移動物体が前記カメラの撮影範囲外とならないように前
記雲台の移動速度を制御する自動追尾装置において、前
記カメラから取り込んだ画像を少なくとも2画面分記憶
する画像記憶手段と、前記画像記憶手段によって記憶さ
れた2画面分の画像を前記カメラから取り込んだ際にお
ける前記雲台の移動速度を取得する移動速度取得手段
と、前記移動速度取得手段によって取得された前記雲台
の移動速度に基づいて、前記2画面分の各画像を前記カ
メラで撮影した際の撮影範囲が重複する範囲を比較範囲
として決定する比較範囲決定手段と、前記2画面分の各
画像から前記比較範囲決定手段によって決定された比較
範囲内の画像を抽出し、該抽出した各画像を比較するこ
とによって前記移動物体の画像を抽出する画像処理手段
と、前記画像処理手段によって抽出された前記移動物体
の画像の画面上の位置に基づいて、前記移動物体が前記
カメラの撮影範囲外とならないように前記雲台の移動速
度を制御する移動速度制御手段と、を備えたことを特徴
としている。
According to the present invention, in order to achieve the above object, the invention according to claim 1 is characterized in that the camera is moved while moving the shooting direction by moving a camera platform on which the camera is mounted. Sequentially capture the image captured in, while extracting the image of the moving object by comparing the captured image, based on the position of the image of the moving object on the screen and the moving object outside the shooting range of the camera In an automatic tracking device for controlling the moving speed of the camera platform so as not to be disturbed, an image storage means for storing at least two screens of images taken from the camera, and an image for two screens stored by the image storage means. Moving speed acquiring means for acquiring the moving speed of the camera platform when capturing from the camera; and based on the moving speed of the camera platform acquired by the moving speed acquiring device. A comparison range determining unit that determines, as a comparison range, a range in which an image capturing range when each image of the two screens is captured by the camera is determined by the comparison range determining unit from each image of the two screens. Image processing means for extracting an image of the moving object extracted by extracting the image within the comparison range, and comparing the extracted images, and an image of the moving object image extracted by the image processing means on a screen. Moving speed control means for controlling the moving speed of the camera platform based on the position so that the moving object does not fall outside the shooting range of the camera.

【0008】また、請求項2に記載の発明は、請求項1
に記載の発明において、前記カメラの撮影画角が可変の
場合において、前記画像記憶手段によって記憶された2
画面分の画像を前記カメラから取り込んだ際における前
記カメラの撮影画角を取得する撮影画角取得手段を備
え、前記比較範囲決定手段は、前記撮影画角取得手段に
よって取得された撮影画角及び前記雲台の移動速度に基
づいて前記比較範囲を決定することを特徴としている。
[0008] The invention described in claim 2 is the first invention.
In the invention described in (1), when the angle of view of the camera is variable, the 2
When the image of the screen is captured from the camera, the camera further includes a photographing angle of view acquiring unit that acquires a photographing angle of view of the camera, and the comparison range determining unit includes a photographing angle of view acquired by the photographing angle of view acquiring unit. The comparison range is determined based on a moving speed of the camera platform.

【0009】本発明によれば、カメラから取り込んだ画
像から移動物体の画像を抽出するための比較範囲を雲台
の移動速度に基づいて決定するようにしたため、従来の
ように雲台の位置に基づいて比較範囲を決定する場合に
比べて安価な部品の使用で決定することができるように
なる。即ち、2画面分の各画像を取り込む時間間隔は正
確に決めることができ、かつ、その時間間隔が短いため
例えば撮影範囲が1画素分だけシフトしたことを検出す
るための速度検出の分解能及び精度は位置検出の場合に
比べて低くてもよく、安価なセンサー及びA/Dコンバ
ータ等の使用が可能になる。また、雲台の移動速度が一
定の間に2画面分の画像を取り込むようにすれば、画像
の取込み時と移動速度の検出時とを正確に一致させる必
要もなく高い時間精度も不要となる。更に、パン/チル
ト駆動用にステッピングモータを使用した場合に位置検
出センサーを設けなくても、移動速度から比較範囲を求
めることが可能となる。
According to the present invention, the comparison range for extracting the image of the moving object from the image captured by the camera is determined based on the moving speed of the camera platform. The comparison range can be determined by using inexpensive parts as compared with the case where the comparison range is determined based on the comparison range. That is, the time interval for capturing each image for two screens can be accurately determined, and since the time interval is short, for example, the resolution and accuracy of speed detection for detecting that the shooting range has been shifted by one pixel. May be lower than in the case of position detection, which allows the use of inexpensive sensors and A / D converters. In addition, if an image for two screens is captured while the moving speed of the camera platform is constant, it is not necessary to exactly match the time of capturing the image with the time of detecting the moving speed, and high time accuracy is not required. . Furthermore, when a stepping motor is used for pan / tilt driving, the comparison range can be obtained from the moving speed without providing a position detection sensor.

【0010】[0010]

【発明の実施の形態】以下添付図面に従って本発明に係
る自動追尾装置の好ましい実施の形態を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of an automatic tracking device according to the present invention will be described below in detail with reference to the accompanying drawings.

【0011】図1は、本発明が適用される自動追尾機能
搭載のリモコン雲台システムの全体構成図である。同図
に示すリモコン雲台システムは、リモコン雲台10(以
下、単に雲台10という)、雲台コントローラ12、及
び、画像処理装置14とから構成される。雲台10は、
テレビカメラ(以下、単にカメラという)を収容するハ
ウジング15と、ハウジング15全体を回動させてハウ
ジング15内のカメラをパンニング及びチルティングさ
せる雲台本体16とから構成される。ハウジング15の
前面には透明の保護ガラス17が設けられ、ハウジング
15内に収納されたカメラはこの保護ガラス17を介し
てハウジング15外部の映像を撮影する。
FIG. 1 is an overall configuration diagram of a remote control pan head system equipped with an automatic tracking function to which the present invention is applied. The remote control head system shown in FIG. 1 includes a remote control head 10 (hereinafter, simply referred to as a head 10), a head controller 12, and an image processing device 14. Head 10
It comprises a housing 15 for housing a television camera (hereinafter simply referred to as a camera), and a camera platform body 16 for rotating the entire housing 15 to pan and tilt the camera in the housing 15. A transparent protective glass 17 is provided on the front surface of the housing 15, and a camera housed in the housing 15 captures an image outside the housing 15 through the protective glass 17.

【0012】上記ハウジング15は、雲台本体16から
延設されたチルト軸(図示せず)に支持され、このチル
ト軸は雲台本体16に内蔵されたチルトモータによって
回転駆動される。従って、チルトモータが駆動される
と、チルト軸を介してハウジング15が回動し、ハウジ
ング15内のカメラがチルティングする。また、雲台本
体16は図示しない据付台上に固定されたパン軸18に
よって支持され、このパン軸18を軸として雲台本体1
6が内蔵のパンモータによって回転駆動される。従っ
て、パンモータが駆動されると、雲台本体16と共にハ
ウジング15が回動し、ハウジング15内のカメラがパ
ンニングする。
The housing 15 is supported on a tilt shaft (not shown) extending from the camera platform main body 16, and the tilt shaft is driven to rotate by a tilt motor built in the camera platform main body 16. Therefore, when the tilt motor is driven, the housing 15 rotates through the tilt shaft, and the camera in the housing 15 tilts. The pan head body 16 is supported by a pan shaft 18 fixed on a mounting table (not shown).
6 is rotated by a built-in pan motor. Therefore, when the pan motor is driven, the housing 15 rotates together with the camera platform body 16, and the camera in the housing 15 pans.

【0013】上記雲台コントローラ12は、雲台10に
ケーブルを介して接続され(尚、専用回線、公衆回線等
の通信回線を介して接続することも可能である。)、雲
台コントローラ12に設けられている各種操作部材の操
作に基づいて制御信号を雲台10に送信し、雲台10及
び雲台10に搭載されたカメラの各種動作を制御する。
また、雲台コントローラ12は、自動追尾モードとなっ
ている場合には、画像処理装置14から与えられる信号
に基づいて制御信号を雲台10に送信し、雲台10を移
動(パン/チルト動作)させて移動する被写体(移動物
体)をカメラで追尾させる。
The camera platform controller 12 is connected to the camera platform 10 via a cable (it is also possible to connect via a communication line such as a dedicated line or a public line). A control signal is transmitted to the camera platform 10 based on the operation of the various operating members provided, and various operations of the camera platform 10 and the camera mounted on the camera platform 10 are controlled.
When the automatic tracking mode is set, the pan head controller 12 transmits a control signal to the pan head 10 based on a signal given from the image processing device 14 and moves the pan head 10 (pan / tilt operation). ) And the moving object (moving object) is tracked by the camera.

【0014】図2は、上記リモコン雲台システムの構成
を示したブロック図である。同図に示すように雲台10
のハウジング15に収納されるカメラ40は、カメラ本
体42とカメラ本体42に装着されるレンズ装置44と
から構成される。カメラ本体42には、撮像素子や所要
の処理回路が搭載されており、レンズ装置44の光学系
を介して撮像素子に結像された画像(動画)は映像信号
(本実施の形態ではNTSC方式の映像信号)として外
部に出力される。カメラ本体42における撮影開始や終
了等の撮影動作の制御は雲台コントローラ12から雲台
10を介して与えられる制御信号に基づいて行われる。
また、レンズ装置44には、モータ駆動可能なフォーカ
スレンズやズームレンズ等の光学部材が搭載されてお
り、これらのフォーカスレンズやズームレンズが移動す
ることによってカメラ40のフォーカスやズームが調整
される。フォーカスやズーム等のレンズ装置44の動作
に関する制御は、カメラ本体42と同様に雲台コントロ
ーラ12から与えられる制御信号に基づいて行われる。
FIG. 2 is a block diagram showing the configuration of the remote control pan head system. As shown in FIG.
The camera 40 housed in the housing 15 is composed of a camera body 42 and a lens device 44 mounted on the camera body 42. The camera body 42 has an image sensor and necessary processing circuits mounted thereon. An image (moving image) formed on the image sensor via the optical system of the lens device 44 is converted into a video signal (in this embodiment, an NTSC system). As a video signal). The control of the photographing operation such as the start and end of photographing in the camera body 42 is performed based on a control signal given from the camera platform controller 12 via the camera platform 10.
The lens device 44 is equipped with optical members such as a focus lens and a zoom lens that can be driven by a motor. The focus and zoom of the camera 40 are adjusted by moving the focus lens and the zoom lens. Control regarding the operation of the lens device 44 such as focus and zoom is performed based on a control signal given from the camera platform controller 12 as in the camera body 42.

【0015】雲台10には、上述のようにパンモータや
チルトモータが搭載されており、雲台コントローラ12
から与えられる制御信号によってこれらのパンモータや
チルトモータが駆動されると、カメラ40がパンニング
又はチルティングし、カメラ40の撮影範囲が移動す
る。尚、カメラ40をパンニング又はチルティングさせ
るときに雲台10の動作を、本明細書では雲台10が移
動するという。
The pan head and the tilt motor are mounted on the pan head 10 as described above.
When these pan motors and tilt motors are driven by the control signal given by the camera 40, the camera 40 pans or tilts, and the shooting range of the camera 40 moves. The operation of the camera platform 10 when panning or tilting the camera 40 is referred to as the camera platform 10 moving in this specification.

【0016】同図に示すように画像処理装置14は、Y
/C分離回路46、画像メモリ50、画像処理プロセッ
サ52、CPU54等の各種信号処理回路から構成さ
れ、これらの信号処理回路は、雲台コントローラ12が
自動追尾モードとなっているときに有効に動作する。こ
の画像処理装置14には、カメラ本体42から出力され
た映像信号が入力され、自動追尾モード時においてその
映像信号はカメラ本体Y/C分離回路46によって輝度
信号(Y信号)と色差信号に分離される。ここで分離さ
れた輝度信号はA/Dコンバータ48によってデジタル
信号(以下、画像データという)に変換され、画像メモ
リ50に入力される。一方、Y/C分離回路46から画
像処理プロセッサ52には、映像信号の同期信号が与え
られており、この同期信号に基づいて所要のタイミング
で画像処理プロセッサ52から画像メモリ50にデータ
書込みのコマンドが与えられる。これによって、画像メ
モリ50には、後述のように所定時間間隔の複数フレー
ム分の画像データが記憶される。尚、NTSC方式の映
像信号ではインタレース方式を採用しているため、1フ
レーム分の画像は、2フィールド分の画像によって構成
されるが、本明細書において1フレームの画像データと
いう場合には、連続して撮影される一連の画像のうち1
画面を構成する画像データを意味しており、本実施の形
態では、1フレームの画像データは1フィールド分の画
像データをいうものとする。
As shown in FIG. 1, the image processing device 14
/ C separation circuit 46, image memory 50, image processing processor 52, various signal processing circuits such as CPU 54. These signal processing circuits operate effectively when the pan head controller 12 is in the automatic tracking mode. I do. The video signal output from the camera body 42 is input to the image processing device 14, and the video signal is separated into a luminance signal (Y signal) and a color difference signal by the camera body Y / C separation circuit 46 in the automatic tracking mode. Is done. The separated luminance signal is converted into a digital signal (hereinafter referred to as image data) by an A / D converter 48 and input to an image memory 50. On the other hand, a synchronizing signal of a video signal is given from the Y / C separation circuit 46 to the image processor 52, and a command for writing data from the image processor 52 to the image memory 50 at a required timing based on the synchronizing signal. Is given. Thus, the image memory 50 stores image data for a plurality of frames at predetermined time intervals as described later. It should be noted that an image for one frame is composed of an image for two fields since the NTSC video signal employs an interlaced system. In the present specification, when one frame of image data is called, One of a series of images taken continuously
In the present embodiment, one frame of image data refers to image data of one field.

【0017】以上のようにして画像メモリ50に記憶さ
れた複数フレーム分の画像データは、以下で詳説するよ
うに画像処理プロセッサ52によって読み出されて画像
処理され、また、その画像処理の結果に基づいてCPU
54によって演算処理され、移動物体をカメラ40で自
動追尾するための雲台10のパン方向及びチルト方向へ
の移動スピード(パンスピード及びチルトスピード)が
算出される。尚、CPU54には、移動スピードの算出
のため(後述の比較枠の算出のため)、各時点でのレン
ズ装置44の焦点距離(画角)及び雲台10の移動スピ
ード(パンスピード及びチルトスピード)が雲台コント
ローラ12から与えられる。
The image data for a plurality of frames stored in the image memory 50 as described above is read and image-processed by the image processor 52 as described in detail below, and the result of the image processing is Based cpu
The arithmetic processing is performed by 54 to calculate the moving speed (pan speed and tilt speed) of the camera platform 10 in the pan direction and the tilt direction for automatically tracking the moving object with the camera 40. The CPU 54 calculates the moving speed (for calculating a later-described comparison frame), the focal length (angle of view) of the lens device 44 and the moving speed (pan speed and tilt speed) of the camera platform 10 at each time. ) Is provided from the pan head controller 12.

【0018】雲台コントローラ12が自動追尾モードに
設定されている場合、上記雲台コントローラ12には、
画像処理装置14のCPU54によって算出された移動
スピードが指令信号として与えられ、その移動スピード
となるように雲台コントローラ12から雲台10に制御
信号が送信される。一方、自動追尾モードに設定されて
いない場合には、上述のように雲台コントローラ12に
設けられている各種操作部材の操作に基づいて雲台コン
トローラ12から雲台10に制御信号が送信され、雲台
10及び雲台10に搭載されたカメラ40の各種動作が
制御される。
When the camera controller 12 is set to the automatic tracking mode, the camera controller 12
The moving speed calculated by the CPU 54 of the image processing apparatus 14 is given as a command signal, and a control signal is transmitted from the pan head controller 12 to the pan head 10 so as to have the moving speed. On the other hand, when the automatic tracking mode is not set, a control signal is transmitted from the pan head controller 12 to the pan head 10 based on the operation of the various operation members provided in the pan head controller 12 as described above, Various operations of the camera platform 10 and the camera 40 mounted on the camera platform 10 are controlled.

【0019】以上の如く構成されたリモコン雲台システ
ムにおいて自動追尾モードに設定されている場合の画像
処理装置14の上記画像処理プロセッサ52及びCPU
54の処理内容について図3のフローチャートに基づい
て説明する。尚、図3のフローチャート及び以下の説明
では、主に、雲台10のパン方向への移動に関する処理
について示すが、チルト方向への移動に関してもパン方
向と同様の処理が行われるものとする。
The image processing processor 52 and the CPU of the image processing apparatus 14 when the automatic tracking mode is set in the remote control platform system configured as described above.
The processing contents of 54 will be described based on the flowchart of FIG. In the flowchart of FIG. 3 and the following description, processing relating to movement of the camera platform 10 in the pan direction is mainly described. However, processing similar to that in the pan direction is also performed for movement in the tilt direction.

【0020】まず、画像処理プロセッサ52は、カメラ
40のカメラ本体42からY/C分離回路46、A/D
コンバータ48を介して得られる1フレーム分の画像デ
ータ(この画像を画像とする)を画像メモリ50に取
り込む(ステップS10)。
First, the image processor 52 sends the Y / C separation circuit 46 from the camera body 42 of the camera 40 to the A / D
One frame of image data (this image is defined as an image) obtained via the converter 48 is loaded into the image memory 50 (step S10).

【0021】続いて、画像処理プロセッサ52は、Y/
C分離回路46から与えられる同期信号により4フィー
ルド分の時間(1フィールド当たり1/59.94秒)
が経過したか否かを判定し(ステップS12)、4フィ
ールド分の時間が経過すると、画像と同様に1フレー
ム分の画像データ(この画像を画像とする)を画像メ
モリ50に取り込む(ステップS14)。
Subsequently, the image processor 52 determines whether or not Y /
Time for 4 fields (1 / 59.94 seconds per field) by the synchronization signal given from the C separation circuit 46
Is determined (step S12), and when the time for four fields has elapsed, one frame of image data (this image is defined as an image) is fetched into the image memory 50 in the same manner as the image (step S14). ).

【0022】以上のように2フレーム分の画像データが
画像メモリ50に記憶されると、CPU54は、現在の
カメラ40(レンズ装置44)の焦点距離(画角)と雲
台10の移動スピードを雲台コントローラ12から取得
し、これに基づいて画像と画像の比較範囲(比較
枠)を設定し、画像処理プロセッサ52にその比較枠を
指定する(ステップS16)。尚、比較枠の設定に使用
する移動スピードのデータはは雲台コントローラ12か
ら取得したものではなく、後述のようにCPU54から
雲台コントローラ12に指令した移動スピードのデータ
であってもよい。。
When two frames of image data are stored in the image memory 50 as described above, the CPU 54 determines the current focal length (angle of view) of the camera 40 (lens device 44) and the moving speed of the camera platform 10. The comparison range (comparison frame) is obtained from the camera platform controller 12 based on the acquired image, and the comparison frame is designated to the image processor 52 (step S16). The moving speed data used for setting the comparison frame is not acquired from the pan head controller 12, but may be moving speed data instructed from the CPU 54 to the pan head controller 12 as described later. .

【0023】ここで、比較枠について説明する。後述の
ように、画像処理プロセッサ52は、画像と画像と
を比較し、これらの画像データの各画素の値(以下、画
素値)の差を求めることによって差画像を生成する。差
画像を生成するのは、追尾すべき被写体となる移動物体
の画像を2つの画像、から抽出するためであるが、
この差画像によって移動物体の画像を抽出するために
は、画像の撮影範囲と画像の撮影範囲のうち同じ撮
影範囲(撮影範囲が重なる範囲)内の画像から差画像を
求める必要がある。
Here, the comparison frame will be described. As described later, the image processor 52 compares the image with the image, and generates a difference image by obtaining a difference between the values (hereinafter, pixel values) of respective pixels of the image data. The reason for generating the difference image is to extract an image of a moving object to be tracked from the two images.
In order to extract an image of a moving object from the difference image, it is necessary to obtain a difference image from images within the same shooting range (a range where the shooting ranges overlap) of the image shooting range and the image shooting range.

【0024】例えば、自動追尾処理の開始直後のように
雲台10が停止している場合には、画像と画像の撮
影範囲は等しい。図4(A)は、この場合の被写体と撮
影範囲の関係を示しており、画像の撮影範囲Lと画像
の撮影範囲L′は完全に一致する。尚、図中○で示し
た物体は移動物体であり、△で示した物体は静止物体で
ある。また、移動物体は画像の撮影時には図中Aで示
す位置にあり、画像の撮影時には図中Bで示す位置に
移動したものとする。
For example, when the camera platform 10 is stopped, for example, immediately after the start of the automatic tracking process, the image and the photographing range of the image are equal. FIG. 4A shows the relationship between the subject and the shooting range in this case, and the shooting range L of the image and the shooting range L ′ of the image completely match. In the drawing, the object indicated by a circle is a moving object, and the object indicated by a triangle is a stationary object. Further, it is assumed that the moving object is at the position indicated by A in the figure at the time of photographing the image, and has moved to the position indicated by B in the figure at the time of photographing the image.

【0025】このとき、画像メモリ50に記憶される画
像と画像はそれぞれ図4(B)、図4(C)に示す
ような画面を構成し、これらの画像と画像のそれぞ
れの画面上において、静止物体の画像(△)は同じ座標
上に存在し、移動物体の画像(○)のみが異なる座標上
に存在することになる。
At this time, the images and images stored in the image memory 50 form screens as shown in FIGS. 4B and 4C, respectively. On each of these images and images, The image (△) of the stationary object exists on the same coordinates, and only the image (○) of the moving object exists on different coordinates.

【0026】従って、画像と画像の全画面範囲(全
撮影範囲内)において、対応する位置(同一座標)の画
素間で画素値の差を求めれば、その差画像において静止
物体の画素値は0となり、図5に示すように移動物体の
みが抽出された差画像が得られる。尚、各画像の画面上
における各点の座標は、1画面を構成するマトリクス状
の画素の配列に従い、図6に示すように水平方向につい
ては各点の画素の列番号(画面左端の画素から順に割り
当てた1〜X(Xは水平解像度を示す画素数に対応))
で表し、垂直方向については各点の画素の行番号(画面
上端の画素から順に割り当てた1〜Y(Yは垂直解像度
を示す画素数に対応)で表す。
Accordingly, if the pixel value difference between the pixels at the corresponding positions (with the same coordinates) in the image and the entire screen range (within the entire photographing range) of the image is obtained, the pixel value of the stationary object is 0 in the difference image. As shown in FIG. 5, a difference image in which only the moving object is extracted is obtained. The coordinates of each point on the screen of each image are in accordance with the arrangement of pixels in a matrix forming one screen, and as shown in FIG. 6, the column numbers of the pixels of each point in the horizontal direction (from the leftmost pixel on the screen) 1 to X assigned in order (X corresponds to the number of pixels indicating horizontal resolution))
The vertical direction is represented by the row number of the pixel at each point (1 to Y (Y corresponds to the number of pixels indicating the vertical resolution) assigned in order from the pixel at the top of the screen).

【0027】一方、雲台10が移動しているような場合
には、画像と画像のそれぞれの撮影時では撮影範囲
が異なる。図7(A)は、この場合の被写体と撮影範囲
の関係を示しており、画像の撮影範囲Lと画像の撮
影範囲L′とは異なる。尚、図中の被写体(移動物体と
静止物体)に関しては図4(A)と同じ条件とする。こ
のとき画像メモリ50に記憶される画像と画像は、
それぞれ図7(B)、(C)に示すような画面を構成
し、これらの画像と画像のそれぞれの画面上におい
て、静止物体の画像(△)は同じ座標上には存在しなく
なる。従って、もし、上述と同じようにこれらの全画面
範囲で差画像を求めると、静止物体があたかも移動物体
であるかのような差画像が得られることになり、適切に
移動物体のみを抽出することができない。
On the other hand, when the camera platform 10 is moving, the photographing range differs between the image and the image. FIG. 7A shows the relationship between the subject and the shooting range in this case, and the shooting range L of the image is different from the shooting range L ′ of the image. Note that the same conditions as in FIG. 4A are applied to the subjects (moving objects and stationary objects) in the figure. At this time, the images stored in the image memory 50 are
Screens such as those shown in FIGS. 7B and 7C are respectively formed, and on each of these images and images, the image (△) of the stationary object does not exist on the same coordinates. Therefore, if a difference image is obtained in the entire screen range in the same manner as described above, a difference image as if the stationary object is a moving object is obtained, and only the moving object is appropriately extracted. Can not do.

【0028】そこで、画像の全画面範囲と画像の全
画面範囲のうち、撮影範囲が重なる範囲、即ち、図7
(A)において、画像の撮影範囲Lと画像の撮影範
囲L′とが重なる範囲の画像を画像と画像からそれ
ぞれ抽出し、その抽出した範囲内の画像間において対応
する位置の画素値の差を求めることによって差画像を求
めるようにする。これによって、その差画像において静
止物体の画素値は0となり、図8に示すように移動物体
のみが抽出された差画像が得られるようになる。
Therefore, of the entire screen range of the image and the entire screen range of the image, a range where the photographing range overlaps, that is, FIG.
In (A), an image in a range where an image capturing range L and an image capturing range L ′ overlap each other is extracted from the image and the image, and a difference between pixel values at a corresponding position between the images in the extracted range is determined. By doing so, a difference image is obtained. As a result, the pixel value of the stationary object in the difference image becomes 0, and a difference image in which only the moving object is extracted can be obtained as shown in FIG.

【0029】このように画像と画像とから移動物体
を抽出した差画像を得るためには、画像と画像のそ
れぞれの画面上においてその差画像を得るための比較範
囲を設定する必要があり、その比較範囲を枠で表したも
のが比較枠である。そして、比較枠は、画像の撮影範
囲Lと画像の撮影範囲L′とが重なる撮影範囲の枠と
して設定される。図4のように雲台10が停止している
場合には、画像の撮影範囲Lと画像の撮影範囲L′
とが完全に一致するため、図4(B)、(C)に示すよ
うに画像と画像のそれぞれの画面上において全画面
範囲の枠として比較枠Pが設定される。一方、図7のよ
うに雲台10が移動している場合には、画像の撮影範
囲Lと画像の撮影範囲L′とが異なるため、図7
(B)、(C)に示すように画像と画像のそれぞれ
の画面上において、画像の撮影範囲Lと画像の撮影
範囲L′が重なる範囲の枠として比較枠Pが設定され
る。
In order to obtain a difference image in which a moving object is extracted from an image and an image, it is necessary to set a comparison range for obtaining the difference image on each screen of the image and the image. The comparison range is represented by a frame as a comparison frame. Then, the comparison frame is set as a frame of a shooting range where the shooting range L of the image and the shooting range L 'of the image overlap. When the camera platform 10 is stopped as shown in FIG. 4, the image shooting range L and the image shooting range L '
4B and 4C, the comparison frame P is set as a frame of the entire screen range on each screen of the image and the image as shown in FIGS. On the other hand, when the camera platform 10 is moving as shown in FIG. 7, the photographing range L of the image is different from the photographing range L ′ of the image.
As shown in (B) and (C), on each screen of the image and the image, a comparison frame P is set as a frame of a range where the image shooting range L and the image shooting range L 'overlap.

【0030】比較枠の設定の具体的処理内容について説
明すると、上述のように画像メモリ50に画像と画像
が取り込まれると、CPU54はレンズ装置44の現
在の焦点距離と雲台10の現在の移動スピード(パンス
ピード)を雲台コントローラ12から取得する。そし
て、CPU54はレンズ装置44の焦点距離から撮影画
角(水平方向の角度範囲を示す水平画角)を求め、その
撮影画角と移動スピードとにより、画像の撮影範囲に
対して画像の撮影範囲が、水平方向に画素数にして何
画素分シフトしたかを算出する。そのシフト量shift
(単位:画素)は、雲台10の移動スピード(パンスピ
ード)をV(単位:角度/秒)、画像の解像度(水平解
像度)をR(単位:画素)、撮影画角(水平画角)をA
(単位:角度)、画像に対する画像の撮影時間差
(画像と画像の画像取込み時間間隔)をT(単位:
秒)とすると、 shift =(R/A)×V×T …(1) で表される。尚、垂直方向のシフト量shift の算出にお
いては、移動スピードVはチルトスピード、解像度Rは
垂直解像度、撮影画角Aは垂直方向の角度範囲を示す垂
直画角である。また、画像が、画像の取り込み後に
4フィールド分の時間が経過した後に取り込まれたとす
ると、撮影時間差Tは、1フィールド分の時間(1/5
9.94秒)を4倍した値である。
The specific processing for setting the comparison frame will be described. When an image and an image are fetched into the image memory 50 as described above, the CPU 54 sets the current focal length of the lens device 44 and the current movement of the platform 10. The speed (pan speed) is acquired from the pan head controller 12. Then, the CPU 54 obtains a shooting angle of view (horizontal angle of view indicating an angle range in the horizontal direction) from the focal length of the lens device 44, and calculates the image shooting range with respect to the image shooting range based on the shooting angle and moving speed. Is calculated by the number of pixels in the horizontal direction. Shift amount shift
(Unit: pixel) is V (unit: angle / second) for the moving speed (pan speed) of the camera platform 10, R (unit: pixel) for image resolution (horizontal resolution), and shooting angle of view (horizontal angle of view). A
(Unit: angle), the difference between the image capturing time of the image and the image (image capturing time interval between images) is T (unit:
Sec), shift = (R / A) × V × T (1) In calculating the vertical shift amount shift, the moving speed V is the tilt speed, the resolution R is the vertical resolution, and the shooting angle of view A is the vertical angle of view indicating the vertical angle range. If the image is captured after a lapse of four fields of time after the capture of the image, the photographing time difference T is equal to the time of one field (1/5).
(9.94 seconds).

【0031】上式(1)によりシフト量shift を算出す
ると、CPU54は、このシフト量shift に基づいて、
比較枠を画像と画像の画面上に設定する。即ち、図
9に示すように画像の撮影範囲Lに対して画像の撮
影範囲L′が右方向に移動(雲台10が右方向に移動)
した場合には、画像の比較枠に関しては、画像の全
画面範囲のうち画面の左端側からシフト量shift の画素
数分だけ除外した範囲(図中斜線で示す範囲)の輪郭を
比較枠Pとして設定し、一方、画像の比較枠に関して
は、画像の全画面範囲のうち画面の右端側からシフト
量shift の画素数分だけ除外した範囲(図中斜線で示す
範囲)の輪郭を比較枠Pとして設定する。図10に示す
ように画像の撮影範囲Lに対して画像の撮影範囲
L′が左方向に移動(雲台10が左方向に移動)した場
合には、画像の比較枠に関しては、画像の全画面範
囲のうち画面の右端側からシフト量shift の画素数分だ
け除外した範囲(図中斜線で示す範囲)の輪郭を比較枠
Pとして設定し、一方、画像の比較枠に関しては、画
像の全画面範囲のうち画面の左端側からシフト量shif
t の画素数分だけ除外した範囲(図中斜線で示す範囲)
の輪郭を比較枠Pとして設定する。尚、雲台10が上下
方向に移動した場合も同様である。
When the shift amount shift is calculated by the above equation (1), the CPU 54 calculates the shift amount based on the shift amount shift.
Set the comparison frame on the image and image screen. That is, as shown in FIG. 9, the photographing range L 'of the image moves rightward with respect to the photographing range L of the image (the pan head 10 moves rightward).
In this case, for the comparison frame of the image, the outline of the range excluding the number of pixels of the shift amount shift from the left end of the screen (the range indicated by the diagonal lines in the figure) of the entire screen range of the image is set as the comparison frame P On the other hand, with respect to the comparison frame of the image, the outline of the range (shaded area in the figure) excluding the number of pixels of the shift amount shift from the right end of the screen in the entire screen range of the image is set as the comparison frame P. Set. As shown in FIG. 10, when the photographing range L 'of the image moves to the left with respect to the photographing range L of the image (the camera platform 10 moves to the left), the comparison frame of the image The outline of a range (a range indicated by oblique lines in the drawing) excluding the number of pixels of the shift amount shift from the right end of the screen in the screen range is set as the comparison frame P. Shift amount shif from the left edge of the screen within the screen range
Excluded area for the number of pixels of t (range shaded in the figure)
Is set as the comparison frame P. The same applies to the case where the camera platform 10 moves in the vertical direction.

【0032】図3のフローチャートに戻って説明する
と、以上のようにCPU54によって比較枠が設定さ
れ、その比較枠が画像処理プロセッサ52に指示される
と、次に画像処理プロセッサ52は、画像と画像か
らそれぞれ比較枠内の画像を抽出し、その抽出した画像
により画像と画像の差画像を求める(ステップS1
8)。即ち、画像と画像の比較枠内の画像データか
ら、対応する位置の画素(比較枠内において同一位置に
ある画素)の画素値の差を求め、その絶対値を求める
(|−|)。これによって、上述した図5、図8の
ように移動物体の画像のみが抽出され、その移動物体が
追尾すべき被写体として認識される。
Returning to the flowchart of FIG. 3, the comparison frame is set by the CPU 54 as described above, and when the comparison frame is instructed to the image processor 52, the image processor 52 , An image in the comparison frame is extracted from each of them, and a difference image between the images is obtained from the extracted image (step S1)
8). That is, the difference between the pixel values of the pixels at the corresponding positions (pixels at the same position in the comparison frame) is determined from the image data in the comparison frame between the images, and the absolute value is calculated (|-|). As a result, only the image of the moving object is extracted as shown in FIGS. 5 and 8, and the moving object is recognized as the subject to be tracked.

【0033】続いて、画像処理プロセッサ52は、ステ
ップS18で求めた差画像の各画素の画像データを2値
化する(ステップS20)。この処理により理想的には
移動物体の画像の画素値が1、それ以外で0となる。そ
して、2値化した差画像を収縮する処理を行い、細かい
ノイズを除去する(ステップS22)。尚、以下におい
て2値化し、収縮処理した差画像を単に差画像という。
Subsequently, the image processor 52 binarizes the image data of each pixel of the difference image obtained in step S18 (step S20). By this processing, the pixel value of the image of the moving object becomes 1 ideally, and 0 otherwise. Then, a process of contracting the binarized difference image is performed to remove fine noise (step S22). In the following, the difference image that has been binarized and contracted is simply referred to as a difference image.

【0034】次に、画像処理プロセッサ52は、差画像
に基づいて画素値が1である画素の総数を求め、移動物
体の画像全体の面積(以下、単に移動物体の面積とい
う)を求める(ステップS24)。図5、図8の例で
は、移動物体の移動前後の画像を示した2つの○の面積
を求める。そして、求めた面積をCPU54に与える。
Next, the image processor 52 calculates the total number of pixels having a pixel value of 1 based on the difference image, and calculates the area of the entire image of the moving object (hereinafter, simply referred to as the area of the moving object) (step). S24). In the examples of FIGS. 5 and 8, the areas of two circles indicating images before and after the movement of the moving object are obtained. Then, the obtained area is given to the CPU 54.

【0035】CPU54は、移動物体の面積を画像処理
プロセッサ52から取得すると、その面積が所定のしき
い値よりも大きいか否かを判定する(ステップS2
6)。ここで、NOと判定する場合としては、追尾の対
象となる程の移動物体が存在しない場合であり、それま
で追尾していた移動物体が停止した場合、移動物体の動
きが少ない場合、又は、追尾の対象とならない小さな物
体のみが動いているのみ場合等がある。このときにはス
テップS28〜ステップS32によって雲台10を停止
させるための処理を行う。後述する作動時間係数moveco
unt は、ステップS14〜ステップS26及びステップ
S28〜ステップS32のループを何回繰り返せば、そ
れまで雲台10を移動させて追尾していた移動物体であ
って上記ステップS26においてNOと判定されるよう
になった移動物体(以下、停止した移動物体という)を
画面中央となるようにして雲台10を停止させることが
できるかを示したものであり、まず、CPU54は、こ
の作動時間係数movecount が0か否かを判定する(ステ
ップS28)。YESと判定した場合には、雲台10の
パン方向への移動を停止させる指令信号、即ち、パンス
ピードを0にする指令信号を雲台コントローラ12に送
信し(ステップS30)、雲台10のパン方向への移動
を停止させる。ステップS26の判定時に既に雲台10
の移動が停止している場合には、雲台10の停止の状態
が維持される。そして、上記ステップS14に戻る。一
方、ステップS28において、NOと判定した場合に
は、movecount の値を1減少させ(ステップS32)、
雲台10を停止させるまでのステップS14〜ステップ
S26及びステップS28〜ステップS32の繰り返し
回数を1回分減少させる。このステップS28〜ステッ
プS32の処理によって停止した移動物体が画面中央と
なったところで雲台10のパン方向への移動が停止す
る。
When the area of the moving object is obtained from the image processor 52, the CPU 54 determines whether the area is larger than a predetermined threshold (step S2).
6). Here, when the determination is NO, there is no moving object enough to be tracked, when the moving object that has been tracked so far stops, when the movement of the moving object is small, or There are cases where only a small object that is not a tracking target is moving. At this time, a process for stopping the camera platform 10 is performed in steps S28 to S32. Working time coefficient moveco described later
unt is a moving object that has been moved and followed by moving the camera platform 10 by repeating the loop from step S14 to step S26 and step S28 to step S32, and is determined to be NO in step S26. This indicates whether or not the pan head 10 can be stopped by setting the moving object (hereinafter, referred to as a stopped moving object) at the center of the screen. First, the CPU 54 determines that the operation time coefficient movecount It is determined whether it is 0 (step S28). If the determination is YES, a command signal for stopping the movement of the camera platform 10 in the pan direction, that is, a command signal for setting the pan speed to 0, is transmitted to the camera platform controller 12 (step S30). Stop moving in the pan direction. At the time of determination in step S26, the camera
When the movement of the camera platform is stopped, the stopped state of the camera platform 10 is maintained. Then, the process returns to step S14. On the other hand, if NO is determined in step S28, the value of movecount is decreased by 1 (step S32),
The number of repetitions of steps S14 to S26 and steps S28 to S32 before stopping the camera platform 10 is reduced by one. When the moving object stopped by the processing of steps S28 to S32 becomes the center of the screen, the movement of the pan head 10 in the pan direction stops.

【0036】一方、上記ステップS26においてYES
と判定した場合、即ち、差画像から移動物体を検出した
場合、次に、画像処理プロセッサ52は、差画像から移
動物体の画像全体の1次モーメントを求め(ステップS
34)、1次モーメントを移動物体の面積で割り、移動
物体の重心を求める(ステップS36)。ここで、移動
物体の重心は、画像の画面上の座標で表され、その重
心座標はCPU54に与えられる。
On the other hand, YES in step S26
Is determined, that is, when a moving object is detected from the difference image, the image processor 52 next calculates the first moment of the entire image of the moving object from the difference image (Step S).
34) Divide the first moment by the area of the moving object to obtain the center of gravity of the moving object (step S36). Here, the center of gravity of the moving object is represented by coordinates on the screen of the image, and the coordinates of the center of gravity are given to the CPU 54.

【0037】CPU54は、画像処理プロセッサ52か
ら移動物体の重心座標が与えられると、雲台10が停止
した状態か否かを判定する(ステップS38)。もし、
YESと判定した場合には、CPU54は、移動物体の
重心が画面上(画像の画面上)のどの位置にあるかを
判定し、雲台10を停止させておくべきか、又は、雲台
10を左右のどの方向に移動させるべきかを以下ステッ
プS40〜ステップS46の処理で判定する。まず、C
PU54は、画像の画面上を図11に示すように水平
方向に関して画面中央を対称に複数の領域I、II、III、
IVに区分けする。尚、雲台10のチルト方向への移動に
関する制御においては、これと同様に画面上を垂直方向
に4つの領域に区分けする。ここで、画面中央(領域I
と領域IIの境界)の座標値をB、領域Iと領域IIIの境界
の座標値をA、領域IIと領域IVの境界の座標値をCとす
る。そして、移動物体の重心が領域I、II、III、IVのど
の範囲にあるかを、移動物体の水平方向に関する座標値
と、各領域I、II、III、IVの境界の座標値A、B、Cと
の比較により判定する。もし、移動物体の重心が領域I
又は領域IIにあると判定した場合には、雲台10を停止
させた状態に維持し、領域IIIにあると判定した場合に
は、雲台10を右方向に移動させ、領域IVにあると判定
した場合には、雲台10を左方向に移動させる。このよ
うに領域I、II内で移動物体が移動している場合のよう
に雲台10を移動させる必要がないときには雲台10は
停止した状態に維持され、雲台10の無駄な移動が防止
される。
When given the coordinates of the center of gravity of the moving object from the image processor 52, the CPU 54 determines whether or not the camera platform 10 is in a stopped state (step S38). if,
If the determination is YES, the CPU 54 determines which position on the screen (on the screen of the image) the center of gravity of the moving object is, and determines whether the head 10 should be stopped or whether the head 10 should be stopped. In which direction left or right should be moved is determined by the processing of steps S40 to S46. First, C
The PU 54 includes a plurality of regions I, II, III, and symmetrically with respect to the center of the screen in the horizontal direction as shown in FIG.
Divide into IV. In the control related to the movement of the camera platform 10 in the tilt direction, the screen is similarly divided into four areas in the vertical direction. Here, the center of the screen (area I
B, the coordinate value of the boundary between the region I and the region III is A, and the coordinate value of the boundary between the region II and the region IV is C. Then, the range of the center of gravity of the moving object in the regions I, II, III, and IV is determined by the coordinate values in the horizontal direction of the moving object and the coordinate values A, B of the boundaries between the regions I, II, III, and IV. , C. If the center of gravity of the moving object is in region I
Alternatively, when it is determined that the camera is in the area II, the camera platform 10 is maintained in a stopped state, and when it is determined that the camera is in the area III, the camera platform 10 is moved rightward to determine that the camera is in the area IV. If it is determined, the camera platform 10 is moved to the left. As described above, when it is not necessary to move the camera platform 10 as in the case where the moving object is moving in the regions I and II, the camera platform 10 is maintained in a stopped state, and the camera platform 10 is prevented from moving wastefully. Is done.

【0038】図3に戻って具体的な処理手順を説明する
と、まず、CPU54は、移動物体の重心座標がAより
大きいか否か、即ち、移動物体の重心が図11の領域II
Iの範囲にあるか否かを判定する(ステップS40)。
YESと判定した場合には、雲台10の移動方向を右方
向と決定とする(ステップS42)。一方、NOと判定
した場合には、移動物体の重心座標がCより小さいか否
か、即ち、移動物体の重心が図11の領域IVに範囲にあ
るか否かを判定する(ステップS44)。YESと判定
した場合には、雲台10の移動方向を左方向と決定する
(ステップS46)。一方、NOと判定した場合には、
移動物体の重心は図11の領域I又は領域IIにあるた
め、雲台10の停止の状態を維持したまま最初の処理
(ステップS10)に戻る。
Returning to FIG. 3, a specific processing procedure will be described. First, the CPU 54 determines whether or not the center of gravity of the moving object is larger than A, that is, the center of gravity of the moving object is in the region II in FIG.
It is determined whether it is within the range of I (step S40).
If the determination is YES, the moving direction of the camera platform 10 is determined to be the right direction (step S42). On the other hand, if the determination is NO, it is determined whether or not the barycentric coordinates of the moving object are smaller than C, that is, whether or not the barycenter of the moving object is within the range of the region IV in FIG. 11 (step S44). If the determination is YES, the moving direction of the camera platform 10 is determined to be the left direction (step S46). On the other hand, if NO is determined,
Since the center of gravity of the moving object is in the region I or the region II in FIG. 11, the process returns to the first process (step S10) while the stopped state of the camera platform 10 is maintained.

【0039】上記ステップS42又はステップS46に
おいて雲台10の移動方向を右方向又は左方向と決定し
た場合、CPU54は、その移動方向への所定の速さで
の雲台10の移動を初期のパンスピードとして初期設定
し、そのパンスピードでの雲台10の移動を指令する指
令信号を雲台コントローラ12に送信する(ステップS
48)。これによって、停止していた雲台10が所定の
速度でパン方向に移動を開始する。
If the moving direction of the camera platform 10 is determined to be right or left in step S42 or step S46, the CPU 54 moves the camera platform 10 in the moving direction at a predetermined speed to the initial pan. The speed is initially set, and a command signal for commanding movement of the platform 10 at the pan speed is transmitted to the platform controller 12 (step S).
48). Thus, the stopped pan head 10 starts moving in the pan direction at a predetermined speed.

【0040】続いて、CPU54は、上述の作動時間係
数movecount の計算を行う(ステップS50)。作動時
間係数movecount は、移動物体が停止した場合に、現在
の雲台10の移動スピードにおいて、ステップS14〜
ステップS26及びステップS28〜ステップS32の
ループを何回繰り返せば、停止した移動物体を画面中央
となるようにして雲台10を停止させることができるか
を示したものである。そこで、雲台コントローラ12か
らの得られる雲台10の現在の移動スピード(パンスピ
ード)をV(単位:角度/秒)、画像の解像度(水平解
像度)をR(単位:画素)、撮影画角(水平画角)をA
(単位:角度)、画面上の水平方向の中央座標をM、移
動物体の水平方向の重心座標をP(単位:画素)、テッ
プS14〜ステップS26及びステップS28〜ステッ
プS32の1ループの処理に要する時間をT(単位:
秒)とすると、作動時間係数movecount は、次式
(2)、 movecount =(P−M)/(R×V×T/A) …(2) により算出される。但し、四捨五入等によってmovecoun
t は整数とする。この作動時間係数movecount を用いた
上記ステップS28〜ステップS32の処理によって、
移動物体が停止した場合にその移動物体を画面中央とし
たところで雲台10を停止させることができる。尚、垂
直方向に関する作動時間係数movecount の算出において
は、上記Vはチルトスピード、上記Rは垂直解像度、上
記Aは垂直画角、上記Pは移動物体の垂直方向の重心座
標である。
Subsequently, the CPU 54 calculates the above-mentioned operation time coefficient movecount (step S50). When the moving object stops, the operation time coefficient movecount is determined based on the current moving speed of the camera platform 10 in steps S14 to S14.
This shows how many times the loop of step S26 and steps S28 to S32 is repeated to stop the camera platform 10 so that the stopped moving object is positioned at the center of the screen. Therefore, the current moving speed (pan speed) of the camera platform 10 obtained from the camera platform controller 12 is V (unit: angle / second), the image resolution (horizontal resolution) is R (unit: pixel), and the shooting angle of view. (Horizontal angle of view)
(Unit: angle), the center coordinate in the horizontal direction on the screen is M, the barycentric coordinate of the moving object in the horizontal direction is P (unit: pixel), and the processing of one loop from step S14 to step S26 and step S28 to step S32 The required time is T (unit:
), The operation time coefficient movecount is calculated by the following equation (2), movecount = (PM) / (R × V × T / A) (2) However, due to rounding, etc., movecoun
t is an integer. By the processing of the above steps S28 to S32 using this operation time coefficient movecount,
When the moving object stops, the camera platform 10 can be stopped where the moving object is set at the center of the screen. In calculating the operation time coefficient movecount in the vertical direction, V is the tilt speed, R is the vertical resolution, A is the vertical angle of view, and P is the barycentric coordinates of the moving object in the vertical direction.

【0041】次に、CPU54は、雲台コントローラ1
2から得られる雲台10の現在の移動スピード(パンス
ピード)が、上記CPU54から指令したパンスピード
になったか否かを判定し(ステップS52)、YESと
判定した場合には、上記ステップS10に戻り、上記処
理を繰り返す。
Next, the CPU 54 operates the pan head controller 1
It is determined whether or not the current moving speed (pan speed) of the camera platform 10 obtained from Step 2 has reached the pan speed instructed from the CPU 54 (Step S52). If YES, the process proceeds to Step S10. Return and repeat the above process.

【0042】上記ステップS38において、NO、即
ち、雲台10が既に移動していると判定した場合、CP
U54は、以下のステップS54〜ステップS70の処
理により、移動物体の重心が画面上のどの位置にあるか
を判定し、雲台10の移動スピード(パンスピード)を
上昇させるべきか、又は、下降させるべきかを判定す
る。これによって、雲台10の移動スピードを調整す
る。移動物体の重心が画面上のどの位置にあるかの判定
には、図11で示した座標値A、B、Cを用いる。ま
ず、CPU54は、現在の雲台10の移動方向が右方向
か否かを判定する(ステップS54)。ここで、YES
と判定した場合には、次に、CPU54は、移動物体の
重心座標がAより大きいか否か、即ち、移動物体の重心
が図11の領域IIIの範囲にあるか否かを判定する(ス
テップS56)。YESと判定した場合には、雲台10
のパンスピードが移動物体の移動スピードに比べて遅い
ため、雲台コントローラ12に指令するパンスピードを
予め決められた所定スピード分だけ上昇させ、その指令
信号を雲台コントローラ12に送信する(ステップS5
8)。そして、上記ステップS50に移行する。一方、
ステップS56においてNOと判定した場合には、次
に、CPU54は、移動物体の重心座標がBより小さい
か否か、即ち、移動物体の重心が図11の領域II又は領
域IVの範囲にあるか否かを判定する(ステップS6
0)。YESと判定した場合には、雲台10のパンスピ
ードが移動物体の移動スピードに比べて速いため、雲台
コントローラ12に指令するパンスピードを予め決めら
れた所定スピード分だけ下降させ、その指令信号を雲台
コントローラ12に送信する(ステップS62)。そし
て、上記ステップS50に移行する。尚、この場合には
雲台10のパンスピードを下降させるのではなく、パン
スピードを0、即ち、雲台10のパン方向への移動を停
止させるようにしてもよい。一方、ステップS60にお
いてNO、即ち、移動物体の重心が図11の領域Iの範
囲にあると判定した場合には、雲台10のパンスピード
が移動物体の移動スピードに対して適切に調整されてい
るため、雲台コントローラ12に指令するパンスピード
の変更をしないで上記ステップS50に移行する。
If NO in step S38, that is, if it is determined that the camera platform 10 has already moved,
U54 determines the position on the screen where the center of gravity of the moving object is on the screen by the processing of the following steps S54 to S70, and determines whether the moving speed (pan speed) of the camera platform 10 should be increased or decreased. It is determined whether it should be performed. Thereby, the moving speed of the camera platform 10 is adjusted. To determine the position of the center of gravity of the moving object on the screen, the coordinate values A, B, and C shown in FIG. 11 are used. First, the CPU 54 determines whether or not the current moving direction of the camera platform 10 is rightward (step S54). Here, YES
Then, the CPU 54 determines whether or not the barycenter coordinate of the moving object is larger than A, that is, whether or not the barycenter of the moving object is within the range of the region III in FIG. S56). If the determination is YES, the pan head 10
Is slower than the moving speed of the moving object, the pan speed commanded to the pan head controller 12 is increased by a predetermined speed, and the command signal is transmitted to the pan head controller 12 (step S5).
8). Then, control goes to the step S50. on the other hand,
If NO is determined in step S56, the CPU 54 next determines whether the barycenter coordinate of the moving object is smaller than B, that is, whether the barycenter of the moving object is in the range of the region II or IV in FIG. Is determined (step S6).
0). If the determination is YES, the pan speed of the camera platform 10 is higher than the moving speed of the moving object, so the pan speed commanded to the camera platform controller 12 is decreased by a predetermined speed, and the command signal is issued. Is transmitted to the camera platform controller 12 (step S62). Then, control goes to the step S50. In this case, instead of lowering the pan speed of the camera platform 10, the pan speed may be set to 0, that is, the movement of the camera platform 10 in the pan direction may be stopped. On the other hand, if NO in step S60, that is, if it is determined that the center of gravity of the moving object is within the range of the region I in FIG. Therefore, the process proceeds to step S50 without changing the pan speed instructed to the pan head controller 12.

【0043】以上の場合は、現在の雲台10の移動方向
が右方向である場合の処理であるが、現在の雲台10の
移動方向が左方向である場合には、上記ステップS54
においてNOと判定される。この場合、CPU54は、
移動物体の重心座標がCより小さいか否か、即ち、移動
物体の重心が図11の領域IVの範囲にあるか否かを判定
する(ステップS64)。YESと判定した場合には、
雲台10のパンスピードが移動物体の移動スピードに比
べて遅いため、雲台コントローラ12に指令するパンス
ピードを予め決められた所定スピード分だけ上昇させ、
その指令信号を雲台コントローラ12に送信する(ステ
ップS66)。そして、上記ステップS50に移行す
る。一方、ステップS54においてNOと判定した場合
には、次に、CPU54は、移動物体の重心座標がBよ
り大きいか否か、即ち、移動物体の重心が図11の領域
I又は領域IIIの範囲にあるか否かを判定する(ステッ
プS68)。YESと判定した場合には、雲台10のパ
ンスピードが移動物体の移動スピードに比べて速いた
め、雲台コントローラ12に指令するパンスピードを予
め決められた所定スピード分だけ下降させ、その指令信
号を雲台コントローラ12に送信する(ステップS7
0)。そして、上記ステップS50に移行する。尚、こ
の場合には雲台10のパンスピードを下降させるのでは
なく、パンスピードを0、即ち、雲台10のパン方向へ
の移動を停止させるようにしてもよい。一方、ステップ
S68においてNO、即ち、移動物体の重心が図11の
領域IIの範囲にあると判定した場合には、雲台10のパ
ンスピードが移動物体の移動スピードに対して適切に調
整されているため、雲台コントローラ12に指令するパ
ンスピードの変更をしないで上記ステップS50に移行
する。
In the above case, the processing is performed when the current moving direction of the camera platform 10 is the right direction. However, when the current moving direction of the camera platform 10 is the left direction, the above-described step S54 is performed.
Is determined to be NO. In this case, the CPU 54
It is determined whether the coordinates of the center of gravity of the moving object are smaller than C, that is, whether the center of gravity of the moving object is within the range of the region IV in FIG. 11 (step S64). If it is determined as YES,
Since the pan speed of the camera platform 10 is lower than the moving speed of the moving object, the pan speed commanded to the camera platform controller 12 is increased by a predetermined speed.
The command signal is transmitted to the camera platform controller 12 (step S66). Then, control goes to the step S50. On the other hand, if NO is determined in step S54, the CPU 54 next determines whether the barycenter coordinate of the moving object is larger than B, that is, the barycenter of the moving object falls within the range of the region I or the region III in FIG. It is determined whether or not there is (step S68). If the determination is YES, the pan speed of the camera platform 10 is faster than the moving speed of the moving object, so the pan speed commanded to the camera platform controller 12 is decreased by a predetermined speed, and the command signal Is transmitted to the camera platform controller 12 (step S7).
0). Then, control goes to the step S50. In this case, instead of lowering the pan speed of the camera platform 10, the pan speed may be set to 0, that is, the movement of the camera platform 10 in the pan direction may be stopped. On the other hand, if NO in step S68, that is, if it is determined that the center of gravity of the moving object is within the range of the area II in FIG. 11, the pan speed of the camera platform 10 is appropriately adjusted with respect to the moving speed of the moving object. Therefore, the flow proceeds to step S50 without changing the pan speed instructed to the pan head controller 12.

【0044】以上の処理によって、雲台10のパン方向
への移動スピードが移動物体の移動スピードに応じて適
切に調整される。尚、ステップS54〜ステップS70
の処理において、パンスピードを予め決められた所定の
スピード(変化量)分だけ上昇又は下降させることによ
ってパンスピードの調整を行うようにしていが、これに
限らず、画面上に設定する判断領域I〜IVを更に細かく
区分けして、移動物体の重心座標がどの領域の範囲にあ
るかを判断し、その領域が中央座標から離れる程、雲台
10のパンスピードの変化量を大きくするようにしても
よい。判断領域を最も細かく区分けすると、画面の中央
座標から移動物体の重心座標までの距離に応じて雲台1
0のパンスピードの変化量の大きさが可変されることに
なる。
Through the above processing, the moving speed of the camera platform 10 in the pan direction is appropriately adjusted according to the moving speed of the moving object. Steps S54 to S70
In the process (1), the pan speed is adjusted by raising or lowering the pan speed by a predetermined speed (variation amount). However, the present invention is not limited to this. ~ IV is further subdivided to determine the range of the area where the barycentric coordinates of the moving object are located, and as the area moves away from the center coordinates, the amount of change in the pan speed of the camera platform 10 is increased. Is also good. When the judgment area is divided into the finest parts, the pan head 1 is determined according to the distance from the center coordinates of the screen to the barycentric coordinates of the moving object.
The magnitude of the change amount of the pan speed of 0 is varied.

【0045】次に、上記ステップS16の比較枠の設定
におけるシフト量shift(画像の撮影範囲に対する画像
の撮影範囲のシフト量)の決定方法について具体的に
説明する。尚、以下の説明においても雲台10のパン方
向への移動のみを考慮して水平方向のシフト量を求める
場合について説明する。
Next, a method of determining the shift amount shift (the shift amount of the image capturing range with respect to the image capturing range) in the setting of the comparison frame in step S16 will be specifically described. In the following description, a case where the shift amount in the horizontal direction is obtained by considering only the movement of the camera platform 10 in the pan direction will be described.

【0046】上式(1)に示したようにシフト量shift
は、雲台10のパンスピードと画角(焦点距離)に基づ
いて求めることができ、それらのパンスピードと画角の
値は雲台コントローラ12からCPU54が所定のデー
タを取得することによって決定することができる。例え
ば、雲台コントローラ12が雲台10に指令信号として
送信するパンスピードのデータを雲台コントローラ12
から取得することによってシフト量shift の算出に使用
するパンスピードの値を決定することができる。尚、シ
フト量shift の算出に使用するパンスピードの値は、C
PU54から雲台コントローラ12に指令するパンスピ
ードの値であってもよいし、また、雲台10における速
度検出センサによって得られるパンスピードの実測値で
あってもよい。一方、雲台コントローラ12がレンズ装
置44に指令信号として送信するズームのコントロール
電圧(以下、ズームのコントロール電圧を単にコントロ
ール電圧という)の値を雲台コントローラ12から取得
することによって、焦点距離を知ることができ、シフト
量shift の算出に使用する画角(水平画角)の値を決定
することができる。但し、コントロール電圧と焦点距離
との関係はレンズ装置44の種類によって異なるため、
多種のレンズ装置に対して正確なシフト量の算出を可能
にするためには、レンズ装置の種類に対応する特性デー
タ(コントロール電圧と焦点距離との関係を示すデータ
テーブル)を予めメモリに登録しておき、レンズ装置の
種類に対応する特性データを使用してコントロール電圧
から焦点距離を求めるようにすることが必要である。
As shown in the above equation (1), the shift amount shift
Can be obtained based on the pan speed and the angle of view (focal length) of the camera platform 10. The values of the pan speed and the angle of view are determined by the CPU 54 acquiring predetermined data from the camera platform controller 12. be able to. For example, the pan speed data transmitted from the pan head controller 12 to the pan head 10 as a command signal is stored in the pan head controller 12.
, The value of the pan speed used for calculating the shift amount shift can be determined. The value of the pan speed used for calculating the shift amount shift is C
It may be a pan speed value instructed from the PU 54 to the pan head controller 12, or may be an actually measured pan speed obtained by a speed detection sensor in the pan head 10. On the other hand, the focal length is known by acquiring the value of the zoom control voltage (hereinafter, the zoom control voltage is simply referred to as the control voltage) transmitted from the camera platform controller 12 to the lens device 44 as a command signal. The value of the angle of view (horizontal angle of view) used for calculating the shift amount shift can be determined. However, since the relationship between the control voltage and the focal length differs depending on the type of the lens device 44,
In order to enable accurate calculation of the shift amount for various types of lens devices, characteristic data (a data table indicating the relationship between the control voltage and the focal length) corresponding to the type of lens device is registered in a memory in advance. In addition, it is necessary to determine the focal length from the control voltage using the characteristic data corresponding to the type of the lens device.

【0047】また、シフト量shift は上式(1)を用い
て理論的に求めるのではなく、自動追尾を開始する前等
において、パンスピード及びコントロール電圧の各値に
対する正確なシフト量shift を実測によって予め求めて
おくこともできる。この場合には、例えば、図12に示
すように雲台コントローラ12から取得されるパンスピ
ードとコントロール電圧の各値に対するシフト量shift
との関係をシフト量データとしてメモリに記憶しておけ
ば、自動追尾の処理の際に、雲台コントローラ12から
取得されるパンスピード及びコントロール電圧に対する
シフト量shiftをメモリから読み出して、これに基づい
て比較枠を設定することができる。尚、一般に自動追尾
の際には、レンズ装置44のズーム(焦点距離)は変更
されないため、自動追尾を開始する前に自動追尾の際の
焦点距離に対するシフト量shiftの値をパンスピードの
各値に対して実測によって求めておき、シフト量データ
としてメモリに記憶させておけば十分である。
The shift amount shift is not theoretically obtained by using the above equation (1), but the actual shift amount shift for each value of the pan speed and the control voltage is measured before starting automatic tracking. Can be obtained in advance. In this case, for example, as shown in FIG. 12, the shift amount shift for each value of the pan speed and the control voltage acquired from the pan head controller 12
Is stored in the memory as shift amount data, the shift amount shift for the pan speed and the control voltage obtained from the pan head controller 12 is read out from the memory during the automatic tracking process, and based on this, To set a comparison frame. In general, at the time of automatic tracking, the zoom (focal length) of the lens device 44 is not changed. Therefore, before starting the automatic tracking, the value of the shift amount shift with respect to the focal length at the time of automatic tracking is set to each value of the pan speed. It is sufficient to determine the shift amount by actual measurement and store it in the memory as shift amount data.

【0048】図13は、所定の焦点距離及びパンスピー
ドに対するシフト量shift を実測により求める場合の処
理手順を示したフローチャートである。尚、この処理の
実行中にはカメラ40の撮影範囲に移動物体が存在しな
いようにする必要がある。但し、移動物体が存在しても
画面に対してその移動物体が小さければ問題はない。ま
ず、CPU54は、パラメータminarea を最大値(例え
ば0xffffff)、パラメータiを1、シフト量デ
ータとして求めるシフト量shift を0に初期設定する
(ステップS100)。続いて、CPU54は、雲台コ
ントローラ12に指令する雲台10のパンスピードを所
定のスピード(シフト量shift を求めようとしているパ
ンスピード)に設定し、そのパンスピードを指令する指
令信号を雲台コントローラ12に送信する(ステップS
102)。そして、雲台コントローラ12から得られる
雲台10の現在のパンスピードが、CPU54から指令
したパンスピードになったか否かを判定し(ステップS
104)、YESと判定した場合には、次に処理に移行
する。
FIG. 13 is a flowchart showing a processing procedure when the shift amount shift for a predetermined focal length and pan speed is obtained by actual measurement. During the execution of this process, it is necessary that no moving object exists in the shooting range of the camera 40. However, even if there is a moving object, there is no problem if the moving object is small with respect to the screen. First, the CPU 54 initializes the parameter minarea to a maximum value (for example, 0xffffff), the parameter i to 1, and the shift amount shift to be obtained as shift amount data to 0 (step S100). Subsequently, the CPU 54 sets the pan speed of the pan head 10 instructing the pan head controller 12 to a predetermined speed (a pan speed for which the shift amount shift is to be obtained), and sends a pan head command signal to the pan head. Transmit to controller 12 (step S
102). Then, it is determined whether or not the current pan speed of the pan head 10 obtained from the pan head controller 12 has reached the pan speed instructed by the CPU 54 (step S).
104), if the determination is YES, the process proceeds to the next step.

【0049】次に、画像処理プロセッサ52は、上記図
3のステップS10〜ステップS14と同様に1フレー
ム分の画像データ(この画像を画像とする)を画像メ
モリ50に取り込み(ステップS106)、続いて4フ
ィールド分の時間が経過した後(ステップS108)、
更に、1フレーム分の画像データ(この画像を画像と
する)を画像メモリ50に取り込む(ステップS11
0)。
Next, the image processor 52 loads one frame of image data (this image is referred to as an image) into the image memory 50 in the same manner as in steps S10 to S14 in FIG. 3 (step S106). After a time corresponding to four fields has elapsed (step S108),
Further, one frame of image data (this image is referred to as an image) is loaded into the image memory 50 (step S11).
0).

【0050】以上のように2フレーム分の画像データが
画像メモリ50に記憶されると、CPU54は、画像
の撮影範囲に対する画像の撮影範囲の仮のシフト量sh
ift′をiと仮定し、上記ステップS16と同様に、そ
のシフト量shift ′に基づいて画像と画像の比較枠
を設定する(ステップS112)。そして、画像処理プ
ロセッサ52にその比較枠を指定する。
When the image data for two frames is stored in the image memory 50 as described above, the CPU 54 sets the provisional shift amount sh of the photographing range of the image with respect to the photographing range of the image.
Assuming that ift 'is i, a comparison frame between images is set based on the shift amount shift' as in step S16 (step S112). Then, the comparison frame is designated to the image processor 52.

【0051】以上のようにCPU54によって比較枠が
設定され、その比較枠が画像処理プロセッサ52に指示
されると、次に画像処理プロセッサ52及びCPU54
は、図3のステップS18〜ステップS24までの処理
と同様の処理を以下のステップS114〜ステップS1
20で行う。まず、画像処理プロセッサ52は、画像
と画像からそれぞれ比較枠内の画像を抽出し、その抽
出した画像により画像と画像の差画像を求める(|
−|)(ステップS114)。続いて、画像処理プ
ロセッサ52は、差画像の各画素の画像データを2値化
する(ステップS116)。そして、2値化した差画像
を収縮する処理を行い、細かいノイズを除去する(ステ
ップS118)。
As described above, a comparison frame is set by the CPU 54, and when the comparison frame is instructed to the image processor 52, the image processor 52 and the CPU 54
Performs the same processing as the processing from step S18 to step S24 in FIG.
Perform at 20. First, the image processor 52 extracts an image in the comparison frame from the image and the image, and obtains a difference image between the images based on the extracted image (|
− |) (Step S114). Subsequently, the image processor 52 binarizes the image data of each pixel of the difference image (Step S116). Then, a process of contracting the binarized difference image is performed to remove fine noise (step S118).

【0052】次に、画像処理プロセッサ52は、差画像
に基づいて画素値が1である画素の総数を求め、その面
積を求める(ステップS120)。そして、求めた面積
をCPU54に与える。尚、上記ステップS112で設
定された仮のシフト量shift′がパンスピードに適切に
対応したものであれば、理想的には、ここで求めた面積
は0となる。
Next, the image processor 52 calculates the total number of pixels having a pixel value of 1 based on the difference image, and calculates the area thereof (step S120). Then, the obtained area is given to the CPU 54. If the provisional shift amount shift 'set in step S112 appropriately corresponds to the pan speed, the area obtained here is ideally zero.

【0053】CPU54は、上記面積を画像処理プロセ
ッサ52から取得すると、その面積をパラメータareaに
代入し(ステップS122)、上記パラメータminarea
よりもareaの値が小さいか否か、即ち、(minarea >ar
ea)か否かを判定する(ステップS124)。もし、Y
ESと判定した場合には、minarea にareaの値を代入す
ると共に(ステップS126)、最終的に求めたいシフ
ト量shift の値をiとする(但し、決定ではない)。一
方、ステップS124においてNOと判定した場合に
は、ステップS126及びステップS128の処理は行
わない。続いてCPU54は、iの値を1増加させ(ス
テップS130)、iが画面の水平方向の画素数(水平
解像度)より大きいか否かを判定する(ステップS13
2)。NOと判定した場合には、ステップS112の処
理に戻る。これにより、ステップS112からステップ
S132までの処理が繰り返し実行され、ステップS1
20で算出された面積が最小となったときの比較枠の設
定に使用したシフト量shift′=iが、ステップS12
8の処理により、シフト量データとして求めるシフト量
shift に決定される。ステップS132おいてYESと
判定した場合には以上の処理を終了する。以上の処理を
ステップS102において設定するパンスピードを変更
して行えば、パンスピードの各値に対するシフト量shif
t を求めることができ、更に、焦点距離を変更すれば、
パンスピード及び焦点距離の各値に対するシスト量shif
t を求めることができる。
When the CPU 54 obtains the area from the image processor 52, the CPU 54 substitutes the area for the parameter area (step S122), and the parameter minarea
Whether the value of area is smaller than, that is, (minarea> ar
ea) is determined (step S124). If Y
If it is determined to be ES, the value of area is substituted for minarea (step S126), and the value of the shift amount shift finally obtained is set to i (however, it is not determined). On the other hand, if NO is determined in the step S124, the processes in the steps S126 and S128 are not performed. Subsequently, the CPU 54 increases the value of i by 1 (step S130), and determines whether i is greater than the number of pixels in the horizontal direction of the screen (horizontal resolution) (step S13).
2). If the determination is NO, the process returns to step S112. Thereby, the processing from step S112 to step S132 is repeatedly executed, and step S1 is executed.
The shift amount shift ′ = i used for setting the comparison frame when the area calculated in step S20 becomes the minimum is determined in step S12.
The shift amount obtained as the shift amount data by the processing of 8
determined by shift. If it is determined as YES in step S132, the above processing is terminated. If the above processing is performed by changing the pan speed set in step S102, the shift amount shif for each value of the pan speed
t can be obtained, and if the focal length is changed,
Cyst amount shif for each value of pan speed and focal length
t can be obtained.

【0054】このようにシフト量shift を上式(1)を
用いた理論値でなく、実測によって求めることによっ
て、雲台コントローラ12から取得される雲台10のパ
ンスピードに対して実際の雲台10のパンスピードにば
らつきがある場合や、また、コントロール電圧に対して
レンズ装置44の焦点距離にばらつきがある場合でも、
正確なシフト量shift を求めることができる。実際に、
環境の違いや製品個々の特性によってパンスピードや焦
点距離にばらつきがあると考えられるため、このような
シフト量shift の求め方はより正確な自動追尾において
有効である。尚、このような実測によるシフト量shift
の決定方法は、自動追尾を開始する前では自動追尾中に
行えるようにすることも可能である。即ち、自動追尾中
に画像と画像を取り込んだ後、上記ステップS11
2〜ステップS132の処理を行い、実測によって最適
なシフト量shift を求める。そして、そのシフト量shif
t に基づいて図3で示したフローチャートのように差画
像を求めてパンスピードを決定する処理等を行うことも
できる。また、この場合には、画面に対して移動物体が
大きい場合には適切にシフト量shift を求めることがで
きない場合があるため、画面に対して移動物体が大きい
場合でも適切にシフト量shift を求めることができるよ
うに、図3のように上式(1)により理論的に求めたシ
フト量shift を補正する意味で、実測によってシフト量
shift を最終的に決定するようにしてもよい。即ち、画
像と画像を取り込んだ後、上式(1)によりシフト
量shiftを算出する。そして、そのシフト量shift を基
準にしてシフト量shift を1ずつ増減させながら比較枠
を設定すると共に、その比較枠に基づいて差画像を求め
て移動物体の面積を算出する。もし、上式(1)により
算出したシフト量shift のときよりもその面積が小さ
く、且つ、最初に極小となるシフト量shift が検出され
れば、そのシフト量shift を最適なシフト量shift とす
る。そして、そのシフト量shift に基づいて図3で示し
たフローチャートのように差画像を求めてパンスピード
を決定する処理等を行う。
As described above, the shift amount shift is obtained not by the theoretical value using the above equation (1) but by actual measurement, whereby the actual pan head of the pan head 10 acquired from the pan head controller 12 is obtained. Even when the pan speed of 10 varies, or when the focal length of the lens device 44 varies with respect to the control voltage,
An exact shift amount shift can be obtained. actually,
Since it is considered that the pan speed and the focal length vary due to differences in environment and characteristics of individual products, such a method of obtaining the shift amount shift is effective in more accurate automatic tracking. In addition, the shift amount by such actual measurement shift
Can be determined during the automatic tracking before the automatic tracking is started. That is, after capturing an image and an image during automatic tracking, the above-described step S11 is performed.
Steps 2 to S132 are performed, and the optimum shift amount shift is obtained by actual measurement. And the shift amount shif
A process of determining a panning speed by obtaining a difference image as in the flowchart shown in FIG. 3 based on t can also be performed. Also, in this case, when the moving object is large with respect to the screen, the shift amount shift may not be properly obtained. Therefore, even when the moving object is large with respect to the screen, the shift amount shift is appropriately obtained. In order to make it possible to correct the shift amount shift theoretically obtained by the above equation (1) as shown in FIG.
shift may be finally determined. That is, after taking in the image and the image, the shift amount shift is calculated by the above equation (1). Then, a comparison frame is set while increasing or decreasing the shift amount shift by one based on the shift amount shift, and a difference image is obtained based on the comparison frame to calculate the area of the moving object. If the shift amount shift is calculated to be smaller than the shift amount calculated by the above equation (1) and the minimum shift amount is detected first, the shift amount shift is set as the optimum shift amount shift. . Then, based on the shift amount shift, a process of obtaining a difference image and determining a pan speed is performed as shown in the flowchart of FIG.

【0055】以上説明した実施の形態の内容は、雲台1
0がパン方向、チルト方向に移動する場合について適用
できるだけでなく、それ以外の決められた方向に移動す
る場合(例えば、カメラの位置を上下左右に移動させる
ような場合)についても同様に適用できる。
The contents of the embodiment described above are based on the pan head 1
Not only can it be applied to the case where 0 moves in the pan direction and the tilt direction, but also can be applied to the case where it moves in other determined directions (for example, the case where the position of the camera is moved up, down, left and right). .

【0056】[0056]

【発明の効果】以上説明したように本発明に係る自動追
尾装置によれば、カメラから取り込んだ画像から移動物
体の画像を抽出するための比較範囲を雲台の移動速度に
基づいて決定するようにしたため、従来のように雲台の
位置に基づいて比較範囲を決定する場合に比べて安価な
部品の使用で決定することができるようになる。即ち、
2画面分の各画像を取り込む時間間隔は正確に決めるこ
とができ、かつ、その時間間隔が短いため例えば撮影範
囲が1画素分だけシフトしたことを検出するための速度
検出の分解能及び精度は位置検出の場合に比べて低くて
もよく、安価なセンサー及びA/Dコンバータ等の使用
が可能になる。また、雲台の移動速度が一定の間に2画
面分の画像を取り込むようにすれば、画像の取込み時と
移動速度の検出時とを正確に一致させる必要もなく高い
時間精度も不要となる。更に、パン/チルト駆動用にス
テッピングモータを使用した場合に位置検出センサーを
設けなくても、移動速度から比較範囲を求めることが可
能となる。
As described above, according to the automatic tracking device of the present invention, the comparison range for extracting the image of the moving object from the image captured from the camera is determined based on the moving speed of the camera platform. Therefore, the determination can be made by using inexpensive parts as compared with the conventional case where the comparison range is determined based on the position of the camera platform. That is,
The time interval for capturing each image for two screens can be accurately determined, and since the time interval is short, for example, the resolution and accuracy of speed detection for detecting that the shooting range has been shifted by one pixel are determined by the position. It may be lower than in the case of detection, which allows the use of inexpensive sensors and A / D converters. In addition, if an image for two screens is captured while the moving speed of the camera platform is constant, it is not necessary to exactly match the time of capturing the image with the time of detecting the moving speed, and high time accuracy is not required. . Furthermore, when a stepping motor is used for pan / tilt driving, the comparison range can be obtained from the moving speed without providing a position detection sensor.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は、本発明が適用される自動追尾機能搭載
のリモコン雲台システムの全体構成図である。
FIG. 1 is an overall configuration diagram of a remote control pan head system equipped with an automatic tracking function to which the present invention is applied.

【図2】図2は、リモコン雲台システムの構成を示した
ブロック図である。
FIG. 2 is a block diagram showing a configuration of a remote control pan head system.

【図3】図3は、自動追尾の処理手順を示したフローチ
ャートである。
FIG. 3 is a flowchart illustrating a procedure of an automatic tracking process;

【図4】図4(A)乃至(C)は、雲台が停止している
場合の被写体と撮影範囲の関係を示した説明図である。
FIGS. 4A to 4C are explanatory diagrams showing a relationship between a subject and a shooting range when a camera platform is stopped.

【図5】図5は、図4の場合における差画像を例示した
説明図である。
FIG. 5 is an explanatory diagram illustrating a difference image in the case of FIG. 4;

【図6】図6は、画面上の座標の説明に使用した説明図
である。
FIG. 6 is an explanatory diagram used for describing coordinates on a screen.

【図7】図7(A)乃至(C)は、雲台が移動している
場合の被写体と撮影範囲の関係を示した説明図である。
FIGS. 7A to 7C are explanatory diagrams showing a relationship between a subject and a shooting range when a camera platform is moving.

【図8】図8は、図7の場合における差画像を例示した
説明図である。
FIG. 8 is an explanatory diagram exemplifying a difference image in the case of FIG. 7;

【図9】図9は、撮影範囲が右方向にシフトした場合の
比較枠(比較範囲)の様子を示した説明図である。
FIG. 9 is an explanatory diagram showing a state of a comparison frame (comparison range) when the photographing range is shifted rightward.

【図10】図10は、撮影範囲が左方向にシフトした場
合の比較枠(比較範囲)の様子を示した説明図である。
FIG. 10 is an explanatory diagram showing a state of a comparison frame (comparison range) when the photographing range is shifted to the left.

【図11】図11は、雲台の移動スピードの設定おいて
使用される画面上の判定領域を示した説明図である。
FIG. 11 is an explanatory diagram showing a determination area on a screen used in setting the moving speed of the camera platform.

【図12】図12は、雲台のパンスピードとズームのコ
ントロール電圧(焦点距離)に対する撮影範囲のシフト
量を予めメモリに記憶させておく場合の説明に使用した
説明図である。
FIG. 12 is an explanatory diagram used to explain a case where a shift amount of a shooting range with respect to a pan speed of a camera platform and a control voltage (focal length) of zoom is stored in a memory in advance.

【図13】図13は、雲台のパンスピードとズームのコ
ントロール電圧(焦点距離)に対する撮影範囲のシフト
量を予めメモリに記憶させておく場合の処理手順を示し
たフローチャートである。
FIG. 13 is a flowchart illustrating a processing procedure when a shift amount of a shooting range with respect to a pan speed of a camera platform and a control voltage (focal length) of a zoom is stored in a memory in advance.

【符号の説明】[Explanation of symbols]

10…雲台、12…雲台コントローラ、14…画像処理
装置、40…カメラ、42…カメラ本体、44…レンズ
装置、46…Y/C分離回路、48…A/Dコンバー
タ、50…画像メモリ、52…画像処理プロセッサ、5
4…CPU
DESCRIPTION OF SYMBOLS 10 ... Head, 12 ... Head controller, 14 ... Image processing apparatus, 40 ... Camera, 42 ... Camera main body, 44 ... Lens device, 46 ... Y / C separation circuit, 48 ... A / D converter, 50 ... Image memory , 52... Image processor, 5
4 ... CPU

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】カメラを載置した雲台の移動によってカメ
ラの撮影方向を移動させながら前記カメラで撮影された
画像を逐次取り込み、該取り込んだ画像を比較して移動
物体の画像を抽出すると共に、前記移動物体の画像の画
面上の位置に基づいて前記移動物体が前記カメラの撮影
範囲外とならないように前記雲台の移動速度を制御する
自動追尾装置において、 前記カメラから取り込んだ画像を少なくとも2画面分記
憶する画像記憶手段と、 前記画像記憶手段によって記憶された2画面分の画像を
前記カメラから取り込んだ際における前記雲台の移動速
度を取得する移動速度取得手段と、 前記移動速度取得手段によって取得された前記雲台の移
動速度に基づいて、前記2画面分の各画像を前記カメラ
で撮影した際の撮影範囲が重複する範囲を比較範囲とし
て決定する比較範囲決定手段と、 前記2画面分の各画像から前記比較範囲決定手段によっ
て決定された比較範囲内の画像を抽出し、該抽出した各
画像を比較することによって前記移動物体の画像を抽出
する画像処理手段と、 前記画像処理手段によって抽出された前記移動物体の画
像の画面上の位置に基づいて、前記移動物体が前記カメ
ラの撮影範囲外とならないように前記雲台の移動速度を
制御する移動速度制御手段と、 を備えたことを特徴とする自動追尾装置。
An image captured by a camera is sequentially captured while moving a camera direction by moving a camera platform on which the camera is mounted, and the captured images are compared to extract an image of a moving object. An automatic tracking device that controls a moving speed of the camera platform so that the moving object does not fall outside a shooting range of the camera based on a position of an image of the moving object on a screen, at least an image captured from the camera. Image storage means for storing two screens; movement speed acquisition means for acquiring the movement speed of the camera platform when the images for two screens stored by the image storage means are captured from the camera; Based on the moving speed of the camera platform acquired by the means, a range where the photographing ranges when the images of the two screens are photographed by the camera overlaps with each other. A comparison range determining means for determining as a comparison range; an image within the comparison range determined by the comparison range determining means from each of the two screen images; and comparing the extracted images with the moving object. Image processing means for extracting an image of the camera, based on a position on the screen of the image of the moving object extracted by the image processing means, so that the moving object does not fall outside the shooting range of the camera An automatic tracking device, comprising: moving speed control means for controlling a moving speed.
【請求項2】前記カメラの撮影画角が可変の場合におい
て、前記画像記憶手段によって記憶された2画面分の画
像を前記カメラから取り込んだ際における前記カメラの
撮影画角を取得する撮影画角取得手段を備え、前記比較
範囲決定手段は、前記撮影画角取得手段によって取得さ
れた撮影画角及び前記雲台の移動速度に基づいて前記比
較範囲を決定することを特徴とする請求項1の自動追尾
装置。
2. A photographing angle of view for acquiring a photographing angle of view of said camera when images of two screens stored by said image storage means are fetched from said camera when the photographing angle of view of said camera is variable. 2. The apparatus according to claim 1, further comprising an acquisition unit, wherein the comparison range determination unit determines the comparison range based on a shooting angle of view and a moving speed of the camera platform obtained by the shooting angle of view obtaining unit. Automatic tracking device.
JP2000300475A 2000-09-29 2000-09-29 Automatic tracking device Expired - Fee Related JP4568915B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000300475A JP4568915B2 (en) 2000-09-29 2000-09-29 Automatic tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000300475A JP4568915B2 (en) 2000-09-29 2000-09-29 Automatic tracking device

Publications (2)

Publication Number Publication Date
JP2002112250A true JP2002112250A (en) 2002-04-12
JP4568915B2 JP4568915B2 (en) 2010-10-27

Family

ID=18782158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000300475A Expired - Fee Related JP4568915B2 (en) 2000-09-29 2000-09-29 Automatic tracking device

Country Status (1)

Country Link
JP (1) JP4568915B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01184483A (en) * 1988-01-19 1989-07-24 Sumitomo Heavy Ind Ltd Automatic tracking device for moving body
JPH0583712A (en) * 1991-09-20 1993-04-02 Hitachi Ltd Picture processing system and monitor system
JPH05346958A (en) * 1992-06-15 1993-12-27 Matsushita Electric Ind Co Ltd Mobile object tracking device
JPH0723271A (en) * 1993-06-30 1995-01-24 Victor Co Of Japan Ltd Object tracking device for video camera
JPH09186927A (en) * 1995-12-28 1997-07-15 Sony Corp Tracking device and tracking method
JPH10145776A (en) * 1996-11-11 1998-05-29 Canon Inc Photographing system
JP2000175101A (en) * 1998-12-04 2000-06-23 Fuji Photo Optical Co Ltd Automatic tracking device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01184483A (en) * 1988-01-19 1989-07-24 Sumitomo Heavy Ind Ltd Automatic tracking device for moving body
JPH0583712A (en) * 1991-09-20 1993-04-02 Hitachi Ltd Picture processing system and monitor system
JPH05346958A (en) * 1992-06-15 1993-12-27 Matsushita Electric Ind Co Ltd Mobile object tracking device
JPH0723271A (en) * 1993-06-30 1995-01-24 Victor Co Of Japan Ltd Object tracking device for video camera
JPH09186927A (en) * 1995-12-28 1997-07-15 Sony Corp Tracking device and tracking method
JPH10145776A (en) * 1996-11-11 1998-05-29 Canon Inc Photographing system
JP2000175101A (en) * 1998-12-04 2000-06-23 Fuji Photo Optical Co Ltd Automatic tracking device

Also Published As

Publication number Publication date
JP4568915B2 (en) 2010-10-27

Similar Documents

Publication Publication Date Title
US7424213B2 (en) Camera system, image capturing apparatus, and a method of an image capturing apparatus
US7256817B2 (en) Following device
JP4745769B2 (en) Camera head unit
CN112449107B (en) Control apparatus, control method, and storage medium
JP2005215040A (en) Autofocus system
JP2007322922A (en) Imaging system and camera, and lens unit
CN107018309A (en) The picture method of compensating for hand shake of camera device and camera device
JP2000078445A (en) Digital camera
JP2006058431A (en) Autofocusing system
JP2005338352A (en) Autofocus system
JP3761383B2 (en) Automatic focusing device, camera, portable information input device, focusing position detection method, and computer-readable recording medium
JP4403483B2 (en) Automatic tracking device
JP2001268425A (en) Automatic tracking device
JP2007133301A (en) Autofocus camera
JP2002135766A (en) Automatic tracking device
JP3615868B2 (en) Automatic camera system
JP2003241065A (en) Autofocusing system
JP2002171438A (en) Automatic tracking device
JP2002171439A (en) Automatic tracking device
JP4189534B2 (en) Automatic tracking device
JP2002112250A (en) Automatic tracking device
JP2001169169A (en) Automatic tracking device
JPH0568666B2 (en)
JPH0560712B2 (en)
JP3487045B2 (en) Automatic tracking device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100614

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100712

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100725

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130820

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4568915

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees