JP7049858B2 - Moving object tracking device and its program - Google Patents

Moving object tracking device and its program Download PDF

Info

Publication number
JP7049858B2
JP7049858B2 JP2018032790A JP2018032790A JP7049858B2 JP 7049858 B2 JP7049858 B2 JP 7049858B2 JP 2018032790 A JP2018032790 A JP 2018032790A JP 2018032790 A JP2018032790 A JP 2018032790A JP 7049858 B2 JP7049858 B2 JP 7049858B2
Authority
JP
Japan
Prior art keywords
unit
moving object
prediction information
camera
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018032790A
Other languages
Japanese (ja)
Other versions
JP2019149659A (en
Inventor
悟 渡部
隼 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2018032790A priority Critical patent/JP7049858B2/en
Publication of JP2019149659A publication Critical patent/JP2019149659A/en
Application granted granted Critical
Publication of JP7049858B2 publication Critical patent/JP7049858B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、動体追尾装置及びそのプログラムに関する。 The present invention relates to a moving object tracking device and a program thereof.

従来より、航空機などの動体を自動追尾しながら撮影する自動追尾撮影システムが提案されている(特許文献1)。例えば、従来の自動追尾撮影システムは、センサカメラが取得した位置情報(センサ情報)に基づいて、撮影カメラが動体を追尾するように雲台を制御する雲台制御部を備えるものである。 Conventionally, an automatic tracking imaging system that captures images while automatically tracking a moving object such as an aircraft has been proposed (Patent Document 1). For example, the conventional automatic tracking imaging system includes a pan head control unit that controls the pan head so that the photographing camera tracks a moving object based on the position information (sensor information) acquired by the sensor camera.

特開2016-58986号公報Japanese Unexamined Patent Publication No. 2016-58986

従来の自動追尾撮影システムにおいて、一般のロボットカメラ雲台システムを利用する場合、雲台が撮影カメラの現在の方向を度数表記の極座標系で出力する。その一方、雲台の制御は、動作速度(パンやチルトなどの速度指示)でしか行えず、その動作指示も所定段階数(例えば、±63段階)の指令コマンドに変換して離散的な値でしか制御できない場合がある。また、撮影カメラは、一定の質量を有し、雲台の駆動トルクも有限のため、指令コマンドを受け取っても直ぐに意図した速度に到達するわけでなく、ゆっくり動きだして速度が上昇し、ある程度の時間で一定の速度となる。このため、撮影カメラでは、停止している場合に振り遅れ、動体の速度が変わった場合に追尾誤差が生じる。従って、従来の自動追尾撮影システムでは、雲台からのフィードバック信号を利用する必要があるが、遅延が多く、撮影カメラの方向を正確に把握するのが困難である。 When a general robot camera pan head system is used in a conventional automatic tracking imaging system, the pan head outputs the current direction of the imaging camera in a polar coordinate system expressed in degrees. On the other hand, the pan head can be controlled only by the operation speed (speed instruction such as pan and tilt), and the operation instruction is also converted into a command command of a predetermined number of steps (for example, ± 63 steps) and is a discrete value. It may be possible to control only with. In addition, since the shooting camera has a certain mass and the drive torque of the pan head is finite, it does not reach the intended speed immediately even if it receives a command command, but it starts to move slowly and the speed increases to some extent. It becomes a constant speed over time. For this reason, in the photographing camera, the swing is delayed when the camera is stopped, and a tracking error occurs when the speed of the moving object changes. Therefore, in the conventional automatic tracking imaging system, it is necessary to use the feedback signal from the pan head, but there is a large delay and it is difficult to accurately grasp the direction of the imaging camera.

本発明は、前記した課題を解決し、動体を滑らかに追尾できる動体追尾装置及びそのプログラムを提供することを課題とする。 An object of the present invention is to solve the above-mentioned problems and to provide a moving body tracking device and a program thereof capable of smoothly tracking a moving body.

前記した課題に鑑みて、本発明に係る動体追尾装置は、撮影カメラに対する動体の位置を表す位置情報を用いて、撮影カメラに動体を追尾させる動体追尾装置であって、状態値入力部と、予測情報要求部と、予測情報生成部と、位置データ取得部と、差分算出部と、制御情報生成部と、撮影カメラ制御部と、を備える構成とした。 In view of the above-mentioned problems, the moving object tracking device according to the present invention is a moving object tracking device that causes a photographing camera to track a moving object by using position information indicating the position of the moving object with respect to the photographing camera, and has a state value input unit and a state value input unit. It is configured to include a prediction information request unit, a prediction information generation unit, a position data acquisition unit, a difference calculation unit, a control information generation unit, and a shooting camera control unit.

この動体追尾装置によれば、状態値入力部は、撮影カメラの状態変化中、所定の入力間隔で撮影カメラの状態値が入力される(フィードバック信号)。
予測情報要求部は、状態値入力部に状態値が入力されたとき、又は、状態値が入力されずに予め設定した待機時間が経過したとき、位置情報の予測を要求する。
予測情報生成部は、入力された位置情報に基づいて、撮影カメラに対する動体の過去位置及び現在位置から予測位置を求め、過去位置と現在位置と予測位置とが位置データとして含まれる予測情報を生成する。
位置データ取得部は、現在位置を基準として予め設定した遅延時間の位置データを取得する。
According to this moving object tracking device, the state value input unit inputs the state value of the shooting camera at a predetermined input interval while the state of the shooting camera is changing (feedback signal).
The prediction information request unit requests the prediction of the position information when the state value is input to the state value input unit or when the preset waiting time elapses without inputting the state value.
Based on the input position information, the prediction information generation unit obtains the predicted position from the past position and the current position of the moving object with respect to the photographing camera, and generates the prediction information including the past position, the current position, and the predicted position as position data. do.
The position data acquisition unit acquires the position data of the delay time set in advance with respect to the current position.

差分算出部は、撮影カメラを制御するときの制御時点での予測位置と、制御時点に予め設定した更新間隔を加えた時刻での予測位置との差分を算出する。
制御情報生成部は、差分算出部が算出した差分に基づいて、撮影カメラの動作速度を表す制御情報を生成し、状態値入力部に入力された状態値及び前記位置データ取得部が取得した位置データに基づいて、制御情報を補正する。
撮影カメラ制御部は、制御情報に基づいて、撮影カメラを制御する。
このように、動体追尾装置は、遅延時間として、撮影カメラから状態値(フィードバック信号)が入力されるときの遅延や、予測位置を求めるときの遅延を考慮するので、撮影カメラの方向を正確に把握できる。
The difference calculation unit calculates the difference between the predicted position at the control time point when controlling the photographing camera and the predicted position at the time when the update interval set in advance is added to the control time point.
The control information generation unit generates control information indicating the operating speed of the photographing camera based on the difference calculated by the difference calculation unit, and the state value input to the state value input unit and the position acquired by the position data acquisition unit. Correct the control information based on the data.
The shooting camera control unit controls the shooting camera based on the control information.
In this way, the moving object tracking device considers the delay when the state value (feedback signal) is input from the photographing camera and the delay when obtaining the predicted position as the delay time, so that the direction of the photographing camera can be accurately determined. I can grasp it.

本発明によれば、以下のような優れた効果を奏する。
本発明に係る動体追尾装置は、遅延時間及び更新間隔を考慮して制御情報を生成するので、動体を滑らかに追尾することができる。
According to the present invention, the following excellent effects are obtained.
Since the moving object tracking device according to the present invention generates control information in consideration of the delay time and the update interval, the moving object can be tracked smoothly.

本発明の実施形態において、航空機追尾撮影システムの全体構成図である。In the embodiment of the present invention, it is an overall block diagram of the aircraft tracking photography system. 図1のセンサカメラの設置方法を説明する説明図である。It is explanatory drawing explaining the installation method of the sensor camera of FIG. 図1の動体追尾装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving body tracking apparatus of FIG. 図3の動体追尾装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the moving body tracking apparatus of FIG. 本発明の実施形態において、動体の追尾を説明する説明図である。It is explanatory drawing explaining the tracking of a moving body in embodiment of this invention. 本発明の変形例において、動体の追尾を説明する説明図である。It is explanatory drawing explaining the tracking of a moving body in the modification of this invention.

[航空機追尾撮影システムの概略]
以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。
図1を参照し、航空機追尾撮影システム1の概略について説明する。
航空機追尾撮影システム1は、空港を離発着する航空機をロボットカメラ(撮影カメラ)40で追尾して撮影するものであり、図1に示すように、センサカメラ10(10,10,10)と、動体検出装置20(20,20,20)と、動体追尾装置30と、ロボットカメラ40とを備える。
[Outline of aircraft tracking shooting system]
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate.
An outline of the aircraft tracking imaging system 1 will be described with reference to FIG.
The aircraft tracking photography system 1 tracks an aircraft taking off and landing at an airport with a robot camera (shooting camera) 40 and photographs the aircraft. As shown in FIG. 1, the sensor cameras 10 (10 R , 10 C , 10 L ) A moving object detecting device 20 (20 R , 20 C , 20 L ), a moving object tracking device 30, and a robot camera 40 are provided.

なお、動体とは、移動する物体や人物のことであり、動体追尾装置30の追尾対象となる。本実施形態では、動体として、空港を離発着中の航空機を例示するが、動体が特に制限されないことは言うまでもない。 The moving object is a moving object or a person, and is a tracking target of the moving object tracking device 30. In the present embodiment, an aircraft taking off and landing at the airport is illustrated as a moving body, but it goes without saying that the moving body is not particularly limited.

センサカメラ10は、航空機を撮影してセンサ映像90を生成するものであり、例えば、撮影方向及び撮影画角が一定の固定カメラである。そして、センサカメラ10は、生成したセンサ映像90を動体検出装置20に出力する。
ここで、センサカメラ10は、1台以上、必要に応じた台数を設置できる。本実施形態では、センサカメラ10は、図2に示すように、滑走路全体を撮影できるように、空港中央の建物屋上に3台設置されている。図2では、センサカメラ10が滑走路右側を向き、センサカメラ10が滑走路中央を向き、センサカメラ10が滑走路左側を向いている。そして、センサカメラ10,10,10は、それぞれの撮影方向で滑走路を撮影したセンサ映像90,90,90を生成する。
The sensor camera 10 captures an aircraft and generates a sensor image 90. For example, the sensor camera 10 is a fixed camera having a constant shooting direction and shooting angle of view. Then, the sensor camera 10 outputs the generated sensor image 90 to the moving object detection device 20.
Here, one or more sensor cameras 10 can be installed as needed. In this embodiment, as shown in FIG. 2, three sensor cameras 10 are installed on the roof of the building in the center of the airport so that the entire runway can be photographed. In FIG. 2, the sensor camera 10 R faces the right side of the runway, the sensor camera 10 C faces the center of the runway, and the sensor camera 10 L faces the left side of the runway. Then, the sensor cameras 10 R , 10 C , and 10 L generate sensor images 90 R , 90 C , and 90 L in which the runway is photographed in each photographing direction.

動体検出装置20は、センサカメラ10より入力されたセンサ映像90から航空機を検出し、その検出結果(動体検出結果)を動体追尾装置30に出力するものである。動体検出装置20は、一般的な手法で航空機を検出できる。例えば、航空機の検出手法としては、航空機のADS-B(Automatic Dependent Surveillance-Broadcast)信号を利用する手法や、レーダ画像から航空機の進路を予測する手法があげられる。
本実施形態では、動体検出装置20は、センサカメラ10と1対1で対応するように、空港から離れた別の場所に3台設置されている。そして、動体検出装置20がセンサカメラ10のセンサ映像90を画像解析し、動体検出装置20がセンサカメラ10のセンサ映像90を画像解析し、動体検出装置20がセンサカメラ10のセンサ映像90を画像解析する。
The moving object detection device 20 detects an aircraft from the sensor image 90 input from the sensor camera 10, and outputs the detection result (moving object detection result) to the moving object tracking device 30. The motion detection device 20 can detect an aircraft by a general method. For example, as an aircraft detection method, a method using an ADS-B (Automatic Dependent Surveillance-Broadcast) signal of an aircraft and a method of predicting the course of an aircraft from a radar image can be mentioned.
In the present embodiment, three motion detection devices 20 are installed at different locations away from the airport so as to have a one-to-one correspondence with the sensor camera 10. Then, the moving object detecting device 20 R analyzes the image of the sensor image 90 R of the sensor camera 10 R , the moving object detecting device 20 C analyzes the image of the sensor image 90 C of the sensor camera 10 C , and the moving object detecting device 20 L analyzes the image of the sensor image 90 C. Image analysis is performed on the sensor image 90 L of 10 L.

動体追尾装置30は、動体検出装置20から入力された動体検出結果を用いて、ロボットカメラ40に航空機を追尾させるものである。この動体追尾装置30は、ロボットカメラ40が航空機を追尾するように、ロボットカメラ40に指令コマンドを出力する。本実施形態では、動体追尾装置30は、動体検出装置20と同じ場所に1台設置されている。 The moving object tracking device 30 uses the moving object detection result input from the moving object detecting device 20 to cause the robot camera 40 to track the aircraft. The moving object tracking device 30 outputs a command command to the robot camera 40 so that the robot camera 40 tracks the aircraft. In the present embodiment, one moving object tracking device 30 is installed at the same place as the moving object detecting device 20.

ロボットカメラ40は、動体追尾装置30からの指令コマンドに従って駆動し、航空機を撮影した撮影映像91を生成するものである。このロボットカメラ40は、パンやチルトなどの状態を変化させることが可能な一般的なロボットカメラである。ロボットカメラ40は、航空機の撮影映像91を生成するカメラ本体41と、搭載したカメラ本体41の姿勢を変化させる雲台43とを備える。本実施形態では、ロボットカメラ40は、センサカメラ10と同様、空港中央の建物屋上に1台設置されている。
本実施形態では、ロボットカメラ40及び動体追尾装置30は、低速のシリアル回線で接続されている。従って、ロボットカメラ40及び動体追尾装置30の間は、高ビットレートでの入出力が困難である。
The robot camera 40 is driven according to a command command from the moving object tracking device 30, and generates a captured image 91 in which an aircraft is photographed. The robot camera 40 is a general robot camera capable of changing states such as pan and tilt. The robot camera 40 includes a camera body 41 that generates an image taken by an aircraft 91, and a pan head 43 that changes the posture of the mounted camera body 41. In the present embodiment, one robot camera 40 is installed on the roof of the building in the center of the airport, like the sensor camera 10.
In the present embodiment, the robot camera 40 and the moving object tracking device 30 are connected by a low-speed serial line. Therefore, it is difficult to input / output at a high bit rate between the robot camera 40 and the moving object tracking device 30.

また、ロボットカメラ40は、状態変化中、フィードバック信号として、所定の入力間隔(例えば、0.5秒)おきに状態値を動体追尾装置30に出力する。本実施形態では、ロボットカメラ40は、状態値として、ロボットカメラ40の撮影方向(AZ角、EL角)を出力する。
ここで、ロボットカメラ40は、AZ角(方位角)又はEL角(仰俯角)の一方、あるいは両方が変化している場合、変化しているAZ角又はEL角の値を動体追尾装置30に出力する。
一方、ロボットカメラ40は、姿勢が変化していないとき(つまり、AZ角及びEL角の両方が変化していないとき)、状態値を動体追尾装置30に出力しない。
Further, the robot camera 40 outputs a state value to the moving object tracking device 30 as a feedback signal at predetermined input intervals (for example, 0.5 seconds) during the state change. In the present embodiment, the robot camera 40 outputs the shooting direction (AZ angle, EL angle) of the robot camera 40 as a state value.
Here, when one or both of the AZ angle (azimuth angle) and the EL angle (elevation / depression angle) are changed, the robot camera 40 uses the changed AZ angle or EL angle value in the moving object tracking device 30. Output.
On the other hand, the robot camera 40 does not output the state value to the moving object tracking device 30 when the posture has not changed (that is, when both the AZ angle and the EL angle have not changed).

[動体追尾装置の構成]
図3を参照し、動体追尾装置30の構成について説明する。
図3に示すように、動体追尾装置30は、航空機の位置を特定し、その予測情報を生成する位置特定部31と、位置特定部31が生成した予測情報を利用してロボットカメラ40を制御するロボットカメラ制御部32とを備える。
位置特定部31は、センサ情報生成部310と、予測情報生成部311と、予測情報記憶部312と、要求入力部313と、予測情報出力部314とを備える。
[Configuration of moving object tracking device]
The configuration of the moving object tracking device 30 will be described with reference to FIG.
As shown in FIG. 3, the moving object tracking device 30 controls the robot camera 40 by using the position specifying unit 31 that identifies the position of the aircraft and generates the prediction information thereof and the prediction information generated by the position specifying unit 31. The robot camera control unit 32 is provided.
The position specifying unit 31 includes a sensor information generation unit 310, a prediction information generation unit 311, a prediction information storage unit 312, a request input unit 313, and a prediction information output unit 314.

センサ情報生成部310は、動体検出装置20から入力された動体検出結果に基づいて、センサ情報(位置情報)を生成し、生成したセンサ情報を予測情報生成部311に出力するものである。本実施形態では、センサ情報生成部310は、所定の生成間隔(例えば、0.1秒間隔)で動体検出結果が入力されるので、動体検出結果が入力される都度、センサ情報を生成することになる。 The sensor information generation unit 310 generates sensor information (position information) based on the motion detection result input from the motion detection device 20, and outputs the generated sensor information to the prediction information generation unit 311. In the present embodiment, the sensor information generation unit 310 inputs the moving object detection result at a predetermined generation interval (for example, 0.1 second interval), so that the sensor information is generated each time the moving object detection result is input. become.

なお、センサ情報とは、ロボットカメラ40に対する航空機の位置(方向)を表す情報である。例えば、センサ情報は、ロボットカメラ40の状態値と同様、ロボットカメラ40から航空機を見たときのAZ角及びEL角で表される。このセンサ情報は、物理的には方向を意味するが、論理的には球面の極座標系で展開されるので位置情報と呼ばれることがある。 The sensor information is information indicating the position (direction) of the aircraft with respect to the robot camera 40. For example, the sensor information is represented by an AZ angle and an EL angle when the aircraft is viewed from the robot camera 40, similar to the state value of the robot camera 40. This sensor information physically means a direction, but is logically expanded in a spherical polar coordinate system, so it may be called position information.

ここで、センサ情報生成部310は、任意の手法でセンサ情報を生成できる。例えば、センサ情報生成部310は、センサカメラ10毎に、センサ映像90の画像座標を極座標系に変換する変換パラメータを予め設定する。そして、センサ情報生成部310は、この変換パラメータを参照し、動体検出結果が示すセンサ映像90の画像座標をセンサ情報に変換する。 Here, the sensor information generation unit 310 can generate sensor information by any method. For example, the sensor information generation unit 310 sets in advance a conversion parameter for converting the image coordinates of the sensor image 90 into a polar coordinate system for each sensor camera 10. Then, the sensor information generation unit 310 refers to this conversion parameter and converts the image coordinates of the sensor image 90 indicated by the motion detection result into the sensor information.

予測情報生成部311は、センサ情報生成部310からセンサ情報が入力されると、予測情報を生成するものである。具体的には、予測情報生成部311は、センサ情報生成部310から入力された現在のセンサ情報、及び、予測情報記憶部312に記憶されている過去のセンサ情報から未来のセンサ情報を予測し、予測情報を生成する。
その後、予測情報生成部311は、生成した予測情報及びセンサ情報を予測情報記憶部312に書き込む。
The prediction information generation unit 311 generates prediction information when sensor information is input from the sensor information generation unit 310. Specifically, the prediction information generation unit 311 predicts future sensor information from the current sensor information input from the sensor information generation unit 310 and the past sensor information stored in the prediction information storage unit 312. , Generate prediction information.
After that, the prediction information generation unit 311 writes the generated prediction information and the sensor information in the prediction information storage unit 312.

この予測情報は、ロボットカメラ40に対する航空機の過去位置と現在位置と予測位置との位置データが含まれる。つまり、予測情報には、位置データとして、過去のセンサ情報(実測値)と、現在時点のセンサ情報(実測値)と、未来のセンサ情報(予測値)とが含まれる。 This prediction information includes position data of the past position, the current position, and the predicted position of the aircraft with respect to the robot camera 40. That is, the prediction information includes past sensor information (actual measurement value), current sensor information (actual measurement value), and future sensor information (prediction value) as position data.

例えば、予測情報生成部311は、センサ情報の線形予測により予測情報を生成する。具体的には、予測情報生成部311は、過去及び現在のセンサ情報から、未来の航空機位置を線形的に予測する。この予測情報には、例えば、1.0秒分(0.1秒単位で10個)の過去の位置データと、現在から未来まで2.0秒分(0.1秒単位で20個)の位置データとが含まれる。この予測情報に含まれる過去及び未来の位置データの個数は任意であり、例えば、航空機追尾撮影システム1での各種遅延や航空機の移動速度などの要因を考慮して設定する。
なお、予測情報生成部311は、線形予測だけでなく、2次近似やスプライン関数を用いた方法によって予測情報を生成してもよい。
For example, the prediction information generation unit 311 generates prediction information by linear prediction of sensor information. Specifically, the prediction information generation unit 311 linearly predicts the future aircraft position from the past and present sensor information. This prediction information includes, for example, 1.0 second (10 in 0.1 second) past position data and 2.0 seconds (20 in 0.1 second) from the present to the future. Includes location data. The number of past and future position data included in this prediction information is arbitrary, and is set in consideration of factors such as various delays in the aircraft tracking imaging system 1 and the moving speed of the aircraft.
The prediction information generation unit 311 may generate prediction information not only by linear prediction but also by a method using a quadratic approximation or a spline function.

予測情報記憶部312は、予測情報及びセンサ情報を記憶するメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの記憶装置である。この予測情報記憶部312は、予測情報生成部311によって最新の予測情報及びセンサ情報が逐次書き込まれ、それ以前のセンサ情報を過去のセンサ情報として蓄積する。 The prediction information storage unit 312 is a storage device such as a memory for storing prediction information and sensor information, an HDD (Hard Disk Drive), and an SSD (Solid State Drive). In the prediction information storage unit 312, the latest prediction information and sensor information are sequentially written by the prediction information generation unit 311, and the sensor information before that is accumulated as the past sensor information.

要求入力部313は、後記する予測情報要求部321から予測情報要求が入力されるものである。そして、要求入力部313は、予測情報要求部321から予測情報要求が入力されると、予測情報要求の入力を予測情報出力部314に通知する(予測情報要求通知)。 The request input unit 313 inputs a prediction information request from the prediction information request unit 321 described later. Then, when the prediction information request is input from the prediction information request unit 321, the request input unit 313 notifies the prediction information output unit 314 of the input of the prediction information request (prediction information request notification).

予測情報出力部314は、予測情報要求部321からの要求に応じて、予測情報記憶部312に記憶されている予測情報を、予測情報入力部322に出力するものである。つまり、予測情報出力部314は、要求入力部313から予測情報要求通知が入力されたとき、その予測情報を即座に予測情報入力部322に出力する。 The prediction information output unit 314 outputs the prediction information stored in the prediction information storage unit 312 to the prediction information input unit 322 in response to the request from the prediction information request unit 321. That is, when the prediction information request notification is input from the request input unit 313, the prediction information output unit 314 immediately outputs the prediction information to the prediction information input unit 322.

ロボットカメラ制御部32は、状態値入力部320と、予測情報要求部321と、予測情報入力部322と、予測情報記憶部323と、位置データ取得部324と、差分算出部325と、制御情報生成部326と、コマンド変換部327とを備える。なお、コマンド変換部327が、請求項に記載の撮影カメラ制御部に対応する。 The robot camera control unit 32 includes a state value input unit 320, a prediction information request unit 321, a prediction information input unit 322, a prediction information storage unit 323, a position data acquisition unit 324, a difference calculation unit 325, and control information. It includes a generation unit 326 and a command conversion unit 327. The command conversion unit 327 corresponds to the shooting camera control unit according to the claim.

状態値入力部320は、ロボットカメラ40の状態変化中、所定の入力間隔(例えば、0.5秒)でロボットカメラ40の状態値が入力されるものである。すると、状態値入力部320は、状態値の入力を予測情報要求部321に通知する(状態値入力通知)。さらに、状態値入力部320は、ロボットカメラ40の状態値を制御情報生成部326に出力する。 The state value input unit 320 inputs the state value of the robot camera 40 at a predetermined input interval (for example, 0.5 seconds) while the state of the robot camera 40 is changing. Then, the state value input unit 320 notifies the prediction information request unit 321 of the input of the state value (state value input notification). Further, the state value input unit 320 outputs the state value of the robot camera 40 to the control information generation unit 326.

予測情報要求部321は、状態値入力部320から状態値入力通知が入力されたとき、又は、状態値入力通知が入力されずに所定の待機時間が経過したとき、最新の予測情報を要求入力部313に要求する(予測情報要求)。
本実施形態では、予測情報要求部321は、ロボットカメラ40の状態変化中、入力があるたびに0.5秒おきに予測情報要求を要求入力部313に出力する。また、予測情報要求部321は、ロボットカメラ40の状態が変化せずに待機時間が経過した場合にタイムアウトと判定し、予測情報要求を要求入力部313に出力する。
なお、待機時間は、任意の値で予め設定する。例えば、待機時間は、ロボットカメラ40が状態値を出力する間隔で設定可能であり、0.55秒などのように、0.5秒毎に入力されるべき状態値が雲台43から入力されないことが確定する適当な時間を設定するとよい。
The prediction information request unit 321 requests and inputs the latest prediction information when a state value input notification is input from the state value input unit 320, or when a predetermined waiting time has elapsed without inputting the state value input notification. Request to unit 313 (prediction information request).
In the present embodiment, the prediction information request unit 321 outputs a prediction information request to the request input unit 313 every 0.5 seconds every time there is an input while the state of the robot camera 40 is changing. Further, the prediction information request unit 321 determines that a time-out occurs when the waiting time elapses without changing the state of the robot camera 40, and outputs the prediction information request to the request input unit 313.
The waiting time is set in advance with an arbitrary value. For example, the standby time can be set at intervals at which the robot camera 40 outputs the state value, and the state value that should be input every 0.5 seconds, such as 0.55 seconds, is not input from the pan head 43. It is advisable to set an appropriate time to confirm that.

予測情報入力部322は、予測情報要求部321の予測情報要求に応じて、予測情報出力部314から予測情報が入力されるものである。そして、予測情報入力部322は、入力された予測情報を予測情報記憶部323に書き込む。
予測情報記憶部323は、予測情報を記憶するメモリ、HDD、SSDなどの記憶装置である。この予測情報記憶部323が記憶する予測情報は、位置データ取得部324及び差分算出部325によって参照される。
The prediction information input unit 322 inputs prediction information from the prediction information output unit 314 in response to the prediction information request of the prediction information request unit 321. Then, the prediction information input unit 322 writes the input prediction information in the prediction information storage unit 323.
The prediction information storage unit 323 is a storage device such as a memory, an HDD, or an SSD for storing prediction information. The prediction information stored in the prediction information storage unit 323 is referred to by the position data acquisition unit 324 and the difference calculation unit 325.

位置データ取得部324は、予測情報記憶部323の予測情報から、現在時点を基準として予め設定した遅延時間の位置データを取得するものである。そして、位置データ取得部324は、取得した位置データを制御情報生成部326に出力する。
この遅延時間は、ロボットカメラ40から状態値が入力されるときの遅延(図5のD11)と、予測位置を求めるときの遅延(図5のD12)に基づいて設定する。例えば、遅延時間は、D11-D12より0.4秒に設定するとよい。
The position data acquisition unit 324 acquires the position data of the delay time preset with respect to the current time point from the prediction information of the prediction information storage unit 323. Then, the position data acquisition unit 324 outputs the acquired position data to the control information generation unit 326.
This delay time is set based on the delay when the state value is input from the robot camera 40 (D 11 in FIG. 5) and the delay when obtaining the predicted position (D 12 in FIG. 5). For example, the delay time may be set to 0.4 seconds from D 11 to D 12 .

差分算出部325は、予測情報記憶部323の予測情報から、ロボットカメラ40を制御する制御時点での予測位置と、制御時点に予め設定した更新間隔を加えた時刻での予測位置との差分を算出するものである。そして、差分算出部325は、算出した差分を制御情報生成部326に出力する。
この更新間隔として、ロボットカメラ40がコマンド変換部327からの指令コマンドを更新するときの周期を考慮したコマンド更新間隔を設定する(図5のD)。例えば、更新間隔は、任意の値で設定可能であり、0.1秒に設定するとよい。この更新間隔は、速く動く航空機を追尾できるように十分に短い時間でありながら、指令コマンドをロボットカメラ40に遅滞なく伝送できるように設定することが好ましい。
From the prediction information of the prediction information storage unit 323, the difference calculation unit 325 calculates the difference between the predicted position at the control time point in which the robot camera 40 is controlled and the predicted position at the time obtained by adding the update interval set in advance to the control time point. It is to be calculated. Then, the difference calculation unit 325 outputs the calculated difference to the control information generation unit 326.
As this update interval, a command update interval is set in consideration of the cycle when the robot camera 40 updates the command command from the command conversion unit 327 (D2 in FIG . 5). For example, the update interval can be set by any value, and may be set to 0.1 seconds. It is preferable that this update interval is set so that the command command can be transmitted to the robot camera 40 without delay while the update interval is short enough to track a fast-moving aircraft.

制御情報生成部326は、差分算出部325から入力された差分に基づいて、ロボットカメラ40の動作速度を表す制御情報を生成するものである。この制御情報とは、ロボットカメラ40のパン速度(単位時間当たりのパン角度変化)やチルト速度(単位時間当たりのチルト角度変化)のことである。本実施形態では、制御情報生成部326は、差分算出部325が算出した差分(AZ角、EL角)を、ロボットカメラ40に出力する制御情報(パン速度、チルト速度)に変換する。 The control information generation unit 326 generates control information representing the operating speed of the robot camera 40 based on the difference input from the difference calculation unit 325. This control information is the pan speed (change in pan angle per unit time) and tilt speed (change in tilt angle per unit time) of the robot camera 40. In the present embodiment, the control information generation unit 326 converts the difference (AZ angle, EL angle) calculated by the difference calculation unit 325 into the control information (pan speed, tilt speed) output to the robot camera 40.

次に、制御情報生成部326は、状態値入力部320から入力された状態値Xuと、位置データ取得部324から入力された位置データXdとに基づいて、制御情報を補正する。本実施形態では、制御情報生成部326は、下記の式(1)のように、位置データXdと状態値Xuとの差を求める。そして、制御情報生成部326は、求めた差に補正係数を乗じ、補正値Rを求める。この補正係数は、後記する修正時間Tの逆数及びハンチング防止係数Kの積となる。さらに、制御情報生成部326は、求めた補正値Rを制御情報に加算し、制御情報を補正する。その後、制御情報生成部326は、補正した制御情報をコマンド変換部327に出力する。
R=(Xd-Xu)/T×K …式(1)
Next, the control information generation unit 326 corrects the control information based on the state value Xu input from the state value input unit 320 and the position data Xd input from the position data acquisition unit 324. In the present embodiment, the control information generation unit 326 obtains the difference between the position data Xd and the state value Xu as in the following equation (1). Then, the control information generation unit 326 multiplies the obtained difference by the correction coefficient to obtain the correction value R. This correction coefficient is the product of the reciprocal of the correction time T and the hunting prevention coefficient K, which will be described later. Further, the control information generation unit 326 adds the obtained correction value R to the control information and corrects the control information. After that, the control information generation unit 326 outputs the corrected control information to the command conversion unit 327.
R = (Xd-Xu) / T × K ... Equation (1)

なお、修正時間Tは、自動追尾の誤差を補正しようとする時間(秒数)を表す。すなわち、制御情報生成部326は、自動追尾の誤差をT秒かけて修正するような速度で補正する。ハンチング防止係数Kは、ハンチングを防止するための係数であり、通常1以下である。ここで、ハンチング防止係数のため補正速度がK倍となっている。このため、実際にはT/K秒で修正するような速度で補正される。例えば、修正時間Tが1.0秒、ハンチング防止係数Kが0.6の場合、自動追尾の誤差を1.67秒かけて修正することと同等である。
また、補正値Rは、状態値の入力間隔(例えば、0.5秒)毎に修正の機会がある。
The correction time T represents the time (seconds) for correcting the error of automatic tracking. That is, the control information generation unit 326 corrects the automatic tracking error at a speed that corrects it over T seconds. The hunting prevention coefficient K is a coefficient for preventing hunting, and is usually 1 or less. Here, the correction speed is K times because of the hunting prevention coefficient. Therefore, it is actually corrected at a speed that corrects in T / K seconds. For example, when the correction time T is 1.0 second and the hunting prevention coefficient K is 0.6, it is equivalent to correcting the automatic tracking error over 1.67 seconds.
Further, the correction value R has an opportunity to be corrected every input interval (for example, 0.5 seconds) of the state value.

コマンド変換部327は、制御情報生成部326から入力された制御情報を、ロボットカメラ40への指令コマンドに変換するものである。例えば、指令コマンドは、パン及びチルトについては、-63から+63までの127段階の数値で表される。そして、コマンド変換部327は、パンやチルトの指示であることを表す識別コマンドと、これらの数値とをセットにした指令コマンドを、ロボットカメラ40に出力する。
ここで、コマンド変換部327は、ロボットカメラ40が意図したとおりに動くように、制御情報を指令コマンドに変換する。例えば、コマンド変換部327は、線形関数、LUT(ルックアップテーブル)、べき関数(指数関数)、又は、べき関数を組み合わせた関数を用いて、変換を行うことができる。
The command conversion unit 327 converts the control information input from the control information generation unit 326 into a command command to the robot camera 40. For example, the command command is represented by 127 numerical values from −63 to +63 for pan and tilt. Then, the command conversion unit 327 outputs a command command in which an identification command indicating that it is a pan or tilt instruction and these numerical values are set to the robot camera 40.
Here, the command conversion unit 327 converts the control information into a command command so that the robot camera 40 moves as intended. For example, the command conversion unit 327 can perform conversion by using a linear function, a LUT (look-up table), a power function (exponential function), or a function in which a power function is combined.

[動体追尾装置の動作]
図4,図5を参照し、動体追尾装置30による動体追尾を具体的に説明する(適宜図3参照)。
[Operation of moving object tracking device]
With reference to FIGS. 4 and 5, the tracking of the moving object by the moving object tracking device 30 will be specifically described (see FIG. 3 as appropriate).

ここで、ロボットカメラ40が0.1秒毎のコマンドを受け付けて動作し、動体追尾装置30が0.1秒単位で動作を行い、予測情報Aが0.1秒単位で生成されることとする。
図5に示すように、ロボットカメラ40から状態値が入力されるときの遅延D11=0.6秒、及び、予測情報Aを生成するときの遅延D12=0.2秒に基づいて、D11-D12より、遅延時間=0.4秒が設定されている。
また、コマンド更新間隔D=0.1秒が設定されている。
Here, the robot camera 40 receives a command every 0.1 seconds and operates, the moving object tracking device 30 operates in units of 0.1 seconds, and the prediction information A is generated in units of 0.1 seconds. do.
As shown in FIG. 5, based on the delay D 11 = 0.6 seconds when the state value is input from the robot camera 40 and the delay D 12 = 0.2 seconds when the prediction information A is generated. From D 11 to D 12 , the delay time = 0.4 seconds is set.
Further, the command update interval D 2 = 0.1 second is set.

まず、ロボットカメラ制御部32の処理を説明する。
前記したように、ロボットカメラ40は、状態変化中であっても、0.5秒おきにしか、状態値Xuを状態値入力部320に出力しない。つまり、状態値入力部320は、最短0.5秒間隔でロボットカメラ40から状態値Xuが入力される(ステップS1)。
First, the processing of the robot camera control unit 32 will be described.
As described above, the robot camera 40 outputs the state value Xu to the state value input unit 320 only every 0.5 seconds even during the state change. That is, the state value input unit 320 inputs the state value Xu from the robot camera 40 at the shortest interval of 0.5 seconds (step S1).

図5に示すように、ロボットカメラ40から入力された状態値Xuには、例えば、0.6秒の遅延が含まれている(遅延D11)。ここで、状態値入力部320に状態値Xuが入力された時刻を状態値入力時点とする。 As shown in FIG. 5, the state value Xu input from the robot camera 40 includes, for example, a delay of 0.6 seconds (delay D 11 ). Here, the time when the state value Xu is input to the state value input unit 320 is set as the state value input time point.

状態値入力部320は、状態値入力通知を予測情報要求部321に出力する。そして、予測情報要求部321は、状態値入力部320から入力された状態値入力通知に応じて、予測情報要求を要求入力部313に出力する(ステップS2)。 The state value input unit 320 outputs a state value input notification to the prediction information request unit 321. Then, the prediction information request unit 321 outputs the prediction information request to the request input unit 313 in response to the state value input notification input from the state value input unit 320 (step S2).

ステップS1,S2の処理と並行して、位置特定部31は、以下の動作を行う。
センサ情報生成部310は、動体検出装置20から入力された動体検出結果に基づいて、センサ情報を生成する(ステップS10)。
予測情報生成部311は、ステップS10で生成した現在のセンサ情報、及び、予測情報記憶部312に記憶されている過去のセンサ情報から未来のセンサ情報を予測し、予測情報Aを生成する(ステップS11)。
In parallel with the processing of steps S1 and S2, the position specifying unit 31 performs the following operations.
The sensor information generation unit 310 generates sensor information based on the motion detection result input from the motion detection device 20 (step S10).
The prediction information generation unit 311 predicts future sensor information from the current sensor information generated in step S10 and the past sensor information stored in the prediction information storage unit 312, and generates prediction information A (step). S11).

予測情報生成部311は、ステップS11で生成した予測情報A及びセンサ情報を予測情報記憶部312に書き込む(ステップS12)。
要求入力部313は、予測情報要求部321から予測情報要求が入力され、予測情報要求通知を予測情報出力部314に出力する(ステップS13)。
予測情報出力部314は、要求入力部313から入力された予測情報要求通知に応じて、予測情報記憶部312に記憶されている予測情報Aを予測情報入力部322に出力する(ステップS14)。
The prediction information generation unit 311 writes the prediction information A and the sensor information generated in step S11 into the prediction information storage unit 312 (step S12).
The request input unit 313 receives a prediction information request from the prediction information request unit 321 and outputs a prediction information request notification to the prediction information output unit 314 (step S13).
The prediction information output unit 314 outputs the prediction information A stored in the prediction information storage unit 312 to the prediction information input unit 322 in response to the prediction information request notification input from the request input unit 313 (step S14).

以上のように、ロボットカメラ制御部32は、ロボットカメラ40から状態値Xuが入力されると、位置特定部31に最新の予測情報Aを要求する。常時、位置特定部31は、最新の予測情報Aを更新しながら保持しており、その要求があれば、最新の予測情報Aを即座にロボットカメラ制御部32に出力する。これにより、位置特定部31での予測情報Aの更新と、ロボットカメラ制御部32でのコマンド更新とのタイミングのばらつきが、センサカメラ10の映像更新の周期や位置検出方法、予測方法の変更などによらず一定の範囲に収まる。 As described above, when the state value Xu is input from the robot camera 40, the robot camera control unit 32 requests the position specifying unit 31 for the latest prediction information A. The position specifying unit 31 constantly updates and holds the latest prediction information A, and if there is a request, the position specifying unit 31 immediately outputs the latest prediction information A to the robot camera control unit 32. As a result, the timing variation between the update of the prediction information A in the position specifying unit 31 and the command update in the robot camera control unit 32 causes changes in the image update cycle of the sensor camera 10, the position detection method, the prediction method, and the like. It falls within a certain range regardless.

図5に示すように、予測情報Aは、10個の過去位置(位置データa~a10)と、1個の現在位置(位置データa11)と、19個の予測位置(位置データa12~a30)とが含まれている。つまり、予測情報Aには、0.1秒単位で生成された合計30個の位置データa~a30が含まれている。 As shown in FIG. 5, the prediction information A includes 10 past positions (position data a 1 to a 10 ), one current position (position data a 11 ), and 19 predicted positions (position data a). 12 to a 30 ) and are included. That is, the prediction information A includes a total of 30 position data a 1 to a 30 generated in units of 0.1 seconds.

以下、ロボットカメラ制御部32の処理に戻り、説明を続ける。
予測情報入力部322は、予測情報出力部314から予測情報が入力され(ステップS3)、入力された予測情報Aを予測情報記憶部323に書き込む(ステップS4)。
Hereinafter, the process returns to the processing of the robot camera control unit 32, and the description will be continued.
The prediction information input unit 322 receives prediction information from the prediction information output unit 314 (step S3), and writes the input prediction information A in the prediction information storage unit 323 (step S4).

ここで、センサカメラ10がセンサ映像90を撮影してから、位置特定部31が予測情報Aを生成するまで、例えば、0.2秒の遅延が発生する(図5の遅延D12)。
従って、予測情報Aを参照する際、状態値Xuが入力されるときの遅延D11=0.6秒、及び、予測情報を生成するときの遅延D12=0.2秒を考慮する必要がある。つまり、予測情報Aの現在位置(センサ情報a11)を基準とすれば、ロボットカメラ40から入力された状態値Xuは、遅延D11から遅延D12を減算した0.4秒、過去の情報となる。
このため、位置データ取得部324は、ステップS4で記憶した予測情報Aから、現在位置から遅延時間(遅延D11-遅延D12)だけ遡った時刻の位置データXd(位置データa)を取得する(ステップS5)。
Here, a delay of, for example, 0.2 seconds occurs from the time when the sensor camera 10 captures the sensor image 90 until the position specifying unit 31 generates the prediction information A (delay D 12 in FIG. 5).
Therefore, when referring to the prediction information A, it is necessary to consider the delay D 11 = 0.6 seconds when the state value Xu is input and the delay D 12 = 0.2 seconds when the prediction information is generated. be. That is, based on the current position of the prediction information A (sensor information a 11 ), the state value Xu input from the robot camera 40 is 0.4 seconds obtained by subtracting the delay D 12 from the delay D 11 and past information. It becomes.
Therefore, the position data acquisition unit 324 acquires the position data Xd (position data a 7 ) at the time retroactive by the delay time (delay D 11 -delay D 12 ) from the current position from the prediction information A stored in step S4. (Step S5).

図5に示すように、ロボットカメラ制御部32が指令コマンドを出力してからロボットカメラ40が実際に駆動を始め、指定速度に達するまで、例えば、0.1秒以上、場合によっては1秒程度の遅延が発生する。このため、ロボットカメラ40を制御する際、この遅延によるカメラ方向のずれが発生するが、これは単純に位置のずれとして、後述の方法で連続的に補正処理することができる。 As shown in FIG. 5, after the robot camera control unit 32 outputs a command command, the robot camera 40 actually starts driving and reaches a specified speed, for example, 0.1 seconds or more, and in some cases, about 1 second. Delay occurs. Therefore, when controlling the robot camera 40, a deviation in the camera direction occurs due to this delay, but this can be continuously corrected by a method described later as a simple positional deviation.

基本的に、差分算出部325は、ステップS4で記憶した予測情報Aにおいて、制御時点での予測位置(位置データa13)と、制御時点に更新間隔Dを加えた時刻での予測位置(位置データa14)との差分を算出する(ステップS6)。
なお、図5の例では、予想情報Aの現在位置(予想情報Aが入力された時刻)から制御時点まで0.2秒が経過していることとする。
Basically, in the prediction information A stored in step S4, the difference calculation unit 325 determines the predicted position (position data a 13 ) at the control time point and the predicted position at the time when the update interval D2 is added to the control time point (position data a 13). The difference from the position data a14 ) is calculated (step S6).
In the example of FIG. 5, it is assumed that 0.2 seconds have elapsed from the current position of the forecast information A (the time when the forecast information A is input) to the control time point.

制御情報生成部326は、ステップS6で算出した差分に基づいて、ロボットカメラ40の制御情報を生成する。そして、制御情報生成部326は、図5に示すように、ロボットカメラ40の状態値とセンサ情報とのずれを補正するため、前記した式(1)で補正値を求め、求めた補正値Rで制御情報を補正する(ステップS7)。
ここで、制御情報生成部326は、状態値Xu及び位置データXdの両方ともAZ角及びEL角で表されるので、AZ角及びEL角のそれぞれに式(1)を適用し、パン速度及びチルト速度それぞれの補正値Rを求める。そして、制御情報生成部326は、パン速度及びチルト速度の補正値Rを、制御情報のパン速度及びチルト速度にそれぞれ加算する。
コマンド変換部327は、ステップS7で生成した制御情報を、ロボットカメラ40への指令コマンドに変換する(ステップS8)。
The control information generation unit 326 generates control information for the robot camera 40 based on the difference calculated in step S6. Then, as shown in FIG. 5, the control information generation unit 326 obtains a correction value by the above equation (1) in order to correct the deviation between the state value of the robot camera 40 and the sensor information, and the obtained correction value R Correct the control information with (step S7).
Here, since the control information generation unit 326 expresses both the state value Xu and the position data Xd by the AZ angle and the EL angle, the equation (1) is applied to each of the AZ angle and the EL angle, and the pan speed and the pan speed and the pan speed are applied. The correction value R for each tilt speed is obtained. Then, the control information generation unit 326 adds the correction values R of the pan speed and the tilt speed to the pan speed and the tilt speed of the control information, respectively.
The command conversion unit 327 converts the control information generated in step S7 into a command command to the robot camera 40 (step S8).

[作用・効果]
以上のように、動体追尾装置30は、遅延時間及び更新間隔を考慮するので、ロボットカメラ40の方向を正確に把握し、航空機のように高速で移動する動体を滑らかに追尾することができる。
さらに、動体追尾装置30は、ロボットカメラ40と動体追尾装置30とが低速のシリアル回線で接続されている場合でも、データ入出力量を抑えられ、状態値や指令コマンドの入出力が滞ることがない。
さらに、動体追尾装置30は、前記した式(1)により、制御情報を一定時間で補正するので、ロボットカメラ40の姿勢が急峻に変化することがなく、より滑らかに追尾することができる。
[Action / Effect]
As described above, since the moving object tracking device 30 considers the delay time and the update interval, it is possible to accurately grasp the direction of the robot camera 40 and smoothly track a moving object moving at high speed such as an aircraft.
Further, the moving object tracking device 30 can suppress the amount of data input / output even when the robot camera 40 and the moving object tracking device 30 are connected by a low-speed serial line, and the input / output of state values and command commands is not delayed. ..
Further, since the moving object tracking device 30 corrects the control information in a fixed time by the above-mentioned equation (1), the posture of the robot camera 40 does not change suddenly, and the tracking can be performed more smoothly.

(変形例1)
以上、本発明の実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
図6に示すように、変形例1では、さらに調整時間D13を考慮して遅延時間を以下のように定義する。この調整時間D13は、ロボットカメラ40が撮影した撮影映像における航空機の位置を調整するための時間であり、任意に設定できる(例えば、調整時間D13=0.9秒)。
遅延時間=(遅延D11-遅延D12-調整時間D13
(Modification 1)
Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and includes design changes and the like within a range that does not deviate from the gist of the present invention.
As shown in FIG. 6, in the modification 1, the delay time is defined as follows in consideration of the adjustment time D 13 . The adjustment time D 13 is a time for adjusting the position of the aircraft in the captured image captured by the robot camera 40, and can be arbitrarily set (for example, the adjustment time D 13 = 0.9 seconds).
Delay time = (delay D 11 -delay D 12 -adjustment time D 13 )

ここで、遅延時間が大きくなると、ロボットカメラ40が航空機の移動方向後側を向くようになる(つまり、振り遅れる)。一方、遅延時間が小さくなると、ロボットカメラ40が航空機の移動方向前側を向くようになる。また、遅延時間が負の値となるように調整時間D13を設定すれば、ロボットカメラ40が航空機の未来位置を向くようになる。通常の撮影映像では、航空機の移動方向前側が広くなる構図が好ましい。そこで、所望の構図に調整できるように、調整時間D13を設定できるようにした。 Here, when the delay time becomes large, the robot camera 40 faces the rear side in the moving direction of the aircraft (that is, it is delayed). On the other hand, when the delay time becomes small, the robot camera 40 faces the front side in the moving direction of the aircraft. Further, if the adjustment time D 13 is set so that the delay time becomes a negative value, the robot camera 40 faces the future position of the aircraft. In a normal shot image, a composition in which the front side in the moving direction of the aircraft is wide is preferable. Therefore, the adjustment time D 13 can be set so that the composition can be adjusted to a desired composition.

図6では、位置データ取得部324は、予測情報Aにおいて、さらに調整時間D13だけ進めた時間の予測位置Xdを取得する。つまり、位置データ取得部324は、遅延D12と調整時間D13を加算して遅延D11を減算した時刻の位置データa16を取得する。
なお、位置データa16を取得した後の処理は、前記した実施形態と同様のため、説明を省略する。
In FIG. 6, the position data acquisition unit 324 acquires the predicted position Xd of the time further advanced by the adjustment time D13 in the prediction information A. That is, the position data acquisition unit 324 acquires the position data a 16 at the time obtained by adding the delay D 12 and the adjustment time D 13 and subtracting the delay D 11 .
Since the processing after acquiring the position data a 16 is the same as that of the above-described embodiment, the description thereof will be omitted.

(他の変形例)
前記した実施形態では、動体が航空機であることとして説明したが、本発明では、動体が特に限定されず、高速で移動する動体であっても滑らかに追尾することができる。
前記した実施形態では、センサカメラで動体を検出することとして説明したが、本発明では、特に限定されない。例えば、GPS(Global Positioning System)、赤外線センサなどで動体を検出してもよい。
(Other variants)
In the above-described embodiment, it has been described that the moving body is an aircraft, but in the present invention, the moving body is not particularly limited, and even a moving body moving at high speed can be smoothly tracked.
In the above-described embodiment, it has been described that a moving object is detected by a sensor camera, but the present invention is not particularly limited. For example, a moving object may be detected by a GPS (Global Positioning System), an infrared sensor, or the like.

前記した実施形態では、センサカメラ及び動体検出装置を3台備えることとして説明したが、本発明では、これらの台数が特に制限されず、1台以上であればよい。
前記した実施形態では、遅延時間、更新間隔、入力間隔及び待機時間を例示したが、本発明では、これらの値が特に制限されない。例えば、これらの値は、ロボットカメラの性能や仕様、ネットワーク環境に応じて任意の値で設定可能である。
In the above-described embodiment, it has been described that three sensor cameras and three motion detection devices are provided, but in the present invention, the number of these sensors is not particularly limited and may be one or more.
In the above-described embodiment, the delay time, the update interval, the input interval, and the waiting time are exemplified, but in the present invention, these values are not particularly limited. For example, these values can be set as arbitrary values according to the performance and specifications of the robot camera and the network environment.

前記した実施形態では、位置特定部及びロボットカメラ制御部を同一の装置に実装することとして説明したが、本発明では、位置特定部及びロボットカメラ制御部を別々の装置に実装してもよい。
前記した実施形態では、ロボットカメラの状態値がAZ角及びEL角であり、ロボットカメラのパン及びチルトを制御することとして説明したが、本発明は、これに限定されない。つまり、動体追尾装置は、パン及びチルトと同様、ロボットカメラのズーム及び/又はフォーカスを制御してもよい。
In the above-described embodiment, the position specifying unit and the robot camera control unit have been described as being mounted on the same device, but in the present invention, the position specifying unit and the robot camera control unit may be mounted on separate devices.
In the above-described embodiment, the state values of the robot camera are the AZ angle and the EL angle, and the pan and tilt of the robot camera are controlled, but the present invention is not limited thereto. That is, the moving object tracking device may control the zoom and / or the focus of the robot camera as well as the pan and tilt.

前記した実施形態では、動体追尾装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した動体追尾装置として協調動作させるプログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD-ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 In the above-described embodiment, the moving object tracking device has been described as independent hardware, but the present invention is not limited thereto. For example, the present invention can also be realized by a program that cooperates with the hardware resources such as the CPU, memory, and hard disk of the computer as the above-mentioned moving object tracking device. This program may be distributed via a communication line, or may be written and distributed on a recording medium such as a CD-ROM or a flash memory.

1 航空機追尾撮影システム
10 センサカメラ(センサ)
20 動体検出装置
30 動体追尾装置
31 位置特定部
310 センサ情報生成部
311 予測情報生成部
312 予測情報記憶部
313 要求入力部
314 予測情報出力部
32 ロボットカメラ制御部
320 状態値入力部
321 予測情報要求部
322 予測情報入力部
323 予測情報記憶部
324 位置データ取得部
325 差分算出部
326 制御情報生成部
327 コマンド変換部(撮影カメラ制御部)
40 ロボットカメラ
41 カメラ本体
43 雲台
1 Aircraft tracking shooting system 10 Sensor camera (sensor)
20 Motion detection device 30 Motion tracking device 31 Position identification unit 310 Sensor information generation unit 311 Prediction information generation unit 312 Prediction information storage unit 313 Request input unit 314 Prediction information output unit 32 Robot camera control unit 320 Status value input unit 321 Prediction information request Unit 322 Prediction information input unit 323 Prediction information storage unit 324 Position data acquisition unit 325 Difference calculation unit 326 Control information generation unit 327 Command conversion unit (shooting camera control unit)
40 Robot camera 41 Camera body 43 Pan head

Claims (7)

撮影カメラに対する動体の位置を表す位置情報を用いて、前記撮影カメラに動体を追尾させる動体追尾装置であって、
前記撮影カメラの状態変化中、所定の入力間隔で前記撮影カメラの状態値が入力される状態値入力部と、
前記状態値入力部に前記状態値が入力されたとき、又は、前記状態値が入力されずに予め設定した待機時間が経過したとき、予測情報を要求する予測情報要求部と、
入力された前記位置情報に基づいて、前記撮影カメラに対する前記動体の過去位置及び現在位置から予測位置を求め、前記過去位置と前記現在位置と前記予測位置とが位置データとして含まれる前記予測情報を生成する予測情報生成部と、
前記現在位置を基準として予め設定した遅延時間の位置データを取得する位置データ取得部と、
前記撮影カメラを制御するときの制御時点での前記予測位置と、前記制御時点に予め設定した更新間隔を加えた時刻での前記予測位置との差分を算出する差分算出部と、
前記差分算出部が算出した差分に基づいて、前記撮影カメラの動作速度を表す制御情報を生成し、前記状態値入力部に入力された状態値及び前記位置データ取得部が取得した位置データに基づいて、前記制御情報を補正する制御情報生成部と、
前記制御情報に基づいて、前記撮影カメラを制御する撮影カメラ制御部と、
を備えることを特徴とする動体追尾装置。
A moving object tracking device that causes the photographing camera to track a moving object by using position information indicating the position of the moving object with respect to the photographing camera.
A state value input unit in which the state value of the shooting camera is input at a predetermined input interval while the state of the shooting camera is changing.
When the state value is input to the state value input unit, or when a preset waiting time elapses without inputting the state value, a prediction information request unit that requests prediction information and a prediction information request unit.
Based on the input position information, the predicted position is obtained from the past position and the current position of the moving object with respect to the photographing camera, and the predicted information including the past position, the current position, and the predicted position as position data is obtained. The prediction information generation unit to be generated and
A position data acquisition unit that acquires position data with a delay time set in advance based on the current position, and a position data acquisition unit.
A difference calculation unit that calculates the difference between the predicted position at the control time point when controlling the photographing camera and the predicted position at the time when the update interval set in advance is added to the control time point.
Based on the difference calculated by the difference calculation unit, control information representing the operating speed of the photographing camera is generated, and based on the state value input to the state value input unit and the position data acquired by the position data acquisition unit. And the control information generation unit that corrects the control information,
A shooting camera control unit that controls the shooting camera based on the control information,
A moving object tracking device characterized by being equipped with.
前記予測情報生成部は、前記位置情報の線形予測、2次近似又はスプライン関数により前記予測位置を求めることを特徴とする請求項1に記載の動体追尾装置。 The moving object tracking device according to claim 1, wherein the prediction information generation unit obtains the predicted position by linear prediction of the position information, quadratic approximation, or a spline function. 前記制御情報生成部は、前記位置データ取得部が取得した位置データと前記状態値との差を求め、求めた前記差に修正時間及びハンチング防止を考慮して予め設定した補正係数を乗じて補正値を求め、求めた前記補正値で前記制御情報を補正することを特徴とする請求項1又は請求項2に記載の動体追尾装置。 The control information generation unit obtains the difference between the position data acquired by the position data acquisition unit and the state value, and corrects the obtained difference by multiplying the obtained difference by a correction factor preset in consideration of correction time and hunting prevention. The moving object tracking device according to claim 1 or 2, wherein a value is obtained and the control information is corrected by the obtained correction value. 前記遅延時間は、前記撮影カメラから前記状態値が入力されるときの遅延、及び、センサカメラがセンサ映像を撮影してから前記予測情報を生成するまでの遅延に基づいて予め設定され、
前記更新間隔は、前記撮影カメラが前記撮影カメラ制御部からの指令を更新するときの周期に基づいて予め設定されていることを特徴とする請求項1から請求項3の何れか一項に記載の動体追尾装置。
The delay time is set in advance based on the delay when the state value is input from the photographing camera and the delay from the time when the sensor camera captures the sensor image to the time when the prediction information is generated .
The update interval is described in any one of claims 1 to 3, wherein the update interval is set in advance based on a cycle when the shooting camera updates a command from the shooting camera control unit. Motion tracking device.
前記位置データ取得部は、前記撮影カメラが撮影した撮影映像における動体の位置を調整する調整時間がさらに設定され、前記遅延時間から前記調整時間だけ進めた時間の位置データを取得することを特徴とする請求項1から請求項4の何れか一項に記載の動体追尾装置。 The position data acquisition unit is characterized in that an adjustment time for adjusting the position of a moving object in a captured image captured by the photographing camera is further set, and position data is acquired at a time advanced from the delay time by the adjustment time. The moving object tracking device according to any one of claims 1 to 4. 前記予測情報生成部は、センサカメラで検出された前記動体についての前記位置情報が入力されることを特徴とする請求項1から請求項5の何れか一項に記載の動体追尾装置。 The moving object tracking device according to any one of claims 1 to 5, wherein the prediction information generation unit inputs the position information about the moving object detected by the sensor camera. コンピュータを、請求項1から請求項6の何れか一項に記載の動体追尾装置として機能させるためのプログラム。 A program for making a computer function as a moving object tracking device according to any one of claims 1 to 6.
JP2018032790A 2018-02-27 2018-02-27 Moving object tracking device and its program Active JP7049858B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018032790A JP7049858B2 (en) 2018-02-27 2018-02-27 Moving object tracking device and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018032790A JP7049858B2 (en) 2018-02-27 2018-02-27 Moving object tracking device and its program

Publications (2)

Publication Number Publication Date
JP2019149659A JP2019149659A (en) 2019-09-05
JP7049858B2 true JP7049858B2 (en) 2022-04-07

Family

ID=67850815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018032790A Active JP7049858B2 (en) 2018-02-27 2018-02-27 Moving object tracking device and its program

Country Status (1)

Country Link
JP (1) JP7049858B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012175157A (en) 2011-02-17 2012-09-10 Toshiba Corp Mobile object image tracking device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012175157A (en) 2011-02-17 2012-09-10 Toshiba Corp Mobile object image tracking device

Also Published As

Publication number Publication date
JP2019149659A (en) 2019-09-05

Similar Documents

Publication Publication Date Title
WO2017045315A1 (en) Method and apparatus for determining location information of tracked target, and tracking apparatus and system
US20210289141A1 (en) Control method and apparatus for photographing device, and device and storage medium
US7636105B2 (en) Method and apparatus for providing motion control signals between a fixed camera and a PTZ camera
US7711484B2 (en) System and a method for automatic air collision avoidance
KR20110134372A (en) Controlling an imaging apparatus over a delayed communication link
JP6626669B2 (en) Camera control system and camera control method
WO2021223171A1 (en) Target tracking method and apparatus, movable platform, and imaging platform
KR102473142B1 (en) Fast zoom and focusing apparatus predicting for high-speed tracking and predicting moving object for camera for providing a high-quality image seamlessly and method for high-speed tracking and predicting moving object for camera using the same
US11758270B2 (en) Shake correction control device, imaging apparatus, shake correction method of imaging apparatus, and program
KR102141647B1 (en) Method and apparatus for synchronization of rotating lidar and multiple cameras
EP2946283B1 (en) Delay compensation while controlling a remote sensor
US10880464B1 (en) Remote active camera and method of controlling same
WO2018121271A1 (en) Optical flow photographing device and method, and aerial vehicle
JP2006270404A (en) Device and method for controlling photographing and photographing control program
WO2019205087A1 (en) Image stabilization method and device
JP6026695B1 (en) Control device, moving body, control method, and program
JP7049858B2 (en) Moving object tracking device and its program
JP7008736B2 (en) Image capture method and image capture device
JP6898825B2 (en) Monitoring device
JP5277600B2 (en) Overhead radiography system and method
WO2016026229A1 (en) Focusing control method and apparatus
JP2019219874A (en) Autonomous moving and imaging control system and autonomous moving body
WO2022000211A1 (en) Photography system control method, device, movable platform, and storage medium
JP2017224265A (en) Unmanned aircraft, method for controlling unmanned aircraft, and program
JP6910913B2 (en) Monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220328

R150 Certificate of patent or registration of utility model

Ref document number: 7049858

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150