JP5998881B2 - TRACKING DEVICE AND TRACKING METHOD - Google Patents

TRACKING DEVICE AND TRACKING METHOD Download PDF

Info

Publication number
JP5998881B2
JP5998881B2 JP2012260845A JP2012260845A JP5998881B2 JP 5998881 B2 JP5998881 B2 JP 5998881B2 JP 2012260845 A JP2012260845 A JP 2012260845A JP 2012260845 A JP2012260845 A JP 2012260845A JP 5998881 B2 JP5998881 B2 JP 5998881B2
Authority
JP
Japan
Prior art keywords
signal
information
tracking
target
tracking target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012260845A
Other languages
Japanese (ja)
Other versions
JP2014107791A (en
Inventor
山下 敏明
敏明 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2012260845A priority Critical patent/JP5998881B2/en
Publication of JP2014107791A publication Critical patent/JP2014107791A/en
Application granted granted Critical
Publication of JP5998881B2 publication Critical patent/JP5998881B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、高速で移動する移動体の追尾装置および追尾方法に関し、特に、宇宙機、飛翔体、航空機、自動車両などの移動体の位置情報と画像情報とに基づき、移動体を追尾する追尾装置および追尾方法に関する。   The present invention relates to a tracking device and a tracking method for a moving object that moves at high speed, and in particular, tracking that tracks a moving object based on position information and image information of the moving object such as a spacecraft, a flying object, an aircraft, and an automatic vehicle. The present invention relates to an apparatus and a tracking method.

航空機等の高速で移動する移動体を追尾する目標追尾装置として、モノパルス電波やGPS(Global Positioning System)測位データ等を用いた計測追尾系とカメラ追尾機能を用いた画像追尾系とを併用するものがある。例えば、特許文献1には、レーダー装置を用いて航空機の位置および移動状態を取得し、実際に航空機を撮影する時の航空機の推定位置を演算し、演算した航空機の推定位置を撮影する撮影制御装置が開示されている。   As a target tracking device that tracks a moving body that moves at high speed, such as an aircraft, a measurement tracking system that uses monopulse radio waves, GPS (Global Positioning System) positioning data, etc. and an image tracking system that uses a camera tracking function There is. For example, Patent Document 1 discloses an imaging control that acquires a position and a moving state of an aircraft using a radar device, calculates an estimated position of the aircraft when actually imaging the aircraft, and images the calculated estimated position of the aircraft. An apparatus is disclosed.

特許文献1の撮影制御装置は、航空機の位置情報および移動情報をレーダーを用いて取得し、取得した航空機の位置情報および移動情報に基づいてカメラの撮影方向を制御する。また、特許文献1の実施の形態4には、レーダーを用いる代わりに航空機にGPS受信機を搭載し、GPS受信機の測位結果に基づいて航空機の位置情報および移動情報を取得することが開示されている。   The imaging control device of Patent Literature 1 acquires aircraft position information and movement information using a radar, and controls the shooting direction of the camera based on the acquired aircraft position information and movement information. Furthermore, Embodiment 4 of Patent Document 1 discloses that a GPS receiver is mounted on an aircraft instead of using a radar, and aircraft position information and movement information are acquired based on the positioning results of the GPS receiver. ing.

特開2006−270404号公報JP 2006-270404 A

しかし、レーダー装置を用いて航空機の位置情報および移動情報を取得する場合、航空機が遠方に位置する場合、高精度の計測を行うことが困難であり、必要な情報を取得できない場合がある。一方、GPS受信機を用いて航空機の位置および移動状態を取得する場合、電波遮蔽の影響などによってGPS受信機から信号を受信できない場合がある。   However, when acquiring position information and movement information of an aircraft using a radar device, if the aircraft is located far away, it may be difficult to perform highly accurate measurement, and necessary information may not be acquired. On the other hand, when the position and movement state of an aircraft are acquired using a GPS receiver, a signal may not be received from the GPS receiver due to the influence of radio wave shielding or the like.

従って、レーダー装置による測位とGPS受信機による測位とを併用することが望ましいが、レーダー装置からGPS受信機に切り替える時に測位結果にギャップがある場合、カメラの撮影方向を滑らかに制御することができない。   Therefore, it is desirable to use both the positioning by the radar device and the positioning by the GPS receiver. However, when there is a gap in the positioning result when switching from the radar device to the GPS receiver, the shooting direction of the camera cannot be controlled smoothly. .

本発明の目的は、上記の課題に鑑みてなされたものであり、複数の追尾方式を併用する場合でも、追尾対象の挙動が急激に変化することがなく連続的に追尾でき、追尾対象を撮像する撮像装置の撮像方向を滑らかに制御することができる、追尾装置および追尾方法を提供することにある。   The object of the present invention has been made in view of the above problems, and even when a plurality of tracking methods are used in combination, the tracking target behavior can be continuously tracked without abrupt changes, and the tracking target can be imaged. It is an object of the present invention to provide a tracking device and a tracking method that can smoothly control the imaging direction of an imaging device.

上記目的を達成するために本発明に係る追尾装置は、追尾対象を撮像して画像情報として出力する撮像手段と、撮像手段の撮像方向を駆動信号に基づいて制御すると共にその時の駆動状態を状態情報としてフィードバックするカメラジンバルと、追尾対象に配置され、追尾対象の位置情報をGPS機能によって取得し、取得位置信号として送信するGPS受信機と、追尾対象の予定軌道を取得し、取得した予定軌道を用いて追尾対象の位置情報を特定し、特定位置信号として出力する軌道予測手段と、追尾過程において追尾対象の位置情報を逐次取得して所定の演算を行うことによって追尾対象の位置情報を演算し、演算位置信号として出力する逐次演算手段と、取得位置信号、特定位置信号および演算位置信号のいずれか一つを選択し、基準位置信号として出力する基準位置出力手段と、撮像手段と追尾対象との距離を計測し、距離情報として出力する距離計測手段と、画像情報から追尾対象の位置誤差を抽出して出力する誤差抽出手段と、基準位置信号、距離情報、位置誤差および状態情報に基づいて駆動信号を生成して出力する制御手段と、を備える。   In order to achieve the above object, a tracking device according to the present invention includes an imaging unit that images a tracking target and outputs it as image information, and controls the imaging direction of the imaging unit based on a drive signal and the driving state at that time A camera gimbal that is fed back as information, a GPS receiver that is arranged on the tracking target, acquires position information of the tracking target by the GPS function, and transmits it as an acquired position signal, acquires a planned trajectory of the tracking target, and acquires the planned trajectory The position information of the tracking target is calculated using the trajectory predicting means for identifying the position information of the tracking target using the and the position information of the tracking target that is output as a specific position signal, and sequentially acquiring the position information of the tracking target in the tracking process and performing a predetermined calculation. And selecting one of the sequential calculation means for outputting as the calculation position signal, the acquisition position signal, the specific position signal, and the calculation position signal. Reference position output means for outputting as a position signal, distance measurement means for measuring the distance between the imaging means and the tracking target, and output as distance information, and error extraction means for extracting and outputting the position error of the tracking target from the image information And control means for generating and outputting a drive signal based on the reference position signal, the distance information, the position error, and the state information.

上記目的を達成するために本発明に係る追尾方法は、追尾対象を撮像して画像情報として出力する撮像手段および撮像手段の撮像方向を駆動信号に基づいて制御すると共にその時の駆動状態を状態情報としてフィードバックするカメラジンバルを用いた追尾方法であって、追尾対象の位置情報をGPS機能によって取得し、取得位置信号として送信し、追尾対象の予定軌道を取得し、取得した予定軌道を用いて追尾対象の位置情報を特定し、特定位置信号として出力し、追尾過程において追尾対象の位置情報を逐次取得して所定の演算を行うことによって追尾対象の位置情報を演算し、演算位置信号として出力し、取得位置信号、特定位置信号および演算位置信号のいずれか一つを選択し、基準位置信号として出力し、撮像手段と追尾対象との距離を計測し、距離情報として出力し、画像情報から追尾対象の位置誤差を抽出して出力し、基準位置信号、距離情報、位置誤差および状態情報に基づいて駆動信号を生成して出力する。   In order to achieve the above object, a tracking method according to the present invention includes: an imaging unit that captures a tracking target and outputs the image information as image information; As a tracking method using a camera gimbal that feeds back as follows, the tracking target position information is acquired by the GPS function, transmitted as an acquisition position signal, the tracking target planned trajectory is acquired, and the tracking is performed using the acquired planned trajectory The position information of the target is identified and output as a specific position signal, and the position information of the tracking target is calculated by sequentially acquiring the position information of the tracking target and performing a predetermined calculation in the tracking process, and output as a calculated position signal Select any one of the acquisition position signal, the specific position signal, and the calculation position signal, and output as a reference position signal. Distance was measured, and output as distance information from the image information by extracting the position error of the tracking target output, the reference position signal, the distance information, and generates and outputs a drive signal based on the position error and status information.

本発明に係る追尾装置および追尾方法は、複数の追尾方式を併用する場合でも、追尾対象の挙動が急激に変化することがなく連続的に追尾でき、追尾対象の撮像方向を滑らかに制御することができる。   The tracking device and the tracking method according to the present invention can continuously track the behavior of the tracking target without sudden change even when a plurality of tracking methods are used together, and smoothly control the imaging direction of the tracking target. Can do.

本発明の第1の実施形態に係る追尾装置10のブロック構成図である。1 is a block configuration diagram of a tracking device 10 according to a first embodiment of the present invention. 本発明の第2の実施形態に係る画像誘導追尾装置100のブロック構成図である。It is a block block diagram of the image guidance tracking device 100 which concerns on the 2nd Embodiment of this invention. ジンバル座標系Σbと慣性座標系Σiとの関係を示した図である。It is the figure which showed the relationship between the gimbal coordinate system (SIGMA) b and the inertial coordinate system (SIGMA) i.

(第1の実施形態)
第1の実施形態にかかる追尾装置について説明する。本実施形態に係る追尾装置のブロック構成図を図1に示す。図1において、追尾装置10は、撮像手段20、カメラジンバル30、誤差抽出手段40、基準位置出力手段50、距離計測手段60および制御手段70を備える。
(First embodiment)
A tracking device according to the first embodiment will be described. FIG. 1 shows a block diagram of the tracking device according to the present embodiment. In FIG. 1, the tracking device 10 includes an imaging unit 20, a camera gimbal 30, an error extraction unit 40, a reference position output unit 50, a distance measurement unit 60, and a control unit 70.

撮像手段20は、宇宙機、飛翔体、航空機または自動車などの高速で移動する追尾対象を撮像し、追尾対象の画像情報を誤差抽出手段60へ出力する。   The imaging unit 20 images a tracking target that moves at high speed, such as a spacecraft, flying object, aircraft, or automobile, and outputs image information of the tracking target to the error extraction unit 60.

カメラジンバル30は、制御手段70から入力した駆動信号に基づいて撮像手段20の撮像方向を制御する。また、カメラジンバル30は、撮像手段20の駆動状態を把握して状態情報として制御手段70へ定期的にフィードバックする。   The camera gimbal 30 controls the imaging direction of the imaging unit 20 based on the drive signal input from the control unit 70. Further, the camera gimbal 30 grasps the driving state of the imaging unit 20 and periodically feeds it back to the control unit 70 as state information.

誤差抽出手段40は、撮像手段20から入力した画像情報から追尾対象の画像データを抽出し、画像情報の中心位置と追尾対象の画像データの中心位置とのずれ量を測定し、位置誤差として制御手段70へ出力する。   The error extraction means 40 extracts the tracking target image data from the image information input from the imaging means 20, measures the shift amount between the center position of the image information and the tracking target image data, and controls it as a position error. It outputs to the means 70.

基準位置出力手段50は、GPS受信機51、軌道予測手段52および逐次演算手段53を備え、GPS受信機51において生成された取得位置信号、軌道予測手段52において生成された特定位置信号、逐次演算手段53において生成された演算位置信号から一つの信号を選択し、基準位置信号として制御手段70へ出力する。   The reference position output unit 50 includes a GPS receiver 51, a trajectory prediction unit 52, and a sequential calculation unit 53. The acquired position signal generated by the GPS receiver 51, the specific position signal generated by the trajectory prediction unit 52, and the sequential calculation. One signal is selected from the calculated position signals generated by the means 53 and output to the control means 70 as a reference position signal.

ここで、GPS受信機51は、追尾対象に配置され、追尾対象の位置情報をGPS機能によって取得し、取得位置信号として出力する。軌道予測手段52は、追尾対象の予定軌道を取得し、取得した予定軌道と時刻情報とを用いて追尾対象の位置情報を特定し、特定位置信号として出力する。逐次演算手段53は、追尾過程において追尾対象の位置情報を逐次取得し、逐次取得した位置情報に対して所定の演算を行うことによって追尾対象の位置情報を演算し、演算位置信号として出力する。   Here, the GPS receiver 51 is arranged as a tracking target, acquires position information of the tracking target by a GPS function, and outputs the acquired position information as a acquired position signal. The trajectory predicting unit 52 acquires a planned trajectory to be tracked, specifies position information of the tracking target by using the acquired planned trajectory and time information, and outputs it as a specific position signal. The sequential calculation means 53 sequentially acquires the position information of the tracking target in the tracking process, calculates the position information of the tracking target by performing a predetermined calculation on the sequentially acquired position information, and outputs it as a calculated position signal.

本実施形態において、基準位置出力手段50は、通常時はGPS受信機51において生成した取得位置信号を選択して基準位置信号として出力する。そして、基準位置出力手段50は、電波遮蔽の影響などによってGPS受信機51から取得位置信号を受信できない場合、軌道予測手段52において生成した特定位置信号と逐次演算手段53において生成した演算位置信号とを比較して、追尾対象の位置情報がより連続的に生成される方の信号を選択して基準位置信号として出力する。   In this embodiment, the reference position output means 50 selects the acquisition position signal generated in the GPS receiver 51 and outputs it as a reference position signal during normal times. When the reference position output means 50 cannot receive the acquired position signal from the GPS receiver 51 due to the influence of radio wave shielding or the like, the reference position signal generated by the trajectory prediction means 52 and the calculated position signal generated by the sequential calculation means 53 Are compared, the signal for which the tracking target position information is generated more continuously is selected and output as a reference position signal.

距離計測手段60は、撮像手段20と追尾対象との間の距離を計測し、距離情報として出力する。距離計測手段60は、例えば、レーザーレンジファインダー(LRF:Laser Range Finder)を適用することができる。この場合、LRFを撮像手段20の近傍に配置し、LRFから撮像手段20の撮像方向に向けてレーザーを照射し、追尾対象によって反射されたレーザーを計測することにより撮像手段20と追尾対象との間の距離を計測する。   The distance measuring means 60 measures the distance between the imaging means 20 and the tracking target and outputs it as distance information. For the distance measuring means 60, for example, a laser range finder (LRF) can be applied. In this case, the LRF is arranged in the vicinity of the imaging unit 20, the laser is irradiated from the LRF toward the imaging direction of the imaging unit 20, and the laser reflected by the tracking target is measured, thereby measuring the imaging unit 20 and the tracking target. Measure the distance between.

制御手段70は、カメラジンバル30からフィードバックされた状態情報、誤差抽出手段40から入力した位置誤差、基準位置出力手段50から入力した基準位置信号、および、距離計測手段60から入力した距離情報に基づいて、撮像手段20の撮像方向を追尾対象の方向に一致させるための駆動信号を生成し、カメラジンバル30へ出力する。   The control means 70 is based on the state information fed back from the camera gimbal 30, the position error input from the error extraction means 40, the reference position signal input from the reference position output means 50, and the distance information input from the distance measurement means 60. Then, a drive signal for making the imaging direction of the imaging means 20 coincide with the direction of the tracking target is generated and output to the camera gimbal 30.

本実施形態において、制御手段70は、基準位置信号を、位置誤差(画像追尾情報)、距離情報(実際の計測値)、および、状態情報(フィードバック情報)を用いて補正する。この場合、基準位置信号としてGPS受信機51からの取得位置信号、軌道予測手段52からの特定位置信号または逐次演算手段53からの演算位置信号の、どの位置信号が選択された場合でも、選択された位置信号は前回選択された位置信号と連続的になるように補正される。従って、追尾対象の挙動が急激に変化することがなく連続的に追尾され、撮像手段20の撮像方向を滑らかに制御することができる。   In the present embodiment, the control means 70 corrects the reference position signal using position error (image tracking information), distance information (actual measurement value), and state information (feedback information). In this case, any position signal selected from the acquired position signal from the GPS receiver 51, the specific position signal from the trajectory prediction means 52, or the calculated position signal from the sequential calculation means 53 is selected as the reference position signal. The corrected position signal is corrected to be continuous with the previously selected position signal. Therefore, the tracking target behavior is continuously tracked without abrupt changes, and the imaging direction of the imaging means 20 can be controlled smoothly.

さらに、本実施形態に係る追尾装置10は、通常時はGPS受信機51からの取得位置信号を選択し、電波遮蔽の影響などによってGPS受信機51から取得位置信号を受信できない場合にのみ、特定位置信号または演算位置信号のうち、追尾対象の位置情報がより連続的に生成される方の信号を選択する。この場合、撮像手段20の撮像方向をよりいっそう滑らかに制御することができる。   Furthermore, the tracking device 10 according to the present embodiment selects the acquisition position signal from the GPS receiver 51 in the normal state and specifies only when the acquisition position signal cannot be received from the GPS receiver 51 due to the influence of radio wave shielding or the like. Of the position signal and the calculated position signal, the signal on which the tracking target position information is generated more continuously is selected. In this case, the imaging direction of the imaging unit 20 can be controlled more smoothly.

(第2の実施形態)
第2の実施形態について説明する。本実施形態に係る画像誘導追尾装置のブロック構成図を図2に示す。本実施形態に係る画像誘導追尾装置100は、位置情報取得部200、レーザーレンジファインダー(LRF:Laser Range Finder)300、追尾誤差取得部400、ターゲット位置推定器500、カメラジンバル制御部600およびカメラジンバル700を備える。
(Second Embodiment)
A second embodiment will be described. FIG. 2 shows a block configuration diagram of the image guidance tracking device according to the present embodiment. An image guidance tracking device 100 according to the present embodiment includes a position information acquisition unit 200, a laser range finder (LRF) 300, a tracking error acquisition unit 400, a target position estimator 500, a camera gimbal control unit 600, and a camera gimbal. 700.

位置情報取得部200は、GPS受信機210、軌道位置プロファイルモデル220、逐次位置予測器230およびターゲット位置情報生成器240を備え、無人航空機等のターゲットの位置ベクトルを演算し、基準位置信号aとしてターゲット位置推定器500へ出力する。   The position information acquisition unit 200 includes a GPS receiver 210, an orbital position profile model 220, a sequential position predictor 230, and a target position information generator 240, calculates a position vector of a target such as an unmanned aircraft, and serves as a reference position signal a. Output to the target position estimator 500.

GPS受信機210は、ターゲットに搭載され、GPS衛星から取得した時間情報に基づいてターゲットの計測時の位置ベクトルP=[x、y、z]Tを演算し、ターゲット位置検出信号a1としてターゲット位置情報生成器240へ送信する。 The GPS receiver 210 is mounted on the target, calculates a position vector P = [x, y, z] T at the time of measurement of the target based on time information acquired from a GPS satellite, and sets the target position as a target position detection signal a1. Transmit to the information generator 240.

軌道位置プロファイルモデル220は、ターゲットの軌跡からターゲットの航行軌道を予測することによって軌道位置プロファイルを生成し、生成した軌道位置プロファイルを用いてターゲットの位置ベクトルを特定し、特定結果をターゲット位置推定信号a2としてターゲット位置情報生成器240へ出力する。軌道位置プロファイルモデル220は、例えば、予め入手したターゲットの飛行計画を用いて軌道位置プロファイルを生成し、生成した軌道位置プロファイルにおける現在の時刻情報に対応する位置ベクトルを運動学的モデルに基づいて特定し、ターゲット位置推定信号a2とする。   The trajectory position profile model 220 generates a trajectory position profile by predicting the navigation trajectory of the target from the trajectory of the target, specifies the target position vector using the generated trajectory position profile, and uses the specified result as the target position estimation signal. It outputs to the target position information generator 240 as a2. For example, the trajectory position profile model 220 generates a trajectory position profile using a target flight plan obtained in advance, and specifies a position vector corresponding to the current time information in the generated trajectory position profile based on the kinematic model. And the target position estimation signal a2.

逐次位置予測器230は、ターゲットの追尾過程においてターゲットの位置ベクトルを定期的に取得し、最新の位置ベクトルを基準位置ベクトルとして保持する。逐次位置予測器230は、保持しているターゲットの基準位置ベクトルにターゲットの動力学モデルを適用して移動後のターゲットの位置ベクトルを逐次的に推測し、推測結果をターゲット位置予測信号a3としてターゲット位置情報生成器240へ出力する。本実施形態において、逐次位置予測器230は、ターゲットの基準位置ベクトルに単純な運動方程式やカルマンフィルタなどのターゲットダイナミクスを適用することにより移動後のターゲットの位置ベクトルを逐次的に推測する。   The sequential position predictor 230 periodically acquires a target position vector in the target tracking process, and holds the latest position vector as a reference position vector. The sequential position predictor 230 sequentially estimates the target position vector after moving by applying the target dynamic model to the held reference position vector of the target, and uses the estimation result as the target position prediction signal a3 as a target. The information is output to the position information generator 240. In the present embodiment, the sequential position predictor 230 sequentially estimates a target position vector after movement by applying a target dynamics such as a simple equation of motion or a Kalman filter to the reference position vector of the target.

ターゲット位置情報生成器240は、通常時は、GPS受信機210から入力したターゲット位置検出信号a1に基づいてターゲットの移動後の位置ベクトルP’=[x’、y’、z’]Tを推定し、基準位置信号aとしてターゲット位置推定器500へ出力する。また、ターゲット位置情報生成器240は、電波遮蔽の影響などによってGPS受信機210からターゲット位置検出信号a1を取得出来ない場合、軌道位置プロファイルモデル220から入力したターゲット位置推定信号a2と、逐次位置予測器230から入力したターゲット位置予測信号a3とを比較し、ターゲットの位置ベクトルが連続的に生成される方の信号を選択し、選択した信号に基づいて推定したターゲットの移動後の位置ベクトルP’を、基準位置信号aとしてターゲット位置推定器500へ出力する。 The target position information generator 240 normally estimates the position vector P ′ = [x ′, y ′, z ′] T after the movement of the target based on the target position detection signal a1 input from the GPS receiver 210. The reference position signal a is output to the target position estimator 500. When the target position information generator 240 cannot acquire the target position detection signal a1 from the GPS receiver 210 due to the influence of radio wave shielding or the like, the target position information generator 240 receives the target position estimation signal a2 input from the orbital position profile model 220 and the sequential position prediction. The target position prediction signal a3 input from the generator 230 is compared, a signal on which the target position vector is continuously generated is selected, and the position vector P ′ after movement of the target estimated based on the selected signal is selected. Is output to the target position estimator 500 as the reference position signal a.

レーザーレンジファインダー(LRF)300は、カメラジンバル700上に設置され、ターゲットに向けて赤外線レーザーを照射してターゲットから反射された赤外線レーザーを計測することによって設置位置からターゲットまでの瞬時距離L’を計測し、距離信号bとしてターゲット位置推定器500へ出力する。   A laser range finder (LRF) 300 is installed on the camera gimbal 700 and irradiates an infrared laser toward the target and measures the infrared laser reflected from the target, thereby obtaining an instantaneous distance L ′ from the installation position to the target. Measure and output to the target position estimator 500 as a distance signal b.

追尾誤差取得部400は、ジンバル搭載カメラ410、カメラ画像取得器420およびターゲット画像情報生成器430を備え、ターゲットの追尾誤差を演算し、演算結果を追尾誤差信号cとしてターゲット位置推定器500へ出力する。   The tracking error acquisition unit 400 includes a gimbal-mounted camera 410, a camera image acquisition unit 420, and a target image information generator 430, calculates a target tracking error, and outputs the calculation result as a tracking error signal c to the target position estimator 500. To do.

ジンバル搭載カメラ410は、後述するカメラジンバル700によって撮像方向が制御され、制御された方向を撮像し、撮像データをカメラ画像取得器420へ出力する。カメラ画像取得器420は、ジンバル搭載カメラ410から入力した撮像データに所定の処理を施し、画像データとしてターゲット画像情報生成器430へ出力する。ターゲット画像情報生成器430は、カメラ画像取得器420から入力した画像データからターゲット画像を抽出し、抽出したターゲット画像の中心位置座標と画像データの中心座標とのずれ量を演算し、追尾誤差信号cとしてターゲット位置推定器500へ出力する。   The gimbal-equipped camera 410 has its imaging direction controlled by a camera gimbal 700 described later, images the controlled direction, and outputs imaging data to the camera image acquisition unit 420. The camera image acquisition unit 420 performs predetermined processing on the imaging data input from the gimbal-equipped camera 410 and outputs the image data to the target image information generator 430 as image data. The target image information generator 430 extracts a target image from the image data input from the camera image acquirer 420, calculates a shift amount between the center position coordinates of the extracted target image and the center coordinates of the image data, and a tracking error signal c is output to the target position estimator 500.

ここで、画像データ上の座標軸をジンバル座標系Σb、ターゲットが航行する実空間の座標軸を慣性座標系Σi、で定義する。図3において、ジンバル座標系Σbは、搭載カメラ410によって撮像された画像データの平面(撮像面)の中心を原点、水平方向を水平軸h、鉛直方向を鉛直軸vと定義される。一方、慣性座標系Σiは、カメラジンバル700を駆動して撮像面を水平軸hに沿って移動させる方向とz軸周りの回転方向ψ(アジマス(AZ)角)とが一致するように、撮像面を鉛直軸vに沿って移動させる方向とx軸周りの回転方向φ(エレベーション(EL)角)とが一致するように、定義される。   Here, the coordinate axis on the image data is defined by the gimbal coordinate system Σb, and the coordinate axis of the real space where the target navigates is defined by the inertial coordinate system Σi. In FIG. 3, the gimbal coordinate system Σb is defined as the origin of the plane (imaging plane) of the image data captured by the mounted camera 410, the horizontal direction h as the horizontal axis h, and the vertical direction as the vertical axis v. On the other hand, the inertial coordinate system Σi drives the camera gimbal 700 so that the direction in which the imaging surface is moved along the horizontal axis h and the rotational direction ψ (azimuth (AZ) angle) around the z axis coincide. It is defined so that the direction in which the surface is moved along the vertical axis v coincides with the rotation direction φ (elevation (EL) angle) around the x axis.

本実施形態において、ターゲット画像情報生成器430は、画像データ上において、抽出したターゲット画像の中心位置座標と画像データの中心座標とのずれ量(Δh、Δv)をジンバル座標軸上で測定し、さらに、画像データの水平方向ピクセルサイズαhおよび垂直方向ピクセルサイズαvを用いて実空間における追尾誤差(αh・Δh、αv・Δv)を演算し、追尾誤差信号cとしてターゲット位置推定器500へ出力する。   In the present embodiment, the target image information generator 430 measures, on the gimbal coordinate axis, a deviation amount (Δh, Δv) between the center position coordinates of the extracted target image and the center coordinates of the image data on the image data. The tracking error (αh · Δh, αv · Δv) in the real space is calculated using the horizontal pixel size αh and the vertical pixel size αv of the image data, and is output to the target position estimator 500 as a tracking error signal c.

ターゲット位置推定器500は、カメラジンバル700から入力したジンバル角度信号fを用いて計測時のターゲットの位置ベクトルP=[x、y、z]Tを演算する。そして、ターゲット位置推定器500は、位置情報取得部200から入力した基準位置信号a(位置ベクトルP’=[x’、y’、z’]T)と、LRF300から入力した距離信号b(瞬時距離L’)と、追尾誤差取得部400から入力した追尾誤差信号c(追尾誤差(αh・Δh、αv・Δv))と、演算したターゲットの位置ベクトル(P=[x、y、z]T)と、に基づいて、カメラジンバル700の設定目標値であるカメラジンバル目標推定信号(φr、ψr)dを演算し、カメラジンバル制御部600へ出力する。ここで、ターゲット位置推定器500が、請求項の補正手段に対応する。また、カメラジンバル目標推定信号dについては後述する。 The target position estimator 500 uses the gimbal angle signal f input from the camera gimbal 700 to calculate the target position vector P = [x, y, z] T at the time of measurement. Then, the target position estimator 500 includes the reference position signal a (position vector P ′ = [x ′, y ′, z ′] T ) input from the position information acquisition unit 200 and the distance signal b (instantaneous) input from the LRF 300. The distance L ′), the tracking error signal c (tracking error (αh · Δh, αv · Δv)) input from the tracking error acquisition unit 400, and the calculated target position vector (P = [x, y, z] T ) And a camera gimbal target estimation signal (φr, ψr) d, which is a set target value of the camera gimbal 700, is calculated and output to the camera gimbal control unit 600. Here, the target position estimator 500 corresponds to the correcting means in the claims. The camera gimbal target estimation signal d will be described later.

カメラジンバル制御部600は、カメラジンバル角度誤差信号生成器610およびカメラジンバル制御器620を備え、ターゲット位置推定器500から入力したカメラジンバル目標推定信号(φr、ψr)dと、カメラジンバル700からフィードバックされたジンバル角度信号(φ、ψ)fとからカメラジンバル700を駆動するためのカメラジンバル制御信号eを生成し、カメラジンバル700へ出力する。ここで、カメラジンバル制御部600が、請求項の駆動手段に対応する。   The camera gimbal control unit 600 includes a camera gimbal angle error signal generator 610 and a camera gimbal controller 620, and receives a camera gimbal target estimation signal (φr, ψr) d input from the target position estimator 500 and feedback from the camera gimbal 700. A camera gimbal control signal e for driving the camera gimbal 700 is generated from the received gimbal angle signal (φ, ψ) f and output to the camera gimbal 700. Here, the camera gimbal control unit 600 corresponds to the driving means in the claims.

具体的には、カメラジンバル角度誤差信号生成器610は、移動後のターゲット方向に撮像方向を一致させるための設定目標値であるカメラジンバル目標推定信号dと、現在設定されているジンバル角度信号fとの差分(Δφ、Δψ)を演算し、AZ軸、EL軸に対応した値に変換(慣性座標系からジンバル座標系に変換)してカメラジンバル制御器620へ出力する。カメラジンバル制御器620は、例えば、PID(Proportional Integral Derivative Controller)制御器などの汎用的な安定化制御器で構成され、カメラジンバル角度誤差信号生成器610が演算した差分をゼロにするためのAZ軸およびEL軸の回転角を演算し、カメラジンバル制御信号eとして出力する。   Specifically, the camera gimbal angle error signal generator 610 includes a camera gimbal target estimation signal d that is a set target value for making the imaging direction coincide with the target direction after movement, and the currently set gimbal angle signal f. The difference (Δφ, Δψ) is calculated, converted into values corresponding to the AZ axis and the EL axis (converted from the inertial coordinate system to the gimbal coordinate system), and output to the camera gimbal controller 620. The camera gimbal controller 620 is composed of a general-purpose stabilization controller such as a PID (Proportional Integral Derivative Controller) controller, for example, and AZ for setting the difference calculated by the camera gimbal angle error signal generator 610 to zero. The rotation angles of the axis and the EL axis are calculated and output as a camera gimbal control signal e.

カメラジンバル700は、カメラジンバル駆動部710、カメラジンバルダイナミクス720およびカメラジンバル角度センサ730を備え、ジンバル搭載カメラ410の撮像方向を制御する。カメラジンバル駆動部710は、カメラジンバル制御部600から入力したカメラジンバル制御信号eに基づいてカメラジンバルダイナミクス720のAZ軸およびEL軸を駆動する。カメラジンバルダイナミクス720がカメラジンバル制御信号eに基づいて駆動されることによって、ジンバル搭載カメラ410の撮像方向がターゲット方向と一致するように制御される。   The camera gimbal 700 includes a camera gimbal driving unit 710, a camera gimbal dynamics 720, and a camera gimbal angle sensor 730, and controls the imaging direction of the gimbal mounted camera 410. The camera gimbal driving unit 710 drives the AZ axis and the EL axis of the camera gimbal dynamics 720 based on the camera gimbal control signal e input from the camera gimbal control unit 600. When the camera gimbal dynamics 720 is driven based on the camera gimbal control signal e, the imaging direction of the gimbal mounted camera 410 is controlled to coincide with the target direction.

カメラジンバル角度センサ730は、その時にカメラジンバルダイナミクス720に設定されている設定値(φ、ψ)をジンバル角度信号fとしてターゲット位置推定器500およびカメラジンバル制御部600へ出力する。   The camera gimbal angle sensor 730 outputs the set values (φ, ψ) set in the camera gimbal dynamics 720 at that time to the target position estimator 500 and the camera gimbal control unit 600 as the gimbal angle signal f.

次に、ターゲット位置推定器500におけるカメラジンバル目標推定信号dの生成方法について説明する。位置情報取得部200が基準位置信号aとしてターゲットの移動後の位置ベクトルP’=[x’、y’、z’]T(慣性座標系)を生成し、LRF300が距離信号bとしてターゲットまでの瞬時距離L’を計測し、追尾誤差取得部400が追尾誤差信号cとして追尾誤差(αh・Δh、αv・Δv)を演算した場合について考察する。 Next, a method for generating the camera gimbal target estimation signal d in the target position estimator 500 will be described. The position information acquisition unit 200 generates a position vector P ′ = [x ′, y ′, z ′] T (inertial coordinate system) after movement of the target as the reference position signal a, and the LRF 300 transmits the distance signal b to the target. Consider the case where the instantaneous distance L ′ is measured and the tracking error acquisition unit 400 calculates the tracking error (αh · Δh, αv · Δv) as the tracking error signal c.

ターゲットとなる無人航空機(飛翔体)の計測時の位置ベクトルP=[x、y、z]Tは、カメラジンバル700のEL角φ、AZ角ψ、計測時のターゲットまでの距離Lを用いて(1)式のように記載される。

Figure 0005998881
The position vector P = [x, y, z] T at the time of measurement of the target unmanned aerial vehicle (flying object) uses the EL angle φ, the AZ angle ψ of the camera gimbal 700, and the distance L to the target at the time of measurement. It is described as (1).
Figure 0005998881

この時、ターゲットの移動後の位置ベクトルP’=[x’、y’、z’]T(真値)は、瞬時距離L’を用いて(2)式のように記載される。

Figure 0005998881
At this time, the position vector P ′ = [x ′, y ′, z ′] T (true value) after the movement of the target is described as the equation (2) using the instantaneous distance L ′.
Figure 0005998881

(2)式において、Δφ、Δψはそれぞれ、カメラジンバル700のEL角φ、AZ角ψに対する制御誤差角である。(1)式および(2)式において、x軸およびz軸について導出された位置の差はそれぞれ、ジンバル座標軸上で演算された追尾誤差信号c(αh・Δh、αv・Δv)と等しいことから、(3)式が成立する。

Figure 0005998881
In the equation (2), Δφ and Δψ are control error angles with respect to the EL angle φ and the AZ angle ψ of the camera gimbal 700, respectively. In the expressions (1) and (2), the difference in position derived for the x-axis and the z-axis is equal to the tracking error signal c (αh · Δh, αv · Δv) calculated on the gimbal coordinate axis. , (3) is established.
Figure 0005998881

従って、(3)式から次の関係式が成立する。

Figure 0005998881
Therefore, the following relational expression is established from the expression (3).
Figure 0005998881

ここで、

Figure 0005998881
と仮定すれば、(4)式よりΔφ、Δψが決定できる。従って、カメラジンバル目標推定信号(φr、ψr)dは(6)式のように生成される。
Figure 0005998881
here,
Figure 0005998881
Assuming that, Δφ and Δψ can be determined from equation (4). Therefore, the camera gimbal target estimation signal (φr, ψr) d is generated as shown in Equation (6).
Figure 0005998881

(6)式から演算されたカメラジンバル目標推定信号(φr、ψr)dに基づいてカメラジンバル700を駆動することにより、ジンバル搭載カメラ410の撮像方向と、移動後のターゲット方向(真値)とが一致する。   By driving the camera gimbal 700 based on the camera gimbal target estimation signal (φr, ψr) d calculated from the equation (6), the imaging direction of the gimbal-equipped camera 410 and the target direction (true value) after the movement are obtained. Match.

次に本実施形態に係る画像誘導追尾装置100の動作手順について説明する。本実施形態では、ターゲットである無人航空機(飛翔体)にGPS受信機210を搭載し、この飛翔体を地上局に設置した2軸駆動型のカメラジンバル700とLRF300とにより高精度に追尾する。   Next, an operation procedure of the image guidance tracking device 100 according to the present embodiment will be described. In this embodiment, a GPS receiver 210 is mounted on an unmanned aerial vehicle (flying object) as a target, and the flying object is tracked with high accuracy by a two-axis drive type camera gimbal 700 and an LRF 300 installed in a ground station.

本実施形態において、カメラジンバル700は、ターゲット撮像時のジンバル角度信号(φ、ψ)fを計測して、ターゲット位置推定器500およびカメラジンバル制御部600へフィードバックしている。   In the present embodiment, the camera gimbal 700 measures the gimbal angle signal (φ, ψ) f at the time of target imaging and feeds it back to the target position estimator 500 and the camera gimbal control unit 600.

ターゲット位置推定器500は、位置情報取得部200から入力した基準位置信号aと、LRF300から入力した距離信号bと、追尾誤差取得部400から入力した追尾誤差信号cと、カメラジンバル700からフィードバックされたジンバル角度信号fと、に基づいて、上述の(6)式に示したカメラジンバル目標推定信号(φr、ψr)dを生成し、カメラジンバル制御部600へ出力する。   The target position estimator 500 is fed back from the reference position signal a input from the position information acquisition unit 200, the distance signal b input from the LRF 300, the tracking error signal c input from the tracking error acquisition unit 400, and the camera gimbal 700. Based on the gimbal angle signal f, the camera gimbal target estimation signal (φr, ψr) d shown in the above equation (6) is generated and output to the camera gimbal control unit 600.

カメラジンバル制御部600は、ターゲット位置推定器500から入力したカメラジンバル目標推定信号(φr、ψr)dと、カメラジンバル700からフィードバックされたジンバル角度信号(φ、ψ)fとに基づいて、カメラジンバル700の向きを調整するためのカメラジンバル制御信号eを生成し、カメラジンバル700を制御する。カメラジンバル700がカメラジンバル制御信号eによって制御されることにより、ジンバル搭載カメラ410の撮像方向と移動後のターゲット方向とが一致する。   Based on the camera gimbal target estimation signal (φr, ψr) d input from the target position estimator 500 and the gimbal angle signal (φ, ψ) f fed back from the camera gimbal 700, the camera gimbal control unit 600 A camera gimbal control signal e for adjusting the direction of the gimbal 700 is generated, and the camera gimbal 700 is controlled. When the camera gimbal 700 is controlled by the camera gimbal control signal e, the imaging direction of the gimbal mounted camera 410 matches the target direction after movement.

以上のように、本実施形態に係る画像誘導追尾装置100は、基準位置信号aに基づいて指向方向を制御したカメラジンバル700の指向方向誤差を、LRF300により検出した距離信号bとターゲット画像情報生成器430が生成する追尾誤差信号cとを用いてリアルタイムに補正する。   As described above, the image guidance and tracking apparatus 100 according to the present embodiment generates the distance signal b detected by the LRF 300 and the target image information from the pointing direction error of the camera gimbal 700 whose direction is controlled based on the reference position signal a. Correction is performed in real time using the tracking error signal c generated by the device 430.

以上のように、本実施形態に係る画像誘導追尾装置100は、ターゲット位置推定器500において、LRF300が計測した距離信号b、追尾誤差取得部400が演算した追尾誤差信号cおよびカメラジンバル700から入力したジンバル角度信号fから演算した計測時のターゲットの位置情報を用いて、位置情報取得部200から入力し基準位置信号aをリアルタイムに補正する。この場合、基準位置信号aに含まれる誤差が適切に補正され、ターゲットの位置が急激に変化することがない。従って、ターゲットを連続的に追尾することができ、カメラジンバル700を滑らかに制御することができる。   As described above, the image guidance tracking device 100 according to the present embodiment receives the distance signal b measured by the LRF 300, the tracking error signal c calculated by the tracking error acquisition unit 400, and the camera gimbal 700 in the target position estimator 500. Using the position information of the target at the time of measurement calculated from the gimbal angle signal f, the reference position signal a input from the position information acquisition unit 200 is corrected in real time. In this case, the error included in the reference position signal a is corrected appropriately, and the target position does not change abruptly. Therefore, the target can be tracked continuously, and the camera gimbal 700 can be controlled smoothly.

また、本実施形態に係る画像誘導追尾装置100において、ターゲット位置情報生成器240は、通常時は、GPS受信機210から入力したターゲット位置検出信号a1を用いて基準位置信号aを生成し、電波遮蔽の影響などによってターゲット位置検出信号a1を取得出来ない場合、軌道位置プロファイルモデル220から入力したターゲット位置推定信号a2と、逐次位置予測器230から入力したターゲット位置予測信号a3とを比較し、ターゲットの位置ベクトルが連続的に生成される方の信号を選択して基準位置信号aを生成する。この場合、高精度で且つ連続的な基準位置信号aを生成することができ、ターゲットの追尾精度を向上させることができると共にカメラジンバル700をより滑らかに制御できる。   In the image guidance tracking device 100 according to the present embodiment, the target position information generator 240 normally generates the reference position signal a using the target position detection signal a1 input from the GPS receiver 210, and generates radio waves. When the target position detection signal a1 cannot be obtained due to the influence of shielding or the like, the target position estimation signal a2 input from the trajectory position profile model 220 and the target position prediction signal a3 input from the sequential position predictor 230 are compared, and the target The reference position signal a is generated by selecting the signal for which the position vector is continuously generated. In this case, a highly accurate and continuous reference position signal a can be generated, the tracking accuracy of the target can be improved, and the camera gimbal 700 can be controlled more smoothly.

さらに、本実施形態に係る画像誘導追尾装置100は、カメラジンバル目標推定信号(φr、ψr)dの演算に、LRF300によって検出したジンバル搭載カメラ410−ターゲット間距離の実測値である距離信号b(瞬時距離L’)を用いる。この場合、ターゲットの追尾精度をさらに向上させることができる。   Furthermore, the image guidance tracking device 100 according to the present embodiment uses a distance signal b (measured value of the distance between the gimbal-mounted camera 410 and the target detected by the LRF 300 for the calculation of the camera gimbal target estimation signal (φr, ψr) d. The instantaneous distance L ′) is used. In this case, the tracking accuracy of the target can be further improved.

本願発明は上記実施形態に限定されるものではなく、無人航空機(飛翔体)を追尾するカメラの制御の他、様々な移動体を追尾するカメラやアンテナの制御等に適用することができる。また、この発明の要旨を逸脱しない範囲の設計の変更等があってもこの発明に含まれる。   The present invention is not limited to the above-described embodiment, and can be applied to control of a camera that tracks an unmanned aerial vehicle (flying object), control of a camera that tracks various moving objects, an antenna, and the like. Further, design changes and the like within a range not departing from the gist of the present invention are also included in the present invention.

10 追尾装置
20 撮像手段
30 カメラジンバル
40 誤差抽出手段
50 基準位置出力手段
51 GPS受信機
52 軌道予測手段
53 逐次演算手段
60 距離計測手段
70 制御手段
100 画像誘導追尾装置
200 位置情報取得部
210 GPS受信機
220 軌道位置プロファイルモデル
230 逐次位置予測器
240 ターゲット位置情報生成器
300 LRF
400 追尾誤差取得部
410 ジンバル搭載カメラ
420 カメラ画像取得器
430 ターゲット画像情報生成器
500 ターゲット位置推定器
600 カメラジンバル制御部
610 カメラジンバル角度誤差信号生成器
620 カメラジンバル制御器
700 カメラジンバル
710 カメラジンバル駆動部
720 カメラジンバルダイナミクス
730 カメラジンバル角度センサ
DESCRIPTION OF SYMBOLS 10 Tracking apparatus 20 Imaging means 30 Camera gimbal 40 Error extraction means 50 Reference position output means 51 GPS receiver 52 Orbit prediction means 53 Successive calculation means 60 Distance measurement means 70 Control means 100 Image guidance tracking apparatus 200 Position information acquisition part 210 GPS reception Machine 220 Orbital position profile model 230 Sequential position predictor 240 Target position information generator 300 LRF
400 Tracking error acquisition unit 410 Gimbal mounted camera 420 Camera image acquisition unit 430 Target image information generator 500 Target position estimator 600 Camera gimbal control unit 610 Camera gimbal angle error signal generator 620 Camera gimbal controller 700 Camera gimbal 710 Camera gimbal drive 720 Camera Gimbal Dynamics 730 Camera Gimbal Angle Sensor

Claims (6)

追尾対象を撮像して画像情報として出力する撮像手段と、
前記撮像手段の撮像方向を駆動信号に基づいて制御すると共にその時の駆動状態を状態情報としてフィードバックするカメラジンバルと、
追尾対象に配置され、追尾対象の位置情報をGPS機能によって取得し、取得位置信号として送信するGPS受信機と、
追尾対象の予定軌道を取得し、取得した予定軌道を用いて追尾対象の位置情報を特定し、特定位置信号として出力する軌道予測手段と、
追尾過程において追尾対象の位置情報を逐次取得して所定の演算を行うことによって追尾対象の位置情報を演算し、演算位置信号として出力する逐次演算手段と、
前記取得位置信号、特定位置信号および演算位置信号のいずれか一つを選択し、基準位置信号として出力する基準位置出力手段と、
前記撮像手段と前記追尾対象との距離を計測し、距離情報として出力する距離計測手段と、
前記画像情報から前記追尾対象の位置誤差を抽出して出力する誤差抽出手段と、
前記基準位置信号、距離情報、位置誤差および状態情報に基づいて前記駆動信号を生成して出力する制御手段と、
を備える追尾装置。
Imaging means for imaging a tracking target and outputting it as image information;
A camera gimbal for controlling the imaging direction of the imaging means based on a drive signal and feeding back the driving state at that time as state information;
A GPS receiver that is arranged in a tracking target, acquires position information of the tracking target by a GPS function, and transmits it as an acquired position signal;
A trajectory prediction means for acquiring a planned trajectory of a tracking target, specifying position information of the tracking target using the acquired planned trajectory, and outputting the specific position signal;
Sequential calculation means for calculating the position information of the tracking target by sequentially acquiring the position information of the tracking target in the tracking process and performing a predetermined calculation, and outputting the calculation position signal;
Reference position output means for selecting any one of the acquisition position signal, the specific position signal and the calculation position signal and outputting as a reference position signal;
Distance measuring means for measuring the distance between the imaging means and the tracking target and outputting the distance information;
Error extraction means for extracting and outputting a position error of the tracking target from the image information;
Control means for generating and outputting the drive signal based on the reference position signal, distance information, position error and state information;
A tracking device comprising:
前記制御手段は、
前記基準位置信号を前記距離情報、位置誤差および状態情報を用いて補正し、補正位置として出力する補正手段と、
前記撮像手段の撮像方向を前記補正位置に一致させるための駆動信号を生成して出力する駆動手段と、
を備える請求項1記載の追尾装置。
The control means includes
Correction means for correcting the reference position signal using the distance information, position error and state information, and outputting the correction position as a correction position;
Drive means for generating and outputting a drive signal for making the imaging direction of the imaging means coincide with the correction position;
A tracking device according to claim 1.
前記基準位置信号、距離情報、位置誤差および状態情報は実空間上の座標系で表され、
前記補正手段は、実空間上の座標系で表された補正位置を出力し、
前記駆動手段は、実空間上の座標系で生成した駆動信号を撮像面上の座標系で表された駆動信号に変換して出力する、
請求項2記載の追尾装置。
The reference position signal, distance information, position error and state information are represented in a coordinate system in real space,
The correction means outputs a correction position expressed in a coordinate system in real space,
The drive means converts a drive signal generated in a coordinate system in real space into a drive signal expressed in a coordinate system on the imaging surface, and outputs the drive signal.
The tracking device according to claim 2.
前記基準位置出力手段は、通常は取得位置信号を選択し、取得位置信号を受信できない場合、特定位置信号または演算位置信号のうち前回出力した基準位置信号との連続性が大きい方の信号を選択する、請求項1乃至3のいずれか1項記載の追尾装置。 The reference position output means normally selects an acquisition position signal, and when the acquisition position signal cannot be received, selects a signal having a larger continuity with the reference position signal output last time from the specific position signal or the calculation position signal. The tracking device according to any one of claims 1 to 3. 前記軌道予測手段は、予定軌道上の現在時刻と対応する位置を追尾対象の位置情報として特定し、
前記逐次演算手段は、逐次取得した追尾対象の位置情報に運動方程式またはカルマンフィルタを適用することによって追尾対象の位置情報を演算する、
請求項1乃至4のいずれか1項記載の追尾装置。
The trajectory prediction means identifies the position corresponding to the current time on the planned trajectory as position information of the tracking target,
The sequential calculation means calculates the tracking target position information by applying an equation of motion or a Kalman filter to the tracking target position information acquired sequentially,
The tracking device according to any one of claims 1 to 4.
追尾対象を撮像して画像情報として出力する撮像手段および前記撮像手段の撮像方向を駆動信号に基づいて制御すると共にその時の駆動状態を状態情報としてフィードバックするカメラジンバルを用いた追尾方法であって、
追尾対象の位置情報をGPS機能によって取得し、取得位置信号として送信し、
追尾対象の予定軌道を取得し、取得した予定軌道を用いて追尾対象の位置情報を特定し、特定位置信号として出力し、
追尾過程において追尾対象の位置情報を逐次取得して所定の演算を行うことによって追尾対象の位置情報を演算し、演算位置信号として出力し、
前記取得位置信号、特定位置信号および演算位置信号のいずれか一つを選択し、基準位置信号として出力し、
前記撮像手段と前記追尾対象との距離を計測し、距離情報として出力し、
前記画像情報から前記追尾対象の位置誤差を抽出して出力し、
前記基準位置信号、距離情報、位置誤差および状態情報に基づいて前記駆動信号を生成して出力する、
追尾方法。
An imaging unit that images a tracking target and outputs it as image information, and a tracking method using a camera gimbal that controls the imaging direction of the imaging unit based on a drive signal and feeds back a driving state at that time as state information,
The position information of the tracking target is acquired by the GPS function and transmitted as an acquisition position signal.
Acquire the planned track of the tracking target, specify the position information of the tracking target using the acquired planned track, and output it as a specific position signal,
In the tracking process, the position information of the tracking target is sequentially obtained and the position information of the tracking target is calculated by performing a predetermined calculation, and output as a calculated position signal,
Select one of the acquisition position signal, the specific position signal and the calculation position signal, and output as a reference position signal,
Measure the distance between the imaging means and the tracking target, and output as distance information,
Extract and output the tracking target position error from the image information,
Generating and outputting the drive signal based on the reference position signal, distance information, position error and state information;
Tracking method.
JP2012260845A 2012-11-29 2012-11-29 TRACKING DEVICE AND TRACKING METHOD Active JP5998881B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012260845A JP5998881B2 (en) 2012-11-29 2012-11-29 TRACKING DEVICE AND TRACKING METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012260845A JP5998881B2 (en) 2012-11-29 2012-11-29 TRACKING DEVICE AND TRACKING METHOD

Publications (2)

Publication Number Publication Date
JP2014107791A JP2014107791A (en) 2014-06-09
JP5998881B2 true JP5998881B2 (en) 2016-09-28

Family

ID=51028902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012260845A Active JP5998881B2 (en) 2012-11-29 2012-11-29 TRACKING DEVICE AND TRACKING METHOD

Country Status (1)

Country Link
JP (1) JP5998881B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101701117B1 (en) * 2015-03-13 2017-02-01 한국항공우주연구원 Portable electro optical tracking system
CN109995991A (en) * 2017-12-29 2019-07-09 深圳市优必选科技有限公司 A kind of image pickup method, robot and mobile terminal
CN113031660B (en) * 2021-04-02 2023-03-17 中北大学 Aircraft directional antenna tracking and positioning device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3539799B2 (en) * 1995-06-21 2004-07-07 三菱電機株式会社 Air traffic control radar system
JP2009260564A (en) * 2008-04-15 2009-11-05 Toshiba Corp Mobile object image tracking apparatus
JP5010634B2 (en) * 2009-03-17 2012-08-29 株式会社東芝 Mobile image tracking device
JP5419784B2 (en) * 2010-04-06 2014-02-19 三菱電機株式会社 Prediction device, prediction system, computer program, and prediction method
JP5459678B2 (en) * 2011-02-17 2014-04-02 株式会社東芝 Mobile image tracking device

Also Published As

Publication number Publication date
JP2014107791A (en) 2014-06-09

Similar Documents

Publication Publication Date Title
CN105184776B (en) Method for tracking target
EP3315414B1 (en) Geo-location or navigation camera, and aircraft and navigation method therefor
JP5459678B2 (en) Mobile image tracking device
US11906983B2 (en) System and method for tracking targets
CN109573088B (en) Carrier-borne unmanned aerial vehicle photoelectric guidance carrier landing system and carrier landing method
JP6349737B2 (en) Moving object tracking device and moving object tracking method
US10078339B2 (en) Missile system with navigation capability based on image processing
KR102135835B1 (en) Method and device of correcting satellite image acquisition posture
JP6089812B2 (en) Guidance device
EP2946283B1 (en) Delay compensation while controlling a remote sensor
US20210263533A1 (en) Mobile object and method for controlling mobile object
JP5998881B2 (en) TRACKING DEVICE AND TRACKING METHOD
KR20160120467A (en) Azimuth correction apparatus and method of 2-dimensional radar for vehicle
Zhang et al. Vision-based relative altitude estimation of small unmanned aerial vehicles in target localization
JP2019184267A (en) Position measurement method, position measurement device, and position measurement system
Łabowski et al. Estimation of flight path deviations for SAR radar installed on UAV
JP2008232867A (en) Attitude and azimuth detector for moving object
Kanellakis et al. Autonomous visual inspection of large-scale infrastructures using aerial robots
JP2009260564A (en) Mobile object image tracking apparatus
KR101340158B1 (en) Method and computer-readable recording medium for calibrating position of a target using a fixed target for unmanned aerial vehicle
JP2009118375A (en) Aerial photography device, aerial photographic system and image correction method of aerial photograph
Helgesen et al. Tracking of marine surface objects from unmanned aerial vehicles with a pan/tilt unit using a thermal camera and optical flow
JP2008241079A (en) Navigation system
JP7333565B1 (en) Aircraft and method of controlling the aircraft
KR101590889B1 (en) Target position estimation equipment using imaging sensors for analyzing an accuracy of target tracking method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160815

R150 Certificate of patent or registration of utility model

Ref document number: 5998881

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150