JP2013247401A - 追尾装置および追尾方法 - Google Patents

追尾装置および追尾方法 Download PDF

Info

Publication number
JP2013247401A
JP2013247401A JP2012117817A JP2012117817A JP2013247401A JP 2013247401 A JP2013247401 A JP 2013247401A JP 2012117817 A JP2012117817 A JP 2012117817A JP 2012117817 A JP2012117817 A JP 2012117817A JP 2013247401 A JP2013247401 A JP 2013247401A
Authority
JP
Japan
Prior art keywords
tracking
target
angle
position information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012117817A
Other languages
English (en)
Other versions
JP5888115B2 (ja
Inventor
Tadashi Okiba
正 大木場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2012117817A priority Critical patent/JP5888115B2/ja
Publication of JP2013247401A publication Critical patent/JP2013247401A/ja
Application granted granted Critical
Publication of JP5888115B2 publication Critical patent/JP5888115B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】
追尾目標の移動体が遠方に位置する場合でも、撮影装置を高精度に線形駆動させて移動体を追尾できる追尾装置および追尾方法を提供する。
【解決手段】
本発明の追尾装置10は、撮影動作し、撮影した画像データを出力する撮影手段20、画像データから移動体を特定し、特定した移動体の位置と目標位置との画像上の差分を演算して追尾誤差として出力する画像処理手段30、移動体の位置情報を取得し、取得した位置情報に基づいて演算した駆動角度に追尾誤差の積分相当値を加算して目標角度を生成すると共に、取得した位置情報に基づいて演算した駆動角速度に追尾誤差の平方根相当値の関数を加算して目標角速度を生成する追尾制御手段40、および、生成された目標角度および目標角速度に基づいて撮影手段を駆動する駆動手段50を備える。
【選択図】 図1

Description

本発明は、移動体を追尾する追尾装置および追尾方法に関し、特に、高速で移動する移動体を追尾するカメラ追尾機能を備えた追尾装置および追尾方法に関する。
航空機等の高速で移動する移動体を追尾する目標追尾装置として、モノパルス電波追尾系とカメラ追尾機能を付加した画像追尾系とを併用するものがある。
例えば、特許文献1には、レーダー装置を用いて航空機の位置および移動状態を取得し、実際に航空機を撮影する時の航空機の推定位置を演算し、演算した航空機の推定位置を撮影する撮影制御装置が開示されている。
一方、特許文献2には、移動体を撮影した画像データから取得した追尾誤差と、カメラセンサを支持するジンバルの角度データから演算した角速度データとに基づいて、追尾誤差がゼロとなる制御指令値を計算し、計算した制御指令値に基づいてジンバルを駆動する移動体追尾装置が開示されている。
特開2006−270404号公報 特開2009−115621号公報
しかし、特許文献1、2の技術は、追尾目標の移動体が遠方に位置する場合、十分な追尾精度を出すことが困難である。この理由は、移動体が遠方に位置する場合には移動体を撮影する撮影装置を低速度で円滑に微小角度駆動する必要があるが、この場合、撮影装置を駆動する旋回部のバックラッシュや摩擦が大きくなり、旋回部の挙動が非線形になるためである。特に、撮影装置の重量が大きい場や撮影装置を超低速度で駆動させる場合は、旋回部への入力電圧を低くしたままで、駆動に十分な回転トルクを出力させる必要があり、旋回部の挙動が顕著に非線形となる。
本発明の目的は、上記の課題に鑑みなされたものであり、追尾目標の移動体が遠方に位置する場合でも、撮影装置を駆動する駆動部を高精度に線形駆動させて移動体を追尾できる追尾装置および追尾方法を提供することにある。
上記目的を達成するために本発明に係る追尾装置は、撮影動作し、撮影した画像データを出力する撮影手段と、画像データから移動体を特定し、特定した移動体の位置と目標位置との画像上の差分を演算して追尾誤差として出力する画像処理手段と、移動体の位置情報を取得し、取得した位置情報に基づいて演算した駆動角度に追尾誤差の積分相当値を加算して目標角度を生成すると共に、取得した位置情報に基づいて演算した駆動角速度に追尾誤差の平方根相当値の関数を加算して目標角速度を生成する追尾制御手段と、生成された目標角度および目標角速度に基づいて撮影手段を駆動する駆動手段と、を備える。
上記目的を達成するために本発明に係る追尾方法は、移動体の位置情報を取得し、撮影した画像データを出力し、出力された画像データから移動体を特定し、特定した移動体の位置と目標位置との画像上の差分を演算して追尾誤差として出力し、取得した位置情報に基づいて演算した駆動角度に、追尾誤差の積分相当値を加算して目標角度を生成し、取得した位置情報に基づいて演算した駆動角速度に、追尾誤差の平方根相当値の関数を加算して目標角速度を生成し、生成された目標角度および目標角速度に基づいて撮影手段を駆動する。
本発明に係る追尾装置および追尾方法は、追尾目標の移動体が遠方に位置する場合でも、撮影装置を高精度に線形駆動させて移動体を追尾できる。
本発明の第1の実施形態に係る追尾装置10のブロック構成図である。 本発明の第1の実施形態に係る追尾装置10の動作フロー図である。 本発明の第2の実施形態に係る目標追尾システム100のシステム構成図である。 本発明の第2の実施形態の飛翔体の大きさの算出方法のイメージ図である。 本発明の第2の実施形態の画面上の位置と実空間上位置との関係を示したイメージ図である。 角速度ゲインとエラー角との関係を示す図である。 本発明の第2の実施形態に係る目標追尾システム100の入出力信号のフロー図である。 本発明の第2の実施形態に係る目標追尾システム100のアルゴリズムフロー図である。
(第1の実施形態)
第1の実施形態に係る追尾装置について説明する。本実施形態に係る追尾装置のブロック図を図1に示す。図1において、本実施形態に係る追尾装置10は、撮影手段20、画像処理手段30、追尾制御手段40および駆動手段50を備える。
撮影手段20は、駆動手段50によって駆動された状態で移動体を含む空間を撮影し、撮影した画像データを画像処理手段30へ出力する。本実施形態において、撮影手段20はズーム機能を有し、画像処理手段30から入力した実空間上の差分に基づいてズーム設定値を演算し、演算したズーム設定値を用いて移動体を拡大して撮影することにより、ズームの画像データを画像処理手段30へ出力する。
画像処理手段30は、撮影手段20から入力した画像データを2値化する等して移動体を特定し、特定した移動体の位置と目標位置との画面上の差分を計測して追尾誤差として追尾制御手段40へ出力する。本実施形態において、画像処理手段30は、追尾誤差としてエラー角(δAZ、δEL)を出力する。また、画像処理手段30は、特定した移動体の位置と目標位置との実空間上の差分を演算して撮影手段20へ出力する。
追尾制御手段40は、移動体の位置情報を取得し、取得した位置情報に基づいて、駆動角度および駆動角速度を演算する。追尾制御手段40はさらに、演算した駆動角度に画像処理手段30から入力した追尾誤差の積分相当値を加算して目標角度を生成すると共に、演算した駆動角速度に画像処理手段30から入力した追尾誤差の平方根相当値の関数を加算して目標角速度を生成する。そして、追尾制御手段40は、演算した目標角度および目標角速度を駆動手段50へ出力する。
本実施形態において、追尾制御手段40は、移動体に搭載されたGPS(Global Positioning System)送信機から、GPS衛星から受信した情報に基づいて算出した移動体の位置情報を取得する。そして、追尾制御手段40は、取得した位置情報からカルマンフィルタ等を適用することによって移動後の位置情報を推定し、推定した移動後の位置情報から駆動角度(AZ、EL)および式(1)で表される駆動角速度(ωAZ、ωEL)を演算する。
Figure 2013247401
さらに、追尾制御手段40は、演算した駆動角度(AZ、EL)、駆動角速度(ωAZ、ωEL)および画像処理手段30から入力したエラー角(δAZ、δEL)から、式(2)で表される目標角度および式(3)で表される目標角速度を生成して駆動手段50へ出力する。
Figure 2013247401

Figure 2013247401
駆動手段50は、追尾制御手段40から入力した目標角度(AZ(k+1)、EL(k+1))および目標角速度(ωAZ(k+1)、ωEL(k+1))に基づいて撮影手段20を駆動する。駆動手段50の角速度は、エラー角(δAZ、δEL)の平方根に比例するため、式(3)において、駆動角速度をエラー角の平方根相当値の関数を用いて補正することにより、駆動手段50が持つ動き始め等で発生するクーロン摩擦および粘性摩擦等の非線形な外乱を低減することができ、撮影手段20を高精度に線形駆動することができる。
次に、本実施形態に係る追尾装置10の動作手順について説明する。追尾装置10の動作フロー図を図2に示す。図2において、追尾制御手段40は、移動体に搭載されたGPS送信機から移動体の現在の位置情報を取得した場合(S1)、取得した位置情報から移動後の位置情報を推定し(S2)、推定した移動後の位置情報を用いて撮影手段20を駆動するための駆動角度および駆動角速度を生成し、駆動手段50へ出力する(S3)。
駆動手段50は、追尾制御手段40から入力した駆動角度および駆動角速度に基づいて撮影手段20を駆動し(S4)、撮影手段20は、移動体方向の実空間を撮影し、撮影した画像データを画像処理手段30へ出力する(S5)。
画像処理手段30は、撮影手段20から入力した画像データから移動体を特定し、特定した移動体の位置と目標位置との画像上と実空間上の差分をそれぞれ演算して撮影手段20へ出力する。撮影手段20は、画像処理手段30から入力した画像上および実空間上の差分に基づいてズーム設定し(S6)、移動体を拡大して撮影することによって取得したズームの画像データを画像処理手段30へ出力する(S7)。
画像処理手段30は、撮影手段20から入力したズームの画像データから移動体を特定し(S8)、特定した移動体の位置と目標位置との画面上の差分を計測し、追尾誤差として追尾制御手段40へ出力する(S9)。
一方、追尾制御手段40は、定期的にGPS送信機から移動体の現在の位置情報を取得している。すなわち、追尾制御手段40は、定期的に上述のS1〜S3を実行する。追尾制御手段40は、GPS送信機から取得した移動体の現在の位置情報から移動後の位置情報を推定し、推定した移動後の位置情報から駆動角度および駆動角速度を演算する。以下、取得した移動体の現在の位置情報から駆動角度および駆動角速度を演算する工程をS10とする。
追尾制御手段40はさらに、演算した駆動角度に画像処理手段30から入力した追尾誤差の積分相当値を加算して目標角度を生成すると共に、S10で演算した駆動角速度に追尾誤差の平方根相当値の関数を加算して目標角速度を生成し、駆動手段50へ出力する(S11)。
駆動手段50は、追尾制御手段40から入力した目標角度および目標角速度に基づいて撮影手段20を駆動し(S12)、撮影手段20は、移動体方向の実空間をズーム撮影し、撮影した画像データを画像処理手段30へ出力する(S13)。
以下、本実施形態に係る追尾装置10は、S8−S13を繰り返すことにより、高速で移動する移動体を追尾する。
以上のように、本実施形態に係る追尾装置10において、追尾制御手段40は、移動体の位置情報から演算した駆動角速度に、追尾誤差の平方根相当値の関数を加算することによって、撮影手段20を駆動するための目標角速度を生成し、駆動手段50へ出力する。
駆動角速度を追尾誤差の平方根相当値の関数を用いて補正することにより、偏角量がゼロ点近傍となる状況で駆動手段50に発生するクーロン摩擦や粘性摩擦等の非線形な外乱を低減することができる。従って、本実施形態に係る追尾装置10は、追尾目標の移動体が遠方に位置する場合でも、撮影装置20を駆動する駆動手段50を高精度に線形駆動させて移動体を追尾できる。
さらに、本実施形態に係る追尾装置10において、追尾制御手段40は、初期捕捉において、移動体に搭載されたGPS送信機等から送信される移動体の位置情報に基づいて粗追尾を行う。この場合、別途、レーダー等の設備を備える必要がなく、安価な追尾システムを構築することができる。
そして、移動体を捕捉した後は、ズーム機能を用いて移動体をズーム撮影し、ズームの画像データから追尾誤差を計測し、追尾誤差をゼロとする精追尾を行うことにより、高精度の追尾を継続して行うことができる。
なお、本実施形態において、追尾制御手段40は、移動体に搭載されたGPS送信機から移動体の位置情報を取得したが、これに限定されない。追尾制御手段40は、例えば、地上に配置されたレーダー装置等から移動体の位置情報を取得することもできる。
(第2の実施形態)
第2の実施形態について説明する。本実施形態に係る目標追尾システムのシステム構成図を図3に示す。図3において、目標追尾システム100は、GPS送信機200、追尾制御装置300、撮像装置400および画像処理装置500から成る。
GPS送信機200は追尾対象の飛翔体に搭載され、GPS衛星から受信した情報に基づいて、自機を搭載している飛翔体の位置情報(位置、速度および加速度等)を演算し、演算した位置情報を地上局に配置されている追尾制御装置300へ送信する。
追尾制御装置300は地上局に配置され、GPS送信機200から飛翔体の位置情報を受信すると共に、画像処理装置500からエラー角を取得する。追尾制御装置300は受信した位置情報を円滑化処理し、円滑化処理した位置情報および取得したエラー角からカメラ420を駆動するためのサーボ制御値を生成し、生成したサーボ制御値を撮影装置400へ出力する。追尾制御装置300については後述する。
撮影装置400は、カメラ駆動部410およびカメラ420を備える。カメラ駆動部410は、追尾制御装置300から入力したサーボ制御値に基づいて、カメラ420の姿勢を制御する。カメラ420は、ズーム機能を備えたカメラであり、カメラ駆動部410によって姿勢を制御された状態で撮影動作し、取得した画像データを画像処理装置500へ出力する。本実施形態において、カメラ420は、ズーム機能を機能させることによって遠方に位置する飛翔体を撮影し、水平画素数1920素子および垂直画素数1080素子の画像データを画像処理装置500へ出力する。
カメラ420のズーム機能について、図4および図5を用いて説明する。図4は、飛翔体の大きさの算出方法のイメージ図、図5は、画面上の位置と実空間上位置との関係を示したイメージ図である。ここで、図4(a)および図5(a)は水平方向のイメージ図、図4(b)および図5(b)は垂直方向のイメージ図である。
図4において、カメラ420の駆動方向と飛翔体の進行方向とのずれである水平角度:θOHおよび垂直角度:θOVは、機体ヘディング角:yaw、機体仰角:θpitchを用いて、式(1.1)で表される。
Figure 2013247401
ここで、AZはカメラ420の方位角、ELは仰角である。この時、画面データ上の飛翔体の水平ピクセル値:HTargete、垂直ピクセル値:VTargeteは、図5において、実空間距離:L、実水平空間上の水平誤差距離:H_m、実垂直空間上の垂直誤差距離:V_mとすると、水平画素数1920素子および垂直画素数1080素子の場合、式(1.2)で表される。
Figure 2013247401
本実施形態において、算出したHTarget、VTargetに対応した比率をカメラ420にズーム設定することにより、飛翔体のカメラ撮像画面上の姿勢角を考慮した状態で、遠方に位置する飛翔体をズーム撮影することができる。なお、撮影装置400は、カメラ420に設定した比率を、水平画角:θH0および垂直画角をθV0として画像処理装置500へ出力する。
画像処理装置500は、撮影装置400から画像データと設定画角とが入力した場合、入力した画像データを画像処理し、飛翔体の画像中心からのずれ(水平誤差:H、垂直誤差:V)を算出する。本実施形態において、画像処理装置500は、飛翔体の画像中心からのずれとして、図5に示したエラー角(δAZ、δEL)を算出して追尾制御装置300へ出力する。
図5(a)において、画像データ上の駆動方向と飛翔体方向との水平誤差をH、水平画角をθH0、水平画素数を1920素子とすると、実水平空間上の水平誤差距離:H_mおよび水平撮影範囲:xは式(2.1)で表される。
Figure 2013247401
従って、図5(a)に示したAZエラー角:δAZは、式(2.2)で表される。
Figure 2013247401
同様に、図5(b)において、画像データ上の駆動方向と飛翔体方向との垂直誤差をV、垂直画角をθV0、垂直画素数を1080素子とすると、実垂直空間上の垂直誤差距離:V_mおよび垂直撮影範囲:yは式(2.3)で表される。
Figure 2013247401
従って、図5(b)に示したELエラー角:δELは式(2.4)で表される。
Figure 2013247401
画像処理装置500は、式(2.2)および式(2.4)を用いて算出したエラー角(δAZおよびδEL)を、追尾制御装置300へ出力する。
次に、追尾制御装置300について詳細に説明する。図3に示すように、追尾制御装置300は、目標設定部310、粗追尾制御部320および精追尾制御部330を備える。
目標設定部310は、追尾する目標値を設定する機能を有する。本実施形態において、目標設定部310は、図示しない入力手段を用いて指定される所定の飛翔体を目標値として設定する。
粗追尾制御部320は、GPS送信機200から取得した飛翔体の現在の位置情報(過去の情報を使用して計算されるため、実際は過去の位置情報)に基づいて飛翔体の移動後の位置を推定する。本実施形態において、粗追尾制御部320はGPS送信機200から、飛翔体の現在の位置情報として、下記に示した飛翔体の座標位置P(k)、速度V(k)および加速度A(k)を取得する。
Figure 2013247401
ここで、飛翔体の状態ベクトル:Xおよび制御入力:uを式(3.1)で定義すると、
Figure 2013247401
飛翔体の現在の状態(k)から時間ΔT経過した時の状態(k+1)は、運動方程式に従い、下記の式(3.2)で表される。
Figure 2013247401
一方、本実施形態に係る目標追尾システム100は、時間遷移に関する雑音をW、観測雑音をVとして、式(3.3)、式(3.4)に示した状態方程式および観測方程式によって表される。
Figure 2013247401

Figure 2013247401

ここで、Fは追尾予測システムの時間遷移に関する線形モデル、Dは制御入力uに対する線形演算子、Gは共分散行列、Hは状態空間を観測空間に線形写像する観測モデルである。
本実施形態に係る粗追尾制御部320は、式(3.3)、式(3.4)で表される状態方程式および観測方程式に基づいて、GPS送信機200から取得した飛翔体の位置情報から、飛翔体の移動後の位置を推定する。
精追尾制御部330は、粗追尾制御部320から飛翔体の移動後の位置が入力した場合、移動後の位置と画像処理装置500から入力したエラー角とを用いて撮影装置400を制御するためのサーボ制御値を演算して撮影装置400へ出力する。
本実施形態において、精追尾制御部330は先ず、駆動角度(方位角:AZ、仰角:EL) を演算する。そして、精追尾制御部330は、演算した駆動角度に画像処理装置500から入力したエラー角の積分相当値を加算することによって演算した駆動角度を補正し、飛翔体の画像データ上の位置を画面中心に移動させるためカメラ目標角度POS(k+1)を取得する。
カメラ目標角度POS(k+1)、すなわち、水平方向のカメラ目標角度:AZC_ref(k+1)および垂直方向のカメラ目標角度:ELC_ref(k+1)は、水平方向のエラー角:δAZ、垂直方向のエラー角:δELを用いて、式(4.1)で表される。
Figure 2013247401
本実施形態において、精追尾制御部330はさらに、駆動角速度(ωAZ、ωEL)を演算する。図6に示すように、角速度ゲインがエラー角の絶対値の1/2乗に比例することから、精追尾制御部330は、演算した駆動角速度(ωAZ、ωEL)に画像処理装置500から入力したエラー角の平方根相当値の関数を加算することによって、偏角量のゼロ点近傍における非線形要因を排除したカメラ目標角速度V(k+1)を取得する。
カメラ目標角速度V(k+1)、すなわち、水平方向のカメラ目標角速度:ωAz_C_ref(k+1)および垂直方向のカメラ目標角速度:ωEL_C_ref(k+1)は、方位角:AZ、仰角:EL、水平画角:θH、垂直画角をθを用いて、式(4.2)で表される。
Figure 2013247401
駆動角速度(ωAZ、ωEL)に、エラー角(δAZ、δEL)の平方根相当値の関数を、スムージングのためのプロファイルとして加算することにより、動き始めや偏角量がゼロ点近傍となる状況において、カメラ駆動部410の回転摺動部位にクーロン摩擦や粘性摩擦等の非線形な外乱が発生した場合でも、飛翔体が画像データのゼロ点に引き寄せられ、カメラ420による飛翔体の高精度な画像追尾が可能となる。
そして、精追尾制御部330は、取得したカメラ目標角度POS(k+1)およびカメラ目標角速度V(k+1)を、サーボ制御値として撮影装置400へ出力することにより、撮影装置400をPI制御する。なお、式(4.1)および式(4.2)を用いる代わりに、断片線形型非線形要素の記述関数を用いることもできる。
次に、本実施形態に係る目標追尾システム100の動作フローについて説明する。目標追尾システム100の入出力信号のフローを図7に示す。図7に示すように、本実施形態に係る目標追尾システム100において飛翔体の画像追尾を行う場合、飛翔体に搭載されたGPS送信機200は、GPS衛星から受信した情報から飛翔体の位置情報(位置、速度および加速度等)を演算し、演算した飛翔体の位置情報を地上局に配置されている追尾制御装置300へ送信する(S101)。
一方、目標追尾システム100において、撮影装置400はサーボ制御値に基づいて所定方向の画像データを取得し、式(1.2)で算出したピクセル値に基づいて飛翔体を撮影する。そして、撮影装置400は取得した画像データ、撮影に用いた水平画角θHOおよび垂直画角θVOを画像処理装置500へ出力する(S102)。
画像処理装置500は、撮影装置400から画像データ、水平画角θHOおよび垂直画角θVOが入力した場合、入力した画像データから飛翔体を特定し、飛翔体と画像中心とのずれ(H、V)、飛翔体の大きさおよび重心等を取得する。
さらに、画像処理装置500は、算出したずれ(H、V)および撮影装置400から入力した水平画角θHOおよび垂直画角θVOを用い、式(2.2)、式(2.4)に基づいて飛翔体の位置とカメラ420の駆動方向(画像データの中心位置)の誤差であるエラー角(δAZおよびδEL)を算出し、算出したエラー角を追尾制御装置300へ出力する(S103)。
追尾制御装置300は、GPS送信機200から飛翔体の位置情報(位置、速度および加速度等)が入力した場合、粗追尾制御部320において、式(3.3)、式(3.4)で表される状態方程式および観測方程式に基づいて平滑化フィルタ処理し、飛翔体の移動後の位置を推定する(S104)。
追尾制御装置300はさらに、精追尾制御部320において、式(4.1)、式(4.2)に基づいて、推定した移動後の位置を画像処理装置500から入力したエラー角(δAZおよびδEL)を用いて補正し、カメラ420の撮影方向を制御するためのカメラ目標角度POS(k+1)およびカメラ目標角速度V(k+1)を取得する。そして、追尾制御装置300は、取得したカメラ目標角度POS(k+1)およびカメラ目標角速度V(k+1)をサーボ制御値として撮影装置400へ出力する(S105)。
撮影装置400は、追尾制御装置300からPOS(k+1)およびV(k+1)が入力した場合、カメラ駆動部410においてカメラ420の姿勢をサーボ制御する(S106)。撮影装置400がPOS(k+1)およびV(k+1)によってサーボ制御されることにより、画像データ上の飛翔体と中心位置とのずれが減少する。ここで、図7において、EstはEstimate(予測)を意味し、Est_Az_c_ref、Est_El_ c_refは予測目標角度を表し、Est_Az_c_v_ref、Est_El_c_v_refは予測目標角速度を表す。
さらに、撮影装置400は、式(1.2)を用いてカメラ420をズーム制御する。そして、追尾制御装置300は、ズームの画像データに基づくエラー角を画像処理装置500から取得し、取得したエラー角および作動したカメラ駆動部410の動作量等から、次フレームの画像ずれ量を予測し、画像データ上の飛翔体と中心位置とのずれをさらに小さくするためのカメラ目標角度POS(k+1)およびカメラ目標角速度V(k+1)を取得して撮影装置400へ出力する。
そして、撮影装置400は、追尾制御装置300から入力した、画像データ上の飛翔体と中心位置とのずれをさらに小さくするためのPOS(k+1)およびV(k+1)に基づいてカメラ420の姿勢をサーボ制御する(S107)。追尾制御装置300が次フレームの画像ずれ量を予測し、予測した画像ずれ量に基づいてPOS(k+1)およびV(k+1)を演算することにより、画像データ上の飛翔体が中心位置に高精度に補正される。ここで、図7において、Est_H_qおよびEst_V_qは、次フレームに想定される画像ずれの予測値を表す。
ここで、GPS送信機200からの位置情報取得処理および平滑化フィルタによる移動後の位置の推定処理は、低速度周期で行われる。一方、サーボ制御値の生成および生成したサーボ制御値に基づくカメラ駆動部410のPI制御は、高速度周期で行われる。
次に、本実施形態に係る目標追尾システム100のアルゴリズムフローについて説明する。目標追尾システム100のアルゴリズムフローを図8に示す。図8において、本実施形態に係る目標追尾システム100は、撮影装置400が撮影した画像データから飛翔体を特定し(S201)、特定した飛翔体と画像中心とのずれ(H、V)や飛翔体の大きさおよび重心等を取得する(S202、S203)。
そして、目標追尾システム100は、取得した飛翔体の位置が異常か否か判定する(S204)。目標追尾システム100は、特定した飛翔体の位置情報が、飛翔体が位置することがない位置情報や、前回と大きく異なる位置情報である場合、飛翔体以外の物体を飛翔体として特定したと判定する。この場合、目標追尾システム100は、前回用いた位置情報をそのまま保持したり、補間処理等を行ったりする。
一方、特定した飛翔体が追尾目標の飛翔体である場合、目標追尾システム100はさらに、飛翔体をズーム撮影するための設定を開始する(S205)。具体的には、目標追尾システム100は、画像データから飛翔体の画像中心からのずれ、すなわち、エラー角(δAZ、δEL)を式(2.2)、式(2.4)を用いて算出する(S206)。
また、目標追尾システム100はGPS送信機200を用いて取得した飛翔体の位置情報を式(3.3)、式(3.4)で表される状態方程式および観測方程式に基づいて平滑化フィルタ処理する(S207)。GPS送信機200から入力した飛翔体の位置情報(時暦データ)をカルマンフィルタ等の予測推定フィルタで円滑化して用いる場合、エラー電圧の精度によらない安定的な粗追尾制御を行うことができる。
そして、目標追尾システム100は、式(4.1)、式(4.2)に基づいて、平滑化フィルタ処理した飛翔体の位置情報をエラー角(δAZ、δEL)によって補正することにより、撮影装置400をサーボ制御するためのサーボ制御値として、カメラ目標角度POS(k+1)およびカメラ目標角速度V(k+1)を取得する(S208)。撮影装置400は、サーボ制御値に基づいてカメラ420の姿勢を制御し、飛翔体の画像データを取得する(S209)。
撮影装置400で撮像した画像データを用いてサーボ制御値を補正することにより、飛翔体を容易に精追尾できる。さらに、ズーム機能を用いて遠方の飛翔体の位置を詳細に特定してサーボ制御値をゼロ点補正することにより、飛翔体を高精度に精追尾できる。
さらに、画像処理装置500において処理される画像ずれ情報は非同期低周期更新であるため、撮影装置400の高速周期サーボ系にて利用する際には予測補完する必要がある。予測目標角度Est_Az_c_ref、Est_El_ c_ref、予測目標角速度Est_Az_c_v_ref、Est_El_c_v_ref等を目標値として設定することでよりスムーズにサーボ系を動作させることが可能となる。また、次のフレームでどの程度画像ずれが発生するか予測することで画像処理装置500が画像処理すべきエリアをより正確に特定することができる。例えば、前フレームにて発生した画像ずれH、Vに対し、本フレームにて補正した残量δH,δVを基に、次フレームにおける画像ずれ(Est_H_q、Est_V_q)を生成する。これにより、常に画面全体を画像処理する必要がなく、目標が存在する可能性のあるエリアのみをしぼって画像処理することにより、画像処理更新レートを高速化することが可能となる。
以上のように、本実施形態に係る目標追尾システム100は、飛翔体に搭載されたGPS送信機200から送信された飛翔体の位置、速度、加速度データを平滑化することによって飛翔体を粗追尾し、撮影装置400によって飛翔体を撮影したズームの画像データを用いて飛翔体を高精度に精追尾する。
GPS送信機200から送信される飛翔体の位置情報を(時暦データ)、カルマンフィルタ等の予測推定フィルタによって円滑化して移動後の位置情報を推定することにより、エラー電圧の精度によらない継続的且つ安定的な粗追尾制御を行うことができる。
飛翔体の精追尾としては、推定した位置情報に画像データから取得した画像補正値の積分相当値を加算するPI制御方式と、画像データから取得した偏角情報の平方根相当値の関数をスムージングのためのプロファイルとして用いる非線形制御方式と、を併用する。これにより、飛翔体を観測中心に移動させると共にカメラ駆動装置の回転機構が持つ動き始め等で発生するクーロン摩擦および粘性摩擦等の非線形な外乱による影響を低減する。
さらに、追尾補正としては、ズーム機能を用いて遠方の飛翔体を撮像することにより、飛翔体の位置を詳細に特定することができ、高精度なゼロ点補正を行うことができる。
従って、本実施形態に係る目標追尾システム100は、追尾特性を向上させるために、システムタイミングを広帯域に設定したり、高速で高価な画像処理装置を準備したりする必要がなく、安価で高精度な追尾システムを構築することができる。
ここで、目標物としては、GPS送信機200を搭載可能であると共に、撮影装置400による撮影が可能であれば、飛翔体に限定されない。また、本願発明は上記実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の設計の変更等があってもこの発明に含まれる。
10 追尾装置
20 撮影手段
30 画像処理手段
40 追尾制御手段
50 駆動手段
100 目標追尾システム
200 GPS送信機
300 追尾制御装置
310 目標設定部
320 粗追尾制御部
330 精追尾制御部
400 撮像装置
410 カメラ駆動部
420 カメラ
500 画像処理装置

Claims (6)

  1. 撮影動作し、撮影した画像データを出力する撮影手段と、
    前記画像データから移動体を特定し、特定した移動体の位置と目標位置との画像上の差分を演算して追尾誤差として出力する画像処理手段と、
    移動体の位置情報を取得し、取得した位置情報に基づいて演算した駆動角度に前記追尾誤差の積分相当値を加算して目標角度を生成すると共に、取得した位置情報に基づいて演算した駆動角速度に前記追尾誤差の平方根相当値の関数を加算して目標角速度を生成する追尾制御手段と、
    前記生成された目標角度および目標角速度に基づいて撮影手段を駆動する駆動手段と、
    を備える追尾装置。
  2. 前記画像処理手段は、追尾誤差として、水平方向のエラー角(δAZ)および垂直方向のエラー角(δEL)を出力し、
    前記追尾制御手段は、目標角度として下記数式で表されるAZ(k+1)、EL(k+1)を生成し、
    Figure 2013247401
    目標角速度として下記数式で表されるωAZ(k+1) 、ωEL(k+1)を生成する、
    Figure 2013247401
    請求項1記載の追尾装置。
  3. 前記画像処理手段はさらに、特定した移動体の位置と目標位置との実空間上の差分(H_m、V_m)を演算して出力し、
    前記撮影手段は、ズーム機能を有し、移動体のヘディング角:yaw、移動体の仰角:θpitch、画像の横方向の画素数をα、画像の縦方向の画素数をβとすると、下記数式に基づいてズーム設定する、
    Figure 2013247401
    請求項1または2記載の追尾装置。
  4. 移動体に搭載され、GPS衛星から取得した情報に基づいて移動体の位置情報を演算し、演算した位置情報を前記追尾制御手段へ出力する位置情報取得手段をさらに備える、請求項1乃至3のいずれか1項記載の追尾装置。
  5. 前記追尾制御手段は、下記数式で表される状態方程式および観測方程式を用いて入力された位置情報から移動後の位置情報を推定し、推定した位置情報から前記駆動角度および駆動角速度を演算する、
    Figure 2013247401
    請求項1乃至4のいずれか1項記載の追尾装置。
  6. 移動体の位置情報を取得し、
    撮影した画像データを出力し、
    前記出力された画像データから移動体を特定し、特定した移動体の位置と目標位置との画像上の差分を演算して追尾誤差として出力し、
    前記取得した位置情報に基づいて演算した駆動角度に、前記追尾誤差の積分相当値を加算して目標角度を生成し、
    前記取得した位置情報に基づいて演算した駆動角速度に、前記追尾誤差の平方根相当値の関数を加算して目標角速度を生成し、
    前記生成された目標角度および目標角速度に基づいて撮影手段を駆動する、
    追尾方法。
JP2012117817A 2012-05-23 2012-05-23 追尾装置および追尾方法 Active JP5888115B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012117817A JP5888115B2 (ja) 2012-05-23 2012-05-23 追尾装置および追尾方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012117817A JP5888115B2 (ja) 2012-05-23 2012-05-23 追尾装置および追尾方法

Publications (2)

Publication Number Publication Date
JP2013247401A true JP2013247401A (ja) 2013-12-09
JP5888115B2 JP5888115B2 (ja) 2016-03-16

Family

ID=49846895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012117817A Active JP5888115B2 (ja) 2012-05-23 2012-05-23 追尾装置および追尾方法

Country Status (1)

Country Link
JP (1) JP5888115B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017161171A (ja) * 2016-03-10 2017-09-14 三菱電機株式会社 管制装置
CN112565678A (zh) * 2020-10-30 2021-03-26 西安方元明科技股份有限公司 一种随动系统伺服控制方法
CN113741456A (zh) * 2021-09-02 2021-12-03 乐聚(深圳)机器人技术有限公司 机器人路径目标点跟踪方法、装置、电子设备及存储介质
CN114184086A (zh) * 2021-12-13 2022-03-15 绵阳久强智能装备有限公司 一种用于反狙击手机器人的光电跟踪图像对准方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009260564A (ja) * 2008-04-15 2009-11-05 Toshiba Corp 移動体画像追尾装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009260564A (ja) * 2008-04-15 2009-11-05 Toshiba Corp 移動体画像追尾装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017161171A (ja) * 2016-03-10 2017-09-14 三菱電機株式会社 管制装置
CN112565678A (zh) * 2020-10-30 2021-03-26 西安方元明科技股份有限公司 一种随动系统伺服控制方法
CN113741456A (zh) * 2021-09-02 2021-12-03 乐聚(深圳)机器人技术有限公司 机器人路径目标点跟踪方法、装置、电子设备及存储介质
CN114184086A (zh) * 2021-12-13 2022-03-15 绵阳久强智能装备有限公司 一种用于反狙击手机器人的光电跟踪图像对准方法
CN114184086B (zh) * 2021-12-13 2023-10-03 绵阳久强智能装备有限公司 一种用于反狙击手机器人的光电跟踪图像对准方法

Also Published As

Publication number Publication date
JP5888115B2 (ja) 2016-03-16

Similar Documents

Publication Publication Date Title
US10928838B2 (en) Method and device of determining position of target, tracking device and tracking system
JP5955449B2 (ja) ビーム・ステアリング素子のフィードフォアワード・コマンドを補助するアーキテクチャ
US11073389B2 (en) Hover control
EP2463622B1 (en) Cooperative nesting of mechanical and electronic stabilization for an airborne camera system
US8577539B1 (en) Coded aperture aided navigation and geolocation systems
JP2009115621A (ja) 移動体画像追尾装置
CN106647257B (zh) 一种基于正交最小二乘的前馈控制方法
JP5888115B2 (ja) 追尾装置および追尾方法
US20090096664A1 (en) Method, Apparatus and Computer Program Product for Providing Stabilization During a Tracking Operation
US20180022472A1 (en) Autonomous system for taking moving images from a drone, with target tracking and improved target location
JP2019511044A5 (ja)
CN108733066B (zh) 一种基于吊舱姿态反馈的目标跟踪控制方法
EP3674210A1 (en) Movable object control method, device and system
CN110109343A (zh) 一种光电跟踪系统视觉测量时滞补偿方法
Mills et al. Vision based control for fixed wing UAVs inspecting locally linear infrastructure using skid-to-turn maneuvers
US20160034607A1 (en) Video-assisted landing guidance system and method
CN112204946A (zh) 数据处理方法、装置、可移动平台及计算机可读存储介质
WO2019183789A1 (zh) 无人机的控制方法、装置和无人机
JP4775296B2 (ja) 撮像空間安定化装置及び被写体追尾装置
KR101564298B1 (ko) 이중김벌 구조를 갖는 시선안정화장치의 기동성 향상을 위한 이중김벌 제어 장치 및 방법
KR101408067B1 (ko) 항공기 장착 전자광학장비의 좌표지향성능 향상 방법
TWI726536B (zh) 影像擷取方法及影像擷取設備
JP2009260564A (ja) 移動体画像追尾装置
JP5998881B2 (ja) 追尾装置および追尾方法
JP6394002B2 (ja) 追尾制御装置および追尾制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160201

R150 Certificate of patent or registration of utility model

Ref document number: 5888115

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150