JP5459678B2 - 移動体画像追尾装置 - Google Patents

移動体画像追尾装置 Download PDF

Info

Publication number
JP5459678B2
JP5459678B2 JP2011032086A JP2011032086A JP5459678B2 JP 5459678 B2 JP5459678 B2 JP 5459678B2 JP 2011032086 A JP2011032086 A JP 2011032086A JP 2011032086 A JP2011032086 A JP 2011032086A JP 5459678 B2 JP5459678 B2 JP 5459678B2
Authority
JP
Japan
Prior art keywords
tracking error
vector
dimensional
target
angular velocity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011032086A
Other languages
English (en)
Other versions
JP2012175157A (ja
Inventor
博昭 中村
正 黒岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011032086A priority Critical patent/JP5459678B2/ja
Priority to US13/224,444 priority patent/US20120212622A1/en
Publication of JP2012175157A publication Critical patent/JP2012175157A/ja
Application granted granted Critical
Publication of JP5459678B2 publication Critical patent/JP5459678B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明の実施形態は、全方向に渡り移動する目標に対してカメラ等の目標認識センサを追尾させるための移動体画像追尾装置に関する。
近年、空港やプラントなど大型施設、及び発電所や水道施設などのライフラインに関わる施設での保安設備、並びにITSなどの交通情報支援システムなどにおいて、ITVカメラ等を用いて対象物を追跡し、継続した監視や詳細な情報を入手するシステムが多く商品化されている。これらのシステムは、地上設置型だけでなく、プラットホームとして車両、船舶または航空機などを想定し、小型かつ耐振性を考慮した構造で、振動・動揺に対する外乱抑圧を行っている。更に、複数の対象物を順次、追尾できるように、旋回速度を高速化し、対象物への指向を短時間に行えることが重要になってきている。
このような移動体画像追尾システムは、カメラセンサから目標の追尾誤差を検出するため、カメラセンサの性能に大きく依存している。つまり、目標をカメラセンサにて撮影した際の追尾誤差が視野内に収まらなければ目標を見失ってしまう。ここで、カメラセンサは、撮影画像から追尾誤差を抽出する画像処理を経るため、撮影間隔、つまりサンプリング時間の高速化が難しく、目標の追尾には遅れが生じてしまう。
このため、目標の移動速度が速くなった場合には、カメラの視野外になってしまい、追尾不能になる可能性がある。
また、このような移動体画像追尾システムは、全方向に渡り移動する目標に対して追尾するために、ジンバル構造では少なくとも2軸以上を備える必要がある。2軸ジンバルでは、対象物が天頂、もしくは天頂付近を通過する場合にはAZ軸は瞬時に180度回転する必要があり、目標の追尾性能はAZ軸の駆動特性に大きく依存している。さらに、ジンバルの駆動制御系は高サンプリングで実現することが容易であるが、ジンバルの駆動指令は追尾誤差を元に生成されるため、カメラセンサのサンプリングからは必ず遅延を生じてしまう。このため、目標の移動速度が速くなった場合には、ジンバル指令に遅延があるとモータ性能によっては駆動能力の不足により、カメラの視野外になってしまう可能性がある。
従来の画像追尾システムでは、画像中の対象物の位置を認識する際に、画像範囲を限定して演算処理を少なくして安定に対象物の位置を捕捉させようとしている。
また、目標物からの画像情報が得られなくても目標位置を推定する手法として、測長センサにより目標物と画像追尾システムの距離を測定し、これにより目標位置を推定して補正する方法が提案されている。
特開2004−286699号公報 特開2001−317899号公報
このような従来技術において、画像範囲を限定して演算処理を少なくする方法では、カメラのサンプリングを改善することが可能であるが、その代わりにカメラ視野が狭くなり、目標の追尾誤差許容量が小さくなってしまう。このため、目標の移動速度が速くなった場合、目標がカメラの視野外になり、追尾不能になる可能性がある点に対しては改善効果を得ることが難しい。
また、目標物と画像追尾システムとの距離を測定し位置を推定する手法では、測長センサを必要とし、測長センサを搭載していない画像追尾システムにとってはコストを増加してしまう。さらに、目標の位置の推定精度は測長精度に依存しており、十分な追尾性能を得るためには非常に高精度な測長センサが必要となってしまう。
発明が解決しようとする課題は、付加センサを追加することなく、追尾性能の劣化を改善する移動体画像追尾装置を提供することである。
実施形態によれば、移動体画像追尾装置は、駆動部と、カメラセンサと、追尾誤差検出部と、角度センサと、角速度センサと、第1計算部と、第2計算部と、補正追尾誤差検出部と、生成部と、制御部とを含む。駆動部はそれぞれ、垂直方向に向けられ回転自在に支持されるアジマス軸と、このアジマス軸と直交する水平方向に設けられ、回転自在に支持され水平方向の正面から天頂に向け回転が可能なエレベーション軸とにそれぞれ連結され、各々を個別に回転駆動する。カメラセンサは、エレベーション軸に支持され、移動体を撮影して画像データを取得する。追尾誤差検出部は、画像データから、移動体の視野中心からのずれ量である追尾誤差を追尾誤差検出値として検出する。角度センサは、駆動部ごとに、回転軸回りの角度を検出する。角速度センサは、駆動部ごとに、回転軸回りの角速度を検出する。第1計算部は、追尾誤差検出値と角度とを用いて、移動体の位置ベクトルと速度ベクトルを計算する。第2計算部は、角度からカメラセンサの視軸ベクトルを計算する。補正追尾誤差検出部は、視軸ベクトルと位置ベクトルとの関係および速度ベクトルから、追尾誤差検出値が一定であるサンプリング期間よりも短い期間ごとに補正追尾誤差を計算する。生成部は、補正追尾誤差を使用して移動体を追尾するように駆動部を駆動する角速度指令値を生成する。制御部は、角速度指令値と角速度との差がなくなるように駆動部を制御する。
実施形態の移動体画像追尾装置のブロック図。 図1のジンバル機構を示す図。 図1の移動体画像追尾装置の補正制御系を示す概略図。 実施形態のカメラ視野と移動体との追尾誤差を示す図。 (a)は目標の軌跡と視軸の軌跡の概要を表した図であり、(b)は目標と視軸ベクトルと視軸ベクトルと目標位置ベクトルとの関係を示す図。 天頂からカメラ視野を2次元平面状に拡大した図。 図6よりも拡大したカメラ視野と各ベクトルとの関係を示す図。 カメラからの追尾誤差と補正追尾誤差計算部による補正追尾誤差との関係を表した図。
以下、図面を参照しながら本発明の実施形態に係る移動体画像追尾装置について詳細に説明する。なお、以下の実施形態では、同一の番号を付した部分については同様の動作を行うものとして、重ねての説明を省略する。
実施形態の移動体画像追尾装置は、移動体画像追尾機構の制御システムを、画像トラッキングシステムに適用したものである。
(第1の実施形態)
本実施形態の移動体画像追尾装置について図1を参照して説明する。本実施形態の移動体画像追尾装置は、第1および第2のジンバル111,121、第1および第2駆動部112,122、第1および第2の角速度センサ113,123、第1および第2の角度センサ114,124、カメラセンサ140、角速度指令生成部150、駆動制御部160、目標位置ベクトル計算部171、視軸ベクトル計算部172、追尾誤差検出部173、目標速度ベクトル計算部174、および補正追尾誤差計算部175を含む。また、駆動制御部160は、第1のサーボ制御部161、および第2のサーボ制御部162を含んでいる。
第1のジンバル111は、垂直方向に向けられ回転自由に支持されるアジマス軸110として第1のジンバル軸を中心に回転する。第2のジンバル121は、このアジマス軸と直交する水平方向に設けられ、回転自由に支持されるエレベーション軸120として第2のジンバル軸を中心に回転する。
第1および第2の駆動部112,122は、それぞれ、第1および第2のジンバル111,121を回転駆動する。
第1の角速度センサ113は、第1のジンバル軸を中心に回転する第1のジンバル111の角速度を検出する。第2の角速度センサ124は、第2のジンバル軸を中心に回転する第2のジンバル121の角速度を検出する。
第1の角度センサ114は、第1のジンバル111のジンバル固定部に対する回転角度を検出する。第2の角速度センサ124は、第2のジンバル121の第1のジンバルに対する回転角度を検出する。
カメラセンサ140は、第2のジンバル121に支持され、移動体を認識して画像データを得る。
追尾誤差検出部173は、カメラセンサ140から取得した画像データに画像処理を施して追尾誤差検出値を検出する。追尾誤差検出部173は、一般的には2値化により白黒画像にし、移動体の特徴点を抽出することでカメラ視野内の位置が識別され、視野中心からの2方向のずれ量(ΔX、ΔY)を追尾誤差検出値とする。これらの画像処理を含めた処理時間が追尾誤差検出値を得るサンプリング時間となる。追尾誤差検出値については後に図4を参照して説明する。
目標位置ベクトル計算部171は、追尾誤差検出部173から取得する2方向の追尾誤差検出値を入力し、第1および第2の角度センサ114,124のそれぞれから角度を入力することで、ジンバル座標系から見た目標の位置ベクトルを得る(図5(b)参照)。
目標速度ベクトル計算部174は、目標位置ベクトル計算部171から取得する、目標の位置ベクトルを入力することで、目標の位置ベクトルの時間差分から目標の速度ベクトルを得る。
視軸ベクトル計算部172は、第1および第2の角度センサ114,124のそれぞれから角度を入力し、ジンバル姿勢からジンバル内に備えたカメラの視軸ベクトルを得る。視軸ベクトル計算部172は、カメラサンプルの遅延を補正するために、角度に加え第1および第2の角速度センサ113,123のそれぞれから角速度も入力して視軸ベクトルを得る場合もある(第2の実施形態参照)。
補正追尾誤差計算部175は、目標位置ベクトル計算部171から取得する目標位置ベクトル、目標速度ベクトル計算部174から取得する目標速度ベクトル、視軸ベクトル計算部172から取得する視軸ベクトルを入力し、目標とカメラとの相対関係の時間変化を考慮して補正した追尾誤差検出値を得る。
角速度指令生成部150は、補正追尾誤差計算部175から取得する補正追尾誤差検出値と、第2の角度センサ124により検出されるジンバル姿勢を表す角度検出値θ2とにより、移動体を追尾するようジンバルを駆動する角速度指令値を生成する(例えば後述の[式1]を利用する)。この計算の詳細は後に図3を参照して説明する。
駆動制御部160は、角速度指令生成部150で生成された各角速度センサに対応する角速度指令値と、第1および第2の角速度センサ113,123で検出された角速度検出値との差を0にするように制御指令値を計算する。第1および第2のサーボ制御部161,162は、それぞれ第1および第2の角速度センサ113,123に対応し、それぞれ第1および第2駆動部112,122に対応する制御指令値を出力する。
次に、本実施形態で使用するジンバル機構について図2を参照して説明する。
第1のジンバル軸はアジマス軸(以下、単に「AZ軸」という)、第2のジンバル軸はエレベーション軸(以下、単に「EL軸」という)である。図1の移動体画像追尾装置は、これらのAZ軸、EL軸が一点において直交する2軸構造を備えた2軸旋回装置である。
次に、本実施形態の移動体画像追尾装置の補正制御系について図3を参照して説明する。図3は、AZ軸、EL軸の2軸まとめて表した制御ブロック線図である。
角速度指令生成部150は、追尾誤差検出部173から取得する2方向の追尾誤差と、第1および第2の角度センサ114,124により検出されるジンバル姿勢を表す2軸の角度検出値(θ1、θ2)とにより、目標を追尾するようにジンバルを駆動する次式(1)に示す角速度指令値を生成する。
Figure 0005459678
を生成する。カメラ画像から取得した2方向の追尾誤差検出値(ΔX、ΔY)から2軸ジンバルの各軸へ角速度を分配する手法の一つとして、追尾誤差と角度に対する角速度指令値の関係式を表すと、次の[式1]のように表される。
Figure 0005459678
ここで、Kは追尾ゲインである。また、secθは、θに関する正割関数であり、θ=90度で無限大となる。このため天頂や、天頂付近では第1のジンバルに対して非常に大きな角速度指令が発生することとなる。
本実施形態にかかる制御では、カメラセンサ140から得られた追尾誤差検出値から直接ではなく、目標位置ベクトル計算部171、目標速度ベクトル計算部174、視軸ベクトル計算部172、そしてこれらから得られる値を用いる補正追尾誤差計算部175から得られる補正追尾誤差検出値に基づいて制御を行う。
次に、カメラセンサが取得した画像の視野と移動体追尾について図4を参照して説明する。
図4は、本実施形態にかかるカメラ画像の視野と移動体追尾の概要を示した図である。目標をカメラ視野内で捉えている場合には、カメラ中心からのずれ量として追尾誤差検出値(ΔX,ΔY)が得られる。追尾遅れが生じるため、この追尾誤差検出値はカメラ視野以上には許容でない。追尾誤差検出値は小さいことが望ましいが、追尾誤差検出値が大きくともカメラ視野内に入っている限り、2軸ジンバルを駆動して目標を追尾することができる。
次に、目標位置ベクトルと目標速度ベクトル、ならびに視軸ベクトルについて図5、図6、図7を参照して説明する。
図5の(a)および(b)は、目標の軌跡と視軸の軌跡の概要を表した図である。3次元の空間で表すと、2軸ジンバルにより半球状の全方向に渡って視軸を指向することができる。これに対して、典型的な一例として目標が天頂より離れた位置を正面から背面に渡って移動する場合を考える。図5の(a)および(b)は、目標を追尾して、ジンバル姿勢角度が(θ1、θ2)となっている状態を示している。この姿勢が太線で表される視軸ベクトルを形成している。これに対して、×印の位置に目標位置ベクトルを形成している。
図6は、天頂方向から2次元平面として拡大して表した図である。この一例では目標が下方より上方へ移動する場合である。目標の追尾においては、追尾誤差からジンバルの角速度指令を生成するため、必ず目標からのずれが発生する。このため、目標視軸ベクトルを中心に形成される視野に対して中心からずれた位置に目標が現れ、追尾誤差が発生している。
図7は、カメラ視野をさらに拡大して表した図である。図7では2次元平面として表しているが、目標位置ベクトル(eT_x,eT_y,eT_z)や目標速度ベクトル(d_eT_x,d_eT_y,d_eT_z)、そして視軸ベクトルの単位ベクトル(eE_x,eE_y,eE_z)、ジンバル上カメラの水平方向の単位ベクトル(eX_x,eX_y,eX_z)、ジンバル上カメラの垂直方向の単位ベクトル(eY_x,eY_y,eY_z)はそれぞれ3次元である。
目標位置ベクトル計算部171は、追尾誤差検出値(ΔX,ΔY)、ならびにジンバル姿勢を表す2軸の角度検出値(θ1,θ2)とから、ジンバル座標系から見た目標の位置ベクトルeTを計算する。なお、目標の位置ベクトルeTは|eT|=1を満たし、目標速度ベクトルd_eTは|d_eT|=1を満たす。
まず、ジンバルの正弦、および余弦を2軸それぞれ、次の[式2]のように表す。
Figure 0005459678
目標の位置ベクトルeTとジンバル上カメラの視軸ベクトルの単位ベクトルeEとの内積dot_eT_eEが、次の[式3]のように表わされる。
Figure 0005459678
目標の位置ベクトルeTとジンバル上カメラの水平方向の単位ベクトルeXとの内積dot_eT_eXが、次の[式4]で表される。
Figure 0005459678
また、目標の位置ベクトルeTとジンバル上カメラの垂直方向の単位ベクトルeYとの内積dot_eT_eYが、次の[式5]で表される。
Figure 0005459678
これらのベクトルの内積の関係から、目標の位置ベクトルeT(eT_x,eT_y,eT_z)は、次の[式6]で表される。
Figure 0005459678
目標位置ベクトル計算部171は、目標位置ベクトル計算部で得られた目標位置ベクトルの時間差分から、目標速度ベクトルd_eTを計算する。目標位置ベクトルが、カメラのサンプリングに応じて離散的に得られるとすると、kサンプルと、k−1サンプルの差分から、目標速度ベクトルd_eTは、次の[式7]のように表される。
Figure 0005459678
この手法とは異なり、カルマンフィルタによって目標速度ベクトルを計算する手法がある。その手法の一例を以下に説明する。
目標速度ベクトル計算部では、目標位置ベクトル計算部で得られた目標位置ベクトルに対して時変カルマンフィルタを適用して目標速度ベクトルd_eTを計算する。例えば一般的な一例として、観測可能である状態量の位置x、そして観測ができない状態量として次式(2)に示される速度、次式(3)に示される加速度を考えると、状態変数は、次式(4)のように表される。
Figure 0005459678
Figure 0005459678
この状態変数に関して雑音w[n]、v[n]を伴う離散状態方程式は、次式(5)のようにおくことができる。
Figure 0005459678
ここで、各行列は、サンプリング時間ΔTとして、次式(6)で表される。
Figure 0005459678
カルマンフィルタの時間遷移に関する重みQ、観測量に関する重みRとし、初期の状態量x[0]、初期の誤差行列P[0]を、それぞれ次式(7)のようにすると、
Figure 0005459678
カルマンゲインM[n]、状態量x[n]、誤差行列P[n]の更新則が、次式(8)で表される。
Figure 0005459678
これに対して時刻の更新は、次式(9)で表される。
Figure 0005459678
これらの方程式を反復することにより、カルマンフィルタにより状態推定を行うことができる。本実施形態の場合では、一般的な式における観測可能である状態量の位置xの代わりに、目標位置ベクトル(eT_x,eT_y,eT_z)をそれぞれに適用することで、目標速度ベクトル(d_eT_x,d_eT_y,d_eT_z)を得ることが可能となる。カルマンフィルタを適用することで、雑音に対して影響の少ない目標速度ベクトルd_eTを得ることができる。カルマンフィルタによって目標速度ベクトルを計算する手法の一例についての説明はここまでとする。
ここからまた図7を参照した説明に戻る。
視軸ベクトル計算部172は、2軸の角度検出値(θ1,θ2)から、視軸ベクトルを計算する。ジンバル上カメラの視軸方向の単位ベクトル(eE_x,eE_y,eE_z)は、次の[式8]で表わされる。
Figure 0005459678
また、ジンバル上カメラの水平方向の単位ベクトル(eX_x,eX_y,eX_z)は、次の[式9]で表わされる。
Figure 0005459678
また、ジンバル上カメラの垂直方向の単位ベクトル(eY_x,eY_y,eY_z)は、次の[式10]で表わされる。
Figure 0005459678
補正追尾誤差計算部175は、目標位置ベクトル計算部171から得られた目標位置ベクトル(eT_x,eT_y,eT_z)、目標速度ベクトル計算部174から得られた目標速度ベクトル(d_eT_x,d_eT_y,d_eT_z)、ならびに視軸ベクトル計算部172から得られた視軸ベクトルの単位ベクトル(eE_x,eE_y,eE_z)、ジンバル上カメラの水平方向の単位ベクトル(eX_x,eX_y,eX_z)、ジンバル上カメラの垂直方向の単位ベクトル(eY_x,eY_y,eY_z)とから、目標とカメラとの相対関係の時間変化を考慮して補正した追尾誤差を計算する。
目標位置ベクトルと視軸ベクトルとの関係から、それぞれのベクトルの内積(dot_eT_eE,dot_eT_eX,dot_eT_eY)は次の[式11]で表される。
Figure 0005459678
これは、[式6]の逆変換となっている。この目標位置ベクトルと視軸ベクトルとの内積から、逆変換により再計算された補正追尾誤差検出値(ΔXr、ΔYr)は次の[式12]で表される。
Figure 0005459678
このようにして計算された補正追尾誤差を用いて、ΔXにΔXrを代入しΔYにΔYrを代入して[式1]に従い計算された角速度指令値と、第1および第2の角速度センサで検出された角速度検出値との差を0にするように駆動制御部160で制御指令値が計算され、この制御指令値に従いジンバル機構が移動体を追尾するように駆動される。ここで、ジンバル機構は、第1および第2のジンバル111,121と第1および第2の駆動部112,122を含む。
次に、本実施形態にかかるカメラサンプル点間補間について図8を参照して説明する。図8は、カメラからの追尾誤差と補正追尾誤差計算部175による補正追尾誤差との関係を表した図である。
太破線のカメラサンプリングであるTcam間隔で得られるカメラからの追尾誤差は、各サンプル点間ではその値が保持されている。追尾特性を改善するためには、ジンバルの角速度指令の生成周期を早く(短く)することが望ましい。そこで、図8では一例としてカメラサンプリング周期の1/3の細破線の補間サンプリングTcmp間隔で補正追尾誤差を算出する場合を考える。Tcam間隔で追尾誤差が得られるため、同間隔で目標位置ベクトルの算出を行うことができる。このサンプル点間を補間するために、ジンバル角度はカメラサンプリングよりも早い補間サンプリングで取得可能であるため、本実施形態にかかる視軸ベクトル計算部172はTcmp間隔でジンバル角度検出値を取得して計算を行う。この視軸ベクトルに対して、補正追尾誤差計算部175では、カメラサンプリング取得時点からTcmp間隔だけ実際の目標は動いていることから、ジンバル角度検出値の取得に対応した目標位置ベクトル(eT_xr,eT_yr,eT_zr)は、カメラサンプリング取得時からの補間サンプリング数n(本一例の1/3周期ではn=0〜2)に応じた線形補間により、次の[式13]のように表すことができる。
Figure 0005459678
このようにして計算されたジンバル角度検出値の取得に対応した目標位置ベクトル(eT_xr,eT_yr,eT_zr)を用いて、補正追尾誤差計算部175が、[式11]および[式12]に従い補正追尾誤差を計算する。
以上の第1の実施形態によれば、カメラサンプリング周期で目標の状態量を更新し、カメラサンプリング周期よりも早い補間サンプリング周期でジンバル角度検出値を取得して姿勢ベクトルを更新し、目標の状態量は補間サンプリング周期に応じて線形補間することで、目標とカメラとの相対関係で決まる追尾誤差を補間補正して計算することが可能となり、カメラサンプリング周期よりも早い周期で追尾誤差を得ることが可能となることから、目標の追尾特性を改善する効果がある。
(第2の実施形態)
本実施形態では、移動体画像追尾装置が行うカメラサンプル遅延の補正について説明する。
移動体画像追尾装置は、カメラからの画像に対して画像処理を経て、追尾誤差を取得している。このため、画像処理や信号伝達等により、追尾誤差として取得するまでには遅延が生じてしまう。追尾特性を改善するためには、この遅延の影響を低減することが望ましい。この遅延時間は機器によって固定であるため、事前に把握することが可能である。遅延時間Tdlyとすると、実時間でのジンバル姿勢は、この遅延時間分移動していることになる。そこで、本実施形態にかかる視軸ベクトル計算部172では、ジンバル角度検出値(θ1、θ2)ならびに次式(10)に表されるジンバル角速度検出値を用いて、ジンバルの正弦、および余弦を2軸それぞれ、次の[式14]のように表す。
Figure 0005459678
Figure 0005459678
このようにして計算された正弦、および余弦を用いて、[式8]、[式9]および[式10]により視軸ベクトルを計算する。この視軸ベクトルに対して、補正追尾誤差計算部175では、遅延に対応した目標位置ベクトル(eT_xr,eT_yr,eT_zr)は、次の[式15]のように表すことができる。
Figure 0005459678
このようにして計算されたジンバル角度検出値の取得に対応した目標位置ベクトル(eT_xr,eT_yr,eT_zr)を用いて、[式11]および[式12]に従い補正追尾誤差計算部175が補正追尾誤差を計算する。
以上の第2の実施形態によれば、遅延時間分の目標の移動と、視軸の移動とをそれぞれ考慮することで、目標とカメラの相対関係との相対関係で決まる追尾誤差を補正して計算することが可能となり、遅延の影響を低減した追尾誤差を得ることが可能となることから、目標の追尾特性を改善する効果がある。
(第3の実施形態)
本実施形態では、移動体画像追尾装置が行うカメラ追尾誤差検出不可能時の補正について説明する。
カメラの視野内に目標を捉えている場合には追尾誤差を得ることが可能であるが、追尾中に目標の移動速度が速くなる場合や移動方向が変わる場合、そしてジンバルが高速に回転している場合には、視野外になってしまい追尾誤差が検出不能になる可能性がある。追尾誤差が取得できない場合には、目標位置ベクトル計算部171での目標位置ベクトルの計算を行うことができなくなる。そこで、本実施形態にかかる補正追尾誤差計算部175では、追尾誤差検出不可能になる前に保持している目標位置ベクトル(eT_x0,eT_y0,eT_z0)、目標速度ベクトル(d_eT_x0,d_eT_y0,d_eT_z0)を用いて、追尾誤差検出不可能になる前のサンプル時からの補間サンプリング数l(エル)に応じた線形補間により、視野外時の予想目標位置ベクトル(eT_xr、eT_yr、eT_zr)は、次式(11)のように表すことができる。
Figure 0005459678
このようにして計算された追尾誤差検出不能時に対応した目標位置ベクトル(eT_xr、eT_yr、eT_zr)を用いて、[式11]および[式12]に従い補正追尾誤差を計算する。
以上の第3の実施形態によれば、目標が視野外に移動してしまった場合に対しても、検出不可能になる前の目標の状態量を用いて、目標の移動と、視軸の移動とをそれぞれ考慮することで、目標とカメラの相対関係との相対関係で決まる追尾誤差を補正して計算することが可能となり、疑似的な追尾誤差を得ることが可能になることから、目標の追尾を復帰させる可能性を高める効果がある。
以上に述べた少なくともひとつの実施形態の移動体画像追尾装置によれば、付加センサを追加することなく、カメラのサンプリングで計算した目標の位置・速度ベクトルに対して、サンプル点間のジンバル姿勢に応じた追尾誤差を補間することにより、カメラのサンプリングよりも高サンプリングの追尾誤差を得ることが可能となり、追尾特性を改善することができる。
また、目標の位置・速度ベクトル、ならびにジンバル角度・角速度情報を用いて、カメラ処理の遅延時間分だけ目標とジンバル姿勢の相対ベクトルを進めることで、遅延の影響を受けない追尾誤差を得ることが可能となり、追尾特性を改善することができる。
さらに、目標がカメラセンサの視野外になってしまい、追尾誤差検出の更新が停止してしまっている場合でも、最終更新時に得られている目標の位置・速度ベクトルと、現在のジンバル角度・角速度情報を用いて、追尾誤差の予測値を得ることが可能となり、目標の視野内への復帰の可能性を高めることができる。
またさらに、実施形態の移動体画像追尾装置は、TVカメラやカメラシーカー、そして自動測量器等を搭載したジンバル構造の移動体のカメラ追尾を行う機器において、2軸ジンバル構造での天頂付近でも追尾が可能であり、移動体に搭載される追尾カメラシステムに有効である。
なお、本実施形態の移動体画像追尾装置は、2軸ジンバル構造に限定されたものではなく2軸以上のジンバル構造であればよく、例えば3軸ジンバル構造でも同様の補正追尾誤差の計算が可能であることは容易に類推することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
111,121・・・ジンバル、112,122・・・駆動部、113,123・・・角速度センサ、114,124・・・角度センサ、140・・・カメラセンサ、150・・・角速度指令生成部、160・・・駆動制御部、161,162・・・サーボ制御部、171・・・目標位置ベクトル計算部、172…視軸ベクトル計算部、173・・・追尾誤差検出部、174・・・目標速度ベクトル計算部、175・・・補正追尾誤差計算部。

Claims (4)

  1. 垂直方向に向けられ回転自在に支持されるアジマス軸と、このアジマス軸と直交する水平方向に設けられ、回転自在に支持され水平方向の正面から天頂に向け回転が可能なエレベーション軸とにそれぞれ連結され、各々を個別に回転駆動する2つの駆動部と、
    前記エレベーション軸に支持され、移動体を撮影して画像データを取得するカメラセンサと、
    前記画像データから、前記移動体の視野中心からのずれ量である追尾誤差を追尾誤差検出値として検出する追尾誤差検出部と、
    アジマス軸回りの角度を検出する第1角度センサと、
    前記エレベーション軸回りの角度を検出する第2角度センタと、
    アジマス軸回りの角速度を検出する第1角速度センサと、
    前記エレベーション軸回りの角速度を検出する第2角速度センサと、
    前記追尾誤差検出値と2つの前記角度とを用いて、前記移動体の3次元の位置ベクトルと3次元の速度ベクトルを計算する第1計算部と、
    2つの前記角度から前記カメラセンサの3次元の視軸ベクトルを計算する第2計算部と、
    3次元の前記視軸ベクトルと3次元の前記位置ベクトルとの関係および3次元の前記速度ベクトルから、前記追尾誤差検出値が一定であるサンプリング期間よりも短い期間ごとに補正追尾誤差を計算する補正追尾誤差検出部と、
    前記補正追尾誤差を使用して前記移動体を追尾するように前記駆動部を駆動する角速度指令値を生成する生成部と、
    前記角速度指令値と2つの前記角速度による値との差がなくなるように前記駆動部を制御する制御部と、を具備することを特徴とする移動体画像追尾装置。
  2. 前記補正追尾誤差検出部は、前記移動体の3次元の位置ベクトルおよび3次元の速度ベクトルから前記画像データを取得するサンプリング間を補間した3次元の補間位置ベクトルを計算し、前記画像データを取得する間隔よりも高いサンプリングで3次元の該補間位置ベクトルと2つの前記角度から計算される3次元の視軸ベクトルとから補間追尾誤差を計算することを特徴とする請求項1に記載の移動体画像追尾装置。
  3. 前記補正追尾誤差検出部は、画像データを取得する際に遅延時間が生じる場合に、前記移動体の3次元の位置ベクトルおよび3次元の視軸ベクトルを該遅延時間分だけ補正することを特徴とする請求項1または請求項2に記載の移動体画像追尾装置。
  4. 前記補正追尾誤差検出部は、画像データを取得できないサンプリングが存在した場合には、それ以前のサンプリングで更新された3次元の位置ベクトルおよび3次元の速度ベクトルと、2つの前記角度から計算される3次元の視軸ベクトルとから補間追尾誤差を計算することを特徴とする請求項1から請求項3のいずれか1項に記載の移動体画像追尾装置。
JP2011032086A 2011-02-17 2011-02-17 移動体画像追尾装置 Active JP5459678B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011032086A JP5459678B2 (ja) 2011-02-17 2011-02-17 移動体画像追尾装置
US13/224,444 US20120212622A1 (en) 2011-02-17 2011-09-02 Moving object image tracking apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011032086A JP5459678B2 (ja) 2011-02-17 2011-02-17 移動体画像追尾装置

Publications (2)

Publication Number Publication Date
JP2012175157A JP2012175157A (ja) 2012-09-10
JP5459678B2 true JP5459678B2 (ja) 2014-04-02

Family

ID=46652413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011032086A Active JP5459678B2 (ja) 2011-02-17 2011-02-17 移動体画像追尾装置

Country Status (2)

Country Link
US (1) US20120212622A1 (ja)
JP (1) JP5459678B2 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5665677B2 (ja) 2011-07-12 2015-02-04 株式会社東芝 追尾装置
JP5766641B2 (ja) 2012-03-22 2015-08-19 株式会社東芝 追尾装置
JP5998881B2 (ja) * 2012-11-29 2016-09-28 日本電気株式会社 追尾装置および追尾方法
US9473688B2 (en) * 2012-12-20 2016-10-18 Canon Kabushiki Kaisha Image pickup apparatus comprising a plurality of imaging sensors and image processing units
US9665204B2 (en) * 2013-10-04 2017-05-30 Microchip Technology Incorporated Continuous circle gesture detection for a sensor system
US9628688B2 (en) * 2014-09-25 2017-04-18 Sensormatic Electronics, LLC Security camera having a body orientation sensor and method of use
US9936133B2 (en) 2015-08-19 2018-04-03 Harris Corporation Gimbaled camera object tracking system
KR102410268B1 (ko) * 2015-11-20 2022-06-20 한국전자통신연구원 객체 추적 방법 및 그 방법을 수행하는 객체 추적 장치
KR101823774B1 (ko) * 2016-08-10 2018-01-31 국방과학연구소 동체 고정형 영상탐색기 기반의 적응 유도필터를 이용한 표적의 기하 정보 추정 방법
JP7049858B2 (ja) * 2018-02-27 2022-04-07 日本放送協会 動体追尾装置及びそのプログラム
FR3096771B1 (fr) * 2019-06-03 2021-07-02 Ixblue Systme de visée comprenant un dispositif de visée orientable par rapport á une embase, apte á mettre en oeuvre un procedé de calibrage sur site simple et rapide
CN113137964B (zh) * 2020-05-28 2024-03-19 西安天和防务技术股份有限公司 机载天文导航方法、装置和电子设备
CN112530267B (zh) * 2020-12-17 2022-11-08 河北工业大学 一种基于计算机视觉的机械臂智能示教方法及应用
CN114697534A (zh) * 2020-12-30 2022-07-01 超聚变数字技术有限公司 一种升降平台和升降平台的控制方法
CN113114939B (zh) * 2021-04-12 2022-07-12 南京博蓝奇智能科技有限公司 目标跟踪方法、系统及电子设备
CN114020004B (zh) * 2022-01-06 2022-03-11 普宙科技(深圳)有限公司 飞行器双轴跟踪云台解耦控制方法、系统、存储介质
CN114938429B (zh) * 2022-05-20 2023-10-24 重庆紫光华山智安科技有限公司 一种目标跟踪方法、系统、设备及计算机可读介质
KR102544345B1 (ko) * 2022-12-23 2023-06-16 한화시스템 주식회사 추적 장치 및 추적 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6677941B2 (en) * 2000-08-05 2004-01-13 American Gnc Corporation Three-dimensional relative positioning and tracking using LDRI
JP2002189519A (ja) * 2000-12-21 2002-07-05 Mitsubishi Heavy Ind Ltd 追跡システム、及び、追跡方法
US7289138B2 (en) * 2002-07-02 2007-10-30 Fuji Xerox Co., Ltd. Intersection detection in panoramic video
US20060005447A1 (en) * 2003-09-12 2006-01-12 Vitronics Inc. Processor aided firing of small arms
JP4982407B2 (ja) * 2008-02-22 2012-07-25 株式会社東芝 移動体画像追尾装置及び方法
GB0808081D0 (en) * 2008-05-02 2008-06-11 In2Games Ltd Bridging ultrasonic position with accelerometer/gyroscope inertial guidance
JP5010634B2 (ja) * 2009-03-17 2012-08-29 株式会社東芝 移動体画像追尾装置

Also Published As

Publication number Publication date
JP2012175157A (ja) 2012-09-10
US20120212622A1 (en) 2012-08-23

Similar Documents

Publication Publication Date Title
JP5459678B2 (ja) 移動体画像追尾装置
JP5010634B2 (ja) 移動体画像追尾装置
JP4810582B2 (ja) 移動体画像追尾装置および方法
JP4982407B2 (ja) 移動体画像追尾装置及び方法
JP2009115621A (ja) 移動体画像追尾装置
CN106814753B (zh) 一种目标位置矫正方法、装置及系统
JP5859300B2 (ja) 制御装置及び方法並びにプログラム
US20180075609A1 (en) Method of Estimating Relative Motion Using a Visual-Inertial Sensor
CN108413917B (zh) 非接触式三维测量系统、非接触式三维测量方法及测量装置
JP6349737B2 (ja) 移動体追尾装置及び、移動体追尾方法
US10401175B2 (en) Optical inertial measurement apparatus and method
JP2016517981A (ja) 基準方向に対する移動要素の角度偏差を推定する方法
JP2017524932A (ja) ビデオ支援着艦誘導システム及び方法
EP3166849B1 (en) System for locating the barycenter of at least one object orbiting in space and related process of physical and mechanical characterization of the identified object
JP2009260564A (ja) 移動体画像追尾装置
JP5748174B2 (ja) 移動体の相対姿勢計測方法と装置
Park et al. A novel line of sight control system for a robot vision tracking system, using vision feedback and motion-disturbance feedforward compensation
JP5998881B2 (ja) 追尾装置および追尾方法
CN115540854A (zh) 一种基于uwb辅助的主动定位方法、设备和介质
CN112578363B (zh) 激光雷达运动轨迹获取方法及装置、介质
Chen et al. A preliminary study on positioning of an underwater vehicle based on feature matching of Seafloor Images
CN113566828A (zh) 一种基于多传感器决策融合的抗冲击扫描匹配方法及系统
KR101900564B1 (ko) 표적 정보 획득 장치
CN113260831A (zh) 三维重建装置、三维重建系统、三维重建方法和三维重建程序
Shibata et al. Target distance measurement based on camera moving direction estimated with optical flow

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130909

TRDD Decision of grant or rejection written
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131205

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140107

R151 Written notification of patent or utility model registration

Ref document number: 5459678

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151