以下図面を参照して本発明の実施の形態について説明する。
図1は実施形態の弾の誘導システムの構成を示している。
同図1に示す観測手段Aはセミアクティブ弾1の目標地点5を観測し、観測データαを生成する。観測データ通信手段Bは観測データαを観測手段Aから発射指揮手段Cに送信する。発射指揮手段Cは、観測データαに基づいて、発射指令データγを生成する。発射指令データγには、発射指令と、目標地点の位置と、発射方法と、誘導照明計画が含まれる。誘導照明計画には、目標地点5に誘導照明9を開始する予定時刻が含まれる。
発射指令データ通信手段Dが発射指令データγを発射指揮手段Cから発射・記録手段Eに送信する。発射・記録手段Eは、発射指令データγに基づいて、発射地点2からセミアクティブ弾1を発射させ、発射記録データδを生成する。発射記録データδには、セミアクティブ弾1の発射時刻、発射方向、発射初速といった発射実績のデータ、発射指令データγが含まれる。
発射記録データ通信手段Fは発射記録データδを発射・記録手段Eから弾道予測手段Gに送信する。弾道予測手段Gは、発射記録データδに基づいて、弾道情報データκを生成する。弾道情報データκには、弾1が目標地点5の近傍4に到達する予測時刻が含まれる。弾道情報データ通信手段Hは弾道情報データκを弾道予測手段Gから誘導照明手段Jに送信する。
誘導照明手段Jは、弾道情報データκに基づいて、誘導照明9を目標地点5に照射する。すなわち予測時刻以降に、誘導照明9を目標地点5に照射する。
一方、セミアクティブ弾1には、撮像手段11と、誘導制御手段12とが搭載されている。撮像手段11は、目標地点5に照射される誘導照明9の照射点91を撮像する。誘導制御手段12は、撮像手段11の撮像結果に基づいて誘導照明9の照射点91つまり目標地点5に向けてセミアクティブ弾1の経路を制御する。
つぎに本明細書における用語について定義する。
・セミアクティブ弾1
セミアクティブ弾1とは、図4に示すように、発射地点2A、2Bから目標地点周辺3に向けて発射され、目標地点5の近傍4に接近した後に、弾1の外部に設けた誘導照明手段Jからレーザ光などの誘導照明9を目標地点5に照射し、この目標地点5で反射された光等を弾で捕らえることにより目標地点5に到達するように誘導制御する弾のことである。すなわち目標地点5の近傍4に到達するまでは弾1は最初に教示された目標地点5の位置のデータに基づいて自己の弾道を制御しつつ飛翔するか、もしくは制御なしに力学的な弾道を描いて飛翔するが、目標地点5の近傍4に到達した後は目標地点5の反射点を捕らえこれを教示点として自己の弾道を制御する。
セミアクティブ弾1には、低伸型の弾1Aと、落下型の弾1Bと、高角型の弾1Cとがある。低伸型の弾1Aは、地表の発射地点2Aから発射され発射地点2Aと目標地点5とを直線で結んだ経路もしくはこれは近い経路に沿って飛翔する弾のことであり、たとえばロケット、地対地ミサイル、直射砲弾などが該当する。
落下型の弾1Bは、空中の発射地点2Bから発射され、発射地点2Bよりも高度の低い目標地点5へ飛翔する弾のことであり、たとえば誘導爆弾、空対地ミサイルなどが該当する。
高角型の弾1Cは、地表の発射地点2Aから発射され発射地点2Aと目標地点5とを放物線で結んだ経路若しくはこれに近い経路に沿って飛翔する弾のことであり、たとえば高射角の曲射砲弾がこれに該当する。
・発射地点2
発射地点2には地表型の発射地点2Aと空中型の発射地点2Bとがある。
地表型の発射地点2Aは、地下を含む陸上に設置されるものと、海中を含む海上に設置されるものとの2種類に分類される。
空中型の発射地点2Bは、有人航空機に設置されるものと、無人航空機に設置されるものとの2種類に分類される。
ここで本明細書において、航空機とは、地球の重力に逆らう機械装置の働きによって機体を空中に持ち上げる工業製品と定義する。たとえば、固定翼に浮力を発生させる飛行機などの機械装置、回転翼に浮力を発生させるヘリコプタなどの機械装置、軽い機体と周囲の空気の比重差で浮力を発生させる気球や飛行船などの機械装置、重力と逆方向に加速度を与えて空中に放出される有人ロケットや無人の弾などである。
無人航空機は、たとえばUAV、空中で子弾を放出する弾などがある。
UAVとは、無人飛行機のうち回収して再利用可能なものであり、弾と区別される。UAVは、たとえばリモコン飛行機、自律飛行ヘリコプタ、タイマで離陸と着陸がプログラムされた気球などである。なお巡航ミサイルは無人飛行機に含まれるが、回収して再利用できない点でUAVではなく弾に分類される。
・目標地点周辺3、目標地点近傍4、目標地点5
目標地点5とは、セミアクティブ弾1を命中させることを意図する特定の地点であり、幾何的には点で表現される。
目標地点周辺3とは、セミアクティブ弾1がそれて目標地点5に命中できなかった場合に被害を及ぼす可能性のある地域である。幾何的には目標地点5を含んだ平面または立体で表現される。
目標地点5の近傍4は、目標地点5に照射された誘導照明9を、セミアクティブ弾1から観察することが可能な飛翔予定経路上の地域であり、幾何的には飛翔予定経路の線を含んだ線、平面または立体で表現される。
・セミアクティブ弾1の誘導制御手段12
セミアクティブ弾1の誘導制御手段12は、センサとアクチュエータと制御装置を用いて、目標地点5に命中するように弾の飛翔経路を制御する。
セミアクティブ弾1に搭載されるアクチュータとしては以下のようなものがある。
・進行方向に対して直角な方向の運動モーメントを変化させるアクチュエータ
たとえば固定翼の角度を調整するアクチュエータ、サイドスラスタの噴射を調整するアクチュエータがこれに該当する。
・進行方向の運動モーメントを変化させるアクチュエータ
たとえば推進用エンジンの推力を調整するアクチュエータ、液体燃料ロケットの推力を調整するアクチュエータ、固体ロケットの点火時期を調整するアクチュエータ、空気力学的な抵抗を調整するアクチュエータがこれに該当する。
・誘導照明9、誘導照明手段J
誘導照明9とは、セミアクティブ弾1とは別に設置した誘導照明手段Jから目標地点5に向けて放射されるエネルギーのことであり、特に目標地点5で放射されたエネルギーが反射または散乱することでそのエネルギーをセミアクティブ弾1側で観測可能であって、目標地点5に向けてセミアクティブ弾1を誘導制御するための目標地点5をセミアクティブ弾1に知らしめる機能を発揮するものをいう。
誘導照明9は、光、熱、電波を含む。ここで光は、たとえばレーザ、サーチライト、照明弾などである。また熱は、たとえばセミアクティブ弾1の弾着に先だって目標地点5に命中させた弾によって発生される高温高熱である。また電波は、たとえばマイクロ波やミリ波のように指向性と直進性に優れ、電波の進路上にある障害物に衝突して反射や散乱する性質のある短い波長の電波であり、アンテナ、導波管あるいは電波の反射や屈折を利用した指向性制御手段によって放射することができる。
誘導照明9の大きさ、形状は、セミアクティブ弾1を誘導制御する方法に応じて選択される。誘導照明9は、幾何的には、図5に示すように点照明、線照明、面照明、立体照明の4種類がある。
点照明は、図5(a)に示すように、目標地点5そのものに照射される誘導照明のことであり、たとえば公知技術であるレーザ・デジグネータ(Designator)が用いられ目標地点5に向けて細いレーザ光を照射することで得られる。
線照明は、図5(b)に示すように、目標地点5を含む線分上に照射される誘導照明9のことである。
面照明は、図5(c)に示すように、目標地点5を含む一定範囲に照射される誘導照明のことである。
立体照明は、図5(d)に示すように、高速で移動する移動体を含むように立体的に照射される誘導照明のことである。たとえば空中を高速で飛行する無人航空機が目標地点5であれば、点照明では正確に目標地点5に照射し続けるのが技術的に困難であるため無人航空機の飛翔経路に沿った広い領域を太いレーザ光束で照射し、目標地点5で反射ないしは散乱するレーザ光によってセミアクティブ弾1に目標地点5を知らしめる。
図6は各実施例1〜5における発射地点2の種類、セミアクティブ弾1の種類、観測手段Aが搭載される移動体の種類、発射・記録手段Eが搭載される移動体の種類、誘導照明手段Jが搭載される移動体の種類を表にて示している。
また図31は各実施例1〜5における観測データα、発射指令データγ、発射記録データδ、弾道情報データκの内容を表にて示している。
以下各実施例について説明する。
・実施例1
実施例1に用いられる移動体である有人航空機90と目標地点5との位置関係は図7に示され、昼間の演習に好適な実施例である。この実施例1では、移動体として1機の有人飛行機90が用いられ、非旋転つまり自転しない低伸型のセミアクティブ弾1が用いられる場合を想定する。
実施例1の各手段A〜H、Jとこれら各手段が搭載される移動体との関係は図12に示される。同図12に示すように、観測手段A、観測データ通信手段B、発射指揮手段C、発射指令データ通信手段D、発射・記録手段E、発射記録データ通信手段F、弾道予測手段G、弾道情報データ通信手段H、誘導照明手段Jのすべての手段は、1機の有人航空機90に搭載される。
有人航空機90には、自己の位置を検出するGPSなどの自己位置センサ91と、自己の位置から目標地点5までの距離rを測距するレーザ測距装置92と、自己の位置からみた目標地点5の方位角を検出するINSなどの方位角度センサ93が搭載されている。
有人航空機90が発射地点2に位置したとき発射地点2から目標地点5までの距離は例えば10km程度であるものとする。
・観測手段Aで行われる処理
図13に示すように有人航空機90が発射地点2に位置されると、自己位置センサ91では、自己の有人航空機90の位置つまり発射地点2の位置が地球上のグローバル座標位置P2(X2,Y2,Z2)として検出される。つぎにレーザ測距装置92の照準を目標地点5に合わせることにより自己の有人航空機90から目標地点5までの距離rが測距される。方位角度センサ93はレーザ測距装置92の動きに連動しており、レーザ測距装置92の照準を目標地点5に合わせることによって自己の有人航空機90からみた目標地点5の方位角が検出される。
レーザ測距装置92で測距された距離rと方位角度センサ93で検出された方位角とに基づいて発射地点2を原点とする極座標における目標地点5の位置が演算される。この目標地点5の極座標位置は、方位角度センサ93で検出された方位角と自己位置センサ91で検出される有人航空機90のグローバル座標位置P2とを用いて地球上のグローバル座標位置P5(X5,Y5,Z5)に変換される。
こうして計測された目標地点5の座標位置P5は観測データαに含まれる(図31参照)。観測データαは観測データ通信手段Bによって観測手段Aから発射指揮手段Cに送信される。
・発射指揮手段Cで行われる処理
発射指揮手段Cで観測データαを受け取ると、まず安全装置が解除され、発射指令スイッチ若しくはボタンが押される等して発射指令が生成される。これにより観測データαに含まれる目標地点5の座標位置P5が読み取られ、この目標地点5の座標位置P5に基づいて発射指令データγが生成される。発射指令データγには、上記発射指令、目標地点5の座標位置P5、発射地点2の座標位置P2、発射地点2と目標地点5とを結ぶ弾道予定経路上の複数の通過地点の3次元座標位置、誘導照明計画が含まれる。ここで誘導照明計画には、セミアクティブ弾1と誘導照明9との組合せを識別する後述する識別コード、誘導照明9を開始する開始予定時刻、誘導照明9を終了する終了予定時刻、これら開始予定時刻、終了予定時刻の誤差時間が含まれる(図31参照)。発射指令データγは、発射指令データ通信手段Dによって発射指揮手段Cから発射・記録手段Eに送信される。
・発射・記録手段Eで行われる処理
発射・記録手段Eで発射指令データγを受け取ると、セミアクティブ弾1が発射される直前に、発射指令データγがセミアクティブ弾1にプログラムされる。これによりセミアクティブ弾1が向かうべき目標地点5の座標位置P5等がセミアクティブ弾1に教示される。そして図14に示すように発射指令データγに含まれる発射指令に基づきセミアクティブ弾1が発射地点2から発射される。セミアクティブ弾1が発射されると、発射実績つまり発射時刻、発射方向、発射初速が記録される(図31参照)。
セミアクティブ弾1には、自己位置センサ91が搭載されている。セミアクティブ弾1は自己位置センサ91で自己の位置を検出し自己の検出位置と、教示された弾道上の通過地点の位置とのずれがないように誘導制御手段12によって誘導制御しながら弾道予定経路に沿って飛行する。ただしこの誘導制御は、目標地点近傍4に進入するまでである。目標地点近傍4に進入してからは撮像した画像に基づく誘導制御が行われる。弾道予定経路はたとえば山21を超えて目標地点5に到達する経路である(図14参照)。
セミアクティブ弾1の発射時には、有人航空機90から火炎が発せられる。この火炎が敵に発見されると有人航空機90の位置を敵に知られ敵からの攻撃に晒されるおそれがある。そこで有人航空機90は発射地点2でセミアクティブ弾1を発射し終えると、敵からの攻撃に晒される危険のない別の地点へと退避する。
セミアクティブ弾1は、弾1に搭載された自己位置センサ91の検出結果に基づき飛行するが、自己位置センサ91で計測誤差が生じるため弾道予定経路に対して位置誤差を生じて飛行することがある。そこで目標地点近傍4は、この位置誤差を考慮して最悪の位置誤差(たとえば100m)が生じたとしてもセミアクティブ弾1がその目標地点近傍4には入ることができる大きさに設定されているものとする。
発射実績に発射指令データγを加えたデータは、発射記録データδとして、発射記録データ通信手段Fによって発射・記録手段Eから弾道予測手段Gに送信される。
・弾道予測手段Gで行われる処理
弾道予測手段Gで発射記録データδを受け取ると、発射地点2の座標位置P2、弾道予定経路上の座標位置(目標地点近傍4の座標位置)、 発射実績(発射時刻、発射方向、発射初速)に基づいて、セミアクティブ弾1が目標地点近傍4に進入する時刻つまり誘導照明9を開始する時刻(開始予測時刻)が精密に算出される。同様にして誘導照明9を終了する時刻(終了予測時刻)が精密に算出される。またこれら開始予測時刻、終了予測時刻の誤差時間が算出される(図31参照)。これら開始予測時刻、終了予測時刻、誤差時間に発射記録データδを加えたデータは弾道情報データκとして、弾道情報データ通信手段Hによって弾道予測手段Gから弾道照明手段Jに送信される。
・誘導照明手段Jで行われる処理
セミアクティブ弾1には、発射直前に、発射指令データγがプログラムされており既に誘導照明9の開始予定時刻が教示されている。そこでセミアクティブ弾1は、教示された開始予定時刻に合わせて、誘導制御手段12は、後述する目標地点5の周囲の画像30に基づく誘導制御を行う準備に入っている。具体的には、撮像手段11で画像30を撮像する準備に入っている。撮像手段11による撮像は教示された開始予定時刻に合わせて行われ終了予定時刻に合わせて終了する。
誘導照明手段Jで弾道情報データκを受け取ると、図15に示すように、この弾道情報データκに含まれる誘導照明9の開始予測時刻のデータに基づいて、開始予測時刻になった時点、つまりセミアクティブ弾1が目標地点近傍4に進入するタイミングで、目標地点5に向けて、識別コードに対応した誘導照明9が照射される。誘導照明手段Jとしては、大出力のNd:YAGレーザを出射するレーザ装置が用いられる。誘導照明9を照射する時点で有人航空機90は、目標地点5から、たとえば1km程度近接した場所まで移動しているものとする。
誘導照明9は終了予測時刻になった時点で終了する。誘導照明9を照射し終えた有人航空機90は、図16に示すように、目標地点5に近接している場所から敵からの攻撃に晒される危険のない別の地点へと退避する。これは誘導照明9が敵に発見されると有人航空機90の位置を敵に知られ敵からの攻撃に晒されるおそれがあるからである。
一方、セミアクティブ弾1に搭載された撮像手段11は、昼間であるため太陽光(可視光)のみで目標地点5とともに目標地点5の周囲の地形などの背景の画像30を撮像することができる。誘導制御手段12は、画像30に基づいて後述するように目標地点5に到達するようにセミアクティブ弾1を誘導制御する。
・撮像手段11で行われる処理、誘導制御手段12で行われる制御内容
実施例1では図18に示すように撮像手段11として光学センサ、たとえば近赤外CCDカメラ11が使用される。このCCDカメラ11では、可視光と近赤外線、特に誘導照明9のNd:YAGレーザの波長である1.064μmを撮像することができる。CCDカメラ11は、たとえば解像度が水平方向に280TV本、垂直方向に350TV本、シャッタ速度が最短1/1000秒、フレームレータが1秒間あたり30フレームの通常のテレビ画像を撮影することができる仕様のものが用いられる。CCDカメラ11は通常のテレビ画像を撮影できるため、CCDカメラ11の出力を処理する回路は、通常のNTSC方式等のテレビモニタの映像を処理可能な公知の画像処理回路を利用することができる。
実施例1では、有人航空機90が1機で目標地点5が主として1つの場合を想定しているが、有人航空機90が複数機存在し、各有人航空機90からそれぞれセミアクティブ弾1を、それぞれ異なる目標地点5(目標地点5が重複してもよい)に向かって誘導させるには、誘導照明9に識別コードを付与して各セミアクティブ弾1に自己が向かうべき目標地点5を認識させる必要がある。
図17は識別コードを付与する方法を説明する図である。図17の横軸は時間であり、図17(a)は撮像手段11で行われる撮像処理を、図17(b)は誘導照明手段Jで行われる誘導照明9の照射処理をそれぞれ示している。
同図17に示すように、まずセミアクティブ弾1に内蔵する時計(撮像手段11に内蔵する時計)と誘導照明手段Jに内蔵する時計の時刻が1/1000秒単位で合わせられる。そして単位時間1秒が30等分され、時刻(毎時:毎分:毎秒)+0.000秒から始まるTf時間=1/30秒ごとに第1フレーム、第2フレーム、第3フレーム、第4フレーム…第30フレームが付与され1秒が30フレームの画像に分割される。
各フレームはさらに撮像遅れ時間Tdと撮像タイミングと画像抽出タイミングに分割される。各フレームで撮像遅れ時間Tdだけ遅れて撮像タイミングで撮像が行われつぎの画像抽出タイミングで画像30を抽出する処理が実行される。
一方誘導照明手段Jでは、各フレームに同期して誘導照明9が照射される。この場合、各フレームの撮像遅れ時間Tdと撮像タイミングに同期してこれら撮像遅れ時間Tdと撮像タイミングとを合計した誘導照明時間T1分の誘導照明タイミングにて誘導照明9が照射される。撮像遅れ時間Tdは、1/1000秒の数倍の時間誤差が生じたとしても、撮像タイミングが誘導照明タイミング(誘導照明時間T1)の中に確実に入り誘導照明9を必ず撮像できるような時間に設定される。
このように誘導照明9は、1フレームのうちの最初の期間T1だけ照射される。つまり1/30秒よりも短い極めて短い時間T1だけ誘導照明9が行われる。
各セミアクティブ弾1、1′(以下異なるセミアクティブ弾を区別するためにダッシュを付与する)には、特定のフレームまたは特定のフレームの組合せが識別コードとして対応づけられている。たとえばセミアクティブ弾1には第1フレームが対応づけられており、他のセミアクティブ弾1′には第2フレームが対応づけられている。
そこで誘導照明手段Jは、識別コードに対応するフレームに同期して誘導照明9、9′を目標地点5、5′に向けて照射する。たとえばセミアクティブ弾1に対応する目標地点5には、第1フレームに同期して誘導照明9が照射される。またセミアクティブ弾1′に対応する目標地点5′には、第2フレームに同期して誘導照明9′が照射される。
各セミアクティブ弾1、1′の誘導制御手段12、12′は、自己の識別コードに対応するフレームで撮像された画像30内の目標地点5、5′を自己の目標地点とみなして、当該目標地点に到達するように弾1の経路を誘導制御する。たとえばセミアクティブ弾1には、識別コードとして第1フレームが割り当てられているので、第1フレームで撮像された画像30内の誘導照明9で示される目標地点5を自己の目標地点とみなし、この目標地点5に到達するようにセミアクティブ弾1の経路が誘導制御される。またセミアクティブ弾1′には、識別コードとして第2フレームが割り当てられているので、第2フレームで撮像された画像30内の誘導照明9′で示される目標地点5′を自己の目標地点とみなし、この目標地点5′に到達するようにセミアクティブ弾1′の経路が誘導制御される。
このように各セミアクティブ弾1、1′に、複数時刻の特定のフレーム(セミアクティブ弾1に各時刻の第1フレーム、セミアクティブ弾1′に各時刻の第2フレーム)を割当て識別コードとして付与する場合を想定して説明したが(識別コード付与例1)、識別コードを付与する方法はつぎのようにしてもよい。
(識別コード付与例2)各セミアクティブ弾1、1′に、特定時刻の特定のフレームを割り当てたものを識別コードとして付与する。
たとえばセミアクティブ弾1に、最初の時刻の第1フレームを割り当て、セミアクティブ弾1′に、最初の時刻の第2フレームを割当てたものを識別コードとして付与する。
(識別コード付与例3)各セミアクティブ弾1、1′に、複数時刻の特定のフレームの組合せを割り当てたものを識別コードとして付与する。
たとえばセミアクティブ弾1に、各時刻の第1フレームと第2フレームを割り当て、セミアクティブ弾1′に、各時刻の第3フレームと第4フレームを割当てたものを識別コードとして付与する。
(識別コード付与例4)各セミアクティブ弾1、1′に、特定時刻の特定のフレームの組合せを割り当てたものを識別コードとして付与する。
たとえばセミアクティブ弾1に、最初の時刻の第1フレームと第2フレームを割り当て、セミアクティブ弾1′に、最初の時刻の第3フレームと第4フレームを割当てたものを識別コードとして付与する。
このように複数のセミアクティブ弾1、1′…を誘導制御するに際して、フレームに対応する極めて短い時間(誘導照明時間T1)だけ誘導照明9を照射すれば、各セミアクティブ弾1、1′…において自己が向かうべき目標地点5、5′…を認識することができる。すなわち、セミアクティブ弾は、組み込まれたディジタル計算機によって制御されるものであるから、反射光(ないしは散乱光)の検出を連続的に行うものではなく、一定のサンプリング間隔で撮像手段11(CCDセンサ)のセンサ信号を入力し、誘導制御手段12に出力する動作を繰り返す。このためセンサ信号を読み取る瞬間だけ目標地点に誘導照明が照射されていればよいからである。このため、従来のように一定の長さのレーザパルス光のビット列を目標地点に照射する必要がなくなり、レーザ光の照射時間を短縮することができる。この結果、誘導照明手段Jを搭載した有人航空機90が敵に知られ、敵からの攻撃に晒されるという事態が回避される。
なお1機の有人航空機90から1つの目標地点5に向けて1つのセミアクティブ弾1を誘導させる場合には、上述した識別コードは特に必要としない。この場合には、つぎの誘導照明照射例1、2、3、4が適用される。
(誘導照明照射例1)
上記識別コード付与例1を適用して、各時刻の特定のフレーム(たとえば第1フレーム)ごとに誘導照明9が繰り返し照射される。
(誘導照明照射例2)
上記識別コード付与例2を適用して、開始予測時刻の時点、つまりセミアクティブ弾1が目標地点近傍4に進入した時点の最初の時刻(1秒間)内の特定のフレーム(たとえば第1フレーム)のみに同期して誘導照明9が照射される。
(誘導照明照射例3)
上記識別コード付与例3を適用して、各時刻の特定の複数フレーム(たとえば第1フレームと第2フレーム)ごとに誘導照明が繰り返し照射される。
(誘導照明照射例4)
上記識別コード付与例4を適用して、特定の時刻の特定の複数フレーム(たとえば最初の時刻の第1フレームと第2フレーム)のみに誘導照明9が照射される。
上記識別コード付与例3(各セミアクティブ弾1、1′に、複数時刻の特定のフレームの組合せを割り当てたものを識別コードとして付与する例)について、図32を併せ参照して説明する。
この図32に示す実施例では、複数のセミアクティブ弾1、1′の各撮像手段の撮像タイミングに同期するように、30Hzのフレーム同期信号が生成される。
複数のセミアクティブ弾1、1′の撮像手段11では、フレーム同期信号に同期して、つまり1フレーム1/30秒(=33ミリ秒)毎に、撮像が行われる。撮像は、1フレームの最初の短い時間、たとえば3ミリ秒の時間で行われる。
セミアクティブ弾1には、第1フレーム、第2フレーム、第3フレームが識別コードとして対応付けられている。一方、他のセミアクティブ弾1′には、第4フレーム、第5フレーム、第6フレームが識別コードとして対応付けられている。
そこで、誘導照明手段Jは、フレーム同期信号に同期させた誘導照明タイミングで、識別コードとして与えられたフレームのみについて、誘導照明9、9′を目標地点5、5′に向けて照射する。誘導照明は、1フレームの最初の短い時間、たとえば1ミリ秒の時間で行われる。このため、撮像タイミングが誘導照明タイミングの中に確実に入り誘導照明9、9′を必ず撮像することができる。
セミアクティブ弾1に対応する目標地点5には、フレーム同期信号の最初の第1フレーム、第2フレーム、第3フレームに同期して誘導照明9が照射される。また、他のセミアクティブ弾1′に対応する目標地点5′には、フレーム同期信号の第4フレーム、第5フレーム、第6フレームに同期して誘導照明9が照射される。
セミアクティブ弾1には、予め識別コード(第1フレーム、第2フレーム、第3フレーム)が教示されているため、自己の識別コードに対応するフレーム(第1フレーム、第2フレーム、第3フレーム)で撮像された画像30(第1フレーム、第2フレーム、第3フレームの画像)内の目標地点5を自己の目標地点と認識することができ、この目標地点5に到達するように弾1の経路が誘導制御される。また、同様に、他のセミアクティブ弾1′には、予め識別コード(第4フレーム、第5フレーム、第6フレーム)が教示されているため、自己の識別コードに対応するフレーム(第4フレーム、第5フレーム、第6フレーム)で撮像された画像30(第4フレーム、第5フレーム、第6フレームの画像)内の目標地点5′を自己の目標地点と認識することができ、この目標地点5′に到達するように弾1′の経路が誘導制御される。
この図32に示す実施例では、3フレームの時間(33ミリ秒×3フレーム=100ミリ秒)をかけて、1つのセミアクティブ弾に、その目標地点が指示されることになる。
図32に示す誘導照明、撮像は、セミアクティブ弾1、1′の誘導を開始してから各目標地点5、5′に到達するまで繰り返し行われる。このため、1つのセミアクティブ弾(たとえばセミアクティブ弾1)が誘導照明9を検出する間隔は、6フレーム(=200ミリ秒)となる。ここで、誘導照明9を検出する間隔が長くなると、誘導制御のムダ時間が大きく、誘導精度が低下する。このため、1秒あたりの画像フレーム数を極力大きく設定(たとえば30フレームよりも十分大きな値に設定)することが望ましい。
図32に示す実施例では、30Hzのフレーム同期信号を生成して、このフレーム同期信号に同期させて誘導照明、撮像を行うようにしているが、図33に示すように、それよりも短い周波数(300Hz)の誘導照明用同期信号を生成して、この誘導照明用同期信号に同期させて誘導照明、撮像を行うようにしてもよい。
この図33に示す実施例では、誘導照明タイミングに応じた間隔(たとえば3、3ミリ秒)で、誘導照明用の同期信号(周波数300Hz)が生成される。
各セミアクティブ弾1、1′にはそれぞれ、誘導照明用同期信号の異なる位相が識別コードとして対応づけられている。
すなわち、セミアクティブ弾1には、誘導照明用同期信号の最初の0ミリ秒という位相が識別コードとして対応付けられており、この誘導照明用同期信号の最初の0ミリ秒から第1フレームが開始されるように設定されている。他のセミアクティブ弾1′には、誘導照明用同期信号の最初の3.3×n(nは整数)ミリ秒という位相が識別コードとして対応付けられており、この誘導照明用同期信号の最初の3.3×n(nは整数)ミリ秒から第1フレームが開始されるように設定されている。
また、誘導照明手段Jには、誘導照明タイミング(3.3ミリ秒)が識別コードとして対応付けられている。
セミアクティブ弾1は、自己の識別コード(誘導照明用同期信号の最初の0ミリ秒)に対応する位相で誘導照明用同期信号に同期して、上記誘導照明タイミング(3.3ミリ秒)内の撮像タイミング(たとえば1ミリ秒)で、第1フレームの画像を撮像し、第1フレーム(33ミリ秒)終了後、第2フレーム、第3フレームの画像を撮像する。
他のセミアクティブ弾1′は、自己の識別コード(誘導照明用同期信号の最初の3.3×nミリ秒)に対応する位相で誘導照明用同期信号に同期して、上記誘導照明タイミング(3.3ミリ秒)内の撮像タイミング(たとえば1ミリ秒)で、第1フレームの画像を撮像し、第1フレーム(33ミリ秒)終了後、第2フレーム、第3フレームの画像を撮像する。セミアクティブ弾1、1′の撮像手段11では、1フレーム1/30秒(=33ミリ秒)毎に、撮像が行われる。撮像は、1フレームの最初の短い時間、たとえば1ミリ秒の時間で行われる。
誘導照明手段Jは、各セミアクティブ弾1、1′の識別コードに対応する位相で誘導照明用同期信号に同期して、上記誘導照明タイミング(3.3ミリ秒)で、誘導照明9、9′を目標地点に照射する。誘導照明は、1フレームの最初の短い時間、3.3ミリ秒の時間で行われる。このため、撮像タイミングが誘導照明タイミングの中に確実に入り誘導照明9、9′を必ず撮像することができる。
セミアクティブ弾1は、誘導照明用同期信号の最初の0ミリ秒より開始される第1フレーム、第2フレーム、第3フレームで撮像された画像30内の目標地点5を自己の目標地点と認識することができ、この目標地点5に到達するように弾1の経路が誘導制御される。また、同様に、他のセミアクティブ弾1′には、セミアクティブ弾1の位相と異なる最初の3.3×nミリ秒より開始される第1フレーム、第2フレーム、第3フレームで撮像された画像30内の目標地点5を自己の目標地点と認識することができ、この目標地点5に到達するように弾1の経路が誘導制御される。
図32に示す実施例では、3フレームの時間(33ミリ秒×3フレーム=100ミリ秒)の間に、1つのセミアクティブ弾に対してしか目標地点を指示することができなかったが、この図33に示す実施例では、3フレームの時間(33ミリ秒×3フレーム=100ミリ秒)の間に、図32に示す実施例よりも多い10個(33ミリ秒÷3.3ミリ秒=10)のセミアクティブ弾に、それぞれの目標地点を指示することができる。
図32に示す実施例では、30Hzのフレーム同期信号を生成して、このフレーム同期信号に同期させて誘導照明、撮像を行うようにしているが、図34に示すように、それよりも短い周波数(1000Hz)の撮像用同期信号を生成して、この撮像用同期信号に同期させて誘導照明、撮像を行うようにしてもよい。
この図34に示す実施例では、撮像タイミングに応じた間隔(たとえば1ミリ秒)で、撮像用の同期信号(周波数1000Hz)が生成される。
各セミアクティブ弾1、1′にはそれぞれ、撮像用同期信号の異なる位相が識別コードとして対応づけられている。
すなわち、セミアクティブ弾1には、撮像用同期信号の最初の0ミリ秒という位相が識別コードとして対応付けられており、この撮像用同期信号の最初の0ミリ秒から第1フレームが開始されるように設定されている。他のセミアクティブ弾1′には、撮像用同期信号の最初のn(nは整数)ミリ秒という位相が識別コードとして対応付けられており、この撮像用同期信号の最初のn(nは整数)ミリ秒から第1フレームが開始されるように設定されている。
セミアクティブ弾1は、自己の識別コード(撮像用同期信号の最初の0ミリ秒)に対応する位相で撮像用同期信号に同期して、上記撮像タイミング(1ミリ秒)で、第1フレームの画像を撮像し、第1フレーム(33ミリ秒)終了後、第2フレーム、第3フレームの画像を撮像する。
他のセミアクティブ弾1′は、自己の識別コード(撮像用同期信号の最初のnミリ秒)に対応する位相で撮像用同期信号に同期して、上記撮像タイミング(1ミリ秒)で、第1フレームの画像を撮像し、第1フレーム(33ミリ秒)終了後、第2フレーム、第3フレームの画像を撮像する。セミアクティブ弾1、1′の撮像手段11では、1フレーム1/30秒(=33ミリ秒)毎に、撮像が行われる。撮像は、1フレームの最初の短い時間(1ミリ秒)の時間で行われる。
誘導照明手段Jは、各セミアクティブ弾1、1′の識別コードに応じた位相で撮像用同期信号に同期して、上記撮像タイミング(1ミリ秒)を含む誘導照明タイミング(たとえば1ミリ秒)で、誘導照明9、9′を目標地点に照射する。誘導照明は、1フレームの最初の短い時間、1ミリ秒の時間で行われる。このため、誘導照明と撮像が正確に同期し、撮像タイミングと誘導照明タイミングとが正確に一致し、誘導照明9、9′を必ず撮像することができる。
セミアクティブ弾1は、撮像用同期信号の最初の0ミリ秒より開始される第1フレーム、第2フレーム、第3フレームで撮像された画像30内の目標地点5を自己の目標地点と認識することができ、この目標地点5に到達するように弾1の経路が誘導制御される。また、同様に、他のセミアクティブ弾1′には、セミアクティブ弾1の位相と異なる最初のnミリ秒より開始される第1フレーム、第2フレーム、第3フレームで撮像された画像30内の目標地点5を自己の目標地点と認識することができ、この目標地点5に到達するように弾1の経路が誘導制御される。
図32に示す実施例では、3フレームの時間(33ミリ秒×3フレーム=100ミリ秒)の間に、1つのセミアクティブ弾に対してしか目標地点を指示することができなかったが、この図34に示す実施例では、3フレームの時間(33ミリ秒×3フレーム=100ミリ秒)の間に、図32に示す実施例よりも多い33個(33ミリ秒÷1ミリ秒=33)のセミアクティブ弾に、それぞれの目標地点を指示することができる。更に図33に示す実施例よりも多くの目標地点を指示することができる。
上記図33、図34では、各セミアクティブ弾1、1′毎に、同期信号の異なる位相で誘導照明、撮像を行わせることで各セミアクティブ弾1、1′に固有の目標地点5、5′を教示するようにしているが、1つの目標地点5に向けて1つのセミアクティブ弾1を誘導させる場合にも、同期信号に同期させて誘導照明、撮像を行わせるようにしてもよい。
以上のように本実施例によれば、セミアクティブ弾1による撮像タイミングと誘導照明9つまりレーザ照射のタイミングを正確に同期させ、撮像していない時間はレーザ照射を停止させるようにしたので、レーザ光の単位時間当たりの照射時間を短くしレーザ光の出力を上げることができるようになる。このため、レーザ被爆による被害を最小限に抑制できるとともに、セミアクティブ弾の命中精度の低下を防ぐことができる。たとえば、撮像時間(撮像タイミング)が1ミリ秒で、撮像間隔(1フレームの時間)が33ミリ秒の場合、誘導照明は、連続して照射する場合の1/33の照射時間で済むので、安全性が飛躍的に向上する。
ところで、同期信号を用いて、セミアクティブ弾1による撮像タイミングと誘導照明9つまりレーザ照射のタイミングを正確に同期させるためには、セミアクティブ弾1に内蔵された時計と誘導照明手段Jに内蔵された時計が正確に同期していることが前提となる。両者が内蔵する時計のタイミングを正確に同期させる方法として、以下に掲げる手法が考えられる。
1)発射前の時計合わせ
セミアクティブ弾1が発射地点2から発射される前に、共通の標準電波信号(例えばGPSのタイミング信号やラジオ放送など)を用いて、内蔵した時計を正確に合わせる。誘導照明手段Jに内蔵した時計も同様に正確に合わせる。
2)発射直後の時計修正
セミアクティブ弾1が砲台から発射される場合には、発射した瞬間の加速度が過大であると、内蔵した時計の振動周波数が変化して時計が数ミリ秒ほど狂うことがある。そこで、セミアクティブ弾1の底部にレーザセンサを設け、砲台から発射した直後に、標準信号で変調したレーザをセミアクティブ弾1に向かって照射し、上記レーザセンサでレーザを検出し、検出結果に基づき内蔵した時計を修正することが考えられる。また、セミアクティブ弾1が飛翔している間に、共通の標準電波信号(例えばGPSのタイミング信号やラジオ放送など)を受信して、内蔵した時計を修正することも可能である。
3)誘導直前の時計修正
セミアクティブ弾1が飛翔して目標地点5の近傍4に到達する前に、誘導照明手段Jから目標地点5に向かって共通の同期信号を照射する。セミアクティブ弾1のセンサで同期信号を検出し、検出結果に基づき、時計を修正する。
4)誘導直前の時計設定
セミアクティブ弾1が飛翔して目標地点5の近傍4に到達する前に、図35に示すように、繰り返し周波数でコード化されたバースト信号を、誘導照明手段Jから目標地点5に向かって照射する。セミアクティブ弾1は、自己に設定された繰り返し周波数のコードに対応するバースト信号を検出し、その検出したバースト信号に時計を同期させる。
つぎに撮像された画像30に基づいて誘導制御手段12が行う誘導制御の内容について図19を参照して説明する。この場合、各時刻ごとに、画像30を撮像する必要があることから上記識別コード付与例1、3若しくは誘導照明照射例1、3が適用される。
図19(a)は目標地点近傍4に進入した第1地点、つぎの第2地点、つぎの第3地点、つぎの第4地点をセミアクティブ弾1が飛行する様子を示し、図18(b)は図19(a)に対応して第1地点、第2地点、第3地点、第4地点で撮像される第1画像30a、第2画像30b、第3画像30c、第4画像30dをそれぞれ示している。
セミアクティブ弾1の誘導制御手段12は、目標地点近傍4に進入するまでは、自己位置センサ91で自己の位置を検出し自己の検出位置と、教示された弾道上の通過地点の位置とのずれがないようにアクチュエータを動作させている。
セミアクティブ弾1が目標地点近傍4に進入した時点、つまり開始予測時刻になった第1地点で、画像処理による誘導制御に切り換えられる。
セミアクティブ弾1は開始予測時刻になると、撮像手段11を動作させて第1地点で第1画像30aを撮像する。このときCCD画像上には強い光の点(輝点)が誘導照明9として検出される。しかし実際には誘導照明9以外にも太陽光線が地上の物体に反射した強い光も検出される。誘導照明9は識別コードとして与えられたフレームでのみ照射されるので、識別コードで示されるフレーム以外で撮像された輝点は誘導照明9では太陽光等のノイズであると判断することができる。
そこで、たとえば第1フレーム、第3フレーム、第5フレームの組合せが識別コードであれば、第1地点でこれら第1フレーム、第3フレーム、第5フレームで輝点を第1画像30a上で検出すると、この輝点を点照明の誘導照明9で教示された第1画像30a上の目標地点5であると判断し、最初に撮像された第1画像30b内の目標地点5にXYカーソル40の原点41を合わせる。XYカーソル40は第1画像30aの水平方向にX軸を、第1画像30aの垂直方向にY軸をとったものである。これによりセミアクティブ弾1に目標地点5の位置が教示されることになる。第1画像30a上の位置は、地球上のグローバル座標位置として求められる。誘導制御手段12は、XYカーソル40の原点41で示される第1画像30a上の位置(目標地点5)に向けてセミアクティブ弾1が飛行するようにアクチュエータを動作させる。
以下誘導制御手段12では、図19(b)に示すように、順次撮像される第1画像30a、第2画像30b、第3画像30c、第4画像30dをパターンマッチングにより同定することにより各画像30a、30b、30c、30dにおける目標地点5の位置を特定し、当該特定された目標地点5の位置に到達するようにセミアクティブ弾1の経路を制御する。
すなわちセミアクティブ弾1が第1地点を通過して第2地点に達すると、第1画像30aの一部分が拡大された第2画像30bが撮像される。画像の拡大率は、セミアクティブ弾1の速度と目標地点5までの距離(弾着までに残された時間)から演算でき、セミアクティブ弾1の操舵に伴う画像の回転は、セミアクティブ弾1に内蔵した角速度センサから演算することができる。そこで第2画像30bとその前の時刻に撮像された第1画像30aとのパターンマッチングを行い、第2画像30bが第1画像30bのどの部分に該当するかどうかを同定する演算を実行する。この結果第1画像30aにおけるXYカーソル40の原点41の位置が第2画像30b内でどこに相当するかが定まり、第2画像30bでXYカーソル40の原点41をその位置に合わせる。
誘導制御手段12は、XYカーソル40の原点41で示される第2画像30b上の位置(目標地点5)に向けてセミアクティブ弾1が飛行するようにアクチュエータを動作させる。
以下同様にして第3画像30c、第4画像30dにおいてもXYカーソル40の原点位置がパターンマッチングにより決定され、XYカーソル40の原点41で示される第3画像30c、第4画像30d上の位置(目標地点5)に向けてセミアクティブ弾1が飛行するようにアクチュエータを動作させる。この結果、セミアクティブ弾1は目標地点5に高い精度で弾着する。
命中精度を高めるためには、目標地点近傍4に進入してから目標地点5に弾着するまで、誘導照明9を照射する頻度を高めて、目標地点5の画像30を撮像する頻度を高めればよい。しかし誘導照明9を連続的に照射するなどして照射する頻度を高めた場合には、敵に有人航空機90の存在を知られ攻撃に晒される危険のおそれがある。このため命中精度を一定レベル以上に確保できる程度に誘導照明9を断続的に繰り返し照射し画像30を断続的に撮像することが危険を回避する上で望ましい。
以上、上記識別コード付与例1、3若しくは誘導照明照射例1、3が適用される場合を想定し、各時刻ごとに(毎秒)、若しくは断続的な時刻ごとに、画像30を撮像する場合を想定したが、上記識別コード付与例2、4若しくは誘導照明照射例2、4を適用してもよい。
たとえば識別コード付与例2が適用される場合には、セミアクティブ弾1が第1地点に位置した時点で第1フレーム(セミアクティブ弾1の識別コード)に同期して目標地点5に誘導照明9が照射され、第1フレームの画像内の輝点がセミアクティブ弾1の目標地点5として教示され、以後第1フレーム画像上の輝点位置(目標地点5)に向けてセミアクティブ弾1が飛行するようにアクチュエータを動作させ、セミアクティブ弾1を目標地点に弾着させる。同様にセミアクティブ弾1′が第1地点に位置した時点で第2フレーム(セミアクティブ弾1′の識別コード)に同期して目標地点5′に誘導照明9′が照射され、第2フレームの画像内の輝点がセミアクティブ弾1′の目標地点5′として教示され、以後第2フレーム画像上の輝点位置(目標地点5′)に向けてセミアクティブ弾1′が飛行するようにアクチュエータを動作させ、セミアクティブ弾1′を目標地点に弾着させる。
このように誘導照明9を目標地点近傍4に到達した最初の時点(第1地点)でのみ照射することでセミアクティブ弾1を誘導制御すれば、有人航空機90の存在を敵に知られる危険は格段に回避される。
以上説明したように本実施例1によれば、目標地点5の位置を観測するとともに、少なくともセミアクティブ弾1が目標地点5の近傍4に到達する時刻を予測し、これら目標地点5の位置のデータと予測時刻のデータ(弾道情報データκ)を誘導照明手段Jに、通信手段を介して送信し、誘導照明手段Jは受け取った目標地点5の位置と予測時刻のデータに基づいて誘導照明9を正確な時期に目標地点に照射するようにしたので、従来のように、確実を期すために弾着のはるか前(たとえば10秒前)からエネルギーを照射する必要はなく、弾着の直前(たとえば3秒前)に、目標地点5に誘導照明9を照射できるようになる。
また実施例1によれば、図17に示すように、極めて短い撮像タイミングに合わせて短時間だけ誘導照明9を照射すれば後は画像30内の誘導照明9を追尾することでセミアクティブ弾1を誘導制御することができるので、従来のように、弾着するまで連続してエネルギーを長時間照射し続ける必要はなく、誘導照明9を照射している時間(誘導照明時間T1)は極めて短い時間で済む。
このようにセミアクティブ弾1が目標地点5の近傍4に到達した時刻以降という弾着の直前であって、しかも極めて短い時間だけ誘導照明9を照射するだけで、セミアクティブ弾1側で目標地点5を捕らえて誘導制御することが可能となったので、誘導照明9の出射源が敵に知られ難くなる。このため誘導照明手段Jを搭載した有人航空機90が、敵からの攻撃に晒されることが回避される。
更に本実施例1によれば、セミアクティブ弾1に、目標地点5の近傍4に到達する予定時刻(発射指令データγ)を教示するようにしたので、弾1としては、誘導照明9が照射される予測時刻に合わせて正確かつ最小の時間で撮像を行うことが可能となる。すなわち誘導照明9が照射されるはるか前から予め目標地点5を撮像し続ける必要はなく、図17に示すように誘導照明9が照射される誘導照明時間T1に合わせた撮像タイミングで撮像すればよいので、正確かつ最小の時間で撮像を行え、効率的な誘導制御が実現される。
また実施例1によれば、図17に示すように撮像タイミングに同期して誘導照明9を行うようにしたので、誘導照明9が照射される誘導照明時間T1は、撮像タイミングに応じた極めて短い時間で済む。誘導照明9を照射する時間が極めて短い時間で済むため、誘導照明手段Jを搭載した有人航空機90が敵に知られ、敵からの攻撃に晒されるという危険を回避できる。
また実施例1によれば、複数のセミアクティブ弾1、1′を誘導制御するに際して、フレームを識別コードとして利用するようにしたので、フレームに対応する極めて短い時間(誘導照明時間T1)だけ誘導照明9を照射するだけで各セミアクティブ弾1、1′に自己の目標地点を認識させることができる。すなわち従来のように一定の長さのレーザパルス光のビット列を目標地点に照射する必要がなくなり、レーザ光の照射時間を短縮することができる。このため誘導照明手段Jを搭載した有人航空機90が敵に知られ、敵からの攻撃に晒されるという事態が回避される。
また実施例1によれば、図19(b)に示すように、順次撮像される画像30a、30b、30c、30dをパターンマッチングにより同定することにより各画像30a、30b、30c、30dにおける目標地点5の位置を特定し、当該特定された目標地点5の位置に到達するようにセミアクティブ弾1の経路を制御するようにしたので、目標地点5を正確かつ確実に追尾できるようになり、誘導制御の精度が飛躍的に向上する。
なお第1実施例では、発射指揮手段Cで生成された予定時刻のデータ(発射指令データγ)をセミアクティブ弾1に教示して、目標地点近傍4に進入した時点以降に撮像手段11で目標地点5の画像を撮像できるようにするとともに、弾道予測手段Gで、発射記録手段Eで記録された発射実績(発射記録データδ)に基づき、セミアクティブ弾1が目標地点5の近傍4に到達する予測時刻(弾道情報データκ)を求め、これを誘導照明手段Jに送り、予測時刻以降に誘導照明9を照射できるようにしている。
しかし発射指揮手段Cで生成された予定時刻のデータをセミアクティブ弾1に教示するのみならず、誘導照明手段Jにも送り、この予定時刻のデータを誘導照明9を照射するタイミングを指示するデータとして使用してもよい。
このように構成すれば、発射記録手段Eで記録された発射実績に基づき、誘導照明開始予測時刻、終了予測時刻を正確に求める処理を行う必要がなくなり、装置の構成を簡易なものにすることができる。
実施例1では、図12に示すように本システムを構成するすべての手段A、C、E、G、Jを1つの移動体である1機の有人航空機90に搭載し、データ通信手段B、D、F、Hを同一移動体(有人航空機90)内に設ける場合を想定して説明したが、各手段A、C、E、G、Jを下記第2実施例〜第5実施例に示すように複数の移動体に分けて搭載し移動体同士を相互にデータの送受信が可能に通信手段B、D、F、Hによって接続してもよい。
以下、実施例2について説明する。
実施例2に用いられる移動体であるUAV101と、通信中継機(有人航空機)102と、ロケット搭載船舶103と目標地点5との位置関係および通信手段104、105は図8に示される。実施例2は昼間の演習に好適な実施例である。この実施例2では、海上にあるロケット搭載船舶103の発射地点2から、非旋転つまり自転しない低伸型のセミアクティブ弾1を発射し、空中にあるUAV101が目標地点5の観測と誘導照明を行い、同じく空中にある通信中継機102が海上のロケット搭載船舶103との間で通信手段105を介してデータの送受信を行うとともに空中のUAV101との間で通信手段104を介してデータの送受信を行う場合を想定する。また目標地点5は、海上、海中の移動体(船舶等)や地上の移動体(車両等)を想定しており、時間の経過に伴い目標地点5の位置が変化する。
実施例2の各手段A〜H、Jとこれら各手段が搭載される移動体との関係は図20に示される。同図20に示すように、観測手段A、発射指揮手段C、発射・記録手段E、弾道予測手段G、誘導照明手段Jのすべての手段は、ロケット搭載船舶103に搭載ないしは統制下にある。このうち観測手段Aの一部のセンサと、誘導照明手段Jの一部はUAV101に搭載されている。観測手段Aの一部、誘導照明手段Jの一部は通信中継機102に搭載ないしは統制下にある。
UAV101には、自己位置センサ91と、レーザ測距装置92と、方位角度センサ93と、テレビカメラ63(63a、63b)が搭載されている。テレビカメラ63は、図26に例示される電動雲台60に設けられており、遠隔地から無線によって撮影する方向とズーム倍率を操作することができる。テレビカメラ63は、可視光用のカメラ63a、暗視用又は赤外線用のカメラ63bからなり撮像対象に応じて適宜使い分けられる。なおレーザ測距装置92も電動雲台60に設けられており、テレビカメラ63の動きに連動してレーザ測距装置92の向きが変化する。電動雲台60には姿勢角度センサが設けられている。テレビカメラ63によって撮影された映像の中心点は、自己位置センサ91、レーザ測距装置92、方位角度センサ93の各検出値と、電動雲台60の姿勢角度センサの検出値とを用いて、地球上のグローバル座標位置として求められる。
またテレビカメラ63には姿勢安定装置が備えられており、遠隔操作によって撮影地点を変更する指令が与えられない限り機体の動揺や振動があったとしても撮影された映像の中心点を常に捕らえ続けることが可能である。
ロケット搭載船舶103には、UAV101のテレビカメラ63の映像をモニタするモニタカメラ106が搭載されている。UAV101のテレビカメラ63で撮影された映像は、通信手段104、通信中継機102、通信手段105を介してロケット搭載船舶103に送信され、モニタカメラ106の画面にモニタ画像として映し出される。またロケット搭載船舶103から指令が通信手段105、通信中継機102、通信手段104を介してUAV101に送信される。
UAV101から目標地点5までの距離は例えば2km程度であるものとする。
・観測手段Aで行われる処理
ロケット搭載船舶103が発射地点2に位置されると、モニタカメラ106の画面上のモニタ画像を観測しながら、UAV101のテレビカメラ63の画像の中心に目標地点5が捕らえられるように、撮影方向とズーム倍率を遠隔操作する指令を、通信手段105、通信中継機102、通信手段104を介してUAV101に送信するとともに、目標地点5を観測する指令を同様にしてUAV101に送信する。
この指令を受けてUAV101では、自己位置センサ91で、自己の機体の位置が地球上のグローバル座標位置Pu(Xu,Yu,Zu)として検出される。また撮影方向とズーム倍率が操作されテレビカメラ63の画像の中心に目標地点5が捕らえられる。テレビカメラ63の動きに連動してレーザ測距装置92の向きが変化し、レーザ測距装置92の照準が目標地点5に合わせられ自己のUAV101から目標地点5までの距離rが測距される。方位角度センサ93はレーザ測距装置92の動きに連動しており、レーザ測距装置92の照準を目標地点5に合わせることによって、地球上のグローバル座標系における機体の姿勢角Qu(θx,θy,θz)が検出される。また電動雲台60の姿勢角度センサによって自己の機体からみたローカル座標系における目標地点5の方位角R5(φx,φy,φz)が検出される。これら計測値から目標地点5の地球上のグローバル座標位置P5(X5,Y5,Z5)が算出される。
目標地点5の座標位置は、時間をおいて2回以上計測される。たとえば時刻t=T1、T2、T3において目標地点5の座標位置が逐次計測される。目標地点5は移動体であるため時間をおいて2回以上計測することにより目標地点5の移動方向と移動速度を計測することができる。また目標地点5の移動速度が一定ないしは微小である場合には、セミアクティブ弾1の弾着時刻における目標地点5の位置を予測することができる。
こうして逐次計測された目標地点5の座標位置P5は観測データαに含まれる(図31参照)。なお上記目標地点5の移動方向、移動速度、セミアクティブ弾1の弾着時刻における目標地点5の予測位置を観測データαに含めるようにしてもよい。観測データαは、観測手段AとしてのUAV101から、観測データ通信手段Bとしての通信手段104、通信中継機102、通信手段105を介して、発射指揮手段Cとしてのロケット搭載船舶103に送信される。
なおUAV101で搭載されたセンサの出力信号を、ロケット搭載船舶103に送信し、ロケット搭載船舶103で観測データαを生成してもよい。
・発射指揮手段Cで行われる処理
ロケット搭載船舶103の発射指揮手段Cで観測データαを受け取ると、まず安全装置が解除され、発射指令スイッチ若しくはボタンが押される等して発射指令が生成される。これにより観測データαに含まれる目標地点5の座標位置P5が読み取られ、この目標地点5の座標位置P5に基づいて発射指令データγが生成される。発射指令データγには、上記発射指令、目標地点5の座標位置P5、発射地点2の座標位置P2、発射地点2と目標地点5とを結ぶ弾道予定経路上の複数の通過地点の3次元座標位置、誘導照明計画が含まれる。ここで誘導照明計画には、セミアクティブ弾1と誘導照明9との組合せを識別する識別コード、誘導照明9を開始する開始予定時刻、誘導照明9を終了する終了予定時刻、これら開始予定時刻、終了予定時刻の誤差時間が含まれる(図31参照)。発射指令データγは、ロケット搭載船舶103内の発射指令データ通信手段Dによって発射指揮手段Cから発射・記録手段Eに送信される。
・発射・記録手段Eで行われる処理
ロケット搭載船舶103の発射・記録手段Eで発射指令データγを受け取ると、セミアクティブ弾1が発射される直前に、発射指令データγがセミアクティブ弾1にプログラムされる。これによりセミアクティブ弾1が向かうべき目標地点5の座標位置P5等がセミアクティブ弾1に教示される。そして発射指令データγに含まれる発射指令に基づきセミアクティブ弾1が発射地点2から発射される。セミアクティブ弾1が発射されると、発射実績つまり発射時刻、発射方向、発射初速が記録される(図31参照)。
目標地点5までの距離が短距離であれば、空気力学的に弾道を計算して、セミアクティブ弾1は、一定のパターンで燃焼して一定のロケット推進力を発生しつつ固定翼によって計算した弾道上を飛行する。セミアクティブ弾1を長距離にわたって飛翔させる必要がある場合には、ミサイルと同様な制御が行われる。すなわち自己位置センサ91で自己の位置を検出し自己の検出位置と、教示された弾道上の通過地点の位置とのずれがないように誘導制御手段12によって誘導制御しながら弾道予定経路に沿って飛行する。ただしこの誘導制御は、目標地点近傍4に進入するまでである。目標地点近傍4に進入してからは撮像した画像に基づく誘導制御が行われる。
発射実績に発射指令データγを加えたデータは、発射記録データδとして、ロケット搭載船舶103内の発射記録データ通信手段Fによって発射・記録手段Eから弾道予測手段Gに送信される。
・弾道予測手段Gで行われる処理
ロケット搭載船舶103の弾道予測手段Gで発射記録データδを受け取ると、発射地点2の座標位置P2、弾道予定経路上の座標位置(目標地点近傍4の座標位置)、発射実績(発射時刻、発射方向、発射初速)に基づいて、セミアクティブ弾1が目標地点近傍4に進入する時刻つまり誘導照明9を開始する時刻(開始予測時刻)が精密に算出される。同様にして誘導照明9を終了する時刻(終了予測時刻)が精密に算出される。またこれら開始予測時刻、終了予測時刻の誤差時間が算出される(図31参照)。これら開始予測時刻、終了予測時刻、誤差時間に発射記録データδを加えたデータは弾道情報データκとして、ロケット搭載船舶103の弾道予測手段Gから弾道情報データ通信手段Hとしての通信手段105、通信中継機102、通信手段104を介してUAV101の弾道照明手段Jに送信される。
・誘導照明手段Jで行われる処理
セミアクティブ弾1には、発射直前に、発射指令データγがプログラムされており既に誘導照明9の開始予定時刻が教示されている。そこでセミアクティブ弾1は、教示された開始予定時刻に合わせて、誘導制御手段12は、目標地点5の周囲の画像30に基づく誘導制御を行う準備に入っている。具体的には、撮像手段11で画像30を撮像する準備に入っている。撮像手段11による撮像は教示された開始予定時刻に合わせて行われ終了予定時刻に合わせて終了する。
UAV101の誘導照明手段Jで弾道情報データκを受け取ると、この弾道情報データκに含まれる誘導照明9の開始予測時刻のデータに基づいて、開始予測時刻になった時点、つまりセミアクティブ弾1が目標地点近傍4に進入するタイミングで、目標地点5に向けて、識別コードに対応した誘導照明9が照射される。誘導照明手段Jとしては、大出力のNd:YAGレーザを出射するレーザ装置が用いられる。目標地点近傍4の前縁と目標地点5との距離は、たとえば1km〜3km程度である。
誘導照明9は終了予測時刻になった時点で終了する。誘導照明9を照射し終えたUAV101は、目標地点5に近接している場所から敵からの攻撃に晒される危険のない別の地点へと退避する。これは誘導照明9が敵に発見されるとUAV101の位置を敵に知られ敵からの攻撃に晒されるおそれがあるからである。
一方、セミアクティブ弾1に搭載された撮像手段11は、昼間であるため太陽光(可視光)のみで目標地点5とともに目標地点5の周囲の地形などの背景の画像30を撮像することができる。誘導制御手段12は、画像30に基づいて後述するように目標地点5に到達するようにセミアクティブ弾1を誘導制御する。
なお誘導照明9の照射の仕方は、セミアクティブ弾1が1つの場合には、前述した誘導照明照射例1を適用することができる。また誘導照明照射例2、3、4を適用してもよい。セミアクティブ弾1が複数ある場合には、識別コード付与例1を適用することができる。また識別コード付与例2、3、4を適用してもよい。
・機能分担した誘導照明手段Jで行われる処理
誘導照明手段Jの機能を、弾道情報データκから誘導照明9を行うタイミングを定めこのタイミングで誘導照明9を照射させる指令を生成する機能と、指令に応じて誘導照明9を照射する機能とに分離し、これら指令機能部と照明照射機能部をロケット搭載船舶103、UAV101にそれぞれ分担させる実施も可能である。
(UAV101への空中待機指令)
すなわち、この場合、弾道情報データκは、ロケット搭載船舶103の弾道予測手段Gからロケット搭載船舶103内の弾道情報データ通信手段Hを介してロケット搭載船舶103内の弾道照明手段Jの指令機能部に送信される。
ロケット搭載船舶103内の弾道照明手段Jの指令機能部で、弾道情報データκを受け取ると、この弾道情報データκに含まれる誘導照明9の開始予測時刻のデータに基づいて、セミアクティブ弾1が目標地点近傍4に進入するタイミング、つまり最初の誘導照明タイミング(図17参照)を読み取る。
ここで図26に例示されるように、誘導照明用レーザ光9を出射する誘導照明用レーザ照射器61は、電動雲台60に設けられており、テレビカメラ63の動きに連動して、その誘導照明用レーザ光9の投光方向が変化する。なお誘導照明レーザ照射器61をテレビカメラ63に機械的に連結することによってテレビカメラ63の動きに連動して誘導照明用レーザ光9の投光方向を変化させてもよい。
まずロケット搭載船舶103からUAV101に対して空中待機指令が通信手段105、通信中継機102、通信手段104を介して送信される。この空中待機指令は、最初の誘導照明タイミングまでに、誘導照明用レーザ光9を正確に目標地点5に照射できる位置と向きになるようUAV101に移動させその地点でホバリングして空中待機させることを内容とするものである。空中待機指令をUAV101で受けとると、UAV101は、最初の誘導照明タイミングまでに、誘導照明用レーザ光9を正確に照射できる位置と向きになるよう移動しその地点で空中待機する。
(UAV101への照準指令)
つぎにロケット搭載船舶103からUAV101に対して照準指令が通信手段105、通信中継機102、通信手段104を介して送信される。この照準指令は、最初の誘導照明タイミングまでに、誘導照明用レーザ照射器61を正確に目標地点5に照準するよう位置決めし、その位置決めされた位置でUAV101をホバリングさせて空中待機させることを内容とするものである。照準指令をUAV101の誘導照明手段Jの照明照射機能部で受けとると、撮影方向とズーム倍率が操作され最初の誘導照明タイミングまでにテレビカメラ63の画像の中心に目標地点5が捕らえられる。テレビカメラ63の動きに連動して誘導照明用照射器61の向きが変化し、誘導照明用照射器61の照準が目標地点5に合わせられ、その照準が合った位置でUAV101は空中待機する。なおテレビカメラ63の画像の中心に目標地点5を捕らえたとき誘導照明用照射器61の照準が目標地点5に合う位置関係で、テレビカメラ63と誘導照明用レーザ照射器61は電動雲台60に配置されているものとする。なお前述したようにテレビカメラ63には姿勢安定装置が備えられており、遠隔操作によって撮影地点を変更する指令が与えられない限り機体の動揺や振動があったとしても撮影された映像の中心点(目標地点5)を常に捕らえ続けることが可能であり、これにより誘導照明用レーザ光9が目標地点5へ正確に照射されることが保証される。
(UAV101への予備照射と照準調整の指令)
つぎにロケット搭載船舶103からUAV101に対して予備照射指令が通信手段105、通信中継機102、通信手段104を介して送信される。この予備照射指令は、最初の誘導照明タイミング(図17参照)までに、予備的に誘導照明用レーザ光9を短時間だけ(たとえば1フレーム分の撮像タイミングに応じた誘導照明時間T1だけ:図17参照)目標地点5に向けて照射しその照射位置をテレビカメラ63で撮像することを内容とするものである。予備照射指令をUAV101の誘導照明手段Jの照明照射機能部で受けとると、テレビカメラ63の1フレーム分の撮像タイミングに同期して誘導照明用レーザ照射器61から誘導照明用レーザ光9が誘導照明時間T1の期間だけ出射される。テレビカメラ63で撮像された画像は、UAV101から通信手段104、通信中継機102、通信手段105を介してロケット搭載船舶103に送信され、ロケット搭載船舶103内のモニタカメラ106の画面上に映し出される。そこでモニタカメラ106のモニタ画像を観測しながら、予備的な誘導照明9による輝点が目標地点5からずれている場合には、そのずれを修正し誘導照明用レーザ照射器61の照準を目標地点5に合わせる照準調整の指令を、通信手段105、通信中継機102、通信手段104を介してUAV101に送信する。
この照準調整指令を受けてUAV101では、撮影方向とズーム倍率が操作されテレビカメラ63の向きが調整されとともに、これに応じて誘導照明用レーザ照射器61の照準が調整され目標地点5に正確に合わせられる。
なお予備照射と照準調整は、セミアクティブ弾1が目標地点近傍4に進入した時点の最初の誘導照明タイミング(図17参照)までの間に、複数回繰り返し行うようにしてもよい。
ただし予備照明が行われるときセミアクティブ弾1は目標地点近傍4に接近しているため予備照明を正規の誘導照明9と誤認させないことが必要である。そこで、正規の誘導照明9を照射するフレーム(たとえば図17に示す第1フレーム)とは別のフレーム(たとえば図17に示す第4フレーム)で予備照明を行うことを内容とする識別コードを付与しておき、セミアクティブ弾1に予めプログラムしておく。これにより、たとえ予備照明が目標地点近傍4に接近した時点で照射されたとしても、第4フレーム(予備照明の識別コード)で撮像された画像30上の輝点は正規の誘導照明9ではなく予備照明であり、第1フレーム(正規の誘導照明9の識別コード)で撮像された画像30上の輝点は正規の誘導照明9であると判別することができる。
(UAV101への誘導照明指令)
セミアクティブ弾1が目標地点近傍4に進入した時刻以降、誘導照明用レーザ光9を照射させるべく、ロケット搭載船舶103からUAV101に対して誘導照明指令が通信手段105、通信中継機102、通信手段104を介して送信される。誘導照明指令をUAV101の誘導照明手段Jの照明照射機能部で受けとると、図17で説明したのと同様に、撮像手段11の撮像タイミングに同期して誘導照明用レーザ照射器61から誘導照明用レーザ光9が目標地点5に向けて照射される。
(UAV101への離脱指令)
誘導照明用レーザ光9の照射が終了すると、ロケット搭載船舶103からUAV101に対して離脱指令が通信手段105、通信中継機102、通信手段104を介して送信される。離脱指令をUAV101で受けとると、UAV101は、目標地点5に近接している場所から敵からの攻撃に晒される危険のない別の地点へと退避する。これは誘導照明用レーザ光9が敵に発見されるとUAV101の位置を敵に知られ敵からの攻撃に晒されるおそれがあるからである。なお離脱指令に応じて、UAV101を、目標地点5により近い低空の位置へと移動させて、弾着の確認と爆撃の効果確認をすべくテレビカメラ63で弾着後の目標地点5を撮影させてもよい。
・撮像手段11で行われる処理、誘導制御手段12で行われる制御内容
セミアクティブ弾1の誘導制御手段12は、目標地点近傍4に進入するまでは、自己位置センサ91で自己の位置を検出し自己の検出位置と、教示された弾道上の通過地点の位置とのずれがないようにアクチュエータを動作させている。
セミアクティブ弾1が目標地点近傍4に進入した時点、つまり開始予測時刻になった地点で、画像処理による誘導制御に切り換えられる。すなわち図17、図18、図19で説明したのと同様に、撮像手段11の撮像タイミングに同期して誘導照明用レーザ光9が目標地点5に向けて照射され、これを撮像した画像30内の輝点がセミアクティブ弾1の目標地点5として教示され、以後画像30上の輝点位置(目標地点5)に向けてセミアクティブ弾1が飛行するようにアクチュエータを動作させ、セミアクティブ弾1を目標地点5に弾着させる。
以下、実施例3について説明する。
図9は、実施例3に用いられる移動体である電子戦闘車201と、戦闘指揮車202と、砲身搭載車203と目標地点5との位置関係および通信手段204、205を示している。実施例3は昼間の演習に好適な実施例である。
この実施例3では、地上にある砲身搭載車203の発射地点2から、旋転つまり自転する高角型のセミアクティブ弾1を発射し、地上にある電子戦闘車201が目標地点5の観測と誘導照明を行い、同じく地上にある戦闘指揮車202が地上の砲身搭載車203との間で通信手段205を介してデータの送受信を行うとともに地上の電子戦闘車201との間で通信手段204を介してデータの送受信を行う場合を想定する。
実施例3の各手段A〜H、Jとこれら各手段が搭載される移動体との関係は図21に示される。同図21に示すように、観測手段A、誘導照明手段Jは、電子戦闘車201に搭載されている。発射指揮手段C、弾道予測手段Gは戦闘指揮車202に搭載されている。発射・記録手段Eは砲身搭載車203に搭載されている。
電子戦闘車201には、図26に示すように、自己位置センサ91と、レーザ測距装置92と、方位角度センサ93と、2台の誘導照明用レーザ照射器61、62と、テレビカメラ63(63a、63b)が搭載されている。テレビカメラ63は、電動雲台60に設けられており、撮影する方向とズーム倍率を操作することができる。レーザ測距装置92、2台の誘導照明用レーザ照射器61、62も電動雲台60に設けられており、テレビカメラ63の動きに連動して向きが変化する。また2台の誘導照明用レーザ出射器61、62は、指令に応じて、それぞれのレーザ光9A、9Bの投光方向を個別に調整することができる。
なおテレビカメラ63と2台の誘導照明用レーザ出射器61、62を機械的に連結することによってテレビカメラ63の動きに連動して2台の誘導照明用レーザ出射器61、62の向きを変化させてもよい。
電動雲台60には姿勢角度センサが設けられている。テレビカメラ63によって撮影された映像の中心点は、自己位置センサ91、レーザ測距装置92、方位角度センサ93の各検出値と、電動雲台60の姿勢角度センサの検出値とを用いて、地球上のグローバル座標位置として求められる。
またテレビカメラ63には姿勢安定装置が備えられており、撮影地点を変更する操作をしない限り機体の動揺や振動があったとしても撮影された映像の中心点を常に捕らえ続けることが可能である。
電子搭載車201には、テレビカメラ63の映像をモニタするモニタカメラ106が搭載されている。テレビカメラ63で撮影された映像は、モニタカメラ106の画面にモニタ画像として映し出される。
電子戦闘車201から目標地点5までの距離は例えば10km程度であるものとする。
・観測手段Aで行われる処理
砲身搭載車203が発射地点2に位置されると、電子戦闘車201ではモニタカメラ106の画面上のモニタ画像を観測しながら、テレビカメラ63の画像の中心に目標地点5が捕らえられるように、撮影方向とズーム倍率を操作する。これによりテレビカメラ63の画像の中心に目標地点5が捕らえられる。テレビカメラ63の動きに連動してレーザ測距装置92の向きが変化し、レーザ測距装置92の照準が目標地点5に合わせられ自己の電子戦闘車201から目標地点5までの距離rが測距される。また自己位置センサ91で、自己の機体の位置が地球上のグローバル座標位置Pu(Xu,Yu,Zu)として検出される。方位角度センサ93はレーザ測距装置92の動きに連動しており、レーザ測距装置92の照準を目標地点5に合わせることによって、地球上のグローバル座標系における機体の姿勢角Qu(θx,θy,θz)が検出される。また電動雲台60の姿勢角度センサによって自己の機体からみたローカル座標系における目標地点5の方位角R5(φx,φy,φz)が検出される。これら計測値から目標地点5の地球上のグローバル座標位置P5(X5,Y5,Z5)が算出される。
実施例3では、旋転するセミアクティブ弾1を使用するため、セミアクティブ弾1の重力方向に対する姿勢を判別すべく、後述するように目標地点5の近傍に参照点51を設定しその参照点51の地球上のグローバル座標位置P51(X51,Y51,Z51)が同様にして算出される。なお後述するように参照点51の候補点を複数設定し複数の参照点51の候補となる位置を算出してもよい。
こうして計測された目標地点5の座標位置P5、参照点51の座標位置P51は観測データαに含まれる(図31参照)。なお目標地点5を撮像した画像上に、弾着を要請する地点を示すマークを書き加えたものを、観測データαに含めてもよい。
観測データαは、電子戦闘車201の観測手段Aから、観測データ通信手段Bとしての通信手段204を介して、戦闘指揮車202の発射指揮手段Cに送信される。
・発射指揮手段Cで行われる処理
戦闘指揮車202の発射指揮手段Cで観測データαを受け取ると、まず安全装置が解除され、発射指令スイッチ若しくはボタンが押される等して発射指令が生成される。これにより観測データαに含まれる目標地点5の座標位置P5が読み取られ、この目標地点5の座標位置P5に基づいて発射指令データγが生成される。発射指令データγには、上記発射指令、目標地点5の座標位置P5、発射地点2の座標位置P2、発射諸元、誘導照明計画が含まれる。ここで誘導照明計画には、セミアクティブ弾1と誘導照明9との組合せを識別する識別コード、誘導照明9を開始する開始予定時刻、誘導照明9を終了する終了予定時刻、これら開始予定時刻、終了予定時刻の誤差時間、参照点51の座標位置P51、目標地点5と参照点51がなす角θが含まれる。発射諸元は、セミアクティブ弾1を発射する方位、射角、初速である。旋転する高角型のセミアクティブ弾1は、発射諸元を与えれば、ミサイルのように弾道上の複数の座標位置を与えなくても、目標地点周辺3に弾着させることができるからである(図31参照)。発射指令データγは、戦闘指揮車202の発射指揮手段Cから発射指令データ通信手段Dとしての通信手段205を介して砲身搭載車203の発射・記録手段Eに送信される。
図9はセミアクティブ弾1を発射する発射装置つまり砲身搭載車203が1台の場合を想定しているが、発射装置が複数の場合にも本実施例を適用することができる。
たとえば発射装置を携行した部隊は、目標地点5を取り囲むように複数箇所に布陣している。全ての発射装置の現在位置や射撃可能な方向などの情報は、戦闘指揮車202に通信手段205を介して報告されている。
そこで、戦闘指揮車202は、電子戦闘車201から観測データαを受け取ると、観測データαに含まれる目標地点5と参照点51の位置に適した発射装置を選択し、選択した発射装置における発射地点2の位置(発射地点2の座標位置P2)を含む発射指令データγを生成し、これを通信手段205を介して選択した発射装置(たとえば選択した砲身搭載車203)に送信する。たとえば火力指揮統制システムのような計算機端末から射撃命令を入力することができる。
・発射・記録手段Eで行われる処理
砲身搭載車203で発射指令データγを受け取ると、セミアクティブ弾1が発射される直前に、発射指令データγがセミアクティブ弾1にプログラムされる。これによりセミアクティブ弾1が向かうべき目標地点5の座標位置P5等がセミアクティブ弾1に教示される。そして発射指令データγに含まれる発射指令に基づきセミアクティブ弾1が発射地点2から発射される。セミアクティブ弾1が発射されると、発射実績つまり発射時刻、発射方向、発射初速が記録される(図31参照)。
発射実績に発射指令データγを加えた発射記録データδは、砲身搭載車203の発射・記録手段Eから発射記録データ通信手段Fとしての通信手段205を介して戦闘指揮車202の弾道予測手段Gに送信される。
・弾道予測手段Gで行われる処理
戦闘指揮車202で発射記録データδを受け取ると、発射地点2の座標位置P2、発射実績(発射時刻、発射方向、発射初速)に基づいて、セミアクティブ弾1が目標地点近傍4に進入する時刻つまり誘導照明9を開始する時刻(開始予測時刻)が精密に算出される。同様にして誘導照明9を終了する時刻(終了予測時刻)が精密に算出される。またこれら開始予測時刻、終了予測時刻の誤差時間が算出される(図31参照)。これら開始予測時刻、終了予測時刻、誤差時間に発射記録データδを加えた弾道情報データκは、戦闘指揮車202の弾道予測手段Gから弾道情報データ通信手段Hとしての通信手段204を介して電子戦闘車201の誘導照明手段Jに送信される。
旋転する高角型のセミアクティブ弾1の弾道は、空気力学的に弾道を計算する手法で正確に算出できるため、比較的単純な弾道計算で済み安価な計算装置を使用することができる。
図9は目標地点5に誘導照明9を照射する照射装置つまり電子戦闘車201が1台の場合を想定しているが、照射装置が複数の場合にも本実施例を適用することができる。
たとえば照射装置を携行した部隊は、目標地点5を包囲している。全ての照射装置の現在位置、照射可能な方向、照射の準備状況などの情報は、戦闘指揮車202に通信手段204を介して報告されている。
そこで、戦闘指揮車202は、誘導照明9を照射するに最適な照射装置を選択し、選択した照射装置(たとえば電子戦闘車201)に通信手段205を介して弾道情報データκを送信する。
・誘導照明手段Jで行われる処理
セミアクティブ弾1には、発射直前に、発射指令データγがプログラムされており既に誘導照明9の開始予定時刻が教示されている。そこでセミアクティブ弾1は、教示された開始予定時刻に合わせて、誘導制御手段12は、目標地点5の周囲の画像30に基づく誘導制御を行う準備に入っている。具体的には、撮像手段11で画像30を撮像する準備に入っている。撮像手段11による撮像は教示された開始予定時刻に合わせて行われ終了予定時刻に合わせて終了する。
電子戦闘車201の誘導照明手段Jで弾道情報データκを受け取ると、この弾道情報データκに含まれる誘導照明9の開始予測時刻のデータに基づいて、開始予測時刻になった時点、つまりセミアクティブ弾1が目標地点近傍4に進入するタイミングで、目標地点5に向けて、識別コードに対応した誘導照明9が照射される。誘導照明手段Jとしては、大出力のNd:YAGレーザを出射するレーザ装置が用いられる。
誘導照明9は終了予測時刻になった時点で終了する。誘導照明9を照射し終えた電子戦闘車201は、目標地点5に近接している場所から敵からの攻撃に晒される危険のない別の地点へと退避する。これは誘導照明9が敵に発見されると電子戦闘車201の位置を敵に知られ敵からの攻撃に晒されるおそれがあるからである。
一方、セミアクティブ弾1に搭載された撮像手段11は、昼間であるため太陽光(可視光)のみで目標地点5とともに目標地点5の周囲の地形などの背景の画像30を撮像することができる。誘導制御手段12は、画像30に基づいて後述するように目標地点5に到達するようにセミアクティブ弾1を誘導制御する。
なお誘導照明9の照射の仕方は、セミアクティブ弾1が1つの場合には、前述した誘導照明照射例1を適用することができる。また誘導照明照射例2、3、4を適用してもよい。セミアクティブ弾1が複数ある場合には、識別コード付与例1を適用することができる。また識別コード付与例2、3、4を適用してもよい。
以下誘導照明手段Jが行う処理の手順を具体的に説明する。
(目標地点5の確認)
電子戦闘車201の誘導照明手段Jで弾道情報データκを受け取ると、弾着までに時間的に余裕があれば、誘導照明用レーザ出射器61の照準を目標地点5に合わせる。誘導照明用レーザ出射器61に連動してテレビカメラ63の向きが変化しテレビカメラ63の画像上で誘導照明9を照射すべき予定地点がマーク等で指定される。そのときのテレビカメラ63の画像を戦闘指揮車202に通信手段204を介して送信する。戦闘指揮車202では、既に観測データαとして、弾着を要請する地点を示すマークを書き加えた画像を取得済みであるので、このマークと新たに送られてきた画像上の照射予定地点(マーク)とを対比して、最終的に照準を合わせるべき画像上の照射部位をマーク等で指定し、その画像を通信手段204を介して電子戦闘車201に送信する。これを受けて電子戦闘車201では、送られてきた画像上の照射指定部位(マーク)に、最終的に誘導照明用レーザ出射器61の照準を合わせる。ただし実際にはセミアクティブ弾1の発射から弾着までの時間が短いので、セミアクティブ弾1を発射する前に、誘導照明9を行うべき電子戦闘車201を選択した上で、上述した確認作業を済ませておくことが望ましい。
(照準調整)
つぎに電子戦闘車201は、目標地点5、参照点51に対して、予備照射を行う。この予備照射は、最初の誘導照明タイミング(図17参照)までに、予備的に誘導照明用レーザ光9を短時間だけ(たとえば1フレーム分の撮像タイミングに応じた誘導照明時間T1だけ:図17参照)目標地点5、参照点51に向けて照射しその照射位置をテレビカメラ63で撮像することを内容とするものである。 たとえばテレビカメラ63の1フレーム分の撮像タイミングに同期して誘導照明用レーザ照射器61から誘導照明用レーザ光9が誘導照明時間T1の期間だけ目標地点5、参照点51に向け出射される。テレビカメラ63で撮像された画像はモニタカメラ106の画面上に映し出される。そこでモニタカメラ106のモニタ画像を観測しながら、予備的な誘導照明9による輝点が目標地点5、参照点51からずれている場合には、そのずれを修正し誘導照明用レーザ照射器61の照準を目標地点5、参照点51に合わせるよう、撮影方向とズーム倍率が操作されテレビカメラ63の向きが調整される。これに応じて誘導照明用レーザ照射器61の照準が調整され目標地点5、参照点51に正確に合わせられる。
なお予備照射と照準調整は、セミアクティブ弾1が目標地点近傍4に進入した時点の最初の誘導照明タイミング(図17参照)までの間に、複数回繰り返し行うようにしてもよい。
ただし予備照明が行われるときセミアクティブ弾1は目標地点近傍4に接近しているため予備照明を正規の誘導照明9と誤認させないことが必要である。そこで、正規の誘導照明9を照射するフレーム(たとえば図17に示す第1フレーム)とは別のフレーム(たとえば図17に示す第4フレーム)で予備照明を行うことを内容とする識別コードを付与しておき、セミアクティブ弾1に予めプログラムしておく。これにより、たとえ予備照明が目標地点近傍4に接近した時点で照射されたとしても、第4フレーム(予備照明の識別コード)で撮像された画像30上の輝点は正規の誘導照明9ではなく予備照明であり、第1フレーム(正規の誘導照明9の識別コード)で撮像された画像30上の輝点は正規の誘導照明9であると判別することができる。
(誘導照明)
セミアクティブ弾1が目標地点近傍4に進入した時刻以降、電子戦闘車201
の誘導照明手段Jは、図17で説明したのと同様に、撮像手段11の撮像タイミングに同期して誘導照明用レーザ照射器61から誘導照明用レーザ光9Aを目標地点5に向けて照射するとともに、誘導照明用レーザ照射器62から誘導照明用レーザ光9Bを参照点51に向けて照射する。なおレーザ光9A、9Bは近赤外線帯の波長のNd:YAGレーザ光が用いられるが、可視光領域の波長のレーザ光を使用してもよい。
(離脱)
誘導照明用レーザ光9A、9Bの照射が終了すると、電子戦闘車201は、目標地点5に近接している場所から敵からの攻撃に晒される危険のない別の地点へと退避する。これは誘導照明用レーザ光9A、9Bが敵に発見されると電子戦闘車201の位置を敵に知られ敵からの攻撃に晒されるおそれがあるからである。なお電子戦闘車201が目標地点5により近く、身を隠せる安全な地形へと移動して、弾着の確認と爆撃の効果確認をすべくテレビカメラ63で弾着後の目標地点5を撮影してもよい。
・撮像手段11で行われる処理、誘導制御手段12で行われる制御内容
セミアクティブ弾1の誘導制御手段12は、目標地点近傍4に進入するまでは、自己位置センサ91で自己の位置を検出し自己の検出位置と、教示された弾道上の通過地点の位置とのずれがないようにアクチュエータを動作させている。
セミアクティブ弾1が目標地点近傍4に進入した時点、つまり開始予測時刻になった地点で、画像処理による誘導制御に切り換えられる。すなわち図17、図18、図19で説明したのと同様に、撮像手段11の撮像タイミングに同期して誘導照明用レーザ光9Aが目標地点5に向けて照射されるとともに、誘導照明用レーザ光9Bが参照点51に向けて照射され、これを撮像した画像30内の輝点がセミアクティブ弾1の目標地点5、参照点51として教示され、以後画像30上の参照点51と目標地点5に基づき後述するよう自己の弾1の重力方向に対する姿勢を判別し、判別結果に応じて目標地点5に対応する輝点位置に向けてセミアクティブ弾1が飛行するようにアクチュエータを動作させ、セミアクティブ弾1を目標地点5に弾着させる。ただし旋転するセミアクティブ弾1では、アクチュエータとして翼を使用することができずサイドスラスタが使用される。
つぎのセミアクティブ弾1の重力方向に対する姿勢の判別方法について説明する。
旋転するセミアクティブ弾1のサイドスラスタが水平線に対して右側にある瞬間に同サイドスラスタを作動させると、セミアクティブ弾1の右向きの運動量が増え、サイドスラスタが水平線に対して左側にある瞬間に同サイドスラスタを作動させると、セミアクティブ弾1の左向きの運動量が増える。このように左右方向への移動には重力加速度は影響しない。
しかし同一のサイドスラスタでも、それがセミアクティブ弾1の上にある瞬間に同サイドスラスタを作動させると、セミアクティブ弾1には重力加速度の影響を強める方向の下向きの運動量が加わるので手前に落下する。逆にサイドスラスタがセミアクティブ弾1の下にある瞬間に同サイドスラスタ作動させると、セミアクティブ弾1には重力加速度の影響を弱める方向の上向きの運動量が加わるので遠方に落下する。このように上下方向への移動には重力加速度の方向を考慮する必要がある。仮にセミアクティブ弾1の重力方向に対する姿勢を見誤ると、水平な方向も正確に読みとれないため、左右への移動にも支障が生じる。それ故に旋転するセミアクティブ弾1では、重力方向に対する姿勢を正確に読み取ることが重要である。
図24はセミアクティブ弾1と目標地点5および参照点51との位置関係を示している。
同図24に示すように、セミアクティブ弾1には、目標地点5の画像を撮像する撮像手段(たとえば近赤外CCDカメラ)11が搭載されている。そして誘導照明手段Jのレーザ出射器61、62からは、目標地点5と参照点51とで構成される図形が重力方向に非対称な特定な図形となるように、誘導照明9A、9Bがそれぞれ目標地点5、参照点51に照射される。この場合、たとえば図17に示すように、撮像手段11が第1フレームおよび第2フレームの画像30を撮像するタイミングに同期して目標地点5に誘導照明9Aが照射されるとともに、第2フレームの画像30を撮像するタイミングに同期して参照点51に誘導照明9Bが照射される。この場合誘導照明9A、9Bは図5(b)に示す線照明となる。
図23は目標地点5と参照点51の位置関係を示しており、弾道を地表に投影した直線と、目標地点5と参照点51とを結ぶ線分とで構成される図形が、上下方向つまり重力方向に対して非対象な特定な図形となっている。図23においてθは、弾道を地表に投影した直線と、目標地点5と参照点51とを結ぶ線分とがなす角度である。
セミアクティブ弾1の誘導制御手段12は、撮像される画像30中の特定の図形から自己の弾1の重力方向に対する姿勢を判別し、この判別結果に基づいてセミアクティブ弾1の経路を制御する。すなわち図23の紙面のとおりの図形が撮像されれば、自己のセミアクティブ弾1は、重力方向に対して「正の姿勢」であると判断され、図23の紙面を上下反転させた図形が撮像されれば、自己のセミアクティブ弾1は、重力方向に対して「逆の姿勢」であると判断される。
このように旋転するセミアクティブ弾1の重力方向に対する姿勢を判別することができるので、判別された姿勢に応じてサイドスラスタに対して正確な指令を与えることができるようになり、誘導制御の精度が飛躍的に向上する。
上記なす角θは、参照点51を観測したり照射する電子戦闘車201、参照点51を撮像手段11で撮像するセミアクティブ弾1が容易に認識できる値に設定される。
たとえば図25に示すように山21a、21bの谷間にある目標地点5に向けてセミアクティブ弾1を弾着させる場合を想定すると、仮にθを零とし、弾道を地表に投影した直線上に参照点51を設定すると、山21bの上に参照点51が位置されることになって、地上の電子戦闘車201(誘導照明手段J)や空中のセミアクティブ弾1(撮像手段11)で参照点51を照射したり撮像することが難しくなる。そこで、一定のなす角θを設けて山21bを避けた平地の場所に参照点51を設定する。
なお、参照点51を容易に照射し撮像できるのであれば上記なす角θを零、つまり弾道を地表に投影した直線上に参照点51を設定してもよい。
なお参照点51を定義する際には、座標位置P51(X51,Y51,Z51)で直接与えてもよく、目標地点5の座標位置P5(X51,Y5,Z5)と、なす角θと目標地点5からの距離で与えてもよい。これら値から座標位置P51(X51,Y51,Z51)が特定されるからである。
また前述したように、発射装置(砲身搭載車203)が複数存在し発射装置を選択する場合、選択前の段階では、セミアクティブ弾1の弾道が定まっていない。セミアクティブ弾1の弾道が定まっていないと、容易に照射し撮像できる地点として参照点51を設定することができない。そこで観測データαの生成時は、発射装置の選択前の段階であるので、観測データαに、参照点51の座標位置の候補点を含めておき、発射装置の選択の際には、候補点の中から、選択した発射装置から発射されるセミアクティブ弾1の弾道に適した(容易に照射し撮像できる)参照点51を選択し、その参照点51の座標位置を発射指令データγ等に含め、セミアクティブ弾1に教示したり誘導照明9を行う電子戦闘車201に送信すればよい。
以上は目標地点5と参照点5が比較的離れている場合を想定しており、参照点5と目標地点51を異なるフレームで識別させて参照点51にセミアクティブ弾1を弾着させないようにしている。しかし参照点51が実質的に目標地点5と同一視できる場合、つまり目標地点5と参照点51を近接させても上述した「特定の図形」をセミアクティブ弾1で認識できる場合には、同一フレーム内で目標点5、参照点51(実質的に目標点5)に誘導照明9を照射してもよい。
たとえば図22(a)に示すように同一フレーム内で目標地点5の近傍に誘導照明9の照射点91を5点照射し、特定の図形を構成してもよい。また図22(b)に示すように同一フレーム内で目標地点5の近傍に誘導照明9の照射点91を3点照射し、特定の図形を構成してもよい。また図22(c)に示すように、誘導照明9の形状自体、たとえばレーザ光の光束の断面形状自体を特定の形状にしてもよい。図22の実施例によれば、参照点51を観測データαとして観測する処理が不要になる。
以下、実施例4について説明する。
図10は、実施例4に用いられる移動体である電子戦闘車301と、戦闘指揮車302と、有人飛行機303と、UAV指揮車304と、UAV305と目標地点5との位置関係および通信手段306、307、308、309、310、311を示している。実施例4は夜間の演習に好適な実施例である。
この実施例4では、空中にある有人航空機303の発射地点2から、非旋転つまり自転しない落下型のセミアクティブ弾1を発射し、地上にある電子戦闘車301が目標地点5の観測を行い、地上にある電子戦闘車301と空中にあるUAV305が連携してと誘導照明を行い、地上にある戦闘指揮車302、UAV指揮車305が指揮、統制を行い、通信手段306〜311が移動体相互でデータの送受信を行う場合を想定する。図10の通信手段307は通信ネットワークたとえば防衛用インターネット、イントラネットを使用することができる。
実施例3の各手段A〜H、Jとこれら各手段が搭載される移動体との関係は図27に示される。同図27に示すように、観測手段A、誘導照明手段Jの一部は、電子戦闘車301に搭載されている。発射指揮手段C、弾道予測手段Gは戦闘指揮車302に搭載されている。発射・記録手段Eは有人航空機303に搭載されている。誘導照明手段Jの一部はUAV指揮車304に搭載されている。誘導照明手段Jの一部はUAV305に搭載されている。
電子戦闘車301には、図26に示すように、自己位置センサ91と、レーザ測距装置92と、方位角度センサ93と、誘導照明用レーザ照射器61と、テレビカメラ63(63a、63b)が搭載されている。テレビカメラ63は、電動雲台60に設けられており、撮影する方向とズーム倍率を操作することができる。レーザ測距装置92、誘導照明用レーザ照射器61も電動雲台60に設けられており、テレビカメラ63の動きに連動して向きが変化する。また誘導照明用レーザ出射器61は、指令に応じて、レーザ光9の投光方向を個別に調整することができる。
なおテレビカメラ63と誘導照明用レーザ出射器61を機械的に連結することによってテレビカメラ63の動きに連動して誘導照明用レーザ出射器61の向きを変化させてもよい。
電動雲台60には姿勢角度センサが設けられている。テレビカメラ63によって撮影された映像の中心点は、自己位置センサ91、レーザ測距装置92、方位角度センサ93の各検出値と、電動雲台60の姿勢角度センサの検出値とを用いて、地球上のグローバル座標位置として求められる。
またテレビカメラ63には姿勢安定装置が備えられており、撮影地点を変更する操作をしない限り機体の動揺や振動があったとしても撮影された映像の中心点を常に捕らえ続けることが可能である。
電子搭載車301には、テレビカメラ63の映像をモニタするモニタカメラ106が搭載されている。テレビカメラ63で撮影された映像は、モニタカメラ106の画面にモニタ画像として映し出される。
電子戦闘車301から目標地点5までの距離は例えば10km程度であるものとし、UAV305から目標地点5までの距離は例えば3km程度であるものととする。
・観測手段Aで行われる処理
電子戦闘車301ではモニタカメラ106の画面上のモニタ画像を観測しながら、テレビカメラ63の画像の中心に目標地点5が捕らえられるように、撮影方向とズーム倍率を操作する。これによりテレビカメラ63の画像の中心に目標地点5が捕らえられる。テレビカメラ63の動きに連動してレーザ測距装置92の向きが変化し、レーザ測距装置92の照準が目標地点5に合わせられ自己の電子戦闘車301から目標地点5までの距離rが測距される。また自己位置センサ91で、自己の機体の位置が地球上のグローバル座標位置Pu(Xu,Yu,Zu)として検出される。方位角度センサ93はレーザ測距装置92の動きに連動しており、レーザ測距装置92の照準を目標地点5に合わせることによって、地球上のグローバル座標系における機体の姿勢角Qu(θx,θy,θz)が検出される。また電動雲台60の姿勢角度センサによって自己の機体からみたローカル座標系における目標地点5の方位角R5(φx,φy,φz)が検出される。これら計測値から目標地点5の地球上のグローバル座標位置P5(X5,Y5,Z5)が算出される。
こうして計測された目標地点5の座標位置P5は観測データαに含まれる(図31参照)。なお目標地点5を撮像した画像上に、弾着を要請する地点を示すマークを書き加えたものを、観測データαに含めてもよい。
観測データαは、電子戦闘車301の観測手段Aから、観測データ通信手段Bとしての通信手段306、通信手段(通信ネットワーク)307、通信手段308を介して戦闘指揮車302の発射指揮手段Cに送信される。
・発射指揮手段Cで行われる処理
戦闘指揮車302の発射指揮手段Cで観測データαを受け取ると、まず安全装置が解除され、発射指令スイッチ若しくはボタンが押される等して発射指令が生成される。これにより観測データαに含まれる目標地点5の座標位置P5が読み取られ、この目標地点5の座標位置P5に基づいて発射指令データγが生成される。発射指令データγには、上記発射指令、目標地点5の座標位置P5、発射地点2の座標位置P2、発射諸元、誘導照明計画が含まれる。ここで誘導照明計画には、セミアクティブ弾1と誘導照明9との組合せを識別する識別コード、誘導照明9を開始する開始予定時刻、誘導照明9を終了する終了予定時刻、これら開始予定時刻、終了予定時刻の誤差時間が含まれる。発射諸元は、セミアクティブ弾1を投下する方向、投下地点、投下初速である。非旋転の落下型のセミアクティブ弾1は、発射諸元を与えれば、ミサイルのように弾道上の複数の座標位置を与えなくても、目標地点周辺3に弾着させることができるからである(図31参照)。発射指令データγは、戦闘指揮車302の発射指揮手段Cから発射指令データ通信手段Dとしての通信手段308、307、309を介して有人航空機303の発射・記録手段Eに送信される。
図10はセミアクティブ弾1を発射する発射装置つまり有人航空機303が1台の場合を想定しているが、発射装置が複数の場合にも本実施例を適用することができる。
たとえば発射装置を携行した部隊は、目標地点5を取り囲むように複数箇所に布陣している。全ての発射装置の現在位置や射撃可能な方向などの情報は、戦闘指揮車302に通信手段309、307、308を介して報告されている。
そこで、戦闘指揮車302は、電子戦闘車301から観測データαを受け取ると、観測データαに含まれる目標地点5の位置に適した発射装置を選択し、選択した発射装置における発射地点2の位置(発射地点2の座標位置P2)を含む発射指令データγを生成し、これを通信手段308、307、309を介して選択した発射装置(たとえば選択した有人航空機303)に送信する。
・発射・記録手段Eで行われる処理
有人航空機303で発射指令データγを受け取ると、最適な投下地点へ飛行し、セミアクティブ弾1を投下する。セミアクティブ弾1が投下される直前に、発射指令データγがセミアクティブ弾1にプログラムされる。これによりセミアクティブ弾1が向かうべき目標地点5の座標位置P5等がセミアクティブ弾1に教示される。そして発射指令データγに含まれる発射指令に基づきセミアクティブ弾1が発射地点2から発射される。セミアクティブ弾1が発射されると、発射実績つまり投下時刻、投下方向、投下初速、投下地点が記録される(図31参照)。
発射実績に発射指令データγを加えた発射記録データδは、有人航空機303の発射・記録手段Eから発射記録データ通信手段Fとしての通信手段309、307、308を介して戦闘指揮車302の弾道予測手段Gに送信される。
・弾道予測手段Gで行われる処理
戦闘指揮車302で発射記録データδを受け取ると、発射地点2の座標位置P2、発射実績(投下時刻、投下方向、投下初速、投下地点)に基づいて、セミアクティブ弾1が目標地点近傍4に進入する時刻つまり誘導照明9を開始する時刻(開始予測時刻)が精密に算出される。同様にして誘導照明9を終了する時刻(終了予測時刻)、弾着の予測時刻が精密に算出される。またこれら開始予測時刻、終了予測時刻、弾着予測時刻の誤差時間が算出される。またセミアクティブ弾1が目標地点近傍4に進入する方向(弾飛来方向)が算出される(図31参照)。これら開始予測時刻、終了予測時刻、弾着予測時刻、誤差時間に発射記録データδを加えた弾道情報データκは、戦闘指揮車302の弾道予測手段Gから弾道情報データ通信手段Hとしての通信手段308、307、310を介してUAV指揮車304の誘導照明手段Jに送信されるとともに、通信手段308、307、306を介して電子戦闘車301の誘導照明手段Jに送信される。
非旋転の落下型のセミアクティブ弾1の弾道は、空気力学的に弾道を計算する手法で正確に算出できるため、比較的単純な弾道計算で済み安価な計算装置を使用することができる。
なお非旋転の落下型のセミアクティブ弾1には下記のような種類があり、いずれも本実施例に適用することができる。
イ)単純な落下型のセミアクティブ弾1
これは重力加速度にしたがい落下する単純な弾であり、有人航空機303は、目標地点5の直上に近い地点まで飛行してからセミアクティブ弾1を投下する必要がある。
ロ)GPSと翼で誘導するセミアクティブ弾1
これは重力加速度にしたがい落下する際に、搭載したGPSで自己の機体の位置を検出し検出結果に基づき目標地点5に向かうように翼を制御して滑空する弾であり、有人航空機303は上記イ)の単純な落下型と比較して、より目標地点5の直上の地点から離れた地点でセミアクティブ弾1を投下することが可能である。
ハ)GPSと翼とロケットで誘導するセミアクティブ弾1
これは重力加速度にしたがい落下する際に、搭載したGPSで自己の機体の位置を検出し検出結果に基づき目標地点5に向かうようにロケットの推進力と翼を制御して滑空する弾であり、有人航空機303は、目標地点5の直上の地点から例えば10km以上離れた地点でセミアクティブ弾1を投下することが可能である。
・誘導照明手段Jで行われる処理
本実施例4は夜間の演習を想定している。セミアクティブ弾1の撮像手段11を可視光あるいは近赤外用の画像センサで構成する場合、目標地点5に照射された点照明を明瞭に撮像することができるものの目標地点5の背景は光量が不足しているため背景を明瞭には撮像することができない。背景の画像を明瞭に撮像することは図19で説明したパターンマッチング処理を行う上で不可欠となる。
そこでこの実施例では背景画像を明瞭に撮像すべく背景に誘導照明19を照射する。この場合、電子戦闘車301から目標地点5に向けて点照明で誘導照明9が照射されるとともに、UAV305から目標地点5の周囲の背景に向けて面照明で誘導照明19が照射される。
図29は電子戦闘車301による点照明9の期間とUAV305による面照明19の期間を示している。
また、背景画像を明瞭に撮像する一方法として、たとえば目標地点の上空から照明弾により背景を照らすことが考えられる。また、撮像手段11として熱画像を撮像可能な遠赤外線を検出できる熱画像センサを使用すれば、背景を照らすための補助的な誘導照明19は、不要となる。
(電子戦闘車301による誘導照明9)
セミアクティブ弾1には、発射直前に、発射指令データγがプログラムされており既に誘導照明9の開始予定時刻が教示されている。そこでセミアクティブ弾1は、教示された開始予定時刻に合わせて、誘導制御手段12は、目標地点5の周囲の画像30に基づく誘導制御を行う準備に入っている。具体的には、撮像手段11で画像30を撮像する準備に入っている。撮像手段11による撮像は教示された開始予定時刻に合わせて行われ終了予定時刻に合わせて終了する。
電子戦闘車301の誘導照明手段Jで弾道情報データκを受け取ると、この弾道情報データκに含まれる誘導照明9の開始予測時刻のデータに基づいて、開始予測時刻になった時点、つまりセミアクティブ弾1が目標地点近傍4に進入するタイミングで、目標地点5に向けて、識別コードに対応した誘導照明9が照射される(図29参照)。誘導照明手段Jとしては、大出力のNd:YAGレーザを出射するレーザ装置が用いられる。
誘導照明9は終了予測時刻になった時点で終了する。弾着の予測時刻よりも前の時刻で誘導照明9の照射が終了する(図29参照)。誘導照明9を照射し終えた電子戦闘車301は、目標地点5に近接している場所から敵からの攻撃に晒される危険のない別の地点へと退避する。これは誘導照明9が敵に発見されると電子戦闘車301の位置を敵に知られ敵からの攻撃に晒されるおそれがあるからである。
電子戦闘車301は、実施例3で説明したのと同様な(目標地点5の確認)、
(照準調整)、(誘導照明)、(離脱)の処理を行うようにしてもよい。
なお誘導照明9の照射の仕方は、セミアクティブ弾1が1つの場合には、前述した誘導照明照射例1を適用することができる。また誘導照明照射例2、3、4を適用してもよい。セミアクティブ弾1が複数ある場合には、識別コード付与例1を適用することができる。また識別コード付与例2、3、4を適用してもよい。
一方、セミアクティブ弾1に搭載された撮像手段11(たとえばCCDカメラ)は、夜間であるため点照明9のみでは目標地点5の周囲の地形などの背景を明瞭に撮像することができないので、以下のようにUAV305がUAV指揮車304と連携して背景を面照明19で照射する処理を行う。
(UAV305による誘導照明19)
背景への誘導照明19は、目標地点5の周囲の背景を、セミアクティブ弾1の撮像手段(たとえばCCDカメラ)11でコントラストよく撮像できるようにする程度の明度でよい。このため点照明9と比較して明度が低い照明で十分である。また目標地点5が面照明19の概ね中央にあることが画像処理上望ましいが、必ずしも厳密に目標地点5が中央に位置するように面照明19を照射しなければならないという制約はない。
UAV指揮車304の誘導照明手段Jで弾道情報データκを受け取ると、この弾道情報データκを通信手段311を介してUAV305に送信する。UAV305の誘導照明手段Jでは、弾道情報データκに基づいて面照明19を目標地点5に向け照射する。
面照明19は、目標地点5を点照明9で照射している間、確実にその周囲の背景を照射することを目的とすることから図29に示すように、点照明9よりも長い期間、つまり弾道情報データκに含まれる開始予測時刻よりも誤差時間だけ早い時期に照射し始め、同じく弾道情報データκに含まれる弾着予測時刻よりも誤差時間だけ遅い時期に照射が終了する。
このため点照明9を照射する電子戦闘車301と比較して、長時間にわたり広い範囲にわたり面照明19を照射するUAV305は敵に発見されやすい。このためUAV305は、図28で後述するように面照明19の照射の前後で敵に発見されないよう一連の飛行処理を実行する。その反面、UAV305が無人で、電子戦闘車301が有人である場合には、無人のUAV305が敵の砲火の「おとり」になって有人の電子戦闘車301の安全な撤退を支援する利点もある。
図17で説明したように、目標地点5への点照明9を撮像手段11の撮像タイミングに同期したフレームで行うのであれば、目標地点5の周囲への面照明19を同じく撮像タイミングに同期したフレームで行うことが望ましい。この場合、面照明19は、点照明9が行われるフレームを含む前後のフレームで行うことが望ましい。たとえば図17において、点照明9を第2フレームで行うのであれば、面照明19はその第2フレームを含んだ前後の第1フレーム、第2フレーム、第3フレームで行うようにする。共通のフレーム(第2フレーム)での面照明19は、目標地点5と一緒に背景を確実に画像30として撮像するために行うものであり、前後のフレーム(第1フレーム、第3フレーム)での面照明19は、点照明9との照明タイミングのずれを考慮したものである。
以下図28を用いてUAV305の移動処理について説明する。
UAV305には図28に示すように飛行する飛行プログラムがインストールされており、この飛行プログラムに従い飛行する。
まずUAV305は、セミアクティブ弾1が発射される前の時点では、目標地点5から遠く離れた後方に待機している。セミアクティブ弾1が発射されると、UAV指揮車304と通信手段311を介しての通信が可能な範囲41に進入し、待機位置305aで待機する。
そこでUAV指揮車304から通信手段311を介して弾道情報データκがUAV305に送信される。UAV305では、弾道情報データκに含まれる弾飛来方向を読み取り、この弾飛来方向と目標地点5の周囲の電子地図とを照合して、誘導照明19を行うに最適な地点305cの座標位置と、現在の待機位置305aから誘導照明最適地点305cへ移動し誘導照明最適地点305cから待機位置305dに移動するまでの往復の移動経路を算出する。そしてこの往復移動経路を飛行プログラムに組み込む。なお往復移動経路の飛行プログラムはUAV指揮車304で作成し弾道情報データκとともにUAV305に送信してもよい。
このためUAV305は、待機位置305aから誘導照明最適地点305cまで飛行し、誘導照明最適地点305cで面照明19を目標地点5の周囲に照射する。面照明19の照射中、UAV305は、敵から激しい対空砲火を浴びることが予想されるので被弾を避けるための運動を行う。たとえばUAV305はホバリング、旋回、上下動の組合せの運動を行う。
なお図28では誘導照明最適地点305cが通信可能範囲41の外側に位置している場合を想定しているが、誘導照明最適地点305cが通信可能範囲41の内側であればUAV指揮車304から訂正した飛行プログラムを送信したり、修正内容を示す指令を送り遠隔操作で飛行プログラムを修正してもよい。
UAV305では、たとえば図26に示す誘導照明用レーザ照射器61からレーザ光19が出射される。この誘導照明用レーザ出射器61としては、たとえばセミアクティブ弾1の撮像手段(たとえばCCDカメラ)11で撮像可能な波長のレーザ光19を出射できる大出力(数十ワット以上のもの)の半導体レーザ装置が使用される。ただし広い範囲を照射する必要があるため、レーザ装置には光学機器が付加されておりレーザ光の広がり角が距離に合わせて調整される。
大出力のレーザ光19を出射するには大電力を取り出せる大型の発電機をUAV305に搭載する必要があるが、一般的に搭載はスペース上難しい。しかし誘導照明19を照射する時間は高々数秒間と短いので、小型の発電機を搭載することにし、この発電機から時間をかけてキャパシタ(コンデンサ)や蓄電池に充電しておければ、大電流を短時間だけ流す電力は確保することができる。
UAV305では、電子戦闘車301と同様にして誘導照明19の照準が合わせられる。
すなわち自己位置センサ91で、自己の機体の位置が地球上のグローバル座標位置Pu(Xu,Yu,Zu)として検出される。また方位角度センサ93で、地球上のグローバル座標系における機体の姿勢角Qu(θx,θy,θz)が検出される。また電動雲台60の姿勢角度センサから電動雲台60と機体中心軸とがなす角度RE(ψx,ψy,ψz)を読み取ることができる。
UAV305では弾道情報データκに含まれる目標地点5の地球上のグローバル座標位置P5(X5,Y5,Z5)と、上述したように計測した機体の現在位置Pu(Xu,Yu,Zu)とに基づいて、目標地点5に誘導照明19を照射するに最適な自己の機体の姿勢角R5(φx,φy,φz)を算出する。ここでφx,φy,φzはそれぞれ自己の機体のロール角、ピッチ角、ヨー角である。
UAV305はホバリング能力のあるヘリコプタタイプの機体を想定している。このようなヘリコプタタイプの機体の場合、空中の誘導照明最適地点305cでホバリングしている間、ヨー角φzは概ね任意に調整することが可能であるものの、ロール角φxとピッチ角φyは、風などの外力に逆らってホバリングさせ空中に停止させるために適正な値に自動制御されており任意の値に調整することができない。さらに機体の振動や風の影響によって機体のロール角φx,ピッチ角φy,ヨー角φzは常に変化する問題がある。
そこで、誘導照明用レーザ照射器61の照準が常に目標地点5に合うように上記なす角RE(ψx,ψy,ψz)を自動制御するとともに、誘導照明用レーザ照射器61を防振装置上に載せる等して機体の振動を伝えない対策を施すことが望ましい。これによりレーザ光19で照射される範囲が「手ぶれ」のように細かく振動することが抑制される。
以上のようにして面照明19が目標地点5に照射されるが、照射が終了すると、誘導照明最適地点305cから待機位置305dまで退避する。この退避は、たとえば旋回と急降下との組み合わせた運動で行われる。UAV305が待機位置305dに到着すると、UAV305はホバリングした状態で待機する。
なおセミアクティブ弾1の発射から弾着までが極めて短い場合には、風向き等の気象条件によってはセミアクティブ弾1が目標地点近傍4に到達するまでにUAV305が誘導照明最適地点305cに到着できないおそれがある。そこで、そのような可能性が事前に予測される場合には、図28に示すように通常の待機位置305aの代わりに、より目標地点近傍4に近い待機位置305bでUAV305を待機させてUAV指揮車304との間でデータの送受信を行わせるようにすればよい。これにより待機位置305bから誘導照明最適地点305cまでの距離が短くなり迅速に誘導照明最適地点305cまで移動することができる。
・撮像手段11で行われる処理、誘導制御手段12で行われる制御内容
セミアクティブ弾1の誘導制御手段12は、目標地点近傍4に進入するまでは、自己位置センサ91で自己の位置を検出し自己の検出位置と、教示された弾道上の通過地点の位置とのずれがないようにアクチュエータを動作させている。
セミアクティブ弾1が目標地点近傍4に進入した時点、つまり開始予測時刻になった地点で、画像処理による誘導制御に切り換えられる。すなわち図17、図18、図19で説明したのと同様に、撮像手段11の撮像タイミングに同期してレーザ光9が点照明として目標地点5に向けて照射されるとともに、レーザ光19が面照明として目標地点5を含む周囲に向けて照射され、これを撮像した画像30内の輝点がセミアクティブ弾1の目標地点5として教示され、以後目標地点5に対応する輝点位置に向けてセミアクティブ弾1が飛行するようにアクチュエータを動作させ、セミアクティブ弾1を目標地点5に弾着させる。
以下、実施例5について説明する。
図11は、実施例5に用いられる移動体である電子戦闘車401と、戦闘指揮車402と、ミサイル搭載車403と、目標地点5との位置関係および通信手段404、405を示している。実施例5は昼間の演習に好適な実施例である。
この実施例5では、地上にあるミサイル搭載車403の発射地点2から、非旋転つまり自転しない低伸型のセミアクティブ弾1を発射し、地上にある電子戦闘車401が目標地点5の観測と誘導照明を行い、地上にある戦闘指揮車402が指揮、統制を行い、電子戦闘車401と戦闘指揮車402との間で通信手段404を介してデータの送受信を行い、戦闘指揮車402とミサイル搭載車403との間で通信手段405を介してデータの送受信を行う場合を想定する。
また目標地点5は、空中の移動体(航空機等)を想定しており、時間の経過に伴い目標地点5の位置が変化する。
実施例5の各手段A〜H、Jとこれら各手段が搭載される移動体との関係は図30に示される。同図30に示すように、観測手段A、誘導照明手段Jは電子戦闘車401に搭載されている。発射指揮手段Cと弾道予測手段Gは戦闘指揮車402に搭載されている。発射・記録手段Eはミサイル搭載車403に搭載されている。
電子戦闘車401には、自己位置センサ91と、レーザ測距装置92と、方位角度センサ93と、テレビカメラ63(63a、63b)が搭載されている。テレビカメラ63は、図26に例示される電動雲台60に設けられており、撮影する方向とズーム倍率を操作することができる。テレビカメラ63は、可視光用のカメラ63a、暗視用又は赤外線用のカメラ63bからなり撮像対象に応じて適宜使い分けられる。なおレーザ測距装置92も電動雲台60に設けられており、テレビカメラ63の動きに連動してレーザ測距装置92の向きが変化する。電動雲台60には姿勢角度センサが設けられている。テレビカメラ63によって撮影された映像の中心点は、自己位置センサ91、レーザ測距装置92、方位角度センサ93の各検出値と、電動雲台60の姿勢角度センサの検出値とを用いて、地球上のグローバル座標位置として求められる。
またテレビカメラ63には姿勢安定装置が備えられており、遠隔操作によって撮影地点を変更する指令が与えられない限り機体の動揺や振動があったとしても撮影された映像の中心点を常に捕らえ続けることが可能である。
また電子戦闘車401には、テレビカメラ63の映像をモニタするモニタカメラ106が搭載されている。
また電子戦闘車401には高感度赤外線警報機94が搭載されている。高感度赤外線警報機94とは、上空に進入したUAVなどの飛行物体から放射される赤外線を検出し、その飛行物体の位置を車両の正面に対する方位と仰角で計測することができるセンサであり、たとえば英国PIKINGTON OPTICS社製の赤外線センサを用いた防空センサ商品ADAD(Air Defence Altering Device)が公知である。
高感度赤外線警報機94はたとえばテレビカメラ63に連動している。高感度赤外線警報機94で不審な飛行物体5(たとえば領空に侵入したUAVなど)が検出されると、テレビカメラ63の映像の中心点は、その不審な飛行物体5に合わせられる。テレビカメラ63で映像の中心点に捕らえられた不審な飛行物体5の位置は、上述したように地球上のグローバル座標位置として計算することができる。
電子戦闘車401から目標地点(たとえば不審な飛行物体)5までの距離は例えば5km程度であるものとする。
・観測手段Aで行われる処理
電子戦闘車401では、モニタカメラ106の画面上のモニタ画像を観測しながら、テレビカメラ63の画像の中心に目標地点5が捕らえられるように、撮影方向とズーム倍率を操作する。
テレビカメラ63の画像の中心に目標地点5が捕らえられると、自己位置センサ91で、自己の機体の位置が地球上のグローバル座標位置Pu(Xu,Yu,Zu)として検出される。テレビカメラ63の動きに連動してレーザ測距装置92の向きが変化し、レーザ測距装置92の照準が目標地点5に合わせられ自己の機体から目標地点5までの距離rが測距される。方位角度センサ93はレーザ測距装置92の動きに連動しており、レーザ測距装置92の照準を目標地点5に合わせることによって、地球上のグローバル座標系における機体の姿勢角Qu(θx,θy,θz)が検出される。また電動雲台60の姿勢角度センサによって自己の機体からみたローカル座標系における目標地点5の方位角R5(φx,φy,φz)が検出される。これら計測値から目標地点5の地球上のグローバル座標位置P5(X5,Y5,Z5)が算出される。
目標地点5の座標位置は、時間をおいて2回以上計測される。たとえば時刻t=T1、T2、T3において目標地点5の座標位置が逐次計測される。目標地点5は移動体であるため時間をおいて2回以上計測することにより目標地点5の移動方向と移動速度を計測することができる。本実施例では時刻t=T1、T2、T3における目標地点5の座標位置、移動方向、速度が計測される。
こうして逐次計測された目標地点5の座標位置P5、移動方向、速度は観測データαに含まれる。なお目標地点5の画像(静止画像あるいは動画像)を観測データαに含めるようにしてもよい(図31参照)。
観測データαは、電子戦闘車401の観測手段Aから、観測データ通信手段Bとしての通信手段404を介して、戦闘指揮射402の発射指揮手段Cに送信される。
・発射指揮手段Cで行われる処理
戦闘指揮射402の発射指揮手段Cで観測データαを受け取ると、観測データαに含まれる各時刻t=T1、T2、T3における目標地点5の座標位置、移動方向、速度に基づいて敵側の不審な飛行物体であるか否かを判断する。この結果、敵側の不審な飛行物体であると判断された場合には、安全装置が解除され、発射指令スイッチ若しくはボタンが押される等して発射指令が生成される。そして観測データαに含まれる目標地点5の座標位置P5、移動方向、速度のデータに基づいて発射指令データγが生成される。発射指令データγには、上記発射指令、目標地点5の座標位置P5、移動方向、速度、発射地点2の座標位置P2、発射諸元、誘導照明計画が含まれる。ここで誘導照明計画には、セミアクティブ弾1と誘導照明9との組合せを識別する識別コード、誘導照明9を開始する開始予定時刻、誘導照明9を終了する終了予定時刻、これら開始予定時刻、終了予定時刻の誤差時間が含まれる。発射諸元は、セミアクティブ弾1を発射する方向、発射地点、発射初速、望ましい弾道の情報である(図31参照)。発射指令データγは、戦闘指揮車402の発射指揮手段Cから発射指令データ通信手段Dとしての通信手段405を介してミサイル搭載車403の発射・記録手段Eに送信される。
図11はセミアクティブ弾1を発射する発射装置つまりミサイル搭載車403が1台の場合を想定しているが、発射装置が複数の場合にも本実施例を適用することができる。
たとえば発射装置を携行した部隊は、目標地点5を取り囲むように複数箇所に布陣している。全ての発射装置の現在位置や射撃可能な方向などの情報は、戦闘指揮車402に通信手段403を介して報告されている。
そこで、戦闘指揮車402は、電子戦闘車401から観測データαを受け取ると、観測データαに含まれる目標地点5の位置、移動方向、速度に適した発射装置を選択し、選択した発射装置における発射地点2の位置(発射地点2の座標位置P2)を含む発射指令データγを生成し、これを通信手段405を介して選択した発射装置(たとえば選択したミサイル搭載車403)に送信する。
・発射・記録手段Eで行われる処理
ミサイル搭載車403で発射指令データγを受け取ると、発射指令データγに含まれる各時刻t=T1、T2、T3における目標地点5の座標位置、移動方向、速度に基づいて、会合地点を推定する。会合地点とはセミアクティブ弾1の弾着時に不審な飛行物体が移動している地点のことである。
そして推定した会合地点に向けて、セミアクティブ弾1を発射する。セミアクティブ弾1が発射される直前に、発射指令データγがセミアクティブ弾1にプログラムされる。これによりセミアクティブ弾1が向かうべき目標地点5の座標位置P5等がセミアクティブ弾1に教示される。そして発射指令データγに含まれる発射指令に基づきセミアクティブ弾1が発射地点2から発射される。セミアクティブ弾1が発射されると、発射実績つまり発射時刻、発射地点のグローバル座位置、発射方向、発射初速が記録される。また飛行パターンの計画を示すデータが生成される(図31参照)。
会合地点の座標位置、発射実績、飛行パターン計画に発射指令データγを加えた発射記録データδは、ミサイル搭載車403の発射・記録手段Eから発射記録データ通信手段Fとしての通信手段405を介して戦闘指揮車402の弾道予測手段Gに送信される。
・弾道予測手段Gで行われる処理
戦闘指揮車402で発射記録データδを受け取ると、発射地点2の座標位置P2、発射時刻、発射方向、飛行パターンの計画データに基づいて、セミアクティブ弾1の弾道が精密に計算される。そしてこの弾道から、目標地点近傍4に進入する時刻つまり誘導照明9を開始する時刻(開始予測時刻)が精密に算出される。同様にして誘導照明9を終了する時刻(終了予測時刻)が精密に算出される。またこれら開始予測時刻、終了予測時刻の誤差時間が算出される。またセミアクティブ弾1が目標地点近傍4に進入する方向(弾飛来方向)が算出される(図31参照)。これら開始予測時刻、終了予測時刻、誤差時間、弾飛来方向に発射記録データδを加えた弾道情報データκは、戦闘指揮車402の弾道予測手段Gから弾道情報データ通信手段Hとしての通信手段404を介して電子戦闘車401の誘導照明手段Jに送信される。
・誘導照明手段Jで行われる処理
本実施例5では目標地点5は上空を飛行する飛行物体たとえばUAVを想定している。UAVなどは、常に一定速度で前進するとは限らず不意な動き(旋回、ホバリング、上昇、下降)をする可能性がある。
このため電子戦闘車401では、観測データαを生成した後も、上述した高感度赤外線警報機94とテレビカメラ63を用いて、不審な飛行物体5をテレビカメラ63で映像の中心点に捕らえ続け、追尾している。
不審な飛行物体5の位置は、図11に示すように、セミアクティブ弾1の弾着時には、観測データαから推測した会合地点5bとは異なる地点5aに移動しているおそれがある。したがって、誘導照明9の照射は、場合によってはセミアクティブ弾1が目標地点近傍4に進入する以前から始めるようにしてもよい。
さらに目標地点5の背景は空であるためセミアクティブ弾1の撮像手段11で目標地点5の周囲の地形等を撮像できない。このため図19で説明した誘導制御の手法を適用することができない。また目標地点5が不意な動きをするため目標地点近傍4に進入した時点で短時間だけ誘導照明9を照射(短時間だけ撮像手段11で撮像)するだけでは、目標地点5を正確に教示したことにならずセミアクティブ弾1を目標地点5に正確に命中させることは困難となる。このため目標地点5が不意な動きをする範囲をカバーできる立体照明9を、弾着時刻あるいは弾着時刻に誤差時間を加えた時刻まで照射し続けることが望ましい。
・撮像手段11で行われる処理、誘導制御手段12で行われる制御内容
セミアクティブ弾1の誘導制御手段12は、目標地点近傍4に進入するまでは、自己位置センサ91で自己の位置を検出し自己の検出位置と、教示された弾道上の通過地点の位置とのずれがないようにアクチュエータを動作させている。
セミアクティブ弾1が目標地点近傍4に進入した時点、つまり開始予測時刻になった地点で、画像処理による誘導制御に切り換えられる。すなわち図17で説明したように撮像手段11の撮像タイミングに同期してレーザ光9が立体照明として目標地点5に向けて照射され、これを撮像した画像30内の輝点がセミアクティブ弾1の目標地点5として教示され、目標地点5に対応する輝点位置に向けてセミアクティブ弾1が飛行するようにアクチュエータを動作させ、セミアクティブ弾1を目標地点5に弾着させる。レーザ光9の照射と撮像手段11による撮像は、目標地点5を見失わないよう弾着時刻まで、あるいは弾着時刻に誤差時間を加えた時刻まで繰り返し行うことが望ましい。
つぎに実施例6について説明する。
上述した実施例1〜5における目標地点5の近傍4は、気象状態の観測結果から設定することができる。
図2、図3は実施例3が適用される場合を例示している。また山21に雲20がかかり、山21上もしくは山21近辺の目標地点5にセミアクティブ弾1を命中させる場合を想定する。
まず図2に示すように、雲20の状態(雲20の位置)が電子戦闘車201で観測され、この観測結果からセミアクティブ弾1が雲20を抜けて誘導照明9の撮像が可能になる領域として、目標地点5の近傍4が設定される。
つぎに図3に示すように、発射装置(たとえば砲身搭載車)203からからセミアクティブ弾1が目標地点5に向けて発射される。この場合、発射装置203が複数存在すれば、戦闘指揮車202は、最適な発射装置203を選択してもよい。
つぎにセミアクティブ弾1が雲20を抜けた時点以降、つまり目標地点4の近傍5に到達した以降に、電子戦闘車201からレーザ光が誘導照明9として目標地点5に向けて照射される。
つぎにセミアクティブ弾1は誘導照明9を捕らえて当該誘導照明9に向けて自己の弾1の経路を制御しつつ目標地点5に弾着する。
この実施例6は、雲に限らず霧、雨、雪等任意の気象状態を観測する場合にも同様にして適用することができる。
以上のように実施例6によれば、目標地点5の撮像が可能となる気象状態となった時点以降、たとえばセミアクティブ弾1が雲20を抜けて目標地点5の撮像が可能となった時点以降に、誘導照明9を目標地点5に照射するようにしたので、誘導照明9を撮像できない気象状態のときに(たとえばセミアクティブ弾1が雲20の上方にあるときに)、画像を撮像するという誘導制御上の無駄を回避することができる。また目標地点5が撮像可能となる弾着直前に、誘導照明9の照射を行えるので、誘導照明9を照射している移動体(たとえば誘導照明手段Jを搭載した電子戦闘車201)を敵に知られ、敵からの攻撃に晒される危険を回避することができる。
また実施例6において各移動体201、202、203の間で行うデータの通信は、トランシーバ等を用い人手を介して行うようにしてもよい。
また実施例1〜6では誘導照明9としてレーザ光を想定しているが、誘導照明9として定義したようにレーザ光以外の誘導用エネルギー、たとえば電波を使用してもよい。
また実施例1〜6では人間が搭乗した有人の移動体若しくは人間が搭乗できる大きさであるが人間が搭乗していない無人の移動体を想定しているが、各移動体は人間が牽引したり、携帯したり、着用したりすることで移動が可能な小型のものであってもよい。
ところで、上述した実施例では、誘導照明手段Jを備えたプラットフォームで目標地点に照準点を合わせて射出した誘導照明9が、目標地点5に正確に照射されることを前提としている。
確かに、例えば三脚、停止した車両、直進中の大型航空機などの振動の少ない(小さい)プラットフォームから、誘導照明9を目標地点5に向けて照射する場合には、問題は少ない。しかし、例えば走行中の車両(電子戦闘車201、301、401など)、ホバリング中の小型無人航空機(UAV101、305など)等の振動の多い(大きい)プラットフォームから誘導照明9を照射する場合には、誘導照明9を射出した瞬間にプラットフォームの振動によって照準点が目標地点5からずれ、目標地点5からずれた位置に誘導照明9が照射されることがある。ここで、プラットフォーム上での僅かな照準点のずれであっても、プラットフォームから遠方にある実際の目標地点5では、大幅なずれとなってしまう。このため、セミアクティブ弾1は、正しい目標地点5とは異なる地点に着弾することになって、誤爆を招くおそれがある。
すなわち、例えば実施例2で説明したように、UAV101に搭載したテレビカメラ63と、誘導照射用レーザ照射器61とは、テレビカメラ63の画像の中心に目標地点5を捕らえたとき誘導照明用照射器61の照準点が目標地点5に合う位置関係で配置されている。このため誘導照明タイミングの時点でテレビカメラ63の画像の中心に目標地点5を捕らえて、誘導照明昭レーザ光9を誘導照明用レーザ照射器61から出射すれば、実際の目標地点5に正確に照射されるはずである。
しかし、図36に示すように、UAV101のエンジン振動(ビビリ)、ホバリング時の操舵(6自由度の動揺)、ホバリング時の突風などが原因で誘導照明9の投光方向の「暴れ」が生じて、照射点91は、実際の目標地点5からずれてしまう。セミアクティブ弾1は、自己の撮像手段11で撮像した輝点、つまり照射点91に向かって誘導制御されるため、正しい目標地点5からずれた地点(照射点91)に着弾し、誤爆を招くことになる。
そこで、つぎに、たとえ振動の多い(大きい)プラットフォーム(例えばUAV101、305)から誘導照明9を目標地点5に向けて照射する場合であっても、正確に目標地点5に照射できるようにして、セミアクティブ弾1の命中精度を高め、誤爆を防止することができる実施例について、説明する。
図37は、この実施例を説明する図である。
UAV101には、誘導照明手段Jが搭載されている。この誘導照明手段Jは、少なくとも、目標地点5を含む画像を撮像する撮像部J1と、撮像された画像中の目標地点5と照準点5Aとの誤差εを演算する照準誤差演算部J4と、目標地点5の許容誤差範囲5Gに対応する許容誤差ε0と演算された誤差εとを比較し、演算誤差εが許容誤差ε0より小さくなっている時期、つまり照準点5Aが画像上で目標地点5の許容誤差範囲5Gに入る時期に、パルス状の誘導照明9(図17、図32、図33、図34参照)を照射する指令を出力する誘導照明指令部J5と、誘導照明指令部J5から照射指令を受け取った場合に誘導照明9を出射し、目標地点5に向けて照射する誘導照明照射部J6とからなる(図39参照)。
図37に示すように、撮像部J1で撮像した画像上では、UAV101の振動等の影響によって、たとえば同図に示す軌跡を描き、誘導照明9を照射すべき各タイミング(図17、図32、図33、図34で例示した照射タイミング)で、照準点5Aが、目標地点5の許容誤差範囲5Gに入ることもあり(時刻ta、tb、tc、td)、照準点5Aが、目標地点5の許容誤差範囲5Gから外れることもある。
そこで、照準誤差演算部J4は、図38に示すように、画像中の目標地点5と照準点5Aとの誤差εを演算する。誘導照明指令部J5は、目標地点5の許容誤差範囲5Gに対応する許容誤差ε0と、演算された誤差εとを比較し、演算誤差εが許容誤差ε0より小さくなっている時期、つまり照準点5Aが画像上で目標地点5の許容誤差範囲5Gに入る時期(図37;時刻ta、tb、tc、td)に、パルス状の誘導照明9(図17、図32、図33、図34参照)を照射する指令を出力する。誘導照明照射部J6は、誘導照明指令部J5から照射指令を受け取ると、誘導照明9を出射し、目標地点5に向けて照射する。
この結果、振動が多い(大きい)UAV101から誘導照明9を出射する場合でも、誘導照明9の照射点91は、正確に目標地点5に一致することになり、セミアクティブ弾1は極めて高い命中精度で着弾することになる。
この実施例では、前述した実施例1、2等と同様に、セミアクティブ弾1が目標地点5の近傍4に到達した時刻以降に、パルス状の誘導照明9を照射する場合を前提としている。しかし、セミアクティブ弾1が目標地点5の近傍4に到達した時刻以前より、パルス状の誘導照明9が照射される従来技術にも、適用することができる。
また、この実施例では、前述した実施例1、2等と同様に、誘導照明手段Jからパルス状の誘導照明9を照射するタイミングと、撮像手段11による撮像のタイミングとを同期させる場合を前提としている(図17、図32、図33、図34参照)。しかし、パルス状の誘導照明9を間欠的に照射する一方で、撮像手段11で、目標地点5の方向を常時、撮像する場合にも、適用することができる。
また、この実施例では、前述した実施例1、2等と同様に、誘導照明手段Jが、パルス状の誘導照明9を、繰り返し照射する場合を前提としている(図17、図32、図33、図34参照)。しかし、パルス状の誘導照明9を1回限り照射する場合にも、同様にして、適用することができる。すなわち、図40に示すように、照準点5Aが画像上で目標地点5の許容誤差範囲5Gに入る1回の時期(図40;時刻tu)のみに、パルス状の誘導照明9を照射する実施も可能である。
ところで、照準点5Aが許容誤差範囲5Gに入ったことを画像上で認識してから、誘導照明9の照射を行うと、画像の認識処理の時間分、誘導照明9を照射するタイミングが遅れ、つぎの誘導照明タイミングで誘導照明9を照射したときには照準点5Aが許容誤差範囲5Gから外れていることがある。
そこで、つぎの誘導照明9を照射すべき時期に照準点5Aが目標地点5の許容誤差範囲5Gに入るか否かを予測し、照準点5Aが目標地点5の許容誤差範囲5Gに入ると予測された場合のみに、つぎの誘導照明9を照射してもよい。
つぎに図39を参照して、UAV101の誘導照明手段Jが行われる処理について説明する。
同図39は、UAV101の誘導照明手段Jの構成を示している。
撮像部J1は、誘導照明照射器J6の照準器が指向している地点の動画像を連続的に撮影するモニタカメラである。たとえば、紫外線ないしは可視光CCDカメラ、近赤外光エリアセンサ、熱画像カメラ、微光暗視カメラなどを使用することができる。
撮影部J1から出力される動画像の信号130Aは、画像安定部J2に入力される。この動画像は、UAV101のエンジン振動や突風などの各種外乱によって常に動揺する映像であるが、この映像の中心は常に照準点5Aである。
画像安定部J2は、動画像の信号130Aを入力し、動画像を上下左右に平行移動させるとともに、指定した特定の点、つまり目標地点5を通る水平線が画像の水平線となるように画像を回転させて、指定した特定の点(目標地点5)を常時、画像の中心に位置させる画像安定化処理を行い、その結果得られた安定化動画像の信号130Bを出力する。画像安定部J2は、いわば公知のビデオカメラにみられる「手ブレ」防止のための画像安定回路と同様な処理を行う。なお、特定の点(目標地点5)と水平線が指定されない場合には、画像安定部J2は、入力信号に対して安定化処理を行わずに、そのまま出力する。
画像安定部J2から出力される安定化動画像は、図37で示すように、指定した特定の点(目標地点5)が常時、中心に位置され、水平線が常に画面に対して平行になるように安定して表示される動画像である。この安定化動画像では、UAV101の揺れなどに応じて、時間の経過に伴い、照準点5Aが、画像上で所定の軌跡を描いて動き回る。
画像安定部J2から出力される安定化動画像の信号130Bは、照準誤差演算部J4に入力されるとともに、目標設定部J3に入力される。
目標設定部J3は、上述した特定の点として目標地点5を設定するとともに、この目標地点5を通る水平線を設定する。すなわち、目標設定部J3は、画像安定部J2の出力画像を取り込み、通信手段を介して、地上の装置に送信する。地上の装置では、伝送された画像上に目標地点5が映っている場合に、その目標地点5の位置と水平線の情報130Cを生成して、通信手段を介して目標設定部J2に送信する。目標地点5の位置と水平線の情報130Cは、画像安定部J2に送られ、画像安定部J2では、目標地点5の位置と水平線の情報130Cに基づいて前述した安定化処理を行う。
照準誤差演算部J4は、図38に示すように、安定化画像の中心点である目標地点5と照準点5Aとの誤差εを演算する。すなわち、画像安定部J2で、入力動画像を上下左右に平行移動させた量(x、y)と、特定の点(目標地点5)を通る水平線が出力画像の水平線になるように、入力画像を回転させた角度θを算出し、これら算出結果から、誤差εを演算する。たとえば、誤差εは、
ε=√(x2+y2) …(1)
として求めることができる。なお、上記(1)式のように誤差εを、1次元のスカラ量として求めてもよく、画像移動量(x、y)の情報と画像回転角度θの情報の両方を用いて、誤差εを多次元のベクトル量として求めてもよい。
照準誤差演算部J4から出力される誤差εを示す信号130Dは、誘導照明指令部J5に入力される。
誘導照明指令部J5には、地上の装置から通信手段を介して、目標地点5の許容誤差範囲5Gに対応する許容誤差ε0(=√((x0)2+(y0)2))が入力されるとともに、パルス状の誘導照明9を照射する指令(図17、図32、図33、図34参照)が入力される。
誘導照明指令部J5は、許容誤差ε0と現在の誤差εとを比較し、誤差εが許容誤差ε0より小さくなっている時期、つまり照準点5Aが安定化動画像上で目標地点5の許容誤差範囲5Gに入っている時期であって、照射指令(図17、図32、図33、図34参照)が入力されている時期である場合(図37;時刻ta、tb、tc、td)に限って、照射指令130Eを誘導照明照射部J6に対して出力する。
誘導照明照射部J6は、誘導照明指令部J5から出力される照射指令130Eを受け取ると、誘導照明9を出射し、目標地点5に向けて照射する。
ここで、照準点5Aが許容誤差範囲5Gに入ったことを画像上で認識する処理(画像安定部J2、照準誤差演算部J4、誘導照明指令部J5における処理)を行ってから、照射指令130Eを誘導照明照射部J6に出力すると、誘導照明照射部J6は照射指令130Eを受け取ったつぎの誘導照明タイミングで誘導照明9を照射することになり、画像の認識処理の時間分、誘導照明9を照射するタイミングが遅れ、つぎの誘導照明タイミングで誘導照明9を照射したときには、実際には照準点5Aが許容誤差範囲5Gから外れていることがある。
そこで、図39に示すように、照準誤差推定部J7を設け、誘導照明照射部J6でつぎの誘導照明9を照射すべき時期に照準点5Aが目標地点5の許容誤差範囲5Gに入るか否かを予測し、照準点5Aが目標地点5の許容誤差範囲5Gに入ると予測された場合のみに、つぎの誘導照明9を照射するようにしてもよい。
すなわち、照準誤差推定部J7は、照準誤差演算部J4から出力される画像移動量(x、y)と、画像回転角度θの情報130Fを入力するとともに、誘導照明照射部J6におけるつぎの誘導照明タイミングまでの時間差の情報を入力する。そして、これらのデータと、UAV101の機体全体の動特性を加味して、誘導照明照射部J6におけるつぎの誘導照明タイミングにおける誤差推定量ε′を演算し、この誤差推定量ε′を示す信号130Gを、誘導照明指令部J5に出力する。なお、一定のサンプリングタイムを持つ制御システムにおいては、システムの動特性を考慮した出力の予測手法は、例えば離散時間系のカルマンフィルタなどとして当業者には明らかである。
誘導照明指令部J5は、現在の誤差εの代わりに誤差推定量ε′を用いて、上述した許容誤差ε0との比較判断処理を行い、照射指令130Eを誘導照明照射部J6に対して出力する。この結果、画像認識処理時間による誘導照明タイミングの遅れがあったとしても、誘導照明照射部J6は、照準点5Aが許容誤差範囲5Gに入っている時期に、確実に、誘導照明9を照射することができ、命中精度を、より向上させることができる。
図39に示す実施例では、画像安定部J2を設けて、安定化画像を生成した結果から、画像移動量(x、y)と、画像回転角度θの情報130Fを求めるようにしているが、安定化画像を生成することなく、これら画像移動量(x、y)と、画像回転角度θの情報130Fを演算する実施も可能である。
ところで、前述した実施例1では、図19で説明したように、第1画像30a上で検出された誘導照明9(点照明)の地点を、目標地点5として教示し(教示目標地点41)、順次、撮像される第1画像30a、第2画像30b、第3画像30c、第4画像30dをパターンマッチングにより同定することにより各画像30a、30b、30c、30dにおける教示目標地点41の位置を特定している。ここで、仮に、図37で、照準点5Aが許容誤差範囲5Gから外れている時期に、誘導照明9が照射され、この照射点91が第1画像30a上での教示目標地点41とされたならば、パターンマッチングで得られる以後の第2画像30b、第3画像30c、第4画像30d上での教示目標地点41は、極めて大きな誤差を含むことになる。
そこで、図37〜図39に示す実施例を適用して、図40(a)、(b)に示すように、セミアクティブ弾1が目標地点5の近傍4に到達した時刻ts以降であって、照準点5Aが許容誤差範囲5Gに入る時期tuに、パルス状の誘導照明9を照射し、このときの照射点91を第1画像30a上での教示目標地点41として正確に教示させるようにする。この実施例によれば、パターンマッチングで得られる以後の第2画像30b、第3画像30c、第4画像30d上での教示目標地点41は、誤差のない正確なものであり、セミアクティブ弾1は、時刻tEで極めて高い命中精度で、目標地点5に着弾することになる。
また、前述した実施例1では、図40に示すように、1回限りの教示する実施例の他、複数回、教示する実施例についても説明した。これは、最初の第1画像30a上での教示目標地点41の誤差は、以後の順次拡大される第2画像30b、第3画像30c、第4画像30dでは、順次、拡大されることになり、パターンマッチングの精度が低下することになるため、これを避けるためである。しかし、この複数回、教示を行う場合であっても、各教示目標地点41が誤差を伴うものであれば、命中精度の低下を招く。
そこで、図37〜図39に示す実施例を適用して、図41(a)、(b)に示すように、セミアクティブ弾1が目標地点5の近傍4に到達した時刻ts以降であって、照準点5Aが許容誤差範囲5Gに入る各時期t1、t2、tn-1、tnに、パルス状の誘導照明9をそれぞれ照射し、このときの各照射点91を各画像301、302、30n-1、30n上での各教示目標地点41として正確に教示させるようにする。この実施例によれば、各画像301、302、30n-1、30n上での
上での教示目標地点41は、誤差のない正確なものであり、しかも複数回の教示によりパターンマッチングの精度は極めて高いものであるため、セミアクティブ弾1は、時刻tEで極めて高い命中精度で、目標地点5に着弾することになる。
ところで、図1に示す実施例では、観測手段Aを設けて目標地点5の位置を観測し、この観測された目標地点5の位置のデータを、発射・記録手段Eを送り、発射・記録手段Eで、セミアクティブ弾1を発射させ、発射させたセミアクティブ弾1の発射実績を記録し、発射実績のデータとともに目標地点5の位置のデータを弾道予測手段Gに送り、弾道予測手段Gで、目標地点の位置データと弾の発射実績のデータとに基づきセミアクティブ弾1が目標地点近傍4に到達する時刻を予測演算しているが、このようなデータの流れ、構成に限るわけではなく、予測演算手段Gで、目標地点5の位置データとセミアクティブ弾1の発射実績のデータとに基づきセミアクティブ弾1が目標地点5の近傍4に到達する時刻を演算することができるのであれば、データの流れ、構成は任意である。例えば、観測手段Aから直接、弾道予測手段Gに目標地点5のデータを送ってもよく、目標地点5が既知であるならば、弾道予測手段Gで目標地点5のデータを予め記憶しておいてもよい。場合によっては、発射実績のデータとして既知のデータを使用できるのであれば、弾道予測手段Gで発射実績のデータを予め記憶しておいてもよい。