JP2018151300A - Position estimation method, position estimation device and position estimation program - Google Patents

Position estimation method, position estimation device and position estimation program Download PDF

Info

Publication number
JP2018151300A
JP2018151300A JP2017048647A JP2017048647A JP2018151300A JP 2018151300 A JP2018151300 A JP 2018151300A JP 2017048647 A JP2017048647 A JP 2017048647A JP 2017048647 A JP2017048647 A JP 2017048647A JP 2018151300 A JP2018151300 A JP 2018151300A
Authority
JP
Japan
Prior art keywords
observation
coordinate system
flying object
estimated
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017048647A
Other languages
Japanese (ja)
Other versions
JP6880857B2 (en
Inventor
聡司 大嶋
Satoshi Oshima
聡司 大嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017048647A priority Critical patent/JP6880857B2/en
Publication of JP2018151300A publication Critical patent/JP2018151300A/en
Application granted granted Critical
Publication of JP6880857B2 publication Critical patent/JP6880857B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a position estimation method capable of reducing the time required until the result of a calculation on the position of an aircraft converges.SOLUTION: The position estimation method includes a series of processing of: acquiring a piece of observation information of an aircraft; and calculating an estimation position of the aircraft by applying a nonlinear Bayesian filter based on a state equation which includes a term of the system error in which an initial value of the covariance is set to a first predetermined value and an observation equation which includes a term of an observation residual in which an initial value of the covariance is set to a second predetermined value.SELECTED DRAWING: Figure 5

Description

本発明は、飛翔体の位置の推定技術に関する。   The present invention relates to a technique for estimating the position of a flying object.

飛翔体(弾道弾、ロケット、或いは人工衛星等)の位置を推定する技術が存在する。例えば、或る文献は、飛翔している目標の観測情報を用いて、最小二乗法によるバッチフィルタに基づき目標位置を推定する技術を開示する。   There are techniques for estimating the position of a flying object (such as a ballistic bullet, rocket, or artificial satellite). For example, a document discloses a technique for estimating a target position based on a batch filter based on a least square method using observation information of a flying target.

上記のような技術においては、計算結果が収束した場合あるいは計算結果が収束したとみなすことができる時間が経過した場合に、飛翔体の推定位置および推定速度等を用いて飛翔体の落下位置を予測する計算が開始される。従って、計算結果が収束するまでの時間を短縮することができれば、より早い段階から飛翔体の落下の予測位置を知ることができる。これにより、飛翔体の落下に備えた対策をより早い段階で講じることができる。   In the above-described technology, when the calculation result converges or when a time that can be considered that the calculation result has converged has elapsed, the flying object's drop position is determined using the estimated position and estimated speed of the flying object. Calculation to predict is started. Therefore, if the time until the calculation result converges can be shortened, the predicted position of the flying object can be known from an earlier stage. As a result, it is possible to take measures in preparation for the falling of the flying object at an earlier stage.

しかし、最小二乗法に基づく計算を実行する場合、観測値のサンプリングの間隔を短くすることでサンプル数を増加させると、計算量が増大する。結果として、計算結果が収束するまでの時間が長くなる。   However, when the calculation based on the least square method is executed, the calculation amount increases when the number of samples is increased by shortening the sampling interval of the observation values. As a result, the time until the calculation result converges becomes longer.

特開2002−202367号公報JP 2002-202367 A

本発明の目的は、1つの側面では、飛翔体の位置に関する計算の結果が収束するまでに要する時間を短縮するための技術を提供することである。   In one aspect, an object of the present invention is to provide a technique for shortening a time required for a calculation result related to a position of a flying object to converge.

一態様に係る位置推定方法は、飛翔体の観測情報を取得し、共分散の初期値が第1の所定値に設定されたシステム誤差の項を含む状態方程式と、共分散の初期値が第2の所定値に設定された観測残差の項を含む観測方程式とに基づく非線形のベイズフィルタを観測情報に適用して、飛翔体の推定位置を算出する処理を含む。   A position estimation method according to an aspect includes a state equation including a system error term in which observation information of a flying object is acquired and an initial value of covariance is set to a first predetermined value, and an initial value of covariance is 2 including a process of calculating an estimated position of the flying object by applying a nonlinear Bayes filter based on an observation equation including an observation residual term set to a predetermined value of 2 to the observation information.

1つの側面では、飛翔体の位置に関する計算の結果が収束するまでに要する時間を短縮できるようになる。   In one aspect, the time required for the calculation result regarding the position of the flying object to converge can be shortened.

図1は、飛翔体である弾道弾の位置の算出について説明するための図である。FIG. 1 is a diagram for explaining the calculation of the position of a ballistic bullet that is a flying object. 図2は、運動方程式に基づき弾道弾の位置を予測する処理について説明するための図である。FIG. 2 is a diagram for explaining the process of predicting the position of the ballistic bullet based on the equation of motion. 図3は、標定処理に基づく着弾位置の予測について説明するための図である。FIG. 3 is a diagram for explaining the prediction of the landing position based on the orientation process. 図4は、本実施の形態に係るシステムの構成図である。FIG. 4 is a configuration diagram of a system according to the present embodiment. 図5は、情報処理装置の機能ブロック図である。FIG. 5 is a functional block diagram of the information processing apparatus. 図6は、センサ信号処理部が実行する処理の処理フローを示す図である。FIG. 6 is a diagram illustrating a processing flow of processing executed by the sensor signal processing unit. 図7は、標定処理部および着弾予測部が実行する処理の処理フローを示す図である。FIG. 7 is a diagram illustrating a processing flow of processing executed by the orientation processing unit and the landing prediction unit. 図8は、局所座標系での原点を示す図である。FIG. 8 is a diagram showing the origin in the local coordinate system. 図9は、局所座標系での原点と弾道弾の位置との関係を示す図である。FIG. 9 is a diagram showing the relationship between the origin and the position of the ballistic bullet in the local coordinate system. 図10は、ECEF座標系とNED座標系との関係を示す図である。FIG. 10 is a diagram showing the relationship between the ECEF coordinate system and the NED coordinate system. 図11は、NED座標系と機体座標系と視軸座標系との関係を示す図である。FIG. 11 is a diagram illustrating a relationship among the NED coordinate system, the body coordinate system, and the visual axis coordinate system. 図12は、標定処理の処理フローを示す図である。FIG. 12 is a diagram illustrating a processing flow of the orientation processing. 図13は、弾道弾の位置と観測機の位置との関係を示す図である。FIG. 13 is a diagram illustrating the relationship between the position of the ballistic bullet and the position of the observation device. 図14は、着弾予測処理の処理フローを示す図である。FIG. 14 is a diagram illustrating a processing flow of landing prediction processing. 図15は、予測着弾範囲の算出について説明するための図である。FIG. 15 is a diagram for explaining calculation of the predicted landing range. 図16は、シミュレーションにおける弾道弾を示す図である。FIG. 16 is a diagram showing ballistic bullets in the simulation. 図17は、飛翔シナリオを示す図である。FIG. 17 is a diagram illustrating a flight scenario. 図18は、シミュレーション条件を示す図である。FIG. 18 is a diagram showing simulation conditions. 図19は、シミュレーション条件を示す図である。FIG. 19 is a diagram showing simulation conditions. 図20は、シミュレーションの処理フローを示す図である。FIG. 20 is a diagram illustrating a processing flow of simulation. 図21は、計算結果が収束するまでの時間を示す図である。FIG. 21 is a diagram illustrating the time until the calculation result converges. 図22は、サンプリング間隔毎に標定誤差を示す図である。FIG. 22 is a diagram illustrating the orientation error for each sampling interval. 図23は、標定誤差と観測時間との関係を示す図である。FIG. 23 is a diagram illustrating the relationship between the orientation error and the observation time. 図24は、システム誤差の共分散の設定値を変化させた場合における標定誤差を示す図である。FIG. 24 is a diagram illustrating the orientation error when the setting value of the covariance of the system error is changed. 図25は、第2の設定値を使用した場合における標定誤差を示す図である。FIG. 25 is a diagram illustrating the orientation error when the second set value is used. 図26は、着弾位置の予測誤差を示す図である。FIG. 26 is a diagram illustrating the prediction error of the landing position. 図27は、着弾位置の予測誤差と観測時間との関係を示す図である。FIG. 27 is a diagram illustrating the relationship between the prediction error of the landing position and the observation time.

図1は、飛翔体である弾道弾3の位置の算出について説明するための図である。本実施の形態の主要な処理を実行する観測機1は、弾道弾3の位置情報を二次元カメラ座標(H,V)(すなわち画像上の画素位置)として取得する。観測機1のECEF(Earth Center Earth Fixed)座標系での位置(a,b,c)、機体座標系での視軸方位(θe,Φe,εe)およびNED(North-East-Down)座標系での姿勢角(α,β,γ)は、観測機1において計測可能である。 FIG. 1 is a diagram for explaining the calculation of the position of the ballistic bullet 3 that is a flying object. The observation device 1 that executes the main processing of the present embodiment acquires the position information of the ballistic bullet 3 as the two-dimensional camera coordinates (H, V) (that is, the pixel position on the image). Position (a, b, c) of the observation device 1 in the ECEF (Earth Center Earth Fixed) coordinate system, visual axis direction (θ e , Φ e , ε e ) and NED (North-East-Down) in the body coordinate system The attitude angles (α, β, γ) in the coordinate system can be measured by the observation device 1.

上記の二次元カメラ座標、姿勢角および視軸方位を用いて、弾道弾3の局所座標系での目標方位(θ,Φ,ε)を算出することはできる。しかし、観測機1から弾道弾3までの距離が判明しなければ、弾道弾3の位置(x,y,z)を算出することはできない。   The target azimuth (θ, Φ, ε) in the local coordinate system of the ballistic bullet 3 can be calculated using the above two-dimensional camera coordinates, posture angle, and visual axis azimuth. However, the position (x, y, z) of the ballistic bullet 3 cannot be calculated unless the distance from the observation device 1 to the ballistic bullet 3 is known.

そこで本実施の形態においては、観測機1から弾道弾3までの距離が所定距離であることを仮定して弾道弾3の位置(x,y,z)が計算される。   Therefore, in the present embodiment, the position (x, y, z) of the ballistic bullet 3 is calculated on the assumption that the distance from the observer 1 to the ballistic bullet 3 is a predetermined distance.

図2は、運動方程式に基づき弾道弾3の位置を予測する処理について説明するための図である。本実施の形態のように目標が弾道弾3である場合、発射台から発射された後にブーストフェーズが終了すると弾道弾3は自由落下するので、弾道弾3の移動を1つの運動方程式で表すことができる。具体的には、観測機1から弾道弾3までの距離が所定距離であることを仮定して計算された位置(xt1,yt1,zt1)を起点として運動方程式に基づき計算を行えば、単位時間後の位置(xt2,yt2,zt2)を予測することができる。 FIG. 2 is a diagram for explaining processing for predicting the position of the ballistic bullet 3 based on the equation of motion. When the target is the ballistic bullet 3 as in the present embodiment, the ballistic bullet 3 falls free when the boost phase ends after being fired from the launch pad. Therefore, the movement of the ballistic bullet 3 can be expressed by one equation of motion. Specifically, if the calculation is performed based on the equation of motion starting from the position (x t1 , y t1 , z t1 ) calculated on the assumption that the distance from the observation device 1 to the ballistic bullet 3 is a predetermined distance, The position (x t2 , y t2 , z t2 ) after the unit time can be predicted.

図3は、標定処理に基づく着弾位置の予測について説明するための図である。本実施の形態においては、弾道弾3のブーストフェーズが終了すると標定処理が開始される。標定処理においては、サンプリング間隔ごとに計算された目標方位とその予測値との誤差が小さくなるように弾道弾3の推定位置および推定速度が修正される。本実施の形態においては、計算結果が収束したとみなすことができる時間が経過した場合(例えば数十秒)、最終的に算出された推定位置および推定速度を用いて、運動方程式に従って予測の着弾位置(より具体的には、着弾の予測範囲)が計算される。   FIG. 3 is a diagram for explaining the prediction of the landing position based on the orientation process. In the present embodiment, the orientation process is started when the boost phase of the ballistic bullet 3 ends. In the orientation process, the estimated position and estimated speed of the ballistic ammunition 3 are corrected so that the error between the target direction calculated at each sampling interval and its predicted value becomes small. In this embodiment, when a time that can be considered that the calculation result has converged has elapsed (for example, several tens of seconds), the predicted landing according to the equation of motion is performed using the estimated position and the estimated speed that are finally calculated. A position (more specifically, a predicted landing range) is calculated.

図4は、本実施の形態に係るシステムの構成図である。本実施の形態における観測機1の機外には、GPS(Global Positioning System)アンテナ1000と、捜索センサ1001と、追尾センサ1002と、ジンバル1003と、位置方位基準器1004とが設置される。観測機1の機内には、情報処理装置10が設置される。   FIG. 4 is a configuration diagram of a system according to the present embodiment. A GPS (Global Positioning System) antenna 1000, a search sensor 1001, a tracking sensor 1002, a gimbal 1003, and a position / orientation reference device 1004 are installed outside the observation device 1 in this embodiment. An information processing apparatus 10 is installed in the observation machine 1.

GPSアンテナ1000により、観測機1のECEF座標系での位置の情報が取得される。捜索センサ1001および追尾センサ1002は、パッシブ二次元撮像装置である赤外線センサである。捜索センサ1001は、弾道弾3を探知し、弾道弾3の二次元カメラ座標を取得する。追尾センサ1002は、捜索センサ1001により検知された弾道弾3の飛翔に合わせて弾道弾3の二次元カメラ座標を取得する。ジンバル1003は、捜索センサ1001および追尾センサ1002の向きを制御する。位置方位基準器1004は、機体情報(例えば、姿勢角および視軸方位等の情報)を取得する。   Information on the position of the observation device 1 in the ECEF coordinate system is acquired by the GPS antenna 1000. Search sensor 1001 and tracking sensor 1002 are infrared sensors that are passive two-dimensional imaging devices. The search sensor 1001 detects the ballistic bullet 3 and acquires the two-dimensional camera coordinates of the ballistic bullet 3. The tracking sensor 1002 acquires the two-dimensional camera coordinates of the ballistic bullet 3 in accordance with the flight of the ballistic bullet 3 detected by the search sensor 1001. The gimbal 1003 controls the direction of the search sensor 1001 and the tracking sensor 1002. The position / orientation reference unit 1004 acquires body information (for example, information such as an attitude angle and a visual axis direction).

情報処理装置10は、1又は複数のCPU(Central Processing Unit)151と、1又は複数のメモリ153(例えばDRAM(Dynamic Random Access Memory))と、1又は複数のHDD(Hard Disk Drive)155とを有する。   The information processing apparatus 10 includes one or more CPUs (Central Processing Units) 151, one or more memories 153 (for example, DRAM (Dynamic Random Access Memory)), and one or more HDDs (Hard Disk Drive) 155. Have.

情報処理装置10は、取得されたカメラ座標、位置情報、姿勢角および視軸方位等に基づき処理を実行する。また、情報処理装置10は、処理結果に基づきジンバル1003を制御する。   The information processing apparatus 10 executes processing based on the acquired camera coordinates, position information, posture angle, visual axis direction, and the like. Further, the information processing apparatus 10 controls the gimbal 1003 based on the processing result.

このように、本実施の形態に係るシステムはIRST(Infra-Red Search and Track)システムの機能を有する。   Thus, the system according to the present embodiment has the function of an IRST (Infra-Red Search and Track) system.

図5は、情報処理装置10の機能ブロック図である。情報処理装置10は、ジンバル制御部101と、センサ信号処理部103と、標定処理部105と、着弾予測部107と、標定結果格納部111と、出力データ格納部113とを有する。   FIG. 5 is a functional block diagram of the information processing apparatus 10. The information processing apparatus 10 includes a gimbal control unit 101, a sensor signal processing unit 103, an orientation processing unit 105, an impact prediction unit 107, an orientation result storage unit 111, and an output data storage unit 113.

ジンバル制御部101、センサ信号処理部103、標定処理部105および着弾予測部107は、例えば、図4に示したメモリ153にロードされたプログラムがCPU151に実行されることで実現される。標定結果格納部111および出力データ格納部113は、例えば、メモリ153又はHDD155に設けられる。   The gimbal control unit 101, the sensor signal processing unit 103, the orientation processing unit 105, and the landing prediction unit 107 are realized, for example, by causing the CPU 151 to execute a program loaded in the memory 153 illustrated in FIG. The orientation result storage unit 111 and the output data storage unit 113 are provided in the memory 153 or the HDD 155, for example.

ジンバル制御部101は、後述の標定処理の結果に基づきジンバル1003の動作を制御する。センサ信号処理部103は、弾道弾3の方位(以下、目標方位と呼ぶ)を算出し、算出した目標方位の情報を標定処理部105に出力する。標定処理部105は、センサ信号処理部103の処理の結果およびその他の情報(例えば設定値等)に基づき、後述の標定処理を実行し、標定処理の結果を標定結果格納部111に格納する。着弾予測部107は、標定結果格納部111に格納されているデータに基づき処理を実行し、処理結果を出力データ格納部113に格納する。   The gimbal control unit 101 controls the operation of the gimbal 1003 based on the result of the orientation process described later. The sensor signal processing unit 103 calculates the azimuth of the ballistic bullet 3 (hereinafter referred to as a target azimuth) and outputs the calculated target azimuth information to the orientation processing unit 105. The orientation processing unit 105 executes orientation processing described later based on the processing result of the sensor signal processing unit 103 and other information (for example, a set value), and stores the result of orientation processing in the orientation result storage unit 111. The landing prediction unit 107 executes processing based on the data stored in the orientation result storage unit 111 and stores the processing result in the output data storage unit 113.

次に、図6乃至図15を用いて、情報処理装置10の動作について説明する。   Next, the operation of the information processing apparatus 10 will be described with reference to FIGS.

図6は、センサ信号処理部103が実行する処理の処理フローを示す図である。本処理は、サンプリング間隔(例えば500ミリ秒)ごとに実行される。   FIG. 6 is a diagram illustrating a processing flow of processing executed by the sensor signal processing unit 103. This process is executed every sampling interval (for example, 500 milliseconds).

センサ信号処理部103は、センサデータ(具体的には、弾道弾3の二次元カメラ座標)を捜索センサ1001および追尾センサ1002から取得する。また、センサ信号処理部103は、機体情報(例えば、姿勢角および視軸方位等の情報)をジンバル制御部101を介して位置方位基準器1004から取得する。さらに、センサ信号処理部103は、観測機1の位置情報をGPSアンテナ1000から取得する(図6:ステップS1)。   The sensor signal processing unit 103 acquires sensor data (specifically, the two-dimensional camera coordinates of the ballistic bullet 3) from the search sensor 1001 and the tracking sensor 1002. Further, the sensor signal processing unit 103 acquires body information (for example, information such as an attitude angle and a visual axis direction) from the position / direction reference unit 1004 via the gimbal control unit 101. Further, the sensor signal processing unit 103 acquires the position information of the observation device 1 from the GPS antenna 1000 (FIG. 6: Step S1).

センサ信号処理部103は、ステップS1において取得した情報に基づき弾道弾3の目標方位を算出し(ステップS3)、メモリ153等の記憶装置に格納する。具体的には、アジマス角AZL(ε=0,Φ)及びエレベーション角ELL(ε=0,θ)が算出される。なお、座標系は局所座標系であり、視軸方位と同じ座標系であってもよいし異なる座標系であってもよい。そして処理は終了する。 The sensor signal processing unit 103 calculates the target azimuth of the ballistic bullet 3 based on the information acquired in step S1 (step S3) and stores it in a storage device such as the memory 153. Specifically, the azimuth angle AZ L (ε = 0, Φ) and the elevation angle EL L (ε = 0, θ) are calculated. The coordinate system is a local coordinate system and may be the same coordinate system as the visual axis direction or a different coordinate system. Then, the process ends.

以上のような処理により算出された弾道弾3の目標方位を用いれば、後の処理において弾道弾3の位置を算出できるようになる。   If the target orientation of the ballistic bullet 3 calculated by the above processing is used, the position of the ballistic bullet 3 can be calculated in the subsequent processing.

図7は、標定処理部105および着弾予測部107が実行する処理の処理フローを示す図である。本処理は、捜索センサ1001により弾道弾3が探知され且つ追尾センサ1002による追尾が開始された後に実行される。   FIG. 7 is a diagram illustrating a processing flow of processing executed by the orientation processing unit 105 and the landing prediction unit 107. This process is executed after the ballistic bullet 3 is detected by the search sensor 1001 and tracking by the tracking sensor 1002 is started.

まず、本実施の形態のシステムモデルを示す。本実施の形態のシステムモデルは拡張カルマンフィルタに基づいており、状態方程式は以下のように表される。   First, the system model of this embodiment is shown. The system model of the present embodiment is based on the extended Kalman filter, and the state equation is expressed as follows.

Figure 2018151300
Figure 2018151300

ここで、v(t)はシステム誤差であり、共分散行列がQ(t)であり且つ0を平均とする分布に従う。   Here, v (t) is a system error, and follows a distribution in which the covariance matrix is Q (t) and 0 is an average.

Figure 2018151300
Figure 2018151300

本実施の形態における観測方程式は、以下の観測方程式であるとする。   It is assumed that the observation equation in the present embodiment is the following observation equation.

Figure 2018151300
Figure 2018151300

ここで、w(t)は観測残差であり、共分散行列がR(t)であり且つ0を平均とする分布に従う。   Here, w (t) is an observation residual, follows a distribution in which the covariance matrix is R (t) and 0 is an average.

Figure 2018151300
Figure 2018151300

なお、以下では、共分散行列のことを単に共分散と呼ぶ場合が有る。   In the following description, the covariance matrix may be simply referred to as covariance.

時間遷移モデルF(t)は、6行6列の行列として以下のように表される。   The time transition model F (t) is expressed as a matrix of 6 rows and 6 columns as follows.

Figure 2018151300
Figure 2018151300

なお、ハットの記号は予測値を表し、バーの記号は推定値を表す。   The hat symbol represents the predicted value, and the bar symbol represents the estimated value.

状態変数x(t)は、以下のように表される。   The state variable x (t) is expressed as follows.

Figure 2018151300
Figure 2018151300

観測モデルH(t)は、2行6列の行列として以下のように表される。   The observation model H (t) is expressed as a 2 × 6 matrix as follows.

Figure 2018151300
Figure 2018151300

そして、標定処理部105は、弾道弾3のブーストフェーズが終了したか判定する(図7:ステップS11)。ブーストフェーズが終了したか否かは、例えば、二次元カメラ座標の遷移から推定される加速度等に基づいて判定される。   Then, the orientation processing unit 105 determines whether or not the boost phase of the ballistic bullet 3 has ended (FIG. 7: Step S11). Whether or not the boost phase has ended is determined based on, for example, acceleration estimated from the transition of the two-dimensional camera coordinates.

弾道弾3のブーストフェーズが終了していない場合(ステップS11:Noルート)、処理はステップS11に戻る。   If the boost phase of the ballistic bullet 3 has not ended (step S11: No route), the process returns to step S11.

一方、弾道弾3のブーストフェーズが終了した場合(ステップS11:Yesルート)、標定処理部105は、弾道弾3の局所座標系での初期位置を算出する(ステップS13)。ステップS13においては、例えば以下の式に従って初期位置が算出される。   On the other hand, when the boost phase of the ballistic bullet 3 is completed (step S11: Yes route), the orientation processing unit 105 calculates the initial position of the ballistic bullet 3 in the local coordinate system (step S13). In step S13, for example, the initial position is calculated according to the following equation.

Figure 2018151300
Figure 2018151300

Rは、観測機1から弾道弾3が初めて探知された位置までの距離の設定値を表す。本実施の形態においては、例えば、R=1200(km)としてRが設定される。   R represents a set value of the distance from the observation device 1 to the position where the ballistic bullet 3 is detected for the first time. In the present embodiment, for example, R is set as R = 1200 (km).

図8は、局所座標系での原点を示す図である。ここでは、局所座標系は三次元直交座標系であり、捜索センサ1001および追尾センサ1002の位置(すなわち観測機1の位置)が原点Oである。X軸の正方向は北方向であり、Y軸の正方向は東方向であり、Z軸の正方向は天頂方向である。   FIG. 8 is a diagram showing the origin in the local coordinate system. Here, the local coordinate system is a three-dimensional orthogonal coordinate system, and the positions of the search sensor 1001 and the tracking sensor 1002 (that is, the position of the observation device 1) are the origin O. The positive direction of the X axis is the north direction, the positive direction of the Y axis is the east direction, and the positive direction of the Z axis is the zenith direction.

図9は、局所座標系での原点と弾道弾3の位置との関係を示す図である。Oは原点を表し、観測機1の位置に相当する。原点からの距離がRである位置901が弾道弾3の位置に相当する。弾道弾3の位置901は、原点を基準として、アジマス角Φおよびエレベーション角θにより特定される。   FIG. 9 is a diagram illustrating the relationship between the origin and the position of the ballistic bullet 3 in the local coordinate system. O represents the origin and corresponds to the position of the observation device 1. A position 901 whose distance from the origin is R corresponds to the position of the ballistic bullet 3. The position 901 of the ballistic bullet 3 is specified by the azimuth angle Φ and the elevation angle θ with respect to the origin.

なお、標定処理部105は、弾道弾3の初期位置の座標を、最終的にECEF座標系での座標に変換する。   The orientation processing unit 105 finally converts the coordinates of the initial position of the ballistic bullet 3 into coordinates in the ECEF coordinate system.

ここで、座標系の変換について説明する。   Here, the transformation of the coordinate system will be described.

図10は、ECEF座標系とNED座標系との関係を示す図である。ECEF座標系は直交座標系であり、原点は地球の中心に有る。一方、NED座標系はセンサ(本実施の形態においては観測機1)の位置(図10においては、経度がλであり且つ緯度がδである位置)を原点とする直交座標系である。上で述べたように、X軸の正方向は北方向であり、Y軸の正方向は東方向であり、Z軸の正方向は天頂方向である。なお、RECEF_NEDが、ECEF座標系を観測機1の位置を原点とする局所座標系の座標に変換する行列式であるとすると、RNED_ECEF=RECEF_NED -1が成立する。 FIG. 10 is a diagram showing the relationship between the ECEF coordinate system and the NED coordinate system. The ECEF coordinate system is an orthogonal coordinate system, and the origin is at the center of the earth. On the other hand, the NED coordinate system is an orthogonal coordinate system whose origin is the position of the sensor (observer 1 in the present embodiment) (the position where the longitude is λ and the latitude is δ in FIG. 10). As described above, the positive direction of the X axis is the north direction, the positive direction of the Y axis is the east direction, and the positive direction of the Z axis is the zenith direction. If R ECEF_NED is a determinant that converts the ECEF coordinate system into the coordinates of the local coordinate system with the position of the observation device 1 as the origin, R NED_ECEF = R ECEF_NED −1 is satisfied.

図11は、NED座標系と機体座標系と視軸座標系との関係を示す図である。図11において、RNED_ACは姿勢角(ロール,ピッチ,ヨー)を用いてNED座標系を機体座標系に変換する行列式であり、RAC_VIは視軸方位を用いて機体座標系を視軸座標系に変換する行列式である。この場合、RAC_NED=RNED_AC -1が成立し、また、RVI_AC=RAC_VI -1が成立する。なお、本実施の形態においては、視軸座標系でローテーションθが0である場合、ε=AZLとし、Φ=ELLとしている。 FIG. 11 is a diagram illustrating a relationship among the NED coordinate system, the body coordinate system, and the visual axis coordinate system. In FIG. 11, R NED_AC is a determinant that transforms the NED coordinate system into the airframe coordinate system using posture angles (roll, pitch, yaw), and R AC_VI uses the visual axis direction to convert the airframe coordinate system into the visual axis coordinates It is a determinant to convert to a system. In this case, R AC_NED = R NED_AC −1 is satisfied, and R VI_AC = R AC_VI −1 is satisfied. In the present embodiment, when the rotation θ is 0 in the visual axis coordinate system, ε = AZ L and Φ = EL L.

また、ECEF座標系と測地座標系との関係は以下のとおりである。   The relationship between the ECEF coordinate system and the geodetic coordinate system is as follows.

Figure 2018151300
Figure 2018151300

Figure 2018151300
Figure 2018151300

Figure 2018151300
Figure 2018151300

ここで、X、YおよびZはそれぞれECEF座標系の座標を表す。λ、Φ及びhはそれぞれ緯度、経度および高度を表す。aは赤道半径を表し、6,378,137(m)である。fは扁平率を表し、1/298.257223563である。   Here, X, Y, and Z represent the coordinates of the ECEF coordinate system, respectively. λ, Φ, and h represent latitude, longitude, and altitude, respectively. a represents the equator radius and is 6,378,137 (m). f represents the flatness ratio and is 1 / 298.257223563.

ECI(Earth-Centered Inertial)座標系およびECEF座標系には、地球自転によるZ軸まわりの回転角についてΔΦの違いがあり、ECI座標系とECEF座標系との関係は以下のとおりである。   The ECI (Earth-Centered Inertial) coordinate system and the ECEF coordinate system have a difference of ΔΦ with respect to the rotation angle around the Z axis due to the earth rotation, and the relationship between the ECI coordinate system and the ECEF coordinate system is as follows.

Figure 2018151300
Figure 2018151300

ここで、x、yおよびzはそれぞれECI座標系の座標を表す。ΔΦはECI座標系に対する、ECEF座標系のz軸(Z軸)軸周りの回転角を表す。   Here, x, y, and z each represent a coordinate in the ECI coordinate system. ΔΦ represents a rotation angle around the z-axis (Z-axis) axis of the ECEF coordinate system with respect to the ECI coordinate system.

測地座標系からECI座標系またはECEF座標系への変換は、上で示した式への代入により行うことができる。   Conversion from the geodetic coordinate system to the ECI coordinate system or the ECEF coordinate system can be performed by substituting into the equation shown above.

ECI座標系またはECEF座標系から測地座標系への座標変換は、以下の式のとおりである。   The coordinate conversion from the ECI coordinate system or the ECEF coordinate system to the geodetic coordinate system is as follows.

Figure 2018151300
Figure 2018151300

ここで、aは地球長半径を表し、6378137.0(m)である。eは離心率を表し、0.0818191910428158である。fは扁平率を表し、0.003352811である。   Here, a represents the Earth's long radius, which is 6378137.0 (m). e represents the eccentricity and is 0.0818191910428158. f represents the aspect ratio, which is 0.003352811.

図7の説明に戻り、標定処理部105は、弾道弾3の初期速度を算出する(ステップS15)。弾道弾3の初期速度は、例えば、弾道弾3の初期位置と運動モデルとから算出される。但し、その他の方法で算出してもよいし、予め初期速度を設定してもよい。   Returning to the explanation of FIG. 7, the orientation processing unit 105 calculates the initial velocity of the ballistic bullet 3 (step S15). The initial velocity of the ballistic bullet 3 is calculated from, for example, the initial position of the ballistic bullet 3 and the motion model. However, it may be calculated by other methods, or the initial speed may be set in advance.

標定処理部105は、システム誤差の初期共分散および観測残差の初期共分散を設定する(ステップS17)。システム誤差の初期共分散は、例えば、微小時間において弾道弾3が等加速に移動するという仮定した場合における全特異点の留数の総和に基づく。観測残差の初期共分散は、例えば、観測時に発生しうる最大誤差に基づく。但し、微小時間において弾道弾3が等加速に移動するという仮定してシステム誤差の初期共分散および観測残差の初期共分散を設定してもよい。   The orientation processing unit 105 sets the initial covariance of the system error and the initial covariance of the observation residual (step S17). The initial covariance of the system error is based on, for example, the sum of the residues of all singular points when it is assumed that the ballistic bullet 3 moves at equal acceleration in a minute time. The initial covariance of the observation residual is based on, for example, the maximum error that can occur during observation. However, the initial covariance of the system error and the initial covariance of the observation residual may be set on the assumption that the ballistic bullet 3 moves at equal acceleration in a very short time.

標定処理部105は、弾道弾3の高度が0より小さいか判定する(ステップS19)。   The orientation processing unit 105 determines whether the altitude of the ballistic bullet 3 is smaller than 0 (step S19).

弾道弾3の高度が0より小さい場合(ステップS19:Yesルート)、処理は終了する。弾道弾3の高度が0より小さくない場合(ステップS19:Noルート)、標定処理部105は、標定処理を実行する(ステップS21)。標定処理については、図12及び図13を用いて説明する。   When the altitude of the ballistic bullet 3 is smaller than 0 (step S19: Yes route), the process ends. When the altitude of the ballistic bullet 3 is not smaller than 0 (step S19: No route), the orientation processing unit 105 executes orientation processing (step S21). The orientation process will be described with reference to FIGS. 12 and 13.

まず、標定処理部105は、座標系をECEF座標系から回転座標系(すなわち非慣性座標系)に変換する(図12:ステップS31)。   First, the orientation processing unit 105 converts the coordinate system from an ECEF coordinate system to a rotating coordinate system (that is, a non-inertial coordinate system) (FIG. 12: step S31).

標定処理部105は、弾道弾3の予測位置および予測速度を算出する(ステップS33)。ステップS33においては、以下の式に基づき予測位置が算出される。   The orientation processing unit 105 calculates the predicted position and predicted speed of the ballistic bullet 3 (step S33). In step S33, the predicted position is calculated based on the following equation.

Figure 2018151300
Figure 2018151300

ここで、xハット(t+Δt)は時刻(t+Δt)におけるx座標の予測値であり、yハット(t+Δt)は時刻(t+Δt)におけるy座標の予測値であり、zハット(t+Δt)は時刻(t+Δt)におけるz座標の予測値である。xバー(t)は時刻tにおけるx座標の推定値であり、yバー(t)は時刻tにおけるy座標の推定値であり、zバー(t)は時刻tにおけるz座標の推定値であるが、t=0の場合には弾道弾3の初期位置である。Vxバー(t)は時刻tにおけるx方向の速度の推定値であり、Vyバー(t)は時刻tにおけるy方向の速度の推定値であり、Vzバー(t)は時刻tにおけるz方向の速度の推定値であるが、t=0の場合には弾道弾3の初期速度である。Δtはサンプリング間隔(秒)である。   Here, x hat (t + Δt) is the predicted value of the x coordinate at time (t + Δt), y hat (t + Δt) is the predicted value of the y coordinate at time (t + Δt), and z hat (t + Δt) is the time (t + Δt). ) Is the predicted value of the z coordinate. x bar (t) is an estimated value of x coordinate at time t, y bar (t) is an estimated value of y coordinate at time t, and z bar (t) is an estimated value of z coordinate at time t. Is the initial position of the ballistic bullet 3 when t = 0. Vx bar (t) is an estimated value of velocity in the x direction at time t, Vy bar (t) is an estimated value of velocity in the y direction at time t, and Vz bar (t) is an estimated value of z direction at time t. The estimated value of the velocity is the initial velocity of the ballistic bullet 3 when t = 0. Δt is a sampling interval (second).

なお、弾道弾3の予測速度は、例えば、時刻tにおける弾道弾3の速度の推定値と、重力加速度(m/s2)と、コリオリ力と、遠心力とに基づき算出される。 Note that the predicted speed of the ballistic bullet 3 is calculated based on, for example, an estimated value of the velocity of the ballistic bullet 3 at time t, gravity acceleration (m / s 2 ), Coriolis force, and centrifugal force.

標定処理部105は、システム誤差の共分散の予測値を算出する(ステップS35)。システム誤差の共分散の予測値は、以下のように算出される。   The orientation processing unit 105 calculates a predicted value of system error covariance (step S35). The predicted value of the system error covariance is calculated as follows.

Figure 2018151300
Figure 2018151300

ここで、Pハット(t+Δt|t)は、時刻tにおけるシステム誤差の共分散の予測値を表す。Pバー(t|t)は、時刻tにおけるシステム誤差の共分散の推定値を表す。   Here, P hat (t + Δt | t) represents a predicted value of the covariance of the system error at time t. P bar (t | t) represents an estimated value of the covariance of the system error at time t.

標定処理部105は、座標系を回転座標系から局所座標系(すなわち慣性座標系)に変換する(ステップS37)。ステップS37においては、時刻(t+Δt)における観測機1の位置に基づいて変換が行われる。   The orientation processing unit 105 converts the coordinate system from a rotating coordinate system to a local coordinate system (that is, an inertial coordinate system) (step S37). In step S37, conversion is performed based on the position of the observation device 1 at time (t + Δt).

標定処理部105は、時刻(t+Δt)における位置を基準として目標方位の予測値を算出する(ステップS39)。目標方位の予測値は、以下のように算出される。   The orientation processing unit 105 calculates a predicted value of the target azimuth based on the position at time (t + Δt) (step S39). The predicted value of the target direction is calculated as follows.

Figure 2018151300
Figure 2018151300

ここで、ELL(t|t)およびAZL(t|t)は、第2象限および第4象限の場合、以下のとおりである。 Here, EL L (t | t) and AZ L (t | t) are as follows in the second quadrant and the fourth quadrant.

Figure 2018151300
Figure 2018151300

図13は、弾道弾3の位置と観測機1の位置との関係を示す図である。Oは原点を表し、観測機1の位置に相当する。弾道弾3の位置1301は、原点を基準として、アジマス角Φおよびエレベーション角θにより特定される。Vx、VyおよびVzはそれぞれ速度ベクトルを表す。Vx、VyおよびVzの合成ベクトルの方向は、弾道弾3の移動方向に相当する。   FIG. 13 is a diagram illustrating the relationship between the position of the ballistic bullet 3 and the position of the observation device 1. O represents the origin and corresponds to the position of the observation device 1. The position 1301 of the ballistic bullet 3 is specified by the azimuth angle Φ and the elevation angle θ with respect to the origin. Vx, Vy, and Vz each represent a velocity vector. The direction of the combined vector of Vx, Vy, and Vz corresponds to the movement direction of the ballistic bullet 3.

標定処理部105は、観測残差の共分散の予測値を算出する(ステップS41)。観測残差の共分散の予測値は、以下のように算出される。   The orientation processing unit 105 calculates a predicted value of covariance of the observation residual (step S41). The predicted value of the covariance of the observation residual is calculated as follows.

Figure 2018151300
Figure 2018151300

ここで、H(t+Δt)は時刻(t+Δt)における観測行列を表す。   Here, H (t + Δt) represents an observation matrix at time (t + Δt).

標定処理部105は、予測値の修正量(すなわちカルマンゲイン)を算出する(ステップS43)。カルマンゲインは、以下のように算出される。   The orientation processing unit 105 calculates the correction amount (that is, Kalman gain) of the predicted value (step S43). The Kalman gain is calculated as follows.

Figure 2018151300
Figure 2018151300

ここで、K(t+Δt)は時刻(t+Δt)におけるカルマンゲインを表す。S(t+Δt)は時刻(t+Δt)における観測残差の共分散を表す。   Here, K (t + Δt) represents the Kalman gain at time (t + Δt). S (t + Δt) represents the covariance of the observation residual at time (t + Δt).

標定処理部105は、推定位置および推定速度を算出し(ステップS45)、推定位置および推定速度を標定結果格納部111に格納する。推定位置および推定速度は、以下のように算出される。   The orientation processing unit 105 calculates the estimated position and the estimated speed (step S45), and stores the estimated position and the estimated speed in the orientation result storage unit 111. The estimated position and the estimated speed are calculated as follows.

Figure 2018151300
Figure 2018151300

ここで、z(t+Δt)は時刻(t+Δt)における観測値(目標方位の情報を含む)を表し、センサ信号処理部103から取得される。   Here, z (t + Δt) represents an observed value (including information on the target direction) at time (t + Δt), and is acquired from the sensor signal processing unit 103.

標定処理部105は、システム誤差の共分散の推定値を算出する(ステップS47)。そして処理は呼び出し元に戻る。システム誤差の共分散の推定値は、以下のように算出される。   The orientation processing unit 105 calculates an estimated value of system error covariance (step S47). Processing then returns to the caller. The estimated value of the system error covariance is calculated as follows.

Figure 2018151300
Figure 2018151300

ここで、Pバー(t+Δt|t+Δt)は、時刻(t+Δt)におけるシステム誤差の共分散の推定値を表す。   Here, P-bar (t + Δt | t + Δt) represents an estimated value of the system error covariance at time (t + Δt).

このように、上で述べたような状態方程式および観測方程式に基づく拡張カルマンフィルタ(拡張カルマンフィルタはベイズフィルタの一種である)を使用すれば計算量が少なくなるので、サンプリング間隔が短くなりサンプル数が増えたとしても、計算量が増大することを抑制できるようになる。なお、拡張カルマンフィルタは、特に物理法則に従った運動に対して適用することで収束までの時間を短くすることができる技術である。   In this way, using the extended Kalman filter based on the state equation and observation equation as described above (the extended Kalman filter is a type of Bayes filter) reduces the amount of calculation, thereby shortening the sampling interval and increasing the number of samples. Even so, it is possible to suppress an increase in the amount of calculation. Note that the extended Kalman filter is a technique that can shorten the time until convergence by applying it to the motion in accordance with the laws of physics.

図7の説明に戻り、標定処理部105は、ブーストフェーズが終了してから所定時間(例えば200秒)が経過したか判定する(ステップS23)。   Returning to the description of FIG. 7, the orientation processing unit 105 determines whether a predetermined time (for example, 200 seconds) has elapsed since the boost phase ended (step S <b> 23).

所定時間が経過していない場合(ステップS23:Noルート)、処理はステップS19に戻る。所定時間が経過した場合(ステップS23:Yesルート)、標定処理部105は、標定処理が終了したことを着弾予測部107に通知する。これに応じ、着弾予測部107は、着弾予測処理を実行する(ステップS25)。着弾予測処理については、図14及び図15を用いて説明する。   If the predetermined time has not elapsed (step S23: No route), the process returns to step S19. When the predetermined time has elapsed (step S23: Yes route), the orientation processing unit 105 notifies the landing prediction unit 107 that the orientation processing has been completed. In response, the landing prediction unit 107 executes a landing prediction process (step S25). The landing prediction process will be described with reference to FIGS. 14 and 15.

まず、着弾予測部107は、標定処理の結果(すなわち、標定処理において最後に算出された推定位置および推定速度)を標定結果格納部111から読み出す(図14:ステップS51)。   First, the landing prediction unit 107 reads the result of the orientation process (that is, the estimated position and estimated speed calculated last in the orientation process) from the orientation result storage unit 111 (FIG. 14: step S51).

着弾予測部107は、ステップS51において読み出した推定位置および推定速度を用いて、弾道弾3の予測位置および予測速度を算出する(ステップS53)。ステップS53においては、式(14)に基づき予測位置および予測速度が算出される。但し、tは、標定結果格納部111から読み出された推定位置および推定位置に対応する時刻(以下、時刻ts)である。なお、Δtの初期値は所定の単位時間であり、ステップS53の処理が実行される度に2Δt、3Δt、4Δt、・・・、と更新される。 The landing prediction unit 107 calculates the predicted position and predicted speed of the ballistic bullet 3 using the estimated position and estimated speed read in step S51 (step S53). In step S53, the predicted position and the predicted speed are calculated based on Expression (14). However, t is the time corresponding to the orientation results storage section 111 the estimated position and estimated position is read (hereinafter, the time t s). The initial value of Δt is a predetermined unit time, and is updated as 2Δt, 3Δt, 4Δt,... Each time the process of step S53 is executed.

着弾予測部107は、弾道弾3の予測位置の高度が0より小さいか判定する(ステップS55)。弾道弾3の予測位置の高度が0より小さくない場合(ステップS55:Noルート)、着弾予測部107はΔtを更新する。そして処理はステップS53に戻る。   The landing prediction unit 107 determines whether the altitude of the predicted position of the ballistic bullet 3 is smaller than 0 (step S55). When the altitude of the predicted position of the ballistic bullet 3 is not smaller than 0 (step S55: No route), the landing prediction unit 107 updates Δt. Then, the process returns to step S53.

一方、弾道弾3の予測位置の高度が0より小さい場合(ステップS55:Yesルート)、着弾予測部107は、予測着弾範囲を算出する(ステップS57)。   On the other hand, when the altitude of the predicted position of the ballistic bullet 3 is smaller than 0 (step S55: Yes route), the landing prediction unit 107 calculates a predicted landing range (step S57).

着弾予測部107は、ステップS57において算出した予測着弾範囲のデータを出力データ格納部113に格納する(ステップS59)。そして処理は呼び出し元に戻り終了する。   The landing prediction unit 107 stores the data of the predicted landing range calculated in step S57 in the output data storage unit 113 (step S59). Then, the process returns to the caller and ends.

なお、予測着弾範囲のデータは、例えば地上に有るコンピュータに送信されてその表示装置等に表示され、管理者により確認される。   Note that the predicted landing range data is transmitted to, for example, a computer on the ground and displayed on the display device or the like, and is confirmed by the administrator.

図15は、予測着弾範囲の算出について説明するための図である。予測位置の高度が0になった場合における弾道弾3の位置が予測着弾位置である。予測着弾範囲は、予測着弾位置を中心とする誤差楕円体を地表面に対して速度ベクトル方向に射影した場合における楕円に相当する。なお、時刻tfは予測着弾時刻である。 FIG. 15 is a diagram for explaining calculation of the predicted landing range. The position of the ballistic bullet 3 when the altitude of the predicted position becomes 0 is the predicted landing position. The predicted landing range corresponds to an ellipse when an error ellipsoid centered on the predicted landing position is projected onto the ground surface in the velocity vector direction. In addition, the time t f is the predicted impact time.

次に、図16乃至図27を用いて、本実施の形態の方法に基づくシミュレーションについて説明する。   Next, simulation based on the method of the present embodiment will be described with reference to FIGS.

図16は、本シミュレーションにおける弾道弾3を示す図である。弾道弾3は1300km級の中距離弾道ミサイルである。弾道弾3の全長は16.0(m)であり、幅は1.32(m)である。断面積は13700(cm2)であり、抵抗係数は0.1である。ペイロードの質量は1000(kg)であり、発射時の総質量は16250(kg)である。一点鎖線で表された部分はプルームを表す。 FIG. 16 is a diagram showing the ballistic bullet 3 in this simulation. The ballistic bullet 3 is a 1300 km class medium-range ballistic missile. The total length of the ballistic bullet 3 is 16.0 (m) and the width is 1.32 (m). The cross-sectional area is 13700 (cm 2 ) and the resistance coefficient is 0.1. The mass of the payload is 1000 (kg), and the total mass at the time of launch is 16250 (kg). A portion represented by a one-dot chain line represents a plume.

図17は、飛翔シナリオを示す図である。本シミュレーションにおいては、3つのシナリオが試行される。観測機1aについてのシナリオをシナリオAとし、観測機1bについてのシナリオをシナリオBとし、観測機1cについてのシナリオをシナリオCとする。各観測機の飛翔高度は25000フィートである。観測機1a乃至1cは、弾道弾3が初めて検知された位置からの距離が800(km)の位置に滞空する。但し、観測機1aは弾道弾3の軌道の直下に滞空し、観測機1bは軌道の直下から200(km)離れた位置に滞空し、観測機1cは軌道の直下から400(km)離れた位置に滞空する。   FIG. 17 is a diagram illustrating a flight scenario. In this simulation, three scenarios are tried. The scenario for the observation device 1a is set as scenario A, the scenario for the observation device 1b is set as scenario B, and the scenario for the observation device 1c is set as scenario C. The flying altitude of each observation aircraft is 25000 feet. The observation devices 1a to 1c stay at a position where the distance from the position where the ballistic bullet 3 is first detected is 800 (km). However, the observation device 1a stays at a position immediately below the trajectory of the ballistic bullet 3, the observation device 1b stays at a position 200 (km) away from just below the orbit, and the observation device 1c is at a position 400 (km) away from just below the orbit. Stay in the air.

シミュレーション条件は、図18及び図19に示すとおりである。観測機1a乃至1cから弾道弾3が初めて検知された位置までの距離は、上で述べたように800(km)であるが、図19に示すように400(km)の相対距離誤差が重畳されるので、距離Rは1200(km)に設定される。   The simulation conditions are as shown in FIGS. The distance from the observation devices 1a to 1c to the position where the ballistic bullet 3 is first detected is 800 (km) as described above, but a relative distance error of 400 (km) is superimposed as shown in FIG. Therefore, the distance R is set to 1200 (km).

図20は、本シミュレーションの処理フローを示す図である。ここでは、観測機1aの動作を例として説明するが、観測機1bおよび観測機1cも同様に動作する。   FIG. 20 is a diagram showing a processing flow of this simulation. Here, the operation of the observation device 1a will be described as an example, but the observation device 1b and the observation device 1c operate similarly.

観測機1aは、飛行経路を生成し(ステップS1901)、また、目標である弾道弾3の軌道(以下、目標軌道と呼ぶ)を生成する(ステップS1902)。   The observation device 1a generates a flight path (step S1901), and generates a trajectory of the target ballistic bullet 3 (hereinafter referred to as a target trajectory) (step S1902).

観測機1aは、生成された飛行経路および目標軌道に基づき、観測角(観測角は、上で述べた目標方位に相当する)を計算する(ステップS1903)。ステップS1903において計算された観測角は真値として取り扱われる。   The observation device 1a calculates an observation angle (the observation angle corresponds to the target azimuth described above) based on the generated flight path and target trajectory (step S1903). The observation angle calculated in step S1903 is treated as a true value.

観測機1aは、生成された飛行経路から観測機1aの位置誤差を生成する(ステップS1904)。また、観測機1aは、真値である観測角から測角誤差を生成する(ステップS1905)。   The observation device 1a generates a position error of the observation device 1a from the generated flight path (step S1904). Further, the observation device 1a generates an angle measurement error from the observation angle that is a true value (step S1905).

観測機1aは、観測機1aの観測機位置(誤差が含まれる)および観測角(誤差が含まれる)に基づき、標定処理を実行する(ステップS1906)。   The observation device 1a executes the orientation process based on the observation device position (including the error) and the observation angle (including the error) of the observation device 1a (step S1906).

ステップS1906の標定処理により生成された標定結果と、目標軌道に基づく目標位置の真値とから、標定誤差(本実施の形態においては、位置のずれ)が算出される。以上が本シミュレーションの処理フローである。   An orientation error (in this embodiment, a positional deviation) is calculated from the orientation result generated by the orientation processing in step S1906 and the true value of the target position based on the target trajectory. The above is the processing flow of this simulation.

図21は、各シナリオについて計算結果が収束するまでの時間を示す図である。サンプリング間隔は500(ミリ秒)である。表における上段は特許文献1に記載の最小二乗法のアルゴリズムに基づき同一のシミュレーション条件でシミュレーションを実行した場合の時間を示し、下段は本実施の形態の方法に基づくシミュレーションを実行した場合の時間を示す。図21に示すように、本実施の形態においては全シナリオにおいて時間が短縮されており、特にシナリオBおよびシナリオCについては約5割時間が短縮された。   FIG. 21 is a diagram showing time until calculation results converge for each scenario. The sampling interval is 500 (milliseconds). The upper part of the table shows the time when the simulation is executed under the same simulation conditions based on the algorithm of the least square method described in Patent Document 1, and the lower part shows the time when the simulation based on the method of the present embodiment is executed. Show. As shown in FIG. 21, in this embodiment, the time is shortened in all scenarios, and in particular, scenario B and scenario C are shortened by about 50%.

また、1サイクルの計算量(ここでは、標定処理を1回実行した場合における計算量)については、本実施の形態の方法の実行した場合の計算量は特許文献1に記載の最小二乗法のアルゴリズムを使用した場合の計算量と比較して大幅に少なくなることが確認された。   As for the calculation amount of one cycle (here, the calculation amount when the orientation process is executed once), the calculation amount when the method of the present embodiment is executed is the least square method described in Patent Document 1. It has been confirmed that the amount of calculation is considerably smaller than the amount of calculation when the algorithm is used.

図22は、サンプリング間隔毎に収束までの時間を示す図である。上段はサンプリング間隔が500(ミリ秒)である場合の時間を示し、下段はサンプリング間隔が100(ミリ秒)である場合の時間を示す。本実施の形態の方法により計算量が少なくなるので、サンプリング間隔を短くすることができる。そして、サンプリング間隔を短くすることによって、収束するまでの時間が約1割短くなることが確認された。   FIG. 22 is a diagram illustrating the time until convergence for each sampling interval. The upper row shows the time when the sampling interval is 500 (milliseconds), and the lower row shows the time when the sampling interval is 100 (milliseconds). Since the calculation amount is reduced by the method of the present embodiment, the sampling interval can be shortened. It was confirmed that the time until convergence is shortened by about 10% by shortening the sampling interval.

図23は、標定誤差と観測時間との関係を示す図である。図23はシナリオAについてのグラフを示しており、サンプリング間隔は100(ミリ秒)である。縦軸は標定誤差を表し、横軸は観測時間を表す。図23に示すように、観測時間が100秒より長くなると急激に標定誤差が小さくなり、観測時間が約170秒になった場合に標定誤差が10(km)以下になることが確認された。   FIG. 23 is a diagram illustrating the relationship between the orientation error and the observation time. FIG. 23 shows a graph for scenario A, where the sampling interval is 100 (milliseconds). The vertical axis represents the orientation error, and the horizontal axis represents the observation time. As shown in FIG. 23, it was confirmed that when the observation time is longer than 100 seconds, the orientation error is rapidly reduced, and when the observation time is about 170 seconds, the orientation error is 10 (km) or less.

図24は、システム誤差の初期共分散の設定値を変化させた場合における収束までの時間を示す図である。サンプリング間隔は100(ミリ秒)である。図24の表の上段は第1の設定値でシミュレーションを実行した場合の時間を示し、図24の表の下段は第1の設定値より大きい第2の設定値でシミュレーションを実行した場合の時間を示す。設定値を大きくすることで、実際の観測値の分散との差分が大きくなるため、位置および速度の修正量が大きくなる。そのため、シナリオAについては、第2の設定値を使用することで収束までの時間が短くなることが確認された。但し、シナリオB及びシナリオCについては、結果はほとんど同じであった。   FIG. 24 is a diagram illustrating time to convergence when the setting value of the initial covariance of the system error is changed. The sampling interval is 100 (milliseconds). The upper part of the table of FIG. 24 shows the time when the simulation is executed with the first set value, and the lower part of the table of FIG. 24 is the time when the simulation is executed with the second set value larger than the first set value. Indicates. By increasing the set value, the difference from the actual observed value variance increases, so the amount of correction of the position and velocity increases. Therefore, for scenario A, it was confirmed that the time until convergence was shortened by using the second set value. However, the results for Scenario B and Scenario C were almost the same.

図25は、第2の設定値を使用した場合における標定誤差を示す図である。図25はシナリオAについてのグラフを示しており、サンプリング間隔は100(ミリ秒)である。縦軸は標定誤差を表し、横軸は観測時間を表す。第2の設定値を使用した場合には、観測時間が100(秒)になる前において標定誤差が急激に小さくなることが確認された。   FIG. 25 is a diagram illustrating the orientation error when the second set value is used. FIG. 25 shows a graph for scenario A, where the sampling interval is 100 (milliseconds). The vertical axis represents the orientation error, and the horizontal axis represents the observation time. When the second set value was used, it was confirmed that the orientation error rapidly decreased before the observation time reached 100 (seconds).

図26は、着弾位置の予測誤差を示す図である。サンプリンク間隔は100(ミリ秒)である。図26の表の上段は特許文献1に記載の最小二乗法のアルゴリズムに基づき同一のシミュレーション条件でシミュレーションを実行した場合の予測誤差を示し、下段は本実施の形態の方法に基づくシミュレーションを実行した場合の予測誤差を示す。各シナリオにおいて、顕著な精度向上は確認されなかった。   FIG. 26 is a diagram illustrating the prediction error of the landing position. The sampling interval is 100 (milliseconds). The upper part of the table in FIG. 26 shows the prediction error when the simulation is executed under the same simulation condition based on the algorithm of the least square method described in Patent Document 1, and the lower part shows the simulation based on the method of the present embodiment. The prediction error in the case is shown. There was no significant improvement in accuracy in each scenario.

図27は、着弾位置の予測誤差と観測時間との関係を示す図である。図27はシナリオAについてのグラフを示しており、サンプリング間隔は100(ミリ秒)である。縦軸は着弾位置の予測誤差を表し、横軸は観測時間を表す。図27に示すように、観測時間が約130秒になった場合に着弾位置の予測誤差が10(kmCEP)以下になることが確認された。   FIG. 27 is a diagram illustrating the relationship between the prediction error of the landing position and the observation time. FIG. 27 shows a graph for scenario A, where the sampling interval is 100 (milliseconds). The vertical axis represents the landing position prediction error, and the horizontal axis represents the observation time. As shown in FIG. 27, it was confirmed that the landing position prediction error was 10 (kmCEP) or less when the observation time was about 130 seconds.

なお、ベイズ推定では、真値が確率変数として取り扱われ、サンプルをもとに真値の分布が更新される。そのため、サンプルの分布を予め想定できるのであれば、設計時に盛り込むことによって、収束を早くすることを期待できる。本実施の形態では、システム誤差の初期共分散および観測残差の初期共分散を予め適切に設定することにより、計算量を少なくすることができる。また、最小二乗法に基づくアルゴリズムを使用した場合にはサンプル数に比例して1サイクルの計算量が多くなることがあるが、本実施の形態の方法であれば、サンプル数にかかわらず計算量を一定にすることができる。   In Bayesian estimation, the true value is treated as a random variable, and the true value distribution is updated based on the sample. Therefore, if the distribution of the sample can be assumed in advance, it can be expected that convergence will be accelerated by incorporating it in the design. In the present embodiment, the amount of calculation can be reduced by appropriately setting the initial covariance of the system error and the initial covariance of the observation residual in advance. In addition, when an algorithm based on the least square method is used, the amount of calculation in one cycle may increase in proportion to the number of samples. However, in the method according to the present embodiment, the amount of calculation does not matter regardless of the number of samples. Can be made constant.

以上より、サンプリング間隔を短くすることができるので、同一の観測期間内に取得できるサンプルの数を増やすことができるようになる。これにより、より早い段階で弾道弾3の着弾位置を予測することができるようになる。   As described above, since the sampling interval can be shortened, the number of samples that can be acquired within the same observation period can be increased. As a result, the landing position of the ballistic bullet 3 can be predicted at an earlier stage.

以上本発明の一実施の形態を説明したが、本発明はこれに限定されるものではない。例えば、上で説明した情報処理装置10の機能ブロック構成は実際のプログラムモジュール構成に一致しない場合もある。   Although one embodiment of the present invention has been described above, the present invention is not limited to this. For example, the functional block configuration of the information processing apparatus 10 described above may not match the actual program module configuration.

また、処理フローにおいても、処理結果が変わらなければ処理の順番を入れ替えることも可能である。さらに、並列に実行させるようにしても良い。   Also in the processing flow, if the processing result does not change, the processing order can be changed. Further, it may be executed in parallel.

なお、弾道弾3以外の飛翔体に対しても本実施の形態を適用することが可能である。また、慣性系の座標ではなく非慣性系の座標で計算を行ってもよい。   It should be noted that this embodiment can be applied to flying objects other than the ballistic bullet 3. Further, the calculation may be performed using non-inertia system coordinates instead of inertia system coordinates.

以上述べた本発明の実施の形態をまとめると、以下のようになる。   The embodiment of the present invention described above is summarized as follows.

本実施の形態の第1の態様に係る位置推定方法は、(A)飛翔体の観測情報を取得し、(B)共分散の初期値が第1の所定値に設定されたシステム誤差の項を含む状態方程式と、共分散の初期値が第2の所定値に設定された観測残差の項を含む観測方程式とに基づく非線形のベイズフィルタを観測情報に適用して、飛翔体の推定位置を算出する処理を含む。   In the position estimation method according to the first aspect of the present embodiment, (A) the observation information of the flying object is acquired, and (B) the system error term in which the initial value of the covariance is set to the first predetermined value. Is applied to the observation information by applying a non-linear Bayesian filter to the observation information, and an observation equation including an observation residual term whose initial covariance value is set to the second predetermined value. Including the process of calculating.

上記のような非線形のベイズフィルタを用いているので、飛翔体の位置に関する計算の結果が収束するまでに要する時間を短縮することができるようになる。   Since the non-linear Bayes filter as described above is used, it is possible to shorten the time required until the calculation result related to the position of the flying object converges.

また、第1の所定値は、全特異点の留数の総和に基づく値であってもよく、第2の所定値は、観測情報において発生しうる最大の誤差に基づく値であってもよい。   In addition, the first predetermined value may be a value based on the sum of the residues of all singular points, and the second predetermined value may be a value based on the maximum error that can occur in the observation information. .

妥当な共分散が与えられることにより収束までの時間が短縮されるようになる。   Given a reasonable covariance, the time to convergence is shortened.

また、非線形のベイズフィルタは、拡張カルマンフィルタであってもよい。   The nonlinear Bayes filter may be an extended Kalman filter.

また、推定位置を算出する処理において、(b1)観測情報または前回算出された推定値に基づき、非慣性系での運動方程式に従って飛翔体の予測位置を算出し、(b2)予測位置と観測情報とに基づき、カルマンゲインを算出し、(b3)予測位置とカルマンゲインとに基づき、推定位置を算出してもよい。   Further, in the process of calculating the estimated position, (b1) the predicted position of the flying object is calculated according to the equation of motion in the non-inertial system based on the observation information or the previously calculated estimated value, and (b2) the predicted position and the observation information (B3) the estimated position may be calculated based on the predicted position and the Kalman gain.

例えばコリオリ力および遠心力等を推定位置に反映できるようになる。   For example, Coriolis force and centrifugal force can be reflected in the estimated position.

また、予測位置を算出する処理において、(b11)予測位置の座標系を回転座標系から局所座標系に変換し、推定位置を算出する処理において、(b31)局所座標系での予測位置とカルマンゲインとに基づき、局所座標系での推定位置を算出してもよい。   In the process of calculating the predicted position, (b11) the coordinate system of the predicted position is converted from the rotating coordinate system to the local coordinate system, and in the process of calculating the estimated position, (b31) the predicted position and the Kalman in the local coordinate system. Based on the gain, an estimated position in the local coordinate system may be calculated.

位置座標の値が適切に算出されるようになる。   The value of the position coordinate is calculated appropriately.

また、観測情報は、赤外線検出装置により取得された、飛翔体を含む二次元画像の情報を含んでもよい。そして、推定位置を算出する処理において、(b311)少なくとも二次元画像の情報に基づき、飛翔体の方位を算出し、方位に基づき、飛翔体の観測位置を算出してもよい。   In addition, the observation information may include information on a two-dimensional image including a flying object acquired by an infrared detection device. In the process of calculating the estimated position, (b311) the direction of the flying object may be calculated based on at least the information of the two-dimensional image, and the observed position of the flying object may be calculated based on the direction.

飛翔体が遠方に位置する場合であっても、赤外線装置により飛翔体を捉えることができる場合がある。従って、赤外線検出装置により取得された二次元画像の情報(例えば、飛翔体の画素位置の情報)を用いることで、遠方の飛翔体の位置を推定できるようになる。   Even when the flying object is located far away, the flying object may be captured by the infrared device. Therefore, the position of a distant projectile can be estimated by using the information of the two-dimensional image acquired by the infrared detection device (for example, information on the pixel position of the projectile).

また、推定位置を算出する処理において、(b4)観測情報から飛翔体の推定速度をさらに算出してもよい。そして、本位置推定方法は、(C)推定位置および推定速度から、飛翔体の落下位置の範囲を算出し、(D)落下位置の範囲の情報を出力する処理をさらに含んでもよい。   Further, in the process of calculating the estimated position, (b4) the estimated speed of the flying object may be further calculated from the observation information. The position estimation method may further include (C) a process of calculating the range of the flying object's fall position from the estimated position and the estimated speed, and (D) outputting information on the range of the fall position.

飛翔体の落下への対策を講じることができるようになる。   It will be possible to take measures against flying objects falling.

また、システム誤差の共分散は、三次元位置の各成分および三次元速度の各成分についての要素を含む6行6列の行列で表されてもよい。   Further, the covariance of the system error may be represented by a 6 × 6 matrix including elements for each component of the three-dimensional position and each component of the three-dimensional velocity.

また、状態方程式は、地球の中心を原点とした直交座標系での位置および速度についての項を含んでもよく、観測方程式は、局所座標系での角度についての項を含んでもよい。   The state equation may include a term for position and velocity in an orthogonal coordinate system with the center of the earth as the origin, and the observation equation may include a term for an angle in the local coordinate system.

本実施の形態の第2の態様に係る位置推定装置は、(E)飛翔体の観測情報を取得する取得部(実施の形態の捜索センサ1001および追尾センサ1002は、取得部の一例である)と、(F)共分散の初期値が第1の所定値に設定されたシステム誤差の項を含む状態方程式と、共分散の初期値が第2の所定値に設定された観測残差の項を含む観測方程式とに基づく非線形のベイズフィルタを取得部により取得された観測情報に適用して、飛翔体の推定位置を算出する算出部(実施の形態の標定処理部105は、算出部の一例である)とを有する。   The position estimation apparatus according to the second aspect of the present embodiment includes (E) an acquisition unit that acquires observation information of the flying object (search sensor 1001 and tracking sensor 1002 of the embodiment are examples of an acquisition unit). And (F) a state equation including a system error term in which the initial value of the covariance is set to the first predetermined value, and an observation residual term in which the initial value of the covariance is set to the second predetermined value. Is applied to the observation information acquired by the acquisition unit by applying a nonlinear Bayes filter based on the observation equation including the calculation unit (the orientation processing unit 105 of the embodiment is an example of a calculation unit) It is).

なお、上記方法による処理をコンピュータに行わせるためのプログラムを作成することができ、当該プログラムは、例えばフレキシブルディスク、CD−ROM、光磁気ディスク、半導体メモリ、ハードディスク等のコンピュータ読み取り可能な記憶媒体又は記憶装置に格納される。尚、中間的な処理結果はメインメモリ等の記憶装置に一時保管される。   A program for causing a computer to perform the processing according to the above method can be created. The program can be a computer-readable storage medium such as a flexible disk, a CD-ROM, a magneto-optical disk, a semiconductor memory, a hard disk, or the like. It is stored in a storage device. The intermediate processing result is temporarily stored in a storage device such as a main memory.

以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)
コンピュータに、
飛翔体の観測情報を取得し、
共分散の初期値が第1の所定値に設定されたシステム誤差の項を含む状態方程式と、共分散の初期値が第2の所定値に設定された観測残差の項を含む観測方程式とに基づく非線形のベイズフィルタを前記観測情報に適用して、前記飛翔体の推定位置を算出する、
処理を実行させる位置推定プログラム。
(Appendix 1)
On the computer,
Obtain observation information of the flying object,
A state equation including a system error term with an initial covariance value set to a first predetermined value, and an observation equation including an observation residual term with an initial covariance value set to a second predetermined value; Applying a non-linear Bayesian filter based on the observation information to calculate an estimated position of the flying object;
A position estimation program that executes processing.

(付記2)
前記第1の所定値は、全特異点の留数の総和に基づく値であり、
前記第2の所定値は、前記観測情報において発生しうる最大の誤差に基づく値である、
付記1記載の位置推定プログラム。
(Appendix 2)
The first predetermined value is a value based on the sum of the residues of all singular points;
The second predetermined value is a value based on a maximum error that can occur in the observation information.
The position estimation program according to attachment 1.

(付記3)
前記非線形のベイズフィルタは、拡張カルマンフィルタである、
付記1又は2記載の位置推定プログラム。
(Appendix 3)
The nonlinear Bayes filter is an extended Kalman filter.
The position estimation program according to appendix 1 or 2.

(付記4)
前記推定位置を算出する処理において、
前記観測情報または前回算出された推定値に基づき、非慣性系での運動方程式に従って前記飛翔体の予測位置を算出し、
前記予測位置と前記観測情報とに基づき、カルマンゲインを算出し、
前記予測位置と前記カルマンゲインとに基づき、前記推定位置を算出する、
付記3記載の位置推定プログラム。
(Appendix 4)
In the process of calculating the estimated position,
Based on the observation information or the previously calculated estimated value, calculate the predicted position of the flying object according to the equation of motion in a non-inertial system,
Based on the predicted position and the observation information, Kalman gain is calculated,
Calculating the estimated position based on the predicted position and the Kalman gain;
The position estimation program according to attachment 3.

(付記5)
前記予測位置を算出する処理において、
前記予測位置の座標系を回転座標系から局所座標系に変換し、
前記推定位置を算出する処理において、
前記局所座標系での前記予測位置と前記カルマンゲインとに基づき、前記局所座標系での前記推定位置を算出する、
付記4記載の位置推定プログラム。
(Appendix 5)
In the process of calculating the predicted position,
Converting the coordinate system of the predicted position from a rotating coordinate system to a local coordinate system;
In the process of calculating the estimated position,
Calculating the estimated position in the local coordinate system based on the predicted position in the local coordinate system and the Kalman gain;
The position estimation program according to attachment 4.

(付記6)
前記観測情報は、赤外線検出装置により取得された、前記飛翔体を含む二次元画像の情報を含み、
前記推定位置を算出する処理において、
少なくとも前記二次元画像の情報に基づき、前記飛翔体の方位を算出し、
前記方位に基づき、前記飛翔体の観測位置を算出する、
付記4記載の位置推定プログラム。
(Appendix 6)
The observation information includes information of a two-dimensional image including the flying object acquired by an infrared detection device,
In the process of calculating the estimated position,
Based on at least the information of the two-dimensional image, calculate the orientation of the flying object,
Based on the azimuth, calculate the flying object observation position,
The position estimation program according to attachment 4.

(付記7)
前記推定位置を算出する処理において、
前記観測情報から前記飛翔体の推定速度をさらに算出し、
前記コンピュータに、
前記推定位置および前記推定速度から、前記飛翔体の落下位置の範囲を算出し、
前記落下位置の範囲の情報を出力する、
処理をさらに実行させる付記1記載の位置推定プログラム。
(Appendix 7)
In the process of calculating the estimated position,
Further calculating the estimated speed of the flying object from the observation information,
In the computer,
From the estimated position and the estimated speed, calculate the range of the falling position of the flying object,
Outputting information of the range of the drop position;
The position estimation program according to supplementary note 1, wherein the program is further executed.

(付記8)
前記システム誤差の共分散は、三次元位置の各成分および三次元速度の各成分についての要素を含む6行6列の行列で表される、
付記2記載の位置推定プログラム。
(Appendix 8)
The covariance of the system error is represented by a 6-by-6 matrix including elements for each component of the three-dimensional position and each component of the three-dimensional velocity.
The position estimation program according to attachment 2.

(付記9)
前記状態方程式は、地球の中心を原点とした直交座標系での位置および速度についての項を含み、
前記観測方程式は、局所座標系での角度についての項を含む、
付記1記載の位置推定プログラム。
(Appendix 9)
The equation of state includes terms for position and velocity in an orthogonal coordinate system with the center of the earth as the origin,
The observation equation includes a term for the angle in the local coordinate system,
The position estimation program according to attachment 1.

(付記10)
コンピュータが、
飛翔体の観測情報を取得し、
共分散の初期値が第1の所定値に設定されたシステム誤差の項を含む状態方程式と、共分散の初期値が第2の所定値に設定された観測残差の項を含む観測方程式とに基づく非線形のベイズフィルタを前記観測情報に適用して、前記飛翔体の推定位置を算出する、
処理を実行する位置推定方法。
(Appendix 10)
Computer
Obtain observation information of the flying object,
A state equation including a system error term with an initial covariance value set to a first predetermined value, and an observation equation including an observation residual term with an initial covariance value set to a second predetermined value; Applying a non-linear Bayesian filter based on the observation information to calculate an estimated position of the flying object;
A position estimation method for executing processing.

(付記11)
飛翔体の観測情報を取得する取得部と、
共分散の初期値が第1の所定値に設定されたシステム誤差の項を含む状態方程式と、共分散の初期値が第2の所定値に設定された観測残差の項を含む観測方程式とに基づく非線形のベイズフィルタを前記取得部により取得された前記観測情報に適用して、前記飛翔体の推定位置を算出する算出部と、
を有する位置推定装置。
(Appendix 11)
An acquisition unit for acquiring observation information of the flying object;
A state equation including a system error term with an initial covariance value set to a first predetermined value, and an observation equation including an observation residual term with an initial covariance value set to a second predetermined value; Applying a non-linear Bayesian filter based on the observation information acquired by the acquisition unit to calculate an estimated position of the flying object;
A position estimation apparatus.

1 観測機 10 情報処理装置
151 CPU 153 メモリ
155 HDD 1000 GPSアンテナ
1001 捜索センサ 1002 追尾センサ
1003 ジンバル 1004 位置方位基準器
101 ジンバル制御部 103 センサ信号処理部
105 標定処理部 107 着弾予測部
111 標定結果格納部 113 出力データ格納部
DESCRIPTION OF SYMBOLS 1 Observation machine 10 Information processing apparatus 151 CPU 153 Memory 155 HDD 1000 GPS antenna 1001 Search sensor 1002 Tracking sensor 1003 Gimbal 1004 Position and orientation reference device 101 Gimbal control unit 103 Sensor signal processing unit 105 Orientation processing unit 107 Landing prediction unit 111 Standardization result storage Part 113 Output data storage part

Claims (11)

コンピュータに、
飛翔体の観測情報を取得し、
共分散の初期値が第1の所定値に設定されたシステム誤差の項を含む状態方程式と、共分散の初期値が第2の所定値に設定された観測残差の項を含む観測方程式とに基づく非線形のベイズフィルタを前記観測情報に適用して、前記飛翔体の推定位置を算出する、
処理を実行させる位置推定プログラム。
On the computer,
Obtain observation information of the flying object,
A state equation including a system error term with an initial covariance value set to a first predetermined value, and an observation equation including an observation residual term with an initial covariance value set to a second predetermined value; Applying a non-linear Bayesian filter based on the observation information to calculate an estimated position of the flying object;
A position estimation program that executes processing.
前記第1の所定値は、全特異点の留数の総和に基づく値であり、
前記第2の所定値は、前記観測情報において発生しうる最大の誤差に基づく値である、
請求項1記載の位置推定プログラム。
The first predetermined value is a value based on the sum of the residues of all singular points;
The second predetermined value is a value based on a maximum error that can occur in the observation information.
The position estimation program according to claim 1.
前記非線形のベイズフィルタは、拡張カルマンフィルタである、
請求項1又は2記載の位置推定プログラム。
The nonlinear Bayes filter is an extended Kalman filter.
The position estimation program according to claim 1 or 2.
前記推定位置を算出する処理において、
前記観測情報または前回算出された推定値に基づき、非慣性系での運動方程式に従って前記飛翔体の予測位置を算出し、
前記予測位置と前記観測情報とに基づき、カルマンゲインを算出し、
前記予測位置と前記カルマンゲインとに基づき、前記推定位置を算出する、
請求項3記載の位置推定プログラム。
In the process of calculating the estimated position,
Based on the observation information or the previously calculated estimated value, calculate the predicted position of the flying object according to the equation of motion in a non-inertial system,
Based on the predicted position and the observation information, Kalman gain is calculated,
Calculating the estimated position based on the predicted position and the Kalman gain;
The position estimation program according to claim 3.
前記予測位置を算出する処理において、
前記予測位置の座標系を回転座標系から局所座標系に変換し、
前記推定位置を算出する処理において、
前記局所座標系での前記予測位置と前記カルマンゲインとに基づき、前記局所座標系での前記推定位置を算出する、
請求項4記載の位置推定プログラム。
In the process of calculating the predicted position,
Converting the coordinate system of the predicted position from a rotating coordinate system to a local coordinate system;
In the process of calculating the estimated position,
Calculating the estimated position in the local coordinate system based on the predicted position in the local coordinate system and the Kalman gain;
The position estimation program according to claim 4.
前記観測情報は、赤外線検出装置により取得された、前記飛翔体を含む二次元画像の情報を含み、
前記推定位置を算出する処理において、
少なくとも前記二次元画像の情報に基づき、前記飛翔体の方位を算出し、
前記方位に基づき、前記飛翔体の観測位置を算出する、
請求項4記載の位置推定プログラム。
The observation information includes information of a two-dimensional image including the flying object acquired by an infrared detection device,
In the process of calculating the estimated position,
Based on at least the information of the two-dimensional image, calculate the orientation of the flying object,
Based on the azimuth, calculate the flying object observation position,
The position estimation program according to claim 4.
前記推定位置を算出する処理において、
前記観測情報から前記飛翔体の推定速度をさらに算出し、
前記コンピュータに、
前記推定位置および前記推定速度から、前記飛翔体の落下位置の範囲を算出し、
前記落下位置の範囲の情報を出力する、
処理をさらに実行させる請求項1記載の位置推定プログラム。
In the process of calculating the estimated position,
Further calculating the estimated speed of the flying object from the observation information,
In the computer,
From the estimated position and the estimated speed, calculate the range of the falling position of the flying object,
Outputting information of the range of the drop position;
The position estimation program according to claim 1, further causing the process to be executed.
前記システム誤差の共分散は、三次元位置の各成分および三次元速度の各成分についての要素を含む6行6列の行列で表される、
請求項2記載の位置推定プログラム。
The covariance of the system error is represented by a 6-by-6 matrix including elements for each component of the three-dimensional position and each component of the three-dimensional velocity.
The position estimation program according to claim 2.
前記状態方程式は、地球の中心を原点とした直交座標系での位置および速度についての項を含み、
前記観測方程式は、局所座標系での角度についての項を含む、
請求項1記載の位置推定プログラム。
The equation of state includes terms for position and velocity in an orthogonal coordinate system with the center of the earth as the origin,
The observation equation includes a term for the angle in the local coordinate system,
The position estimation program according to claim 1.
コンピュータが、
飛翔体の観測情報を取得し、
共分散の初期値が第1の所定値に設定されたシステム誤差の項を含む状態方程式と、共分散の初期値が第2の所定値に設定された観測残差の項を含む観測方程式とに基づく非線形のベイズフィルタを前記観測情報に適用して、前記飛翔体の推定位置を算出する、
処理を実行する位置推定方法。
Computer
Obtain observation information of the flying object,
A state equation including a system error term with an initial covariance value set to a first predetermined value, and an observation equation including an observation residual term with an initial covariance value set to a second predetermined value; Applying a non-linear Bayesian filter based on the observation information to calculate an estimated position of the flying object;
A position estimation method for executing processing.
飛翔体の観測情報を取得する取得部と、
共分散の初期値が第1の所定値に設定されたシステム誤差の項を含む状態方程式と、共分散の初期値が第2の所定値に設定された観測残差の項を含む観測方程式とに基づく非線形のベイズフィルタを前記取得部により取得された前記観測情報に適用して、前記飛翔体の推定位置を算出する算出部と、
を有する位置推定装置。
An acquisition unit for acquiring observation information of the flying object;
A state equation including a system error term with an initial covariance value set to a first predetermined value, and an observation equation including an observation residual term with an initial covariance value set to a second predetermined value; Applying a non-linear Bayesian filter based on the observation information acquired by the acquisition unit to calculate an estimated position of the flying object;
A position estimation apparatus.
JP2017048647A 2017-03-14 2017-03-14 Position estimation method, position estimation device and position estimation program Active JP6880857B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017048647A JP6880857B2 (en) 2017-03-14 2017-03-14 Position estimation method, position estimation device and position estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017048647A JP6880857B2 (en) 2017-03-14 2017-03-14 Position estimation method, position estimation device and position estimation program

Publications (2)

Publication Number Publication Date
JP2018151300A true JP2018151300A (en) 2018-09-27
JP6880857B2 JP6880857B2 (en) 2021-06-02

Family

ID=63680621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017048647A Active JP6880857B2 (en) 2017-03-14 2017-03-14 Position estimation method, position estimation device and position estimation program

Country Status (1)

Country Link
JP (1) JP6880857B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000055599A (en) * 1998-08-03 2000-02-25 Kawasaki Heavy Ind Ltd Method for estimating rocket orbit by tracking device, method for estimating future position of rocket, method for identifying rocket, and method for detecting rocket condition
US20050240341A1 (en) * 2003-11-03 2005-10-27 Fielhauer Karl B Low-power photonic telemetry system and method for spacecraft monitoring
JP2007263637A (en) * 2006-03-28 2007-10-11 Mitsubishi Electric Corp Apparatus and method for positioning, and program
JP2015102352A (en) * 2013-11-21 2015-06-04 富士重工業株式会社 Position specification method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000055599A (en) * 1998-08-03 2000-02-25 Kawasaki Heavy Ind Ltd Method for estimating rocket orbit by tracking device, method for estimating future position of rocket, method for identifying rocket, and method for detecting rocket condition
US20050240341A1 (en) * 2003-11-03 2005-10-27 Fielhauer Karl B Low-power photonic telemetry system and method for spacecraft monitoring
JP2007263637A (en) * 2006-03-28 2007-10-11 Mitsubishi Electric Corp Apparatus and method for positioning, and program
JP2015102352A (en) * 2013-11-21 2015-06-04 富士重工業株式会社 Position specification method and program

Also Published As

Publication number Publication date
JP6880857B2 (en) 2021-06-02

Similar Documents

Publication Publication Date Title
Rad et al. Optimal attitude and position determination by integration of INS, star tracker, and horizon sensor
Mastrodemos et al. Autonomous navigation for the deep impact mission encounter with comet tempel 1
Ali et al. SINS/ANS/GPS integration using federated Kalman filter based on optimized information-sharing coefficients
Sun et al. Line-of-sight rate estimation based on UKF for strapdown seeker
US20110246069A1 (en) Method for determining the trajectory of a ballistic missile
CN114510076A (en) Target collaborative detection and guidance integrated method and system based on unscented transformation
Ali et al. An algorithm for astro-inertial navigation using CCD star sensors
Zhang et al. Strapdown stellar-inertial guidance system for launch vehicle
JP6880857B2 (en) Position estimation method, position estimation device and position estimation program
Kaniewski et al. Ballistic target tracking with use of cinetheodolites
Fiot Attitude estimation of an artillery shell in free-flight from accelerometers and magnetometers
Zheng et al. Propagation mechanism analysis of navigation errors caused by initial state errors for long-range vehicles
Kim et al. Variable-structured interacting multiple model algorithm for the ballistic coefficient estimation of a re-entry ballistic target
JP3001757B2 (en) Orbit prediction device
De Celis et al. A simplified computational method for two-body high spinning rate vehicles
Jang et al. Development and Verification of LQG based Attitude Determination and Control Algorithm of Cube-satellite “SNUGLITE” using GPS and Multiple Sensors
CN111674573B (en) Non-parallel gravitational field deep space impact control method and system based on proportional guidance
CN116374212B (en) Satellite orbit correction method and device, computer equipment and storage medium
de Celis et al. Adaptive Navigation, Guidance and Control Techniques Applied to Ballistic Projectiles and Rockets
CN108983799A (en) A kind of spacecraft meeting Fast circumnavigation requirement is diversion observation method
JP6124726B2 (en) Thrust direction calculation device, thrust direction calculation program, thrust direction calculation method, flying object, and flying object guidance method
CN117647243B (en) Gaze monitoring method and system based on 6U cube star
Josey et al. Spinning Projectile Navigation and Guidance Using Strapdown Seeker
Li et al. Air Alignment Method of Guided Projectile Based on INS/BDS
Ali et al. Strapdown inertial navigation system aided by celestial image matching

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R150 Certificate of patent or registration of utility model

Ref document number: 6880857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150