JP2000075023A - Sensor group-controlling device - Google Patents

Sensor group-controlling device

Info

Publication number
JP2000075023A
JP2000075023A JP10242211A JP24221198A JP2000075023A JP 2000075023 A JP2000075023 A JP 2000075023A JP 10242211 A JP10242211 A JP 10242211A JP 24221198 A JP24221198 A JP 24221198A JP 2000075023 A JP2000075023 A JP 2000075023A
Authority
JP
Japan
Prior art keywords
target
sensor
observation
error
evaluator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10242211A
Other languages
Japanese (ja)
Other versions
JP3415037B2 (en
Inventor
Akio Yamaya
明男 山家
Masayoshi Ito
正義 系
Shingo Tsujimichi
信吾 辻道
Yoshio Kosuge
義夫 小菅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP24221198A priority Critical patent/JP3415037B2/en
Publication of JP2000075023A publication Critical patent/JP2000075023A/en
Application granted granted Critical
Publication of JP3415037B2 publication Critical patent/JP3415037B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the tracking performance of a target by allocating each sensor to each target preferentially for the target that is turning when tracking a plurality of targets with a plurality of sensors. SOLUTION: A sensor group-controlling device is provided with bias error evaluation equipment 15 for evaluating the bias constituent of a prediction error according to observation information from a sensor group 5 and tracking information from a tracking filter group 8, random error evaluation equipment 16 for evaluating the random constituent of the prediction error according to the output of the tracking filter group, and observation necessity evaluation equipment 9 for evaluating observation necessity for each of targets 11-1n based on the bias error evaluation equipment and its output, thus increasing the observation necessity of targets that are turning and preferentially allocating sensors 41-4n to them.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、複数のセンサを
使用して複数の目標を追尾する場合に、どのセンサがど
の目標を観測するかの割り当てを指示するセンサ群管理
装置に関するものである。
[0001] 1. Field of the Invention [0002] The present invention relates to a sensor group management apparatus for instructing which sensor should monitor which target when tracking a plurality of targets using a plurality of sensors.

【0002】[0002]

【従来の技術】図7は例えば、特開平9−257923
号公報に示された、従来のセンサ群管理装置を示すブロ
ック図である。図において、11 ,12 ,…,1n は追
尾の対象としての複数の目標であり、2はこれら複数の
目標11 〜1n をまとめた目標群である。ここでは、こ
の目標11 〜1n は例えば航空機である。31 ,32
…,3m はその目標群2を観測するための観測ビームで
ある。41 ,42 ,…,4m は当該観測ビーム31 〜3
m を用いて各目標11 〜1n を観測する複数のセンサで
あり、5はこれら複数のセンサ41 〜4m をまとめたセ
ンサ群である。ここでは、このセンサ群5を形成するセ
ンサ41 〜4m の具体例として、レーダ装置を考える。
2. Description of the Related Art FIG.
FIG. 1 is a block diagram showing a conventional sensor group management device shown in Japanese Patent Publication No. In FIG, 1 1, 1 2, ... , 1 n is the plurality of targets as a tracking target, 2 is the target group that summarizes the plurality of target 1 1 to 1 n. Here, the target 1 1 to 1 n is, for example, an aircraft. 3 1 , 3 2 ,
.., 3 m are observation beams for observing the target group 2. 4 1 , 4 2 ,..., 4 m are the observation beams 3 1 to 3
a plurality of sensors for observing each target 1 1 to 1 n with m, 5 is a group of sensors summarizing the plurality of sensors 4 1 to 4 m. Here, a radar device will be considered as a specific example of the sensors 4 1 to 4 m forming the sensor group 5.

【0003】6はセンサ群5の各センサ41 〜4m から
出力される観測情報を融合し、観測すべき対象である目
標11 〜1n ごとに整理して、後述する追尾フィルタ群
8に対して出力する観測情報融合器である。71
2 ,…,7n は観測情報融合器6より出力される観測
情報を受けて、上記各目標11 〜1n の追尾を行う追尾
フィルタである。8はこれら複数の追尾フィルタ71
n をまとめた追尾フィルタ群である。
[0003] Reference numeral 6 denotes a tracking filter group 8 which combines observation information output from the sensors 4 1 to 4 m of the sensor group 5 and arranges them for each of the targets 11 to 1 n to be observed. Is an observation information fusion device that outputs to 7 1 ,
7 2, ..., 7 n receives the observation information outputted from the observation information fusion device 6, a tracking filter for the tracking of each target 1 1 to 1 n. 8 These multiple tracking filter 7 1
7 n is a group of tracking filters.

【0004】9は観測情報融合器6の出力および追尾フ
ィルタ群8の出力を入力として、各目標11 〜1n の観
測の必要性を判断する観測必要性評価器である。10は
追尾フィルタ群8の出力を入力として、センサ群5の各
センサ41 〜4m と目標11〜1n の仮想的な割り当て
に対する評価値を出力する仮想割り当て器である。11
は観測情報融合器6の出力、追尾フィルタ群8の出力、
および仮想割り当て器10の出力を入力として、各セン
サ41 〜4m と各目標11 〜1n との位置関係などか
ら、各センサ41 〜4m が各目標11 〜1n の観測に対
する有効性を算出する観測効果判定器である。
[0004] Reference numeral 9 denotes an observation necessity evaluator that judges the necessity of observation of each of the targets 11 to 1 n using the output of the observation information fusion device 6 and the output of the tracking filter group 8 as inputs. 10 as an input the output of the tracking filter group 8, which is a virtual allocator for outputting an evaluation value for the virtual assignment of each sensor 4 1 to 4 m and the target 1 1 to 1 n of the sensors 5. 11
Is the output of the observation information fusion device 6, the output of the tracking filter group 8,
And virtual output as input allocator 10, the positional relationship between the sensors 4 1 to 4 m and each target 1 1 to 1 n, observed each sensor 4 1 to 4 m is the target 1 1 to 1 n This is an observation effect determiner that calculates the effectiveness for.

【0005】12は観測必要性評価器9より出力される
必要性の判断結果、および観測効果評価判定器11より
出力される観測に対する有効性が評価値として入力さ
れ、上記各センサ41 〜4m からのそれぞれの観測ビー
ム31 〜3m を上記各目標11〜1n のいずれに割り当
てるかを決定する割り当て器である。13はこの割り当
て器12における割り当て手順を与えるルールである。
[0005] 12 determination result of the need to be outputted from the observed need estimator 9, and the efficacy is inputted as the evaluation value for the observed output from the observed effect evaluation determiner 11, the sensors 4 1 to 4 each of the observation beam 3 1 to 3 m from m is an allocator for determining whether to assign to one of the respective target 1 1 to 1 n. Reference numeral 13 denotes a rule for giving an assignment procedure in the assigner 12.

【0006】次に動作について説明する。まず、追尾フ
ィルタ71 〜7n は観測すべき対象である目標11 〜1
n に対応しており、したがってその数も目標11 〜1n
と同数だけ存在する。追尾フィルタ群8は対応する目標
1 〜1n の観測情報がセンサ41 〜4m より得られた
場合にはそれらを受け、得られない場合には外挿を行
う。これによって、それぞれの目標11 〜1n の位置と
速度の推定および予測を行い、各目標11 〜1n の追尾
情報を更新して出力する。なお、この追尾情報は追尾フ
ィルタ群8の出力となる。
Next, the operation will be described. First, target 1 1 to 1 tracking filter 7 1 to 7-n is a subject to be observed
n , and therefore the number is also the target 1 1 -1 n
There are as many as. Tracking filter group 8 receives them when the observation information of the corresponding target 1 1 to 1 n is obtained from the sensor 4 1 to 4 m, performs extrapolation if not obtained. This performs estimation and prediction of the position and velocity of each target 1 1 to 1 n, and outputs the updated tracking information for each target 1 1 to 1 n. The tracking information is output from the tracking filter group 8.

【0007】観測必要性評価器9は観測情報融合器6で
融合された観測情報と追尾フィルタ群8からの追尾情報
を受け、目標の追尾誤差の期待値、目標の位置、目標ま
での距離、目標の進行方向、目標の速度、目標の動き、
目標自体の重要度などの全部または一部に基づいて各目
標11 〜1n の観測必要性評価を行い、各目標11 〜1
n ごとの評価値を出力する。
The observation necessity evaluator 9 receives the observation information fused by the observation information fusion unit 6 and the tracking information from the tracking filter group 8, and receives an expected value of a target tracking error, a target position, a distance to the target, Goal direction, goal speed, goal movement,
Perform observation needs assessment of each target 1 1 to 1 n, based on all or part of such importance of the target itself, the target 1 1 to 1
Outputs the evaluation value for each n .

【0008】仮想割り当て器10は追尾フィルタ群8の
出力を受けて、例えば各センサ41〜4m を各目標11
〜1n に仮想的に割り当てた場合の、それぞれの組合せ
における追尾誤差の期待値を計算して出力する。
The virtual assigner 10 receives the output of the tracking filter group 8 and, for example, assigns each of the sensors 4 1 to 4 m to each target 11 1
The expected value of the tracking error in each combination when virtually assigned to 11 n is calculated and output.

【0009】観測効果判定器11は観測情報融合器6、
追尾フィルタ群8、仮想割り当て器10などの出力を受
けて、目標11 〜1n までの距離やセンサ41 〜4m
性能、観測前後の推定誤差分散の差などにより、センサ
1 〜4m と目標11 〜1nとの各組合せに対して評価
値を決定する。
The observation effect determiner 11 includes an observation information fusion unit 6,
Tracking filter group 8 receives the output of such virtual allocator 10, the target 1 1 to 1 distance and sensors 4 1 to 4 m performance of up to n, due difference between the estimated error variance around the observation, sensors 4 1 to 4 to determine an evaluation value for each combination of m and target 1 1 to 1 n.

【0010】割り当て器12は追尾フィルタ群8よりの
追尾情報および、観測必要性評価器9、観測効果判定器
11よりの評価値を入力として受け取り、入力された追
尾情報および評価値をもとに、ルール13により与えら
れる割り当ての手順にしたがって、観測ビーム31 〜3
m を目標11 〜1n のいずれに割り当てるかを決定し
て、それを割り当て情報として出力する。なお、この割
り当て情報はセンサ群5の入力となり、新たな観測情報
が取得される。
[0010] The allocator 12 receives as input the tracking information from the tracking filter group 8 and the evaluation values from the observation necessity evaluator 9 and the observation effect determiner 11, and based on the input tracking information and evaluation values. according to the procedure of allocation given by the rule 13, the observation beam 3 1 to 3
It is determined which one of the targets 11 to 1 n is to be assigned to m , and this is output as assignment information. Note that this assignment information is input to the sensor group 5, and new observation information is obtained.

【0011】ここで、上記追尾フィルタ71 〜7n とし
て一般に使われるカルマンフィルタの処理アルゴリズム
について説明する。ここで、サンプリング時刻をt
k (k=1,2,…)とする。カルマンフィルタの理論
では、まず、目標11 〜1n の運動モデルを次の式
(1)のように表現する。 xk =Φ(tk-1 ,tk )xk-1 +Γ(tk-1 ,tk )wk-1 ・・・(1)
[0011] Here will be described processing algorithm of the Kalman filter used in general as the tracking filter 7 1 to 7-n. Here, the sampling time is t
k (k = 1, 2,...). The Kalman filter theory, firstly, to express the motion model of the target 1 1 to 1 n by the following equation (1). x k = Φ (t k−1 , t k ) x k−1 + Γ (t k−1 , t k ) w k−1 (1)

【0012】上記式(1)において、xk はサンプリン
グ時刻tk における目標11 〜1nの運動諸元の真値を
表すN次元の状態ベクトルであり、Φ(tk-1 ,tk
はサンプリング時刻tk-1 からサンプリング時刻tk
の状態ベクトルxk の推移を表すN×Nの推移行列であ
る。また、wk はサンプリング時刻tk におけるs次元
の駆動雑音ベクトルで、平均0、共分散行列Qk のs変
量正規分布にしたがった白色雑音系列であるとする。こ
の駆動雑音は実際の目標11 〜1n の動きが、上記式
(1)にて設定した運動モデルに合致していない場合の
状態ベクトルの乱れを励起するものである。Γ
(tk-1 ,tk )は駆動雑音ベクトルの変換行列で、N
×s行列である。
In the above equation (1), x k is an N-dimensional state vector representing the true values of the motion parameters of the targets 1 1 to 1 n at the sampling time t k , and Φ (t k−1 , t k )
Is an N × N transition matrix representing the transition of the state vector x k from the sampling time t k−1 to the sampling time t k . Also, let w k be an s-dimensional driving noise vector at the sampling time t k, which is a white noise sequence according to the s-variate normal distribution of the mean 0 and the covariance matrix Q k . The drive noise is actual target 1 1 to 1 n motion, is to excite a disturbance of the state vector when not match the motion model set by the above formula (1). Γ
(T k−1 , t k ) is a conversion matrix of the driving noise vector, and N
Xs matrix.

【0013】ここで、例えばxyzの直交座標系におけ
る目標11 〜1n の位置および速度を追尾する場合、上
記式(1)の運動モデルとして、次の式(2)〜(4)
のように設定することができる。この場合、駆動雑音w
k はx,y,zの各軸の加速度相当の外乱入力を表す3
次元ベクトルとする。なお、IN*N はN×Nの単位行列
を表す。
[0013] Here, for example, when tracking the position and velocity of the target 1 1 to 1 n in a rectangular coordinate system xyz, as the motion model of the above formula (1), the following equation (2) to (4)
It can be set as follows. In this case, the driving noise w
k represents a disturbance input corresponding to acceleration of each axis of x, y, z.
Let it be a dimensional vector. Note that I N * N represents an N × N unit matrix.

【0014】[0014]

【数1】 (Equation 1)

【0015】次に、観測装置の観測モデルを次の式
(5)のように表現する。 zk =Hxk +vk ・・・(5) なお、この式(5)において、zk はサンプリング時刻
k におけるu次元の観測値ベクトルであり、Hはu×
Nの観測行列である。また、vk はサンプリング時刻t
k における観測値ベクトルzk に対応したu次元の観測
雑音ベクトルであり、平均0、共分散行列Rk のu変量
正規分布にしたがった白色雑音系列であるとする。な
お、駆動雑音ベクトルwk と観測雑音ベクトルvk は互
いに独立であるものとする。
Next, the observation model of the observation device is expressed as the following equation (5). z k = Hx k + v k (5) In this equation (5), z k is a u-dimensional observation value vector at the sampling time t k , and H is u ×
N observation matrices. V k is the sampling time t
It is a u-dimensional observation noise vector corresponding to the observation value vector z k at k , and is assumed to be a white noise sequence according to the u-variate normal distribution of the mean 0 and the covariance matrix R k . It is assumed that the driving noise vector w k and the observation noise vector v k are independent of each other.

【0016】ここで、例えば観測装置の検出結果に基づ
き、xyzの直交座標系における目標11 〜1n の位置
が観測値として得られる場合には、上記式(5)の観測
モデルとして次の式(6)および式(7)のように設定
することができる。
Here, for example, when the positions of the targets 11 to 1 n in the xyz rectangular coordinate system can be obtained as observation values based on the detection results of the observation device, the following observation model of the above equation (5) is used. Equations (6) and (7) can be set.

【0017】[0017]

【数2】 (Equation 2)

【0018】また、サンプリング時刻tk までの観測値
ベクトルの集積を次の式(8)のように表すこととす
る。 Zk ={z1 ,z2 ,z3 ,…,zk-1 ,zk } ・・・(8)
The accumulation of the observed value vectors up to the sampling time t k is represented by the following equation (8). Z k = {z 1 , z 2 , z 3 ,..., Z k−1 , z k } (8)

【0019】カルマンフィルタの理論によれば、上記モ
デルにしたがってサンプリング時刻tk で観測値が得ら
れた場合の状態ベクトルxk の推定値^xkは、次の式
(9)〜式(13)によって計算される。ただし、Qk
は目標11 〜1n のパラメータで、Rk はセンサ41
m のパラメータであるとする。なお、Tは行列の転置
を表す。
According to the theory of the Kalman filter, the estimated value ^ x k of the state vector x k when the observation value is obtained at the sampling time t k according to the above model is expressed by the following equations (9) to (13). Is calculated by Where Q k
Is a parameter of the target 1 1 to 1 n, R k is the sensor 4 1
It is assumed that the parameter is 4 m . Note that T represents transposition of a matrix.

【0020】 ¨xk =Φ(tk-1 ,tk ) ^xk-1 ・・・(9) ^xk =¨xk +Kk {zk −H¨xk } ・・・(10) ただし、 ¨Pk =Φ(tk-1 ,tk ) ^Pk-1 Φ(tk-1 ,tk T +Γ(tk-1 ,tk )Qk-1 Γ(tk-1 ,tk T ・・・(11) Kk =¨Pk T [H¨Pk T +Rk -1 ・・・(12) ^Pk =[IN*N −Kk H]¨Pk ・・・(13)¨x k = Φ (t k -1 , t k ) ^ x k -1 (9) ^ x k = ¨x k + K k {z k -H¨x k・ ・ ・ ... ( 10) where { P k = Φ (t k−1 , t k ) ^ P k−1 Φ (t k−1 , t k ) T + Γ (t k−1 , t k ) Q k−1} ( t k−1 , t k ) T (11) K k = ¨P k H T [H¨P k H T + R k ] −1 (12) ^ P k = [IN * N −K k H] ¨P k (13)

【0021】また、サンプリング時刻tk で観測値が得
られなかった場合の、状態ベクトルxk の推定値 ^xk
は、次の式(14)〜(17)によって計算される。な
お、この処理を一般に外挿と呼ぶ。
The estimated value of the state vector x k when no observation value is obtained at the sampling time t k ^ x k
Is calculated by the following equations (14) to (17). This process is generally called extrapolation.

【0022】 ¨xk =Φ(tk-1 ,tk ) ^xk-1 ・・・(14) ^xk =¨xk ・・・(15) ただし、 ¨Pk =Φ(tk-1 ,tk ) ^Pk-1 Φ(tk-1 ,tk T +Γ(tk-1 ,tk )Qk-1 Γ(tk-1 ,tk T ・・・(16) ^Pk =¨Pk ・・・(17)¨x k = Φ (t k -1 , t k ) ^ x k -1 (14) ^ x k = ¨x k (15) where ¨P k = Φ (t k-1, t k) ^ P k-1 Φ (t k-1, t k) T + Γ (t k-1, t k) Q k-1 Γ (t k-1, t k) T ··・ (16) ^ P k = ¨P k (17)

【0023】ここで、 ^xk ,¨xk , ^Pk ,¨Pk
はそれぞれ、次の式(18)〜(21)のように定義さ
れる。 ^xk =E[xk |Zk ] ・・・(18) ¨xk =E[xk |Zk-1 ] ・・・(19) ^Pk =E[(xk − ^xk )(xk − ^xkT |Zk ] ・・・(20) ¨Pk =E[(xk −^xk )(xk −^xkT |Zk-1 ] ・・・(21)
Here, ^ x k , ¨x k , ^ P k , ¨P k
Are defined as in the following equations (18) to (21). ^ x k = E [x k | Z k ] (18) ¨x k = E [x k | Z k-1 ] (19) ^ P k = E [(x k − ^ x k ) (x k − ^ x k ) T | Z k ] (20) ¨P k = E [(x k − ^ x k ) (x k − ^ x k ) T | Z k-1 ] ... (21)

【0024】ただし、この式(18)〜(21)におい
て、E[|]は平均操作を表す記号である。また、^xk
はサンプリング時刻tk までの観測情報Zk に基づくx
k の条件付き平均値であり、サンプリング時刻tk まで
の観測情報Zk に基づいてサンプリング時刻tk の状態
ベクトルの真値を推定した平滑ベクトルに相当する。¨
k はサンプリング時刻tk-1 までの観測情報Zk-1
基づくxk の条件付き平均値であり、サンプリング時刻
k-1 までの観測情報Zk-1 に基づいてサンプリング時
刻tk での状態ベクトルの真値を推定した予測ベクトル
に相当する。さらに、^Pk,¨Pk はそれぞれ、^xk
¨xk の誤差共分散行列を表す平滑誤差分散行列および
予測誤差共分散行列である。また、式(12)のxk
カルマンゲイン行列と呼ばれ、N×u行列である。な
お、上記式(9)〜(17)により算出される平滑ベク
トル ^xk は、観測情報Zk の下での、推定誤差の平均
がゼロで分散が最小となる意味で最適な推定値となる。
In the equations (18) to (21), E [|] is a symbol representing an averaging operation. Also, ^ x k
Is x based on observation information Z k up to sampling time t k
k is a conditional mean value of corresponds to the smoothing vector estimating the true value of the state vector of the sampling time t k on the basis of the observation information Z k to the sampling time t k. ¨
x k is the conditional mean value of x k based on the observation information Z k-1 to the sampling time t k-1, the sampling time t k on the basis of the observation information Z k-1 to the sampling time t k-1 Corresponds to the prediction vector obtained by estimating the true value of the state vector at the step S. Further, ^ P k and ¨P k are ^ x k ,
A smoothed error variance matrix and a prediction error covariance matrix representing an error covariance matrix of ¨x k . Further, x k in the equation (12) is called a Kalman gain matrix and is an N × u matrix. Note that the smooth vector ^ x k calculated by the above equations (9) to (17) is an optimal estimated value under the observation information Z k in the sense that the average of the estimation error is zero and the variance is minimized. Become.

【0025】なお、カルマンフィルタに基づく追尾フィ
ルタ71 〜7n には以下に示す問題点がある。上記カル
マンフィルタの式からもわかるように、目標11 〜1n
の予測誤差共分散¨Pk と平滑誤差共分散^Pk 、およ
びカルマンゲイン行列Kk の算出には実際の観測値が反
映されない。さらに、目標11 〜1n が等速直線運動や
旋回運動などをおりまぜて雑多な運動を行う場合、あら
かじめ運動モデルを設定することは困難である。以上の
理由により、目標11 〜1n が運動モデルに合致しない
運動を行ったときには、カルマンフィルタは観測値とか
け離れた予測値を出力し続ける場合がある。その結果と
して、センサ41 〜4m を予測値の方向に向けて目標1
1 〜1n を観測しようとしたときに、センサ41 〜4m
の観測範囲に目標11 〜1n が入らず、追尾をはずして
しまうといったことが起こる。
[0025] Note that the tracking filter 7 1 to 7-n based on the Kalman filter have the following problems. As can be seen from the above Kalman filter equation, the targets 1 1 to 1 n
Prediction error covariance P k and error covariance ^ P k, and the calculation of the Kalman gain matrix K k not reflect the actual observations. Further, when the target 1 1 to 1 n performs miscellaneous motion interwoven and uniform linear motion or turning motion, it is difficult to set the advance motion model. For the above reasons, when the target 1 1 to 1 n makes a movement that does not match the motion model, the Kalman filter is sometimes continues to output the predicted value far from the observations. As a result, towards the sensor 4 1 to 4 m in the direction of the predicted value G1
When trying to observe the 1 to 1 n, the sensor 4 1 to 4 m
Target 1 1 to 1 n are not enter the observation range, it occurs such would remove the tracking.

【0026】この問題を回避するための手法としては、
例えば、特開昭62−27677号公報あるいは特開昭
62−27679号公報などに記載されたものがある。
これらは、目標11 〜1n の旋回をカイ2乗検定によっ
て検出する機能を付加したカルマンフィルタを用いたも
のであって、駆動雑音の共分散行列Qk を大小2種類用
意しておき、目標11 〜1n が等速直線運動をしている
と判断したときには小さい方の共分散行列Qk を、旋回
運動をしていると判断したときには大きい方の共分散行
列Qk をそれぞれ使用する第1の方法と、大小2種類の
サンプリング間隔を持っていて、目標が旋回運動をして
いると判断したときにサンプリング間隔を小さくする第
2の方法とを備えるものである。
As a method to avoid this problem,
For example, there are those described in JP-A-62-27677 or JP-A-62-27679.
These be those using a Kalman filter by adding the function of detecting the pivoting of the target 1 1 to 1 n by chi-square test, leave the covariance matrix Q k of the driving noise and large and small two types available, the target the covariance matrix Q k smaller when the 1 1 to 1 n is determined to have a uniform linear motion, using respectively the covariance matrix Q k larger when it is determined that the turning motion It has a first method and a second method that has two types of sampling intervals, large and small, and reduces the sampling interval when it is determined that the target is making a turning motion.

【0027】しかしながら、これらの手法によっても完
全に上記問題を解決することはできない。なぜならば、
観測雑音の影響を受けるために、駆動雑音を目標11
nの旋回運動に会わせて適時的に適正な値に設定する
のは実際には困難であるからである。
However, even with these techniques, the above problem cannot be completely solved. because,
In order to receive the influence of observation noise, Goal 1 1 to the drive noise
To set to match the pivoting movement of 1 n timely manner appropriate value is because it is actually difficult.

【0028】また、サンプリング間隔はセンサ41 〜4
m の能力を越えていくらでも細かく設定できるものでは
なく、サンプリング間隔を可変にするためには、センサ
1〜4m としてレーダを用いる場合、そのアンテナの
設計段階から仕様として考慮しなければならないので、
現有のサンプリング間隔一定のセンサ41 〜4m (レー
ダ)を利用する場合には意味がない。
The sampling interval is determined by the sensors 4 1 to 4
not intended to be any number finely set over a m capacity of, to the sampling interval is variable, when using the radar as the sensor 4 1 to 4 m, so must be considered as a specification from the design stage of the antenna ,
There is no point in using existing sensors 4 1 to 4 m (radar) having a constant sampling interval.

【0029】さらに、単一のセンサでサンプリング間隔
を変える場合であればまだしも、センサ群管理装置では
センサ群5内の複数のセンサ41 〜4m を管理している
ため、サンプリング間隔がそれぞれ異なると、各センサ
1 〜4m ごとのスケジューリングの問題が発生し、最
適化問題としてセンサ割り当てを決定することは手に負
えない問題となる。
Furthermore, Madashimo in the case of changing the sampling interval by a single sensor, since the sensor group management apparatus manages a plurality of sensors 4 1 to 4 m in the sensor group 5, different sampling interval, respectively Then, a scheduling problem occurs for each of the sensors 4 1 to 4 m , and determining the sensor assignment as an optimization problem becomes an intractable problem.

【0030】[0030]

【発明が解決しようとする課題】従来のセンサ群管理装
置は以上のように構成されているので、カルマンフィル
タに基づく追尾フィルタ71 〜7n を使用した場合、設
定した運動モデルと目標11 〜1n の実際の運動が合致
していれば、追尾フィルタ71 〜7n が算出する追尾誤
差(真値と予測値との差)の期待値は妥当であるが、合
致していないとカルマンフィルタの上記問題点の通り、
観測値と予測値の差が大きくなるばかりか、追尾誤差の
分散値に観測値が反映されず、実際は追尾誤差が増加し
ているにもかかわらず、結果的には誤差の期待値は小さ
く評価されることになるため、追尾フィルタ71 〜7n
としてカルマンフィルタを使用した場合、観測必要性が
結果的に不当に小さく評価され、センサ41 〜4m が割
り当てられる頻度が不十分となって、追尾をはずしてし
まうという課題があった。
[Problems that the Invention is to Solve Since conventional sensor group management apparatus is configured as described above, when using the tracking filter 7 1 to 7-n based on the Kalman filter, the set motion model and the target 1 1 - If actual motion of 1 n has only to match the expected value of the tracking error the tracking filter 7 1 to 7-n is calculated (difference between the true value and the predicted value) is a valid and does not match Kalman filter As mentioned above,
Not only does the difference between the observed value and the predicted value increase, but the observed value is not reflected in the variance value of the tracking error. Although the tracking error actually increases, the expected value of the error is evaluated as a result. because that is going to be, tracking filter 7 1 to 7-n
When using a Kalman filter as observation need is evaluated consequently unduly small, the frequency of the sensor 4 1 to 4 m is allocated is insufficient, there is a problem that remove the tracking.

【0031】また、旋回検出機能を備えたカルマンフィ
ルタでは、目標11 〜1n の運動モデルからの逸脱の程
度に合わせて適正な駆動雑音分散を推定できれば、目標
1〜1n を追従するようになるばかりか、予測誤差分
散および平滑誤差分散もこれを反映して、それなりに大
きな値となって出力されるが、実際には観測誤差の影響
を受けるため、駆動雑音分散を適正に推定することは困
難であり、したがってモデルが合致しないことに起因し
て追尾をはずしてしまう危険性を完全に拭うことはでき
ないといった課題もあった。
Further, in the Kalman filter with the turning detecting function, if estimates proper driving noise variance in accordance with the extent of deviation from the motion model of the target 1 1 to 1 n, to follow the target 1 1 to 1 n In addition to this, the prediction error variance and the smooth error variance also reflect this, and are output as a relatively large value. However, since they are actually affected by the observation error, the driving noise variance is appropriately estimated. There is also a problem that it is difficult to completely eliminate the danger of missing a tracking due to a mismatch between models.

【0032】この発明は上記のような課題を解決するた
めになされたもので、各追尾フィルタの出力をさらに監
視することによって追尾がはずれそうになっている目標
を検出し、その目標に対してより優先的にセンサを割り
当てることで、追尾をはずしてしまう危険性を防止でき
るセンサ群管理装置を得ることを目的とする。
The present invention has been made in order to solve the above-described problem. The output of each tracking filter is further monitored to detect a target whose tracking is likely to be lost, and to detect the target. It is an object of the present invention to obtain a sensor group management device that can prevent a risk of missing tracking by assigning sensors with higher priority.

【0033】[0033]

【課題を解決するための手段】この発明に係るセンサ群
管理装置は、センサ群からの観測情報を目標ごとに選別
する入力装置と、この入力装置の出力に応じて目標を追
尾するカルマンフィルタにて構成された追尾フィルタ群
と、これら入力装置と追尾フィルタ群の出力より予測誤
差のバイアス成分を評価するバイアス誤差評価器と、追
尾フィルタ群の出力より予測誤差のランダム成分を評価
するランダム誤差評価器と、バイアス誤差評価器とラン
ダム誤差評価器の出力に基づいて各目標ごとの観測必要
性を評価する観測必要性評価器と、各センサから各目標
への割り当てを仮想的に決定する仮想割り当て器と、追
尾フィルタ群および仮想割り当て器の出力を受けてセン
サと目標との各組合せに対して評価値を決定する観測効
果判定器と、追尾フィルタ群からの追尾情報、および観
測必要性評価器と前記観測効果判定器からの評価値に基
づいて、各センサと各目標との割り当てを決定する割り
当て器とを備えるものである。
A sensor group management device according to the present invention comprises an input device for selecting observation information from a sensor group for each target, and a Kalman filter for tracking the target according to the output of the input device. A configured tracking filter group, a bias error evaluator for evaluating a bias component of a prediction error from the input device and an output of the tracking filter group, and a random error evaluator for evaluating a random component of the prediction error from an output of the tracking filter group And an observation necessity evaluator that evaluates the observation necessity of each target based on the outputs of the bias error evaluator and the random error evaluator, and a virtual allocator that virtually determines the assignment from each sensor to each target. An observation effect determiner that receives an output of a tracking filter group and a virtual allocator and determines an evaluation value for each combination of a sensor and a target; Tracking information from the filter group, and on the basis of the observed need evaluator the evaluation value from the observation effect determiner is one and a allocator for determining the allocation of each sensor and each target.

【0034】この発明に係るセンサ群管理装置は、入力
装置からの観測情報と追尾フィルタ群からの追尾情報に
基づいて、目標が旋回運動を行っているかどうかの評価
を行う機能を、バイアス誤差評価器に持たせたものであ
る。
The sensor group management device according to the present invention has a function of evaluating whether or not a target is making a turning motion based on observation information from an input device and tracking information from a tracking filter group. It is what was held in the vessel.

【0035】この発明に係るセンサ群管理装置は、目標
の予測位置と観測位置の差をローパスフィルタを用いて
平滑することによって、各目標の予測誤差のバイアス成
分を計算して出力する機能を、バイアス誤差評価器に持
たせたものである。
The sensor group management apparatus according to the present invention has a function of calculating and outputting a bias component of the prediction error of each target by smoothing the difference between the predicted position of the target and the observation position using a low-pass filter. It is provided to the bias error evaluator.

【0036】この発明に係るセンサ群管理装置は、目標
の予測誤差共分散行列より算出した誤差楕円体の長軸半
径により、目標の予測誤差のランダム成分を評価する機
能を、ランダム誤差評価器に持たせたものである。
The sensor group management apparatus according to the present invention includes a function of evaluating a random component of a target prediction error by using a major axis radius of an error ellipsoid calculated from a target prediction error covariance matrix in a random error evaluator. It is what you have.

【0037】この発明に係るセンサ群管理装置は、目標
の予測位置と観測位置の差を平滑して算出した各目標の
予測誤差のバイアス成分を、センサ諸元入力器より入力
されたセンサ諸元に含まれる各センサの観測範囲で規格
化し、規格化された予測誤差のバイアス成分の最小値、
あるいは平均値や最大値などの統計量をとって各目標の
バイアス誤差評価値として出力する機能を、バイアス誤
差評価器に持たせたものである。
According to the sensor group management apparatus of the present invention, the bias component of the prediction error of each target calculated by smoothing the difference between the predicted position of the target and the observation position is input to the sensor specification input from the sensor specification input device. The minimum value of the bias component of the standardized prediction error,
Alternatively, the bias error evaluator has a function of taking a statistic such as an average value or a maximum value and outputting it as a bias error evaluation value for each target.

【0038】この発明に係るセンサ群管理装置は、目標
の誤差楕円体の極座標系E−By平面での面積を、セン
サ諸元入力器より入力されたセンサ諸元に含まれる各セ
ンサの観測領域のE−By平面での面積で規格化し、規
格化された誤差楕円体のE−By平面での面積の最小
値、あるいは平均値や最大値などの統計量をとって各目
標のランダム誤差評価値として出力する機能を、ランダ
ム誤差評価器に持たせたものである。
According to the sensor group management apparatus of the present invention, the area of the target error ellipsoid on the polar coordinate system E-By plane is determined by the observation area of each sensor included in the sensor specifications input from the sensor specification input device. Random error evaluation of each target by taking statistics such as the minimum value, the average value, and the maximum value of the area of the normalized error ellipsoid on the E-By plane The function of outputting as a value is provided to the random error evaluator.

【0039】この発明に係るセンサ群管理装置は、各目
標の観測必要性を、バイアス誤差評価器とランダム誤差
評価器からの出力の重み付け平均をとって決定する機能
を、観測必要性評価器に持たせたものである。
The sensor group management apparatus according to the present invention has a function of determining the observation necessity of each target by taking a weighted average of the outputs from the bias error evaluator and the random error evaluator, to the observation necessity evaluator. It is what you have.

【0040】この発明に係るセンサ群管理装置は、重要
度評価器を設けて、目標の位置、目標までの距離、目標
の進行方向、目標の速度、目標の動き、目標自体の注目
度の一部または全部に基づいて各目標ごとの重要度を評
価し、観測必要性評価器に、この重要度評価器からの出
力と、バイアス誤差評価器およびランダム誤差評価器か
らの出力を受けてそれらの重み付け平均をとり、各目標
の観測必要性評価値を決定する機能を持たせたものであ
る。
The sensor group management apparatus according to the present invention is provided with an importance evaluator, and is provided with a target position, a distance to the target, a target traveling direction, a target speed, a target movement, and a target attention level. The importance of each target is evaluated based on the part or the whole, and the observation necessity evaluator receives the output from this importance evaluator and the outputs from the bias error evaluator and the random error evaluator and receives them. It has the function of taking the weighted average and determining the observation necessity evaluation value of each target.

【0041】この発明に係るセンサ群管理装置は、目標
とセンサとの各組合せに対する評価値として、観測必要
性評価器の出力と観測効果判定器の出力との積を計算
し、当該評価値に対する組合せ最適化問題の解としてセ
ンサ割り当てを決定する機能を、割り当て器に持たせた
ものである。
The sensor group management apparatus according to the present invention calculates the product of the output of the observation necessity evaluator and the output of the observation effect determiner as the evaluation value for each combination of the target and the sensor, and calculates the evaluation value for the evaluation value. An assigner has a function to determine sensor assignment as a solution to the combination optimization problem.

【0042】[0042]

【発明の実施の形態】以下、この発明の実施の一形態を
説明する。 実施の形態1.図1は、この発明の実施の形態1による
センサ群管理装置の構成を示すブロック図である。図に
おいて、11 ,12 ,…,1n は観測対象としての複数
の目標である。これら目標11 〜1n は、例えば航空機
あるいは航空機以外の飛翔体である。また、航空機には
その速度に応じて、比較的高速なジェット機、比較的低
速なヘリコプター、これらの中間のプロペラ機が含まれ
る。また、その大きさに応じて、ジャンボジェット機な
どの大型航空機、セスナ機などの小型航空機が含まれ
る。2はこの複数の目標11 〜1n をまとめた目標群で
ある。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below. Embodiment 1 FIG. FIG. 1 is a block diagram showing a configuration of a sensor group management device according to Embodiment 1 of the present invention. In the figure, 1 1 , 1 2 ,..., 1 n are a plurality of targets as observation targets. These goals 1 1 to 1 n is, for example, a flying object other than an aircraft or aircraft. Aircraft also include, depending on their speed, relatively fast jets, relatively slow helicopters, and intermediate propellers. In addition, large aircraft such as jumbo jet aircraft and small aircraft such as Cessna aircraft are included depending on the size. 2 is a target group that summarizes the plurality of target 1 1 to 1 n.

【0043】また、31 ,32 ,…,3m は目標群2の
各目標11 〜1n を観測するための観測ビームであり、
1 ,42 ,…,4m はこの観測ビーム31 〜3m を用
いて目標11 〜1n の観測を行う複数のセンサである。
なお、ここでは、これら複数のセンサ41 〜4m の具体
例として、例えばレーダ装置を考えている。5はこれら
複数のセンサ41 〜4m をまとめたセンサ群である。1
4はセンサ群5の各センサ41 〜4m の出力を受けて、
それらを目標11 〜1n ごとに整理し、後述する追尾フ
ィルタ群8の対応した追尾フィルタ71 〜7n に観測情
報として出力する入力装置である。
Also, 3 1 , 3 2 ,..., 3 m are observation beams for observing the respective targets 1 1 to 1 n of the target group 2.
4 1, 4 2, ..., 4 m is a plurality of sensor for observing the target 1 1 to 1 n by using the observation beam 3 1 to 3 m.
Here, specific examples of the plurality of sensors 4 1 to 4 m, for example, consider a radar apparatus. 5 is a sensor group that summarizes the plurality of sensors 4 1 to 4 m. 1
4 receives the outputs of the sensors 4 1 to 4 m of sensors 5,
They were organized by target 1 1 to 1 n, which is an input device for outputting a corresponding observation information to the tracking filter 7 1 to 7-n was of the tracking filter group 8 to be described later.

【0044】71 ,72 ,…,7n は入力装置14より
出力される観測情報を受けて、目標群2の各目標11
n の追尾を行う複数の追尾フィルタである。これら各
追尾フィルタ71 〜7n はそれぞれが1つの目標11
n に対応し、その目標11〜1n の追尾情報を出力す
る。8はこれら複数の追尾フィルタ71 〜7n をまとめ
た追尾フィルタ群である。
[0044] 7 1, 7 2, ..., 7 n receives the observation information outputted from the input device 14, each target of the target group 2 1 1 -
There are a plurality of tracking filters that perform tracking of 1 n . Each of these tracking filters 7 1 to 7 n has one target 11 1 to
Corresponding to 1 n, and outputs the tracking information of the target 1 1 to 1 n. 8 is a tracking filter group that summarizes the plurality of tracking filter 7 1 to 7-n.

【0045】15は入力装置14の出力、および追尾フ
ィルタ群8の各追尾フィルタ71 〜7n の出力を受けて
予測誤差のバイアス成分を評価するバイアス誤差評価器
であり、入力装置14の出力する観測情報と追尾フィル
タ群8の出力する追尾情報とに基づいて、目標11 〜1
n が旋回運動を行っているかどうかを評価し、また、入
力装置14からの観測情報に含まれる目標観測位置と、
追尾フィルタ群8からの追尾情報に含まれる目標予測位
置との差(残差)をローパスフィルタを用いて平滑する
ことにより、各目標11 〜1n の予測誤差のバイアス成
分を算出して出力するものである。
Reference numeral 15 denotes a bias error evaluator that receives the output of the input device 14 and the output of each of the tracking filters 7 1 to 7 n of the tracking filter group 8 and evaluates the bias component of the prediction error. based on the observation information to an output tracking information of the tracking filter group 8, the target 1 1 to 1
n evaluates whether or not the robot performs a turning motion, and a target observation position included in the observation information from the input device 14;
By using a low-pass filter to smooth the difference (residual) from the target prediction position included in the tracking information from the tracking filter group 8, the bias component of the prediction error of each of the targets 11 to 1 n is calculated and output. Is what you do.

【0046】16は追尾フィルタ群8の各追尾フィルタ
1 〜7n の出力する追尾情報を受けて、追尾予測誤差
のランダム成分を評価するランダム誤差評価器であり、
追尾フィルタ群8からの追尾情報に含まれる目標予測位
置および予測誤差共分散行列より誤差楕円体を算出し、
当該誤差楕円体の長軸半径の長さに基づいて、各目標1
1 〜1n の予測誤差のランダム成分を算出して出力する
ものである。
A random error evaluator 16 receives the tracking information output from each of the tracking filters 7 1 to 7 n of the tracking filter group 8 and evaluates a random component of a tracking prediction error.
Calculating an error ellipsoid from the target prediction position and the prediction error covariance matrix included in the tracking information from the tracking filter group 8;
Based on the length of the major axis radius of the error ellipsoid, each target 1
It calculates and outputs random components of prediction errors of 1 to 1 n .

【0047】9はバイアス誤差評価器15およびランダ
ム誤差評価器16の出力を受け、各目標11 〜1n の旋
回判定結果や追尾誤差の期待値などから、各目標11
nの観測の必要性を評価して、その結果を後述する割
り当て器12に出力する観測必要性評価器である。
[0047] 9 receives the output of the bias error evaluator 15 and random error evaluator 16, and the like expected value of turning decision result and the tracking error of the target 1 1 to 1 n, the target 1 1 -
This is an observation necessity evaluator that evaluates the necessity of 1 n observations and outputs the result to an assigner 12 described later.

【0048】10は追尾フィルタ群8の各追尾フィルタ
1 〜7n からの出力を受けて、例えばセンサ群5の各
センサ41 〜4m を、目標群2の各目標11 〜1n に仮
想的に割り当てた場合の、それぞれの組合せにおける追
尾誤差の期待値を計算して出力する仮想割り当て器であ
る。11はこの仮想割り当て器10によって仮想的に割
り当てられた、センサ41 〜4m と目標11 〜1n の各
組合せに対して、例えば追尾精度の向上度などを尺度と
して観測による効果を判断し、その結果を後述する割り
当て器12に出力する観測効果判定器である。
[0048] 10 receives the output from the tracking filter 7 1 to 7-n of the tracking filter group 8, for example, each of the sensors 4 1 to 4 m of sensors 5, the target 1 1 to 1 n of the target group 2 Is a virtual allocator that calculates and outputs an expected value of a tracking error in each combination when virtual allocation is performed. 11 was assigned virtually by the virtual allocator 10, the sensor 4 1 for each combination of to 4 m and the target 1 1 to 1 n, for example, determine the effect of observation and degree of improvement of the tracking accuracy as a measure Then, it is an observation effect determiner that outputs the result to an assigner 12 described later.

【0049】12は追尾フィルタ群8、観測必要性評価
器9、観測効果判定器11からの出力を受けて、センサ
群5の各センサ41 〜4m の目標群2の各目標11 〜1
n への割り当てを決定する割り当て器である。
[0049] 12 tracking filter group 8, observation need estimator 9, observed in response to an output from the effect determination unit 11, the target 1 1 target group 2 of each sensor 4 1 to 4 m of sensors 5 to 1
An allocator that determines allocation to n .

【0050】次に動作について説明する。ここではま
ず、この発明にて観測必要性評価器9への入力として新
たに装備する、バイアス誤差評価器15とランダム誤差
評価器16を構成するために必要な理論およびその構成
法について述べる。
Next, the operation will be described. First, a theory and a configuration method required for configuring the bias error evaluator 15 and the random error evaluator 16, which are newly provided as inputs to the observation necessity evaluator 9 in the present invention, will be described.

【0051】この理論は、追尾処理の結果による目標1
1 〜1n の位置および速度の予測値と真値との誤差、す
なわち追尾予測誤差に関するもので、ここでは、その予
測誤差をバイアス成分(以下、バイアス誤差という)と
ランダム成分(以下、ランダム誤差という)とに分けて
考える。
This theory is based on the goal 1 based on the result of the tracking process.
Error between the predicted value and the true value position and velocity of the 1 to 1 n, i.e. relates tracking prediction error, in this case, the prediction error of the bias component (hereinafter, referred to as bias error) and random component (hereinafter, random errors ).

【0052】まず、ランダム誤差について述べる。カル
マンフィルタに基づく追尾処理アルゴリズムにおいて
は、各サンプリング時刻tk にて、追尾の結果として得
られる予測ベクトル¨xk の誤差共分散行列として、予
測誤差共分散行列¨Pk を算出している。なお、この予
測誤差共分散行列¨Pk はランダム誤差の評価値を示し
ている。この予測誤差共分散行列¨Pk の値は、実際の
目標11 〜1n の運動が、運動モデルに合致した運動
(等速直線運動)であるかそれ以外の運動(例えば旋回
運動など)であるかには依存しない。
First, the random error will be described. In the tracking processing algorithm based on the Kalman filter, at each sampling time t k , a prediction error covariance matrix ¨P k is calculated as an error covariance matrix of a prediction vector ¨x k obtained as a result of tracking. Note that the prediction error covariance matrix kP k indicates an evaluation value of the random error. The value of the prediction error covariance matrix P k, the actual motion of the target 1 1 to 1 n is other motion or a motion conforming to the motion model (Constant Velocity) (e.g. pivoting movement, etc.) It does not depend on

【0053】また、バイアス誤差は目標11 〜1n が等
速直進運動を行っているか、旋回などの他の運動を行っ
ているかによって結果が異なる。まず、目標11 〜1n
が等速直進運動を行っている場合、カルマンフィルタに
よる推定結果は不偏推定量となることが知られている。
すなわち、この場合、バイアス誤差はゼロとなる。一
方、目標11 〜1n が旋回運動等を行っている場合、図
2に示すように、追尾処理による結果(点線で示した曲
線)は実際の目標11 〜1n の運動(実線で示した曲
線)に対して追従遅れを生じ、結果的に太線の矢印で示
す所定のバイアス誤差が発生することになる。このバイ
アス誤差は、追尾フィルタ71 〜7n の特性を定めるパ
ラメータである駆動雑音ベクトルの共分散Qk および#
rセンサ4rの観測雑音ベクトルの共分散Rk,r と、目
標の位置に依存して変動する。
The result of the bias error differs depending on whether the targets 1 1 to 1 n are performing a straight-line motion at constant speed or performing another motion such as turning. First, the goals 1 1 to 1 n
It is known that the estimation result by the Kalman filter becomes an unbiased estimator when the robot performs a straight-line motion at a constant speed.
That is, in this case, the bias error becomes zero. On the other hand, when the targets 11 1 to 1 n are performing a turning motion or the like, as shown in FIG. 2, the result of the tracking process (the curve shown by the dotted line) is the actual motion of the targets 11 1 to 1 n (the solid line). (Shown curve), and a predetermined bias error indicated by a thick arrow is generated as a result. The bias error covariance Q k and # driving noise vector is a parameter defining the characteristics of the tracking filter 7 1 to 7-n
It fluctuates depending on the covariance R k, r of the observation noise vector of the r sensor 4 r and the position of the target.

【0054】追尾処理の結果で得られた予測ベクトル¨
k に含まれる目標11 〜1n の予測位置と、センサ4
1 〜4m による実際の観測値との差である残差ベクトル
をローパスフィルタを用いて平滑化することにより、図
3でみるように、追尾のバイアス誤差を推定することが
できる。なお、図3(a)には等速直線運動から旋回運
動に移る目標の、サンプリング時刻に対する上記残差ベ
クトルの変化が示されており、同図(b)には当該残差
ベクトルを平滑化したバイアス誤差のサンプリング時刻
に対する変化が示されている。また、この平滑化は一次
フィルタやカルマンフィルタなどのローパスフィルタを
用いて行う。
The predicted vector で obtained as a result of the tracking process
the predicted position of the target 1 1 to 1 n included in x k, the sensor 4
By smoothing the residual vector, which is the difference from the actual observation value from 1 to 4 m , using a low-pass filter, the tracking bias error can be estimated as shown in FIG. FIG. 3A shows the change of the residual vector with respect to the sampling time of the target which shifts from the constant velocity linear motion to the turning motion, and FIG. The change of the bias error with respect to the sampling time is shown. This smoothing is performed using a low-pass filter such as a primary filter or a Kalman filter.

【0055】次に、この実施の形態1によるセンサ群管
理装置の全体の動作について説明する。まず、入力装置
14はセンサ群5の複数のセンサ41 〜4m から出力さ
れる観測情報を融合し、観測すべき対象である目標11
〜1n ごとに整理して追尾フィルタ群8に対して出力す
る。すなわち、割り当て器12がどのセンサ41 〜4m
をどの目標11 〜1n に割り当てているかに基づいて、
各センサ41 〜4m の出力を対応する追尾フィルタ71
〜7n に対して出力する。また、1つの目標11〜1n
に対して複数の観測ビーム31 〜3m が割り当てられて
いる場合、それら各センサ41 〜4m の出力の平均、あ
るいは他の演算によって、それらのデータを融合し、そ
れを追尾フィルタ群8に出力する。このように、入力装
置14は複数のセンサ41 〜4m と複数の追尾フィルタ
1 〜7n とを結びつける働きをしている。
Next, the overall operation of the sensor group management device according to the first embodiment will be described. First, the input device 14 combines observation information output from the plurality of sensors 4 1 to 4 m of the sensor group 5 to obtain a target 11 1 to be observed.
整理 1 n are arranged and output to the tracking filter group 8. That is, the allocator 12 determines which sensor 4 1 to 4 m
Is assigned to which of the goals 1 1 to 1 n
Tracking filter 7 1 corresponding to the output of each sensor 4 1 to 4 m
77 n is output. Also, one goal 1 1 to 1 n
When a plurality of observation beams 3 1 to 3 m are assigned to each other, the data are fused by averaging the outputs of the respective sensors 4 1 to 4 m or by other calculations, and the data is combined with a tracking filter group. 8 is output. Thus, the input device 14 has a function of linking the plurality of sensors 4 1 to 4 m and a plurality of tracking filters 7 1 to 7-n.

【0056】追尾フィルタ群8の各追尾フィルタ71
n は、この入力装置14よりそれぞれ対応する目標1
1 〜1n の観測情報を受けて、当該目標11 〜1n の位
置と速度の推定および予測を行い、各目標11 〜1n
追尾情報を更新して出力する。一方、目標11 〜1n
観測情報が得られなかった場合には、外挿処理を行うこ
とにより、各目標11 〜1n の位置と速度の推定および
予測を行い、それらの追尾情報を更新して出力する。な
お、これらの処理には一般的なカルマンフィルタを用い
る。
Each of the tracking filters 7 1 to 7 1 of the tracking filter group 8
7 n is a target 1 corresponding to the input device 14.
Receiving observation information of 1 to 1 n, performs estimation and prediction of the position and velocity of the target 1 1 to 1 n, and outputs the updated tracking information for each target 1 1 to 1 n. On the other hand, when the observation information of the target 1 1 to 1 n is not obtained, by performing the extrapolation processing performs estimation and prediction of the position and velocity of each target 1 1 to 1 n, their tracking information Is updated and output. Note that a general Kalman filter is used for these processes.

【0057】バイアス誤差評価器15は入力装置14お
よび追尾フィルタ群8からの出力を受けて、予測誤差の
バイアス成分であるバイアス誤差の予測ベクトル(バイ
アス誤差予測ベクトル)¨ξk を計算する。算出された
バイアス誤差予測ベクトル¨ξk の大きさはバイアス誤
差評価値として観測必要性評価器9に出力される。この
ように、バイアス誤差予測ベクトル¨ξk の大きさをそ
のまま出力することで、追従遅れが大きい目標11 〜1
n の観測必要性が大きく評価され、センサ41〜4m
割り当てられやすくなる。
The bias error evaluator 15 receives outputs from the input device 14 and the tracking filter group 8, and calculates a bias error prediction vector (bias error prediction vector) ¨ξ k which is a bias component of the prediction error. Magnitude of the calculated bias error prediction vector Kushi k is output to the observation needs estimator 9 as a bias error evaluation value. Thus, the bias error prediction vector Kushi k of magnitude to that output as it is, the follow-up delay is large target 1 1 to 1
Observation need for n is greater evaluation, the sensor 4 1 to 4 m is easily assigned.

【0058】また、ランダム誤差評価器16は追尾フィ
ルタ群8からの出力を受けて、目標の予測値¨xk と予
測誤差分散行列¨Pk より誤差楕円体を計算し、この誤
差楕円体の長軸半径の長さを求めてそれをランダム誤差
評価値として出力する。以下に示す式(22)では、そ
の左辺が自由度3のカイ2乗分布となり、dをパラメー
タとしてこの式(22)のzk のなす領域は楕円体とな
る。その楕円体が上記誤差楕円体と呼ばれるものであ
る。 [zk −H¨xk ]Sk-1 [zk −H¨xk T ≦d ・・・(22)
Further, the random error evaluator 16 receives the output from the tracking filter group 8, calculates an error ellipsoid from the target predicted value ¨x k and the prediction error variance matrix ¨P k , and calculates the error ellipsoid. The length of the major axis radius is obtained and output as a random error evaluation value. In equation (22) shown below, the left side is a chi-square distribution with three degrees of freedom, and the region formed by z k in equation (22) using d as a parameter is an ellipsoid. The ellipsoid is called the error ellipsoid. [Z k -H¨x k] S k -1 [z k -H¨x k] T ≦ d ··· (22)

【0059】ただし、上記式(22)のSk は次の式
(23)で与えられ、この式(23)中のHは式(7)
の観測行列、Rk は観測雑音の共分散行列である。 Sk =H¨Pk T +Rk ・・・(23)
Here, S k of the above equation (22) is given by the following equation (23), and H in the equation (23) is represented by the following equation (7).
, And R k is the covariance matrix of the observation noise. S k = H¨P k H T + R k (23)

【0060】なお、上記誤差楕円体は目標11 〜1n
観測すれば小さくなるし、観測しなければ大きくなるこ
とから、観測されていない時間の長い目標11 〜1n
観測必要性が高く評価され、センサ41 〜4m の割り当
てが行われやすくなる。ここでは誤差楕円体の長軸半径
を評価値としたが、誤差楕円体の体積などを評価値とし
てもよい。
[0060] Incidentally, the error ellipsoid to be smaller when observing the target 1 1 to 1 n, since the increase to be observed, the observed need for long target 1 1 to 1 n of the time not observed It has been acclaimed assigned sensors 4 1 to 4 m is easily performed. Here, the long axis radius of the error ellipsoid is used as the evaluation value, but the volume of the error ellipsoid may be used as the evaluation value.

【0061】観測必要性評価器9はこれらバイアス誤差
評価器15およびランダム誤差評価器16からの出力を
受けると、それら評価値の重み付き平均をとって各目標
1〜1n の観測必要性とする。
[0061] Observation need estimator 9 receives the output from these bias error evaluator 15 and random error evaluator 16, the observation needs of each target 1 1 to 1 n by taking the weighted average of their evaluation value And

【0062】ここで、バイアス誤差評価器15の出力と
ランダム誤差評価器16の出力のどちらか片方だけを使
って観測必要性を決めようとすると、以下のような問題
が起こる。すなわち、バイアス誤差評価器15の出力の
みによって観測必要性を決めた場合には、旋回している
目標11 〜1n の観測必要性が上昇してセンサ41 〜4
m が割り当てられやすくなるが、他の等速直進を行って
いる目標11 〜1n がまったく観測されなくなる恐れが
ある。一方、ランダム誤差評価器16の出力のみによっ
て観測必要性を決めた場合には、旋回している目標11
〜1n に優先的にセンサ41 〜4m が割り当てられなく
なる。
Here, if it is attempted to determine the necessity of observation by using only one of the output of the bias error evaluator 15 and the output of the random error evaluator 16, the following problem occurs. That is, when you decide the need observed by only the output of the bias error evaluator 15, observation need for target 1 1 to 1 n the vehicle is turning is increased sensor 4 1-4
Although m is more likely to be assigned, there is a possibility that other targets 1 1 to 1 n traveling straight ahead at a constant speed may not be observed at all. On the other hand, when the necessity of observation is determined only by the output of the random error evaluator 16, the turning target 1 1
The sensors 4 1 to 4 m are not assigned preferentially to 11 n .

【0063】したがって、上記バイアス誤差評価器15
およびランダム誤差評価器16からそれぞれ出力される
評価値の重み付き平均をとることによって、旋回してい
る目標11 〜1n に優先的にセンサ41 〜4m を割り当
てつつ、等速直進運動をしている目標11 〜1n にも適
度な観測間隔をとってセンサ41 〜4m を割り当てるこ
とが可能となる。
Therefore, the bias error estimator 15
And by taking weighted averages of the evaluation values output from the random error evaluator 16, respectively, so that the sensors 4 1 to 4 m are preferentially assigned to the turning targets 11 1 to 1 n while the constant speed linear motion is performed. it is possible to assign the sensor 4 1 to 4 m taking an appropriate observation interval to target 1 1 to 1 n that the.

【0064】仮想割り当て器10は、追尾フィルタ群8
の出力である各目標11 〜1n の位置と速度、およびそ
れらの誤差分散を入力し、例えば各センサ41 〜4m
各目標11 〜1n に割り当てた場合の、それぞれの組合
せにおける位置と速度の推定誤差分散を計算して出力す
る。
The virtual allocator 10 controls the tracking filter group 8
Position and velocity of each target 1 1 to 1 n which is the output, and inputs these error variance, in the case where for example, assign a respective sensor 4 1 to 4 m in the target 1 1 to 1 n, each combination Calculates and outputs the estimated error variance of the position and velocity at.

【0065】観測効果判定器11はこの仮想割り当て器
10の出力を入力とする。もし観測を行わなければ、目
標11 〜1n の位置と速度は予測値をそのまま推定値と
して用いなければならないが、観測を行えば、得られる
観測情報を推定値として利用した、より信頼性の高い情
報として、各目標11 〜1n の位置と速度を得ることが
できる。したがって、観測を行う場合の目標11 〜1n
の誤差楕円体は、観測を行わない場合の誤差楕円体より
も小さくなる。
The observation effect determiner 11 receives the output of the virtual allocator 10 as an input. If observations are not made, the positions and velocities of the targets 1 1 to 1 n must be used as the estimated values as they are, but if observations are made, the obtained observation information is used as the estimated values. as a highly information, it is possible to obtain the position and velocity of each target 1 1 to 1 n. Therefore, the objectives 1 1 to 1 n for observation
Is smaller than the error ellipsoid without observation.

【0066】観測効果判定器11は追尾フィルタ群8か
ら出力される予測誤差分散と、仮想割り当て器10から
出力される予測誤差分散とから、誤差楕円体の体積の差
または比を算出し、この誤差楕円体の縮まり具合いを各
センサ41 〜4m から各目標11 〜1n を観測する効果
として判定する。このように実際の割り当ての前に仮想
割り当て器10による仮想割り当てによって、どのよう
な観測が実行されるかが評価される。
The observation effect determiner 11 calculates the difference or ratio of the volume of the error ellipsoid from the prediction error variance output from the tracking filter group 8 and the prediction error variance output from the virtual allocator 10. determining shrinks degree of error ellipsoid as an effect of observing each target 1 1 to 1 n from the sensors 4 1 to 4 m. In this way, what kind of observation is performed by the virtual assignment by the virtual assigner 10 before the actual assignment is evaluated.

【0067】次に、割り当て器12は、上記観測必要性
評価器9の出力と観測効果判定器11の出力とをその積
によって融合することで割り当て評価行列を算出し、組
合せ最適化問題として解いた割り当てを各センサ41
m に対して出力する。例えば、#iセンサ(i=1,
2,…,m)4i を#j目標(j=1,2,…,n)1
j に割り当てるときの観測効果評価値aijと#j目標1
j の観測必要性評価値bj の積Cijを次の式(24)に
よって計算し、割り当て評価行列{Cij}をつくる。 Cij=aij×bj ・・・(24)
Next, the allocator 12 calculates an allocation evaluation matrix by fusing the output of the observation necessity evaluator 9 and the output of the observation effect determiner 11 by their product, and solves it as a combination optimization problem. There were assigned the sensors 4 1 to
Output for 4 m . For example, a #i sensor (i = 1,
2, ..., m) 4 i is the #j target (j = 1,2, ..., n) 1
observation effect evaluation value a ij when assigning to j and #j target 1
j of the product C ij observation needs assessment value b j calculated by the following equation (24), making the allocation evaluation matrix {C ij}. C ij = a ij × b j (24)

【0068】ここで、例えば各センサ41 〜4m は同時
に1つの目標11 〜1n を観測しており、各目標11
n は同時に1つのセンサ41 〜4m からしか観測され
ないという制約条件があるとすると、以下の式(25)
〜(27)で表す制約条件式もとで、次の式(28)に
よる評価関数式を最大とするようなXijを求める組合せ
最適化問題として解けば、上記評価値を最大限に実現す
るセンサ41 〜4m の割り当てが得られる。
Here, for example, each of the sensors 4 1 to 4 m observes one target 11 to 1 n at the same time, and each of the targets 11 1 to 1 n
When 1 n is that there is a constraint that is not observed from only one sensor 4 1 to 4 m at the same time, the following equation (25)
By solving as a combination optimization problem for obtaining X ij that maximizes the evaluation function expression by the following expression (28) based on the constraint expression expressed by (27), the above evaluation value is realized to the maximum. assignment of the sensor 4 1 to 4 m can be obtained.

【0069】[0069]

【数3】 (Equation 3)

【0070】なお、Xijは#iセンサ4i から#j目標
j を観察するという割り当てを表しており、これが
“1”ならば実際にこの割り当てを採用し、“0”なら
ば採用しないという意味である。
X ij represents an assignment for observing the #j target 1 j from the #i sensor 4 i. If this is “1”, this assignment is actually adopted, and if it is “0”, it is not adopted. It means.

【0071】この実施の形態1のセンサ群管理装置によ
れば、旋回する目標11 〜1n や長期間観測されていな
い目標11 〜1n について高く評価される観測必要性
と、各センサ41 〜4m から各目標11 〜1n の観測を
行うことによる予測誤差の収縮の度合いとから、各セン
サ41 〜4m と各目標11 〜1n との組合せの効果を評
価・判定してセンサ割り当てを決定することができる。
[0071] According to the sensor group management apparatus of the first embodiment, and observation need highly evaluated for target 1 1 to 1 n which is not the target 1 1 to 1 n and long observation pivots, each sensor and a degree of contraction of the prediction error caused by performing the observation of the target 1 1 to 1 n from 4 1 to 4 m, evaluate the effect of the combination of the sensors 4 1 to 4 m and each target 1 1 to 1 n -It is possible to determine and determine the sensor assignment.

【0072】また、上記実施の形態1ではセンサとして
レーダを用い、飛行する目標を追尾する場合について説
明したが、レーダ以外のセンサに対してこの発明を適用
しても有効である。例えば、目標が出す赤外線を検知す
る赤外線センサや、目標の送信波を検知するESM(E
lectronic Warfare Support
Measure)などが考えられる。ただし、これら
のセンサは目標の検知および方位の測定は可能である
が、単独では距離を測定することはできない。したがっ
て、異なる位置に配置された複数のセンサの組合せによ
り、幾何学的に目標の位置の標定を行う必要がある。こ
のようにして目標の位置が求められた後の処理は、セン
サとしてレーダを用いた場合と同様である。また、目標
の位置が求められるものであれば他のセンサにも適用で
きる。
In the first embodiment, the case where a radar is used as a sensor to track a flying target has been described. However, the present invention is also effective when applied to sensors other than radar. For example, an infrared sensor that detects infrared rays emitted by a target, or an ESM (E
Electronic Warfare Support
Measure) can be considered. However, these sensors can detect a target and measure an azimuth, but cannot measure a distance alone. Therefore, it is necessary to geometrically locate the target position by a combination of a plurality of sensors arranged at different positions. The processing after the target position is obtained in this manner is the same as the case where a radar is used as a sensor. Further, the present invention can be applied to other sensors as long as the target position can be obtained.

【0073】以上のように、この実施の形態1によれ
ば、目標11 〜1n の旋回を評価するバイアス誤差評価
器15を備えているので、旋回する目標に他の目標より
も優先的にセンサ41 〜4m を割り当てることが可能に
なるとともに、そのバイアス誤差評価器15によって残
差を平滑し、予測誤差のバイアス成分を算出しているの
で、実際の運動に関して運動モデルからの逸脱の度合い
が大きい目標11 〜1nほど観測必要性が高いものとな
り、センサ41 〜4m が割り当てられやすくすることが
でき、また誤差楕円体の大きさを評価するランダム誤差
評価器16を備えているので、センサ41 〜4m が長い
間割り当てられずに目標11 〜1n の曖昧さが大きくな
りすぎて追尾をはずしてしまうということを防止できる
などの効果が得られる。
As described above, according to the first embodiment, since the bias error evaluator 15 for evaluating the turning of the targets 11 to 1 n is provided, the turning target has priority over other targets. it becomes possible to assign a sensor 4 1 to 4 m, the residual was smoothed by the bias error evaluator 15, since the calculated bias component of the prediction error, deviation from the motion model with respect to the actual motion The target 11 1 to 1 n having a higher degree of observation has a higher necessity for observation, so that the sensors 4 1 to 4 m can be easily allocated, and the random error evaluator 16 for evaluating the size of the error ellipsoid is used. since comprises, effects such as prevented that ambiguity of the target 1 1 to 1 n will remove the tracking too large without sensor 4 1 to 4 m is assigned long is obtained.

【0074】さらに、この実施の形態1によれば、観測
必要性評価器9によって、それらバイアス誤差評価器1
5とランダム誤差評価器16からの出力の重み付き平均
をとり、それを観測必要性としているので、旋回する目
標11 〜1n に対して優先的にセンサ41 〜4m を割り
当てつつ、等速直進する目標11 〜1n にも適度な観測
間隔をとってセンサ41 〜4m を割り当てることが可能
となり、割り当て器12によって、その観測必要性評価
器9の出力と観測効果判定器11の出力とをそれらの積
により融合して最適化問題に帰着させているので、評価
値の和を最大とするようなセンサ41 〜4m の割り当て
を決定することができ、よって、複数のセンサ41 〜4
m を最大限有効に活用して複数の目標11 〜1n を同時
に追尾することが可能となり、また、この問題の解法と
して既存の最適化アルゴリズムを使用することができる
ので、準最適化アルゴリズムを使用して計算時間を節約
することもできるなどの効果が得られる。
Further, according to the first embodiment, the observation necessity evaluator 9 uses the bias error evaluator 1
5 and a weighted average of the outputs from the random error evaluator 16 and the observation is necessary, so that the sensors 4 1 to 4 m are preferentially assigned to the turning targets 11 to 1 n . it is possible to assign the sensor 4 1 to 4 m also taking an appropriate observation interval to target 1 1 to 1 n for constant speed straight, the allocator 12, the observed effect judging the output of the observation needs estimator 9 since then reduced to the optimization problem and an output of the vessel 11 are fused by their product, it is possible to determine the allocation of the sensor 4 1 to 4 m so as to maximize the sum of the evaluation values, thus, a plurality of sensors 4 1 to 4
It is possible to simultaneously track a plurality of targets 1 1 to 1 n by making the most effective use of m, and it is possible to use an existing optimization algorithm as a solution to this problem. Can be used to save computation time.

【0075】実施の形態2.図4はこの発明の実施の形
態2によるセンサ群管理装置の構成を示すブロック図で
ある。図において、11 〜1n は目標、2は目標群、3
1 〜3m は観測ビーム、41 〜4m はセンサ、5はセン
サ群、71 〜7n は追尾フィルタ、8は追尾フィルタ
群、9は観測必要性評価器、10は仮想割り当て器、1
1は観測効果判定器、12は割り当て器、14は入力装
置、15はバイアス誤差評価器、16はランダム誤差評
価器であり、これらは図1に同一符号を付して示した実
施の形態1におけるそれらに相当する部分である。
Embodiment 2 FIG. 4 is a block diagram showing a configuration of a sensor group management device according to Embodiment 2 of the present invention. In the figure, 11 to 1 n are goals, 2 is a goal group, 3
1 to 3 m observation beam, 4 1 to 4 m sensors, 5 sensors, 7 1 to 7-n are tracking filter, 8 tracking filter group, 9 observations need evaluator, 10 virtual allocator, 1
1 is an observation effect determiner, 12 is an assigner, 14 is an input device, 15 is a bias error evaluator, and 16 is a random error evaluator, which are the same as those shown in FIG. Are the parts corresponding to them.

【0076】また、17はセンサ群5の複数のセンサ4
1 〜4m のセンサ諸元を、バイアス誤差評価器15ある
いはランダム誤差評価器16に入力するセンサ諸元入力
器である。この実施の形態2は、上記各部に加えて、こ
のセンサ諸元入力器17を備えている点で、実施の形態
1のセンサ群管理装置とは異なっている。
Reference numeral 17 denotes a plurality of sensors 4 of the sensor group 5.
This is a sensor specification input device for inputting sensor specifications of 1 to 4 m to the bias error evaluator 15 or the random error evaluator 16. The second embodiment is different from the sensor group management device of the first embodiment in that the second embodiment includes the sensor specification input device 17 in addition to the above-described units.

【0077】なお、バイアス誤差評価器15は、このセ
ンサ諸元入力器17からのセンサ諸元、および入力装置
14からの観測情報と追尾フィルタ群8からの追尾情報
を受けて、観測情報に含まれている目標観測位置と、追
尾情報に含まれている目標予測位置との差である残差を
ローパスフィルタを用いて平滑することにより、各目標
1 〜1n のそれぞれの予測誤差のバイアス成分を算出
して、それをセンサ諸元入力器17から受けたセンサ諸
元に含まれる各センサ41 〜4m それぞれの観測範囲に
よって規格化し、その規格化された予測誤差のバイアス
成分の最小値、あるいは平均値や最大値などの統計量を
とって、各目標11 〜1n それぞれのバイアス誤差評価
値として出力している点で、図1に同一符号を付したも
のとは異なっている。
The bias error evaluator 15 receives the sensor specifications from the sensor specification input device 17, the observation information from the input device 14, and the tracking information from the tracking filter group 8, and includes them in the observation information. By using a low-pass filter to smooth the residual that is the difference between the target observation position included in the tracking information and the target predicted position included in the tracking information, the bias of the prediction error of each of the targets 11 to 1 n is reduced. to calculate the components, minimum bias component of the prediction error is normalized by the respective sensors 4 1 to 4 m of each observation area, which is the standardized included it in the sensor specifications received from the sensor specifications input unit 17 This is different from the one denoted by the same reference numeral in FIG. 1 in that a value or a statistic such as an average value or a maximum value is taken and output as a bias error evaluation value for each of the targets 11 to 1 n . Is

【0078】また、ランダム誤差評価器16も、追尾フ
ィルタ群8からの追尾情報と、上記センサ諸元入力器1
7からのセンサ諸元とを受けて、その追尾情報に含まれ
ている目標予測位置および予測誤差共分散行列より求ま
る誤差楕円体の、極座標系E−By平面での面積を、セ
ンサ諸元入力器17から受けたセンサ諸元に含まれてい
る各センサ41 〜4m それぞれの観測領域のE−By平
面での面積によって規格化し、その規格化された誤差楕
円体のE−By平面での面積の最小値、あるいは平均値
や最大値などの統計量をとって、各目標11 〜1n それ
ぞれのランダム誤差評価値として出力している点で、図
1に同一符号を付したものとは異なっている。
Further, the random error evaluator 16 also uses the tracking information from the tracking filter group 8 and the sensor
7, the area on the polar coordinate system E-By plane of the error ellipsoid obtained from the target prediction position and the prediction error covariance matrix included in the tracking information is input to the sensor specification. Of the observation area of each of the sensors 4 1 to 4 m included in the sensor data received from the detector 17 on the E-By plane, and the normalized error ellipsoid on the E-By plane The same reference numerals are given in FIG. 1 in that the statistical values such as the minimum value, the average value, and the maximum value of the areas are output as the random error evaluation values of the respective targets 11 to 1 n . Is different from

【0079】次に動作について説明する。上記実施の形
態1によるセンサ群管理装置においては、バイアス誤差
評価器15およびランダム誤差評価器16は、それぞれ
バイアス誤差あるいはランダム誤差の大きさを推定し、
その大きさそのものを評価していた。しかしながら、上
記実施の形態1では、これらバイアス誤差やランダム誤
差の大きさが、目標11 〜1n を観測するセンサ41
m の位置や精度に依存するにもかかわらず、センサ4
1 〜4m の位置や精度が観測必要性に反映されていなか
った。
Next, the operation will be described. In the sensor group management device according to the first embodiment, the bias error evaluator 15 and the random error evaluator 16 estimate the magnitude of the bias error or the random error, respectively.
I was evaluating the size itself. However, in the first embodiment, the magnitude of these bias errors and random errors, sensors 4 1 to observe the target 1 1 to 1 n
Depends on the position and accuracy of 4 m , the sensor 4
Position and accuracy of 1 to 4 m is not reflected in the need observed.

【0080】そこで、この実施の形態2によるセンサ群
管理装置では、バイアス誤差評価器15およびランダム
誤差評価器16において、センサ諸元入力器17より入
力されるセンサ諸元を考慮して、各センサ41 〜4m
らの相対的な誤差の大きさを利用して評価するようにし
ている。
Therefore, in the sensor group management device according to the second embodiment, each of the bias error evaluator 15 and the random error evaluator 16 takes into account the sensor specifications input from the sensor 4 1 using the relative error size of from to 4 m are to be evaluated.

【0081】以下に、センサ41 〜4m としてレーダを
使用する場合の、バイアス誤差評価器15およびランダ
ム誤差評価器16の動作例を示す。まず、バイアス誤差
評価器15においてセンサ諸元を考慮に入れたバイアス
誤差評価値Vk bを算出する手順について説明する。
The following is an example of the operation of the bias error evaluator 15 and the random error evaluator 16 when a radar is used as the sensors 4 1 to 4 m . First, the procedure for calculating the bias error evaluation value V k b containing the sensor specifications into account in the bias error evaluator 15.

【0082】ここで、図5は以下の説明で使われる各記
号の意味を示す説明図である。図において、rは#rセ
ンサ4r として用いられているレーダであり、BWr
このレーダrのビーム幅、BWr /2はその半値幅であ
る。¨pk,r は予測位置のレーダrに対する相対位置ベ
クトルであり、¨ξk は追尾予測誤差のバイアス成分の
予測ベクトルである。¨p’k,r は予測位置に上記予測
ベクトル¨ξk を足し込んで得られる修正予測位置の、
レーダrに対する相対位置ベクトルであり、φk,r はそ
れら両相対位置ベクトル¨pk,r と¨p’k,r の成す角
度である。
FIG. 5 is an explanatory diagram showing the meaning of each symbol used in the following description. In FIG, r is the radar which is used as #r sensor 4 r, BW r is the beam width of the radar r, BW r / 2 is a half-value width. ¨p k, r is a relative position vector of the predicted position with respect to the radar r, and ¨ξ k is a predicted vector of a bias component of the tracking prediction error. ¨p ′ k, r is the corrected predicted position obtained by adding the predicted vector ¨ξ k to the predicted position,
A relative position vector with respect to the radar r, and φ k, r is an angle formed by the two relative position vectors ¨p k, r and ¨p ' k, r .

【0083】なお、以下の手順は各目標11 〜1n ごと
に独立に実行される。まず、追尾フィルタ群8の出力と
して得られる目標11 〜1n の予測ベクトル¨xk に基
づく目標の予測位置はH¨xk で与えられる。なお、H
は式(7)の観測行列である。ここで、この予測位置H
¨xk の各レーダr(r=1,2,…,m)に対する相
対位置ベクトル¨pk,r は、レーダrの位置ベクトルを
[ar r r T とすると、以下に示す式(29)で
表される。 ¨pk,r =H¨xk −[ar r r T ・・・(29)
The following procedure is executed independently for each of the targets 11 to 1 n . First, the predicted position of the target based on the prediction vector X k of the target 1 1 to 1 n obtained as output of the tracking filter group 8 is given by H¨x k. Note that H
Is the observation matrix of equation (7). Here, this predicted position H
¨x the radar r of k (r = 1,2, ..., m) Relative position vector P k with respect, r is the position vector of the radar r and [a r b r c r] T, the following It is expressed by equation (29). ¨p k, r = H¨x k - [a r b r c r] T ··· (29)

【0084】一方、予測位置ベクトルH¨xk に、残差
を平滑して得られる、追尾予測誤差のバイアス成分の予
測ベクトル¨ξk を足し込んで得られる新たな目標予測
位置(修正予測位置)はH¨xk +¨ξk で与えられ
る。したがって、この修正予測位置の各レーダr(r=
1,2,…,m)に対する相対位置ベクトル¨P’k,r
は、次の式(30)で表される。 ¨p’k,r =H¨xk +¨ξk −[ar r r T ・・・(30)
On the other hand, a new target predicted position (corrected predicted position) obtained by adding the predicted vector ¨ξ k of the bias component of the tracking prediction error obtained by smoothing the residual to the predicted position vector H¨x k. ) Is given by H¨x k + ¨ξ k . Therefore, each radar r (r =
1, 2, ..., m) relative position vector {P ' k, r
Is represented by the following equation (30). ¨p 'k, r = H¨x k + ¨ξ k - [a r b r c r] T ··· (30)

【0085】これら2つの相対位置ベクトル¨pk,r
よび¨p’k,r の成す角度φk,r を、各レーダrごとに
次の式(31)により求める。
The angle φ k, r formed by these two relative position vectors ¨p k, r and ¨p ' k, r is obtained for each radar r by the following equation (31).

【0086】[0086]

【数4】 (Equation 4)

【0087】ここで、(a,b)はベクトルa,bの内
積を、‖a‖はベクトルaのユークリッドノルムを表し
ている。次に、角度φk,r の絶対値を各レーダrのビー
ム幅BWr の半幅BWr /2で規格化した値ηk,r を、
次の式(32)によって定義する。
Here, (a, b) represents the inner product of vectors a and b, and {a} represents the Euclidean norm of vector a. Next, a value η k, r obtained by normalizing the absolute value of the angle φ k, r with a half width BW r / 2 of the beam width BW r of each radar r is given by:
It is defined by the following equation (32).

【0088】[0088]

【数5】 (Equation 5)

【0089】最後に、上記規格化された値ηk,r の全レ
ーダrの中での最小値を、この目標11 〜1n のバイア
ス誤差評価値Vk bとし、次の式(33)で表す。
[0089] Finally, the minimum value among all radar r of the normalized value eta k, r, and a bias error evaluation value V k b of the target 1 1 to 1 n, the following equation (33 ).

【0090】[0090]

【数6】 (Equation 6)

【0091】ここで、統計量として最小値を選択する方
法を採用したのは、追尾維持にとって最も条件のよいレ
ーダrをもってしてもなお、観測ビーム31 〜3m 内に
目標11 〜1n を捕らえ続けるのが困難となっている場
合に限って、バイアス誤差評価値が高い値となるように
するためであるが、統計量として平均値や最大値を選択
するようにしてもよい。なお、平均値をとれば平均的な
観測ビーム31 〜3m内への捕えにくさが各目標11
n のバイアス誤差評価値となり、また最大値をとれば
追尾維持にとって最も条件の悪いレーダrで観察を行う
場合の観測ビーム31 〜3m 内への捕えにくさが評価値
となる。
Here, the method of selecting the minimum value as a statistic is adopted because the radar 11 having the best condition for tracking maintenance still has the target 11 1 to 1 within the observation beam 3 1 to 3 m . This is to increase the bias error evaluation value only when it is difficult to keep n , but an average value or a maximum value may be selected as a statistic. Incidentally, taking the average value average observation beam 3 1 caught difficulty each target 1 1 into to 3 m
The bias error evaluation value is 1 n , and when the maximum value is taken, the evaluation value is such that it is difficult to capture within the observation beam 3 1 to 3 m when the observation is performed with the radar r having the worst condition for tracking maintenance.

【0092】次に、ランダム誤差評価器16においてセ
ンサ諸元を考慮に入れたランダム誤差評価値Vk rを算出
する手順について以下に示す。考え方としては、誤差の
見え方はその目標11 〜1n を観測するセンサ41 〜4
m の位置や精度などによって変わってくる。例えば、ど
のセンサ41 〜4m で観測しても誤差が大きいと考えら
れる場合に、その目標11 〜1n の観測必要性が大きく
なるようにランダム誤差を評価するということが考えら
れる。そのために、ここではE−By平面において目標
1 〜1n の誤差楕円体の面積とレーダrの観測ビーム
1 〜3m の面積とを比較することにする。
[0092] Next, the following procedure for calculating the random error evaluation value V k r which takes into account the sensor specifications at random error evaluator 16. The idea, the sensor 41 to the appearance of the error is to observe the target 1 1 ~1 n
It depends on the position and accuracy of m . For example, in the case where even observed at any sensor 4 1 to 4 m is considered that the error is large, it is considered that the observed need for target 1 1 to 1 n evaluates the random error to be large. Therefore, here, to compare the area of the observation beam 3 1 to 3 m in area and radar r error ellipsoid target 1 1 to 1 n in E-By A plane.

【0093】まず、サンプリング時刻tk において、各
レーダr(r=1,2,…,m)より見た目標角度の真
値を表すベクトルθk,r を以下の式(34)のように定
義する。
First, at the sampling time t k , a vector θ k, r representing the true value of the target angle viewed from each radar r (r = 1, 2,..., M) is defined as in the following equation (34). I do.

【0094】[0094]

【数7】 (Equation 7)

【0095】追尾フィルタ71 〜7n より得られる予測
ベクトル¨xk を使用すると、角度の予測ベクトル¨θ
k,r は次の式(35)および式(36)で与えられる。
Using the prediction vector ¨x k obtained from the tracking filters 7 1 to 7 n , the angle prediction vector ¨θ
k and r are given by the following equations (35) and (36).

【0096】[0096]

【数8】 (Equation 8)

【0097】ここで、[ar r r ]はレーダrのx
yz座標系における位置ベクトルであり、[xyz]は
目標予測値xk の位置成分である。
Here, [ ar b r cr ] is x of the radar r.
a position vector in the yz coordinate system, [xyz] is the position component of the desired predicted value x k.

【0098】また、角度予測ベクトル¨θk,r の平均値
をθm k,rとすれば、当該角度予測ベクトル¨θk,r のラ
ンダム誤差¨θk,r −θm k,rの共分散行列は次の式(3
7)のように表せる。 Ak,r =E[(¨θk,r −θk,r m)(¨θk,r −θk,r mT ] =Fk,r ¨Pk k,r T ・・・(37)
[0098] Further, if the angle prediction vector Shita k, a mean value of r and theta m k, r, the angle prediction vector Shita k, random error Shita k of r, r - [theta] m k, the r The covariance matrix is given by the following equation (3
It can be expressed as 7). A k, r = E [( ¨θ k, r -θ k, r m) (¨θ k, r -θ k, r m) T] = F k, r ¨P k F k, r T ··・ (37)

【0099】ただし、Fk,r は次の式(38)とおい
た。また、¨Pk は予測ベクトルのランダム誤差の共分
散行列、すなわち予測誤差共分散行列である。
Here, F k, r is set as the following equation (38). Further, ¨P k is a covariance matrix of a random error of the prediction vector, that is, a prediction error covariance matrix.

【0100】[0100]

【数9】 (Equation 9)

【0101】次に、誤差楕円の面積を計算する。次の式
(39)に示す変量 [¨θk,r −θk,r m]Ak,r -1 [¨θk,r −θk,r m T ・・・(39) は自由度2のカイ2乗分布にしたがい、d’をパラメー
タとして、以下に示す式(40)を満たす¨θk,r の領
域はE−By面内において楕円を成す。 [¨θk,r −θk,r m]Ak,r -1 [¨θk,r −θk,r mT ≦d’ ・・・(40)
Next, the area of the error ellipse is calculated. Variable in the following equation (39) [¨θ k, r -θ k, r m] A k, r -1 [¨θ k, r -θ k, r m] T ··· (39) free According to the chi-square distribution of degree 2, the area of ¨θ k, r that satisfies the following equation (40) with d ′ as a parameter forms an ellipse in the E-By plane. [¨θ k, r -θ k, r m] A k, r -1 [¨θ k, r -θ k, r m] T ≦ d '··· (40)

【0102】なお、上記誤差楕円体の面積は、次の式
(41)により算出される。
The area of the error ellipsoid is calculated by the following equation (41).

【0103】[0103]

【数10】 (Equation 10)

【0104】一方、レーダr(r=1,2,…,m)の
ビーム幅をBWr とするとき、ビーム幅領域のE−By
面内における面積を以下の式(42)で定義する。
[0104] On the other hand, radar r (r = 1,2, ..., m) when the beam width of the BW r, E-By beamwidth region
The area in the plane is defined by the following equation (42).

【0105】[0105]

【数11】 [Equation 11]

【0106】次に、上記誤差楕円体の面積σk,r を各レ
ーダのビーム幅領域の面積sr BW で規格化した値ρk,r
を次の式(43)で定義する。
Next, a value ρ k, r obtained by standardizing the area σ k, r of the error ellipsoid with the area s r BW of the beam width region of each radar is given.
Is defined by the following equation (43).

【0107】[0107]

【数12】 (Equation 12)

【0108】最後に、上記ρk,r の全レーダr(r=
1,2,…,m)中での最小値を、以下の式(44)で
表されるランダム誤差評価値Vk rとする。
[0108] Finally, the ρ k, r of all radar r (r =
1,2, ..., the minimum value among m), a random error evaluation value V k r represented by the following formula (44).

【0109】[0109]

【数13】 (Equation 13)

【0110】ここで、統計量として最小値を選択する方
法を採用したのは、追尾維持にとって最も条件のよいレ
ーダrをもってしてもなお、観測ビーム31 〜3m 内に
目標11 〜1n を捕らえ続けるのが困難となっている場
合に限って、ランダム誤差評価値が高い値となるように
するためであるが、統計量として平均値や最大値を選択
するようにしてもよい。なお、平均値をとれば平均的な
観測ビーム31 〜3m内への捕えにくさが各目標11
n のランダム誤差評価値となり、また最大値をとれば
追尾維持にとって最も条件の悪いレーダrで観察を行う
場合の観測ビーム31 〜3m 内への捕えにくさが評価値
となる。
Here, the method of selecting the minimum value as a statistic is adopted because the radar 11 having the best condition for tracking and maintaining the target 11 1 to 1 within the observation beam 3 1 to 3 m is used. This is to make the random error evaluation value a high value only when it is difficult to keep n , but an average value or a maximum value may be selected as a statistic. Incidentally, taking the average value average observation beam 3 1 caught difficulty each target 1 1 into to 3 m
Becomes a random error evaluation value of 1 n, also the observation beam 3 1 caught difficulty into to 3 m in the case of performing observation in most conditions poor radar r for Track Maintenance Taking the maximum value as an evaluation value.

【0111】以上のように、この実施の形態2によれ
ば、バイアス誤差評価器15とランダム誤差評価器16
に対して、センサ諸元入力器17より各センサ41 〜4
m のセンサ諸元を入力しているので、センサ41 〜4m
の位置や精度を考慮にいれた観測必要性が評価され、こ
れによって、バイアス誤差評価器15では、各目標11
〜1n の旋回を検出するのみならず、旋回によって発生
するバイアス誤差の各センサ41 〜4m から観測のしや
すさまでも含めて評価することができ、また、ランダム
誤差評価器16では、各目標11 〜1n のランダム誤差
の大きさを算出するだけでなく、各センサ41 〜4m
ら見た上記ランダム誤差の相対的な大きさまでも含めて
評価することができて、観測必要性評価器9ではセンサ
諸元を考慮にいれた観測必要性が判定されるため、セン
サ群5にとって追尾をはずしそうな目標11 〜1n に対
してセンサ41 〜4m が割り当てられやすくなるという
効果が得られる。
As described above, according to the second embodiment, the bias error evaluator 15 and the random error evaluator 16
Respect, each sensor from the sensor specification input unit 17 4 1-4
Since entering the m sensors specifications, the sensor 4 1 to 4 m
The necessity of observation in consideration of the position and accuracy of the target is evaluated, whereby the bias error evaluator 15 allows each target 1 1
In addition to detecting the turn of 〜1 n , the bias error generated by the turn can be evaluated including the ease of observation from each of the sensors 4 1 to 4 m . not only calculates the magnitude of the random error of each target 1 1 to 1 n, and can be evaluated, including to the relative magnitude of the random error as seen from the sensors 4 1 to 4 m, observation Since the necessity evaluator 9 determines the necessity of observation in consideration of the sensor specifications, the sensors 4 1 to 4 m are assigned to the targets 11 to 1 n which are likely to lose tracking for the sensor group 5. The effect that it becomes easy is acquired.

【0112】実施の形態3.図6はこの発明の実施の形
態3によるセンサ群管理装置の構成を示すブロック図で
あり、相当部分には図4と同一符号を付してその説明を
省略する。図において、18は入力装置14および追尾
フィルタ群8からの出力を受けて、目標群2の目標11
〜1n ごとに、目標までの距離、目標の進行方向、目標
の速度、目標の動き、目標自体の注目度、目標の到達時
間の一部または全部に基づいて、それらの重要度を評価
する重要度評価器であり、この実施の形態3は実施の形
態2によるセンサ群管理装置に当該重要度評価器18を
付加したものである。なお、観測必要性評価器9は、バ
イアス誤差評価器15からの出力とランダム誤差評価器
16からの出力に加えて、この重要度評価器18からの
出力も受け、これら3つの評価値の重み付け平均をとっ
て、各目標11 〜1n ごとの観測必要性を評価している
点で、図4に同一符号を付したものとは異なっている。
Embodiment 3 FIG. 6 is a block diagram showing the configuration of a sensor group management device according to Embodiment 3 of the present invention. The corresponding parts are denoted by the same reference numerals as in FIG. 4 and description thereof is omitted. In FIG, 18 receives the output from the input device 14 and a tracking filter group 8, the target 1 1 target group 2
For each ~ 1 n , the importance of the target is evaluated based on the distance to the target, the direction of the target, the speed of the target, the movement of the target, the degree of attention of the target itself, and part or all of the arrival time of the target. In the third embodiment, the importance evaluator 18 is added to the sensor group management device according to the second embodiment. Note that the observation necessity evaluator 9 receives the output from the importance evaluator 18 in addition to the output from the bias error evaluator 15 and the output from the random error evaluator 16, and weights these three evaluation values. taking an average, in that evaluating the observed need for each target 1 1 to 1 n, it is different from those designated by the same reference numerals in FIG.

【0113】次に動作について説明する。ここで、図1
に示した実施の形態1のセンサ群管理装置、あるいは図
4に示した実施の形態2のセンサ群管理装置における観
測必要性評価器9は、バイアス誤差評価器15の出力す
る予測誤差のバイアス成分と、ランダム誤差評価器16
の出力する予測誤差のランダム成分とを用いて、各目標
1 〜1n の観測必要性を決めていたが、この実施の形
態3によるセンサ群管理装置における観測必要性評価器
9には、上記バイアス誤差評価器15およびランダム誤
差評価器16の出力に加えて、重要度評価器18より得
られる各目標11 〜1n の重要度も入力されている。
Next, the operation will be described. Here, FIG.
The observation necessity evaluator 9 in the sensor group management device of the first embodiment shown in FIG. 4 or the sensor group management device of the second embodiment shown in FIG. And the random error evaluator 16
By using the random component of the prediction error output from, it had decided observation needs of each target 1 1 to 1 n, the observed need estimator 9 in sensor group management apparatus according to the third embodiment, in addition to the output of the bias error evaluator 15 and random error evaluator 16 is also inputted importance evaluator 18 importance of each target 1 1 to 1 n obtained from.

【0114】なお、この重要度評価器18による各目標
1 〜1n の重要度の評価は、入力装置14からの出力
と追尾フィルタ群8からの出力に基づいて、目標までの
距離、目標の進行方向、目標の速度、目標の動き、目標
自体の注目度、目標の到達時間の一部または全部を用い
て、例えば次のように行われる。
The importance of each of the targets 1 1 to 1 n is evaluated by the importance evaluator 18 based on the output from the input device 14 and the output from the tracking filter group 8 based on the distance to the target and the target. For example, the following is performed using a part or all of the traveling direction of the target, the speed of the target, the movement of the target, the degree of attention of the target itself, and the arrival time of the target.

【0115】1.目標の距離:センサ41 〜4m または
ある特定地域から遠く離れた目標11 〜1n は重要でな
いと判断される場合には、センサ41 〜4m 等に近い目
標11 〜1n の重要度を高くする。 2.目標の進行方向:センサ41 〜4m またはある特定
地域に近づいてくる目標11 〜1n が重要であり、遠ざ
かる目標11 〜1n は重要でないと判断される場合に
は、センサ41 〜4m 等に向かってくる目標11 〜1n
の重要度を高くする。 3.目標の速度:センサ41 〜4m またはある特定地域
に近づいてくる目標11 〜1n のうちで、速度が大きい
ものが重要であると判断される場合には、速度の大きな
目標11 〜1n の重要度を高くする。 4.目標の動き:動きが速く、機動性に富む目標11
n が重要であると判断される場合には、その目標11
〜1n の重要度を高くする。 5.目標自体の注目度:何らかの手段で目標11 〜1n
の大きさ、特性、種類などが識別できたときには、その
識別結果より目標11 〜1n が注目すべきであると判断
された目標11 〜1n の重要度を高くする。 6.目標の到達時間:目標11 〜1n の位置、進行方
向、速度を融合して、ある特定地域までの到達時間を算
出し、当該到達時間が短い目標11 〜1n が重要である
と判断される場合には、この目標11 〜1n の重要度を
高くする。
1. Distance Goal: sensor 41 to when m or target 1 1 to 1 n which far from certain region is determined not to be critical, the target 1 1 to 1 n is close to the sensor 4 1-4 m etc. Increase the importance of 2. Going direction of the target: If the sensors 4 1 to 4 m or the targets 11 1 to 1 n approaching a specific area are important and the targets 11 1 to 1 n away are not important, the sensor 4 goal 1 coming toward the 1 ~4 m such as 1 ~1 n
Increase the importance of 3. Target speed: sensors 4 1 among to 4 m or specific area come target 1 1 to 1 n for approaching, if what speed is high is determined to be important, a large target speed 1 1 Increase the importance of 重要 1 n . 4. Goal movement: Goal 11 1 that moves fast and is mobile
If 1 n is determined to be important, its goal 1 1
Increase the importance of 重要 1 n . 5. Attention level of the goal itself: Goal 11 1 to 1 n by some means
Size, characteristics, when the kind could be identified, to increase the target 1 1 to 1 importance of the determined target 1 1 to 1 n and n is noteworthy from the identification result. 6. The goal of arrival time: the position of the target 1 1 to 1 n, the traveling direction, by fusing speed, and calculates the time to reach a particular area, with the arrival time is shorter target 1 1 to 1 n is important If it is determined, the importance of the goals 11 to 1 n is increased.

【0116】観測必要性評価器9は、上記バイアス誤差
評価器15およびランダム誤差評価器16の出力に加え
て、この重要度評価器18より得られる各目標11 〜1
n の重要度も観測必要性決定の基準として用い、これら
3入力の重み付き平均をとって観測必要性を決定する。
なお、重要度評価器18にて目標11 〜1n の重要度を
評価するための指標はこれらにのみ限定されるものでは
なく、観測が必要かどうかに関して何らかの意味で目標
1 〜1n を評価できるものであれば、上記以外の指標
であってもよい。
[0116] Observation need estimator 9, in addition to the output of the bias error evaluator 15 and random error evaluator 16, the importance evaluator 18 each target 1 1 to 1 obtained from
The importance of n is also used as a reference for determining the necessity of observation, and the necessity of observation is determined by taking a weighted average of these three inputs.
Incidentally, the importance index for evaluating the importance of the target 1 1 to 1 n by evaluator 18 is not limited thereto, the target 1 1 to 1 n in some sense as to whether the observed need Any other index can be used as long as the index can be evaluated.

【0117】以上のように、この実施の形態3によれ
ば、重要度評価器18より得られる各目標11 〜1n
重要度も観測必要性の評価基準として用いているので、
目標の価値がすべて等しいとしてセンサ群8を管理して
いた実施の形態1および実施の形態2の場合とは異な
り、各目標11 〜1n の観測必要性を客観的に評価する
ことが可能となるため、特に観測が必要な目標11 〜1
n を選択し、選択した目標11 〜1n について重点的に
センサ41 〜4m を割り当てることができるようにな
り、追尾が必要な目標11 〜1n を選択して、その選択
された目標11 〜1nを特に見失わないようにセンサ群
8を管理することが可能になるという効果が得られる。
As described above, according to the third embodiment, the importance of each of the targets 1 1 to 1 n obtained by the importance evaluator 18 is also used as an evaluation criterion for the necessity of observation.
Unlike the first and second embodiments in which the sensor group 8 is managed assuming that the values of the targets are all equal, it is possible to objectively evaluate the observation necessity of each of the targets 11 to 1 n. Goals 11 to 1 that require special observation
n , the sensors 4 1 to 4 m can be assigned to the selected targets 11 1 to 1 n in a focused manner, and the targets 11 1 to 1 n that require tracking are selected and selected. effect is obtained that it becomes possible to manage the sensors 8 so as not particularly lose sight of the target 1 1 to 1 n has.

【0118】[0118]

【発明の効果】以上のように、この発明によれば、カル
マンフィルタにて構成された追尾フィルタ群で、センサ
群からの観測情報を目標ごとに選別する入力装置の出力
に応じて目標の追尾を行い、バイアス誤差評価器にてこ
の追尾フィルタ群の出力と入力装置の出力に基づいて、
予測誤差のバイアス成分を評価するとともに、ランダム
誤差評価器にて追尾フィルタ群の出力より予測誤差のラ
ンダム成分を評価し、これらバイアス誤差評価器とラン
ダム誤差評価器の出力より、観測必要性評価器にて目標
ごとの観測必要性を評価し、各センサから各目標への割
り当てを仮想的に決定する仮想割り当て器の出力と、追
尾フィルタ群の出力を受けた観測効果判定器によって、
センサと目標との各組合せに対して評価値を決定し、各
センサと各目標との割り当てを、追尾フィルタ群からの
追尾情報、観測必要性評価器と観測効果判定器からの評
価値に基づいて割り当て器で行うように構成したので、
設定した運動モデルと目標の実際の運動が合致していな
くても、観測値と予測値の差が大きくなって追尾誤差の
分散値には観測値が反映されず、結果的に実際は追尾誤
差が増加しているにもかかわらず誤差の期待値は小さく
評価されることになるようなことはなくなるため、追尾
フィルタとしてカルマンフィルタを使用した場合に、観
測必要性が結果的に不当に小さく評価され、センサが割
り当てられる頻度が不十分となって追尾がはずれそうに
なっている目標を検出して、当該目標により優先的にセ
ンサの割り当てを行うことができ、追尾がはずれてしま
う危険性を防ぐことが可能なセンサ群管理装置が得られ
る効果がある。
As described above, according to the present invention, a tracking filter group constituted by a Kalman filter tracks a target in accordance with an output of an input device for selecting observation information from a sensor group for each target. Based on the output of this tracking filter group and the output of the input device in the bias error evaluator,
In addition to evaluating the bias component of the prediction error, the random error evaluator evaluates the random component of the prediction error based on the output of the tracking filter group. Evaluate the observation necessity for each target at, the output of the virtual allocator that virtually determines the allocation from each sensor to each target, and the observation effect determiner that receives the output of the tracking filter group,
An evaluation value is determined for each combination of the sensor and the target, and the assignment of each sensor and each target is determined based on the tracking information from the tracking filter group and the evaluation values from the observation necessity evaluator and the observation effect determiner. Because it was configured to be performed by the allocator,
Even if the set motion model does not match the actual motion of the target, the difference between the observed value and the predicted value increases, and the observed value is not reflected in the variance of the tracking error. Since the expected value of the error will not be underestimated despite the increase, when the Kalman filter is used as the tracking filter, the necessity of observation is consequently underestimated, To detect a target whose tracking is likely to be lost due to insufficient frequency of sensor allocation, and to assign a sensor with priority to that target, thereby preventing the risk of tracking being missed There is an effect that a sensor group management device that can perform the above is obtained.

【0119】この発明によれば、バイアス誤差評価器に
て、入力装置からの観測情報と追尾フィルタ群からの追
尾情報より、目標が旋回運動を行っているかどうかを評
価するように構成したので、旋回している目標に対し
て、他の目標よりも優先的にセンサを割り当てることが
可能になるという効果がある。
According to the present invention, the bias error evaluator is configured to evaluate whether or not the target is making a turning motion based on the observation information from the input device and the tracking information from the tracking filter group. There is an effect that it is possible to assign a sensor to a turning target more preferentially than other targets.

【0120】この発明によれば、バイアス誤差評価器に
て、目標の予測位置と観測位置との差をローパスフィル
タで平滑することにより、各目標の予測誤差のバイアス
成分を評価するように構成したので、実際の運動に関し
て運動モデルからの逸脱の度合いが大きい目標ほど観測
必要性を高くして、センサが割り当てられやすくするこ
とができるという効果がある。
According to the present invention, the bias error estimator is configured to evaluate the bias component of the prediction error of each target by smoothing the difference between the target predicted position and the observation position with a low-pass filter. Therefore, there is an effect that the need for observation increases as the degree of deviation of the actual motion from the motion model increases, so that sensors can be more easily assigned.

【0121】この発明によれば、ランダム誤差評価器に
て、目標の予測誤差共分散行列より算出した誤差楕円体
の長軸半径により、目標の予測誤差のランダム成分を評
価するように構成したので、長い間、センサの割り当て
が行われないため、目標の曖昧さが大きくなりすぎて追
尾をはずしてしまうといったことを防止できるという効
果がある。
According to the present invention, the random error estimator is configured to evaluate the random component of the target prediction error using the major axis radius of the error ellipsoid calculated from the target prediction error covariance matrix. In addition, since the sensor is not allocated for a long time, it is possible to prevent the ambiguity of the target from being too large and the tracking from being missed.

【0122】この発明によれば、センサ諸元が入力され
るセンサ諸元入力器を備えるとともに、バイアス誤差評
価器にて、目標の予測位置と観測位置との差を平滑して
算出した各目標の予測誤差のバイアス成分を、センサ諸
元に含まれる各センサの観測範囲で規格化し、規格化さ
れた予測誤差のバイアス成分の最小値、あるいは平均値
や最大値などの統計量をとって、各目標のバイアス誤差
評価値として出力するように構成したので、各目標の旋
回を検出するだけでなく、旋回によって発生するバイア
ス誤差の、各センサから観測のしやすさまでも含めて評
価することができ、センサ諸元を考慮にいれた観測必要
性の設定が可能になるという効果がある。
According to the present invention, each target is provided with a sensor specification input device to which the sensor specification is input, and the bias error evaluator smoothes the difference between the predicted position of the target and the observation position. The bias component of the prediction error of is normalized by the observation range of each sensor included in the sensor specifications, and the statistic such as the minimum value, the average value, and the maximum value of the bias component of the normalized prediction error is obtained. Since it is configured to output as the bias error evaluation value of each target, it is possible to not only detect the turning of each target, but also evaluate the bias error generated by turning, including the ease of observation from each sensor. This makes it possible to set the observation necessity in consideration of the sensor specifications.

【0123】この発明によれば、センサ諸元が入力され
るセンサ諸元入力器を備えるとともに、ランダム誤差評
価器にて、目標の誤差楕円体の極座標系E−By平面で
の面積を、センサ諸元に含まれる各センサの観測領域の
E−By平面での面積で規格化し、規格化された誤差楕
円体のE−By平面での面積の最小値、あるいは平均値
や最大値などの統計量をとり、それを各目標のランダム
誤差評価値として出力するように構成したので、各目標
のランダム誤差の大きさを算出するだけでなく、各セン
サから見たランダム誤差の相対的な大きさまで含めて評
価することができ、センサ諸元を考慮にいれた観測必要
性の設定が可能になるという効果がある。
According to the present invention, the sensor specification input device for inputting the sensor specifications is provided, and the area of the target error ellipsoid on the polar coordinate system E-By plane is determined by the random error evaluator. The observation area of each sensor included in the specifications is normalized by the area on the E-By plane, and the standardized error ellipsoid has the minimum, average, and maximum values of the area on the E-By plane. It is configured to take the amount and output it as the random error evaluation value of each target, so not only calculate the magnitude of the random error of each target, but also the relative magnitude of the random error seen from each sensor It is possible to set the observation necessity in consideration of the sensor specifications.

【0124】この発明によれば、観測必要性評価器に
て、バイアス誤差評価器とランダム誤差評価器からの出
力の重み付け平均をとり、各目標の観測必要性を決定す
るように構成したので、旋回運動をしている目標に対し
て優先的にセンサを割り当てつつ、等速直進運動をして
いる目標に対しても適度な観測間隔をとってセンサを割
り当てることが可能になるという効果がある。
According to the present invention, the observation necessity estimator is configured to take the weighted average of the outputs from the bias error evaluator and the random error evaluator to determine the observation necessity of each target. There is an effect that it is possible to assign a sensor to a target performing a constant-velocity straight-moving at an appropriate observation interval while preferentially assigning a sensor to a target performing a turning motion. .

【0125】この発明によれば、目標の位置、目標まで
の距離、目標の進行方向、目標の速度、目標の動き、目
標自体の注目度の一部または全部に基づき、各目標ごと
の重要度を評価する重要度評価器を設けるとともに、観
測必要性評価器にて、この重要度評価器からの出力と、
バイアス誤差評価器およびランダム誤差評価器からの出
力の重み付け平均をとり、各目標の観測必要性の評価値
を決定するように構成したので、各目標の観測必要性を
客観的に評価することにより、特に観測が必要な目標を
選択し、選択した目標について重点的にセンサを割り当
てられるようにすることができるという効果がある。
According to the present invention, the importance of each target is determined based on part or all of the position of the target, the distance to the target, the traveling direction of the target, the speed of the target, the movement of the target, and the degree of attention of the target itself. In addition to providing an importance evaluator that evaluates, the observation necessity evaluator outputs the output from this importance evaluator,
By taking a weighted average of the outputs from the bias error evaluator and the random error evaluator and determining the evaluation value of the observation necessity of each target, it is possible to objectively evaluate the observation necessity of each target. In particular, there is an effect that it is possible to select a target that needs to be observed, and assign a sensor to the selected target in a focused manner.

【0126】この発明によれば、割り当て器にて、観測
必要性評価器の出力と観測効果判定器の出力との積より
目標とセンサとの各組合せに対する評価値を求め、当該
評価値に対する組合せ最適化問題の解としてセンサ割り
当てを決定するように構成したので、観測必要性評価器
の出力と観測効果判定器の出力とを積により融合して最
適化問題に帰着させることが可能となり、評価値の和を
最大とするようなセンサ割り当てを決定することができ
るため、複数のセンサを最大限有効に活用して複数の目
標を同時に追尾することができるばかりか、この問題の
解法として既存の最適化アルゴリズムを使用できるた
め、準最適化アルゴリズムを使用して計算時間を節約す
ることも可能になるなどの効果がある。
According to the present invention, the allocator determines an evaluation value for each combination of the target and the sensor from the product of the output of the observation necessity evaluator and the output of the observation effect determiner, and determines the combination for the evaluation value. Since the configuration is such that the sensor assignment is determined as a solution to the optimization problem, the output of the observation necessity evaluator and the output of the observation effect determiner can be fused by the product and reduced to the optimization problem. Since the sensor assignment that maximizes the sum of the values can be determined, not only can multiple targets be used simultaneously to track multiple targets at the same time, but also existing solutions can be used to solve this problem. Since the optimization algorithm can be used, there is an effect that the calculation time can be saved by using the sub-optimization algorithm.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の実施の形態1によるセンサ群管理
装置を示すブロック図である。
FIG. 1 is a block diagram illustrating a sensor group management device according to a first embodiment of the present invention.

【図2】 実施の形態1における旋回目標に対するバイ
アス誤差の発生を示す説明図である。
FIG. 2 is an explanatory diagram showing occurrence of a bias error with respect to a turning target in the first embodiment.

【図3】 実施の形態1におけるバイアス誤差を算出を
示す説明図である。
FIG. 3 is an explanatory diagram illustrating calculation of a bias error according to the first embodiment.

【図4】 この発明の実施の形態2によるセンサ群管理
装置を示すブロック図である。
FIG. 4 is a block diagram showing a sensor group management device according to a second embodiment of the present invention.

【図5】 実施の形態2におけるバイアス誤差評価法を
示す説明図である。
FIG. 5 is an explanatory diagram showing a bias error evaluation method according to a second embodiment.

【図6】 この発明の実施の形態3によるセンサ群管理
装置を示すブロック図である。
FIG. 6 is a block diagram showing a sensor group management device according to a third embodiment of the present invention.

【図7】 従来のセンサ群管理装置を示すブロック図で
ある。
FIG. 7 is a block diagram showing a conventional sensor group management device.

【符号の説明】[Explanation of symbols]

1 ,12 ,…,1n 目標、2 目標群、31
2 ,…,3m 観測ビーム、41 ,42 ,…,4m
センサ、5 センサ群、6 観測情報融合器、71,7
2 ,…,7n 追尾フィルタ、8 追尾フィルタ群、9
観測必要性評価器、10 仮想割り当て器、11 観
測効果判定器、12 割り当て器、14 入力装置、1
5 バイアス誤差評価器、16 ランダム誤差評価器、
17 センサ諸元入力器、18 重要度評価器。
1 1 , 1 2 , ..., 1 n goals, 2 goal groups, 3 1 ,
3 2 , ..., 3 m observation beam, 4 1 , 4 2 , ..., 4 m
Sensor, 5 sensor group, 6 observation information fusion device, 7 1 , 7
2 ,..., 7 n tracking filters, 8 tracking filters, 9
Observation necessity evaluator, 10 virtual assigner, 11 observation effect determiner, 12 assigner, 14 input device, 1
5 bias error evaluator, 16 random error evaluator,
17 Sensor specification input device, 18 Importance evaluator.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 辻道 信吾 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 (72)発明者 小菅 義夫 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 Fターム(参考) 5J070 AC01 AH40 AH50 AK40 BB16 BB20  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Shingo Tsujimichi 2-3-2 Marunouchi, Chiyoda-ku, Tokyo Inside Mitsubishi Electric Corporation (72) Inventor Yoshio Kosuge 2-3-2 Marunouchi, Chiyoda-ku, Tokyo F term in Mitsubishi Electric Corporation (reference) 5J070 AC01 AH40 AH50 AK40 BB16 BB20

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 複数のセンサから構成されるセンサ群を
管理して目標群の複数の目標を追尾するセンサ群管理装
置において、 前記センサ群からの複数の観測情報を受けてこれらを前
記目標ごとに選別する入力装置と、 前記入力装置の出力に応じて前記目標の追尾を行う、カ
ルマンフィルタに基づく複数の追尾フィルタから構成さ
れた追尾フィルタ群と、 前記入力装置の出力と前記追尾フィルタ群の出力とを受
けて予測誤差のバイアス成分を評価するバイアス誤差評
価器と、 前記追尾フィルタ群の出力を受けて予測誤差のランダム
成分を評価するランダム誤差評価器と、 前記バイアス誤差評価器の出力と前記ランダム誤差評価
器の出力とに基づいて前記目標ごとの観測必要性を評価
する観測必要性評価器と、 前記目標群の各目標と前記センサ群の各センサとの割り
当てを仮想的に決定する仮想割り当て器と、 前記仮想割り当て器が仮想的に決定した前記目標とセン
サとの各割り当てに対して、観測の効果を判定する観測
効果判定器と、 前記観測必要性評価器の出力と前記観測効果判定器の出
力とに基づいて、前記目標群の各目標と前記センサ群の
各センサとの割り当てを決定する割り当て器とを備えた
ことを特徴とするセンサ群管理装置。
1. A sensor group management device for managing a sensor group composed of a plurality of sensors and tracking a plurality of targets of a target group, comprising: receiving a plurality of pieces of observation information from the sensor group; An input device for selecting, a tracking filter group configured of a plurality of tracking filters based on a Kalman filter that performs the tracking of the target according to the output of the input device, and an output of the input device and an output of the tracking filter group And a bias error evaluator that evaluates the bias component of the prediction error, a random error evaluator that receives the output of the tracking filter group and evaluates a random component of the prediction error, and an output of the bias error evaluator and the An observation necessity evaluator that evaluates the observation necessity of each target based on an output of a random error evaluator; each target of the target group and the sensor A virtual allocator for virtually determining an allocation to each sensor of the group, and an observation effect determiner for determining an observation effect for each allocation between the target and the sensor virtually determined by the virtual allocator. And an allocator that determines allocation of each target of the target group and each sensor of the sensor group based on the output of the observation necessity evaluator and the output of the observation effect determiner. Characteristic sensor group management device.
【請求項2】 バイアス誤差評価器が、入力装置から受
けた観測情報と、追尾フィルタ群から受けた追尾情報と
に基づいて、目標が旋回運動を行っているかどうかの評
価を行うものであることを特徴とする請求項1記載のセ
ンサ群管理装置。
2. A bias error evaluator for evaluating whether or not a target makes a turning motion based on observation information received from an input device and tracking information received from a tracking filter group. The sensor group management device according to claim 1, wherein:
【請求項3】 バイアス誤差評価器が、入力装置から受
けた観測情報に含まれる目標観測位置と、追尾フィルタ
群から受けた追尾情報に含まれる目標予測位置の差をロ
ーパスフィルタで平滑することによって、複数の目標そ
れぞれの予測誤差のバイアス成分を算出して、出力する
ものであることを特徴とする請求項1記載のセンサ群管
理装置。
3. A bias error evaluator smoothes a difference between a target observation position included in observation information received from an input device and a target predicted position included in tracking information received from a tracking filter group by a low-pass filter. 2. The sensor group management device according to claim 1, wherein a bias component of a prediction error of each of the plurality of targets is calculated and output.
【請求項4】 ランダム誤差評価器が、追尾フィルタ群
から受けた追尾情報に含まれる目標予測位置および予測
誤差共分散行列より誤差楕円体を算出し、 当該誤差楕円体の長軸半径の長さによって各目標の予測
誤差のランダム成分を評価するものであることを特徴と
する請求項1記載のセンサ群管理装置。
4. A random error evaluator calculates an error ellipsoid from a target prediction position and a prediction error covariance matrix included in tracking information received from a tracking filter group, and calculates a length of a major axis radius of the error ellipsoid. 2. The sensor group management device according to claim 1, wherein a random component of a prediction error of each target is evaluated by the evaluation.
【請求項5】 センサ群の各センサのセンサ諸元を出力
するセンサ諸元入力装置を備え、 バイアス誤差評価器が、前記センサ諸元入力器からのセ
ンサ諸元と、入力装置からの観測情報および追尾フィル
タ群からの追尾情報を受けて、 前記観測情報に含まれる目標観測位置と前記追尾情報に
含まれる目標予測位置の差をローパスフィルタで平滑す
ることにより、目標群の各目標それぞれの予測誤差のバ
イアス成分を算出して、当該予測誤差のバイアス成分を
前記センサ諸元に含まれる前記各センサそれぞれの観測
範囲で規格化し、 規格化された前記予測誤差のバイアス成分の最小値、平
均値、あるいは最大値などの統計量をとって、前記各目
標それぞれのバイアス誤差評価値として出力するもので
あることを特徴とする請求項1記載のセンサ群管理装
置。
5. A sensor specification input device for outputting sensor specifications of each sensor of a sensor group, wherein a bias error evaluator includes a sensor specification from the sensor specification input device and observation information from the input device. And receiving tracking information from the tracking filter group, and smoothing the difference between the target observation position included in the observation information and the target predicted position included in the tracking information with a low-pass filter, thereby predicting each target in the target group. Calculating the bias component of the error, normalizing the bias component of the prediction error in the observation range of each of the sensors included in the sensor specifications, and standardizing the minimum value and the average value of the bias component of the standardized prediction error 2. The sensor group according to claim 1, wherein a statistic such as a maximum value or a maximum value is obtained and output as a bias error evaluation value for each of the targets. Management device.
【請求項6】 センサ群の各センサのセンサ諸元を出力
するセンサ諸元入力装置を備え、 ランダム誤差評価器が、前記センサ諸元入力器からのセ
ンサ諸元と、追尾フィルタ群からの追尾情報を受けて、 前記追尾情報に含まれる目標予測位置および予測誤差共
分散行列より求まる誤差楕円体の極座標系E−By平面
での面積を、前記センサ諸元に含まれる前記各センサそ
れぞれの観測領域のE−By平面での面積で規格化し、 規格化された前記誤差楕円体のE−By平面での面積の
最小値、平均値、あるいは最大値などの統計量をとっ
て、前記各目標それぞれのランダム誤差評価値として出
力するものであることを特徴とする請求項1記載のセン
サ群管理装置。
6. A sensor specification input device for outputting sensor specifications of each sensor of a sensor group, wherein a random error evaluator is configured to perform a sensor specification from the sensor specification input device and a tracking from a tracking filter group. Upon receiving the information, the area of the error ellipsoid obtained from the target predicted position and the prediction error covariance matrix included in the tracking information on the polar coordinate system E-By plane is measured for each of the sensors included in the sensor specifications. The area is normalized by the area on the E-By plane, and a statistic such as a minimum value, an average value, or a maximum value of the area of the normalized error ellipsoid on the E-By plane is obtained, and each of the target values is calculated. The sensor group management device according to claim 1, wherein the sensor group management device outputs the random error evaluation value.
【請求項7】 観測必要性評価器が、バイアス誤差評価
器の出力する予測誤差のバイアス成分と、ランダム誤差
評価器の出力する予測誤差のランダム成分との重み付け
平均をとって、各目標ごとの観測必要性を評価するもの
であることを特徴とする請求項1記載のセンサ群管理装
置。
7. An observation necessity evaluator calculates a weighted average of a bias component of a prediction error output from a bias error evaluator and a random component of a prediction error output from a random error evaluator, and calculates a weighted average for each target. 2. The sensor group management device according to claim 1, wherein the sensor group management device evaluates the necessity of observation.
【請求項8】 目標群の各目標ごとに、目標の位置、目
標までの距離、目標の進行方向、目標の速度、目標の動
き、目標自体の注目度の一部または全部に基づいて、そ
の重要度を評価する重要度評価器を備え、 観測必要性評価器が、前記重要度評価器の出力と、バイ
アス誤差評価器の出力およびランダム誤差評価器の出力
を受けて、これら3つの評価値の重み付け平均より前記
各目標ごとの観測必要性を評価するものであることを特
徴とする請求項1記載のセンサ群管理装置。
8. For each target in the target group, the position of the target, the distance to the target, the direction of travel of the target, the speed of the target, the movement of the target, and the degree of attention of the target itself are partially or entirely determined. An importance evaluator for evaluating the importance, wherein the observation necessity evaluator receives the output of the importance evaluator, the output of the bias error evaluator, and the output of the random error evaluator, and receives these three evaluation values. 2. The sensor group management device according to claim 1, wherein the observation necessity for each of the targets is evaluated from the weighted average of.
【請求項9】 割り当て器が、観測必要性評価器の出力
と観測効果判定器の出力とをそれらの積によって融合
し、目標群の各目標とセンサ群の各センサとの各組合せ
に対する評価値を算出し、 前記評価値に対する組合せ最適化問題を解くことによっ
て得られた解を、センサ割り当てとして出力するもので
あることを特徴とする請求項1記載のセンサ群管理装
置。
9. An allocator fuses an output of the observation necessity evaluator and an output of the observation effect determiner by a product thereof, and evaluates an evaluation value for each combination of each target of the target group and each sensor of the sensor group. The sensor group management device according to claim 1, wherein a solution obtained by solving a combination optimization problem with respect to the evaluation value is output as sensor assignment.
JP24221198A 1998-08-27 1998-08-27 Sensor group management device Expired - Fee Related JP3415037B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24221198A JP3415037B2 (en) 1998-08-27 1998-08-27 Sensor group management device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24221198A JP3415037B2 (en) 1998-08-27 1998-08-27 Sensor group management device

Publications (2)

Publication Number Publication Date
JP2000075023A true JP2000075023A (en) 2000-03-14
JP3415037B2 JP3415037B2 (en) 2003-06-09

Family

ID=17085910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24221198A Expired - Fee Related JP3415037B2 (en) 1998-08-27 1998-08-27 Sensor group management device

Country Status (1)

Country Link
JP (1) JP3415037B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008175683A (en) * 2007-01-18 2008-07-31 Mitsubishi Electric Corp Apparatus for bias error prediction of sensor
JP2011075300A (en) * 2009-09-29 2011-04-14 Ntt Data Corp Optimal position calculation device, and method and program for calculation optimal position
JP2011085607A (en) * 2011-02-02 2011-04-28 Ntt Data Corp Optimal position calculation device, optimal position calculation method, and program
CN105676216A (en) * 2016-03-21 2016-06-15 西安电子科技大学 Low speed formation target tracking method based on formation pattern
CN109683150A (en) * 2018-12-29 2019-04-26 西安电子科技大学 Multigroup/extension Target ellipse shape estimates evaluation method
CN112146648A (en) * 2020-09-23 2020-12-29 河北工业大学 Multi-target tracking method based on multi-sensor data fusion
WO2022091293A1 (en) * 2020-10-29 2022-05-05 日本電気株式会社 Allocation determination device, allocation determination method, and computer-readable medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008175683A (en) * 2007-01-18 2008-07-31 Mitsubishi Electric Corp Apparatus for bias error prediction of sensor
JP2011075300A (en) * 2009-09-29 2011-04-14 Ntt Data Corp Optimal position calculation device, and method and program for calculation optimal position
JP2011085607A (en) * 2011-02-02 2011-04-28 Ntt Data Corp Optimal position calculation device, optimal position calculation method, and program
CN105676216A (en) * 2016-03-21 2016-06-15 西安电子科技大学 Low speed formation target tracking method based on formation pattern
CN109683150A (en) * 2018-12-29 2019-04-26 西安电子科技大学 Multigroup/extension Target ellipse shape estimates evaluation method
CN112146648A (en) * 2020-09-23 2020-12-29 河北工业大学 Multi-target tracking method based on multi-sensor data fusion
WO2022091293A1 (en) * 2020-10-29 2022-05-05 日本電気株式会社 Allocation determination device, allocation determination method, and computer-readable medium

Also Published As

Publication number Publication date
JP3415037B2 (en) 2003-06-09

Similar Documents

Publication Publication Date Title
US10048686B2 (en) Methods and apparatus to autonomously navigate a vehicle by selecting sensors from which to obtain measurements for navigation
US7548184B2 (en) Methods and apparatus for processing data from multiple sources
CA2446318C (en) System and method for central association and tracking in passive coherent location applications
US11587445B2 (en) System and method for fusing asynchronous sensor tracks in a track fusion application
US11300663B2 (en) Method for predicting a motion of an object
CN113359853B (en) Route planning method and system for unmanned aerial vehicle formation cooperative target monitoring
Kalandros et al. Multisensor covariance control strategies for reducing bias effects in interacting target scenarios
Cao et al. Joint tracking and classification based on recursive joint decision and estimation using multi-sensor data
JP2000075023A (en) Sensor group-controlling device
Papaioannou et al. Probabilistic search and track with multiple mobile agents
Blackman et al. Multiple sensor data association and fusion in aerospace applications
JP2001296354A (en) Apparatus for managing resource
Hernandez Performance bounds for target tracking: computationally efficient formulations and associated applications
CN112085970A (en) Air traffic anti-collision method and device and airplane
CN116225053A (en) Task hierarchical target motion characteristic-oriented tracking track optimization method
Krakow et al. Autonomous UAV control: Balancing target tracking and persistent surveillance
CN115599120A (en) Unmanned aerial vehicle cluster AOA positioning track optimization method, system and device
CN115220002A (en) Multi-target data association tracking method and related device for fixed single station
US11237260B2 (en) Processing apparatus for estimating a movement direction of a target
Legrand et al. Bernoulli filter based algorithm for joint target tracking and classification in a cluttered environment
Hashirao et al. Maneuver target tracking with an acceleration estimator using target past positions
KR20180022475A (en) Method and appatatus for interlocking flight position information between tracking devices using position prediction technique
Reyes et al. CADET: Control-Aware Dynamic Edge Computing for Real-Time Target Tracking in UAV Systems
Irci et al. On optimal resource allocation in multifunction radar systems
JP2002286838A (en) Target tracking device and method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090404

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100404

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100404

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140404

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees