JP2007187468A - Target tracking device - Google Patents

Target tracking device Download PDF

Info

Publication number
JP2007187468A
JP2007187468A JP2006003741A JP2006003741A JP2007187468A JP 2007187468 A JP2007187468 A JP 2007187468A JP 2006003741 A JP2006003741 A JP 2006003741A JP 2006003741 A JP2006003741 A JP 2006003741A JP 2007187468 A JP2007187468 A JP 2007187468A
Authority
JP
Japan
Prior art keywords
tracking
target
sensor
accuracy
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006003741A
Other languages
Japanese (ja)
Other versions
JP4693633B2 (en
Inventor
Akio Yamaya
明男 山家
Hidehiko Fujii
秀彦 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2006003741A priority Critical patent/JP4693633B2/en
Publication of JP2007187468A publication Critical patent/JP2007187468A/en
Application granted granted Critical
Publication of JP4693633B2 publication Critical patent/JP4693633B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a target tracking device for determining the schedule for assigning an efficient sensing how long from when which sensor observes the target so as to obtain the estimated impact area highly precisely at an early stage. <P>SOLUTION: A plurality of sensors 4a-4d observe a plurality of targets 1a-1d, a tracking process part 5 processes the tracking process based on the results of the observation, a tracking estimation part 7 estimates the tracking information till the impact of the target based on the tracking information processed by the tracking process. Then, a requested precision calculation part 8 calculates the precision to be satisfied based on the tracking information, an assigning part 9 determines a schedule 10 that how long, from when, which sensor observes the target so as to satisfy the requested tracking precision, and a sensor control part 11 is made to control the plurality of sensors 4a-4d along the assigning schedule 10. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、複数のセンサにより目標観測を行い、目標を追尾する目標追尾装置に関するものである。   The present invention relates to a target tracking device that performs target observation with a plurality of sensors and tracks a target.

数百km以上の長距離にわたって高速で弾道飛行するような目標を追尾する場合、地上に設置されたセンサ(主にレーダ装置)からは、その覆域の限界により1つのセンサで発射から着弾まで観測し続けることは困難である。そのため、広域に配備された複数のセンサを中央で管理・制御して追尾を継続させるようなセンサネットワークシステムが考えられている。
ここで、弾道目標の着弾位置が重要な地域・施設であると予測できる場合には、迎撃などの対応をとる必要があるため、目標の探知後は、なるべく早期に高精度な着弾位置の推定を行わなければならない。着弾位置の推定精度を向上させるためには、着弾位置の算出元である追尾情報の精度を高める必要がある。複数のセンサを同時に割当てて観測頻度を高くすれば、追尾精度を向上させることができる。
When tracking a target that flies at high speed over a long distance of several hundred km or more, from one sensor installed on the ground (mainly radar equipment) to launch and land with one sensor due to the limitation of its coverage area It is difficult to keep observing. For this reason, a sensor network system has been considered in which a plurality of sensors deployed in a wide area are managed and controlled in the center to continue tracking.
Here, if the impact position of the ballistic target can be predicted to be an important area / facility, it is necessary to take measures such as interception. Therefore, after the target is detected, the impact position is estimated with high accuracy as soon as possible. Must be done. In order to improve the estimation accuracy of the landing position, it is necessary to increase the accuracy of the tracking information that is the calculation source of the landing position. Tracking accuracy can be improved by increasing the observation frequency by assigning a plurality of sensors simultaneously.

上記のような、目標に対して観測するセンサを割当てるという要求に対する従来の技術として、特許文献1に開示されたセンサ群管理装置がある。この従来の技術は、主に追尾情報等に基づいてどの目標にどのセンサを割当てるかを決定するようにしたものである。追尾手段から、位置・速度・加速度などの目標の運動諸元の推定値とその誤差の推定値が追尾情報として得られ、この誤差の推定値が大きい目標から優先的に精度の良いセンサ(目標から近いセンサ)を割当てることとしている。   There is a sensor group management device disclosed in Patent Document 1 as a conventional technique for the request for assigning sensors to be observed to a target as described above. In this conventional technique, which sensor is assigned to which target is mainly determined based on tracking information or the like. The tracking means obtains the estimated values of the target motion parameters such as position, velocity, and acceleration, and the estimated value of the error as tracking information. (Sensors close to) are assigned.

特開2002−277543号公報(第4〜6頁、図1)JP 2002-277543 A (4th to 6th pages, FIG. 1)

ところで、システム全体で使用可能なセンサリソース(センサが同時に観測できる目標の数に相当する)は限られているため、目標数が多くなる場合を想定して、なるべく少ない割当てセンサ数で必要な精度を満たすように、限られたセンサリソースを効率よく目標に割当てねばならない。
しかし、特許文献1の従来の技術では、効果の高いセンサを割当てるようにしているが、精度要求を満たすために必要最低限のセンサを割当てるための具体的な割当て方法については示されていなかった。そのため、センサを無駄に割当てる可能性があった。
また、従来の技術では、着弾位置精度を満たすための割当て方法が明らかにされていなかった。
By the way, sensor resources that can be used in the entire system (corresponding to the number of targets that the sensor can observe at the same time) are limited. Therefore, assuming that the number of targets increases, the required accuracy with as few allocated sensors as possible In order to satisfy, limited sensor resources must be efficiently allocated to the target.
However, in the conventional technique of Patent Document 1, a highly effective sensor is allocated, but a specific allocation method for allocating the minimum sensor necessary to satisfy the accuracy requirement has not been shown. . For this reason, there is a possibility that the sensors are assigned uselessly.
Further, in the conventional technique, an allocation method for satisfying the landing position accuracy has not been clarified.

この発明は、上述のような課題を解決するためになされたものであり、早期に高精度な着弾位置の推定値を得るように、どのセンサがどの目標をいつからいつまで観測するかの効率のよいセンサの割当てスケジュールを決定する目標追尾装置を得ることを目的としている。   The present invention has been made to solve the above-described problems, and it is efficient to determine which sensor is observing which target from when to when so as to obtain a highly accurate estimate of the landing position at an early stage. The object is to obtain a target tracking device for determining the sensor allocation schedule.

この発明に係わる目標追尾装置においては、それぞれ弾道目標を観測する複数のセンサを管理・制御して複数の弾道目標を観測・追尾する目標追尾装置において、
複数のセンサから入力される各センサの稼動状況に基づいて、センサの状態を管理するセンサ管理手段、複数のセンサから入力される弾道目標の観測結果に基づいて追尾処理を行う目標追尾手段、この目標追尾手段によって追尾処理された追尾情報に基づいて弾道目標の着弾までの軌道情報を推定する軌道推定手段、この軌道推定手段により推定された軌道情報に基づいて、満たすべき追尾精度要求を算出する要求精度算出手段、この要求精度算出手段により算出された追尾精度要求を満足するように、どのセンサがどの目標をいつからいつまで観測するかの割当てスケジュールを決定する割当て手段、及びこの割当て手段により決定された割当てスケジュールどおりに複数のセンサを制御するセンサ制御手段を備えたものである。
In the target tracking device according to the present invention, in the target tracking device for observing and tracking a plurality of ballistic targets by managing and controlling a plurality of sensors each observing the ballistic target,
Sensor management means for managing the sensor state based on the operational status of each sensor input from a plurality of sensors, target tracking means for performing tracking processing based on the observation results of the ballistic targets input from the plurality of sensors, Based on the tracking information tracked by the target tracking means, the trajectory estimation means for estimating the trajectory information up to the landing of the ballistic target, and the tracking accuracy request to be satisfied is calculated based on the trajectory information estimated by the trajectory estimation means Request accuracy calculation means, allocation means for determining an allocation schedule for which sensor observes which target from when to when, so as to satisfy the tracking accuracy request calculated by the request accuracy calculation means, and the allocation means Sensor control means for controlling a plurality of sensors in accordance with the assigned schedule.

この発明は、以上説明したように、それぞれ弾道目標を観測する複数のセンサを管理・制御して複数の弾道目標を観測・追尾する目標追尾装置において、
複数のセンサから入力される各センサの稼動状況に基づいて、センサの状態を管理するセンサ管理手段、複数のセンサから入力される弾道目標の観測結果に基づいて追尾処理を行う目標追尾手段、この目標追尾手段によって追尾処理された追尾情報に基づいて弾道目標の着弾までの軌道情報を推定する軌道推定手段、この軌道推定手段により推定された軌道情報に基づいて、満たすべき追尾精度要求を算出する要求精度算出手段、この要求精度算出手段により算出された追尾精度要求を満足するように、どのセンサがどの目標をいつからいつまで観測するかの割当てスケジュールを決定する割当て手段、及びこの割当て手段により決定された割当てスケジュールどおりに複数のセンサを制御するセンサ制御手段を備えたので、早期に着弾精度を満足するようなセンサの割当てスケジュールを得ることができる。
As described above, the present invention provides a target tracking device that manages and controls a plurality of sensors for observing and tracking a plurality of ballistic targets, respectively.
Sensor management means for managing the sensor state based on the operational status of each sensor input from a plurality of sensors, target tracking means for performing tracking processing based on the observation results of the ballistic targets input from the plurality of sensors, Based on the tracking information tracked by the target tracking means, the trajectory estimation means for estimating the trajectory information up to the landing of the ballistic target, and the tracking accuracy request to be satisfied is calculated based on the trajectory information estimated by the trajectory estimation means Request accuracy calculation means, allocation means for determining an allocation schedule for which sensor observes which target from when to when, so as to satisfy the tracking accuracy request calculated by the request accuracy calculation means, and the allocation means Sensor control means to control multiple sensors according to the assigned schedule It is possible to obtain an allocation schedule of the sensor as satisfactory.

実施の形態1.
図1は、この発明の実施の形態1による目標追尾装置を示すブロック図である。
図1において、観測すべき対象としての目標1a〜1dは、打ち上げ後数分間は、推薬の燃焼により加速上昇し、推薬の燃焼後は慣性運動を行うような弾道目標とし、これらの目標をまとめて目標群2とする。観測ビーム3a〜3dは、センサ4a〜4dから目標群2に向けて出射される。センサ4a〜4dは、観測ビーム3a〜3dを用いて目標1a〜1dを観測する。ここではセンサとしてレーダ装置を考える。
図1では、どのセンサ4a〜4dがどの目標1a〜1dを観測しているかを示している。目標1aは、センサ4aとセンサ4bの2センサから同時に観測されている。また、センサ4bは目標1aと目標1cを同時に観測している。センサ4dは、目標1dを観測している。
ここで、同時といっても同一時刻ではなく、単位時間内の観測を表している。近年のレーダ装置は、単位時間内に時分割で複数目標を観測・追尾できるため、このような観測も可能と考える。なお、単位時間内に照射できる観測ビーム数(リソースの数)は、上限がセンサごとに決まっているものとする。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a target tracking apparatus according to Embodiment 1 of the present invention.
In FIG. 1, targets 1a to 1d as objects to be observed are ballistic targets that are accelerated by combustion of the propellant for several minutes after launch, and perform inertial motion after combustion of the propellant. Are collectively referred to as a target group 2. The observation beams 3a to 3d are emitted toward the target group 2 from the sensors 4a to 4d. The sensors 4a to 4d observe the targets 1a to 1d using the observation beams 3a to 3d. Here, a radar device is considered as a sensor.
In FIG. 1, which sensor 4a-4d is observing which target 1a-1d is observed. The target 1a is observed simultaneously from the two sensors 4a and 4b. The sensor 4b observes the target 1a and the target 1c simultaneously. The sensor 4d observes the target 1d.
Here, even if it is said that it is simultaneous, it represents the observation within the unit time, not the same time. Since recent radar devices can observe and track multiple targets in a time-division manner within a unit time, such an observation is considered possible. It is assumed that the upper limit of the number of observation beams (number of resources) that can be irradiated within a unit time is determined for each sensor.

追尾処理部5は、センサ4a〜4dが出力する観測情報を受けて、各目標1a〜1dの追尾を行い、各目標の追尾情報を出力する。センサ管理部6は、センサ4a〜4dが出力する稼動情報を受けて、センサ4a〜4dの稼動状態を管理する。軌道推定部7は、追尾処理部5からの追尾情報を受けて、その目標が着弾するまでの軌道情報を算出する。要求精度算出部8は、軌道推定部7から出力される軌道情報を受けて、その目標の追尾精度が満たすべき指標を追尾精度要求として算出する。
割当て部9は、センサ管理部6からのセンサ稼動情報、追尾処理部5からの追尾情報、軌道推定部7からの軌道情報、要求精度算出部8からの追尾精度要求を受けて、センサ4a〜4dの各目標1a〜1dへの割当てを決定する。この割当て部9による割当て結果は、割当てスケジュール10として保持される。センサ制御部11は、割当てスケジュール10のとおりにセンサ4a〜4dを制御する。センサ4a〜4dは、センサ制御部11から送られてくる制御情報に従って目標群2を観測する。
The tracking processing unit 5 receives the observation information output from the sensors 4a to 4d, tracks each of the targets 1a to 1d, and outputs the tracking information of each target. The sensor management unit 6 receives the operation information output from the sensors 4a to 4d and manages the operation state of the sensors 4a to 4d. The trajectory estimation unit 7 receives the tracking information from the tracking processing unit 5 and calculates trajectory information until the target lands. The required accuracy calculation unit 8 receives the trajectory information output from the trajectory estimation unit 7 and calculates an index to be satisfied by the target tracking accuracy as a tracking accuracy request.
The allocation unit 9 receives the sensor operation information from the sensor management unit 6, the tracking information from the tracking processing unit 5, the trajectory information from the trajectory estimation unit 7, and the tracking accuracy request from the required accuracy calculation unit 8, and receives the tracking accuracy request from the sensors 4 a to 4. The assignment of 4d to each target 1a-1d is determined. The allocation result by the allocation unit 9 is held as an allocation schedule 10. The sensor control unit 11 controls the sensors 4 a to 4 d according to the allocation schedule 10. The sensors 4 a to 4 d observe the target group 2 according to the control information sent from the sensor control unit 11.

図2は、この発明の実施の形態1による目標追尾装置の割当てスケジュールの例を示した図である。
図2において、センサ毎に目標の観測開始、観測終了を示している。各センサは、リソースの数だけ、同時に目標を観測することができる。
図3は、この発明の実施の形態1による目標追尾装置の割当て部の処理フローを示すフローチャートである。
FIG. 2 is a diagram showing an example of an allocation schedule of the target tracking device according to the first embodiment of the present invention.
FIG. 2 shows the target observation start and observation end for each sensor. Each sensor can observe the target simultaneously by the number of resources.
FIG. 3 is a flowchart showing a processing flow of the allocation unit of the target tracking device according to Embodiment 1 of the present invention.

図4は、この発明の実施の形態1による目標追尾装置の軌道面に近いセンサを確認するための図である。
図4において、目標とその予測軌道及び着弾推定位置と、センサの配置例を示している。
FIG. 4 is a diagram for confirming a sensor close to the track surface of the target tracking device according to the first embodiment of the present invention.
FIG. 4 shows a target, its predicted trajectory and estimated landing position, and an example of sensor arrangement.

図5は、この発明の実施の形態1による目標追尾装置の着弾時刻の追尾誤差推定値と着弾誤差範囲の関係を示した図である。
図5では、着弾時の経路角にしたがって着弾位置の誤差範囲が投影され、上下方向に誤差が大きいほど投影によって進行方向に範囲が広がり、着弾位置誤差の推定値(着弾誤差範囲)も進行方向に最大となる様子を示している。
FIG. 5 is a diagram showing the relationship between the tracking error estimated value of the landing time and the landing error range of the target tracking device according to Embodiment 1 of the present invention.
In FIG. 5, the error range of the landing position is projected according to the path angle at the time of landing. The larger the error in the vertical direction, the wider the range in the traveling direction by the projection, and the estimated value of the landing position error (landing error range) is also the traveling direction. Shows the maximum state.

次に、本発明の実施の形態1の目標追尾装置の動作について、図1に基づいて説明する。
割当てスケジュール10は、例えば図2に示したような形式をしている。現時刻以降の時間軸に対して、どのセンサがどの目標をいつからいつまで観測するかを示している。リソースは、各センサが同時に観測できる目標数に対応している。図2の例では、3センサともそれぞれ3目標を同時観測可能であることを意味している。いつからいつまで(観測開始、観測終了)という時刻指定は、推定軌道のどこからどこまでという指定と一対一に対応しており、推定軌道を覆域内に捉えることのできるセンサが選ばれている。
センサ制御部11は、割当てスケジュール10に示された各センサの観測の開始と終了が時刻どおりに行われるように、センサ4a〜4dに目標1a〜1dの観測開始・終了指示を送る。センサ4a〜4dは、入力された指示に従って、目標1a〜1dを観測し、目標1a〜1dの観測情報を得る。
Next, the operation of the target tracking device according to the first embodiment of the present invention will be described with reference to FIG.
The allocation schedule 10 has a format as shown in FIG. 2, for example. It shows which sensor observes which target from when to what time with respect to the time axis after the current time. The resource corresponds to the target number that each sensor can observe simultaneously. In the example of FIG. 2, it means that three sensors can simultaneously observe three targets. The time designation from when to when (observation start, observation end) has a one-to-one correspondence with the designation from where to where in the estimated trajectory, and a sensor that can capture the estimated trajectory within the coverage is selected.
The sensor control unit 11 sends the observation start / end instructions of the targets 1a to 1d to the sensors 4a to 4d so that the observations of the sensors indicated in the allocation schedule 10 are started and ended according to the time. The sensors 4a to 4d observe the targets 1a to 1d according to the input instructions, and obtain observation information of the targets 1a to 1d.

次に、追尾処理部5は、センサ4a〜4dから送られてくる観測情報に基づいて、それら観測情報と既追尾目標1a〜1dを対応づける相関処理を行い、対応する観測情報を用いて、目標1a〜1dの予測・推定を行って、追尾情報を更新する。追尾処理部5は、追尾情報として、位置・速度・加速度等の運動諸元の推定値およびそれらの誤差の推定値を出力する。
例えば、直交3次元座標x、y、zにおける位置追尾誤差の推定値は、次の式(1)で定義される位置追尾誤差共分散行列Pとして計算される。
Next, based on the observation information sent from the sensors 4a to 4d, the tracking processing unit 5 performs a correlation process for associating the observation information with the tracked targets 1a to 1d, and using the corresponding observation information, The tracking information is updated by predicting / estimating the targets 1a to 1d. The tracking processing unit 5 outputs, as tracking information, estimated values of motion parameters such as position, velocity, and acceleration, and estimated values of errors thereof.
For example, the estimated value of the position tracking error at the orthogonal three-dimensional coordinates x, y, z is calculated as a position tracking error covariance matrix P defined by the following equation (1).

P=E[(Xs−Xm)(Xs−Xm)] ・・(1)
ここで、
Xs:3行1列の追尾位置ベクトル
Xm:3行1列の真位置ベクトル
:行列Aの転置行列である。
P = E [(Xs−Xm) (Xs−Xm) T ] (1)
here,
Xs: tracking position vector of 3 rows and 1 column Xm: true position vector A T of 3 rows and 1 column: transposed matrix of matrix A

さらに、その大きさとしては、Pの二次形式を用いて、次式(2)を満たすXの範囲(追尾誤差楕円)で表され、特にその楕円の長半径などを用いる。   Further, the size is represented by a range of X (tracking error ellipse) satisfying the following equation (2) using a quadratic form of P, and in particular, the ellipse of the ellipse is used.

(X−Xs)−1(X−Xs)≦d(m) ・・(2)
ここで、
Xs:3行1列の追尾位置ベクトル
X:3行1列の位置ベクトル
−1:追尾位置誤差共分散行列Pの逆行列
d(m):カイ2乗分布のmパーセント信頼区間である。
なお、式(1)(2)とも、速度、加速度でも同様に計算できる。
(X−Xs) T P −1 (X−Xs) ≦ d (m) (2)
here,
Xs: 3 × 1 tracking position vector X: 3 × 1 position vector P −1 : Inverse matrix d (m) of tracking position error covariance matrix P: m percent confidence interval of chi-square distribution.
It should be noted that both equations (1) and (2) can be similarly calculated with respect to velocity and acceleration.

次に、軌道推定部7は、追尾情報に基づいて、現時刻から着弾までの軌道および着弾位置を推定する。軌道の計算方法は、追尾情報の位置・速度の推定値を初期値とした慣性運動であって、外力として地球の重力や空気抵抗などを受けることを考慮した物理計算による。こうして推定した軌道が地表面と交わる位置を着弾推定位置、その時刻を着弾推定時刻とする。
また、着弾位置の誤差の推定値(着弾誤差範囲)として、追尾誤差推定値を着弾推定時刻まで時間発展(追尾処理の予測と同じ計算でよい)させて求める。これらを軌道情報として出力する。
Next, the trajectory estimation unit 7 estimates the trajectory and the landing position from the current time to the landing based on the tracking information. The calculation method of the orbit is an inertial motion that uses the estimated position and velocity of the tracking information as initial values, and is based on physical calculations that take into account the earth's gravity and air resistance as external forces. The position where the estimated trajectory intersects the ground surface is defined as the estimated landing position, and the time is defined as the estimated landing time.
Further, as an estimated value (landing error range) of the landing position error, the tracking error estimated value is obtained by time development (same calculation as the tracking process prediction) until the landing estimated time. These are output as trajectory information.

要求精度算出部8は、着弾位置誤差の要求として、どの時点で着弾位置誤差をどのくらいにしなければならないかを予め保持しているものとする。この保持する内容は、早期に着弾位置を特定したいのであるから、例えば、目標を新たに発見(探知)してから100秒以内に着弾位置誤差を100km以内にするといった内容となる。このとき、探知時刻から100秒後を要求時刻、100kmを要求着弾位置精度と呼ぶ。
要求精度算出部8は、後述する式(3)により、上記の要求着弾位置精度(式(3)のRmax)を、軌道推定部7から出力される軌道情報(式(3)のt、th)を用いて、要求時刻において満たすべき追尾精度(追尾誤差推定値)の形の要求精度(式(3)のPp、Pv)に変換して出力する。
センサ管理部6は、センサ4a〜4dから定期的に送られてくる稼動情報に基づいて、各センサが使用可能かどうかを把握している。
It is assumed that the required accuracy calculation unit 8 holds in advance how much the landing position error should be made as a request for the landing position error. Since the contents to be held are intended to identify the landing position at an early stage, for example, the landing position error is set to 100 km or less within 100 seconds after a new target is found (detected). At this time, 100 seconds after the detection time is called the required time, and 100 km is called the required landing position accuracy.
The required accuracy calculation unit 8 calculates the required landing position accuracy (Rmax in the equation (3)) from the trajectory information output from the trajectory estimation unit 7 (t, th in the equation (3)) according to the equation (3) described later. ) Is used to convert to required accuracy (Pp, Pv in equation (3)) in the form of tracking accuracy (tracking error estimated value) to be satisfied at the required time and output.
The sensor management unit 6 grasps whether or not each sensor can be used based on the operation information periodically sent from the sensors 4a to 4d.

次に、割当て部9は、センサ管理部6からの各センサの稼働状況、追尾処理部5からの追尾情報、軌道推定部7からの軌道情報に基づき、要求精度算出部8からの要求精度を満たすために、どの目標をどのセンサでいつからいつまで観測するかの割当てスケジュール10を作成する。
なお、割当ての計算タイミングは、センサの稼働状況の変化、追尾目標の追加・削除、軌道の変化などを監視し、前回割当てスケジュールを計算してから、そのスケジュールが成立しなくなるような状況となった場合のみで十分である。
Next, the allocation unit 9 calculates the required accuracy from the required accuracy calculation unit 8 based on the operation status of each sensor from the sensor management unit 6, the tracking information from the tracking processing unit 5, and the trajectory information from the trajectory estimation unit 7. In order to meet this requirement, an assignment schedule 10 is created for which target is observed by which sensor from when to when.
The allocation calculation timing is such that the change in the operating status of the sensor, the addition / deletion of the tracking target, the change in the trajectory, etc. are monitored, and the schedule cannot be established after the previous allocation schedule is calculated. It is sufficient if only.

次に、要求精度算出部8における要求精度の算出方法について詳細に述べる。
着弾位置誤差推定値は、追尾誤差推定値の時間発展で表されるから、以下の式(3)の関係を満たすような位置と速度に関する追尾精度要求値(Pp,Pv)を要求精度とする。
Next, the required accuracy calculation method in the required accuracy calculation unit 8 will be described in detail.
Since the landing position error estimated value is represented by the time evolution of the tracking error estimated value, the tracking accuracy request values (Pp, Pv) relating to the position and velocity satisfying the relationship of the following expression (3) are set as the required accuracy. .

(d(m)0.5×(Pp+Pv×t))/min{tan(th),1}≦Rmax ・・(3)
ここで、
Pp:要求時刻における位置追尾精度要求値(位置誤差共分散行列の最大固有値の平方根)
Pv:要求時刻における速度追尾精度要求値(速度誤差共分散行列の最大固有値の平方根)
t[s]:要求時刻から着弾推定時刻までの時間
d(m):カイ2乗分布におけるmパーセント信頼区間(mパーセントは着弾精度要求として規定されるもの)
th[rad]:着弾経路角(着弾時の軌道と地平面のなす角度。地平面と平行を0度とし、0〜π/2とする。)
min{a,b}:aとbの値の小さい方を示す関数
Rmax[m]:要求着弾精度(真値との差をRmax以内にと要求された距離)である。
(D (m) 0.5 × (Pp + Pv × t)) / min {tan (th), 1} ≦ Rmax (3)
here,
Pp: Position tracking accuracy request value at the required time (the square root of the maximum eigenvalue of the position error covariance matrix)
Pv: Speed tracking accuracy required value at required time (square root of maximum eigenvalue of speed error covariance matrix)
t [s]: Time from the requested time to the estimated landing time d (m): m percent confidence interval in the chi-square distribution (m percent is defined as a landing accuracy requirement)
th [rad]: Landing path angle (An angle formed by the trajectory at the time of landing and the ground plane. 0 degrees parallel to the ground plane and 0 to π / 2)
min {a, b}: Function Rmax [m] indicating the smaller value of a and b: Required landing accuracy (the required distance within which the difference from the true value is within Rmax).

上記の要求着弾精度を追尾精度要求値に変換する原理は、以下のとおりである。
レーダの特徴として、目標までの距離によらず距離精度は良好であるが、角度方向(方位角、仰角)の精度は、遠方の目標になるほど悪くなる。複数の異なる位置にあるレーダで同一目標を観測する場合、方位角方向は、他のレーダの距離方向と重ねることができるが、仰角方向は重ねることができない。よって、これらの観測情報を使って追尾した結果、追尾誤差推定値としては仰角方向すなわち上下方向の誤差が一番大きく現れる。
また、この追尾誤差推定値を着弾推定時刻まで推定軌道に沿って伝播させても、上下方向に誤差が大きいのは変わらない。
さらに、この伝播させた追尾誤差推定値を着弾時の経路角にしたがって投影した範囲を着弾位置の誤差範囲と考えると、上下方向に誤差が大きいほど投影によって進行方向に範囲が広がり、着弾位置誤差の推定値(着弾誤差範囲)も進行方向に最大となる(図5参照)。
よって、追尾誤差の最大となる上下軸方向の誤差推定値に着目して、上記の追尾精度要求値としている。
The principle of converting the required landing accuracy into the tracking accuracy required value is as follows.
As a feature of the radar, the distance accuracy is good regardless of the distance to the target, but the accuracy in the angular direction (azimuth angle, elevation angle) becomes worse as the target becomes farther away. When observing the same target with a plurality of radars at different positions, the azimuth angle direction can overlap the distance direction of other radars, but the elevation angle direction cannot overlap. Therefore, as a result of tracking using these observation information, the error in the elevation direction, that is, the vertical direction, appears the largest as the tracking error estimated value.
Even if this tracking error estimated value is propagated along the estimated trajectory until the estimated landing time, the error in the vertical direction remains the same.
Further, if the range obtained by projecting this propagated tracking error estimated value according to the path angle at the time of landing is considered as the error range of the landing position, the larger the error in the vertical direction, the wider the range in the traveling direction by projection, and the landing position error Is also the maximum in the direction of travel (see FIG. 5).
Therefore, focusing on the error estimated value in the vertical axis direction that maximizes the tracking error, the above tracking accuracy requirement value is used.

次いで、割当て部9の動作を図3に基づき、さらに詳細に述べる。
割当て部9は、どの目標をどのセンサがいつからいつまで観測するかのスケジュールを決める。対象の目標とセンサは、それぞれ追尾情報、センサ稼動情報より決まる。
次に、要求対象の目標の要求時刻までの推定軌道に対して、どのセンサをいつからいつまで割当てるかを図3のフローに従って目標ごとに決めていく。要求対象でない目標や、要求時刻を過ぎた後の推定軌道については、覆域に捉えることのできるセンサを1つ適当に割当てて追尾を継続させる。
STEP1で、要求時刻における追尾精度を予測する。追尾精度の予測は、例えば、推定軌道にそって観測情報が得られると仮定して擬似観測値をつくり、それを追尾処理して追尾誤差推定値を得る。なお、ループの1回目では現状の割当てセンサのうち1つを選択して実施したり、要求時刻まで観測できるセンサを適当に選んだりして決める。
STEP2で、予測した追尾精度(誤差共分散行列)から追尾精度要求値Pp、Pvを求め、式(3)を満たしているかどうかを判定する。
Next, the operation of the assigning unit 9 will be described in more detail based on FIG.
The assigning unit 9 determines a schedule for which target is observed by which sensor. Target targets and sensors are determined from tracking information and sensor operation information, respectively.
Next, it is determined for each target according to the flow of FIG. 3 which sensor is allocated from when to when the estimated trajectory up to the request time of the target to be requested. For a target that is not a request target and an estimated trajectory after the request time has passed, one sensor that can be captured in the coverage is appropriately allocated and tracking is continued.
In STEP1, the tracking accuracy at the requested time is predicted. For tracking accuracy prediction, for example, it is assumed that observation information is obtained along an estimated trajectory, and a pseudo-observation value is created, followed by tracking processing to obtain a tracking error estimation value. In the first loop, one of the currently assigned sensors is selected and implemented, or a sensor that can be observed until the requested time is selected appropriately.
In STEP 2, tracking accuracy request values Pp and Pv are obtained from the predicted tracking accuracy (error covariance matrix), and it is determined whether or not Expression (3) is satisfied.

STEP3は、追尾精度要求を満たしていないので、軌道面(目標位置、着弾位置を含む地面に垂直な面)に近いセンサを割当てに追加する。
STEP4は、追尾精度要求を満たしたので、これまでに追加したセンサを割当てることとして割当てスケジュールを更新する。
追尾精度要求を満たすまで、STEP3により順次選ばれるセンサは、例えば図4のようになる。図4を参照すると、目標#1に対しては、センサ#6、#5、#2、#1、#7、#3、#4の順で割当てが決定していく。目標#2に対してはセンサ#2、#6、#4、#7、#5、#3、#1の順である。
Since STEP3 does not satisfy the tracking accuracy requirement, a sensor close to the track surface (surface perpendicular to the ground including the target position and the landing position) is added to the allocation.
Since STEP 4 satisfies the tracking accuracy requirement, the allocation schedule is updated by allocating the sensors added so far.
Until the tracking accuracy requirement is satisfied, the sensors sequentially selected in STEP 3 are, for example, as shown in FIG. Referring to FIG. 4, for the target # 1, allocation is determined in the order of sensors # 6, # 5, # 2, # 1, # 7, # 3, and # 4. For the target # 2, the order is sensors # 2, # 6, # 4, # 7, # 5, # 3, # 1.

上記の割当てセンサの選択方法の原理は、以下のとおりである。
追尾精度要求を満たすためにセンサを割当てるのは、探知してから100秒以内の早い段階である。弾道目標は、この間に噴射を終えて慣性運動に移る可能性が高い。この運動の変化は、推力による加速度が急激に0になるため、追尾誤差を大きくする要因となる。
このとき、追尾処理で予測した目標位置と目標の観測される位置の差が大きくなるが、この差は軌道面内(目標位置、着弾位置を含む地面に垂直な面)に発生する。追尾処理にとっては、この差を、観測精度のよい距離方向で観測する方が、追尾誤差を小さくすることができる。追尾誤差を小さくできれば、結果として着弾位置誤差の推定値も小さくなるから、上記のような割当て方法としている。
The principle of the above selection method of the allocation sensor is as follows.
The sensor is assigned to satisfy the tracking accuracy requirement at an early stage within 100 seconds after detection. The ballistic target is likely to end the injection and move to inertia during this time. This change in motion causes the tracking error to increase because the acceleration due to the thrust suddenly becomes zero.
At this time, the difference between the target position predicted by the tracking process and the observed position of the target becomes large, but this difference occurs in the orbital plane (a plane perpendicular to the ground including the target position and the landing position). For tracking processing, the tracking error can be reduced by observing this difference in the distance direction with good observation accuracy. If the tracking error can be reduced, as a result, the estimated value of the landing position error is also reduced. Therefore, the allocation method as described above is used.

以上のように、本発明の実施の形態1によれば、割当て部9の割当てフローにおいて、STEP2で、追尾精度の予測値を使って軌道推定部と同じ計算で着弾誤差範囲を算出し、直接、要求着弾精度と比較することもできるが、着弾までの軌道予測処理を上記のループが回るたびに計算するのは負荷が高く、要求精度算出部8で着弾位置精度に関する要求を追尾精度の要求に変換して追尾精度予測結果だけで判断するようにしたので、処理の高速化が図れている。
また、割当て部9において、軌道面に近いセンサから順に割当てることで、効果の高いセンサから順に要求を満たすまでのセンサのみを割当てていることになり、無駄のないセンサ割当てが実現できる。
As described above, according to the first embodiment of the present invention, in the allocation flow of the allocation unit 9, in STEP 2, the landing error range is calculated by the same calculation as the trajectory estimation unit using the predicted value of the tracking accuracy. Although it can be compared with the required landing accuracy, it is heavy to calculate the trajectory prediction process until landing every time the above loop is turned, and the required accuracy calculation unit 8 requests the tracking accuracy to request the tracking accuracy. Therefore, the processing speed can be increased.
Further, by assigning in order from the sensor closest to the track surface in the assigning unit 9, only the sensors from the highly effective sensor until the request is satisfied are assigned in order, and sensor assignment without waste can be realized.

この発明の実施の形態1による目標追尾装置を示すブロック図である。It is a block diagram which shows the target tracking apparatus by Embodiment 1 of this invention. この発明の実施の形態1による目標追尾装置の割当てスケジュールの例を示した図である。It is the figure which showed the example of the allocation schedule of the target tracking apparatus by Embodiment 1 of this invention. この発明の実施の形態1による目標追尾装置の割当て部の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of the allocation part of the target tracking apparatus by Embodiment 1 of this invention. この発明の実施の形態1による目標追尾装置の軌道面に近いセンサを確認するための図である。It is a figure for confirming the sensor close | similar to the track surface of the target tracking apparatus by Embodiment 1 of this invention. この発明の実施の形態1による目標追尾装置の着弾時刻の追尾誤差推定値と着弾誤差範囲の関係を示した図である。It is the figure which showed the relationship between the tracking error estimated value of the landing time of the target tracking apparatus by Embodiment 1 of this invention, and a landing error range.

符号の説明Explanation of symbols

1a〜1d 観測対象の目標、2 目標群、3a〜3d 観測ビーム、
4a〜4d センサ、5 追尾処理部、6 センサ管理部、7 軌道推定部、
8 要求精度算出部、9 割当て部、10 割当てスケジュール、
11 センサ制御部。
1a to 1d observation target, 2 target group, 3a to 3d observation beam,
4a to 4d sensor, 5 tracking processing unit, 6 sensor management unit, 7 orbit estimation unit,
8 required accuracy calculation unit, 9 allocation unit, 10 allocation schedule,
11 Sensor control unit.

Claims (3)

それぞれ弾道目標を観測する複数のセンサを管理・制御して複数の弾道目標を観測・追尾する目標追尾装置において、
上記複数のセンサから入力される各センサの稼動状況に基づいて、上記センサの状態を管理するセンサ管理手段、上記複数のセンサから入力される弾道目標の観測結果に基づいて追尾処理を行う目標追尾手段、この目標追尾手段によって追尾処理された追尾情報に基づいて上記弾道目標の着弾までの軌道情報を推定する軌道推定手段、この軌道推定手段により推定された軌道情報に基づいて、満たすべき追尾精度要求を算出する要求精度算出手段、この要求精度算出手段により算出された追尾精度要求を満足するように、どのセンサがどの目標をいつからいつまで観測するかの割当てスケジュールを決定する割当て手段、及びこの割当て手段により決定された割当てスケジュールどおりに上記複数のセンサを制御するセンサ制御手段を備えたことを特徴とする目標追尾装置。
In a target tracking device that monitors and tracks multiple ballistic targets by managing and controlling multiple sensors each observing the ballistic target,
Sensor management means for managing the state of the sensor based on the operational status of each sensor input from the plurality of sensors, target tracking for performing tracking processing based on the observation results of the ballistic target input from the plurality of sensors Means, trajectory estimation means for estimating trajectory information up to the landing of the ballistic target based on the tracking information tracked by the target tracking means, tracking accuracy to be satisfied based on the trajectory information estimated by the trajectory estimation means Request accuracy calculation means for calculating a request, assignment means for determining an assignment schedule for which sensor will observe which target from when to satisfy so as to satisfy the tracking accuracy request calculated by the request accuracy calculation means, and the assignment Sensor control means for controlling the plurality of sensors according to an allocation schedule determined by the means Target tracking apparatus according to claim and.
上記割当て手段は、上記弾道目標の軌道面に近いセンサを優先的に選択するというルールに基づいて、上記割当てスケジュールを決定することを特徴とする請求項1記載の目標追尾装置。   2. The target tracking device according to claim 1, wherein the allocation means determines the allocation schedule based on a rule that a sensor close to the trajectory plane of the ballistic target is preferentially selected. 上記要求精度算出手段は、着弾位置精度に対する要求である着弾位置精度要求を予め保持し、この保持した着弾位置精度要求を、上記軌道推定手段により推定された軌道情報に基づき、上記追尾精度要求に変換することを特徴とする請求項1記載の目標追尾装置。   The required accuracy calculation means holds in advance a landing position accuracy request that is a request for the landing position accuracy, and the held landing position accuracy request is converted into the tracking accuracy request based on the trajectory information estimated by the trajectory estimation means. The target tracking device according to claim 1, wherein the target tracking device is converted.
JP2006003741A 2006-01-11 2006-01-11 Target tracking device Active JP4693633B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006003741A JP4693633B2 (en) 2006-01-11 2006-01-11 Target tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006003741A JP4693633B2 (en) 2006-01-11 2006-01-11 Target tracking device

Publications (2)

Publication Number Publication Date
JP2007187468A true JP2007187468A (en) 2007-07-26
JP4693633B2 JP4693633B2 (en) 2011-06-01

Family

ID=38342746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006003741A Active JP4693633B2 (en) 2006-01-11 2006-01-11 Target tracking device

Country Status (1)

Country Link
JP (1) JP4693633B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010513932A (en) * 2006-12-20 2010-04-30 レイセオン カンパニー Multi-sensor processing
JP2011185723A (en) * 2010-03-08 2011-09-22 Nec Corp Device and method for tracking target and program
JP2013120127A (en) * 2011-12-07 2013-06-17 Mitsubishi Electric Corp Target tracking device
JP2013242183A (en) * 2012-05-18 2013-12-05 Mitsubishi Electric Corp Falling motion determination apparatus
JP2013253909A (en) * 2012-06-08 2013-12-19 Mitsubishi Electric Corp Tracking device
WO2014087683A1 (en) * 2012-12-05 2014-06-12 三菱電機株式会社 Positioning and tracking device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09257923A (en) * 1996-03-26 1997-10-03 Mitsubishi Electric Corp Sensor group management device
JP2000046938A (en) * 1998-07-29 2000-02-18 Mitsubishi Electric Corp Selection apparatus for tracking device
JP2000097596A (en) * 1998-09-25 2000-04-04 Mitsubishi Electric Corp Impact point observation system for bullet
JP2000241540A (en) * 1999-02-17 2000-09-08 Mitsubishi Electric Corp Sensor group-controlling device
JP2001296354A (en) * 2000-04-12 2001-10-26 Mitsubishi Electric Corp Apparatus for managing resource
JP2002277543A (en) * 2001-03-21 2002-09-25 Mitsubishi Electric Corp Sensor group control device
JP2003329771A (en) * 2002-05-16 2003-11-19 Mitsubishi Electric Corp Tracking apparatus and tracking processing method
JP2004340615A (en) * 2003-05-13 2004-12-02 Toshiba Corp Standardization radar system
JP2005147764A (en) * 2003-11-12 2005-06-09 Toshiba Corp Location radar device
JP2006258555A (en) * 2005-03-16 2006-09-28 Mitsubishi Electric Corp Tracking device and sensor assignment method to target

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09257923A (en) * 1996-03-26 1997-10-03 Mitsubishi Electric Corp Sensor group management device
JP2000046938A (en) * 1998-07-29 2000-02-18 Mitsubishi Electric Corp Selection apparatus for tracking device
JP2000097596A (en) * 1998-09-25 2000-04-04 Mitsubishi Electric Corp Impact point observation system for bullet
JP2000241540A (en) * 1999-02-17 2000-09-08 Mitsubishi Electric Corp Sensor group-controlling device
JP2001296354A (en) * 2000-04-12 2001-10-26 Mitsubishi Electric Corp Apparatus for managing resource
JP2002277543A (en) * 2001-03-21 2002-09-25 Mitsubishi Electric Corp Sensor group control device
JP2003329771A (en) * 2002-05-16 2003-11-19 Mitsubishi Electric Corp Tracking apparatus and tracking processing method
JP2004340615A (en) * 2003-05-13 2004-12-02 Toshiba Corp Standardization radar system
JP2005147764A (en) * 2003-11-12 2005-06-09 Toshiba Corp Location radar device
JP2006258555A (en) * 2005-03-16 2006-09-28 Mitsubishi Electric Corp Tracking device and sensor assignment method to target

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010513932A (en) * 2006-12-20 2010-04-30 レイセオン カンパニー Multi-sensor processing
JP2011185723A (en) * 2010-03-08 2011-09-22 Nec Corp Device and method for tracking target and program
JP2013120127A (en) * 2011-12-07 2013-06-17 Mitsubishi Electric Corp Target tracking device
JP2013242183A (en) * 2012-05-18 2013-12-05 Mitsubishi Electric Corp Falling motion determination apparatus
JP2013253909A (en) * 2012-06-08 2013-12-19 Mitsubishi Electric Corp Tracking device
WO2014087683A1 (en) * 2012-12-05 2014-06-12 三菱電機株式会社 Positioning and tracking device
CN104471433A (en) * 2012-12-05 2015-03-25 三菱电机株式会社 Positioning and tracking device
JP5868524B2 (en) * 2012-12-05 2016-02-24 三菱電機株式会社 Positioning tracking device
US9383432B2 (en) 2012-12-05 2016-07-05 Mitsubishi Electric Corporation Positioning and tracking device for mapping the movement of a target

Also Published As

Publication number Publication date
JP4693633B2 (en) 2011-06-01

Similar Documents

Publication Publication Date Title
JP4693633B2 (en) Target tracking device
JP6207723B2 (en) Collision prevention device
CN107885209B (en) Obstacle avoidance method based on dynamic window and virtual target point
US10205502B2 (en) Aircraft-antenna controlling device, aircraft, aircraft-antenna selecting program, and aircraft-antenna controlling method
CN109765919A (en) Based on etc. collision probabilities collimation method spacecraft close-distance safety method of controlling operation thereof
JP3339295B2 (en) Sensor group management device
JP4925845B2 (en) Multi-sensor control system
KR101738519B1 (en) Method and Apparatus for tracking target using weight-based fusion in Man-in-the-loop having time delay
JP2007292553A (en) Multiple target tracking system
CN110412561B (en) Low-altitude high-speed target rapid navigation method based on TAS fine tracking beam
JP4290666B2 (en) Tracking device and sensor allocation method to target
KR20120071500A (en) Fast and precise orbit propagation including maneuver method thereof
Gil et al. Cooperative task scheduling for networked uninhabited air vehicles
JP4684591B2 (en) Tracking device and tracking processing method
JP4014785B2 (en) Resource management device
JP5183543B2 (en) Radar equipment
JP5764867B2 (en) Target tracking device, target tracking method, and program
JP5422998B2 (en) Radar tracking device, radar tracking method and program
JP2945963B2 (en) Target observation device
JP2006258482A (en) Beam control device of electronic scanning radar
US6419185B1 (en) Method and arrangement for navigating a robot towards a moving target
JP5528362B2 (en) Target tracking device and target tracking method
KR101745506B1 (en) A sensor guiding method for target tracking, and a sensor guiding system and an air vehicle using the same
Svahn et al. Energy transfer in vibratory systems with friction exhibiting low-velocity collisions
KR101433520B1 (en) Battlefield data quantization for war game optimal path generation system in cloud computing environment and method there of

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4693633

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250