JP4290666B2 - Tracking device and sensor allocation method to target - Google Patents

Tracking device and sensor allocation method to target Download PDF

Info

Publication number
JP4290666B2
JP4290666B2 JP2005075339A JP2005075339A JP4290666B2 JP 4290666 B2 JP4290666 B2 JP 4290666B2 JP 2005075339 A JP2005075339 A JP 2005075339A JP 2005075339 A JP2005075339 A JP 2005075339A JP 4290666 B2 JP4290666 B2 JP 4290666B2
Authority
JP
Japan
Prior art keywords
sensor
wake
rcs
target
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005075339A
Other languages
Japanese (ja)
Other versions
JP2006258555A (en
Inventor
貴史 松崎
秀彦 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2005075339A priority Critical patent/JP4290666B2/en
Publication of JP2006258555A publication Critical patent/JP2006258555A/en
Application granted granted Critical
Publication of JP4290666B2 publication Critical patent/JP4290666B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Description

この発明は弾道軌道目標に対して複数のセンサを用いて追尾を行う追尾装置及び目標へのセンサ割り当て方法に関するものである。   The present invention relates to a tracking device that tracks a ballistic trajectory target using a plurality of sensors and a method for assigning a sensor to a target.

現在、複数のセンサを用いて目標を追尾することについては、すでに多くの論文、特許等の公知文献で取り挙げられており、その追尾装置及び目標へのセンサ割り当て方法については様々な提案がなされている。このような装置の一例として、センサとしてレーダを使用した場合、複数のレーダからの観測値を使用して追尾フィルタにより追尾を行い、その追尾誤差を低減する従来技術が知られている。   Currently, tracking a target using a plurality of sensors has already been taken up in many papers, patents, and other known documents, and various proposals have been made regarding the tracking device and a method for assigning a sensor to a target. ing. As an example of such a device, when a radar is used as a sensor, a conventional technique is known that performs tracking by a tracking filter using observation values from a plurality of radars and reduces the tracking error.

例えば特許文献1に示すセンサ群管理装置は、センサ群からの観測情報を目標毎に選別する入力装置と、この入力装置の出力に応じて目標を追尾する追尾フィルタ群と、入力装置と追尾フィルタ群の出力により予測誤差のバイアス成分を評価するバイアス誤差評価器と、追尾フィルタ群の出力より予測誤差のランダム成分を評価するランダム誤差評価器と、バイアス誤差評価器とランダム誤差評価器の出力に基づいて各目標毎の観測必要性を評価する観測必要性評価器と、各センサから目標への割り当てを仮想的に決定する仮想割り当て器と、追尾フィルタ群及び仮想割り当て器の出力を受けてセンサと目標との各組み合わせに対して評価値を決定する観測効果判定器と、追尾フィルタ群からの追尾情報、及び観測必要性評価器と観測効果判定器からの評価値に基づいて、各センサと各目標との割り当てを決定する割り当て器とを備え、追尾がはずれそうになっている目標を検出し、その目標に対して優先的にセンサを割り当てている。   For example, a sensor group management device disclosed in Patent Document 1 includes an input device that selects observation information from a sensor group for each target, a tracking filter group that tracks a target according to the output of the input device, an input device, and a tracking filter The bias error evaluator that evaluates the bias component of the prediction error from the output of the group, the random error evaluator that evaluates the random component of the prediction error from the output of the tracking filter group, the output of the bias error evaluator and the random error evaluator Based on the observation necessity evaluator that evaluates the observation necessity for each target, a virtual allocator that virtually determines the allocation from each sensor to the target, and a sensor that receives the output of the tracking filter group and the virtual allocator Observation effect decision unit that determines the evaluation value for each combination of target and target, tracking information from the tracking filter group, observation necessity evaluator and observation effect decision An allocator that determines the assignment of each sensor and each target based on the evaluation value from the device, detects the target that is about to fall off, and assigns the sensor with priority to that target ing.

特開2000−75023号公報(段落番号0032,0033)JP 2000-75023 A (paragraph numbers 0032, 0033)

従来の追尾装置としての上記特許文献1では、複数の目標(例えば、航空機目標で、推定する制御学における状態ベクトルは位置、速度の推定)を複数のセンサで追尾する際、各センサの各目標への割り当てを旋回中の目標に対してより優先的に行うことにより、目標の追尾性能を高めている。しかしながら、TBM(Theater Ballistic Missiles)のような弾道軌道目標は、一般的に、航空機目標よりも加速度が大きいため、上記従来特許文献1のような位置、速度の推定だけでは、追尾性能の劣化が想定されるという課題があった。   In Patent Document 1 as a conventional tracking device, when tracking a plurality of targets (for example, an aircraft target, and a state vector in control science to be estimated is position and speed estimation) with a plurality of sensors, each target of each sensor is detected. The target tracking performance is improved by assigning to the target more preferentially to the target during the turn. However, since ballistic trajectory targets such as TBM (Theater Ballistic Missiles) generally have a larger acceleration than aircraft targets, tracking performance degradation can be achieved only by estimating the position and speed as in the above-mentioned prior art document 1. There was a problem that was assumed.

また、弾道軌道目標は加速度を持ちながら分離して複数の目標となるため、分離目標に対する追尾性能の劣化が想定されるという課題があった。   In addition, since the ballistic trajectory target is separated into a plurality of targets while having acceleration, there is a problem that deterioration of the tracking performance with respect to the separated target is assumed.

この発明は上記のような課題を解決するためになされたもので、複数センサからの観測諸元及び航跡諸元、そしてその諸元から算出したRCS(レーダ技術におけるRCS(Radar Cross Section))が算出可能な場合に、RCSの情報を利用して目標を抽出し、TBM(Theater Ballistic Missiles)のような弾道軌道目標に対し、集中的に観測リソースの割り当てを行うことにより、弾道軌道目標に対する追尾性能を向上させることができる追尾装置及び目標へのセンサ割り当て方法を得ることを目的とする。   The present invention has been made in order to solve the above-described problems. An observation specification and a wake specification from a plurality of sensors, and an RCS (RCS (Radar Cross Section) in radar technology) calculated from the specification are provided. When calculation is possible, the target is extracted using RCS information, and tracking resources are tracked by allocating observation resources intensively for ballistic trajectory targets such as TBM (Theater Ballistic Missiles). It is an object of the present invention to obtain a tracking device and a method for assigning a sensor to a target that can improve performance.

また、目標の航跡諸元のレンジ及び速度ベクトルの大小、並びに速度ベクトルの離角で分離目標を類別することにより、分離する弾道軌道目標に対する追尾性能及び分離する目標の類別性能を向上させることができる追尾装置及び目標へのセンサ割り当て方法を得ることを目的とする。   In addition, by classifying the separation target according to the range of the target wake specifications and the magnitude of the velocity vector, and the separation angle of the velocity vector, the tracking performance with respect to the ballistic trajectory target to be separated and the classification performance of the target to be separated can be improved. It is an object to obtain a tracking device and a method for assigning a sensor to a target.

この発明に係る追尾装置は、センサ群の各センサにより算出された観測諸元及び航跡諸元を入力し、目標番号及びセンサ番号により航跡諸元を整理し、整理された各センサ毎の航跡諸元と、各センサ毎の航跡諸元と対応のとれた観測諸元とを出力する入力処理部と、各センサ毎の航跡諸元又は観測諸元を用いて各センサ毎の統合航跡諸元を算出する追尾処理部と、各センサ毎の統合航跡諸元と各センサ毎の航跡諸元とセンサ諸元データベースが保有している各センサのレーダ方程式のパラメータとを用いて、各センサ毎の航跡諸元のRCSと各センサ毎の統合航跡諸元のRCSを算出するRCS算出処理部と、上記センサ群により出力された各センサの配置情報を用いて、各センサ毎の統合航跡諸元又は各センサ毎の航跡諸元からレンジ方向及びクロスレンジ方向のセンサ配置情報を算出するレンジ・クロスレンジ・センサ割当処理部と、上記RCS算出処理部により算出されたRCSがついた航跡諸元とRCSがついた統合航跡諸元の中から、事前に設定したRCSのしきい値よりも大きいRCSを持つ航跡諸元と統合航跡諸元を抽出し、抽出したRCSの大きい航跡諸元と統合航跡諸元に関連するレンジ方向及びクロスレンジ方向のセンサ配置情報を用いて、目標の進行方向がレンジ方向に相当するセンサの観測ビームを集中的に割り当てるセンサ制御信号を上記センサ群に出力すると共に、RCSの大きい航跡諸元が持つ目標の速度ベクトルにより弾頭とブースターを類別し、ブースターに比べて弾頭に観測ビームを集中的に割り当てるセンサ制御信号を上記センサ群に出力する目標類別・センサ制御処理部とを備えたものである。   The tracking device according to the present invention inputs observation parameters and track parameters calculated by each sensor of the sensor group, sorts the track parameters by the target number and the sensor number, and tracks the track parameters for each sorted sensor. The input processing unit that outputs the data, the wake parameters for each sensor and the corresponding observation parameters, and the integrated wake parameters for each sensor using the wake parameters or observation parameters for each sensor. The track for each sensor is calculated using the tracking processing unit to be calculated, the integrated track specifications for each sensor, the track specifications for each sensor, and the parameters of the radar equation of each sensor held in the sensor specification database. Using the RCS calculation processing unit for calculating the RCS of the specifications and the RCS of the integrated wake specification for each sensor, and the arrangement information of each sensor output by the sensor group, the integrated wake specification for each sensor or each Range direction from track specifications for each sensor A range / cross range / sensor allocation processing unit for calculating sensor arrangement information in the cross range direction, a track specification with RCS calculated by the RCS calculation processing unit, and an integrated track specification with RCS. Extracting wake parameters and integrated wake parameters that have an RCS greater than the preset RCS threshold, and the range direction and cross-range direction related to the extracted wake parameters and integrated wake parameters The sensor control signal for intensively assigning the observation beam of the sensor whose target traveling direction corresponds to the range direction is output to the sensor group using the sensor arrangement information of the target, and the target speed possessed by the wake specification having a large RCS is also output. Classify warheads and boosters by vector, and output sensor control signals to the above sensor group to assign observation beams to the warheads more intensively than boosters. It is obtained by a target classification sensor control processing unit that.

この発明により、弾道軌道目標に対する追尾性能を向上させることができると共に、分離する弾道軌道目標に対する追尾性能及び分離目標の類別性能を向上させることができるという効果が得られる。   According to the present invention, it is possible to improve the tracking performance with respect to the ballistic trajectory target, and to improve the tracking performance with respect to the ballistic trajectory target to be separated and the classification performance of the separation target.

実施の形態1.
図1はこの発明の実施の形態1による追尾装置の構成を示すブロック図である。この追尾装置は、センサ群20、入力処理部30、追尾処理部40、センサ諸元データベース50、RCS(Radar Cross Section ,レーダ反射断面積)算出処理部60、レンジ・クロスレンジ・センサ割当処理部70、目標類別・センサ制御処理部80、目標類別・センサ制御パラメータ設定処理部90及び表示部100を備えている。目標群10はセンサ群20により観測される弾道軌道目標であり、ここではn目標あるとしnは1以上の整数である。
Embodiment 1 FIG.
1 is a block diagram showing a configuration of a tracking device according to Embodiment 1 of the present invention. This tracking device includes a sensor group 20, an input processing unit 30, a tracking processing unit 40, a sensor specification database 50, an RCS (Radar Cross Section) calculation processing unit 60, a range / cross range / sensor allocation processing unit. 70, a target category / sensor control processing unit 80, a target category / sensor control parameter setting processing unit 90, and a display unit 100. The target group 10 is a ballistic trajectory target observed by the sensor group 20. Here, n targets are assumed, and n is an integer of 1 or more.

センサ群20は、複数(m個、mは1以上の整数)のセンサを備えており、目標群10を観測して、目標群10の観測諸元及び航跡諸元を算出する。ここで、観測諸元とは、各センサ毎に観測した目標の観測位置、観測精度、S/N、探知確率である。また、航跡諸元とは、観測諸元を元にして、追尾の計算を実施した結果である目標の推定ベクトル及び推定ベクトルの誤差共分散行列である。なお、目標の推定ベクトルとは、目標の推定位置、速度、加速度、目標の属性情報からなるベクトルである。   The sensor group 20 includes a plurality of sensors (m, m is an integer equal to or greater than 1). The sensor group 20 observes the target group 10 and calculates observation parameters and wake parameters of the target group 10. Here, the observation specifications are the target observation position, observation accuracy, S / N, and detection probability observed for each sensor. The wake specification is a target estimation vector and an error covariance matrix of the estimation vector, which are the results of tracking calculation based on the observation specification. The target estimation vector is a vector including a target estimation position, velocity, acceleration, and target attribute information.

センサ群20には、目標類別・センサ制御処理部80から、目標の識別子とRCSがついた航跡諸元と統合航跡諸元、目標類別情報とセンサ制御情報とが入力される。そして、センサ群20は、入力される航跡諸元及び統合航跡諸元を用いて追尾の計算を行うことを各センサに指示し、入力される目標類別情報を用いて、航跡精度、目標類別精度が良くなるセンサを選択し、入力されるセンサ制御情報を用いて各センサを制御する。各センサは観測ビームを目標群10に照射して目標の観測諸元を計算するための情報を得て観測諸元及び航跡諸元を算出する。センサ群20は、各センサで算出した観測諸元及び航跡諸元を入力処理部30に出力し、各センサの配置情報をレンジ・クロスレンジ・センサ割当処理部70に出力する。   The sensor group 20 receives from the target category / sensor control processing unit 80 wake specifications with a target identifier and RCS, integrated wake specifications, target category information, and sensor control information. Then, the sensor group 20 instructs each sensor to perform tracking calculation using the input track specification and the integrated track specification, and uses the input target category information to detect the track accuracy and the target category accuracy. The sensor which improves is selected, and each sensor is controlled using the input sensor control information. Each sensor irradiates the target beam 10 with the observation beam to obtain information for calculating the target observation parameters, and calculates the observation parameters and the wake parameters. The sensor group 20 outputs observation parameters and track parameters calculated by each sensor to the input processing unit 30, and outputs arrangement information of each sensor to the range / cross range / sensor allocation processing unit 70.

入力処理部30は、センサ群20の各センサにより算出された観測諸元及び航跡諸元を入力し、目標番号及びセンサ番号により航跡諸元を整理し、目標番号及びセンサ番号がついた各センサ毎の航跡諸元と、各センサ毎の航跡諸元と対応のとれた観測諸元とを追尾処理部40に出力する。   The input processing unit 30 inputs observation specifications and wake specifications calculated by each sensor of the sensor group 20, sorts the wake specifications by the target number and the sensor number, and each sensor with the target number and the sensor number. The wake specifications for each sensor and the observing parameters corresponding to the wake specifications for each sensor are output to the tracking processing unit 40.

追尾処理部40は、入力処理部30からの目標番号及びセンサ番号がついた各センサ毎の航跡諸元と、各センサ毎の航跡諸元と対応のとれた観測諸元とを入力し、各センサ毎の航跡諸元と対応のとれた観測諸元を用いて、探知データ統合方式により各センサ毎の統合航跡諸元を算出し、算出した各センサ毎の統合航跡諸元と、目標番号及びセンサ番号がついた各センサ毎の航跡諸元とを、RCS算出処理部60とレンジ・クロスレンジ・センサ割当処理部70に出力する。   The tracking processing unit 40 inputs the track specifications for each sensor with the target number and the sensor number from the input processing unit 30, and the observation parameters that correspond to the track specifications for each sensor. Calculate the integrated wake specifications for each sensor using the detection data integration method using the observation specifications that correspond to the wake specifications for each sensor.The calculated integrated wake specifications for each sensor, the target number and The track specifications for each sensor with the sensor number are output to the RCS calculation processing unit 60 and the range / cross range / sensor allocation processing unit 70.

図2は追尾処理部40が統合航跡諸元を算出する際の探知データ統合方式の概念図である。探知データ統合方式では、複数のセンサから得られる観測諸元を用いて、1つの追尾フィルタにおける探知データ統合による追尾処理により、探知データ統合後の各センサ毎の統合航跡諸元を算出する。追尾フィルタにおける探知データ統合方式では、例えば、以下の文献に示すような方式を用いる。
小菅義夫、辻道信吾、立花康夫、“航跡型多重仮説相関方式を用いた多目標追尾”、電子情報通信学会論文集B−II,no.10,p677−685,Oct.1996.
FIG. 2 is a conceptual diagram of the detection data integration method used when the tracking processing unit 40 calculates integrated track specifications. In the detection data integration method, integrated track specifications for each sensor after detection data integration are calculated by tracking processing by integration of detection data in one tracking filter using observation data obtained from a plurality of sensors. In the detection data integration method in the tracking filter, for example, a method as shown in the following document is used.
Yoshio Obata, Shingo Shindo, Yasuo Tachibana, “Multi-Target Tracking Using Wake-type Multiple Hypothesis Correlation”, IEICE Transactions B-II, no. 10, p677-685, Oct. 1996.

事前に用意したセンサ諸元データベース50は、RCS算出処理部60が、各センサ毎の航跡諸元のRCSと各センサ毎の統合航跡諸元のRCSを算出するための各センサのレーダ方程式のパラメータを保有している。   The sensor specification database 50 prepared in advance includes parameters of radar equations of each sensor for the RCS calculation processing unit 60 to calculate the RCS of the wake specification for each sensor and the RCS of the integrated wake specification for each sensor. Is held.

RCS算出処理部60は、追尾処理部40により出力された各センサ毎の統合航跡諸元と各センサ毎の航跡諸元とセンサ諸元データベース50が保有している各センサのレーダ方程式のパラメータとを用いて、各センサ毎の航跡諸元のRCSと各センサ毎の統合航跡諸元のRCSを算出し、算出した各センサ毎の航跡諸元のRCSと、算出した各センサ毎の統合航跡諸元のRCSと、RCSがついた各センサ毎の航跡諸元と、RCSがついた統合航跡諸元とを目標類別・センサ制御処理部80に出力する。   The RCS calculation processing unit 60 includes the integrated wake parameters for each sensor output by the tracking processing unit 40, the wake parameters for each sensor, the parameters of the radar equation of each sensor held in the sensor specification database 50, and Is used to calculate the RCS of the wake specification for each sensor and the RCS of the integrated wake specification for each sensor, the calculated RCS of the wake specification for each sensor, and the calculated integrated wake parameters for each sensor. The original RCS, the track specifications for each sensor with the RCS, and the integrated track specifications with the RCS are output to the target classification / sensor control processing unit 80.

レンジ・クロスレンジ・センサ割当処理部70は、センサ群20により出力された各センサの配置情報を用いて、追尾処理部40により出力された各センサ毎の統合航跡諸元又は各センサ毎の航跡諸元からレンジ方向及びクロスレンジ方向のセンサ配置情報を算出して目標類別・センサ制御処理部80に出力する。   The range / cross-range / sensor allocation processing unit 70 uses the arrangement information of each sensor output from the sensor group 20 and the integrated track specifications for each sensor output by the tracking processing unit 40 or the tracks for each sensor. The sensor arrangement information in the range direction and the cross range direction is calculated from the specifications and is output to the target classification / sensor control processing unit 80.

目標類別・センサ制御処理部80は、RCS算出処理部60により出力された各センサ毎の航跡諸元のRCSと、各センサ毎の統合航跡諸元のRCSと、RCSがついた各センサ毎の航跡諸元と、RCSがついた統合航跡諸元とを入力し、レンジ・クロスレンジ・センサ割当処理部70により算出されたレンジ方向及びクロスレンジ方向のセンサ配置情報を入力し、目標類別・センサ制御パラメータ設定処理部90により出力されたセンサ制御方法選択パラメータを入力する。   The target category / sensor control processing unit 80 outputs the RCS of the track specifications for each sensor output by the RCS calculation processing unit 60, the RCS of the integrated track specification for each sensor, and the RCS of each sensor with the RCS. The wake specification and the integrated wake specification with RCS are input, the sensor arrangement information in the range direction and the cross range direction calculated by the range / cross range / sensor allocation processing unit 70 is input, and the target classification / sensor The sensor control method selection parameter output by the control parameter setting processing unit 90 is input.

また、目標類別・センサ制御処理部80は、RCS算出処理部60により出力された各センサ毎の航跡諸元のRCSと、各センサ毎の統合航跡諸元のRCSと、RCSがついた各センサ毎の航跡諸元と、RCSがついた統合航跡諸元とを用いて、事前に設定したRCSのしきい値より大きいRCSを持つ航跡諸元と統合航跡諸元を抽出する。   In addition, the target classification / sensor control processing unit 80 includes the RCS for each track output by the RCS calculation processing unit 60, the RCS for the integrated track specification for each sensor, and each sensor with an RCS. Using each wake specification and the integrated wake specification with RCS, a wake specification and an integrated wake specification having an RCS larger than a preset RCS threshold are extracted.

図3は目標の速度ベクトルと各センサ毎の航跡諸元のRCSの大小関係を説明する図である。図3に示すように、RCSの大小は航跡諸元の持つ速度ベクトルに依存する。目標の速度ベクトルと直交する方向のセンサAのRCSは、目標の進行方向とほぼ等価な航跡諸元の速度ベクトル方向のセンサBのRCSと比べて大きい傾向がある。そこで、目標類別・センサ制御処理部80は、その傾向を利用して、RCS算出処理部60から入力されるRCSがついた航跡諸元とRCSがついた統合航跡諸元の中から、事前に設定したRCSのしきい値よりも大きいRCSを持つ航跡諸元と統合航跡諸元を抽出する。   FIG. 3 is a diagram for explaining the magnitude relationship between the target velocity vector and the RCS of the track specifications for each sensor. As shown in FIG. 3, the magnitude of RCS depends on the velocity vector of the wake specifications. The RCS of the sensor A in the direction orthogonal to the target velocity vector tends to be larger than the RCS of the sensor B in the velocity vector direction of the wake specification substantially equivalent to the target traveling direction. Therefore, the target category / sensor control processing unit 80 uses the tendency to preliminarily read from the wake specification with RCS and the integrated wake specification with RCS input from the RCS calculation processing unit 60 in advance. A track specification having an RCS larger than the set RCS threshold and an integrated track specification are extracted.

さらに、目標類別・センサ制御処理部80は、抽出したRCSの大きい航跡諸元と統合航跡諸元に関連するレンジ方向及びクロスレンジ方向のセンサ配置情報を用いて、目標位置、速度等からなる航跡諸元の推定精度を向上させるために、目標の進行方向がセンサに対してレンジ方向となるセンサの観測ビームを集中的に割り当てるセンサ制御信号をセンサ群20に出力する。   Further, the target classification / sensor control processing unit 80 uses the sensor arrangement information in the range direction and the cross range direction related to the extracted track data having a large RCS and the integrated track data, and the track including the target position, speed, and the like. In order to improve the estimation accuracy of the specifications, a sensor control signal that intensively assigns the observation beams of the sensors whose target traveling direction is the range direction with respect to the sensors is output to the sensor group 20.

このように、レンジ方向となるセンサに対して観測ビームを集中的に割り当てるのは、クロスレンジ方向の誤差がレンジ方向の誤差よりも大きいために、目標がセンサから見てクロスレンジ方向に飛翔している場合、目標の運動の誤差がクロスレンジ方向の誤差に埋もれてしまうが、目標がセンサから見てレンジ方向に飛翔している場合には、目標の運動の誤差はレンジ方向の誤差よりも大きいと考えられるため、センサとしては、なるべく目標をレンジ方向から観測した方が、クロスレンジ方向から観測するより目標の運動の観測が正確になるからである。すなわち、複数の目標が存在する場合、クロスレンジ方向のセンサから見た複数の目標は、実際の目標の数よりも少なく観測されることが想定されるが、レンジ方向から見た複数の目標は、クロスレンジ方向から見た場合と比べ、実際の目標の数とほぼ同数で観測されることが期待される。   In this way, the observation beam is intensively assigned to the sensor in the range direction because the error in the cross range direction is larger than the error in the range direction, so the target flies in the cross range direction as viewed from the sensor. If the target is flying in the range direction as viewed from the sensor, the target motion error is more than the range direction error. This is because it is considered to be large, and as a sensor, if the target is observed from the range direction as much as possible, the movement of the target is more accurately observed than from the cross range direction. That is, when there are multiple targets, it is assumed that the multiple targets viewed from the sensors in the cross range direction are observed to be less than the actual number of targets, but the multiple targets viewed from the range direction are Compared to the cross range direction, it is expected to be observed in almost the same number as the actual number of targets.

さらに、目標類別・センサ制御処理部80は、レンジ方向で分離できた複数の航跡諸元に対し、航跡諸元の持つ速度ベクトルの大小及び速度ベクトルの離角により、複数の航跡諸元が、弾道軌道目標における弾頭(本体)又はブースターであるか否かの類別判定を行い、ブースターに比べて弾頭(本体)に観測ビームを集中的に割り当てるセンサ制御信号をセンサ群20に出力し、その判別結果である目標類別情報をセンサ群20に出力する。   Furthermore, the target category / sensor control processing unit 80 has a plurality of wake parameters, which are separated from each other in the range direction, depending on the magnitude of the velocity vector of the wake parameters and the angle of the velocity vector. It is judged whether or not it is a warhead (main body) or a booster in a ballistic trajectory target, and a sensor control signal that assigns an observation beam to the warhead (main body) more intensively than the booster is output to the sensor group 20 for discrimination. The target classification information as a result is output to the sensor group 20.

図4は目標類別・センサ制御処理部80における目標の速度ベクトルによる目標の分離判定を説明する図である。図4において、弾頭(本体、図4における目標T1)はブースター(図4における目標T2)に比べて速度ベクトルが大きい傾向にある。また、弾頭(本体)の速度ベクトルとブースターの速度ベクトルの離角は、図4における目標T1の速度ベクトルと目標T2の速度ベクトルがわかれば、速度ベクトル同士の内積を取ることによって、その離角を求めることができる。   FIG. 4 is a diagram for explaining target separation determination based on a target velocity vector in the target classification / sensor control processing unit 80. In FIG. 4, the warhead (main body, target T1 in FIG. 4) tends to have a larger velocity vector than the booster (target T2 in FIG. 4). In addition, if the velocity vector of the target T1 and the velocity vector of the target T2 in FIG. 4 are known, the separation angle between the velocity vector of the warhead (main body) and the booster velocity vector is obtained by taking the inner product of the velocity vectors. Can be requested.

したがって、目標類別・センサ制御処理部80は、航跡諸元から推定される弾頭(本体)とブースターの離角が、事前に決めた弾頭(本体)とブースターの離角のしきい値よりも大きいこと、かつ、目標の速度ベクトルの絶対値(大きさ)が大きいこと、かつ、分離目標の内のある1つの速度ベクトルが他の速度ベクトルよりも上方にある場合、その目標を弾頭(本体)と類別し、そして、分離目標の内のある1つの速度ベクトルが他の速度ベクトルよりも下方にある場合、その目標をブースターと類別する。   Therefore, the target category / sensor control processing unit 80 has a warp (main body) and booster separation angle estimated from wake parameters larger than a predetermined warhead (main body) and booster separation angle threshold. If the absolute value (magnitude) of the target velocity vector is large and one of the separation targets is above the other velocity vector, the target is the warhead (main body). And if one velocity vector in the separation target is below the other velocity vector, that target is classified as a booster.

さらに、目標類別・センサ制御処理部80は、弾頭(本体)であるかの識別子やブースターの識別子とRCSがついた航跡諸元、弾頭(本体)であるかの識別子やブースターの識別子とRCSがついた統合航跡諸元をセンサ群20に出力する。   Furthermore, the target category / sensor control processing unit 80 determines whether the target is a warhead (main body) identifier, a booster identifier and a track specification with an RCS, a warhead (main body) identifier, a booster identifier, and an RCS. The connected integrated wake specifications are output to the sensor group 20.

図5は目標類別・センサ制御処理部80におけるレンジ方向の分離の方法を示す図である。図5において、誤差楕円は制御理論におけるカルマンフィルタの誤差共分散行列を表している。図5では、センサA又はセンサBを用いて目標の分離判定をする際に、誤差の大きいクロスレンジ方向に比べて、誤差の少ないレンジ方向となるセンサAで目標の分離判定をした方が追尾性能が向上することを表している。   FIG. 5 is a diagram illustrating a range direction separation method in the target category / sensor control processing unit 80. In FIG. 5, the error ellipse represents the error covariance matrix of the Kalman filter in the control theory. In FIG. 5, when the target separation determination is performed using the sensor A or the sensor B, tracking is performed when the target separation determination is performed with the sensor A in the range direction with a small error compared to the cross range direction with a large error. It shows that performance improves.

目標類別・センサ制御パラメータ設定処理部90は、目標類別・センサ制御処理部80で、図5に示すように目標の分離判定をする際に、レンジ・クロスレンジの情報を使用するよう指示するセンサ制御方法選択パラメータを出力する。また、目標類別・センサ制御パラメータ設定処理部90は、目標類別・センサ制御処理部80で、図4に示すように目標が弾頭(本体)又はブースターかの目標の類別判定をする際に、航跡諸元が持つ速度ベクトルの情報を使用するよう指示するセンサ制御方法選択パラメータを出力する。   The target category / sensor control parameter setting processing unit 90 instructs the target category / sensor control processing unit 80 to use range / cross-range information when performing target separation determination as shown in FIG. Outputs control method selection parameters. In addition, the target category / sensor control parameter setting processing unit 90 uses the target category / sensor control processing unit 80 to determine whether the target is a warhead (main body) or a booster as shown in FIG. A sensor control method selection parameter for instructing to use the velocity vector information of the specifications is output.

表示部100は、追尾処理部40から入力される、各センサの航跡諸元、各センサの航跡諸元と対応の取れた観測諸元、及び統合航跡諸元の内、オペレータが見やすいような目標情報及び観測情報を選択して出力する。また、表示部100は、オペレータに予測航跡範囲、予測航跡から想定される着弾範囲及び発射範囲を事前に用意した弾道軌道モデルを用いて出力する。   The display unit 100 is a target that can be easily viewed by the operator among the track specifications of each sensor, the observation parameters that correspond to the track parameters of each sensor, and the integrated track parameters that are input from the tracking processing unit 40. Select and output information and observation information. The display unit 100 also outputs to the operator a predicted track range, a landing range assumed from the predicted track, and a launch range using a ballistic trajectory model prepared in advance.

次に動作について説明する。
図6はこの発明の実施の形態1による追尾装置の処理の流れを示すフローチャートである。
ステップST1において、まず、処理が開始されると、センサ群20中の各センサは、目標群10に観測ビームを照射して目標群10の観測諸元を算出し、その観測諸元に基づき、各センサの追尾フィルタにより航跡諸元を計算する。
Next, the operation will be described.
FIG. 6 is a flowchart showing a process flow of the tracking device according to the first embodiment of the present invention.
In step ST1, first, when the process is started, each sensor in the sensor group 20 irradiates the observation beam to the target group 10 to calculate the observation specifications of the target group 10, and based on the observation specifications, The track specifications are calculated by the tracking filter of each sensor.

ステップST2において、入力処理部30はセンサ群20の複数のセンサから得られた航跡諸元及び観測諸元に対し、目標番号及びセンサ番号がついた各センサの航跡諸元と、各センサの航跡諸元と対応のとれた観測諸元となるように整理して追尾処理部40に出力する。   In step ST <b> 2, the input processing unit 30 uses the track specifications and the observation specifications obtained from the plurality of sensors of the sensor group 20, the track specifications of each sensor with the target number and the sensor number, and the tracks of each sensor. It arranges so that it may become an observation specification corresponding to a specification, and outputs it to the tracking process part 40. FIG.

ステップST3において、追尾処理部40は、各センサの航跡諸元と対応のとれた観測諸元を用いて、探知データ統合方式により追尾計算を行って各センサ毎の統合航跡諸元を計算する。   In step ST3, the tracking processing unit 40 performs tracking calculation by the detection data integration method using the observation parameters corresponding to the track parameters of each sensor, and calculates the integrated track parameters for each sensor.

ステップST4において、RCS算出処理部60は、追尾処理部40から出力された各センサ毎の航跡諸元と各センサ毎の統合航跡諸元と事前に用意したセンサ諸元データベース50からの各センサのレーダ方程式のパラメータとを用いて、各センサ毎の航跡諸元のRCSと各センサ毎の統合航跡諸元のRCSを算出し、算出した各センサ毎の航跡諸元のRCSと、算出した各センサ毎の統合航跡諸元のRCSと、RCSがついた各センサ毎の航跡諸元と、RCSがついた統合航跡諸元とを目標類別・センサ制御処理部80に出力する。   In step ST4, the RCS calculation processing unit 60 outputs the track specifications for each sensor output from the tracking processing unit 40, the integrated track specifications for each sensor, and the sensors from the sensor specification database 50 prepared in advance. Using the parameters of the radar equation, the RCS of the wake specification for each sensor and the RCS of the integrated wake specification for each sensor are calculated, the calculated RCS of the wake specification for each sensor, and each calculated sensor The RCS of each integrated wake specification, the wake specification of each sensor with RCS, and the integrated wake specification with RCS are output to the target classification / sensor control processing unit 80.

ステップST5において、レンジ・クロスレンジ・センサ割当処理部70は、センサ群20により出力される各センサの配置情報を用いて、追尾処理部40により出力された各センサ毎の航跡諸元又は各センサ毎の統合航跡諸元からレンジ方向及びクロスレンジ方向のセンサ配置情報を算出する。   In step ST5, the range / cross-range / sensor allocation processing unit 70 uses the arrangement information of each sensor output from the sensor group 20 and uses the track information for each sensor or each sensor output by the tracking processing unit 40. The sensor arrangement information in the range direction and the cross range direction is calculated from each integrated track specification.

ステップST6において、目標類別・センサ制御処理部80は、RCS算出処理部60から出力されるRCSがついた各センサ毎の航跡諸元とRCSがついた各センサ毎の統合航跡諸元の中から、RCS算出処理部60から出力される各センサ毎の航跡諸元のRCSと各センサ毎の統合航跡諸元のRCSについて、事前に設定したRCSのしきい値よりも大きいRCSを持つ各センサ毎の航跡諸元と各センサ毎の統合航跡諸元を抽出する。   In step ST6, the target category / sensor control processing unit 80 outputs the wake parameters for each sensor with RCS and the integrated wake parameters for each sensor with RCS output from the RCS calculation processing unit 60. For each sensor having an RCS greater than a preset RCS threshold, the RCS for each sensor output from the RCS calculation processing unit 60 and the RCS for the integrated track specifications for each sensor. And the integrated wake specifications for each sensor are extracted.

ステップST7において、目標類別・センサ制御パラメータ設定部90は、目標類別・センサ制御処理部80に、目標の分離判定をする際には、レンジ・クロスレンジの情報を使用するよう指示するセンサ制御方法選択パラメータを出力し、目標が弾頭(本体)又はブースターかの目標の類別判定をする際には、航跡諸元が持つ速度ベクトルの情報を使用するよう指示するセンサ制御方法選択パラメータを出力する。   In step ST7, the target classification / sensor control parameter setting unit 90 instructs the target classification / sensor control processing unit 80 to use range / cross-range information when performing target separation determination. When the selection parameter is output and the target is determined as to whether the target is a warhead (main body) or a booster, the sensor control method selection parameter for instructing to use the speed vector information of the wake specification is output.

ステップST8において、目標類別・センサ制御処理部80は、目標の分離判定をする際に、目標類別・センサ制御パラメータ設定部90からのレンジ・クロスレンジの情報を使用するよう指示するセンサ制御方法選択パラメータに基づき、抽出したRCSの大きい各センサ毎の航跡諸元と各センサ毎の統合航跡諸元に関連するレンジ方向及びクロスレンジ方向のセンサ配置情報を用いて、目標の進行方向がレンジ方向に相当するセンサの観測ビームを集中的に割り当てるセンサ制御信号をセンサ群20に出力する。   In step ST8, the target classification / sensor control processing unit 80 instructs to use the range / cross-range information from the target classification / sensor control parameter setting unit 90 when performing target separation determination. Based on the parameters, the track direction for each sensor with a large RCS extracted and the sensor location information in the range direction and cross range direction related to the integrated track parameters for each sensor are used to set the target travel direction to the range direction. A sensor control signal for intensively assigning the observation beams of the corresponding sensors is output to the sensor group 20.

ステップST9において、目標類別・センサ制御処理部80は、目標が弾頭(本体)又はブースターかの目標の類別判定をする際に、目標類別・センサ制御パラメータ設定部90からの航跡諸元が持つ速度ベクトルの情報を使用するよう指示するセンサ制御方法選択パラメータに基づき、弾頭又は本体とブースターの離角がある事前に決めたしきい値よりも大きいこと、かつ、目標の速度ベクトルが大きいこと、かつ、分離目標の内のある1つの速度ベクトルが他の速度ベクトルよりも上方にある場合、その目標を弾頭(本体)と類別し、そして、分離目標の内のある1つの速度ベクトルが他の速度ベクトルよりも下方にある場合、その目標をブースターと類別し、ブースターに比べて弾頭(本体)に観測ビームを集中的に割り当てるセンサ制御信号をセンサ群20に出力する。   In step ST9, the target classification / sensor control processing unit 80 determines the speed of the wake specification from the target classification / sensor control parameter setting unit 90 when determining whether the target is a warhead (main body) or a booster. Based on a sensor control method selection parameter that instructs to use vector information, the warhead or main body and booster separation angle is greater than a predetermined threshold, and the target velocity vector is large, and If one velocity vector in a separation target is above another velocity vector, that target is classified as a warhead (body), and one velocity vector in the separation target is another velocity vector. If it is below the vector, the target is classified as a booster, and a sensor that assigns the observation beam to the warhead (main body) more intensively than the booster. And it outputs a control signal to the sensor group 20.

ステップST10において、表示部100は、追尾処理部40から入力される、各センサの航跡諸元、各センサの航跡諸元と対応の取れた観測諸元、及び統合航跡諸元の内、オペレータが見やすいような目標情報及び観測情報を選択して出力する。また、オペレータに予測航跡範囲、予測航跡から想定される発射範囲及び着弾範囲を事前に用意した弾道軌道モデルを用いて出力する。   In step ST10, the display unit 100 displays the track specifications of each sensor, the observation parameters corresponding to the track parameters of each sensor, and the integrated track parameters input from the tracking processor 40. Select and output target information and observation information that are easy to see. In addition, the predicted wake range, the firing range assumed from the predicted wake, and the landing range are output to the operator using a ballistic trajectory model prepared in advance.

ステップST11において、サンプリング間隔のカウンタの値kが終了の値kendか否かを判定して、終了と判定された場合に処理を終了とし、終了でないと判断された場合に、ステップST12において、カウンタの値kを1つ足して、ステップST1に戻り次のサンプリング間隔の処理を行う。   In step ST11, it is determined whether or not the value k of the sampling interval counter is the end value kend. If it is determined that the process is ended, the process is ended. If it is determined that the process is not ended, the counter is determined in step ST12. The value k is incremented by one, and the process returns to step ST1 to process the next sampling interval.

以上のように、この実施の形態1によれば、複数センサからの観測諸元及び航跡諸元、そしてその諸元から算出したRCSの情報を利用して目標を抽出し、TBMのような弾道軌道目標に対し、集中的に観測リソースの割り当てを行うことにより、弾道軌道目標に対する追尾性能を向上させることができるという効果が得られる。また、目標の航跡諸元のレンジ及び速度ベクトルの大小並びに、速度ベクトルの離角で、分離目標を類別することにより、分離する弾道軌道目標に対する追尾性能及び分離目標の類別性能を向上させることができるという効果が得られる。つまり、分離する弾道軌道目標に対する追尾性能の向上及び類別性能の向上をさせるような複数のセンサの制御を行うことが可能となる。   As described above, according to the first embodiment, the target is extracted using the RCS information calculated from the observation specifications and the wake specifications from the plurality of sensors, and the trajectory like the TBM. By intensively assigning observation resources to the trajectory target, the tracking performance for the ballistic trajectory target can be improved. In addition, by classifying the separation target according to the range of the target wake specification, the magnitude of the velocity vector, and the separation angle of the velocity vector, the tracking performance for the ballistic trajectory target to be separated and the separation performance of the separation target can be improved. The effect that it can be obtained. That is, it is possible to control a plurality of sensors that improve the tracking performance and the classification performance for the ballistic trajectory targets to be separated.

実施の形態2.
図7はこの発明の実施の形態2による追尾装置の構成を示すブロック図である。この追尾装置は、上記実施の形態1の図1に示す入力処理部30を入力処理部31に置き換えたもので、その他の構成は図1と同じであり、図7及び図1において、同一符号は同一又は相当部分を表す。
Embodiment 2. FIG.
FIG. 7 is a block diagram showing the configuration of the tracking device according to Embodiment 2 of the present invention. This tracking device is obtained by replacing the input processing unit 30 shown in FIG. 1 of the first embodiment with an input processing unit 31. Other configurations are the same as those in FIG. 1, and in FIG. 7 and FIG. Represents the same or corresponding part.

図7において、入力処理部31は、センサ群20の各センサにより算出された観測諸元及び航跡諸元を入力し、目標番号及びセンサ番号により航跡諸元を整理し、事前に送付不要と決めたセンサ以外の、目標番号及びセンサ番号がついた各センサ毎の航跡諸元と、各センサ毎の航跡諸元と対応のとれた観測諸元とを追尾処理部40に出力する。ここで、事前に送付不要と決めたセンサは、例えば、観測精度の悪いセンサや故障しているセンサ等である。   In FIG. 7, the input processing unit 31 inputs observation specifications and track specifications calculated by each sensor of the sensor group 20, sorts the track specifications based on the target number and sensor number, and decides that sending is unnecessary in advance. The track specifications for each sensor with the target number and the sensor number other than the sensors and the observation specifications corresponding to the track specifications for each sensor are output to the tracking processing unit 40. Here, the sensors determined not to be sent in advance are, for example, sensors with poor observation accuracy, broken sensors, or the like.

以上のように、この実施の形態2によれば、上記実施の形態1と同様の効果が得られると共に、入力処理部31が事前に送付不要と決めたセンサ以外の航跡諸元と、航跡諸元と対応のとれた観測諸元のみを追尾処理部40に出力することにより、追尾処理部40の追尾計算の負荷が軽減されるという効果が得られる。   As described above, according to the second embodiment, the same effects as those of the first embodiment can be obtained, and the wake parameters other than the sensor that the input processing unit 31 has decided not to send in advance can be obtained. By outputting only the observation data corresponding to the original to the tracking processing unit 40, an effect of reducing the load of the tracking calculation of the tracking processing unit 40 is obtained.

実施の形態3.
図8はこの発明の実施の形態3による追尾装置の構成を示すブロック図である。この追尾装置は、上記実施の形態1の図1に示す追尾処理部40を追尾処理部41に置き換えたもので、その他の構成は図1と同じであり、図8及び図1において、同一符号は同一又は相当部分を表す。
Embodiment 3 FIG.
FIG. 8 is a block diagram showing the configuration of the tracking device according to Embodiment 3 of the present invention. This tracking device is obtained by replacing the tracking processing unit 40 shown in FIG. 1 of the first embodiment with a tracking processing unit 41, and other configurations are the same as those in FIG. 1. In FIG. 8 and FIG. Represents the same or corresponding part.

図8において、追尾処理部41は、入力処理部30からの目標番号及びセンサ番号がついた各センサ毎の航跡諸元と、各センサ毎の航跡諸元と対応のとれた観測諸元とを入力して、各センサ毎の航跡諸元を用いて航跡統合方式により各センサ毎の統合航跡諸元を算出し、算出した各センサ毎の統合航跡諸元と、目標番号及びセンサ番号がついた各センサ毎の航跡諸元とを、RCS算出処理部60とレンジ・クロスレンジ・センサ割当処理部70に出力する。   In FIG. 8, the tracking processing unit 41 obtains the track specifications for each sensor with the target number and the sensor number from the input processing unit 30 and the observation specifications corresponding to the track specifications for each sensor. Input and calculate the integrated wake specifications for each sensor by the wake integration method using the wake specifications for each sensor, and the calculated integrated wake specifications for each sensor, and the target number and sensor number are attached. The track data for each sensor is output to the RCS calculation processing unit 60 and the range / cross range / sensor allocation processing unit 70.

図9は追尾処理部41が統合航跡諸元を算出する際の航跡統合方式の概念図である。この航跡統合方式では、センサ群20から得られる航跡諸元を入力し、航跡統合による追尾処理により航跡を平均化し各センサ毎の統合航跡諸元を算出する。この航跡統合方式は、図2に示す探知データ統合方式に比べ、各センサの観測モデルを考慮せずに航跡を平均化しているため、航跡誤差は大きくなるが追尾処理の演算負荷を軽減することができる。   FIG. 9 is a conceptual diagram of a track integration method used when the tracking processing unit 41 calculates integrated track specifications. In this wake integration method, wake specifications obtained from the sensor group 20 are input, the wakes are averaged by tracking processing by wake integration, and integrated wake specifications for each sensor are calculated. Compared to the detection data integration method shown in FIG. 2, this wake integration method averages the wakes without considering the observation model of each sensor, so that the wake error is increased but the calculation load of the tracking process is reduced. Can do.

以上のように、この実施の形態3によれば、上記実施の形態1と同様の効果が得られると共に、追尾処理部41が、航跡諸元を用いて航跡統合による追尾処理により統合航跡諸元を算出することにより、上記実施の形態1の追尾処理部40の探知データ統合方式に比べて、追尾処理の演算負荷を軽減することができるという効果が得られる。   As described above, according to the third embodiment, the same effects as in the first embodiment can be obtained, and the tracking processing unit 41 can perform integrated wake specification by tracking processing using wake integration using the wake specification. As a result, the calculation load of the tracking process can be reduced as compared with the detection data integration method of the tracking processing unit 40 of the first embodiment.

実施の形態4.
図10はこの発明の実施の形態4による追尾装置の構成を示すブロック図である。この追尾装置は、上記実施の形態1の図1に示すセンサ諸元データベース50をセンサ諸元データベース51に置き換えたもので、その他の構成は図1と同じであり、図10及び図1において、同一符号は同一又は相当部分を表す。
Embodiment 4 FIG.
FIG. 10 is a block diagram showing a configuration of a tracking device according to Embodiment 4 of the present invention. This tracking device is obtained by replacing the sensor specification database 50 shown in FIG. 1 of the first embodiment with a sensor specification database 51, and the other configurations are the same as those in FIG. The same reference numerals represent the same or corresponding parts.

図10において、センサ諸元データベース51はネットワークセンサシステムに接続されており、新しいセンサがそのネットワークセンサシステムに接続されたことで、センサ諸元データベース51は、センサ群20で新しいセンサが加わったことを知り、新しいセンサの航跡諸元のRCSと各センサ毎の統合航跡諸元のRCSを算出するための新しいセンサのレーダ方程式のパラメータを格納し、これまでのセンサに加えてRCS算出処理部60に出力する。   In FIG. 10, the sensor specification database 51 is connected to the network sensor system, and a new sensor is added to the sensor group 20 by connecting a new sensor to the network sensor system. The RCS of the new sensor and the parameters of the radar equation of the new sensor for calculating the RCS of the integrated wake specification for each sensor are stored, and in addition to the previous sensors, the RCS calculation processing unit 60 is stored. Output to.

センサ諸元データベース51が新しいセンサのレーダ方程式のパラメータを格納する方法としては、ネットワークセンサシステムから新しいセンサのレーダ方程式のパラメータを入手しても良いし、センサ諸元データベース51がセンサの機種に対応するレーダ方程式のパラメータを事前に保持し、ネットワークセンサシステムから新しいセンサの機種名を入手するようにしても良い。   As a method for storing the parameters of the radar equation of the new sensor in the sensor specification database 51, the parameters of the radar equation of the new sensor may be obtained from the network sensor system, or the sensor specification database 51 corresponds to the sensor model. The parameters of the radar equation to be stored may be held in advance, and the model name of the new sensor may be obtained from the network sensor system.

以上のように、この実施の形態4によれば、上記実施の形態1と同様の効果が得られると共に、センサ諸元データベース51により、新しいセンサが加わった場合でも、新しいセンサに関するRCSを計算することが可能となり、システム全体としての追尾性能を向上させることができるという効果が得られる。   As described above, according to the fourth embodiment, the same effects as those of the first embodiment can be obtained, and the RCS relating to the new sensor is calculated by the sensor specification database 51 even when a new sensor is added. Thus, the tracking performance of the entire system can be improved.

実施の形態5.
図11はこの発明の実施の形態5による追尾装置の構成を示すブロック図である。この追尾装置は、上記実施の形態1の図1に示す目標類別・センサ制御処理部80を目標類別・センサ制御処理部81に置き換えたもので、その他の構成は図1と同じであり、図11及び図1において、同一符号は同一又は相当部分を表す。
Embodiment 5 FIG.
FIG. 11 is a block diagram showing a configuration of a tracking device according to Embodiment 5 of the present invention. This tracking device is obtained by replacing the target category / sensor control processing unit 80 shown in FIG. 1 of the first embodiment with a target category / sensor control processing unit 81, and the other configurations are the same as those in FIG. 11 and FIG. 1, the same reference numerals represent the same or corresponding parts.

図11において、目標類別・及びセンサ制御処理部81は、追尾計算の初期計算では、その追尾計算誤差が大きいため、ある事前に決めた基準時間、又は、ある事前に決めた航跡諸元の精度より航跡諸元の精度が小さくなるまで、各センサ毎の統合航跡諸元による目標の類別処理及びセンサ制御を行わなず、各センサ毎の航跡諸元により目標の類別処理を行い、センサ制御信号をセンサ群20に出力する。すなわち、目標類別・及びセンサ制御処理部81は、抽出したRCSの大きい航跡諸元に関連するレンジ方向及びクロスレンジ方向のセンサ配置情報を用いて、目標の進行方向がレンジ方向に相当するセンサの観測ビームを集中的に割り当てるセンサ制御信号をセンサ群20に出力すると共に、RCSの大きい航跡諸元に含まれる目標の速度ベクトルにより弾頭とブースターを類別し、ブースターに比べて弾頭に観測ビームを集中的に割り当てるセンサ制御信号をセンサ群20に出力する   In FIG. 11, the target classification / sensor control processing unit 81 has a tracking calculation error in the initial calculation of tracking calculation, so that the accuracy of a certain reference time determined in advance or a certain track specification determined in advance. Until the accuracy of the wake specification becomes smaller, the target categorization processing and sensor control by the integrated wake specification for each sensor are not performed, but the target categorization processing is performed by the track specification for each sensor, and the sensor control signal Is output to the sensor group 20. That is, the target classification and sensor control processing unit 81 uses the sensor arrangement information in the range direction and the cross range direction related to the extracted track data having a large RCS, and the target traveling direction corresponds to the range direction. A sensor control signal that assigns observation beams in a concentrated manner is output to the sensor group 20, and the warheads and boosters are classified according to the target velocity vector included in the wake parameters with a large RCS, and the observation beams are concentrated on the warheads compared to the boosters. A sensor control signal to be assigned to the sensor group 20

上記実施の形態1のステップST8において、目標類別・センサ制御処理部80は、弾頭(本体)とブースターとを類別し、ブースタに比べて弾頭(本体)に、観測ビームを集中的に割り当てるセンサ制御信号をセンサ群20に出力しているが、この実施の形態5では、目標類別・センサ制御処理部81は、ある事前に決めた基準時間、又は、ある事前に決めた航跡諸元の精度より航跡諸元の精度が小さくなるまで、弾頭(本体)やブースタの識別子をつけず、例えば弾頭(本体)の識別子、又は類別判定保留の識別子をつけて、センサ制御信号をセンサ群20に出力する。   In step ST8 of the first embodiment, the target classification / sensor control processing unit 80 classifies the warhead (main body) and the booster, and performs sensor control that assigns the observation beam to the warhead (main body) more intensively than the booster. Although the signal is output to the sensor group 20, in the fifth embodiment, the target classification / sensor control processing unit 81 is based on a certain reference time determined in advance or accuracy of a certain track specification determined in advance. Until the accuracy of the wake specifications is reduced, the warhead (main body) or the booster identifier is not attached, for example, the warhead (main body) identifier or the classification determination pending identifier is attached, and the sensor control signal is output to the sensor group 20. .

以上のように、この実施の形態5によれば、上記実施の形態1と同様の効果が得られると共に、目標類別・及びセンサ制御処理部81が追尾計算の初期時に、ある事前に決めた基準時間、又は、ある事前に決めた航跡諸元の精度より航跡諸元の精度が小さくなるまで、統合航跡諸元による目標の類別処理及びセンサ制御を行なわず、各センサの航跡諸元により目標の類別処理及びセンサ制御を行うことで、追尾計算初期時の追尾性能及び類別性能が向上させることができるという効果が得られる。   As described above, according to the fifth embodiment, the same effects as those of the first embodiment can be obtained, and the target classification / sensor control processing unit 81 can determine a predetermined criterion at the initial stage of the tracking calculation. Until the accuracy of the wake specification becomes smaller than the time or the accuracy of the wake specification determined in advance, the target categorization process and sensor control by the integrated wake specification are not performed, and the target specification is determined by the wake specification of each sensor. By performing the classification process and the sensor control, the tracking performance and the classification performance at the initial time of the tracking calculation can be improved.

この発明の実施の形態1による追尾装置の構成を示すブロック図である。It is a block diagram which shows the structure of the tracking apparatus by Embodiment 1 of this invention. この発明の実施の形態1による追尾装置の追尾処理部が統合航跡諸元を算出する際の探知データ統合方式の概念図である。It is a conceptual diagram of the detection data integration system at the time of the tracking process part of the tracking apparatus by Embodiment 1 of this invention calculating integrated track specifications. この発明の実施の形態1による追尾装置における目標の速度ベクトルと各センサ毎の航跡諸元のRCSの大小関係を説明する図である。It is a figure explaining the magnitude relationship of the target velocity vector in the tracking apparatus by Embodiment 1 of this invention, and RCS of the wake specification for each sensor. この発明の実施の形態1による追尾装置の目標類別・センサ制御処理部における目標の速度ベクトルによる目標の分離判定を説明する図である。It is a figure explaining the isolation | separation determination of the target by the target velocity vector in the target classification and sensor control processing part of the tracking device by Embodiment 1 of this invention. この発明の実施の形態1による追尾装置の目標類別・センサ制御処理部におけるレンジ方向の分離の方法を示す図である。It is a figure which shows the separation method of the range direction in the target classification and sensor control process part of the tracking apparatus by Embodiment 1 of this invention. この発明の実施の形態1による追尾装置の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the tracking apparatus by Embodiment 1 of this invention. この発明の実施の形態2による追尾装置の構成を示すブロック図である。It is a block diagram which shows the structure of the tracking apparatus by Embodiment 2 of this invention. この発明の実施の形態3による追尾装置の構成を示すブロック図である。It is a block diagram which shows the structure of the tracking apparatus by Embodiment 3 of this invention. この発明の実施の形態3による追尾装置の追尾処理部が統合航跡諸元を算出する際の航跡統合方式の概念図である。It is a conceptual diagram of the track integration method when the tracking processing unit of the tracking device according to Embodiment 3 of the present invention calculates integrated track specifications. この発明の実施の形態4による追尾装置の構成を示すブロック図である。It is a block diagram which shows the structure of the tracking apparatus by Embodiment 4 of this invention. この発明の実施の形態5による追尾装置の構成を示すブロック図である。It is a block diagram which shows the structure of the tracking apparatus by Embodiment 5 of this invention.

符号の説明Explanation of symbols

10 目標群、20 センサ群、30 入力処理部、31 入力処理部、40 追尾処理部、41 追尾処理部、50 センサ諸元データベース、51 センサ諸元データベース、60 RCS算出処理部、70 レンジ・クロスレンジ・センサ割当処理部、80 目標類別・センサ制御処理部、81 目標類別・センサ制御処理部、90 目標類別・センサ制御パラメータ設定処理部、100 表示部。
10 target group, 20 sensor group, 30 input processing unit, 31 input processing unit, 40 tracking processing unit, 41 tracking processing unit, 50 sensor specification database, 51 sensor specification database, 60 RCS calculation processing unit, 70 range cross Range / sensor allocation processing unit, 80 target classification / sensor control processing unit, 81 target classification / sensor control processing unit, 90 target classification / sensor control parameter setting processing unit, 100 display unit.

Claims (7)

センサ群の各センサにより算出された観測諸元及び航跡諸元を入力し、目標番号及びセンサ番号により航跡諸元を整理し、整理された各センサ毎の航跡諸元と、各センサ毎の航跡諸元と対応のとれた観測諸元とを出力する入力処理部と、
各センサ毎の航跡諸元又は観測諸元を用いて各センサ毎の統合航跡諸元を算出する追尾処理部と、
各センサ毎の統合航跡諸元と各センサ毎の航跡諸元とセンサ諸元データベースが保有している各センサのレーダ方程式のパラメータとを用いて、各センサ毎の航跡諸元のRCS(Radar Cross Section)と各センサ毎の統合航跡諸元のRCSを算出するRCS算出処理部と、
上記センサ群により出力された各センサの配置情報を用いて、各センサ毎の統合航跡諸元又は各センサ毎の航跡諸元からレンジ方向及びクロスレンジ方向のセンサ配置情報を算出するレンジ・クロスレンジ・センサ割当処理部と、
上記RCS算出処理部により算出されたRCSがついた航跡諸元とRCSがついた統合航跡諸元の中から、事前に設定したRCSのしきい値よりも大きいRCSを持つ航跡諸元と統合航跡諸元を抽出し、抽出したRCSの大きい航跡諸元と統合航跡諸元に関連するレンジ方向及びクロスレンジ方向のセンサ配置情報を用いて、目標の進行方向がレンジ方向に相当するセンサの観測ビームを集中的に割り当てるセンサ制御信号を上記センサ群に出力すると共に、RCSの大きい航跡諸元が持つ目標の速度ベクトルにより弾頭とブースターを類別し、ブースターに比べて弾頭に観測ビームを集中的に割り当てるセンサ制御信号を上記センサ群に出力する目標類別・センサ制御処理部とを備えた追尾装置。
Input observation parameters and track parameters calculated by each sensor in the sensor group, sort the track parameters by target number and sensor number, track parameters for each sensor, and track for each sensor. An input processing unit for outputting the specifications and the corresponding observation specifications;
A tracking processing unit that calculates the integrated track specifications for each sensor using the track specifications or observation parameters for each sensor;
Using the integrated track specifications for each sensor, the track specifications for each sensor, and the radar equation parameters for each sensor stored in the sensor specification database, the RCS (Radar Cross) for each sensor is stored. Section) and an RCS calculation processing unit for calculating RCS of integrated wake specifications for each sensor,
Range / cross range that calculates sensor placement information in the range direction and cross range direction from the integrated track specifications for each sensor or the track specifications for each sensor using the placement information of each sensor output by the sensor group A sensor allocation processing unit;
Among the wake parameters with RCS and the integrated wake parameters with RCS calculated by the RCS calculation processing unit, the wake parameters and the integrated wake having an RCS larger than the preset RCS threshold value. Using the sensor arrangement information in the range direction and the cross range direction related to the extracted track data having a large RCS and the integrated track data, the observation beam of the sensor whose target traveling direction corresponds to the range direction is extracted. A sensor control signal for allocating intensively is output to the above sensor group, and warheads and boosters are classified according to target velocity vectors possessed by wake parameters with a large RCS, and observation beams are intensively assigned to warheads compared to boosters A tracking device including a target classification / sensor control processing unit that outputs a sensor control signal to the sensor group.
入力処理部は、予め設定されたセンサ以外の、各センサ毎の航跡諸元と、各センサ毎の航跡諸元と対応のとれた観測諸元とを出力することを特徴とする請求項1記載の追尾装置。   2. The input processing unit outputs a track specification for each sensor other than a preset sensor and an observation specification corresponding to the track specification for each sensor. Tracking device. 追尾処理部は、各センサ毎の航跡諸元と対応のとれた観測諸元を用いて、探知データ統合方式により各センサ毎の統合航跡諸元を算出することを特徴とする請求項1記載の追尾装置。   The tracking processing unit calculates an integrated wake specification for each sensor by a detection data integration method using an observation specification corresponding to the wake specification for each sensor. Tracking device. 追尾処理部は、各センサ毎の航跡諸元を用いて、航跡統合方式により各センサ毎の統合航跡諸元を算出することを特徴とする請求項1記載の追尾装置。   The tracking device according to claim 1, wherein the tracking processing unit calculates an integrated wake specification for each sensor by a wake integration method using the wake specification for each sensor. センサ群に新しいセンサが追加された場合に、RCS算出処理部はセンサ諸元データベースが追加したセンサのレーダ方程式のパラメータを用いて、追加したセンサの航跡諸元のRCSと追加したセンサの統合航跡諸元のRCSを算出することを特徴とする請求項1記載の追尾装置。   When a new sensor is added to the sensor group, the RCS calculation processing unit uses the parameter of the radar equation of the sensor added in the sensor specification database, and the integrated track of the added sensor track RCS and the added sensor. The tracking device according to claim 1, wherein an RCS of specifications is calculated. 目標類別・センサ制御処理部は、追尾計算の初期時に、ある事前に決めた基準時間、又は、ある事前に決めた航跡諸元の精度より航跡諸元の精度が小さくなるまで、RCSがついた航跡諸元の中から、事前に設定したRCSのしきい値よりも大きいRCSを持つ航跡諸元を抽出し、抽出したRCSの大きい航跡諸元に関連するレンジ方向、クロスレンジ方向のセンサ配置情報を用いて、センサ制御信号をセンサ群に出力することを特徴とする請求項1記載の追尾装置。   The target classification / sensor control processing unit has an RCS at the initial stage of the tracking calculation until the accuracy of the wake specification becomes smaller than the accuracy of the predetermined reference time or the predetermined wake specification. From the track parameters, track parameters having an RCS larger than the RCS threshold value set in advance are extracted, and sensor arrangement information in the range direction and the cross range direction related to the extracted track parameters having a large RCS The tracking device according to claim 1, wherein a sensor control signal is output to the sensor group by using. センサ群の各センサにより算出された観測諸元及び航跡諸元を用いて追尾処理を行う追尾装置における目標へのセンサ割り当て方法において、
各センサ毎の航跡諸元又は観測諸元を用いて各センサ毎の統合航跡諸元を算出する第1のステップと、
各センサ毎の統合航跡諸元と各センサ毎の航跡諸元と事前に用意した各センサのレーダ方程式のパラメータとを用いて、各センサ毎の航跡諸元のRCSと各センサ毎の統合航跡諸元のRCSを算出する第2のステップと、
上記センサ群により出力された各センサの配置情報を用いて、各センサ毎の統合航跡諸元又は各センサ毎の航跡諸元からレンジ方向及びクロスレンジ方向のセンサ配置情報を算出する第3のステップと、
上記第2のステップで算出したRCSがついた航跡諸元とRCSがついた統合航跡諸元の中から、事前に設定したRCSのしきい値よりも大きいRCSを持つ航跡諸元と統合航跡諸元を抽出する第4のステップと、
RCSの大きい航跡諸元と統合航跡諸元に関連するレンジ方向及びクロスレンジ方向のセンサ配置情報を用いて、目標の進行方向がレンジ方向に相当するセンサの観測ビームを集中的に割り当てる第5のステップと、
RCSの大きい航跡諸元が持つ目標の速度ベクトルにより弾頭とブースターを類別し、ブースターに比べて弾頭に観測ビームを集中的に割り当てる第6のステップとを備えたことを特徴とする目標へのセンサ割り当て方法。
In the method of assigning a sensor to a target in a tracking device that performs a tracking process using observation parameters and track parameters calculated by each sensor of the sensor group,
A first step of calculating an integrated wake specification for each sensor using a wake specification or an observation specification for each sensor;
Using the integrated wake specifications for each sensor, the wake specifications for each sensor, and the radar equation parameters for each sensor prepared in advance, the RCS of the wake specifications for each sensor and the integrated wake parameters for each sensor. A second step of calculating the original RCS;
Third step of calculating sensor arrangement information in the range direction and the cross range direction from the integrated wake specification for each sensor or the wake specification for each sensor using the arrangement information of each sensor output by the sensor group. When,
From the wake parameters with RCS and the integrated wake parameters with RCS calculated in the second step, the wake parameters with the RCS larger than the preset RCS threshold and the integrated wake parameters are selected. A fourth step of extracting elements;
Using the sensor arrangement information in the range direction and the cross range direction related to the wake specification having a large RCS and the integrated wake specification, the fifth observation beam of the sensor in which the traveling direction of the target corresponds to the range direction is intensively assigned. Steps,
A target sensor characterized by comprising a sixth step of classifying warheads and boosters according to target velocity vectors possessed by wake parameters having a large RCS, and allocating observation beams to the warheads more intensively than boosters. Assignment method.
JP2005075339A 2005-03-16 2005-03-16 Tracking device and sensor allocation method to target Expired - Fee Related JP4290666B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005075339A JP4290666B2 (en) 2005-03-16 2005-03-16 Tracking device and sensor allocation method to target

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005075339A JP4290666B2 (en) 2005-03-16 2005-03-16 Tracking device and sensor allocation method to target

Publications (2)

Publication Number Publication Date
JP2006258555A JP2006258555A (en) 2006-09-28
JP4290666B2 true JP4290666B2 (en) 2009-07-08

Family

ID=37097990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005075339A Expired - Fee Related JP4290666B2 (en) 2005-03-16 2005-03-16 Tracking device and sensor allocation method to target

Country Status (1)

Country Link
JP (1) JP4290666B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4693633B2 (en) * 2006-01-11 2011-06-01 三菱電機株式会社 Target tracking device
JP4726772B2 (en) * 2006-12-11 2011-07-20 三菱電機株式会社 Sensor system
JP4804371B2 (en) * 2007-01-18 2011-11-02 三菱電機株式会社 Sensor bias error estimation device
JP5013949B2 (en) * 2007-04-27 2012-08-29 三菱電機株式会社 Rocket tracking radar device
JP5904775B2 (en) * 2011-12-07 2016-04-20 三菱電機株式会社 Target tracking device
JP5854926B2 (en) * 2012-05-18 2016-02-09 三菱電機株式会社 Falling motion judgment device
RU2765564C1 (en) * 2020-12-22 2022-02-01 Федеральное государственное бюджетное учреждение "Центральный научно-исследовательский институт Воздушно-космических сил" Министерства обороны Российской Федерации Radio location information processing system

Also Published As

Publication number Publication date
JP2006258555A (en) 2006-09-28

Similar Documents

Publication Publication Date Title
JP4290666B2 (en) Tracking device and sensor allocation method to target
KR100885084B1 (en) Component association tracker system and method
CN111308459B (en) Multi-sensor track starting method based on sensor characteristics and measurement sources
JP5047534B2 (en) Multi-target tracking device
KR102134580B1 (en) Target information database management system for each layer of the next generation naval combat system
US20220343641A1 (en) Device and method for processing data of a neural network
CN105320143B (en) Method for tracking multiple objects by using probability hypothesis density filter
JP4693633B2 (en) Target tracking device
CN107273914B (en) Efficient fusion identification method based on information source self-adaptive dynamic selection
Mušicki et al. Multi target tracking of ground targets in clutter with LMIPDA-IMM
JP4014785B2 (en) Resource management device
JP2009264841A (en) Object detector
JP6879725B2 (en) Tracking device and multi-sensor system
JP4597717B2 (en) Radar equipment
US20220383146A1 (en) Method and Device for Training a Machine Learning Algorithm
JP2008275447A (en) Rocket tracking radar system
KR102697940B1 (en) Method and Apparatus for Target Identification Based on Different Features
JP3945611B2 (en) Tracking device
Ditzel et al. Cross-layer utility-based system optimization
JP5933350B2 (en) Guidance device
JP6570800B2 (en) Target tracking device
JP2000075023A (en) Sensor group-controlling device
KR102471732B1 (en) Apparatus and method for multiplot processing of radar
KR101432540B1 (en) Target classnication apparatus and operation method for the same
KR102391871B1 (en) Method and system for managing radar-based target tracking resources

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070112

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071010

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090324

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090401

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120410

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120410

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130410

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130410

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140410

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees