JPH054076U - Route predictor - Google Patents

Route predictor

Info

Publication number
JPH054076U
JPH054076U JP2504791U JP2504791U JPH054076U JP H054076 U JPH054076 U JP H054076U JP 2504791 U JP2504791 U JP 2504791U JP 2504791 U JP2504791 U JP 2504791U JP H054076 U JPH054076 U JP H054076U
Authority
JP
Japan
Prior art keywords
target
value
terrain
predicted
outputs
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2504791U
Other languages
Japanese (ja)
Inventor
和子 池原
浩一 荒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2504791U priority Critical patent/JPH054076U/en
Publication of JPH054076U publication Critical patent/JPH054076U/en
Pending legal-status Critical Current

Links

Landscapes

  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

(57)【要約】 【目的】 飛行目標を監視し、その経路を予測する経路
予測装置において、地形に影響を受けて飛行する目標
が、山陰に隠れるなど観測不可能な状態になった場合に
飛行経路の予測を行うこと。 【構成】 目標を観測しその観測値を出力する観測部1
と、地形情報を蓄積しその情報をパターン信号化して出
力する地形情報部2と、ニューラルネットワークに該観
測値と該地形情報を入力し該目標の予測観測値を出力
し、単位時間過去に現時刻を予測した予測観測値と現時
刻の観測値との誤差信号を入力して、予測値の学習を行
う予測部3とから成る。 【効果】 地形に影響を受けて飛行する目標の経路予測
について、地形に応じて変化する経路の予測ができる。
(57) [Summary] [Purpose] In a route prediction device that monitors a flight target and predicts its route, when the target that is flying due to the terrain becomes hidden in the shade of the mountain and becomes unobservable. To predict the flight path. [Structure] Observation unit 1 that observes the target and outputs the observed value.
And a terrain information section 2 that accumulates terrain information and outputs it as a pattern signal, and outputs the predicted observation value of the target by inputting the observation value and the terrain information into a neural network, and presenting them in the unit time past. It comprises a prediction unit 3 which inputs an error signal between a predicted observation value at which time is predicted and an observed value at the current time and learns the predicted value. [Effect] It is possible to predict the route that changes depending on the terrain when predicting the route of the target that will fly due to the influence of the terrain.

Description

【考案の詳細な説明】[Detailed description of the device]

【0001】[0001]

【産業上の利用分野】[Industrial applications]

この考案は飛行目標が山陰などの観測不可能な場所に隠れてもその間の経路を 予測し次に観測可能な場所にでてくる場所を予測する経路予測装置である。 This device is a route predicting device that predicts the route between flight targets even if they are hidden in unobservable places such as San'in, and predicts where they will be next observed.

【0002】[0002]

【従来の技術】[Prior Art]

従来、経路予測装置には常時観測可能な場合に目標追尾を意図として追尾フィ ルタが利用されていた。 Conventionally, a tracking filter has been used in a route prediction device for the purpose of target tracking when it is always observable.

【0003】 図4はR.A.Singer and K.W.behnke; Real− time tracking filter evaluation and selection for tactical applications, IEEE TRANS.,VOL.AES7,NO.1(1971)に示された 追尾フィルタのブロック線図である。このR.A.Singerの追尾フィルタ は、カルマンフィルタを応用したものでありその後の追尾フィルタリングの基本 となっている。この追尾フィルタを経路予測装置として利用するには、目標が観 測可能である場合にこの図4のまま動作させる。FIG. A. Singer and K.K. W. behnke; Real-time tracking filter evaluation and selection for technical applications, IEEE TRANS. , VOL. AES7, NO. 1 (1971) is a block diagram of the tracking filter. This R. A. The Singer tracking filter is an application of the Kalman filter and is the basis of the subsequent tracking filtering. In order to use this tracking filter as a route predicting device, the target is observable and is operated as it is in FIG.

【0004】 まず図4を用いて、目標が観測可能である場合の従来の経路予測装置の構成を 説明する。図4において、1は目標を観測してその観測値を出力する観測部、3 は該観測値を入力して目標の推定状態と予測状態とを出力する予測部である。該 観測部1において、4は目標を観測するためのセンサであり、レーダなどが用い られる。5は、データプロセッサで、該センサ4の出力信号を処理して観測値を 出力する。また上記の予測部3において、6は遅延素子で、予測状態を入力して 単位時間内の遅延を行い出力する。ここで、上記の「観測値」が目標の位置のみ の情報であるのに対して「状態」は速度あるいはさらに加速度を付加した情報で ある。また図において予測状態記号中のかっこ内のk+1/kは、時刻kまでに 得られた観測値をもとに時刻k+1の状態の予測であることを意味している。7 は観測方式処理装置であり、予測状態を入力して、予測観測値を出力する。8は 加算要素であり、該予測観測値と上記観測値との差を算出する。この差信号は、 カルマンフィルタではイノベーション過程と呼ばれる。51はフィルタゲイン処 理要素であり、該修正信号と上記予測信号の和を算出する。この信号は推定状態 となる。53は、システムダイナミクス処理要素であり、該推定状態を入力し、 単位時間分先の予測状態を出力する。該予測状態は、再び上記遅延要素に入力さ れ、単位時刻後の処理に利用される。First, the configuration of a conventional route prediction device when a target is observable will be described with reference to FIG. In FIG. 4, 1 is an observing unit that observes the target and outputs the observed value, and 3 is a predicting unit that inputs the observed value and outputs the estimated state and predicted state of the target. In the observation unit 1, 4 is a sensor for observing a target, and a radar or the like is used. A data processor 5 processes an output signal of the sensor 4 and outputs an observation value. Further, in the above-mentioned prediction unit 3, 6 is a delay element, which inputs a prediction state, delays it within a unit time, and outputs it. Here, the above-mentioned “observed value” is information only on the target position, whereas “state” is information to which velocity or acceleration is added. Further, in the figure, k + 1 / k in parentheses in the prediction state symbol means that the state is predicted at time k + 1 based on the observed values obtained up to time k. An observation method processor 7 inputs a prediction state and outputs a prediction observation value. Reference numeral 8 is an addition element, which calculates the difference between the predicted observed value and the observed value. This difference signal is called the innovation process in the Kalman filter. A filter gain processing element 51 calculates the sum of the modified signal and the predicted signal. This signal is in the estimated state. Reference numeral 53 is a system dynamics processing element, which inputs the estimated state and outputs a predicted state ahead of a unit time. The predicted state is input to the delay element again and used for processing after a unit time.

【0005】 上述した従来例の方法を図5のフローチャートを用いて説明する。まずセンサ 4により目標の観測を行い、データプロセッサ5でその出力のデータを処理を行 って観測値として出力する。そして、該観測値から、目標の推定状態と予測状態 とを得るための一連の動作ST51はカルマンフィルタ一連の動作に従う。カル マンフィルタの一連の計算式を数1〜数5に示す。The above-mentioned conventional method will be described with reference to the flowchart of FIG. First, the sensor 4 observes the target, and the data processor 5 processes the output data and outputs it as an observation value. Then, the series of operations ST51 for obtaining the target estimated state and the predicted state from the observed values follow the series of operations of the Kalman filter. A series of calculation formulas of the Kalman filter are shown in Formulas 1 to 5.

【0006】[0006]

【数1】 [Equation 1]

【0007】[0007]

【数2】 [Equation 2]

【0008】[0008]

【数3】 [Equation 3]

【0009】[0009]

【数4】 [Equation 4]

【0010】[0010]

【数5】 [Equation 5]

【0011】 ST52において、観測方程式処理要素7が、遅延要素6より得られる現時刻 の予測状態を入力し数1の〔 〕内第2項の計算を行い、出力する。この処理は 目標の位置、速度の予測値から位置に関する情報を取り出す処理であり、ここで はこの値を予測観測値と呼ぶことにする。次にST53において、加減算要素8 は、該予測値と上記予測値とを入力し、数1の〔 〕内を計算して出力する。こ の値はカルマンフィルタではイノベーション過程と呼ばれる。さらにST54に おいて、フィルタゲイン処理要素51は、最適なフィルタゲインを数2、数3、 数4に従って求め、数1式の右辺第2項を計算して出力する。この値は、修正信 号としての意味を持つ。そしてST55で、加減算要素52は、該修正信号と後 述の予測状態とを入力し、数1全体の値を求め出力する。この値は、推定状態と しての意味を持つ。ここでST56において、該推定状態をシステムダイナミク ス処理要素53の入力に設定する。その後、ST57に進み、システムダイナミ クス処理要素53は、該推定状態を入力して、数5の計算を行い、単位時刻未来 の予測状態を出力する。前記推定状態と該予測状態は、従来の経路予測装置の出 力となる。最後にST6において、終了か否かの判断を行う。単位時間後に再び ST1の前に戻り同様の処理を繰り返す。この場合、ST57において出力され た予測状態は、単位時間後に単位時間前から現時刻を予測した予測状態として用 いられる。この時間のシフトは遅延要素6により表現されている。In ST52, the observation equation processing element 7 inputs the prediction state at the current time obtained from the delay element 6, calculates the second term in [] of the equation 1, and outputs it. This process is the process of extracting information about the position from the predicted values of the target position and velocity, and here we will call this value the predicted observation value. Next, in ST53, the addition / subtraction element 8 inputs the predicted value and the predicted value, calculates the value in [] of the equation 1 and outputs it. This value is called the innovation process in the Kalman filter. Further, in ST54, the filter gain processing element 51 obtains the optimum filter gain in accordance with Formulas 2, 3 and 4, and calculates and outputs the second term on the right side of Formula 1. This value has a meaning as a modified signal. Then, in ST55, the addition / subtraction element 52 inputs the correction signal and the prediction state described later, obtains and outputs the value of the whole equation 1. This value has a meaning as an estimated state. Here, in ST56, the estimated state is set to the input of the system dynamics processing element 53. After that, proceeding to ST57, the system dynamics processing element 53 inputs the estimated state, calculates the equation 5, and outputs the predicted state in the unit time future. The estimated state and the predicted state are outputs of the conventional route prediction device. Finally, in ST6, it is determined whether or not to end. After a unit time, it returns to before ST1 and repeats the same processing. In this case, the prediction state output in ST57 is used as a prediction state in which the current time is predicted after a unit time and a unit time before. This time shift is represented by the delay element 6.

【0012】[0012]

【考案が解決しようとする課題】[Problems to be solved by the device]

従来の経路予測装置は目標が観測不可能な場合の経路の予測を行わない、また 地形の影響を受けて飛行する目標は考慮していないため、観測不可能な低空を地 形の影響を受けながら飛行する目標の経路推定を行う場合、地形に対する柔軟性 に欠けるなどの問題があった。 The conventional route prediction device does not predict the route when the target is unobservable, and does not consider the target that flies due to the influence of the terrain, so the unobservable low altitude is affected by the terrain. However, when estimating the route of the flying target, there was a problem such as lack of flexibility in the terrain.

【0013】 この考案は上記のような問題を解決するために、地形情報と学習機能を持つニ ューラルネットワークを用いて地形に影響を受けて飛行する目標の観測不可能領 域における飛行経路の柔軟性のある予測を行うことを目的とする。In order to solve the above problems, the present invention uses a neural network having terrain information and a learning function to fly a flight path in an unobservable area of a target that is affected by terrain and flies. The goal is to make flexible forecasts for.

【0014】[0014]

【課題を解決するための手段】[Means for Solving the Problems]

この考案に係る経路予測装置は、予測部に学習機能を持つニューラルネットワ ークを使用し、観測により地形に依存する目標の飛行経路を学習し、その学習結 果より観測不可能の領域に入った目標の経路を予測するものである。 The route prediction device according to the present invention uses a neural network having a learning function in the prediction unit, learns a target flight route depending on the terrain by observation, and enters the unobservable region from the learning result. It predicts the route of the target.

【0015】[0015]

【作用】[Action]

この考案による経路予測装置は、目標の観測値と地形情報より地形に依存した 目標の飛行経路を予測部が自動的に学習し、学習後観測不可能となった目標の経 路を予測する装置である。 The route prediction device according to the present invention is a device for automatically predicting a target flight route that becomes unobservable after learning by the prediction unit automatically learning the target flight route depending on the terrain from the target observation value and terrain information. Is.

【0016】[0016]

【実施例】【Example】

以下、この考案の目標が観測可能な場合の一実施例を図1を用いて説明する。 図1において、1は目標を観測してその観測値を出力する観測部、2は地形情報 を蓄積しその地形情報をパターン信号化して出力する地形情報部、3は該観測値 と該地形情報の特徴量とを入力し、該目標の予測観測値を出力し、単位時間過去 に現時刻を予測した予測観測値と現時刻の観測値との誤差を算出し、その誤差信 号より観測値の予測を学習する予測部である。 上記観測部1において、4は目標を観測するためのセンサであり、レーダなど が用いられる。5はデータプロセッサで、該センサ4の出力信号を処理して、観 測値を出力する。 上記予測部3において、9はニューラルネットワークであり上記観測値と後述 の地形情報のパターン信号を入力し、単位時間未来の予測観測値を出力する。6 は遅延要素であり単位時間過去に現時刻を予測した予測値を出力する。8は加減 算要素であり、単位時間過去に現時刻を予測した予測観測値と現時刻の観測値と の差を算出する。この差信号はニューラルネットワークでは誤差信号と呼ばれる 。9は誤差信号より、より正確な予測観測値の出力を学習する。 そして上記地形情報部2において、10は地形情報を蓄積するメモリであり、 地形情報を出力する。この地形情報はあらかじめ蓄えておく。11は、パターン 化要素であり該地形情報を入力し、ニューラルネットワークで用いる地形情報を パターン信号化して出力する。 An embodiment in which the target of this invention can be observed will be described below with reference to FIG. In FIG. 1, 1 is an observing unit that observes a target and outputs the observed value, 2 is a terrain information unit that accumulates terrain information and outputs the terrain information as a pattern signal, and 3 is the observed value and the terrain information , And outputs the predicted observed value of the target, calculates the error between the predicted observed value that predicted the current time in the past of the unit time and the observed value at the current time, and based on the error signal, the observed value Is a prediction unit that learns the prediction of. In the observing unit 1, 4 is a sensor for observing a target, and a radar or the like is used. A data processor 5 processes an output signal of the sensor 4 and outputs an observation value. In the prediction unit 3, 9 is a neural network, which inputs the observation value and a pattern signal of topographical information described later, and outputs a prediction observation value in the unit time future. Reference numeral 6 is a delay element, which outputs a prediction value obtained by predicting the present time in the unit time past. Numeral 8 is an addition / subtraction element, which calculates the difference between the predicted observed value at which the current time was predicted in the unit time past and the observed value at the current time. This difference signal is called an error signal in the neural network. 9 learns the output of a more accurate predicted observation value from the error signal. In the terrain information section 2, 10 is a memory for accumulating the terrain information and outputs the terrain information. This topographic information is stored in advance. A patterning element 11 inputs the topographical information, converts the topographical information used in the neural network into a pattern signal, and outputs the pattern signal.

【0017】 つぎにこの考案の、目標が観測不可能な場合の実施例を図2を用いて説明する 。図2において、2は地形情報部であり、3は予測部である。該予測部3は観測 値が得られないので、ニューラルネットワーク要素のみから成る。該ニューラル ネットワーク要素は、繰り返し予測観測値を入力するとともに後述の地形情報の パターン信号を入力し、予測観測値を出力する。また、地形情報部3において、 10は地形情報を蓄積するメモリであり、地形情報を出力する。11は、パター ン化要素であり該地形情報を入力し、ニューラルネットワークで用いる地形情報 をパターン信号化して出力する。Next, an embodiment of the present invention when the target cannot be observed will be described with reference to FIG. In FIG. 2, 2 is a terrain information section, and 3 is a prediction section. Since the predictor 3 cannot obtain an observed value, it consists only of neural network elements. The neural network element inputs a repeated prediction observation value, inputs a pattern signal of topographical information described later, and outputs the prediction observation value. Further, in the terrain information unit 3, 10 is a memory for accumulating the terrain information, and outputs the terrain information. A patterning element 11 inputs the topographical information and outputs the topographical information used in the neural network as a pattern signal.

【0018】 上記経路予測装置を実現する方法を図3のフローチャートを用いて説明する。 まずST1で目標が観測可能であるか否かの判断を行う。もし観測可能である場 合は、ST2に進み、センサ4により目標の観測を行い、データプロセッサ5の 出力データの処理を行い観測値として出力する。つぎにST3において加減算要 素に単位時間過去に現時刻を予測した予測観測値と現時刻の観測値を入力し、誤 差信号を出力する。つぎにST4に進み地形情報をパターン信号化する。さらに ST5においてニューラルネットワークは学習アルゴリズムを実行し、正確な予 測値の出力を学習する。バックプロパゲーションによるニューラルネットワーク の学習の一連の式を数6〜数8に示す。A method for realizing the route prediction device will be described with reference to the flowchart of FIG. First, in ST1, it is determined whether or not the target is observable. If it is observable, the process proceeds to ST2, the target is observed by the sensor 4, the output data of the data processor 5 is processed, and output as an observed value. Next, in ST3, the predicted observation value at which the current time is predicted in the unit time past and the observed value at the current time are input to the addition / subtraction element, and the error signal is output. Next, at ST4, the terrain information is converted into a pattern signal. Further, in ST5, the neural network executes a learning algorithm to learn the output of an accurate predicted value. Equations 6 to 8 show a series of equations for learning the neural network by back propagation.

【0019】[0019]

【数6】 [Equation 6]

【0020】[0020]

【数7】 [Equation 7]

【0021】[0021]

【数8】 [Equation 8]

【0022】 ここで数6は階層型ネットワークの第k層のi番目のユニットへの入力の総和 と出力を定義している。数7により第k−1層のi番目のユニットと第k層のj 番目のユニットとの間の結合の重みを修正し学習を行う。数8により数7におい て修正した結合の重みを用いて予測値を出力する。最後にST6において終了す るか否かの判断を行う。終了しない場合は再びST1に戻り同様の動作を繰り返 す。図1の遅延要素6は従来技術で述べたものと同じ時間のシフトを現している 。Here, Expression 6 defines the sum of inputs and the output to the i-th unit in the k-th layer of the hierarchical network. The weight of the connection between the i-th unit of the (k-1) -th layer and the j-th unit of the k-th layer is corrected by using Equation 7, and learning is performed. The prediction value is output using the weight of the connection corrected in Expression 7 by Expression 8. Finally, in ST6, it is determined whether or not to end. If not completed, the operation returns to ST1 and the same operation is repeated. Delay element 6 of FIG. 1 represents the same time shift as described in the prior art.

【0023】 一方、ST1において、観測不可能と判断された場合には、ST4に進み地形 情報をパターン信号化する。さらにST5においてニューラルネットワークに上 記のパターン信号を入力し、予測値を出力する。最後にST6において終了する か否かの判断を行う。終了しない場合は再びST1に戻り同様の動作を繰り返す 。On the other hand, if it is determined in ST1 that the observation is impossible, the process proceeds to ST4 to convert the topographical information into a pattern signal. Further, in ST5, the above-mentioned pattern signal is input to the neural network and the predicted value is output. Finally, in ST6, it is determined whether or not to end. If not completed, the process returns to ST1 and the same operation is repeated.

【0024】[0024]

【考案の効果】[Effect of the device]

以上のように、この考案によれば、予測部をニューラルネットワークにしたの で、地形に依存して飛行する目標の飛行経路の学習を、自動的にまた地形に応じ て行うことが可能になり、地形に拘束された目標に対して、観測不可能である間 の飛行経路の予測が可能となる。 As described above, according to the present invention, since the prediction unit is a neural network, it is possible to learn the flight route of the target that flies depending on the terrain automatically and according to the terrain. , It is possible to predict the flight path for a target constrained by topography while it is not observable.

【図面の簡単な説明】[Brief description of drawings]

【図1】この考案による経路予測装置の実施例におけ
る、観測可能な場合の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration in an observable case in an embodiment of a route prediction device according to the present invention.

【図2】この考案による経路予測装置の実施例におけ
る、観測不可能な場合の構成を示すブロック図である。
FIG. 2 is a block diagram showing the configuration of an embodiment of the route prediction apparatus according to the present invention in the case where it is unobservable.

【図3】この考案による経路予測方法を示すフローチャ
ートである。
FIG. 3 is a flowchart showing a route prediction method according to the present invention.

【図4】従来の経路予測装置の、構成を示すブロック図
である。
FIG. 4 is a block diagram showing a configuration of a conventional route prediction device.

【図5】従来の経路予測方法を示すフローチャートであ
る。
FIG. 5 is a flowchart showing a conventional route prediction method.

【符号の説明】[Explanation of symbols]

1 観測部 2 地形情報部 3 予測部 1 Observation part 2 Topographic information part 3 Prediction part

Claims (1)

【実用新案登録請求の範囲】 【請求項1】 目標を観測するセンサ及びその出力信号
を処理し観測値を出力するデータプロセッサより成る観
測部と、地形情報をあらかじめ蓄えておく地形情報メモ
リ及び地形情報を処理しパターン信号化し出力するパタ
ーン化要素から成る地形情報部と、観測部からの該観測
値と地形情報部からの該地形情報から予測観測値を出力
するニューラルネットワーク及び単位時間内の遅延を行
い単位時間過去に現時刻を予測した予測観測値を出力す
る遅延要素及び遅延要素から出力された予測観測値と該
観測値との差よりニューラルネットワークが予測観測値
を学習する機能を持つ予測部から成ることを特徴とする
経路予測装置。
[Claims for utility model registration] [Claim 1] An observation unit comprising a sensor for observing a target and a data processor for processing an output signal of the sensor and outputting an observation value, a terrain information memory and terrain for preliminarily storing terrain information A terrain information section consisting of patterning elements for processing information and converting it into a pattern signal, a neural network for outputting the observed value from the observing section and the terrain information from the terrain information section, and a delay within a unit time The prediction function has the function of learning the predicted observation value by the neural network from the delay element that outputs the predicted observation value that predicts the current time in the past by the unit time and the difference between the predicted observation value output from the delay element and the observed value. A route prediction device comprising a unit.
JP2504791U 1991-04-15 1991-04-15 Route predictor Pending JPH054076U (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2504791U JPH054076U (en) 1991-04-15 1991-04-15 Route predictor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2504791U JPH054076U (en) 1991-04-15 1991-04-15 Route predictor

Publications (1)

Publication Number Publication Date
JPH054076U true JPH054076U (en) 1993-01-22

Family

ID=12155010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2504791U Pending JPH054076U (en) 1991-04-15 1991-04-15 Route predictor

Country Status (1)

Country Link
JP (1) JPH054076U (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011237339A (en) * 2010-05-12 2011-11-24 Mitsubishi Electric Corp Path prediction device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011237339A (en) * 2010-05-12 2011-11-24 Mitsubishi Electric Corp Path prediction device

Similar Documents

Publication Publication Date Title
JP2749727B2 (en) Route prediction device
JP4869403B2 (en) Radar tracking apparatus and method
US7929730B2 (en) Method and system for object detection and tracking
JP4984659B2 (en) Own vehicle position estimation device
EP3678060A1 (en) Control device, unmanned system, control method, and program
CN110572139B (en) Fusion filtering implementation method and device for vehicle state estimation, storage medium and vehicle
Wong et al. A data-driven motion prior for continuous-time trajectory estimation on SE (3)
Yukun et al. Research on Kalman-filter based multisensor data fusion
CN112034445B (en) Vehicle motion trail tracking method and system based on millimeter wave radar
JPH054076U (en) Route predictor
Yuan et al. An adaptive fusion algorithm based on ANFIS for radar/infrared system
JPH11160454A (en) Estimating apparatus for one-dimensional quantity
JP3945611B2 (en) Tracking device
JPH0797136B2 (en) Multi-target tracking method and apparatus
JPH05297947A (en) Multi-target tracking device
JP3627135B2 (en) Tracking device
JP2004037262A (en) Target tracking system
JP2843910B2 (en) Multi-target tracking device
JPH05288840A (en) Multitarget tracking apparatus
JP3323415B2 (en) Target tracking apparatus and target tracking method
JPH0943346A (en) Tracking processor
JP6946813B2 (en) State estimator and program
JP3411485B2 (en) Target tracking device
JPH0797135B2 (en) Multi-target tracking method and apparatus
JPH09297176A (en) Tracking device