JPH05346464A - Uniting equipment of target - Google Patents

Uniting equipment of target

Info

Publication number
JPH05346464A
JPH05346464A JP4155140A JP15514092A JPH05346464A JP H05346464 A JPH05346464 A JP H05346464A JP 4155140 A JP4155140 A JP 4155140A JP 15514092 A JP15514092 A JP 15514092A JP H05346464 A JPH05346464 A JP H05346464A
Authority
JP
Japan
Prior art keywords
track
target
time
filters
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4155140A
Other languages
Japanese (ja)
Other versions
JP2780569B2 (en
Inventor
Michiko Hayashi
道子 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP4155140A priority Critical patent/JP2780569B2/en
Publication of JPH05346464A publication Critical patent/JPH05346464A/en
Application granted granted Critical
Publication of JP2780569B2 publication Critical patent/JP2780569B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

PURPOSE:To conduct a uniting processing even for tracks acquired by sensors of which the timings of sampling are different. CONSTITUTION:Sensors 2-1 to 2-n acquire a target at the respective timings of sampling. Based on information on the target acquired thereby, filters 3-1 to 3-n prepare tracks. A time difference detecting device 4 detects differences between the time when the sensor (n) denoted by 2-n detects the target and the times when the sensors 2-1 to 2-n-1 detect the target. Using these time differences and the tracks from the filters 3-1 to 3-n-1, preestimating devices 5-1 to 5-n-1 preestimate the track at the sampling timing of the sensor (n). The preestimated track and the track obtained from a filter 3-n are subjected to a uniting processing by a uniting device 6.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、目標の追尾を行うた
めに複数のセンサで位置情報等のサンプリングを行い、
上記各センサから得られた非同期目標情報の融合処理を
行なう時、同期しないセンサ間の融合処理を行なうこと
を可能にする、目標融合の装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention samples position information and the like with a plurality of sensors in order to track a target.
The present invention relates to a target fusion device that enables fusion processing between non-synchronized sensors when performing fusion processing of asynchronous target information obtained from each sensor.

【0002】[0002]

【従来の技術】図6は、従来の融合処理の装置の全体構
成図、図7は、そのタイミング図である。融合処理と
は、複数のセンサが捕捉した同一の目標または異なった
目標からの情報について、それが同一の目標から得られ
たものか判定し、もし同一の目標から得られたものと判
定されれば、それらの情報から統一した情報を作成する
処理である。図6においては、2−1 〜2−n は目標1
を捕捉する第1〜第nのセンサで、例えば、航空機に対
しては、レーダ等である。3−1 〜3−n は上記センサ
2−1 〜2−n にそれぞれ対応して設けてある第1〜第
nのフィルタであって、それぞれのセンサが捕捉した同
一または異なった複数の目標に対する航跡を作成する機
能を有する。6は、融合装置であり、上記第1〜第nの
フィルタ3−1 〜3−n より出力された航跡の融合処理
を行う。図7においては、13は第i(1≦i≦n)の
センサのサンプリングの時系列線図、14は第j(1≦
j≦n,j≠i)のセンサのサンプリングの時系列線図
である。また、15は時間の遷移を表す。
2. Description of the Related Art FIG. 6 is an overall configuration diagram of a conventional fusion processing apparatus, and FIG. 7 is a timing chart thereof. The fusion process determines whether information obtained from the same target or different targets captured by multiple sensors is obtained from the same target, and if it is determined that the information is obtained from the same target. For example, it is a process of creating unified information from those pieces of information. In Figure 6, 2- 1 ~2- n goals 1
The first to n-th sensors for capturing, for example, a radar or the like for an aircraft. 3- 1 ~3- n is a first to filter the n that is provided corresponding to the sensor 2- 1 ~2- n, for a plurality of targets of the same or different, each of the sensors captured It has the function of creating wakes. A fusion device 6 performs fusion processing of the tracks output from the first to nth filters 3-1 to 3- n . In FIG. 7, 13 is a time series diagram of sampling of the i-th (1 ≦ i ≦ n) sensor, and 14 is the j-th (1 ≦ i ≦ n) sensor.
FIG. 6 is a time-series diagram of sampling of a sensor of j ≦ n, j ≠ i). Further, 15 represents a transition of time.

【0003】従来の融合処理は上記のようなタイミング
でおこなわれ、目標の追尾を行うために複数のセンサで
位置情報等のサンプリングを行い、上記各センサから得
られた非同期目標情報の融合処理を行なう時、t4 およ
びt8 のような両方のセンサのサンプリングのタイミン
グがそろっている時間において、融合処理を行うことが
できた。
The conventional fusion processing is performed at the above-described timing, the position information and the like are sampled by a plurality of sensors in order to track the target, and the fusion processing of the asynchronous target information obtained from each of the sensors is performed. When performed, the fusion process could be performed at times such as t 4 and t 8 where the sampling timings of both sensors were in time.

【0004】[0004]

【発明が解決しようとする課題】センサのサンプリング
のタイミング及び間隔は、各センサの信号処理またはモ
ードによって異なっているので、従来のように、サンプ
リングが同期している航跡のみの融合処理を行なう方法
では、違ったサンプリング間隔を持つセンサi(1≦i
≦n)とセンサj(1≦j≦n,j≠i)にそれぞれ対
応するフィルタiおよびフィルタjから得られた航跡
間、または、同じサンプリング間隔であってもタイミン
グがずれているセンサi,センサjにそれぞれ対応する
フィルタiおよびフィルタjから得られた航跡間では、
融合処理を行なうことができなかった。
Since the sampling timing and interval of the sensors are different depending on the signal processing or mode of each sensor, the conventional method is to perform the fusion processing only for the tracks with synchronized sampling. Then, the sensors i (1 ≦ i having different sampling intervals
.Ltoreq.n) and sensor j (1.ltoreq.j.ltoreq.n, j.noteq.i), respectively. Between the tracks obtained from the filter i and the filter j respectively corresponding to the sensor j,
The fusion process could not be performed.

【0005】[0005]

【課題を解決するための手段】この発明は、このような
課題を解消するためになされたもので、違ったサンプリ
ング間隔を持つセンサから得られた航跡間、または、同
じサンプリング間隔だがタイミングがずれているセンサ
から得られた航跡間であっても、融合処理を行なうこと
ができることを目的とするものである。
SUMMARY OF THE INVENTION The present invention has been made to solve such a problem, and is between wakes obtained from sensors having different sampling intervals, or the same sampling interval but different timing. The purpose is to be able to perform fusion processing even between wakes obtained from existing sensors.

【0006】この発明に係る目標融合装置は、それぞれ
のセンサにおいて航跡を作成する航跡作成手段と、セン
サ間のサンプリング時間のずれを検出する時間差検出手
段と、先に作成された航跡から時間差分の予測を行なう
予測手段と、予測された値と航跡の融合処理を行なう航
跡融合手段を設けたものである。
The target fusion apparatus according to the present invention includes a track creating means for creating a track at each sensor, a time difference detecting means for detecting a difference in sampling time between the sensors, and a time difference from the previously created track. The prediction means for predicting and the track fusion means for performing the fusion process of the predicted value and the track are provided.

【0007】[0007]

【作用】この発明においては、航跡間のサンプリング時
間の時間差を検出し、先に探知された航跡から、後で探
知される航跡のサンプリング時間にあわせて予測を行な
い、その予測値を後のサンプリング時間における航跡の
値とし、2つの航跡の融合処理を行なう。
According to the present invention, a time difference in sampling time between tracks is detected, a prediction is made from a track detected first, in accordance with a sampling time of a track detected later, and the predicted value is sampled later. The value of the track in time is taken as the fusion process of the two tracks.

【0008】[0008]

【実施例】【Example】

実施例1.図1はこの発明による目標融合の方法および
装置の一実施例の全体構成図である。この実施例は図1
から明らかなように、時間Tにおいて2−1 〜2−n
(nは2以上の整数)は目標1を捕捉する第1〜第nの
センサで、例えば、航空機に対しては、レーダ等であ
る。3−1 〜3−n は、上記センサ2−1 〜2−n にそ
れぞれ対応して設けてある第1〜第nのフィルタであっ
て、目標から時系列に得られた情報をもとに平滑・予測
を行ない、目標に対する航跡を作成する機能を有する。
4は、第nのセンサ2−n が目標を探知した時刻と、2
n を除く第1〜第n−1のセンサ2−1 〜2−n-1
目標を探知した時刻の差を検出する時間差検出装置であ
る。5−1 〜5−n-1 は、上記第1〜第n−1のフィル
タ3−1 〜3−n-1 にそれぞれ対応してもうけてある第
1〜第n−1の予測装置である。これら予測装置5−1
〜5−n-1 は、それぞれ上記第1〜第n−1のフィルタ
3−1 〜3−n-1 からの航跡と、時間差検出装置からの
目標を探知した時間差ΔTを用いて、第nのセンサ2−
n が目標を探知した時刻と同時刻における航跡の予測を
行なう。6は、融合装置であり、上記第1〜第n−1の
予測装置5−1 〜5−n-1 より出力された航跡の予測値
および、第nのフィルタ3−n より出力された航跡につ
いて、それが同一の目標から得られたものか否か判定
し、もし同一の目標から得られたものと判定すれば、そ
れらの情報から統一した情報を作成し、融合処理を行
う。
Example 1. FIG. 1 is an overall block diagram of an embodiment of a method and apparatus for target fusion according to the present invention. This embodiment is shown in FIG.
As is clear from, 2- 1 ~2- n at time T
(N is an integer greater than or equal to 2) is the 1st-nth sensor which captures the target 1, for example, a radar etc. with respect to an aircraft. 3- 1 ~3- n is a first to filter the n that is provided corresponding to the sensor 2- 1 ~2- n, based on the information obtained in time series from the target It has the function of smoothing and forecasting and creating a track for the target.
4 is the time when the n- th sensor 2- n detects the target and 2
- the time difference detection device sensor 2- 1 ~2- n-1 of the first to n-1, except for n detects a difference between the time when the detected target. 5- 1 ~5- n-1 is the prediction apparatus of the first to n-1 that is receiving also correspond to the filter 3- 1 ~3- n-1 of the first to n-1 .. These prediction apparatus 5-1
~5- n-1, using a track from the filter 3- 1 ~3- n-1 of the first to n-1, respectively, a time difference ΔT of the target has been detected from the time difference detector, the n Sensor 2-
Predict the track at the same time that n detected the target. Reference numeral 6 denotes a fusion device, which is the predicted value of the track output from the first to ( n-1 ) th prediction devices 5-1 to 5 -n-1 and the track output from the nth filter 3- n. Is determined whether or not it is obtained from the same target, and if it is determined that it is obtained from the same target, unified information is created from the information and fusion processing is performed.

【0009】図2は、図1の実施例に示されている予測
装置5−1 〜5−n-1 の詳細図である。図中7は推移行
列の作成装置8に入力される時間差ΔTであり、9は推
移行列の作成装置8の出力である。上記推移行列9は時
間Tにおける10の航跡iと共に、予測計算装置11の
入力となる。予測計算装置11においては“数1”およ
び“数2”をもちいて予測計算を行ない、12の時間T
+ΔTにおいて予測される航跡iを出力する。
[0009] Figure 2 is a detailed view of a prediction apparatus 5- 1 ~5- n-1 shown in the embodiment of FIG. In the figure, 7 is the time difference ΔT input to the transition matrix creating device 8, and 9 is the output of the transition matrix creating device 8. The transition matrix 9 is input to the prediction calculation device 11 together with 10 tracks i at time T. In the predictive calculation device 11, the predictive calculation is performed using "Equation 1" and "Equation 2".
Output the track i predicted at + ΔT.

【0010】[0010]

【数1】 [Equation 1]

【0011】[0011]

【数2】 [Equation 2]

【0012】図3は、この発明によって実現される融合
処理のタイミング図である。図においては、13は第i
(1≦i<n)のセンサのサンプリングの時系列線図、
14は第nのセンサのサンプリングの時系列線図であ
る。目標の追尾を行うために複数のセンサで位置情報等
のサンプリングを行い、上記各センサから得られた非同
期目標情報の融合処理を行なう時、t2 の時刻に得られ
た航跡iよりt3 の時刻の航跡iの予測値を得、同様に
時刻t4 、t6 においてそれぞれ時刻t5 、t7の航跡
iの予測値を得ることによって、t4 、t8 のような、
両方のセンサのサンプリングのタイミングがそろってい
る時間に加えて、t3 、t5 、t7 のような両方のセン
サのサンプリングのタイミングがそろっていない時間で
あっても、それぞれのセンサが捕捉した同一の目標また
は異なった目標からの情報について、それが同一の目標
から得られたものか否か判定し、もし同一の目標から得
られたものと判定されれば、それらの情報から統一した
情報を作成し、融合処理を行うことができる。
FIG. 3 is a timing diagram of the fusion process realized by the present invention. In the figure, 13 is the i-th
(1 ≦ i <n) sensor sampling time series diagram,
14 is a time series diagram of sampling of the nth sensor. Position information is sampled by a plurality of sensors in order to track the target, and when the asynchronous target information obtained from each of the above sensors is merged, the track i obtained at time t 2 becomes t 3 By obtaining the predicted value of the track i at time and similarly the predicted values of the track i at times t 5 and t 7 at times t 4 and t 6 , respectively, such as t 4 and t 8 ,
In addition to the time when both sensors have the same sampling timing, the time when both sensors have not the same sampling timing such as t 3 , t 5 , and t 7 For information from the same goal or different goals, determine whether it was obtained from the same goal, and if it is determined that it was obtained from the same goal, unified information from those information Can be created and fusion processing can be performed.

【0013】実施例2.上記実施例1においては第1〜
第n−1のフィルタより得られた航跡iについてのみ予
測計算をおこなったが、図4に示すように、第nのフィ
ルタによって得られた航跡についても、第nの予測装置
5−n を取付けることによって、第1から第nのフィル
タのうちのいずれかの、第i(1≦i≦n)のフィルタ
のサンプリング時刻ごとに、第iのフィルタ以外の第j
(1≦j≦n,j≠i)のフィルタから得られた航跡の
予測値を得ることができる。6は、融合装置であり、上
記第jの予測装置5−j より出力された航跡の予測値お
よび、第iのフィルタ3−i より出力された航跡につい
て、それが同一の目標から得られたものか否か判定し、
もし同一の目標から得られたものと判定すれば、それら
の情報から統一した情報を作成し、融合処理を行う。
Embodiment 2. In the first embodiment, first to
The prediction calculation was performed only for the track i obtained by the n-1th filter, but as shown in FIG. 4, the nth prediction device 5- n is also attached to the track obtained by the nth filter. Thus, at every sampling time of the i-th (1 ≦ i ≦ n) filter of the first to n-th filters, the j-th filter other than the i-th filter is
It is possible to obtain the predicted value of the track obtained from the filter of (1 ≦ j ≦ n, j ≠ i). Reference numeral 6 denotes a fusion device, which is obtained from the same target with respect to the predicted value of the track output from the j-th predicting device 5- j and the track output from the i- th filter 3- i . It is judged whether it is a thing,
If it is determined that they are obtained from the same target, unified information is created from those pieces of information and fusion processing is performed.

【0014】図5は実施例2の融合処理のタイミング図
である。実施例1に加えて、t1 、t5 の時刻に得られ
た航跡j(1≦j≦n,j≠i)よりt2 、t6 の時刻
の航跡jの予測値を得ることによって、t2 、t3 、t
4 、t5 、t6 、t7 、t8のように、第iのフィルタ
か第jのフィルタの少なくともどちらかがサンプリング
を行う時刻毎に、融合処理を行うことができる。
FIG. 5 is a timing chart of the fusion process of the second embodiment. In addition to the first embodiment, by obtaining the predicted value of the track j at the times of t 2 and t 6 from the track j (1 ≦ j ≦ n, j ≠ i) obtained at the times of t 1 and t 5 , t 2 , t 3 , t
As in 4 , t 5 , t 6 , t 7 , and t 8 , the fusion process can be performed every time when at least one of the i-th filter and the j-th filter performs sampling.

【0015】[0015]

【発明の効果】この発明は、以上説明したように構成さ
れているので、以下に記載されるような効果を奏する。
Since the present invention is constructed as described above, it has the following effects.

【0016】主たるセンサのサンプリング時刻に合わせ
て、他のセンサから得られた航跡の予測値を計算するこ
とにより、サンプリング時刻の違う航跡間であっても主
たるセンサのサンプリング時刻毎に融合を行うことがで
きる。
By calculating a predicted value of a track obtained from another sensor in accordance with the sampling time of the main sensor, fusion is performed at each sampling time of the main sensor even between tracks having different sampling times. You can

【0017】また、あるセンサがサンプリングを行う時
刻毎に、他のセンサから得られた航跡の予測値を計算す
る構成によれば、サンプリング時刻の違う航跡間であっ
てもあるセンサがサンプリングを行う時刻毎に、融合を
行うことができる。
Further, according to the configuration in which the predicted value of the track obtained from another sensor is calculated every time when a certain sensor samples, a certain sensor performs sampling even between tracks having different sampling times. Fusion can be performed at each time.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の実施例1を示す方法および装置の全
体構成図である。
FIG. 1 is an overall configuration diagram of a method and apparatus showing a first embodiment of the present invention.

【図2】その予測装置の詳細図である。FIG. 2 is a detailed view of the prediction device.

【図3】この発明の実施例1の融合処理のタイミング図
である。
FIG. 3 is a timing diagram of fusion processing according to the first embodiment of the present invention.

【図4】この発明の実施例2を示す方法および装置の全
体構成図である。
FIG. 4 is an overall configuration diagram of a method and apparatus showing Embodiment 2 of the present invention.

【図5】その融合処理のタイミング図である。FIG. 5 is a timing chart of the fusion process.

【図6】従来の融合装置の全体構成図である。FIG. 6 is an overall configuration diagram of a conventional fusion device.

【図7】従来の融合処理のタイミング図である。FIG. 7 is a timing chart of conventional fusion processing.

【符号の説明】[Explanation of symbols]

1 目標 2 センサ 3 フィルタ 4 時間差検出装置 5 予測装置 6 融合装置 1 Target 2 Sensor 3 Filter 4 Time Difference Detection Device 5 Prediction Device 6 Fusion Device

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 目標の追尾を行うために、目標の位置情
報等を検出する第1〜第n(nは2以上の整数)のセン
サと、これらセンサに対応して設置され、上記センサの
出力からサンプリングを行ない航跡を作成する第1〜第
nのフィルタと、上記第1〜第nのフィルタの出力を入
力とし、上記第1〜第n−1のフィルタがサンプリング
を行なう時間と、上記第nのフィルタがサンプリングを
行なう時間の差を検出する時間差検出手段と、上記第1
〜第n−1のフィルタに対応して設置され、上記第1〜
第n−1のフィルタの出力と、上記時間差検出手段の出
力を入力とし、上記第1〜第n−1のフィルタの出力で
ある航跡から第nのフィルタのサンプリングの時刻にお
ける航跡の予測を行なう第1〜第n−1の予測手段と、
上記第1〜第n−1の予測手段の出力と、上記第nのフ
ィルタの出力を入力とし、それぞれの航跡の融合処理を
おこなう融合手段とを備えたことを特徴とする目標融合
装置。
1. To track a target, first to n-th (n is an integer of 2 or more) sensors for detecting target position information and the like, and the sensors installed corresponding to these sensors, The first to nth filters that sample the output to create a track, and the outputs of the first to nth filters as inputs, and the times at which the first to n-1th filters perform sampling, and A time difference detecting means for detecting a difference in sampling time of the nth filter;
~ Installed corresponding to the (n-1) th filter,
The output of the n-1th filter and the output of the time difference detecting means are input, and the track at the sampling time of the nth filter is predicted from the track which is the output of the first to n-1th filters. First to (n-1) th prediction means,
A target fusion apparatus comprising: a fusion unit that receives the outputs of the first to (n-1) th prediction units and the output of the nth filter and performs fusion processing of each track.
【請求項2】 目標の追尾を行うために、目標の位置情
報等を検出する第1〜第n(nは2以上の整数)のセン
サと、これらセンサに対応して設置され、上記センサの
出力からサンプリングを行ない航跡を作成する第1〜第
nのフィルタと、上記第1〜第nのフィルタの出力を入
力とし、これらフィルタのうちでその処理時刻において
最も卑近な時刻にサンプリングを行なう第i(1≦i≦
n)のフィルタがサンプリングをおこなう時間と、第i
のフィルタを除く第1〜第nのフィルタがサンプリング
を行なう時間の差を検出する時間差検出手段と、上記第
1〜第nのフィルタに対応して設置され、上記第1〜第
nのフィルタの出力と、上記時間差検出手段の出力を入
力とし、上記第1〜第nのフィルタの出力である航跡か
ら第iのフィルタのサンプリングの時刻における航跡の
予測を行なう第1〜第nの予測手段と、上記第1〜第n
の予測手段の出力と、第iのフィルタの出力を入力と
し、それぞれの航跡の融合処理をおこなう融合手段とを
備えたことを特徴とする目標融合装置。
2. In order to track a target, first to nth (n is an integer of 2 or more) sensors for detecting target position information and the like, and the sensors installed corresponding to these sensors, The first to nth filters for sampling the output to create a track and the outputs of the first to nth filters are used as inputs, and sampling is performed at the most prominent time of the processing time among these filters. i (1 ≦ i ≦
n) the sampling time of the filter and the i-th
The first to n-th filters except the above-mentioned filters are installed corresponding to the time difference detecting means for detecting the difference in sampling time and the first to n-th filters. An output and an output of the time difference detection means, and first to nth prediction means for predicting the track at the sampling time of the i-th filter from the track which is the output of the first to nth filters. , The first to nth
The target fusion apparatus, comprising: the output of the prediction means and the output of the i-th filter, and fusion means for performing fusion processing of each track.
JP4155140A 1992-06-15 1992-06-15 Target fusion device Expired - Fee Related JP2780569B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4155140A JP2780569B2 (en) 1992-06-15 1992-06-15 Target fusion device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4155140A JP2780569B2 (en) 1992-06-15 1992-06-15 Target fusion device

Publications (2)

Publication Number Publication Date
JPH05346464A true JPH05346464A (en) 1993-12-27
JP2780569B2 JP2780569B2 (en) 1998-07-30

Family

ID=15599427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4155140A Expired - Fee Related JP2780569B2 (en) 1992-06-15 1992-06-15 Target fusion device

Country Status (1)

Country Link
JP (1) JP2780569B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008203095A (en) * 2007-02-20 2008-09-04 Mitsubishi Electric Corp Device for estimating motion specification
JP2009204307A (en) * 2008-02-26 2009-09-10 Mitsubishi Electric Corp Tracking apparatus, program, and tracking method
JP2010237022A (en) * 2009-03-31 2010-10-21 Nec Corp Radar device, target assimilation determination processing method, and program
JP2017075881A (en) * 2015-10-16 2017-04-20 三菱電機株式会社 Object recognition integration apparatus and object recognition integration method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101833238B1 (en) * 2016-05-17 2018-03-02 엘아이지넥스원 주식회사 System and method for tracking target using asynchronous sensors

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008203095A (en) * 2007-02-20 2008-09-04 Mitsubishi Electric Corp Device for estimating motion specification
JP2009204307A (en) * 2008-02-26 2009-09-10 Mitsubishi Electric Corp Tracking apparatus, program, and tracking method
JP2010237022A (en) * 2009-03-31 2010-10-21 Nec Corp Radar device, target assimilation determination processing method, and program
JP2017075881A (en) * 2015-10-16 2017-04-20 三菱電機株式会社 Object recognition integration apparatus and object recognition integration method

Also Published As

Publication number Publication date
JP2780569B2 (en) 1998-07-30

Similar Documents

Publication Publication Date Title
JP2758063B2 (en) Search tracking apparatus and search tracking method
NO20002425L (en) Procedure for Diagnosing or Predicting Susceptibility to a T-Cell Median Disease in an Individual
CN101022505A (en) Method and device for automatically detecting moving target under complex background
Lei et al. Algorithms for time synchronization of wireless structural monitoring sensors
Liu et al. Unified deep learning architecture for the detection of all catenary support components
JPS6113169B2 (en)
JP2005354676A (en) Signal processing circuit and method or time delay detection apparatus and object position specification apparatus using the method
JPH05346464A (en) Uniting equipment of target
CN114595192A (en) Intelligent data real-time gathering method and system suitable for regional geological survey
JP2970028B2 (en) Vehicle dynamics measurement device
KR940004332A (en) Circuit test method and delay defect detector
Arneodo et al. Performance evaluation of a hit finding algorithm for the ICARUS detector
JPH03245081A (en) Main sensor determining apparatus
JP3521072B2 (en) Vehicle speed and vehicle length measurement method for moving objects
JP3176910B2 (en) Time series data feature detection system and prediction system
Yu Determination of the appropriate cutoff frequency in the digital filter data smoothing procedure
JP2001272458A (en) Data time-series merging method
JPS625491A (en) Detecting device for moving body
JPS5821584A (en) Specific signal detection system
JP3518046B2 (en) Information processing equipment
JPH10115678A (en) Equipment for correlation integration of target
RU2006946C1 (en) Device for mean value determination
SU1755307A1 (en) Device for correcting television image
JPH05114098A (en) Traffic flow detecting device
JPS5814986B2 (en) Simultaneous wave height analyzer

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees