JPH10170623A - Target position estimating device and signal processing method therefor - Google Patents

Target position estimating device and signal processing method therefor

Info

Publication number
JPH10170623A
JPH10170623A JP33192996A JP33192996A JPH10170623A JP H10170623 A JPH10170623 A JP H10170623A JP 33192996 A JP33192996 A JP 33192996A JP 33192996 A JP33192996 A JP 33192996A JP H10170623 A JPH10170623 A JP H10170623A
Authority
JP
Japan
Prior art keywords
target
angle
measured
sensors
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP33192996A
Other languages
Japanese (ja)
Other versions
JP3328526B2 (en
Inventor
Hisakazu Maniwa
久和 真庭
Yoshio Kosuge
義夫 小菅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP33192996A priority Critical patent/JP3328526B2/en
Publication of JPH10170623A publication Critical patent/JPH10170623A/en
Application granted granted Critical
Publication of JP3328526B2 publication Critical patent/JP3328526B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

PROBLEM TO BE SOLVED: To estimate a target position even on a target which does not perform constant velocity rectilinear motion by judging angle tracks of the same target measured by plural sensors, and estimating a target position on the basis of these. SOLUTION: Angle track preparing parts 51a and 51b respectively generate angle tracks Ya to Yd of targets l and 2 from azimuth measuring information of the targets 1 and 2 measured by respective sensors 2a and 2b. Angle track selecting parts 52 respectively take out the angle tracks Ya or Yb and Yc or Yd one by one from the preparing parts 51a and 51b, and output its combination to the same angle track judging part 53. Then, the same angle track judging part 53 estimates a radiation time pattern of a radio wave, the light, heat or the like radiated by its targets 1 and 2 from measuring time contained in the angle tracks Ya to Yd, and a related degree between patterns is compared with a preset threshold value, and among a combination of plural angle tracks, for example, the angle tracks Ya and Yc are judged as angle tracks of the same target, for example, the target 1. A position estimating part 54 estimates a position of the target 1 on the basis of these angle track Ya and Yc.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、断続的に、電
波、光、もしくは熱等を放射する目標の方位を測定し、
上記目標の位置を推定する目標位置推定装置及びその信
号処理方法に関し、特に、複数のセンサがそれぞれ測定
した複数の目標の方位測定結果から目標位置を推定する
際に、必ずしも等速直線運動ではない目標についても目
標の位置を推定することを可能にすることに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention measures the direction of a target that radiates radio waves, light, heat, or the like intermittently.
Regarding the target position estimating device and the signal processing method for estimating the position of the target, particularly, when estimating the target position from the azimuth measurement results of a plurality of targets respectively measured by a plurality of sensors, it is not necessarily a constant velocity linear motion. It also relates to making it possible to estimate the position of the target.

【0002】[0002]

【従来の技術】従来、この種の目標位置推定装置とし
て、例えば、Yaakov Bar−Shalom,X
iao−RongLi,“Estimation an
d Tracking:Principle Tech
niqes,and Software”,Artec
h House(1993)に示されたものがある。
2. Description of the Related Art Conventionally, as a target position estimating device of this kind, for example, Yaakov Bar-Shalom, X
iao-RongLi, “Estimation an
d Tracking: Principle Tech
niqes, and Software ", Artec
h House (1993).

【0003】従来の技術の説明に先立ち、以下に本願発
明と上記文献に示された目標位置推定装置に共通する信
号と用語の定義について説明する。同じセンサで取得さ
れる同じ目標の方位測定結果、その測定時刻等の測定情
報の集合を角度航跡と呼ぶ。測定情報には受信電力、輝
度などが含まれることもある。また、センサから測定目
標方向に伸ばした半直線を方位線と呼ぶ。
Prior to the description of the prior art, the definitions of signals and terms common to the present invention and the target position estimating apparatus disclosed in the above-mentioned document will be described below. A set of azimuth measurement results of the same target acquired by the same sensor and measurement information such as the measurement time is called an angle wake. The measurement information may include received power, luminance, and the like. A half line extending from the sensor in the measurement target direction is called an azimuth line.

【0004】また、複数のセンサにより一つの目標の方
位を測定すれば、三角測量などの方法により目標位置を
求めることができる。しかし、複数の目標の方位を、複
数ののセンサで測定する場合、以下のように目標位置の
推定ができない場合があり、これを虚像問題と呼ぶ。図
2を参照して、虚像問題の例について説明する。ここで
は説明を簡単にするために2つの目標1a,1bの方位
を、2つのセンサ2a,2bで測定する場合について説
明する。図2に示すように、センサ2aが目標1a,1
bの方位をある時刻に測定しており、センサ2bも同一
時刻に目標1a,1bの方位を測定しているとする。2
つのセンサ2a,2bがそれぞれ測定した2つの同一目
標についての方位線の組合わせ(D11,D21),
(D12,D22)の場合、それぞれの交点から2つの
目標1a,1bの位置を推定することができる。
[0004] If the orientation of one target is measured by a plurality of sensors, the target position can be obtained by a method such as triangulation. However, when the directions of a plurality of targets are measured by a plurality of sensors, it may not be possible to estimate the target positions as described below. This is called a virtual image problem. An example of the virtual image problem will be described with reference to FIG. Here, for simplicity of description, a case where the orientations of two targets 1a and 1b are measured by two sensors 2a and 2b will be described. As shown in FIG. 2, the sensor 2a detects the target 1a, 1
Assume that the direction of b is measured at a certain time, and the sensor 2b also measures the directions of the targets 1a and 1b at the same time. 2
Combination of azimuth lines for two identical targets measured by the two sensors 2a and 2b (D11, D21),
In the case of (D12, D22), the positions of the two targets 1a, 1b can be estimated from the respective intersections.

【0005】しかし、方位線の組合わせが同一目標につ
いて組合わせでない(D11,D22),(D12,D
21)の場合、それぞれの交点からは虚像が得られ、目
標1a,1bの位置を推定することができない。この虚
像の問題は、この例のように、方位線(方位角)のみを
測定する場合に限らず、方位角と仰角とを測定する場合
にも起りうる問題である。
However, combinations of azimuth lines are not combinations for the same target (D11, D22), (D12, D12).
In the case of 21), a virtual image is obtained from each intersection, and the positions of the targets 1a and 1b cannot be estimated. The problem of the virtual image is not limited to the case where only the azimuth line (azimuth angle) is measured as in this example, but also occurs when the azimuth angle and the elevation angle are measured.

【0006】図9は、従来の技術として先に示した文献
から想定される目標位置推定装置の同一角度航跡判定部
の構成ブロック図である。図9の構成と動作について説
明する。この従来の目標位置推定装置の目標位置及び速
度推定手段71では、2つのセンサで得られた2つの目
標の角度航跡Ya,Ycを入力として、この2つの角度
航跡Ya,Ycが同一の目標から得られ、且つその目標
は等速直線運動を行うものとの前提で、ニュートン・ラ
プソン法などを用いて、目標の位置及び速度Xを推定し
これを出力する。
FIG. 9 is a block diagram showing the configuration of the same-angle trajectory judging unit of a target position estimating apparatus assumed from the above-mentioned literature as a conventional technique. The configuration and operation of FIG. 9 will be described. In the target position and velocity estimating means 71 of the conventional target position estimating device, the two target angular trajectories Ya and Yc obtained by the two sensors are input, and the two angular trajectories Ya and Yc are determined from the same target. The position and velocity X of the target are estimated and output using the Newton-Raphson method or the like, assuming that the target is obtained and that the target performs a uniform linear motion.

【0007】評価値算出手段72では、上記角度航跡Y
a,Ycと、上記目標位置及び速度推定手段71からの
目標位置及び速度Xの推定値とを入力する。先ず、上記
目標位置及び速度Xの推定値から、各時刻において、各
センサから各目標を観測した方位を算出する。次に、上
記角度航跡に含まれる測定方位と、上記測定方位の測定
時刻と同時刻の目標位置及び速度Xから算出された方位
との差を、測定誤差の標準偏差で正規化し、その総和を
求める。角度航跡Yaに含まれる測定結果の数をNa、
角度航跡Ycに含まれる測定結果の数をNcとすると、
上記の求められた総和は、(Na+Nc)の自由度をも
つカイ2乗分布に従うと考えられる。よって、自由度
(Na+Nc)のカイ2乗分布の分布関数F(x)にお
いて、上記の求められた総和の値をxに代入した値を求
め、これを評価値Jとして出力する。
The evaluation value calculating means 72 calculates the angle trajectory Y
a, Yc and the estimated values of the target position and the speed X from the target position and speed estimating means 71 are input. First, the azimuth in which each sensor observes each target at each time is calculated from the target position and the estimated value of the speed X. Next, the difference between the measurement azimuth included in the angle wake and the azimuth calculated from the target position and the velocity X at the same time as the measurement time of the measurement azimuth is normalized by the standard deviation of the measurement error, and the sum thereof is calculated. Ask. The number of measurement results included in the angle track Ya is Na,
When the number of measurement results included in the angle track Yc is Nc,
It is considered that the sum obtained above follows a chi-square distribution having (Na + Nc) degrees of freedom. Therefore, in the distribution function F (x) of the chi-square distribution with the degree of freedom (Na + Nc), a value is obtained by substituting the value of the above-mentioned obtained sum into x, and this is output as the evaluation value J.

【0008】判定手段13では、上記評価値算出手段7
2の出力する評価値Jを入力として、この評価値Jと、
予め設定した閾値とを比較し、小さければ、上記の角度
航跡Ya,Ycが、同一目標から得られたものであると
判定し、逆に、大きければ、異なった目標から得られた
ものであると判定し、この判定結果Rを出力する。
[0008] In the judgment means 13, the evaluation value calculation means 7
2, the evaluation value J output by
The threshold trajectories Ya and Yc are determined to be obtained from the same target if they are smaller than predetermined thresholds, and conversely, if they are larger, they are obtained from different targets. And outputs the determination result R.

【0009】[0009]

【発明が解決しようとする課題】従来の目標位置推定装
置は、以上のように構成されていて、目標の位置推定を
行なうには、上記目標は近似的に等速直線運動を行なっ
ている必要があり、必ずしも等速直線運動を行なってい
ない目標から得られた角度航跡は、同一目標から得られ
たものであると判定することができず、目標の位置推定
が行えないとう課題があった。
The conventional target position estimating apparatus is configured as described above. In order to estimate the position of a target, the target needs to perform approximately linear motion at approximately constant velocity. There is a problem that the angle wake obtained from a target that does not necessarily perform a constant velocity linear motion cannot be determined to be obtained from the same target, and the position of the target cannot be estimated.

【0010】この発明は、上記のような課題を解決する
ためになされたもので、目標が、断続的に、電波、光、
もしくは熱等を放射する場合に、上記目標が必ずしも等
速直線運動を行なっていなくとも、上記目標の位置推定
をすることが可能な目標位置推定装置及びその信号処理
方法を得ることを目的とする。
[0010] The present invention has been made to solve the above-mentioned problems, and the target is to intermittently control radio waves, light,
Alternatively, it is an object of the present invention to obtain a target position estimating device and a signal processing method thereof capable of estimating the position of the target even when the target does not necessarily perform a constant-velocity linear motion when radiating heat or the like. .

【0011】[0011]

【課題を解決するための手段】上記の目的を達成するた
めに、請求項1に係る発明の目標位置推定装置は、断続
的に、電波、光、もしくは熱等を放射する目標の方位を
測定し、上記目標の位置を推定する目標位置推定装置で
あって、複数のセンサがそれぞれ測定した複数の目標の
方位測定結果から上記目標の角度航跡を生成する角度航
跡作成部と、上記の複数のセンサがそれぞれ測定した上
記目標の角度航跡のうち同一目標の角度航跡を判定する
同一角度航跡判定部と、上記の複数のセンサがそれぞれ
測定した同一目標の角度航跡を基に上記目標の位置を推
定する位置推定部と、を備えたことを特徴とする。
In order to achieve the above object, a target position estimating apparatus according to the first aspect of the present invention intermittently measures a direction of a target that radiates radio waves, light, heat, or the like. And a target position estimating device for estimating the position of the target, wherein the angle trajectory creating unit that generates the angle trajectory of the target from the azimuth measurement results of the plurality of targets respectively measured by the plurality of sensors; and A same-angle trajectory determination unit that determines the same target angle trajectory among the target angle trajectories measured by the sensors, and estimates the position of the target based on the same target angle trajectory respectively measured by the plurality of sensors. And a position estimating unit that performs the operation.

【0012】また、請求項2に係る発明の目標位置推定
装置は、請求項1記載の目標位置推定装置の複数のセン
サがそれぞれ測定した複数の目標の角度航跡のうち同一
目標の角度航跡を判定する同一角度航跡判定部が以下の
要素を備えたことを特徴とする。 (1)複数のセンサがそれぞれ測定した上記目標の角度
航跡に含まれる測定時刻から上記目標が放射している電
波、光、もしくは熱等の放射時間パターンを推定する放
射時間パターン算出手段、(2)上記複数のセンサがそ
れぞれ測定した上記目標の角度航跡から推定された放射
時間パターン間の関連度合いを算出する放射時間パター
ン間関連度合い算出手段、(3)上記複数のセンサがそ
れぞれ測定した上記目標の角度航跡から推定された放射
時間パターン間の関連度合いを、予め設定した閾値と比
較して、同一目標の角度航跡を判定する判定手段。
According to a second aspect of the present invention, there is provided a target position estimating apparatus for judging an angle trajectory of the same target among a plurality of angle trajectories measured by a plurality of sensors of the target position estimating apparatus according to the first aspect. The same-angle wake determining unit includes the following elements. (1) radiation time pattern calculation means for estimating a radiation time pattern of radio waves, light, heat, or the like radiated from the target from measurement times included in the angle wakes of the target measured by the plurality of sensors, (2) (3) means for calculating the degree of association between emission time patterns estimated from the angular wakes of the target measured by the plurality of sensors, respectively; (3) the target measured by the plurality of sensors. Determination means for comparing the degree of association between the emission time patterns estimated from the angle trajectory with a preset threshold to determine the angle trajectory of the same target.

【0013】また、請求項3に係る発明の目標位置推定
信号処理方法は、断続的に、電波、光、もしくは熱等を
放射する目標の方位を測定し、それら目標の位置を推定
する目標位置推定信号処理方法であって、複数のセンサ
がそれぞれ測定した複数の目標の方位測定結果から上記
目標の角度航跡を生成するステップと、上記の複数のセ
ンサがそれぞれ測定した上記目標の角度航跡のうち同一
目標の角度航跡を判定するステップと、上記の複数のセ
ンサがそれぞれ測定した同一目標の角度航跡を基に上記
目標の位置を推定するステップと、を備えたことを特徴
とする。
According to a third aspect of the present invention, there is provided a target position estimating signal processing method comprising the steps of: intermittently measuring directions of targets emitting radio waves, light, heat, or the like, and estimating the positions of the targets. An estimation signal processing method, comprising: generating an angle trajectory of the target from the azimuth measurement results of a plurality of targets respectively measured by a plurality of sensors; and The method further comprises the steps of: determining an angular track of the same target; and estimating a position of the target based on the angular tracks of the same target measured by the plurality of sensors.

【0014】また、請求項4に係る発明の目標位置推定
信号処理方法は、請求項3記載の目標位置推定信号処理
方法の複数のセンサがそれぞれ測定した複数の目標の角
度航跡のうち同一目標の角度航跡を判定するステップが
以下のステップを備えたことを特徴とする、(1)複数
のセンサがそれぞれ測定した上記目標の角度航跡に含ま
れる測定時刻からその目標が放射している電波、光、も
しくは熱等の放射時間パターンを推定するステップ、
(2)上記複数のセンサがそれぞれ測定した上記目標の
角度航跡から推定された放射時間パターン間の関連度合
いを算出するステップ、(3)上記複数のセンサがそれ
ぞれ測定した上記目標の角度航跡から推定された放射時
間パターン間の関連度合いを、予め設定した閾値と比較
して、同一目標の角度航跡を判定するステップ。
According to a fourth aspect of the present invention, there is provided a target position estimating signal processing method according to the third aspect of the present invention, wherein a plurality of sensors measure angular trajectories of the same target. The step of determining an angle track includes the following steps: (1) radio waves and light emitted by the target from measurement times included in the target angle track measured by the plurality of sensors, respectively. Or estimating a radiation time pattern such as heat,
(2) calculating the degree of association between the radiation time patterns estimated from the angular trajectory of the target measured by the plurality of sensors, respectively; (3) estimating from the angular trajectory of the target measured by the plurality of sensors. Comparing the determined degree of association between the emission time patterns with a preset threshold to determine the angular wake of the same target.

【0015】また、請求項5に係る発明の目標位置推定
装置は、断続的に、電波、光、もしくは熱等を放射する
目標の方位を測定し、上記目標の位置を推定する目標位
置推定装置であって、複数のセンサがそれぞれ測定した
複数の目標の方位測定情報を目標別に振り分ける測定デ
ータ分離部と、上記の方位測定情報を基に上記目標の位
置と上記目標が実在するか否かの実像評価値とを算出し
新たな方位測定情報が入力される度に更新する実像評価
値算出部と、上記の実像評価値を基に実在する目標を選
択する実像選択部と、を備えたことを特徴とする。
According to a fifth aspect of the present invention, there is provided a target position estimating apparatus for intermittently measuring a direction of a target that radiates radio waves, light, heat, or the like, and estimating the position of the target. A measurement data separation unit that distributes the azimuth measurement information of a plurality of targets measured by a plurality of sensors for each target, and whether the target position and the target actually exist based on the azimuth measurement information. A real image evaluation value calculation unit that calculates a real image evaluation value and updates each time new azimuth measurement information is input; and a real image selection unit that selects a real target based on the real image evaluation value. It is characterized by.

【0016】[0016]

【発明の実施の形態】以下、この発明の実施の形態につ
いて説明する。実施の形態1.図1は、この発明の目標
位置推定装置の実施の形態1を示す構成ブロック図であ
る。ここでは、目標が、断続的に、電波、光、もしくは
熱等を放射する場合に、上記目標が必ずしも等速直線運
動を行なっていなくとも、上記目標の位置推定をするこ
とが可能な目標位置推定装置について説明する。
Embodiments of the present invention will be described below. Embodiment 1 FIG. FIG. 1 is a block diagram showing the configuration of a target position estimating apparatus according to a first embodiment of the present invention. Here, when the target emits radio waves, light, heat, or the like intermittently, the target position can be estimated even if the target does not necessarily perform linear motion at a constant speed. The estimating device will be described.

【0017】図1において、1a,1bは目標、2a,
2bは目標の方位等を測定し測定情報を得るセンサ、5
1a,51bは上記の各センサがそれぞれ測定した上記
目標の方位測定情報から目標の角度航跡Ya,Ybと、
Yc,Ydを生成する角度航跡作成部、52は各センサ
に対応する上記角度航跡作成部から1つずつ取り出した
角度航跡の組合わせを同一角度航跡判定部53に出力す
る角度航跡選択部、53は複数の目標の角度航跡の組合
わせのうち同一目標の角度航跡を判定する同一角度航跡
判定部、54は複数のセンサがそれぞれ測定した目標の
角度航跡のうち同一目標の角度航跡を基に上記目標の位
置を推定する位置推定部である。
In FIG. 1, reference numerals 1a and 1b denote targets, 2a,
2b is a sensor that measures the direction of the target and obtains measurement information;
Reference numerals 1a and 51b denote target angle trajectories Ya and Yb based on the target direction measurement information measured by the sensors, respectively.
An angle track generation unit for generating Yc and Yd is an angle track selection unit that outputs a combination of angle tracks extracted one by one from the angle track generation unit corresponding to each sensor to the same angle track determination unit 53. Is a same-angle trajectory determination unit that determines the same target angle trajectory among combinations of a plurality of target angle trajectories, and 54 is based on the same target angular trajectory among target angle trajectories measured by a plurality of sensors. It is a position estimating unit that estimates the position of the target.

【0018】図2は、複数のセンサがそれぞれある時刻
に測定した2つの目標の方位線のうち同一目標の方位線
の組み合わせを見つけて、その交点から実像である2つ
の目標1a,1bの位置を推定することができる原理を
示している。図3は、複数のセンサがそれぞれ測定した
2つの目標の角度航跡のうち同一目標の角度航跡を基
に、2つの実像の位置を推定する原理を説明している。
ここで図2との相違は、複数のセンサがそれぞれ複数回
にわたって測定した目標の方位測定情報から目標の角度
航跡(方位線の束)を生成し、目標の位置を推定してい
る点である。
FIG. 2 shows the position of two targets 1a and 1b which are real images from the intersection of two combinations of the same target azimuth line among the two target azimuth lines measured by a plurality of sensors at a certain time. 2 shows the principle by which can be estimated. FIG. 3 illustrates the principle of estimating the positions of two real images based on the same target angle track among two target angle tracks measured by a plurality of sensors.
Here, the difference from FIG. 2 is that a plurality of sensors each generate a target angle trajectory (a bundle of azimuth lines) from the azimuth measurement information of the target measured a plurality of times to estimate the position of the target. .

【0019】以下に、図1の同一角度航跡判定部53の
構成と動作について説明する。図4は図1の同一角度航
跡判定部の内部の構成ブロック図である。図5は放射時
間パターンを説明する図である。図4において、同一角
度航跡判定部に入力される角度航跡をYa,Ycで表
し、この角度航跡に含まれるi番目の方位測定結果で
は、目標方位yi とその測定時刻ti が得られているも
のとする。この場合、角度航跡Yaに含まれる測定結果
がNa回であると、Yaは、式(1)のようなNa行2
列の行列で表される。
The configuration and operation of the same-angle wake determination unit 53 shown in FIG. 1 will be described below. FIG. 4 is a block diagram showing the internal configuration of the same-angle wake determination unit in FIG. FIG. 5 is a diagram illustrating a radiation time pattern. In FIG. 4, the angle trajectories input to the same angle trajectory determination unit are represented by Ya and Yc, and the i-th azimuth measurement result included in the angle trajectory includes the target azimuth yi and the measurement time ti. And In this case, if the measurement result included in the angle wake Ya is Na times, Ya is calculated as Na row 2 as shown in Expression (1).
It is represented by a matrix of columns.

【0020】[0020]

【数1】 (Equation 1)

【0021】放射時間パターン算出手段5aでは、角度
航跡Yaに含まれる測定時刻ti から、放射時間パター
ンPa(t)を算出する。この放射時間パターンPa
(t)は、例えば、時刻t1 に方位測定結果が得られた
とすると、この方位測定結果が示す目標が、各時刻に、
電波、光、もしくは熱等を放射している確率は、図5
(a)に示すように、測定時刻t1 では、確率1、そこ
から時間が離れるにつれて確率が低くなると考えられ
る。この各時刻での確率を図5(a)に表したパターン
を、放射時間パターンとすれば、図5(a)は一つの方
位測定結果から推定される放射時間パターンである。
The radiation time pattern calculating means 5a calculates a radiation time pattern Pa (t) from the measurement time ti included in the angle track Ya. This radiation time pattern Pa
(T) is that, for example, if the direction measurement result is obtained at time t1, the target indicated by the direction measurement result is:
The probability of radiating radio waves, light, or heat is shown in FIG.
As shown in (a), it is considered that the probability is 1 at the measurement time t1, and the probability becomes lower as the time goes away therefrom. If the pattern expressing the probability at each time is shown in FIG. 5A as an emission time pattern, FIG. 5A shows an emission time pattern estimated from one azimuth measurement result.

【0022】よって、角度航跡Yaは、測定結果の集合
であるので、各測定結果から推測される放射時間パター
ンから、各時刻において、積を求めたり、MAX値を選
択することによって所要の放射時間パターンが算出され
る。例えば、図5(b)に示すように、測定時刻t1 ,
t2 ,t3 の測定結果から求められる各放射時間パター
ンのMAX値を選択して求めた放射時間パターンを得る
ことができる。放射時間パターン算出手段はこれを放射
時間パターンPa(t)として出力する。放射時間パタ
ーン算出手段5bでは、角度航跡Ycについて、同様に
放射時間パターンPc(t)を算出することができる。
Therefore, since the angle trajectory Ya is a set of measurement results, the required radiation time is obtained by calculating the product or selecting the MAX value at each time from the radiation time pattern estimated from each measurement result. A pattern is calculated. For example, as shown in FIG.
The emission time pattern obtained by selecting the MAX value of each emission time pattern obtained from the measurement results of t2 and t3 can be obtained. The radiation time pattern calculation means outputs this as a radiation time pattern Pa (t). The radiation time pattern calculation means 5b can similarly calculate the radiation time pattern Pc (t) for the angle wake Yc.

【0023】放射時間パターン間の関連度算出手段6で
は、オーバラインが時間平均を表すものとして、例え
ば、入力された2つの放射時間パターンPa(t),P
c(t)として、その相互相関関数を式(2)を求める
ことによって、2つの放射時間パターンの一致性を求
め、これを評価値Jとして算出する。
In the degree-of-association calculating means 6 between the emission time patterns, the two emission time patterns Pa (t), P (t)
By determining the cross-correlation function as Expression (2) as c (t), the coincidence between the two emission time patterns is determined, and this is calculated as the evaluation value J.

【0024】[0024]

【数2】 (Equation 2)

【0025】但し、目標が電波、熱、及び光等を全方向
に放射する場合は、相互相関関数のラグτは0がよいと
考えられるので、J(0)をJとし、回転式のアンテナ
などを用いて放射していることが考えられる場合は、最
も相互相関関数が大きくなるラグτを求め、このτでの
相互相関関数J(τ)を評価値Jとして求めることが可
能である。
However, when the target radiates radio waves, heat, light, and the like in all directions, it is considered that the lag τ of the cross-correlation function is good. When it is conceivable that the radiation is performed by using, for example, it is possible to obtain the lag τ at which the cross-correlation function becomes the largest, and obtain the cross-correlation function J (τ) at this τ as the evaluation value J.

【0026】また、観測時間をTとして、式(3)を求
めることによって、これを評価値Jとするこも可能であ
る。
Further, by setting the observation time to T and obtaining the equation (3), this can be used as the evaluation value J.

【0027】[0027]

【数3】 (Equation 3)

【0028】また、角度航跡Yaに含まれる測定結果の
数Naと、角度航跡Ycに含まれる測定結果の数Ncと
に応じて、算出された評価値Jを予め定めたように変更
し、Na、Ncによって評価値の重みづけをすることも
考えられる。
Further, according to the number Na of measurement results included in the angle track Ya and the number Nc of measurement results included in the angle track Yc, the calculated evaluation value J is changed in a predetermined manner, , Nc.

【0029】判定手段13では、放射時間パターン間関
連度算出手段6の出力する評価値Jを入力として、この
評価値Jと、予め設定した閾値とを比較する。閾値より
も大きければ、入力された2つの角度航跡Ya,Ycは
同一目標につての角度航跡であると判定し、閾値よりも
小さければ、それらは異なる目標についての角度航跡で
あると判定する。
The judgment means 13 receives the evaluation value J output from the radiation time pattern relation degree calculation means 6 as an input and compares the evaluation value J with a preset threshold value. If it is larger than the threshold value, it is determined that the two input angle trajectories Ya and Yc are angle trajectories for the same target, and if it is smaller than the threshold value, it is determined that they are angular trajectories for different targets.

【0030】実施の形態2.図6は、この発明の実施の
形態2を示すフローチャートである。断続的に、電波、
光、もしくは熱等を放射する複数の目標の方位を測定
し、それら目標の位置を推定する目標位置推定信号処理
方法であって、先ずステップ1では、複数のセンサがそ
れぞれ測定した複数の目標の方位測定結果から目標の角
度航跡を生成し、次にステップ2では、上記の複数のセ
ンサがそれぞれ測定した上記目標の角度航跡のうち同一
目標の角度航跡を判定し、次にステップ3では、上記の
複数のセンサがそれぞれ測定した同一目標の角度航跡を
基に目標の位置を推定する。
Embodiment 2 FIG. FIG. 6 is a flowchart showing the second embodiment of the present invention. Intermittently, radio waves,
A target position estimation signal processing method for measuring directions of a plurality of targets that emit light, heat, or the like, and estimating the positions of the targets. First, in step 1, a plurality of targets measured by a plurality of sensors are used. A target angle trajectory is generated from the azimuth measurement result. Next, in step 2, the same target angle trajectory is determined among the target angle trajectories measured by the plurality of sensors. Estimate the position of the target based on the angle trajectory of the same target measured by each of the plurality of sensors.

【0031】上記のステップ1,2,3のそれぞれは、
この発明の実施の形態1で説明した動作の説明と同様で
ある。
Each of the above steps 1, 2, 3
The operation is the same as that described in the first embodiment of the present invention.

【0032】図7は、図6のフローチャートのステップ
2(ST2)の内部のフローチャートである。即ち、図
6の複数のセンサがそれぞれ測定した目標の角度航跡の
うち同一目標の角度航跡を判定するステップ2(ST
2)の内部のフローチャートである。先ずステップ21
では、複数のセンサがそれぞれ測定した複数の目標の角
度航跡に含まれる測定時刻からその目標が放射している
電波、光、もしくは熱等の放射時間パターンを推定し、
次にステップ22では、上記複数のセンサがそれぞれ測
定した上記目標の角度航跡から推定された放射時間パタ
ーン間の関連度合いを算出し、次にステップ23では、
上記複数のセンサがそれぞれ測定した上記目標の角度航
跡から推定された放射時間パターン間の関連度合いを、
予め設定した閾値と比較して、同一目標の角度航跡を判
定する。
FIG. 7 is an internal flowchart of step 2 (ST2) of the flowchart of FIG. That is, step 2 (ST) in which the angular trajectory of the same target is determined among the angular trajectories of the target measured by the plurality of sensors in FIG.
It is a flowchart inside 2). First, step 21
In, from the measurement time included in the angular wake of a plurality of targets each measured by a plurality of sensors, estimating a radiation time pattern such as radio waves, light, or heat emitted by the target,
Next, in step 22, the degree of association between the radiation time patterns estimated from the angle wakes of the target measured by the plurality of sensors is calculated, and then in step 23,
The degree of association between the radiation time patterns estimated from the target angle wake measured by the plurality of sensors,
The angle wake of the same target is determined by comparing with a preset threshold value.

【0033】上記のステップ21,22,23のそれぞ
れは、この発明の実施の形態1で説明した動作の説明と
同様である。
Each of the above steps 21, 22, and 23 is the same as the description of the operation described in the first embodiment of the present invention.

【0034】実施の形態3.図8は、この発明の目標位
置推定装置の実施の形態3を示す構成ブロック図であ
る。図8において、1a,1bは目標、2a,2bは上
記目標の方位等を測定し方位測定情報を得るセンサであ
る。
Embodiment 3 FIG. 8 is a configuration block diagram showing Embodiment 3 of the target position estimating device of the present invention. 8, reference numerals 1a and 1b denote targets, and reference numerals 2a and 2b denote sensors for measuring the azimuth of the target and obtaining azimuth measurement information.

【0035】81a,81bはそれぞれのセンサが新た
に出力する目標の方位測定情報を、目標毎に振り分け、
実像評価値算出部に出力する測定データ分離部である。
図8の例で、測定データ分離部81aについては、2つ
の目標の方位測定情報Wa(ia )(ia =1,2,
…),Wb(ib )(ib =1,2,…)をそれぞれ目
標毎に振り分け、実像評価値算出部82a,82bと、
82c,82dに出力する。
81a and 81b distribute the target azimuth measurement information newly output by each sensor for each target.
This is a measurement data separation unit that outputs to the real image evaluation value calculation unit.
In the example of FIG. 8, the measurement data separation unit 81a has two target orientation measurement information Wa (ia) (ia = 1, 2, 2).
..) And Wb (ib) (ib = 1, 2,...) Are allocated to the respective targets, and real image evaluation value calculation units 82a and 82b
82c and 82d.

【0036】82a,82b,82c,82dは各セン
サに対応する上記測定データ分離部から入力された方位
測定情報から、目標位置と、この目標が実在する目標で
あるか否かを評価する実像評価値とを算出し更新する実
像評価値算出部である。図8の例で、実像評価値算出部
82aについては、2つのセンサに対応する上記測定デ
ータ分離部81a,81bから入力された方位測定情報
Wa(ia ),Wc(ic )から、目標位置P1(i)
と、この目標が実在する目標であるか否かを評価する実
像評価値J1(i)とを算出し更新する。
Reference numerals 82a, 82b, 82c, and 82d denote a target position and a real image evaluation for evaluating whether or not the target is a real target based on the azimuth measurement information input from the measurement data separation unit corresponding to each sensor. A real image evaluation value calculation unit that calculates and updates the value. In the example of FIG. 8, the real image evaluation value calculation unit 82a calculates the target position P1 from the azimuth measurement information Wa (ia) and Wc (ic) input from the measurement data separation units 81a and 81b corresponding to the two sensors. (I)
And a real image evaluation value J1 (i) for evaluating whether or not this target is a real target is calculated and updated.

【0037】85は上記実像評価値から、その実像評価
値をもつ目標が実在するか否かを判定し、実在すると判
定した場合、これに対応する目標位置を出力し、実在し
ないと判定した場合、これに対応する目標位置を出力し
ない実像選択部である。
Reference numeral 85 indicates whether or not a target having the real image evaluation value actually exists based on the real image evaluation value. If it is determined that the target exists, a target position corresponding to the target is output, and if it is determined that the target does not exist. , A real image selection unit that does not output a corresponding target position.

【0038】図8の動作について説明する。先ず、上記
測定データ分離部81a,81bでは、各センサで新た
に得られた方位測定情報が、その前に得られたどの方位
測定情報と同じ目標を測定したものであるかを判定し、
例えば、Wa(ia )として前に出力した方位測定情報
と同じ目標を測定していると判定されれば、ia に1を
加えてWa(ia )として出力する。これをセンサから
新しい方位測定情報が入力される度に繰り返す。
The operation of FIG. 8 will be described. First, the measurement data separation units 81a and 81b determine which azimuth measurement information newly obtained by each sensor has measured the same target as which azimuth measurement information obtained before,
For example, if it is determined that the same target as the azimuth measurement information previously output as Wa (ia) is being measured, 1 is added to ia and output as Wa (ia). This is repeated each time new azimuth measurement information is input from the sensor.

【0039】また、実像評価値算出部82a,82b,
82c,82dでは、新しい方位測定情報が入力される
度に、目標位置を更新する。この更新方法としては、例
えばカルマンフィルタ等を用いた追尾フィルタが用いら
れる。但しこの場合、最初に目標位置を求めるために
は、異なるセンサからの方位測定情報が入るまでは処理
を行なわず、入った際には三角測量等を用いて目標位置
を求めることとなる。
The real image evaluation value calculation units 82a, 82b,
In 82c and 82d, the target position is updated each time new azimuth measurement information is input. As the updating method, for example, a tracking filter using a Kalman filter or the like is used. However, in this case, in order to obtain the target position first, the process is not performed until the azimuth measurement information from different sensors is input, and when it is input, the target position is obtained using triangulation or the like.

【0040】実像評価値Jは、入力された方位測定情報
の時刻を基に算出し、更新される。この実像評価値も、
目標位置と同様に、異なるセンサからの方位測定情報が
入るまでは処理を行なわず、入った際に、例えば実施の
形態1で説明したような放射時間パターンを求め、式
(2)もしくは式(3)から算出される。そして、新し
い方位測定情報が入力される度に、放射時間パターンと
実像評価値を算出しなおし、更新する。
The real image evaluation value J is calculated and updated based on the time of the input azimuth measurement information. This real image evaluation value also
Similarly to the target position, no processing is performed until azimuth measurement information from a different sensor is input. When the azimuth measurement information is input, a radiation time pattern as described in, for example, Embodiment 1 is obtained, and the expression (2) or the expression ( It is calculated from 3). Each time new azimuth measurement information is input, the emission time pattern and the real image evaluation value are recalculated and updated.

【0041】また、放射時間パターンを算出しない実像
評価値Jの算出方法としては、例えば、実像評価値算出
部82aの場合であれば、測定データ分離部81aから
新たに、Wa(i)という方位測定情報が得られ、測定
データ分離部81bから得られた最新の方位測定情報が
Wc(i)であった場合、このWa(i),Wc(i)
の2つの方位測定情報が得られた時刻の差を求め、この
差が小さければ実像評価値が大きくなるように、大きけ
れば実像評価値が小さくなるように更新していくなどの
方法もある。
As a method of calculating the real image evaluation value J for which the radiation time pattern is not calculated, for example, in the case of the real image evaluation value calculation unit 82a, the measurement data separation unit 81a newly adds the azimuth Wa (i). When the measurement information is obtained and the latest azimuth measurement information obtained from the measurement data separation unit 81b is Wc (i), the Wa (i) and Wc (i)
There is also a method of calculating the difference between the times when the two azimuth measurement information are obtained, and updating the real image evaluation value so that the difference is small, and the real image evaluation value is small if the difference is large.

【0042】実像選択部85では、各実像評価値算出部
の出力する実像評価値が、例えば、式(3)により算出
されている場合、所定の閾値以上であれば、実像である
と判定する等により、実像か虚像かの判断を行ない、実
像と判断された目標の目標位置のみを選択し出力する。
また、実像か虚像かの判定には、同じ方位測定情報を用
いた目標である(例えば、P1(j)に対してP2
(j)は同じ方位測定情報Wa(i)を用いている)場
合、どちらかが虚像であるという条件を用いることも考
えられる。
The real image selecting section 85 determines that the image is a real image if the real image evaluation value output from each real image evaluation value calculating section is equal to or larger than a predetermined threshold value, for example, calculated by the equation (3). For example, it is determined whether the image is a real image or a virtual image, and only the target position of the target determined as the real image is selected and output.
In addition, a target using the same azimuth measurement information is used to determine whether the image is a real image or a virtual image (for example, P2 with respect to P1 (j).
(J) uses the same azimuth measurement information Wa (i)), it is conceivable to use the condition that either one is a virtual image.

【0043】[0043]

【発明の効果】以上のように、請求項1に係わる発明に
よれば、目標が断続的に、電波、光、もしくは熱等を放
射する場合、複数のセンサがそれぞれ測定した複数の目
標の方位測定結果から上記目標の角度航跡を生成する角
度航跡作成部と、上記の複数のセンサがそれぞれ測定し
た上記目標の角度航跡のうち同一目標の角度航跡を判定
する同一角度航跡判定部と、上記の複数のセンサがそれ
ぞれ測定した同一目標の角度航跡を基に目標の位置を推
定する位置推定部と、を備えたことにより、目標が必ず
しも等速直線運動を行なっていなくとも、複数のセンサ
がそれぞれ測定した目標の角度航跡のうち同一目標の角
度航跡を判定することができ、目標位置を推定すること
が可能な目標位置推定装置を得ることができる。
As described above, according to the first aspect of the present invention, when the target emits radio waves, light, heat, or the like intermittently, the direction of the plurality of targets measured by the plurality of sensors is determined. An angle track generation unit that generates the angle track of the target from the measurement result, and an identical angle track determination unit that determines the angle track of the same target among the angle tracks of the target measured by the plurality of sensors. And a position estimating unit for estimating the position of the target based on the angle trajectory of the same target measured by each of the plurality of sensors. The angle trajectory of the same target can be determined from the measured angle trajectories of the target, and a target position estimating device capable of estimating the target position can be obtained.

【0044】また、請求項2に係わる発明によれば、請
求項1記載の目標位置推定装置の複数のセンサがそれぞ
れ測定した複数の目標の角度航跡のうち同一目標の角度
航跡を判定する同一角度航跡判定部が、以下の要素を備
えたことにより、目標が必ずしも等速直線運動を行なっ
ていなくとも、複数のセンサがそれぞれ測定した上記目
標の角度航跡のうち同一目標の角度航跡を判定すること
ができ目標位置を推定することが可能な目標位置推定装
置を得ることができる。 (1)複数のセンサがそれぞれ測定した上記目標の角度
航跡に含まれる測定時刻からその目標が放射している電
波、光、もしくは熱等の放射時間パターンを推定する放
射時間パターン算出手段、(2)上記複数のセンサがそ
れぞれ測定した上記目標の角度航跡から推定された放射
時間パターン間の関連度合いを算出する放射時間パター
ン間関連度合い算出手段、(3)上記複数のセンサがそ
れぞれ測定した上記目標の角度航跡から推定された放射
時間パターン間の関連度合いを、予め設定した閾値と比
較して、同一目標の角度航跡を判定する判定手段。
According to a second aspect of the present invention, a plurality of sensors of the target position estimating device according to the first aspect determine the same target angle trajectory among the plurality of target angle trajectories respectively measured. Since the track determination unit includes the following elements, it is possible to determine the same target angle track among the target angle tracks measured by the plurality of sensors, even if the target does not necessarily perform linear motion at a constant speed. Thus, a target position estimating device capable of estimating the target position can be obtained. (1) radiation time pattern calculation means for estimating a radiation time pattern of radio waves, light, heat, or the like radiated by the target from measurement times included in the angle wake of the target measured by the plurality of sensors, (2) (3) means for calculating the degree of association between emission time patterns estimated from the angular wakes of the target measured by the plurality of sensors, respectively; (3) the target measured by the plurality of sensors. Determination means for comparing the degree of association between the emission time patterns estimated from the angle trajectory with a preset threshold to determine the angle trajectory of the same target.

【0045】また、請求項3に係わる発明によれば、目
標が断続的に、電波、光、もしくは熱等を放射する場
合、複数のセンサがそれぞれ測定した複数の目標の方位
測定結果から上記目標の角度航跡を生成するステップ
と、上記の複数のセンサがそれぞれ測定した上記目標の
角度航跡のうち同一目標の角度航跡を判定するステップ
と、上記の複数のセンサがそれぞれ測定した同一目標の
角度航跡を基に目標の位置を推定するステップと、を備
えたことにより、目標が必ずしも等速直線運動を行なっ
ていなくとも、複数のセンサがそれぞれ測定した上記目
標の角度航跡のうち同一目標の角度航跡を判定すること
ができ目標位置を推定することが可能な目標位置推定信
号処理方法を得ることができる。
According to the third aspect of the present invention, when the target emits radio waves, light, heat, or the like intermittently, the target is measured based on the azimuth measurement results of the plurality of targets measured by the plurality of sensors. Generating an angle track of the same target; determining the angle track of the same target among the target angle tracks measured by the plurality of sensors; and calculating the angle track of the same target measured by the plurality of sensors. Estimating the position of the target on the basis of the angle trajectory of the same target among the angular trajectories of the target measured by a plurality of sensors, even if the target does not necessarily perform a constant velocity linear motion. And a target position estimation signal processing method capable of estimating the target position can be obtained.

【0046】また、請求項4に係わる発明によれば、請
求項3記載の目標位置推定信号処理方法の複数のセンサ
がそれぞれ測定した複数の目標の角度航跡のうち同一目
標の角度航跡を判定するステップが、以下のステップを
備えたことにより、目標が必ずしも等速直線運動を行な
っていなくとも、複数のセンサがそれぞれ測定した上記
目標の角度航跡のうち同一目標の角度航跡を判定するこ
とができ目標位置を推定することが可能な目標位置推定
信号処理方法を得ることができる。 (1)複数のセンサがそれぞれ測定した上記目標の角度
航跡に含まれる測定時刻からその目標が放射している電
波、光、もしくは熱等の放射時間パターンを推定するス
テップ、(2)上記複数のセンサがそれぞれ測定した上
記目標の角度航跡から推定された放射時間パターン間の
関連度合いを算出するステップ、(3)上記複数のセン
サがそれぞれ測定した上記目標の角度航跡から推定され
た放射時間パターン間の関連度合いを、予め設定した閾
値と比較して、同一目標の角度航跡を判定するステッ
プ。
According to the fourth aspect of the present invention, the angle trajectory of the same target is determined from the angular trajectories of the plurality of targets measured by the plurality of sensors in the target position estimation signal processing method according to the third aspect. Since the steps include the following steps, the same target angular trajectory can be determined among the target angular trajectories measured by the plurality of sensors, even if the target does not necessarily perform a constant velocity linear motion. A target position estimation signal processing method capable of estimating a target position can be obtained. (1) estimating a radiation time pattern of radio waves, light, heat, or the like radiated by the target from measurement times included in the angular wakes of the target measured by the plurality of sensors, respectively; Calculating the degree of association between the radiation time patterns estimated from the angular trajectories of the target respectively measured by the sensors; (3) between the radiation time patterns estimated from the angular trajectories of the target respectively measured by the plurality of sensors; Determining the angle track of the same target by comparing the degree of association with a preset threshold value.

【0047】また、請求項5に係わる発明によれば、目
標が断続的に、電波、光、もしくは熱等を放射する場
合、複数のセンサがそれぞれ測定した複数の目標の方位
測定情報を、目標別に振り分ける測定データ分離部と、
上記の方位測定情報から上記目標の位置と目標が実在す
るか否かの実像評価値とを算出し新たな方位測定情報に
より更新する実像評価値算出部と、上記の実像評価値か
ら実在する目標を選択する実像選択部と、を備えたこと
により、目標が必ずしも等速直線運動を行なっていなく
とも、複数のセンサがそれぞれ測定した目標の方位測定
情報を基に、現在推定している目標の位置が実像である
かを判定して、リアルタイムに実像を選択することが可
能な目標位置推定装置を得ることができる。
According to the fifth aspect of the invention, when the target emits radio waves, light, heat, or the like intermittently, the azimuth measurement information of the plurality of targets measured by the plurality of sensors is transmitted to the target. A measurement data separation unit to sort separately,
A real image evaluation value calculating unit that calculates the position of the target and a real image evaluation value as to whether or not the target actually exists from the azimuth measurement information and updates it with new azimuth measurement information; And a real image selecting unit for selecting the target, even if the target does not necessarily perform a constant velocity linear motion, based on the azimuth measurement information of the target measured by each of the plurality of sensors, the target of the currently estimated target It is possible to obtain a target position estimating device capable of determining whether a position is a real image and selecting a real image in real time.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の実施の形態1を示す構成ブロック
図である。
FIG. 1 is a configuration block diagram showing a first embodiment of the present invention.

【図2】 虚像問題を説明する図である。FIG. 2 is a diagram illustrating a virtual image problem.

【図3】 角度航跡を説明する図である。FIG. 3 is a diagram illustrating an angle wake.

【図4】 図1の同一角度航跡判定部の内部の構成ブロ
ック図である。
FIG. 4 is a block diagram showing an internal configuration of the same-angle wake determination unit in FIG. 1;

【図5】 放射時間パターンを説明する図である。FIG. 5 is a diagram illustrating a radiation time pattern.

【図6】 この発明の実施の形態2を示すフローチャー
トである。
FIG. 6 is a flowchart showing Embodiment 2 of the present invention.

【図7】 図6のステップ2(ST2)の内部のフロー
チャートである。
FIG. 7 is a flowchart inside step 2 (ST2) of FIG. 6;

【図8】 この発明の実施の形態3を示す構成ブロック
図である。
FIG. 8 is a configuration block diagram showing a third embodiment of the present invention.

【図9】 従来の目標位置推定装置の同一角度航跡判定
部の構成ブロック図である。
FIG. 9 is a configuration block diagram of a same-angle wake determination unit of a conventional target position estimation device.

【符号の説明】[Explanation of symbols]

1a,1b 目標、2a,2b センサ、3a,3b
虚像、5a,5b 放射時間パターン算出手段、6 放
射時間パターン間の関連度合い算出手段、7判定手段、
51a,51b 角度航跡作成部、52 角度航跡選択
部、53 同一角度航跡判定部、54 目標位置推定
部、81a,81b 測定データ分離部、82a,82
b,82c,82d 実像評価値算出部、85 実像選
択部。
1a, 1b Target, 2a, 2b Sensor, 3a, 3b
Virtual image, 5a, 5b emission time pattern calculation means, 6 means for calculating the degree of association between emission time patterns, 7 determination means,
51a, 51b Angle track creation section, 52 Angle track selection section, 53 Same angle track determination section, 54 Target position estimation section, 81a, 81b Measurement data separation section, 82a, 82
b, 82c, 82d Real image evaluation value calculation unit, 85 Real image selection unit.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 断続的に、電波、光、もしくは熱等を放
射する目標の方位を測定し、上記の目標の位置を推定す
る目標位置推定装置であって、 複数のセンサがそれぞれ測定した複数の目標の方位測定
結果から上記目標の角度航跡を生成する角度航跡作成部
と、上記の複数のセンサがそれぞれ測定した上記目標の
角度航跡のうち同一目標の角度航跡を判定する同一角度
航跡判定部と、上記の複数のセンサがそれぞれ測定した
同一目標の角度航跡を基に上記目標の位置を推定する位
置推定部と、を備えたことを特徴とする目標位置推定装
置。
1. A target position estimating apparatus for intermittently measuring the direction of a target that radiates radio waves, light, heat, or the like, and estimating the position of the target. An angle trajectory creating unit that generates the target angle trajectory from the target azimuth measurement result, and an identical angle trajectory determination unit that determines the same target angle trajectory among the target angle trajectories measured by the plurality of sensors. And a position estimating unit for estimating the position of the target based on the angular trajectories of the same target measured by the plurality of sensors, respectively.
【請求項2】 複数のセンサがそれぞれ測定した複数の
目標の角度航跡のうち同一目標の角度航跡を判定する同
一角度航跡判定部が以下の要素を備えたことを特徴とす
る請求項1記載の目標位置推定装置、(1)複数のセン
サがそれぞれ測定した上記目標の角度航跡に含まれる測
定時刻から上記目標が放射している電波、光、もしくは
熱等の放射時間パターンを推定する放射時間パターン算
出手段、(2)上記複数のセンサがそれぞれ測定した上
記目標の角度航跡から推定された放射時間パターン間の
関連度合いを算出する放射時間パターン間関連度合い算
出手段、(3)上記複数のセンサがそれぞれ測定した上
記目標の角度航跡から推定された放射時間パターン間の
関連度合いを、予め設定した閾値と比較して、同一目標
の角度航跡を判定する判定手段。
2. The same-angle trajectory judging unit for judging an angle trajectory of the same target among a plurality of angle trajectories of targets measured by a plurality of sensors, respectively, comprises the following elements. A target position estimating device, (1) a radiation time pattern for estimating a radiation time pattern of radio waves, light, heat, or the like emitted by the target from measurement times included in the angle wakes of the target measured by a plurality of sensors. Calculating means; (2) radiation time pattern relation degree calculating means for calculating a relation degree between the radiation time patterns estimated from the target angle wakes measured by the plurality of sensors, respectively; The degree of association between the radiation time patterns estimated from the respective measured angular trajectories of the target is compared with a preset threshold to determine the angular trajectory of the same target. Determination means.
【請求項3】 断続的に、電波、光、もしくは熱等を放
射する目標の方位を測定し、それら目標の位置を推定す
る目標位置推定信号処理方法であって、 複数のセンサがそれぞれ測定した複数の目標の方位測定
結果から上記目標の角度航跡を生成するステップと、上
記の複数のセンサがそれぞれ測定した上記目標の角度航
跡のうち同一目標の角度航跡を判定するステップと、上
記の複数のセンサがそれぞれ測定した同一目標の角度航
跡を基に上記目標の位置を推定するステップと、を備え
たことを特徴とする目標位置推定信号処理方法。
3. A target position estimation signal processing method for intermittently measuring the direction of a target that radiates radio waves, light, heat, or the like, and estimating the position of the target. Generating the angle trajectory of the target from the azimuth measurement results of the plurality of targets; determining the angle trajectory of the same target among the angle trajectories of the target respectively measured by the plurality of sensors; Estimating the position of the target based on the angle trajectories of the same target measured by the sensors, respectively.
【請求項4】 複数のセンサがそれぞれ測定した複数の
目標の角度航跡のうち同一目標の角度航跡を判定するス
テップが以下のステップを備えたことを特徴とする請求
項3記載の目標位置推定信号処理方法、(1)複数のセ
ンサがそれぞれ測定した上記目標の角度航跡に含まれる
測定時刻からその目標が放射している電波、光、もしく
は熱等の放射時間パターンを推定するステップ、(2)
上記複数のセンサがそれぞれ測定した上記目標の角度航
跡から推定された放射時間パターン間の関連度合いを算
出するステップ、(3)上記複数のセンサがそれぞれ測
定した上記目標の角度航跡から推定された放射時間パタ
ーン間の関連度合いを、予め設定した閾値と比較して、
同一目標の角度航跡を判定するステップ。
4. The target position estimating signal according to claim 3, wherein the step of judging the angular trajectory of the same target among the angular trajectories of the plurality of targets respectively measured by the plurality of sensors includes the following steps. Processing method, (1) estimating a radiation time pattern of radio waves, light, heat, or the like radiated by the target from measurement times included in the angle trajectory of the target measured by a plurality of sensors, (2)
Calculating a degree of association between the radiation time patterns estimated from the angular wakes of the target measured by the plurality of sensors, respectively, (3) radiation estimated from the angular trajectories of the target measured by the plurality of sensors, respectively. Compare the degree of association between time patterns with a preset threshold,
Determining the angular wake of the same target;
【請求項5】 断続的に、電波、光、もしくは熱等を放
射する目標の方位を測定し、上記目標の位置を推定する
目標位置推定装置であって、 複数のセンサがそれぞれ測定した複数の目標の方位測定
情報を目標別に振り分ける測定データ分離部と、上記の
方位測定情報を基に上記目標の位置と上記目標が実在す
るか否かの実像評価値とを算出し新たな方位測定情報が
入力される度に更新する実像評価値算出部と、上記の実
像評価値を基に実在する目標を選択する実像選択部と、
を備えたことを特徴とする目標位置推定装置。
5. A target position estimating apparatus for intermittently measuring a direction of a target that radiates radio waves, light, heat, or the like, and estimating the position of the target. A measurement data separation unit that divides the azimuth measurement information of the target for each target, and calculates a position of the target and a real image evaluation value as to whether or not the target actually exists based on the azimuth measurement information, and new azimuth measurement information is obtained. A real image evaluation value calculation unit that updates each time it is input, and a real image selection unit that selects an existing target based on the real image evaluation value,
A target position estimating device comprising:
JP33192996A 1996-12-12 1996-12-12 Target position estimating apparatus and signal processing method thereof Expired - Lifetime JP3328526B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33192996A JP3328526B2 (en) 1996-12-12 1996-12-12 Target position estimating apparatus and signal processing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33192996A JP3328526B2 (en) 1996-12-12 1996-12-12 Target position estimating apparatus and signal processing method thereof

Publications (2)

Publication Number Publication Date
JPH10170623A true JPH10170623A (en) 1998-06-26
JP3328526B2 JP3328526B2 (en) 2002-09-24

Family

ID=18249223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33192996A Expired - Lifetime JP3328526B2 (en) 1996-12-12 1996-12-12 Target position estimating apparatus and signal processing method thereof

Country Status (1)

Country Link
JP (1) JP3328526B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7142871B2 (en) 2002-03-13 2006-11-28 Nec Corporation Virtual image eliminating apparatus and method at the time when position of radio wave transmitting source is measured
JP2011510283A (en) * 2008-01-18 2011-03-31 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ Multiple object localization using receiver networks
CN111624547A (en) * 2019-02-27 2020-09-04 北方数字化技术公司 Tracking objects in an electromagnetic field

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7142871B2 (en) 2002-03-13 2006-11-28 Nec Corporation Virtual image eliminating apparatus and method at the time when position of radio wave transmitting source is measured
JP2011510283A (en) * 2008-01-18 2011-03-31 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ Multiple object localization using receiver networks
CN111624547A (en) * 2019-02-27 2020-09-04 北方数字化技术公司 Tracking objects in an electromagnetic field

Also Published As

Publication number Publication date
JP3328526B2 (en) 2002-09-24

Similar Documents

Publication Publication Date Title
CN107787497B (en) Method and apparatus for detecting gestures in a user-based spatial coordinate system
AU2013318414B2 (en) Positioning system using radio frequency signals
JP2018194562A (en) Method and device for detecting road boundary
WO2018221455A1 (en) Update device, control method, program, and storage medium
JP6895911B2 (en) Object tracking device, object tracking method and computer program for object tracking
JP2020537140A (en) Methods and devices for generating inverse sensor models, and methods for detecting obstacles
CN108802741B (en) Mobile robot sonar data fusion method based on DSmT theory
CN112904358B (en) Laser positioning method based on geometric information
CN112036422B (en) Track management method, system and computer readable medium based on multi-sensor information fusion
JP6169146B2 (en) Object recognition integration apparatus and object recognition integration method
JPH10170623A (en) Target position estimating device and signal processing method therefor
JP2021185365A (en) Self-position estimation device, self-position estimation method, program, and recording medium
CN116601612A (en) Method and system for testing a controller of a vehicle
US20100007544A1 (en) Method for Surveillance of Space/Air Space
WO2019244334A1 (en) Sensor control device, vehicle, sensing method and sensor control program
WO2022230332A1 (en) Ship monitoring system, ship monitoring method, information processing device, and program
JP2019215275A (en) Target detection device, and target detection method
JP2020504387A (en) Determination of movement information by ambient sensor
JP2775986B2 (en) Radar equipment
JP6735801B2 (en) Object recognition device, vehicle control device using the same, object recognition method, and vehicle control method using the same
CN207601853U (en) Radiation image corrects system
JP4481067B2 (en) Radar equipment
JP3532445B2 (en) Radio wave source location method
US20230146935A1 (en) Content capture of an environment of a vehicle using a priori confidence levels
RU2256870C1 (en) Method for heading control of flight vehicles in angle-measuring two-position radar system

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070712

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080712

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090712

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100712

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100712

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110712

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110712

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120712

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120712

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130712

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term