JP3246822B2 - Mobile tracking device - Google Patents

Mobile tracking device

Info

Publication number
JP3246822B2
JP3246822B2 JP01182394A JP1182394A JP3246822B2 JP 3246822 B2 JP3246822 B2 JP 3246822B2 JP 01182394 A JP01182394 A JP 01182394A JP 1182394 A JP1182394 A JP 1182394A JP 3246822 B2 JP3246822 B2 JP 3246822B2
Authority
JP
Japan
Prior art keywords
moving object
estimated
output
error
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP01182394A
Other languages
Japanese (ja)
Other versions
JPH07218611A (en
Inventor
一彦 日野
敏郎 佐々木
文伸 古村
廣 高橋
正治 ▲吉▼田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP01182394A priority Critical patent/JP3246822B2/en
Publication of JPH07218611A publication Critical patent/JPH07218611A/en
Application granted granted Critical
Publication of JP3246822B2 publication Critical patent/JP3246822B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、移動体のトラッキング
装置に関し、特に観測側で移動体の運動モデルが不明で
ある場合において、センサからの情報を用いて移動体モ
デルをリアルタイムに判定し、また、判定された移動体
の情報をオペレータに知らせる移動体トラッキング装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a tracking apparatus for a moving object, and more particularly to a method for determining a moving object model in real time using information from a sensor when a moving model of the moving object is unknown on the observation side. In addition, the present invention relates to a mobile object tracking device that notifies an operator of information on the determined mobile object.

【0002】[0002]

【従来の技術】複数のセンサを用いて移動体トラッキン
グを行うマルチセンサトラッキングでは、目標の相関処
理を行い、その結果をCRTやヘッドアップディスプレ
イ等に表示する装置が広く用いられている。その中でも
位置決定に関する装置についても種々提案がなされてい
る。例えば特開平1−274011号公報に開示された
「位置決定装置」では、1次元アレイセンサのスキャン
タイムを移動体の速度に応じて変化させ、移動体に対す
る角度によって位置を算出するようになっている。
2. Description of the Related Art In multi-sensor tracking in which a moving object is tracked by using a plurality of sensors, a device that performs correlation processing of a target and displays the result on a CRT or a head-up display is widely used. Above all, various proposals have been made for devices relating to position determination. For example, in a “position determining device” disclosed in Japanese Patent Application Laid-Open No. 1-274011, the scan time of a one-dimensional array sensor is changed according to the speed of a moving body, and a position is calculated based on an angle with respect to the moving body. I have.

【0003】また、特開昭62−12883号公報に開
示された「目標追尾表示装置」では、移動体から発生す
る音波、電波等の方位情報を用いて最尤推定処理を行
い、目標の位置を算出するようになっている。なお、こ
の技術は、センサから移動体に対して信号を一切送信し
ないパッシブセンサを使用し、パッシブセンサの探知能
力を演算する探知予察装置を設けることにより、時々刻
々と変化する目標の存在域を時系列表示し、目標の運動
状況を表示するようなシステムになっている。
In a "target tracking display device" disclosed in Japanese Patent Application Laid-Open No. 62-12883, maximum likelihood estimation processing is performed using azimuth information such as sound waves and radio waves generated from a moving object, and the position of the target is determined. Is calculated. In addition, this technology uses a passive sensor that does not transmit any signal from the sensor to the moving body, and provides a detection forecasting device that calculates the detection capability of the passive sensor, so that the presence area of the target that changes every moment is It is a system that displays time series and displays the target exercise status.

【0004】また、特開昭61−184477号公報お
よび特開昭61−195381号公報には「目標トラッ
キングフィルタ」がそれぞれ開示されている。前者で
は、目標位置観測値から目標の位置、速度、加速度およ
び推定時誤差をそれぞれ独自に算出する状態推定手段を
並列に配置し、この状態推定手段によって算出される推
定時誤差を比較して、推定誤差が最小となる状態推定手
段による目標の位置、速度および加速度を選択する技術
が開示され、後者では、同様の状態量推定手段によって
推定された推定値を最小二乗法に当てはめ、誤差の二乗
の和が最小になるような推定値を出力する状態推定手段
の出力値を選択する技術が開示されている。
Japanese Patent Application Laid-Open Nos. 61-184377 and 61-195381 disclose a "target tracking filter". In the former, state estimation means for independently calculating the target position, velocity, acceleration, and estimation time error from the target position observation value are arranged in parallel, and the estimation time errors calculated by the state estimation means are compared, A technique for selecting a target position, velocity, and acceleration by a state estimating unit that minimizes an estimation error is disclosed. In the latter, an estimated value estimated by a similar state amount estimating unit is applied to a least square method, and the square of the error is calculated. There is disclosed a technique for selecting an output value of a state estimating unit that outputs an estimated value that minimizes the sum of.

【0005】[0005]

【発明が解決しようとする課題】ところで、特開平1−
274011号公報開示のものは、自己の3次元の位置
を角度によって算出するもので、1次元アレイセンサを
使用し、この1次元アレイセンサのスキャンタイムを変
化させて進行方向の検出誤差をなくすように構成されて
いるが、目的物を検出した1次元アレイセンサの座標を
基準に算出するようになっており、センサからの複数の
情報(例えば距離情報)等が入力された場合について
は、何も配慮されていない。
SUMMARY OF THE INVENTION Incidentally, Japanese Patent Application Laid-Open No. Hei.
Japanese Patent Publication No. 274011 discloses a method of calculating its own three-dimensional position based on an angle, using a one-dimensional array sensor, and changing the scan time of the one-dimensional array sensor so as to eliminate a detection error in a traveling direction. However, the calculation is performed based on the coordinates of the one-dimensional array sensor that has detected the target object. Is also not considered.

【0006】特開昭62−12883号公報開示のもの
は、パッシブセンサを使用して位置検出を行っており、
検出した位置を表示する際、誤差変動も表示するが、そ
の誤差変動の表示において、パッシブ情報の表示につい
てのみしか触れられておらず、アクティブセンサのよう
に異種センサが複合された場合については、何も配慮さ
れていない。また、同公報には、移動体の推定誤差を算
出するシステムは開示されているが、センサから移動体
の情報が得られる毎に時系列的に誤差が変化しているの
に対して、どのように推定位置および推定速度の誤差の
範囲をCRT等の出力装置に表示し、さらに誤差の変動
過程をオペレータに知らせるかについては特に配慮され
てはいない。
[0006] Japanese Unexamined Patent Publication No. 62-12883 discloses a position detection using a passive sensor.
When displaying the detected position, the error fluctuation is also displayed, but in the display of the error fluctuation, only the display of the passive information is touched, and when a heterogeneous sensor such as an active sensor is combined, No consideration was given. In addition, the publication discloses a system for calculating an estimation error of a moving object, but the error changes in time series every time information on the moving object is obtained from a sensor. As described above, no particular consideration is given as to whether the range of the error in the estimated position and the estimated speed is displayed on an output device such as a CRT, and the operator is notified of the process of changing the error.

【0007】特開昭61−184477および特開昭6
1−195381号公報には、センサとしてトラッキン
グレーダが、また、フィルタに入力される状態量として
位置、速度および加速度が開示されており、他のセン
サ、例えば方位、距離、あるいは方位と距離を総合した
ものを検出するセンサについての配慮はなく、また、フ
ィルタに入力される状態量として加速度を必要とせず、
位置および速度だけで処理ですることについての配慮も
ない。
[0007] JP-A-61-184477 and JP-A-6-1984
In Japanese Patent Application Laid-Open No. 1-195381, a tracking radar is disclosed as a sensor, and a position, a velocity, and an acceleration are disclosed as state quantities input to a filter, and other sensors such as an azimuth, a distance, or an azimuth and a distance are integrated. No consideration is given to the sensor that detects the detected object, and no acceleration is required as the state quantity input to the filter.
There is no consideration about processing only with position and speed.

【0008】また、一般に、移動体の判定結果があいま
いな場合、最終的にオペレータがセンサから得られた大
量の情報を見ながら、迅速に判断しなければならない。
しかし、オペレータが移動体の状態を判断するために必
要な情報を任意に呼び出し、誤差も含め、その情報を考
慮に入れた上でオペレータが判断し、その判断結果に基
づいた推測情報を表示することについては、前記従来例
の何れにも開示されておらず、この点についての配慮も
ない。
In general, when the result of determination of a moving object is ambiguous, the operator must make a final decision quickly while looking at a large amount of information obtained from sensors.
However, the operator arbitrarily calls information necessary for judging the state of the moving body, and the operator makes a judgment based on the information including errors, and displays estimated information based on the judgment result. This is not disclosed in any of the above-described conventional examples, and there is no consideration regarding this point.

【0009】本発明は、このような従来技術の実情に鑑
みてなされたもので、その目的は、状態量として方位と
距離のみを検出し、その検出データをフィルタリング処
理したフィルタ出力情報からリアルタイムに目標の運動
モデルを推定することができる移動体のトラッキング装
置を提供することにある。さらに、他の目的は、オペレ
ータが移動体の状態判定に必要な誤差情報も含む表示情
報から必要な情報を任意に選択でき、オペレータの経験
的判断も考慮に入れてトラッキングすることが可能な移
動体のトラッキング装置を提供することにある。
The present invention has been made in view of such a situation of the prior art, and has as its object to detect only an azimuth and a distance as state quantities and to filter the detected data in real time from filter output information obtained by performing a filtering process. It is an object of the present invention to provide a moving object tracking device capable of estimating a target motion model. Still another object is to provide a mobile device in which the operator can arbitrarily select necessary information from display information including error information necessary for determining the state of the moving object, and can perform tracking in consideration of the empirical judgment of the operator. It is to provide a body tracking device.

【0010】[0010]

【課題を解決するための手段】本発明の目的を達成する
ために、検出手段と、情報処理手段と、出力手段とを備
えた移動体のトラッキング装置において、検出手段は、
1つあるいは複数のセンサから構成され、各センサによ
り移動体の時々刻々の運動を観測して得たセンサデータ
を出力するものであり、情報処理手段は、センサデータ
が与えられた時刻ごとに、複数の相異なる運動モデルを
用いたフィルタによりセンサデータに対してフィルタリ
ング処理をおこない、フィルタリング処理結果から移動
体の運動モデルの判別処理を行って最も適合する一つの
運動モデルを選択し、選択された運動モデルに対応する
フィルタの処理結果から移動体の位置と速度とを推定
し、推定された位置と速度とを次の時刻のフィルタリン
グ処理の初期推定値として使用し、かつ、推定された位
置と速度とを出力装置に出力するものであり、出力装置
は推定された位置と速度とを表示するものである。ま
た、これに加えて入力手段を備えてもよく、この場合、
入力手段は出力装置に表示された情報に基づきオペレー
タが移動体の状態を判断し、所定の事項を選択できるも
ので、オペレータが判断する必要がある場合に使用され
る。
In order to achieve the object of the present invention, in a moving object tracking apparatus provided with a detecting means, an information processing means, and an output means, the detecting means comprises:
It is constituted by one or a plurality of sensors, and outputs sensor data obtained by observing the momentary movement of the moving body by each sensor, and the information processing means, at each time when the sensor data is given, A filtering process is performed on the sensor data with a filter using a plurality of different motion models, and a discrimination process of the motion model of the moving object is performed based on the filtering process result, and the most suitable one motion model is selected. Estimate the position and velocity of the moving object from the processing result of the filter corresponding to the motion model, use the estimated position and velocity as the initial estimated value of the filtering processing at the next time, and The speed is output to the output device, and the output device displays the estimated position and speed. In addition, input means may be provided in addition to this, in which case,
The input means allows the operator to determine the state of the moving body based on the information displayed on the output device and select predetermined items, and is used when the operator needs to make a determination.

【0011】[0011]

【作用】前記手段では、検出手段の各センサが移動体の
観測方位データと、観測距離データを情報処理手段に出
力する。情報処理手段では、フィルタにかける前処理と
してセンサの種類を示す番号と、センサの入力パラメー
タに対応したデータを付加し、複数の相違なる運動モデ
ルを用いたフィルタでフィルタリング処理を行い、目標
の推定位置、推定速度および推定誤差の共分散等を算出
し、さらに推定誤差の共分散の変動過程を移動体の運動
モデルの判別の基準として使用し、判別されたフィルタ
の推定位置および推定速度を次の時刻のフィルタリング
処理の初期推定値として、全てのフィルタにフィードバ
ックし、さらにこれらの位置と速度と推定誤差の共分散
の値と判別された運動モデルの名称や判別された運動モ
デルを用いた予測位置等の情報を出力手段を用いて画面
等に表示させる。さらに入力手段で別の運動モデルを選
択した場合には、指定された推定結果が出力装置に表示
される。これによって、運動モデルの異なるフィルタを
複数用意することにより移動体が複雑な非線形の運動モ
デルであっても充分に対応できる。
In the above means, each sensor of the detecting means outputs observation direction data and observation distance data of the moving body to the information processing means. In the information processing means, a number indicating the type of sensor and data corresponding to the input parameter of the sensor are added as pre-processing to be filtered, and filtering processing is performed by a filter using a plurality of different motion models, and estimation of a target is performed. Calculate the covariance of the position, estimated speed, and estimation error, and further use the variation process of the covariance of the estimation error as a criterion for determining the motion model of the moving object. Feedback to all filters as the initial estimated value of the filtering process of the time, and the prediction using the name of the motion model determined as the value of the covariance of these position, velocity and estimation error, and the determined motion model Information such as a position is displayed on a screen or the like using an output unit. Further, when another exercise model is selected by the input means, the specified estimation result is displayed on the output device. Thus, by preparing a plurality of filters having different motion models, it is possible to sufficiently cope with a complicated non-linear motion model of a moving body.

【0012】また、センサがパッシブデータおよびアク
ティブデータを含む異種複数センサであってもフィルタ
にかける前処理を行うことによってパッシブ情報もアク
ティブ情報も同一のフィルタで処理でき、より高精度な
トラッキングを行うことが可能となる。さらに、共分散
誤差の値を、フィルタから出力される毎にリアルタイム
に表示することにより、誤差の変動過程をオペレータに
表示することが可能となる。加えて、表示画面に運動モ
デル識別名称とそれに対応した共分散誤差の値を表示
し、さらに入力装置を付加することにより、移動体の判
定結果があいまいな場合にもオペレータが表示画面上に
表示された共分散誤差の値を見ながら、移動体の運動判
定し、判定された運動モデルに基づいた推定情報を表示
装置に出力することが可能となる。
Further, even if the sensors are heterogeneous plural sensors including passive data and active data, the passive information and the active information can be processed by the same filter by performing the pre-processing for filtering, so that more accurate tracking is performed. It becomes possible. Furthermore, by displaying the value of the covariance error in real time each time it is output from the filter, it is possible to display the variation process of the error to the operator. In addition, the motion model identification name and the corresponding covariance error value are displayed on the display screen, and by adding an input device, the operator can display on the display screen even if the determination result of the moving object is ambiguous. It is possible to determine the motion of the moving body while looking at the value of the determined covariance error, and to output estimation information based on the determined motion model to the display device.

【0013】[0013]

【実施例】本発明の一実施例を添付の図面を参照しなが
ら詳細に説明する。図2は、本発明を適用した移動体の
トラッキング装置(以下、「トラッキングシステム」と
称する。)の概略構成を示す図である。本システムは、
空間を移動する移動体1に対して複数のセンサ2で移動
体と観測地点のなす方位や距離等の情報を受信し、なお
かつ、観測側において移動体の運動モデルが不明である
移動体1に対してセンサデータを情報処理装置9で処理
することによって、移動体1の位置や速度等を推定する
のものである。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described in detail with reference to the accompanying drawings. FIG. 2 is a diagram showing a schematic configuration of a moving object tracking device (hereinafter, referred to as a “tracking system”) to which the present invention is applied. This system is
A plurality of sensors 2 receive information such as the azimuth and distance between the moving object and the observation point with respect to the moving object 1 that moves in space, and the moving object 1 whose movement model is unknown on the observation side. On the other hand, by processing the sensor data in the information processing device 9, the position, speed, and the like of the moving body 1 are estimated.

【0014】符号1は移動体であり、この移動体1は、
目標点100に向かって直進したり、移動している目標
点100の位置、速度を常に予測して、その予測値に基
づき移動している目標点100を追い掛けたりしながら
自己の進む方向を規定するための運動モデルに従いなが
ら運動している。なお、観測側には移動体の運動モデル
は不明である。
Reference numeral 1 denotes a moving body, and the moving body 1
It always predicts the position and speed of the target point 100 moving straight toward the target point 100 or moving, and following the target point 100 moving based on the predicted value, defines the direction in which the vehicle is going. Exercise while following the exercise model to do. In addition, the motion model of the moving object is unknown on the observation side.

【0015】符号2は、複数のセンサ20からなる検出
手段としてのセンサ群である。該各センサ20からの出
力情報は、該センサ20で観測した移動体1までの距離
や方位等である。符号9は、情報処理手段としての情報
処理装置である。この情報処理装置9は、前記センサ群
2から出力されるデータを処理し、移動体1の位置、速
度等を推定する処理を行なう。符号7は入力手段として
の入力装置、符号8は出力手段としての出力装置であ
り、出力装置8は、移動体トラッキングシステムを利用
するオペレータ10が入力装置7により入力した条件に
従い、情報処理装置9の出力である移動体1の状態等を
表示する。これによってオペレータは10は、表示され
た出力情報から移動体1の状況を把握することが可能に
なる。これが対象となるトラッキングシステムの概略構
成である。
Reference numeral 2 denotes a sensor group as a detecting means including a plurality of sensors 20. The output information from each of the sensors 20 is a distance, an azimuth, and the like to the moving object 1 observed by the sensors 20. Reference numeral 9 denotes an information processing device as information processing means. The information processing device 9 processes data output from the sensor group 2 and performs a process of estimating the position, speed, and the like of the moving body 1. Reference numeral 7 denotes an input device as input means, and reference numeral 8 denotes an output device as output means. The output device 8 is an information processing device 9 according to a condition input by the operator 10 using the mobile tracking system. The state of the moving body 1 and the like, which are the outputs of the above, are displayed. This allows the operator 10 to grasp the status of the mobile unit 1 from the displayed output information. This is the schematic configuration of the target tracking system.

【0016】次に、トラッキングシステムを個々のブロ
ックに分けて説明する。まず、該情報処理装置9の詳細
について図1のブロック図を用いて説明する。センサ群
2は、複数のセンサ20−1〜20−n(なお、センサ
は総括的には前記のように符号20で示す。)を用い
て、運動モデル不明の移動体1の距離、方位等の情報を
受信し、個々のセンサ20がセンサの特性に対応した検
出データをセンサデータ処理装置3に出力する。
Next, the tracking system will be described by dividing it into individual blocks. First, details of the information processing apparatus 9 will be described with reference to the block diagram of FIG. The sensor group 2 uses a plurality of sensors 20-1 to 20-n (note that the sensors are collectively indicated by the reference numeral 20 as described above), and the distance, orientation, and the like of the moving body 1 whose motion model is unknown. And the individual sensors 20 output detection data corresponding to the characteristics of the sensors to the sensor data processing device 3.

【0017】センサデータ処理装置3では、複数のセン
サ20から出力されるデータに対して、 1.どのセンサ20から出力されたかというセンサ番号
付与する。
In the sensor data processing device 3, the data output from the plurality of sensors 20 are: A sensor number indicating which sensor 20 has output is given.

【0018】2.1つのセンサ20で複数の移動体に関
するデータを入力した場合、移動体1に対応した番号を
付与する。
2. When data relating to a plurality of moving bodies is input by one sensor 20, a number corresponding to the moving body 1 is assigned.

【0019】3.各々のデータに対して、受信された受
信時刻等を付与する。
3. A reception time and the like at which the data was received are given to each data.

【0020】4.また、予め基準値を設定しておき、そ
の基準値の範囲に収まらないデータは、誤情報として自
動的に削除する。
4. In addition, a reference value is set in advance, and data that does not fall within the range of the reference value is automatically deleted as erroneous information.

【0021】などの機能を有する。なお、この実施例で
は、センサ20はセンサ群2として複数個使用されてい
るが、センサ20が1個、すなわち単一のセンサ構成に
なった場合も図1に示す構成でトラッキングすることも
可能である。したがって、検出手段は単一のセンサ20
のみによっても構成できる。
And the like. In this embodiment, a plurality of sensors 20 are used as the sensor group 2. However, even when the number of sensors 20 is one, that is, a single sensor configuration, tracking can be performed by the configuration shown in FIG. It is. Therefore, the detecting means is a single sensor 20.
It can also be constituted only by.

【0022】これら一連の処理が終了したらフィルタ処
理装置4にセンサデータ処理装置3が誤情報等を削除し
た受信距離や受信方位等のデータを出力する。フィルタ
処理装置4は、複数のフィルタ40−1〜40−mで構
成され、各々のフィルタ40(以下、フィルタは総括的
には符号40で示す。)は、移動体1の運動モデルを予
め仮定し、その運動モデルを用いてセンサデータから移
動体1の位置および速度を推定するためのもので、例え
ば移動体1が目標点100に向かって直進している、あ
るいは移動している目標点100の位置、速度を常に予
測して、その予測値を追い掛けながら自己の進む方向を
決定していると仮定したようなフィルタが挙げられる。
When these series of processes are completed, the sensor data processing device 3 outputs data such as reception distance and reception direction from the erroneous information and the like to the filter processing device 4. The filter processing device 4 includes a plurality of filters 40-1 to 40-m, and each of the filters 40 (hereinafter, the filters are generally denoted by reference numeral 40) assumes a motion model of the moving object 1 in advance. This is for estimating the position and speed of the moving object 1 from the sensor data using the motion model. For example, the moving object 1 is moving straight toward the target point 100 or the moving target point 100 is moving. Is a filter that assumes that the position and speed of the vehicle are always predicted, and the direction in which the vehicle is moving is determined while following the predicted values.

【0023】ここでは、センサデータ処理装置3からの
データに対して、全てのフィルタ40を用いてフィルタ
リング処理を行う。また、各々のフィルタ40から出力
されるデータは、現時刻における推定位置や推定速度等
であり、なおかつフィルタ40がカルマンフィルタのよ
うにデータが入力される毎に誤差の共分散をも推定する
ことが可能なフィルタの場合は、推定誤差共分散の大き
さを示す対角項成分も出力する。この場合には、後述の
目標推定処理装置5で、誤差共分散行列の対角成分を解
析することにより、移動体1の観測距離の分散や観測方
位の分散を知ることが可能である。また、各フィルタ4
0における初期推定位置や初期推定速度等は、後述のよ
うに目標推定処理装置5から与えられる。
Here, the filtering process is performed on the data from the sensor data processing device 3 using all the filters 40. The data output from each filter 40 is the estimated position and estimated speed at the current time, and the filter 40 can also estimate the error covariance every time data is input like a Kalman filter. In the case of a possible filter, a diagonal term component indicating the magnitude of the estimation error covariance is also output. In this case, it is possible to know the dispersion of the observation distance and the dispersion of the observation azimuth of the mobile unit 1 by analyzing the diagonal components of the error covariance matrix in the target estimation processing device 5 described later. In addition, each filter 4
The initial estimated position and the initial estimated speed at 0 are given from the target estimation processing device 5 as described later.

【0024】各フィルタ40は初期推定位置や処理推定
加速度等の初期推定値をもとに、センサデータ処理装置
3から距離および方位等のデータが出力される毎にフィ
ルタリング処理を行ない、移動体1の位置および速度の
推定値を更新する。このフィルタ処理装置4内で算出さ
れた移動体1の位置および速度の推定結果は、目標推定
処理装置5に逐次出力する。
Each filter 40 performs a filtering process each time data such as a distance and an azimuth is output from the sensor data processing device 3 based on initial estimated values such as an initial estimated position and a process estimated acceleration. Update position and velocity estimates for. The estimation result of the position and speed of the moving body 1 calculated in the filter processing device 4 is sequentially output to the target estimation processing device 5.

【0025】目標推定処理装置5は、第1のCPU(以
下、「CPU(1)」のように表す。)51と状態演算
処理器53と状態処理データテーブル52で構成され
る。CPU(1)51では、目標推定処理装置5内で流
れるデータの入出力の管理を行い、なおかつデータの送
受信タイミング等を制御する。次に、状態処理データテ
ーブル52では、前記フィルタ処理装置4から出力され
たデータを各フィルタ40毎に分類して、テーブル上に
記憶する。ここで、状態処理データテーブル52(以
下、状態データテーブルは総括的には符号52で示
す。)の形式を図3に示し、データテーブル52の詳細
を図3を参照して説明する。
The target estimation processing device 5 comprises a first CPU (hereinafter referred to as “CPU (1)”) 51, a state calculation processor 53, and a state processing data table 52. The CPU (1) 51 manages input / output of data flowing in the target estimation processing device 5, and controls data transmission / reception timing and the like. Next, in the state processing data table 52, the data output from the filter processing device 4 is classified for each filter 40 and stored in the table. Here, the format of the state processing data table 52 (hereinafter, the state data table is generally indicated by reference numeral 52) is shown in FIG. 3, and details of the data table 52 will be described with reference to FIG.

【0026】状態処理データテーブル520−kは、フ
ィルタ処理装置4内にあるフィルタ40−kに対応する
情報を記憶する。但し、k=1〜m、mはフィルタの数
である(以下、同様)。状態処理データテーブル520
−kは、運動モデル識別名称54−k、受信時刻531
−k、推定位置532−k、推定速度533−k、予測
位置534−k、共分散行列535−k、推定位置誤差
536−k、推定速度誤差537−k、推定速度ベクト
ル538−kおよび共分散誤差539−kの各項目で構
成される。ここで、フィルタ40から算出されるデ−タ
は、受信時刻531−k、推定位置532−k、推定速
度533−k、予測位置534−kであり、さらに推定
誤差共分散行列まで出力するフィルタ40−kにおいて
は、推定誤差共分散行列の対角成分の値535−kをデ
ータテーブル520−k上に記憶する。予測位置534
−kは、該フィルタ40−kで予測した所定の未来まで
の移動体の位置の時系列データである。その他の項目に
ついては状態演算処理器53内で算出する。
The state processing data table 520-k stores information corresponding to the filter 40-k in the filter processing device 4. Here, k = 1 to m, and m is the number of filters (the same applies hereinafter). State processing data table 520
-K is the exercise model identification name 54-k, reception time 531
-K, estimated position 532-k, estimated speed 533-k, predicted position 534-k, covariance matrix 535-k, estimated position error 536-k, estimated speed error 537-k, estimated speed vector 538-k, and It is composed of each item of variance error 539-k. Here, the data calculated from the filter 40 are the reception time 531-k, the estimated position 532-k, the estimated speed 533-k, the predicted position 534-k, and a filter that outputs up to the estimated error covariance matrix. At 40-k, the value 535-k of the diagonal component of the estimated error covariance matrix is stored on the data table 520-k. Predicted position 534
-K is time-series data of the position of the moving object up to a predetermined future predicted by the filter 40-k. Other items are calculated in the state calculation processor 53.

【0027】引き続き状態処理器53内で行われる算出
方式について詳細に説明する。まず、誤差の共分散まで
推定するフィルタの場合、各フィルタ40−kに対し
て、共分散行列の対角項成分535−kを呼び出して、
対角項成分より、推定位置および推定速度の共分散誤差
539−kを算出し、状態処理データテーブル520−
k上の推定位置誤差536−kおよび推定速度誤差53
7−kの項目に書き込む。
Next, the calculation method performed in the state processor 53 will be described in detail. First, in the case of a filter for estimating the error covariance, the diagonal term component 535-k of the covariance matrix is called for each filter 40-k,
A covariance error 539-k between the estimated position and the estimated speed is calculated from the diagonal term component, and the state processing data table 520-k
Estimated position error 536 on k and estimated speed error 53
Write to item 7-k.

【0028】次に、これらのデータを用いて移動体1の
運動モデルを判定する方式について説明する。移動体1
の位置および速度等を推定するフィルタはカルマンフィ
ルタのように推定誤差の共分散行列535−kを出力す
るフィルタであり、判定に際しては、この誤差の共分散
行列535−kの変化率を移動体1の運動モデルの判別
基準とする。この方式は、具体的には次のようにして実
行される。まず、移動体1の状態を示す状態ベクトルを
次式とする。
Next, a method of determining a motion model of the moving body 1 using these data will be described. Moving object 1
Is a filter that outputs the covariance matrix 535-k of the estimation error like a Kalman filter, and determines the rate of change of the covariance matrix 535-k of this error by the moving body 1 Is used as a criterion for the motion model. This method is specifically executed as follows. First, a state vector indicating the state of the moving object 1 is represented by the following equation.

【0029】[0029]

【数1】 (Equation 1)

【0030】この状態ベクトルに基づき、移動体1の状
態を推定する。また、共分散行列535−kは次式のよ
うにして算出される。
Based on the state vector, the state of the moving body 1 is estimated. The covariance matrix 535-k is calculated as in the following equation.

【0031】[0031]

【数2】 (Equation 2)

【0032】ここで、状態処理データテーブル52上に
ある共分散行列の対角成分535の値から共分散誤差P
error 539を次式に従って状態演算処理器53によっ
て算出する。
Here, from the value of the diagonal component 535 of the covariance matrix on the state processing data table 52, the covariance error P
The error 539 is calculated by the state calculation processor 53 according to the following equation.

【0033】[0033]

【数3】 (Equation 3)

【0034】ここで算出した値は、センサ20が移動体
1とセンサ設置点までの距離、および移動体1とセンサ
設置点とのなす角度を計測することが可能な場合の推定
位置誤差536を表している。また、センサ20が移動
体1とセンサ設置点とのなす角を計測することが可能な
場合の推定位置誤差536は、次式に従って算出する。
The value calculated here is the estimated position error 536 when the sensor 20 can measure the distance between the mobile unit 1 and the sensor installation point and the angle between the mobile unit 1 and the sensor installation point. Represents. Further, the estimated position error 536 when the sensor 20 can measure the angle between the moving body 1 and the sensor installation point is calculated according to the following equation.

【0035】[0035]

【数4】 (Equation 4)

【0036】次に移動体1の運動モデルの判別方法につ
いて説明する。運動モデルの判別方法は、大きく分けて
2通りの方法が挙げられる。第1の方法は、前記状態演
算処理器53内で複数種類のフィルタ40から出力され
る現時点におけるPerror の値を比較する方法である。
この方法では、各フィルタ40から出力されるPerror
の値の内で最小となるフィルタ40を用いている運動モ
デルを移動体1の運動モデルと判定し、状態処理データ
テーブル52にあるフィルタ推定位置および推定速度等
のデータを再度呼出し、入出力処理装置6に出力すると
ともに、次の時点のフィルタ処理の初期推定値として利
用するためフィルタ処理装置4の各フィルタ40に出力
するようになっている。
Next, a method of determining the motion model of the moving body 1 will be described. The method of determining the motion model can be roughly divided into two methods. The first method is to compare the current value of Perror output from the plurality of types of filters 40 in the state operation processor 53.
In this method, Perror output from each filter 40 is used.
Is determined as the motion model of the moving object 1, and the data such as the filter estimated position and the estimated speed in the state processing data table 52 are called again, and the input / output processing is performed. The data is output to the device 6 and is also output to each filter 40 of the filter processing device 4 for use as an initial estimated value of the filter processing at the next time point.

【0037】第2の方法は、1回の観測だけでなく複数
回の観測を行って、移動体1の運動モデルを判定する方
法である。この方法は、Perror の移動平均の値を移動
体1の運動モデルの判定基準とするもので、具体的に
は、各フィルタ40に対して状態処理データテーブル5
2上に蓄えられた共分散誤差359の項目をn回の連続
する観測データについて状態演算処理器53に呼出し、
移動平均値を算出し、この移動平均値の値が最小となる
フィルタ40を用いている運動モデルを正しい運動モデ
ルと判定し、状態処理テーブル52にある推定位置53
2および推定速度533等のデータを再度呼出して入出
力装置6に出力するとともに、次の時点のフィルタ処理
の初期推定値として利用するためフィルタ処理装置4の
各フィルタ40に出力する。
The second method is to determine the motion model of the mobile unit 1 by performing not only one observation but also a plurality of observations. In this method, the value of the moving average of Perror is used as a criterion for determining the motion model of the moving object 1. Specifically, the state processing data table 5
2. The item of the covariance error 359 stored on 2 is called to the state calculation processor 53 for n consecutive observation data,
The moving average value is calculated, the motion model using the filter 40 having the minimum moving average value is determined as a correct motion model, and the estimated position 53 in the state processing table 52 is determined.
2 and the data such as the estimated speed 533 are called again and output to the input / output device 6 and output to each filter 40 of the filter processing device 4 for use as an initial estimated value of the filter processing at the next time point.

【0038】さらに、推定処理の手順を図4のフローチ
ャートを用いて説明する。この手順では、処理70でト
ラッキングの終了判定を行ない、トラッキングが終了す
るまで処理70から処理77までの各処理を実行する。
処理71では、センサ20からデータが情報処理装置9
に入力された時刻毎に処理72から処理77までの処理
を繰り返し行う。さらに入力されたデータを複数の運動
モデルに対応した全てのフィルタ40でフィルタリング
処理を行う(処理72、処理73)。処理74では、処
理73で出力されたデータを状態処理データテーブル5
2に蓄え、各フィルタ40から出力された推定位置53
2、推定速度533、共分散行列の対角項成分535及
び状態演算処理器53で算出された共分散誤差539を
状態処理データテーブル52に蓄える。処理75では、
状態処理データテーブル52上に蓄えられた共分散誤差
539の値を移動体1の運動モデルの判別するため、全
てのフィルタ40からの共分散誤差539−kを相互に
比較して、共分散誤差539−kの値が最小となるフィ
ルタ40を正しい運動モデルと判別する。したがって、
運動モデルが観測側で不明であっても正しい運動モデル
を簡単に選定できる。処理76では、処理75で判別さ
れたフィルタ40−kの受信時刻531−k、推定位置
532−k等を次に推定する時刻のフィルタ40の初期
推定値として、全てのフィルタ40にフィードバックす
る。処理77では、該処理75で判定された運動モデル
のフィルタリング結果を出力処理装置8に出力する。
Further, the procedure of the estimation process will be described with reference to the flowchart of FIG. In this procedure, the end of tracking is determined in processing 70, and each processing from processing 70 to processing 77 is executed until tracking is completed.
In the process 71, the data from the sensor 20 is
The processing from the processing 72 to the processing 77 is repeatedly performed for each time input to the. Further, the input data is subjected to a filtering process by all filters 40 corresponding to a plurality of motion models (process 72, process 73). In a process 74, the data output in the process 73 is stored in the state processing data table 5
2 and the estimated position 53 output from each filter 40
2. The estimated speed 533, the diagonal term component 535 of the covariance matrix, and the covariance error 539 calculated by the state calculation processor 53 are stored in the state processing data table 52. In process 75,
In order to determine the value of the covariance error 539 stored on the state processing data table 52 for the motion model of the mobile unit 1, the covariance errors 539-k from all the filters 40 are compared with each other, and the covariance error 539-k is compared. The filter 40 having the minimum value of 539-k is determined as a correct motion model. Therefore,
Even if the motion model is unknown on the observation side, the correct motion model can be easily selected. In the process 76, the reception time 531-k, the estimated position 532-k, and the like of the filter 40-k determined in the process 75 are fed back to all the filters 40 as the initial estimated value of the filter 40 at the next estimated time. In the process 77, the filtering result of the motion model determined in the process 75 is output to the output processing device 8.

【0039】次に、目標推定処理装置5で算出された結
果を表示するための処理を行なう入出力処理装置6につ
いて説明する。図1に示すように、該入出力処理装置6
は、制御用の第2のCPU(以下、「CPU(2)」の
ように表す。)61、誤差範囲処理器62、出力条件設
定器63、座標変換器64および出力データテーブル6
5から構成されている。
Next, the input / output processing unit 6 which performs processing for displaying the result calculated by the target estimation processing unit 5 will be described. As shown in FIG.
Is a control second CPU (hereinafter, referred to as “CPU (2)”) 61, an error range processor 62, an output condition setting unit 63, a coordinate converter 64, and an output data table 6.
5 is comprised.

【0040】入出力装置6では、まず出力装置8上に表
示するデータを目標推定処理装置5内の状態処理データ
テーブル52から出力データテーブル65に読み込む。
ここでのデータの引渡しは、直接データの値を呼び出す
のではなく、データのアドレスをCPU(2)61で制
御しながら受渡す。このため、状態処理データテーブル
52の各項目、運動モデル識別名称54、受信時刻53
1、推定位置532、推定速度533、推定位置誤差5
36、推定速度誤差537、共分散行列535、速度ベ
クトル538、共分散誤差539および予測位置53
4、並びに図5に示す出力データテーブル65の運動モ
デル識別名称66、受信時刻651、推定位置652、
推定速度653、推定位置誤差654、推定速度誤差6
55、共分散行列656、速度ベクトル657、共分散
誤差658および予測位置659の項目は、メモリ内の
同一場所に蓄えておくと良い。
The input / output device 6 first reads data to be displayed on the output device 8 from the state processing data table 52 in the target estimation processing device 5 to the output data table 65.
The data transfer here does not call the data value directly, but transfers the data address while controlling it by the CPU (2) 61. Therefore, each item of the state processing data table 52, the exercise model identification name 54, the reception time 53
1. Estimated position 532, estimated speed 533, estimated position error 5
36, estimated velocity error 537, covariance matrix 535, velocity vector 538, covariance error 539 and predicted position 53
4, and the exercise model identification name 66, the reception time 651, the estimated position 652,
Estimated speed 653, estimated position error 654, estimated speed error 6
55, the covariance matrix 656, the velocity vector 657, the covariance error 658, and the predicted position 659 are preferably stored in the same location in the memory.

【0041】次に、オペレータ10がキーボードやマウ
ス等の入力装置7を用いて出力条件を設定し、設定され
た表示条件を出力条件設定器63に入力し、この設定条
件に基づき出力データテーブル65からCPU(2)6
1を介して呼び出して、座標変換装置64内で出力装置
8に適した形に変換し、出力装置8に表示する。また、
出力条件で誤差範囲を選択した場合には、位置誤差65
4および速度誤差655の範囲を誤差範囲処理器62で
計算させる。
Next, the operator 10 sets output conditions using the input device 7 such as a keyboard or a mouse, inputs the set display conditions to the output condition setting unit 63, and outputs an output data table 65 based on the set conditions. To CPU (2) 6
1 and converted into a form suitable for the output device 8 in the coordinate conversion device 64 and displayed on the output device 8. Also,
When the error range is selected in the output condition, the position error 65
4 and the range of the speed error 655 are calculated by the error range processor 62.

【0042】前記入出力処理装置6の処理手順の詳細を
図5のフローチャートを用いて説明する。ここでは、既
に目標推定処理装置5内にある状態処理データテーブル
52の内容である移動体のトラッキング結果と、運動モ
デル判定結果とがリアルタイムに状態出力データテーブ
ル65に書き込まれている。k番目のフィルタについて
該テーブル650−kは、モデルの識別名称であるフィ
ルタ番号66−k、受信時刻651−k、推定位置65
2−k、推定速度653−k、推定位置誤差654−
k、推定速度誤差655−k、共分散行列656−k、
推定速度ベクトル657−k、共分散誤差658−k、
予測位置659−kおよび運動モデル判定結果650−
kの各項目で構成される。運動モデル判定結果650−
kは判定された1つの運動モデルに対して「1」が、そ
の他のモデルに対して「0」が設定されている。
Details of the processing procedure of the input / output processing device 6 will be described with reference to the flowchart of FIG. Here, the tracking result of the moving object and the motion model determination result, which are the contents of the state processing data table 52 already in the target estimation processing device 5, are written in the state output data table 65 in real time. For the k-th filter, the table 650-k includes a filter number 66-k, a reception time 651-k, and an estimated position 65, which are identification names of the model.
2-k, estimated speed 653-k, estimated position error 654
k, estimated speed error 655-k, covariance matrix 656-k,
Estimated velocity vector 657-k, covariance error 658-k,
Predicted position 659-k and motion model determination result 650-
k. Exercise model determination result 650-
As for k, “1” is set for one determined motion model, and “0” is set for other models.

【0043】この処置手順では、まず、設定画面の一例
である図6に示すように、出力装置8上に表示項目設定
画面81が表示され、移動体1の解析結果の中でオペレ
ータ10がどの情報を出力するかを出力項目選択エリア
811の中から選択し、選択された情報をどのタイミン
グで出力するのかを出力タイミング設定エリア813の
中から設定する。ここでのタイミングとは、移動体1の
誤差の変動状態を基準にした場合を例に挙げて説明する
と以下のようになる。
In this procedure, first, a display item setting screen 81 is displayed on the output device 8 as shown in FIG. 6, which is an example of a setting screen. An output item selection area 811 is selected to output information, and a timing at which the selected information is output is set from an output timing setting area 813. The timing here will be described as follows, taking as an example a case where the fluctuation state of the error of the moving object 1 is used as a reference.

【0044】位置誤差(P_err )および速度誤差(V
_err )がa<P_err <bまたはc<V_err <dと
いう範囲になった場合に、表示装置上に誤差範囲を表示
するようにセットアップする手順は、 1.出力項目811の中から推定速度と推定位置の項目
の所をオペレータ10がマウス等の機器を用いて選択す
る。
The position error (P_err) and the speed error (V
_Err) is set to display the error range on the display device when a <P_err <b or c <V_err <d. The operator 10 selects items of the estimated speed and the estimated position from the output items 811 by using a device such as a mouse.

【0045】2.次に、タイミング項目813の中から
必要時の項目選択する。なお、ここで常時の項目を選択
した場合には、常時画面上に情報を表示し続ける。
2. Next, a necessary item is selected from the timing items 813. Here, when the item of “always” is selected, the information is constantly displayed on the screen.

【0046】3.タイミングの基準として、位置誤差
(P_err )がaからbの範囲になった場合に画面上に
出力するために、キーボード等の機器を用いてa,bの
値を入力する。同様にしてc,dの値も入力する。
3. As a timing reference, the values of a and b are input using a device such as a keyboard in order to output the position error (P_err) on the screen when the position error (P_err) falls within the range from a to b. Similarly, the values of c and d are input.

【0047】4.1から3までの手順を繰返し行い、オ
ペレータ10がカスタマイズする。というもので、これ
によって、オペレータ10に解析精度が向上したことを
示したり(誤差の表示については後で説明する。)、移
動体1の運動モデルが変化した場合にガイダンス表示を
行うことも可能となる。また、判定運動モデルの項目を
選択した場合には、目標推定処理装置5で判定された運
動モデルの中から推定ポイント順位すなわち共分散誤差
Perror の小さいものから順に上位いくつ出力するかを
ランク表示数設定エリア812の中から選択する。
The procedure from 4.1 to 3 is repeated, and the operator 10 customizes. Thus, it is possible to indicate to the operator 10 that the analysis accuracy has been improved (display of an error will be described later), and to provide guidance display when the motion model of the moving body 1 changes. Becomes Also, when the item of the judgment motion model is selected, the number of ranks to be output from the motion models judged by the target estimation processing device 5 in the order of the estimated point rank, that is, the covariance error Perror in descending order, is determined. Select from the setting area 812.

【0048】このように、オペレータ10は、移動体1
の解析結果の中から任意に出力項目と出力タイミングを
選択し、全ての条件設定の操作が完了した場合は、操作
完了シンボル814を指定する。操作完了シンボル81
4が指定されたら、出力オプション情報として全てのデ
ータを出力条件設定器63に出力する。該出力条件設定
器63では、入力された出力オプション情報で選択され
た項目の情報を出力データテーブル65上からCPU
(2)61を介して、座標変換器64に移動体情報を出
力する。さらに、この移動体情報に位置誤差と速度誤差
が含まれている場合は、誤差範囲がどのような分布をし
ているかを誤差範囲処理器62で算出する。その算出方
式は推定誤差共分散の値より速度ベクトルの方向をy
軸、直行する座標をx軸とした場合、式5のような楕円
になる。
As described above, the operator 10 operates the mobile unit 1
An output item and an output timing are arbitrarily selected from the analysis results of the above, and when all the operation of setting the conditions are completed, the operation completion symbol 814 is designated. Operation complete symbol 81
When 4 is specified, all data is output to the output condition setting unit 63 as output option information. In the output condition setting unit 63, the information of the item selected by the input output option information is read from the output data table 65 by the CPU.
(2) The moving object information is output to the coordinate converter 64 via 61. Further, when the moving body information includes a position error and a speed error, the error range processor 62 calculates what distribution the error range has. The calculation method is to change the direction of the velocity vector from the value of the estimation error
When the axis and the orthogonal coordinates are the x-axis, the ellipse is as shown in Expression 5.

【0049】[0049]

【数5】 (Equation 5)

【0050】式5で算出したものは、推定位置の共分散
の範囲を示し、同様な手順により速度の共分散の範囲を
算出する。また、前記の誤差範囲処理器62で行われた
結果を座標変換器64に出力する。
The value calculated by Expression 5 indicates the range of the covariance of the estimated position, and the range of the covariance of the speed is calculated by the same procedure. The result of the error range processing unit 62 is output to the coordinate converter 64.

【0051】次に、座標変換器64では、出力装置の形
式に合わせて表示する前処理を行う。例えば、出力装置
8をCRTにした場合、移動体情報(推定位置、推定速
度等)をどのような形状、色、線種で出力するかを予め
設定された情報に基づき座標変換器64でどの位置にど
のような色で出力するかの処理を行う。また、推定位置
の形状、色等の設定を処理実行中にオペレータが入力装
置7を用いて設定し直すことも可能である。ここで出力
画面の一例を図7に示す。図の出力画面は大きく分類す
ると、算出結果をグラフ等で表示するグラフィックエリ
ア91とキャラクタエリア82とからなり、キャラクタ
エリア82には、移動体1の推定位置821、推定速度
822、運動モデル823、情報やモデルの判定ポイン
ト824および項目設定画面に切り替えるスイッチ82
5が表示される。
Next, the coordinate converter 64 performs pre-processing for displaying in accordance with the format of the output device. For example, when the output device 8 is a CRT, the coordinate converter 64 determines which shape, color, and line type to output the moving object information (estimated position, estimated speed, etc.) based on preset information. Processing is performed to determine what color is output at the position. Further, it is possible for the operator to use the input device 7 to reset the shape, color, and the like of the estimated position while the process is being performed. Here, an example of the output screen is shown in FIG. The output screen shown in the figure is roughly classified into a graphic area 91 for displaying the calculation results as a graph and the like, and a character area 82. The character area 82 includes an estimated position 821, an estimated speed 822, an exercise model 823, Switch 82 for switching to information or model determination point 824 and item setting screen
5 is displayed.

【0052】グラフィックエリア91には、該出力デー
タテーブル65の運動モデル判定結果650−kの値が
「1」であるフィルタ40を用いた移動体の航路91
1、推定位置912、推定位置誤差913、速度ベクト
ル914、推定速度誤差915および予測航路916が
表されている。ここで、予測航路916は判定されたフ
ィルタについて予測位置659を点列として表示されて
いる。
In the graphic area 91, the route 91 of the moving object using the filter 40 in which the value of the motion model determination result 650-k of the output data table 65 is "1".
1, an estimated position 912, an estimated position error 913, a speed vector 914, an estimated speed error 915, and a predicted route 916 are shown. Here, the predicted route 916 is displayed as a sequence of points at the predicted position 659 for the determined filter.

【0053】キャラクタエリア82においては、移動体
1の推定位置821が緯度および経度で表示され、推定
速度822が表示される。また、現在表示している運動
モデル識別名称66が運動モデル823で表示され、さ
らに、共分散誤差の値Perror 824も表示されてい
る。また表示状態を切り換えるスイッチ825によっ
て、表示状態を図7のような画面で表示したり、図6の
表示項目設定画面81に切り替えたりすることも可能で
ある。ここで共分散誤差Perror 824の表示では、ポ
イントの高い、すなわち該共分散誤差Perror 824の
小さい順に運動モデルの識別名称66−1を数種類表示
して、オペレータ10が入力装置を用いて任意に切り替
えることができる。切り替えられた時には、CPU
(2)61を介して出力データテーブル65から指定さ
れた運動モデルの情報や各フィルタ40の予測航路を表
示し、判定結果650−kの値を「1」にし、他のフィ
ルタ40から出力された判定結果650−kの値を
「0」に書き替える。この場合さらに、CPU(2)6
1を介してCPU(1)51に前記指定された運動モデ
ル識別名称66を送信し、CPU(1)51で、前述の
判別方法によって決定された運動モデルの代わりに該指
定された運動モデルを判定された運動モデルとして、該
運動モデルによる推定位置および推定速度を以降の時点
の推定処理の初期値としてフィルタ処理装置4に送るよ
うにしてもよい。
In the character area 82, an estimated position 821 of the moving object 1 is displayed in latitude and longitude, and an estimated speed 822 is displayed. Also, the currently displayed exercise model identification name 66 is displayed as an exercise model 823, and a covariance error value Perror 824 is also displayed. The switch 825 for switching the display state allows the display state to be displayed on a screen as shown in FIG. 7 or to be switched to the display item setting screen 81 in FIG. Here, in the display of the covariance error Perror 824, several kinds of identification names 66-1 of the motion models are displayed in descending order of the points, that is, the covariance error Perror 824 is small, and the operator 10 arbitrarily switches using the input device. be able to. When switched, CPU
(2) The information of the specified motion model and the predicted route of each filter 40 are displayed from the output data table 65 via 61, the value of the determination result 650-k is set to "1", and the value is output from the other filters 40. The value of the determined result 650-k is rewritten to “0”. In this case, the CPU (2) 6
The designated exercise model identification name 66 is transmitted to the CPU (1) 51 via the CPU 1 and the designated exercise model is replaced by the CPU (1) 51 in place of the exercise model determined by the above-described determination method. As the determined motion model, the position and speed estimated by the motion model may be sent to the filter processing device 4 as initial values of the estimation process at the subsequent time.

【0054】さらに判断処理の処理手順を図8のフロー
チャートを用いて詳細に説明する。処理70はトラッキ
ングの終了判定を行うボックスであり、トラッキングが
終了するまで処理71から処理79までを行う。処理7
1は各センサ20−nで距離、方位等の情報が得られる
毎に処理72から処理78までを繰り返し行う。処理7
2は、複数種類のフィルタ40−mで各センサ20−n
からの出力された距離および方位等の情報を入力し、フ
ィルタリング処理(処理73)を全てのフィルタ40−
kについて実行する。処理74では、全てのフィルタ4
0−kより出力される推定位置(532、652)や推
定速度(533、653)等のフィルタリング結果を状
態処理データテーブル52および出力データテーブル6
5に記憶する。さらに推定位置(532、652)、推
定速度(533、653)、共分散行列の対角項成分
(535、656)等から状態演算処理器53で共分散
誤差(539、658)等を算出し、前記状態処理デー
タテーブル52および出力データテーブル65に蓄え
る。
Further, the processing procedure of the judgment processing will be described in detail with reference to the flowchart of FIG. The process 70 is a box for determining the end of the tracking, and performs the processes 71 to 79 until the tracking is completed. Processing 7
1 repeats processing 72 to processing 78 each time information such as distance and direction is obtained by each sensor 20-n. Processing 7
2 is a plurality of types of filters 40-m and each sensor 20-n
The information such as the distance and the azimuth output from is input and the filtering processing (processing 73) is performed for all the filters 40-
Execute for k. In processing 74, all filters 4
The filtering results such as the estimated position (532, 652) and the estimated speed (533, 653) output from 0-k are stored in the state processing data table 52 and the output data table 6.
5 is stored. Further, the state calculation processor 53 calculates the covariance error (539, 658) and the like from the estimated position (532, 652), the estimated speed (533, 653), the diagonal term component (535, 656) of the covariance matrix, and the like. Are stored in the state processing data table 52 and the output data table 65.

【0055】処理78では、処理73で算出された共分
散誤差Perror の値658−kを出力処理データテーブ
ル65から取り出して出力装置8に表示する。処理79
では、オペレータ10が出力装置8に表示された運動モ
デルの中から任意の運動モデルの番号を入力装置7を用
いて入力する処理を行い、さらに出力データテーブル6
5内の判定結果650−kの値を選択された運動モデル
には「1」、その他の運動モデルには「0」として書き
込む。処理76は、処理79で選択された推定位置65
2−kおよび推定速度653−kの値を次の時刻のフィ
ルタリング処理(処理73)の初期推定値としてフィー
ドバックする。処理77では、処理79で選択された推
定値を誤差範囲処理器62、位置誤差652−kおよび
推定速度653−kより、位置および速度の誤差範囲を
算出し、推定位置652−k、推定速度653−k、速
度ベクトル657−k、共分散誤差658−kおよび予
測位置659−kを出力装置8のフォーマットに適した
値に変換し、出力装置上に表示する処理を行う。さらに
出力する情報については、出力条件設定器63から出力
されたフォーマットに従ってオペレータ10が任意に選
択することも可能である。
In step 78, the value 658-k of the covariance error Perror calculated in step 73 is extracted from the output processing data table 65 and displayed on the output device 8. Process 79
Then, the operator 10 performs a process of inputting an arbitrary exercise model number from the exercise models displayed on the output device 8 by using the input device 7, and furthermore, outputs the output data table 6.
The value of the determination result 650-k in 5 is written as "1" in the selected exercise model and "0" in other exercise models. The process 76 includes an estimation position 65 selected in the process 79.
The values of 2-k and the estimated speed 653-k are fed back as initial estimated values of the filtering process (process 73) at the next time. In the process 77, the position and speed error ranges are calculated from the error range processor 62, the position error 652-k, and the estimated speed 653-k based on the estimated value selected in the process 79, and the estimated position 652-k and the estimated speed are calculated. 653-k, the velocity vector 657-k, the covariance error 658-k, and the predicted position 659-k are converted into values suitable for the format of the output device 8 and displayed on the output device. Further, the information to be output can be arbitrarily selected by the operator 10 according to the format output from the output condition setting unit 63.

【0056】このように本実施例によれば、移動体運動
モデルの判別方式を移動体のトラッキングシステムに適
用することにより、観測側には移動体の運動モデルが不
明な場合にも運動モデルをリアルタイムに判別すること
が可能になる。また、出力画面上に情報位置や速度の情
報の他に推定運動モデルの適合度(共分散誤差の値)を
表示するので、オペレータが任意に運動モデルを選択す
ることが可能になる。また、移動体の運動モデル推定処
理に自由度を増大させることが可能になったこと、及び
位置誤差範囲を表示することにより、誤差特性がオペレ
ータにビジュアル的に表示することが可能となり操作性
の高いトラッキングシステムとすることができる。
As described above, according to the present embodiment, by applying the moving body motion model discrimination method to the moving body tracking system, even if the moving body motion model is unknown to the observer, the motion model can be obtained. It is possible to determine in real time. In addition, since the fitness (covariance error value) of the estimated motion model is displayed on the output screen in addition to the information of the information position and the speed, the operator can arbitrarily select the motion model. In addition, it is possible to increase the degree of freedom in estimating the motion model of the moving object, and by displaying the position error range, it is possible to visually display the error characteristics to the operator, thereby improving operability. A high tracking system can be achieved.

【0057】[0057]

【発明の効果】これまでの説明で明かなように、本発明
は、前述のように構成されているので、状態量として方
位と距離のみを検出し、その検出データをフィルタリン
グ処理したフィルタ出力情報からリアルタイムに目標の
運動モデルを推定することができる。また、オペレータ
が移動体の状態判定に必要な誤差情報を含む表示情報か
ら必要な情報を任意に選択でき、オペレータの経験的判
断も考慮に入れてトラッキングすることが可能な移動体
のトラッキング装置を提供するができる。
As is clear from the above description, since the present invention is configured as described above, only the azimuth and the distance are detected as the state quantities, and the filter output information obtained by filtering the detected data is filtered. From this, a target motion model can be estimated in real time. In addition, a moving object tracking device that allows an operator to arbitrarily select necessary information from display information including error information necessary for determining the state of the moving object and that can perform tracking in consideration of the empirical judgment of the operator. Can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例に係る移動体のトラッキング装
置の詳細な構成を示すブロック図である。
FIG. 1 is a block diagram showing a detailed configuration of a moving object tracking device according to an embodiment of the present invention.

【図2】実施例に係る移動体のトラッキング装置の概略
構成を示すシステム構成図である。
FIG. 2 is a system configuration diagram illustrating a schematic configuration of a moving object tracking device according to an embodiment.

【図3】実施例に係るトラッキング装置における目標推
定処理装置内のデータテーブルの構成を示す図である。
FIG. 3 is a diagram illustrating a configuration of a data table in a target estimation processing device in the tracking device according to the embodiment.

【図4】実施例に係る目標推定処理処理装置とフィルタ
処理装置における推定処理の手順を示すフローチャート
である。
FIG. 4 is a flowchart illustrating a procedure of an estimation process in a target estimation processing device and a filter processing device according to the embodiment.

【図5】実施例に係る移動体のトラッキング装置におけ
る入出力処理装置内のデータフローを示す説明図であ
る。
FIG. 5 is an explanatory diagram showing a data flow in the input / output processing device in the mobile tracking device according to the embodiment.

【図6】実施例に係る移動体のトラッキング装置におけ
る出力条件を設定するために表示される画面の一例を示
す図である。
FIG. 6 is a diagram illustrating an example of a screen displayed for setting output conditions in the mobile object tracking device according to the embodiment;

【図7】実施例に係る移動体のトラッキング装置におけ
る状態判定結果を表示する画面の一例を示す図である。
FIG. 7 is a diagram illustrating an example of a screen that displays a state determination result in the moving object tracking device according to the embodiment;

【図8】実施例に係る移動体のトラッキング装置におけ
るオペレータが判定をした場合の判別処理手順を示すフ
ローチャートである。
FIG. 8 is a flowchart illustrating a determination processing procedure when an operator makes a determination in the moving object tracking device according to the embodiment;

【符号の説明】[Explanation of symbols]

1 移動体 2 センサ群 3 センサデータ処理装置 4 フィルタ処理装置 5 目標推定処理装置 6 入出力処理装置 7 入力装置 8 出力装置 9 情報処理装置 10 オペレータ 20 センサ 40 フィルタ 51 CPU(1) 52 状態処理データテーブル 53 状態演算処理器 54 運動モデルの識別名称 61 CPU(2) 62 誤差範囲処理器 63 出力条件設定器 64 座標変換器 65 出力データテーブル 66 運動モデルの識別名称 81 表示項目設定画面 82 キャラクタエリア 91 グラフィックエリア 100 目標点 DESCRIPTION OF SYMBOLS 1 Moving body 2 Sensor group 3 Sensor data processing device 4 Filter processing device 5 Target estimation processing device 6 Input / output processing device 7 Input device 8 Output device 9 Information processing device 10 Operator 20 Sensor 40 Filter 51 CPU (1) 52 State processing data Table 53 State calculation processor 54 Identification name of motion model 61 CPU (2) 62 Error range processor 63 Output condition setting device 64 Coordinate converter 65 Output data table 66 Identification name of motion model 81 Display item setting screen 82 Character area 91 Graphic area 100 target points

フロントページの続き (72)発明者 佐々木 敏郎 神奈川県川崎市麻生区王禅寺1099番地 株式会社 日立製作所 システム開発研 究所内 (72)発明者 古村 文伸 神奈川県川崎市麻生区王禅寺1099番地 株式会社 日立製作所 システム開発研 究所内 (72)発明者 高橋 廣 神奈川県横浜市戸塚区戸塚町216番地 株式会社 日立製作所 情報通信事業部 内 (72)発明者 ▲吉▼田 正治 神奈川県横浜市戸塚区戸塚町216番地 株式会社 日立製作所 情報通信事業部 内Continued on the front page (72) Inventor Toshiro Sasaki 1099 Ozenji Temple, Aso-ku, Kawasaki City, Kanagawa Prefecture Inside Hitachi, Ltd.System Development Laboratory (72) Inventor Fuminobu Furumura 1099 Ozenji Temple, Aso-ku, Kawasaki-shi, Kanagawa Hitachi, Ltd. Within the System Development Laboratory (72) Inventor Hiroshi Takahashi 216 Totsuka-cho, Totsuka-ku, Yokohama-shi, Kanagawa Prefecture Within the Information and Communication Division, Hitachi, Ltd. (72) Inventor Shoji Yoshi ▼ 216 Totsukacho, Totsuka-ku, Yokohama-shi, Kanagawa Prefecture Address Hitachi Information Systems, Ltd.

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 移動体の推定位置および推定速度を算出
し、移動体の状態推定を行う移動体のトラッキング装置
において、 推定対象となる移動体の時々刻々の運動を観測して移動
体の方位と距離を検出し、検出データとして出力する検
出手段と、 この検出手段によって検出された検出データが入力され
る時刻に、該検出データに対して複数の相異なる運動モ
デルを用いたフィルタよりフィルタリング処理を行い、
フィルタリング処理した結果から移動体の運動モデルの
判別処理を行い、この判別処理によって最も適合する一
つの運動モデルを選択し、この選択された運動モデルに
対応するフィルタの処理結果から移動体の位置および速
度を推定し、この推定された位置および速度を次の時刻
のフィルタリング処理の初期推定値として使用するとと
もに、推定された位置および速度を出力する情報処理手
段と、 この情報処理手段から出力される前記推定された位置お
よび速度を表示する出力手段と、を備えていることを特
徴とする移動体のトラッキング装置。
1. A moving object tracking apparatus for calculating an estimated position and an estimated speed of a moving object and estimating a state of the moving object. Detecting means for detecting the distance and the distance, and outputting the detected data as detection data. At a time when the detection data detected by the detection means is input, filtering processing is performed on the detection data by a filter using a plurality of different motion models. Do
A discriminating process of the motion model of the moving object is performed based on the result of the filtering process, one motion model that is most suitable by the discriminating process is selected, and the position and the moving object of the moving object are determined from the processing result of the filter corresponding to the selected motion model. An information processing means for estimating the velocity, using the estimated position and velocity as an initial estimation value for the filtering processing at the next time, outputting the estimated position and velocity, and outputting from the information processing means Output means for displaying the estimated position and speed. A tracking apparatus for a moving object, comprising:
【請求項2】 前記情報処理手段は、前記推定された位
置および速度に加え、前記選択された運動モデルの識別
名称を出力し、前記出力手段は、前記推定された位置お
よび速度に加え、前記選択された運動モデルの識別名称
を表示することを特徴と請求項1記載の移動体のトラッ
キング装置。
2. The information processing means outputs an identification name of the selected motion model in addition to the estimated position and speed, and the output means outputs the identification name in addition to the estimated position and speed. The moving object tracking apparatus according to claim 1, wherein an identification name of the selected exercise model is displayed.
【請求項3】 移動体の推定位置および推定速度を算出
し、移動体の状態推定を行う移動体のトラッキング装置
において、 推定対象となる移動体の時々刻々の運動を観測して移動
体の方位と距離を検出し、検出データとして出力する検
出手段と、 運動モデルの識別名称を入力する入力手段と、 前記検出手段によって検出された検出データが入力され
る時刻に、該検出データに対して複数の相異なる運動モ
デルを用いたフィルタによりフィルタリング処理を行
い、このフィルタリング処理によって共分散誤差を算出
し、前記各フィルタにより求めた共分散誤差を出力する
とともに、前記入力手段により入力された運動モデルの
識別名称に該当するフィルタの処理結果から移動体の位
置および速度を推定し、かつ推定された位置および速度
を次の時刻のフィルタリング処理の初期推定値として使
用する情報処理手段と、 この情報処理手段から出力される前記推定された位置、
速度および共分散誤差を表示する出力手段と、を備えて
いることを特徴とする移動体のトラッキング装置。
3. A moving object tracking device for calculating an estimated position and an estimated speed of a moving object and estimating a state of the moving object. Detecting means for detecting the distance and the distance, and outputting the detected data as detection data; input means for inputting the identification name of the exercise model; Performing a filtering process using a filter using different motion models, calculating a covariance error by the filtering process, outputting a covariance error obtained by each of the filters, and calculating a covariance error of the motion model input by the input unit. The position and speed of the moving object are estimated from the processing result of the filter corresponding to the identification name, and the estimated position and speed are Information processing means used as an initial estimated value of time filtering processing; and the estimated position output from the information processing means;
Output means for displaying a velocity and a covariance error.
【請求項4】 前記検出手段は、1つ以上のセンサから
なることを特徴とする請求項1ないし3のいずれか1に
記載の移動体のトラッキング装置。
4. The tracking apparatus for a mobile object according to claim 1, wherein said detection means comprises one or more sensors.
【請求項5】 前記出力手段は、表示装置および印字装
置の少なくともいずれかからなることを特徴とする請求
項1または3記載のトラッキング装置。
5. The tracking device according to claim 1, wherein said output means comprises at least one of a display device and a printing device.
JP01182394A 1994-02-03 1994-02-03 Mobile tracking device Expired - Fee Related JP3246822B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01182394A JP3246822B2 (en) 1994-02-03 1994-02-03 Mobile tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01182394A JP3246822B2 (en) 1994-02-03 1994-02-03 Mobile tracking device

Publications (2)

Publication Number Publication Date
JPH07218611A JPH07218611A (en) 1995-08-18
JP3246822B2 true JP3246822B2 (en) 2002-01-15

Family

ID=11788501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01182394A Expired - Fee Related JP3246822B2 (en) 1994-02-03 1994-02-03 Mobile tracking device

Country Status (1)

Country Link
JP (1) JP3246822B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10133704A (en) * 1996-10-31 1998-05-22 Hitachi Ltd Device for estimating state
JP2006119864A (en) * 2004-10-21 2006-05-11 Masao Matsuura Velocity error vector analysis method
JP4875010B2 (en) * 2008-02-27 2012-02-15 株式会社東芝 Exercise class classification device and tracking processing device
JP5017392B2 (en) * 2010-02-24 2012-09-05 クラリオン株式会社 Position estimation apparatus and position estimation method
KR101596323B1 (en) * 2014-03-07 2016-03-07 고려대학교 산학협력단 System and method for self-localizing and a medium having computer readable program for executing the method
DE102014111126A1 (en) 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Method for generating an environment map of an environmental area of a motor vehicle, driver assistance system and motor vehicle
JP7241296B2 (en) * 2018-03-08 2023-03-17 パナソニックIpマネジメント株式会社 Communication device, position estimation method, position estimation program, and communication system
WO2019172009A1 (en) * 2018-03-08 2019-09-12 パナソニックIpマネジメント株式会社 Communication device, position estimating method, position estimating program, and communication system
JP7444426B2 (en) * 2019-09-12 2024-03-06 地方独立行政法人東京都立産業技術研究センター State estimation evaluation device, method, and program
CN112083388B (en) * 2020-09-10 2022-07-19 四川九洲空管科技有限责任公司 Trace point quality evaluation method based on secondary radar response signal

Also Published As

Publication number Publication date
JPH07218611A (en) 1995-08-18

Similar Documents

Publication Publication Date Title
JP3186401B2 (en) Vehicle distance data processing device
CN112033429B (en) Target-level multi-sensor fusion method for intelligent automobile
CN110377025A (en) Sensor aggregation framework for automatic driving vehicle
JP3246822B2 (en) Mobile tracking device
JP2021527863A (en) Vehicle environment mapping methods and corresponding systems, vehicles and computer program products
JP2014219403A (en) Method and device for tracking two or more object
US11253997B2 (en) Method for tracking multiple target objects, device, and computer program for implementing the tracking of multiple target objects for the case of moving objects
CN108573272A (en) Track approximating method
JPH09257924A (en) Moving body monitoring method
CN108882169A (en) The acquisition methods and device and robot of a kind of WiFi location fingerprint data
CN113156473A (en) Self-adaptive discrimination method for satellite signal environment of information fusion positioning system
KR101180825B1 (en) Apparatus and Method for tracing location of the Mobile based on Sensor Network
US20200258379A1 (en) Determination of movement information with surroundings sensors
JPWO2020230645A5 (en)
Jiang et al. Respect your emotion: Human-multi-robot teaming based on regret decision model
JP7285923B2 (en) vehicle control system
JP2019133332A (en) Association device, object tracking device, and program
JP7194275B2 (en) Vehicle control system and vehicle control method
CN114820697A (en) Interactive multi-model tracking algorithm using static state model
CN114942430A (en) Multi-hypothesis based fusion of sensor data
CN112052572A (en) Digital twin industrial simulation system based on WLAN (Wireless local area network) position perception
JP3440010B2 (en) Target tracking device
Schopp et al. Gaussian process based state estimation for a gyroscope-free IMU
CN115311761B (en) Non-real-time vehicle-mounted perception system evaluation method and related equipment
Alemán-Flores et al. A computational model for visual size, location and movement

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071102

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081102

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081102

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091102

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees