JP2011047881A5 - - Google Patents

Download PDF

Info

Publication number
JP2011047881A5
JP2011047881A5 JP2009198342A JP2009198342A JP2011047881A5 JP 2011047881 A5 JP2011047881 A5 JP 2011047881A5 JP 2009198342 A JP2009198342 A JP 2009198342A JP 2009198342 A JP2009198342 A JP 2009198342A JP 2011047881 A5 JP2011047881 A5 JP 2011047881A5
Authority
JP
Japan
Prior art keywords
target
correction information
covariance matrix
processing unit
calculates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009198342A
Other languages
Japanese (ja)
Other versions
JP2011047881A (en
JP5748946B2 (en
Filing date
Publication date
Application filed filed Critical
Priority to JP2009198342A priority Critical patent/JP5748946B2/en
Priority claimed from JP2009198342A external-priority patent/JP5748946B2/en
Publication of JP2011047881A publication Critical patent/JP2011047881A/en
Publication of JP2011047881A5 publication Critical patent/JP2011047881A5/ja
Application granted granted Critical
Publication of JP5748946B2 publication Critical patent/JP5748946B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

次いで、予測処理が実行される(ステップST102)。すなわち、追跡処理部2は、前回観測時のステップST103において算出された目標の平滑とその共分散行列に基づいて、目標の予測およびその共分散行列を算出する。 Next, a prediction process is executed (step ST102). That is, the tracking processing unit 2 calculates a target predicted value and its covariance matrix based on the target smooth value and its covariance matrix calculated in step ST103 at the previous observation.

次いで、平滑処理が実行される(ステップST103)。すなわち、追跡処理部2は、パッシブセンサ1からの目標の測角データと、ステップST102において算出された目標の予測とその共分散行列に基づいて、目標の平滑とその共分散行列を算出し、平滑値および予測値とその共分散行列を制御部3に送る。 Next, smoothing processing is executed (step ST103). That is, the tracking processing unit 2 calculates the target smooth value and the covariance matrix based on the target angle measurement data from the passive sensor 1, the target predicted value calculated in step ST102, and the covariance matrix thereof. Then, the smooth value and the predicted value and its covariance matrix are sent to the control unit 3.

次に、追跡処理部2の処理内容について、詳細に説明する。目標の運動モデルを以下のように定義する。

Figure 2011047881
Next, processing contents of the tracking processing unit 2 will be described in detail. The target motion model is defined as follows.
Figure 2011047881

上述したステップST102においては、前回観測時の平滑処理の結果を用いて、以下の式で表される予測処理が実施される。なお、以下において、ハットxは「x(^)」と表記する。

Figure 2011047881
In step ST102 described above, a prediction process represented by the following equation is performed using the result of the smoothing process at the previous observation. In the following, the hat x is expressed as “x (^)”.
Figure 2011047881

また、第3の発明は、目標の角度を測定して測角データとして出力するパッシブセンサからの測角データを入力して前記目標の航跡を算出する追跡処理部と、前記追跡処理部に補正情報を出力する補正情報算出部とを備えた目標追跡装置であって、前記補正情報算出部は、外部から入力される前記目標の状態ベクトルに基づいて、前記補正情報として、前記パッシブセンサの位置における前記目標のバイアス誤差を算出して制御入力として出力し、前記追跡処理部は、前記補正情報算出部から出力される制御入力に基づいて、前記目標の予測を算出することを特徴とする。 According to a third aspect of the present invention, there is provided a tracking processing unit that calculates the wake of the target by inputting angle measurement data from a passive sensor that measures the target angle and outputs it as angle measurement data, and corrects the tracking processing unit. A target tracking device including a correction information calculation unit that outputs information, wherein the correction information calculation unit uses, as the correction information, the position of the passive sensor based on the target state vector input from the outside. The target bias error is calculated and output as a control input, and the tracking processing unit calculates a predicted value of the target based on the control input output from the correction information calculation unit. .

また、第4の発明は、目標の角度を測定して測角データとして出力するパッシブセンサからの測角データを入力して前記目標の航跡を算出する追跡処理部と、前記追跡処理部に補正情報を出力する補正情報算出部とを備えた目標追跡装置であって、前記補正情報算出部は、外部から入力される前記目標の状態ベクトル、または、外部から入力されるプロセス雑音共分散行列を含む前記目標の状態ベクトルに基づいて、前記補正情報として、前記パッシブセンサの位置における前記目標のバイアス誤差を算出して制御入力として出力し、かつ、前記パッシブセンサから前記目標までの距離、または、前記パッシブセンサの位置における前記目標のプロセス雑音共分散行列を算出し、前記追跡処理部は、前記補正情報算出部から出力される制御入力に基づいて前記目標の予測を算出し、かつ、前記補正情報算出部で算出された前記目標までの距離に基づいて算出したプロセス雑音共分散行列、または、前記補正情報算出部で算出されたプロセス雑音共分散行列に基づいて、前記目標の航跡を算出することを特徴とする。 According to a fourth aspect of the present invention, there is provided a tracking processing unit for calculating a wake of the target by inputting angle measurement data from a passive sensor that measures the target angle and outputs it as angle measurement data, and corrects the tracking processing unit. A target tracking device including a correction information calculation unit that outputs information, wherein the correction information calculation unit calculates the target state vector input from the outside or a process noise covariance matrix input from the outside. Based on the target state vector including, as the correction information, the bias error of the target at the position of the passive sensor is calculated and output as a control input, and the distance from the passive sensor to the target, or The target process noise covariance matrix at the position of the passive sensor is calculated, and the tracking processing unit outputs a control input output from the correction information calculation unit. Calculating a predicted value of the target on the basis of, and the correction information calculating unit calculates, based on the distance to the calculated target in the process noise covariance matrix, or calculated by the correction information calculating unit The wake of the target is calculated based on a process noise covariance matrix.

次いで、予測処理が実行される(ステップST108)。すなわち、前回観測時のステップST103において算出された目標の平滑およびその共分散行列とステップST107において算出されたプロセス雑音共分散行列Qk−1とに基づいて、目標の予測およびその共分散行列を算出する。 Next, a prediction process is executed (step ST108). That is, based on the target smooth value and its covariance matrix calculated in step ST103 at the previous observation and the process noise covariance matrix Q k−1 calculated in step ST107, the target predicted value and its covariance are calculated. Calculate the matrix.

次いで、平滑処理が実行される(ステップST103)。すなわち、追跡処理部2aは、パッシブセンサ1からの目標の測角データとステップST108において算出された目標の予測およびその共分散行列とに基づいて、目標の平滑およびその共分散行列を算出し、平滑値および予測値とその共分散行列を制御部3に送る。 Next, smoothing processing is executed (step ST103). That is, the tracking processing unit 2a calculates the target smooth value and the covariance matrix based on the target angle measurement data from the passive sensor 1, the target predicted value calculated in step ST108, and the covariance matrix thereof. Then, the smooth value and the predicted value and its covariance matrix are sent to the control unit 3.

次に、補正情報算出部5aと追跡処理部2aの処理内容について、詳細に説明する。目標の運動モデルを以下のように定義する。

Figure 2011047881
Next, processing contents of the correction information calculation unit 5a and the tracking processing unit 2a will be described in detail. The target motion model is defined as follows.
Figure 2011047881

ここで、xk−1、yk−1、zk−1は、観測時刻tk−1の目標の状態ベクトルの位置のx、y、z成分、x、y、zは、パッシブセンサ1の位置のx、y、z成分である。 Here, x k−1 , y k−1 , z k−1 are x, y, z components , x 0 , y 0 , z 0 of the position of the target state vector at the observation time t k−1 are These are the x, y, and z components of the position of the passive sensor 1.

上述したステップST107では、補正情報算出部5aからの補正情報(目標距離r(^)k−1)に基づいて、プロセス雑音共分散行列Qk−1を算出する。

Figure 2011047881
In step ST107 described above, the process noise covariance matrix Q k-1 is calculated based on the correction information (target distance r (^) k-1 ) from the correction information calculation unit 5a.
Figure 2011047881

次いで、予測処理が実行される(ステップST108)。すなわち、追跡処理部2bは、前回観測時のステップST103において算出された目標の平滑およびその共分散行列と補正情報算出部5bからの補正情報(プロセス雑音共分散行列)とに基づいて、目標の予測およびその共分散行列を算出する。 Next, a prediction process is executed (step ST108). That is, the tracking processing unit 2b uses the target smooth value calculated in step ST103 at the previous observation, the covariance matrix thereof, and the correction information (process noise covariance matrix) from the correction information calculation unit 5b. The predicted value and its covariance matrix are calculated.

次いで、平滑処理が実行される(ステップST103)。すなわち、追跡処理部2bは、パッシブセンサ1からの目標の測角データとステップST108において算出された目標の予測およびその共分散行列とに基づいて、目標の平滑およびその共分散行列を算出し、平滑値および予測値とその共分散行列を制御部3に送る。 Next, smoothing processing is executed (step ST103). That is, the tracking processing unit 2b calculates a target smooth value and its covariance matrix based on the target angle measurement data from the passive sensor 1, the target predicted value calculated in step ST108, and its covariance matrix. Then, the smooth value and the predicted value and its covariance matrix are sent to the control unit 3.

ここで、外部装置から入力されるプロセス雑音共分散行列Q k−1が以下の(35)式で表されるとすると、変換行列Tk−1は、(36)式のようになる。なお、(xk−1、yk−1、zk−1)、(ak−1、ek−1)は、座標変換によって、外部装置から入力される目標の状態ベクトルをパッシブセンサ1から見た目標の位置ベクトル(直交座標系と極座標系)に変換した値である。

Figure 2011047881
Here, if the process noise covariance matrix Q a k−1 input from the external device is expressed by the following equation (35), the transformation matrix T k−1 is expressed by equation (36). Note that (x k−1 , y k−1 , z k−1 ) and (a k−1 , e k−1 ) are obtained by converting the target state vector input from the external device into the passive sensor 1 by coordinate conversion. This is a value converted into a target position vector (orthogonal coordinate system and polar coordinate system) as seen from FIG.
Figure 2011047881

次いで、予測処理が実行される(ステップST111)。すなわち、追跡処理部2cは、前回観測時のステップST103において算出された目標の平滑およびその共分散行列と補正情報算出部5cからの補正情報(制御入力ベクトル)とに基づいて、目標の予測およびその共分散行列を算出する。 Next, a prediction process is executed (step ST111). That is, the tracking processing unit 2c predicts the target based on the target smooth value calculated in step ST103 at the time of the previous observation, its covariance matrix, and the correction information (control input vector) from the correction information calculation unit 5c. Calculate the value and its covariance matrix.

次いで、平滑処理が実行される(ステップST103)。すなわち、追跡処理部2cは、パッシブセンサ1からの目標の測角データとST111において算出された目標の予測およびその共分散行列とに基づいて、目標の平滑およびその共分散行列を算出し、平滑値および予測値とその共分散行列を制御部3に送る。 Next, smoothing processing is executed (step ST103). That is, the tracking processing unit 2c calculates a target smooth value and its covariance matrix based on the target angle measurement data from the passive sensor 1, the target predicted value calculated in ST111, and its covariance matrix. The smooth value, the predicted value, and the covariance matrix thereof are sent to the control unit 3.

次に、補正情報算出部5cと追跡処理部2cの処理内容について、詳細に説明する。目標の運動モデルを以下のように定義する。

Figure 2011047881
Next, processing contents of the correction information calculation unit 5c and the tracking processing unit 2c will be described in detail. The target motion model is defined as follows.
Figure 2011047881

ここで、(xk−1、yk−1、zk−1)、(x(・)k−1、y(・)k−1、z
(・)k−1)、(a(・)k−1、e(・)k−1)は、座標変換によって、外部装置
から入力される目標の状態ベクトルをパッシブセンサ1から見た目標の位置ベクトル、速度ベクトルおよび角速度ベクトルに変換した値である。
Here, (x k−1 , y k−1 , z k−1 ), (x (•) k−1 , y (•) k−1 , z
(•) k−1 ), (a (•) k−1 , e (•) k−1 ) are target positions when the target state vector input from the external device is viewed from the passive sensor 1 by coordinate transformation. A value converted into a vector , a velocity vector, and an angular velocity vector .

上述したステップST111では、前回観測時の平滑処理の結果と制御入力ベクトルuk−1を用いて、以下の式で表される予測処理を実施する。

Figure 2011047881
In step ST111 mentioned above, the prediction process represented by the following formula | equation is implemented using the result of the smoothing process at the time of last observation, and control input vector uk -1 .
Figure 2011047881

次いで、予測処理が実行される(ステップST112)。すなわち、追跡処理部2dは、前回観測時のステップST103において算出された目標の平滑およびその共分散行列と補正情報算出部5dからの補正情報(プロセス雑音共分散行列と制御入力ベクトル)とに基づいて、目標の予測およびその共分散行列を算出する。 Next, prediction processing is executed (step ST112). That is, the tracking processing unit 2d uses the target smooth value calculated in step ST103 at the time of the previous observation, its covariance matrix, and the correction information (process noise covariance matrix and control input vector) from the correction information calculation unit 5d. Based on this, a target predicted value and its covariance matrix are calculated.

次いで、平滑処理が実行される(ステップST103)。すなわち、追跡処理部2dは、パッシブセンサ1からの目標の測角データとST112において算出された目標の予測およびその共分散行列とに基づいて、目標の平滑およびその共分散行列を算出し、平滑値および予測値とその共分散行列を制御部3に送る。



Next, smoothing processing is executed (step ST103). That is, the tracking processing unit 2d calculates a target smooth value and its covariance matrix based on the target angle measurement data from the passive sensor 1, the target predicted value calculated in ST112, and its covariance matrix. The smooth value, the predicted value, and the covariance matrix thereof are sent to the control unit 3.



Claims (5)

目標の角度を測定して測角データとして出力するパッシブセンサからの測角データを入力して前記目標の航跡を算出する追跡処理部と、前記追跡処理部に補正情報を出力する補正情報算出部とを備えた目標追跡装置であって、
前記補正情報算出部は、外部から入力される前記目標の状態ベクトルに基づいて、前記補正情報として、前記パッシブセンサから前記目標までの距離を算出し、
前記追跡処理部は、前記補正情報算出部で算出された前記目標までの距離に基づいて、プロセス雑音共分散行列を算出し、算出したプロセス雑音共分散行列に基づいて、前記目標の航跡を算出すること
を特徴とする目標追跡装置。
A tracking processing unit that calculates angle data from a passive sensor that measures a target angle and outputs it as angle measurement data, and a correction information calculation unit that outputs correction information to the tracking processing unit A target tracking device comprising:
The correction information calculation unit calculates a distance from the passive sensor to the target as the correction information based on the target state vector input from the outside,
The tracking processing unit calculates a process noise covariance matrix based on the distance to the target calculated by the correction information calculation unit, and calculates a track of the target based on the calculated process noise covariance matrix A target tracking device characterized by:
目標の角度を測定して測角データとして出力するパッシブセンサからの測角データを入力して前記目標の航跡を算出する追跡処理部と、前記追跡処理部に補正情報を出力する補正情報算出部とを備えた目標追跡装置であって、
前記補正情報算出部は、外部から入力されるプロセス雑音共分散行列を含む前記目標の状態ベクトルに基づいて、前記補正情報として、前記パッシブセンサの位置における前記目標のプロセス雑音共分散行列を算出し、
前記追跡処理部は、前記補正情報算出部で算出されたプロセス雑音共分散行列に基づいて、前記目標の航跡を算出することを特徴とする目標追跡装置。
A tracking processing unit that calculates angle data from a passive sensor that measures a target angle and outputs it as angle measurement data, and a correction information calculation unit that outputs correction information to the tracking processing unit A target tracking device comprising:
The correction information calculation unit calculates the target process noise covariance matrix at the position of the passive sensor as the correction information based on the target state vector including the process noise covariance matrix input from the outside. ,
The target tracking device, wherein the tracking processing unit calculates a track of the target based on a process noise covariance matrix calculated by the correction information calculating unit.
目標の角度を測定して測角データとして出力するパッシブセンサからの測角データを入力して前記目標の航跡を算出する追跡処理部と、前記追跡処理部に補正情報を出力する補正情報算出部とを備えた目標追跡装置であって、
前記補正情報算出部は、外部から入力される前記目標の状態ベクトルに基づいて、前記補正情報として、前記パッシブセンサの位置における前記目標のバイアス誤差を算出して制御入力として出力し、
前記追跡処理部は、前記補正情報算出部から出力される制御入力に基づいて、前記目標の予測を算出することを特徴とする目標追跡装置。
A tracking processing unit that calculates angle data from a passive sensor that measures a target angle and outputs it as angle measurement data, and a correction information calculation unit that outputs correction information to the tracking processing unit A target tracking device comprising:
The correction information calculation unit calculates the bias error of the target at the position of the passive sensor as the correction information based on the target state vector input from the outside, and outputs it as a control input,
The target tracking device, wherein the tracking processing unit calculates a predicted value of the target based on a control input output from the correction information calculating unit.
目標の角度を測定して測角データとして出力するパッシブセンサからの測角データを入力して前記目標の航跡を算出する追跡処理部と、前記追跡処理部に補正情報を出力する補正情報算出部とを備えた目標追跡装置であって、
前記補正情報算出部は、外部から入力される前記目標の状態ベクトル、または、外部から入力されるプロセス雑音共分散行列を含む前記目標の状態ベクトルに基づいて、前記補正情報として、前記パッシブセンサの位置における前記目標のバイアス誤差を算出して制御入力として出力し、かつ、前記パッシブセンサから前記目標までの距離、または、前記パッシブセンサの位置における前記目標のプロセス雑音共分散行列を算出し、
前記追跡処理部は、前記補正情報算出部から出力される制御入力に基づいて前記目標の予測を算出し、かつ、前記補正情報算出部で算出された前記目標までの距離に基づいて算出したプロセス雑音共分散行列、または、前記補正情報算出部で算出されたプロセス雑音共分散行列に基づいて、前記目標の航跡を算出することを特徴とする目標追跡装置。
A tracking processing unit that calculates angle data from a passive sensor that measures a target angle and outputs it as angle measurement data, and a correction information calculation unit that outputs correction information to the tracking processing unit A target tracking device comprising:
The correction information calculation unit, as the correction information, based on the target state vector input from the outside or the target state vector including a process noise covariance matrix input from the outside, Calculating a bias error of the target at a position and outputting it as a control input, and calculating a distance from the passive sensor to the target, or a process noise covariance matrix of the target at the position of the passive sensor;
The tracking processing unit calculates a predicted value of the target based on a control input output from the correction information calculation unit, and calculates based on a distance to the target calculated by the correction information calculation unit A target tracking device that calculates a track of the target based on a process noise covariance matrix or a process noise covariance matrix calculated by the correction information calculation unit.
前記追跡処理部は、算出したプロセス雑音共分散行列に基づいて、前記目標の航跡算出に用いるフィルタゲインを算出することを特徴とする請求項1、2、4のいずれか1項に記載の目標追跡装置。   5. The target according to claim 1, wherein the tracking processing unit calculates a filter gain used for calculating a track of the target based on the calculated process noise covariance matrix. Tracking device.
JP2009198342A 2009-08-28 2009-08-28 Target tracking device Expired - Fee Related JP5748946B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009198342A JP5748946B2 (en) 2009-08-28 2009-08-28 Target tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009198342A JP5748946B2 (en) 2009-08-28 2009-08-28 Target tracking device

Publications (3)

Publication Number Publication Date
JP2011047881A JP2011047881A (en) 2011-03-10
JP2011047881A5 true JP2011047881A5 (en) 2012-04-19
JP5748946B2 JP5748946B2 (en) 2015-07-15

Family

ID=43834348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009198342A Expired - Fee Related JP5748946B2 (en) 2009-08-28 2009-08-28 Target tracking device

Country Status (1)

Country Link
JP (1) JP5748946B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9128186B2 (en) 2011-02-25 2015-09-08 Kabushiki Kaisha Toshiba Target tracking device and target tracking method
WO2013188776A1 (en) * 2012-06-14 2013-12-19 Yei Corporation Determining and correcting error of positional vector-valued sensors using a fixed angle calibration process
US9255799B2 (en) 2012-06-14 2016-02-09 Yost Labs Inc. Determining and correcting error of positional vector-valued sensors using a fixed angle calibration process
CN109061627B (en) * 2018-09-11 2021-02-26 长光禹辰信息技术与装备(青岛)有限公司 Radar photoelectric linkage system and control method thereof
CN117687018B (en) * 2024-01-31 2024-04-19 四川省华盾防务科技股份有限公司 Phased array beam tracking method, device, system and storage medium

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05126951A (en) * 1991-11-05 1993-05-25 Hitachi Ltd Target motion analysis device and its method
JP3097471B2 (en) * 1994-11-16 2000-10-10 三菱電機株式会社 Tracking device
JPH09257933A (en) * 1996-03-21 1997-10-03 Mitsubishi Electric Corp Distance measuring device
JP3212259B2 (en) * 1996-10-25 2001-09-25 防衛庁技術研究本部長 Guidance control device
JP3882311B2 (en) * 1998-02-02 2007-02-14 三菱電機株式会社 Flying object guidance control device
JP2001056374A (en) * 1999-08-17 2001-02-27 Mitsubishi Electric Corp Guidance control apparatus for flying object
JP2002202367A (en) * 2000-12-28 2002-07-19 Mitsubishi Electric Corp Target-tracking apparatus
JP4080722B2 (en) * 2001-10-25 2008-04-23 三菱電機株式会社 Target tracking device and target tracking method
JP5193444B2 (en) * 2006-08-11 2013-05-08 株式会社東芝 Tracking device
JP5230132B2 (en) * 2007-07-06 2013-07-10 三菱電機株式会社 Target tracking device and target tracking method
JP2009186269A (en) * 2008-02-05 2009-08-20 Mitsubishi Electric Corp Sensor information integrating system
JP5542393B2 (en) * 2009-08-28 2014-07-09 株式会社東芝 Target tracking device

Similar Documents

Publication Publication Date Title
JP2011047882A5 (en)
JP5784526B2 (en) Target tracking device
JP5542393B2 (en) Target tracking device
JP2011047881A5 (en)
JP5306389B2 (en) Target tracking device
US8958914B2 (en) Robot control system, robot system, and sensor information processing apparatus
JP2011069815A5 (en)
JP2012003233A5 (en)
US20170027416A1 (en) Endoscopic system, image processing device, image processing method, and program
JP2006221626A (en) Mobile body control unit and method
JP2015094630A5 (en)
JP5748946B2 (en) Target tracking device
US20160132125A1 (en) System and method for generating gestures
JP5747752B2 (en) Posture estimation device, posture estimation method, posture estimation program
JP2015197403A (en) target tracking device
JP6041547B2 (en) Tracking device
JP2006284527A (en) Vehicular noise measuring instrument
JP5634355B2 (en) Target tracking system and program and method thereof, angle tracking device and program and method thereof, target tracking device and program and method thereof
KR101649198B1 (en) Method and Apparatus for estimating object trajectories using optimized smoothing filter based beamforming information
KR101048619B1 (en) Fuzzy Controller and Control Method for Obstacle Avoidance with Table-based Fuzzy Single Positive and Double Negative Rules
KR101338082B1 (en) Method and system for eliminating disturbance of robot
JP2018040601A (en) Bias error estimation device, bias error estimation system, bias error estimation method and bias error estimation program
JP2008033696A (en) Autonomous mobile body
JP2016142577A (en) Image processing device, image processing method, image processing system, and program
JP2019184360A (en) Sensor device, error detection method, and error detection program