JP2011047881A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2011047881A5 JP2011047881A5 JP2009198342A JP2009198342A JP2011047881A5 JP 2011047881 A5 JP2011047881 A5 JP 2011047881A5 JP 2009198342 A JP2009198342 A JP 2009198342A JP 2009198342 A JP2009198342 A JP 2009198342A JP 2011047881 A5 JP2011047881 A5 JP 2011047881A5
- Authority
- JP
- Japan
- Prior art keywords
- target
- correction information
- covariance matrix
- processing unit
- calculates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Description
次いで、予測処理が実行される(ステップST102)。すなわち、追跡処理部2は、前回観測時のステップST103において算出された目標の平滑値とその共分散行列に基づいて、目標の予測値およびその共分散行列を算出する。 Next, a prediction process is executed (step ST102). That is, the tracking processing unit 2 calculates a target predicted value and its covariance matrix based on the target smooth value and its covariance matrix calculated in step ST103 at the previous observation.
次いで、平滑処理が実行される(ステップST103)。すなわち、追跡処理部2は、パッシブセンサ1からの目標の測角データと、ステップST102において算出された目標の予測値とその共分散行列に基づいて、目標の平滑値とその共分散行列を算出し、平滑値および予測値とその共分散行列を制御部3に送る。 Next, smoothing processing is executed (step ST103). That is, the tracking processing unit 2 calculates the target smooth value and the covariance matrix based on the target angle measurement data from the passive sensor 1, the target predicted value calculated in step ST102, and the covariance matrix thereof. Then, the smooth value and the predicted value and its covariance matrix are sent to the control unit 3.
次に、追跡処理部2の処理内容について、詳細に説明する。目標の運動モデルを以下のように定義する。
上述したステップST102においては、前回観測時の平滑処理の結果を用いて、以下の式で表される予測処理が実施される。なお、以下において、ハットxは「x(^)」と表記する。
また、第3の発明は、目標の角度を測定して測角データとして出力するパッシブセンサからの測角データを入力して前記目標の航跡を算出する追跡処理部と、前記追跡処理部に補正情報を出力する補正情報算出部とを備えた目標追跡装置であって、前記補正情報算出部は、外部から入力される前記目標の状態ベクトルに基づいて、前記補正情報として、前記パッシブセンサの位置における前記目標のバイアス誤差を算出して制御入力として出力し、前記追跡処理部は、前記補正情報算出部から出力される制御入力に基づいて、前記目標の予測値を算出することを特徴とする。 According to a third aspect of the present invention, there is provided a tracking processing unit that calculates the wake of the target by inputting angle measurement data from a passive sensor that measures the target angle and outputs it as angle measurement data, and corrects the tracking processing unit. A target tracking device including a correction information calculation unit that outputs information, wherein the correction information calculation unit uses, as the correction information, the position of the passive sensor based on the target state vector input from the outside. The target bias error is calculated and output as a control input, and the tracking processing unit calculates a predicted value of the target based on the control input output from the correction information calculation unit. .
また、第4の発明は、目標の角度を測定して測角データとして出力するパッシブセンサからの測角データを入力して前記目標の航跡を算出する追跡処理部と、前記追跡処理部に補正情報を出力する補正情報算出部とを備えた目標追跡装置であって、前記補正情報算出部は、外部から入力される前記目標の状態ベクトル、または、外部から入力されるプロセス雑音共分散行列を含む前記目標の状態ベクトルに基づいて、前記補正情報として、前記パッシブセンサの位置における前記目標のバイアス誤差を算出して制御入力として出力し、かつ、前記パッシブセンサから前記目標までの距離、または、前記パッシブセンサの位置における前記目標のプロセス雑音共分散行列を算出し、前記追跡処理部は、前記補正情報算出部から出力される制御入力に基づいて前記目標の予測値を算出し、かつ、前記補正情報算出部で算出された前記目標までの距離に基づいて算出したプロセス雑音共分散行列、または、前記補正情報算出部で算出されたプロセス雑音共分散行列に基づいて、前記目標の航跡を算出することを特徴とする。 According to a fourth aspect of the present invention, there is provided a tracking processing unit for calculating a wake of the target by inputting angle measurement data from a passive sensor that measures the target angle and outputs it as angle measurement data, and corrects the tracking processing unit. A target tracking device including a correction information calculation unit that outputs information, wherein the correction information calculation unit calculates the target state vector input from the outside or a process noise covariance matrix input from the outside. Based on the target state vector including, as the correction information, the bias error of the target at the position of the passive sensor is calculated and output as a control input, and the distance from the passive sensor to the target, or The target process noise covariance matrix at the position of the passive sensor is calculated, and the tracking processing unit outputs a control input output from the correction information calculation unit. Calculating a predicted value of the target on the basis of, and the correction information calculating unit calculates, based on the distance to the calculated target in the process noise covariance matrix, or calculated by the correction information calculating unit The wake of the target is calculated based on a process noise covariance matrix.
次いで、予測処理が実行される(ステップST108)。すなわち、前回観測時のステップST103において算出された目標の平滑値およびその共分散行列とステップST107において算出されたプロセス雑音共分散行列Qk−1とに基づいて、目標の予測値およびその共分散行列を算出する。 Next, a prediction process is executed (step ST108). That is, based on the target smooth value and its covariance matrix calculated in step ST103 at the previous observation and the process noise covariance matrix Q k−1 calculated in step ST107, the target predicted value and its covariance are calculated. Calculate the matrix.
次いで、平滑処理が実行される(ステップST103)。すなわち、追跡処理部2aは、パッシブセンサ1からの目標の測角データとステップST108において算出された目標の予測値およびその共分散行列とに基づいて、目標の平滑値およびその共分散行列を算出し、平滑値および予測値とその共分散行列を制御部3に送る。 Next, smoothing processing is executed (step ST103). That is, the tracking processing unit 2a calculates the target smooth value and the covariance matrix based on the target angle measurement data from the passive sensor 1, the target predicted value calculated in step ST108, and the covariance matrix thereof. Then, the smooth value and the predicted value and its covariance matrix are sent to the control unit 3.
次に、補正情報算出部5aと追跡処理部2aの処理内容について、詳細に説明する。目標の運動モデルを以下のように定義する。
ここで、xk−1、yk−1、zk−1は、観測時刻tk−1の目標の状態ベクトルの位置のx、y、z成分、x0、y0、z0は、パッシブセンサ1の位置のx、y、z成分である。 Here, x k−1 , y k−1 , z k−1 are x, y, z components , x 0 , y 0 , z 0 of the position of the target state vector at the observation time t k−1 are These are the x, y, and z components of the position of the passive sensor 1.
上述したステップST107では、補正情報算出部5aからの補正情報(目標距離r(^)k−1)に基づいて、プロセス雑音共分散行列Qk−1を算出する。
次いで、予測処理が実行される(ステップST108)。すなわち、追跡処理部2bは、前回観測時のステップST103において算出された目標の平滑値およびその共分散行列と補正情報算出部5bからの補正情報(プロセス雑音共分散行列)とに基づいて、目標の予測値およびその共分散行列を算出する。 Next, a prediction process is executed (step ST108). That is, the tracking processing unit 2b uses the target smooth value calculated in step ST103 at the previous observation, the covariance matrix thereof, and the correction information (process noise covariance matrix) from the correction information calculation unit 5b. The predicted value and its covariance matrix are calculated.
次いで、平滑処理が実行される(ステップST103)。すなわち、追跡処理部2bは、パッシブセンサ1からの目標の測角データとステップST108において算出された目標の予測値およびその共分散行列とに基づいて、目標の平滑値およびその共分散行列を算出し、平滑値および予測値とその共分散行列を制御部3に送る。 Next, smoothing processing is executed (step ST103). That is, the tracking processing unit 2b calculates a target smooth value and its covariance matrix based on the target angle measurement data from the passive sensor 1, the target predicted value calculated in step ST108, and its covariance matrix. Then, the smooth value and the predicted value and its covariance matrix are sent to the control unit 3.
ここで、外部装置から入力されるプロセス雑音共分散行列Qa k−1が以下の(35)式で表されるとすると、変換行列Tk−1は、(36)式のようになる。なお、(xk−1、yk−1、zk−1)、(ak−1、ek−1)は、座標変換によって、外部装置から入力される目標の状態ベクトルをパッシブセンサ1から見た目標の位置ベクトル(直交座標系と極座標系)に変換した値である。
次いで、予測処理が実行される(ステップST111)。すなわち、追跡処理部2cは、前回観測時のステップST103において算出された目標の平滑値およびその共分散行列と補正情報算出部5cからの補正情報(制御入力ベクトル)とに基づいて、目標の予測値およびその共分散行列を算出する。 Next, a prediction process is executed (step ST111). That is, the tracking processing unit 2c predicts the target based on the target smooth value calculated in step ST103 at the time of the previous observation, its covariance matrix, and the correction information (control input vector) from the correction information calculation unit 5c. Calculate the value and its covariance matrix.
次いで、平滑処理が実行される(ステップST103)。すなわち、追跡処理部2cは、パッシブセンサ1からの目標の測角データとST111において算出された目標の予測値およびその共分散行列とに基づいて、目標の平滑値およびその共分散行列を算出し、平滑値および予測値とその共分散行列を制御部3に送る。 Next, smoothing processing is executed (step ST103). That is, the tracking processing unit 2c calculates a target smooth value and its covariance matrix based on the target angle measurement data from the passive sensor 1, the target predicted value calculated in ST111, and its covariance matrix. The smooth value, the predicted value, and the covariance matrix thereof are sent to the control unit 3.
次に、補正情報算出部5cと追跡処理部2cの処理内容について、詳細に説明する。目標の運動モデルを以下のように定義する。
ここで、(xk−1、yk−1、zk−1)、(x(・)k−1、y(・)k−1、z
(・)k−1)、(a(・)k−1、e(・)k−1)は、座標変換によって、外部装置
から入力される目標の状態ベクトルをパッシブセンサ1から見た目標の位置ベクトル、速度ベクトルおよび角速度ベクトルに変換した値である。
Here, (x k−1 , y k−1 , z k−1 ), (x (•) k−1 , y (•) k−1 , z
(•) k−1 ), (a (•) k−1 , e (•) k−1 ) are target positions when the target state vector input from the external device is viewed from the passive sensor 1 by coordinate transformation. A value converted into a vector , a velocity vector, and an angular velocity vector .
上述したステップST111では、前回観測時の平滑処理の結果と制御入力ベクトルuk−1を用いて、以下の式で表される予測処理を実施する。
次いで、予測処理が実行される(ステップST112)。すなわち、追跡処理部2dは、前回観測時のステップST103において算出された目標の平滑値およびその共分散行列と補正情報算出部5dからの補正情報(プロセス雑音共分散行列と制御入力ベクトル)とに基づいて、目標の予測値およびその共分散行列を算出する。 Next, prediction processing is executed (step ST112). That is, the tracking processing unit 2d uses the target smooth value calculated in step ST103 at the time of the previous observation, its covariance matrix, and the correction information (process noise covariance matrix and control input vector) from the correction information calculation unit 5d. Based on this, a target predicted value and its covariance matrix are calculated.
次いで、平滑処理が実行される(ステップST103)。すなわち、追跡処理部2dは、パッシブセンサ1からの目標の測角データとST112において算出された目標の予測値およびその共分散行列とに基づいて、目標の平滑値およびその共分散行列を算出し、平滑値および予測値とその共分散行列を制御部3に送る。
Next, smoothing processing is executed (step ST103). That is, the tracking processing unit 2d calculates a target smooth value and its covariance matrix based on the target angle measurement data from the passive sensor 1, the target predicted value calculated in ST112, and its covariance matrix. The smooth value, the predicted value, and the covariance matrix thereof are sent to the control unit 3.
Claims (5)
前記補正情報算出部は、外部から入力される前記目標の状態ベクトルに基づいて、前記補正情報として、前記パッシブセンサから前記目標までの距離を算出し、
前記追跡処理部は、前記補正情報算出部で算出された前記目標までの距離に基づいて、プロセス雑音共分散行列を算出し、算出したプロセス雑音共分散行列に基づいて、前記目標の航跡を算出すること
を特徴とする目標追跡装置。 A tracking processing unit that calculates angle data from a passive sensor that measures a target angle and outputs it as angle measurement data, and a correction information calculation unit that outputs correction information to the tracking processing unit A target tracking device comprising:
The correction information calculation unit calculates a distance from the passive sensor to the target as the correction information based on the target state vector input from the outside,
The tracking processing unit calculates a process noise covariance matrix based on the distance to the target calculated by the correction information calculation unit, and calculates a track of the target based on the calculated process noise covariance matrix A target tracking device characterized by:
前記補正情報算出部は、外部から入力されるプロセス雑音共分散行列を含む前記目標の状態ベクトルに基づいて、前記補正情報として、前記パッシブセンサの位置における前記目標のプロセス雑音共分散行列を算出し、
前記追跡処理部は、前記補正情報算出部で算出されたプロセス雑音共分散行列に基づいて、前記目標の航跡を算出することを特徴とする目標追跡装置。 A tracking processing unit that calculates angle data from a passive sensor that measures a target angle and outputs it as angle measurement data, and a correction information calculation unit that outputs correction information to the tracking processing unit A target tracking device comprising:
The correction information calculation unit calculates the target process noise covariance matrix at the position of the passive sensor as the correction information based on the target state vector including the process noise covariance matrix input from the outside. ,
The target tracking device, wherein the tracking processing unit calculates a track of the target based on a process noise covariance matrix calculated by the correction information calculating unit.
前記補正情報算出部は、外部から入力される前記目標の状態ベクトルに基づいて、前記補正情報として、前記パッシブセンサの位置における前記目標のバイアス誤差を算出して制御入力として出力し、
前記追跡処理部は、前記補正情報算出部から出力される制御入力に基づいて、前記目標の予測値を算出することを特徴とする目標追跡装置。 A tracking processing unit that calculates angle data from a passive sensor that measures a target angle and outputs it as angle measurement data, and a correction information calculation unit that outputs correction information to the tracking processing unit A target tracking device comprising:
The correction information calculation unit calculates the bias error of the target at the position of the passive sensor as the correction information based on the target state vector input from the outside, and outputs it as a control input,
The target tracking device, wherein the tracking processing unit calculates a predicted value of the target based on a control input output from the correction information calculating unit.
前記補正情報算出部は、外部から入力される前記目標の状態ベクトル、または、外部から入力されるプロセス雑音共分散行列を含む前記目標の状態ベクトルに基づいて、前記補正情報として、前記パッシブセンサの位置における前記目標のバイアス誤差を算出して制御入力として出力し、かつ、前記パッシブセンサから前記目標までの距離、または、前記パッシブセンサの位置における前記目標のプロセス雑音共分散行列を算出し、
前記追跡処理部は、前記補正情報算出部から出力される制御入力に基づいて前記目標の予測値を算出し、かつ、前記補正情報算出部で算出された前記目標までの距離に基づいて算出したプロセス雑音共分散行列、または、前記補正情報算出部で算出されたプロセス雑音共分散行列に基づいて、前記目標の航跡を算出することを特徴とする目標追跡装置。 A tracking processing unit that calculates angle data from a passive sensor that measures a target angle and outputs it as angle measurement data, and a correction information calculation unit that outputs correction information to the tracking processing unit A target tracking device comprising:
The correction information calculation unit, as the correction information, based on the target state vector input from the outside or the target state vector including a process noise covariance matrix input from the outside, Calculating a bias error of the target at a position and outputting it as a control input, and calculating a distance from the passive sensor to the target, or a process noise covariance matrix of the target at the position of the passive sensor;
The tracking processing unit calculates a predicted value of the target based on a control input output from the correction information calculation unit, and calculates based on a distance to the target calculated by the correction information calculation unit A target tracking device that calculates a track of the target based on a process noise covariance matrix or a process noise covariance matrix calculated by the correction information calculation unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009198342A JP5748946B2 (en) | 2009-08-28 | 2009-08-28 | Target tracking device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009198342A JP5748946B2 (en) | 2009-08-28 | 2009-08-28 | Target tracking device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011047881A JP2011047881A (en) | 2011-03-10 |
JP2011047881A5 true JP2011047881A5 (en) | 2012-04-19 |
JP5748946B2 JP5748946B2 (en) | 2015-07-15 |
Family
ID=43834348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009198342A Expired - Fee Related JP5748946B2 (en) | 2009-08-28 | 2009-08-28 | Target tracking device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5748946B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9128186B2 (en) | 2011-02-25 | 2015-09-08 | Kabushiki Kaisha Toshiba | Target tracking device and target tracking method |
WO2013188776A1 (en) * | 2012-06-14 | 2013-12-19 | Yei Corporation | Determining and correcting error of positional vector-valued sensors using a fixed angle calibration process |
US9255799B2 (en) | 2012-06-14 | 2016-02-09 | Yost Labs Inc. | Determining and correcting error of positional vector-valued sensors using a fixed angle calibration process |
CN109061627B (en) * | 2018-09-11 | 2021-02-26 | 长光禹辰信息技术与装备(青岛)有限公司 | Radar photoelectric linkage system and control method thereof |
CN117687018B (en) * | 2024-01-31 | 2024-04-19 | 四川省华盾防务科技股份有限公司 | Phased array beam tracking method, device, system and storage medium |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05126951A (en) * | 1991-11-05 | 1993-05-25 | Hitachi Ltd | Target motion analysis device and its method |
JP3097471B2 (en) * | 1994-11-16 | 2000-10-10 | 三菱電機株式会社 | Tracking device |
JPH09257933A (en) * | 1996-03-21 | 1997-10-03 | Mitsubishi Electric Corp | Distance measuring device |
JP3212259B2 (en) * | 1996-10-25 | 2001-09-25 | 防衛庁技術研究本部長 | Guidance control device |
JP3882311B2 (en) * | 1998-02-02 | 2007-02-14 | 三菱電機株式会社 | Flying object guidance control device |
JP2001056374A (en) * | 1999-08-17 | 2001-02-27 | Mitsubishi Electric Corp | Guidance control apparatus for flying object |
JP2002202367A (en) * | 2000-12-28 | 2002-07-19 | Mitsubishi Electric Corp | Target-tracking apparatus |
JP4080722B2 (en) * | 2001-10-25 | 2008-04-23 | 三菱電機株式会社 | Target tracking device and target tracking method |
JP5193444B2 (en) * | 2006-08-11 | 2013-05-08 | 株式会社東芝 | Tracking device |
JP5230132B2 (en) * | 2007-07-06 | 2013-07-10 | 三菱電機株式会社 | Target tracking device and target tracking method |
JP2009186269A (en) * | 2008-02-05 | 2009-08-20 | Mitsubishi Electric Corp | Sensor information integrating system |
JP5542393B2 (en) * | 2009-08-28 | 2014-07-09 | 株式会社東芝 | Target tracking device |
-
2009
- 2009-08-28 JP JP2009198342A patent/JP5748946B2/en not_active Expired - Fee Related
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011047882A5 (en) | ||
JP5784526B2 (en) | Target tracking device | |
JP5542393B2 (en) | Target tracking device | |
JP2011047881A5 (en) | ||
JP5306389B2 (en) | Target tracking device | |
US8958914B2 (en) | Robot control system, robot system, and sensor information processing apparatus | |
JP2011069815A5 (en) | ||
JP2012003233A5 (en) | ||
US20170027416A1 (en) | Endoscopic system, image processing device, image processing method, and program | |
JP2006221626A (en) | Mobile body control unit and method | |
JP2015094630A5 (en) | ||
JP5748946B2 (en) | Target tracking device | |
US20160132125A1 (en) | System and method for generating gestures | |
JP5747752B2 (en) | Posture estimation device, posture estimation method, posture estimation program | |
JP2015197403A (en) | target tracking device | |
JP6041547B2 (en) | Tracking device | |
JP2006284527A (en) | Vehicular noise measuring instrument | |
JP5634355B2 (en) | Target tracking system and program and method thereof, angle tracking device and program and method thereof, target tracking device and program and method thereof | |
KR101649198B1 (en) | Method and Apparatus for estimating object trajectories using optimized smoothing filter based beamforming information | |
KR101048619B1 (en) | Fuzzy Controller and Control Method for Obstacle Avoidance with Table-based Fuzzy Single Positive and Double Negative Rules | |
KR101338082B1 (en) | Method and system for eliminating disturbance of robot | |
JP2018040601A (en) | Bias error estimation device, bias error estimation system, bias error estimation method and bias error estimation program | |
JP2008033696A (en) | Autonomous mobile body | |
JP2016142577A (en) | Image processing device, image processing method, image processing system, and program | |
JP2019184360A (en) | Sensor device, error detection method, and error detection program |