JP2019184360A - Sensor device, error detection method, and error detection program - Google Patents
Sensor device, error detection method, and error detection program Download PDFInfo
- Publication number
- JP2019184360A JP2019184360A JP2018073786A JP2018073786A JP2019184360A JP 2019184360 A JP2019184360 A JP 2019184360A JP 2018073786 A JP2018073786 A JP 2018073786A JP 2018073786 A JP2018073786 A JP 2018073786A JP 2019184360 A JP2019184360 A JP 2019184360A
- Authority
- JP
- Japan
- Prior art keywords
- error
- covariance matrix
- error covariance
- wake
- observation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims description 21
- 239000011159 matrix material Substances 0.000 claims abstract description 136
- 230000005540 biological transmission Effects 0.000 claims abstract description 40
- 238000004364 calculation method Methods 0.000 claims description 99
- 238000000034 method Methods 0.000 description 37
- 238000012545 processing Methods 0.000 description 32
- 230000008569 process Effects 0.000 description 31
- 238000009499 grossing Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000005259 measurement Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Landscapes
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
本発明は、目標を観測するセンサ装置、誤差検出方法および誤差検出プログラムに関する。 The present invention relates to a sensor device for observing a target, an error detection method, and an error detection program.
目標物体(以下、目標とする)が航空機などの飛しょう体の場合、目標のステルス化、目標が低い高度で飛行することなどに伴い、単一センサでの探知では、探知距離が短くなるなどの問題がある。特許文献1には、複数のセンサを備えたシステムにおいて、各センサで得られた航跡を各センサで共有し、探知距離を延伸する技術が開示されている。
When the target object (hereinafter referred to as the target) is a flying object such as an aircraft, the detection distance becomes shorter for detection with a single sensor due to the stealth of the target and the target flying at a low altitude. There is a problem.
複数のセンサを備えるシステムでは、各センサの設置された位置、各センサにおいて設置時に設定された方位、各センサでの計測時刻などに起因する誤差であるシステムアライメント誤差が、各センサで得られたデータに含まれる可能性がある。システムアライメント誤差を検出する方法として、各センサで得られたデータを比較する方法がある。しかしながら、システムが備えるセンサの数が増加すると、比較処理が幾何級数的に増加するため、処理量が多くなる、という問題があった。 In a system having a plurality of sensors, each sensor obtained a system alignment error, which is an error caused by the installation position of each sensor, the orientation set at the time of installation of each sensor, the measurement time of each sensor, and the like. May be included in the data. As a method of detecting a system alignment error, there is a method of comparing data obtained by each sensor. However, when the number of sensors included in the system increases, there is a problem that the amount of processing increases because the comparison processing increases geometrically.
本発明は、上記に鑑みてなされたものであって、処理量を抑制しつつ、複数のセンサの間で発生する誤差を検出可能なセンサ装置、誤差検出方法および誤差検出プログラムを得ることを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to obtain a sensor device, an error detection method, and an error detection program capable of detecting an error occurring between a plurality of sensors while suppressing a processing amount. And
上述した課題を解決し、目的を達成するために、本発明は、他のセンサ装置とともにセンサシステムを構成するセンサ装置である。センサ装置は、目標を観測するセンサの第1の観測結果に基づいて、第1の期間における目標の航跡である部分航跡を生成し、部分航跡の第1の誤差共分散行列を生成する第1の演算部と、部分航跡を送信するか否かを判定する送信判定部と、を備える。また、センサ装置は、送信判定部から受信した部分航跡、および他のセンサ装置から受信した部分航跡に基づいて、観測を開始してからの目標の航跡である航跡情報を生成し、航跡情報の第2の誤差共分散行列を生成する第2の演算部と、第1の観測結果に基づいて、観測を開始してからの目標の航跡の第3の誤差共分散行列を生成する第3の演算部と、を備える。また、センサ装置は、第3の誤差共分散行列と第2の誤差共分散行列とを比較し、他のセンサ装置で得られる第2の観測結果に対して第1の観測結果が誤差を含むか否かを判定する誤差共分散判定部と、誤差共分散判定部の判定結果を用いて、第1の誤差共分散行列に基づいて、第1の観測結果に含まれる誤差量を推定する誤差推定部と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention is a sensor device that constitutes a sensor system together with other sensor devices. The sensor device generates a partial wake that is a wake of the target in the first period based on a first observation result of a sensor that observes the target, and generates a first error covariance matrix of the partial wake. And a transmission determination unit that determines whether or not to transmit a partial wake. Further, the sensor device generates wake information that is a target wake after the start of observation based on the partial wake received from the transmission determination unit and the partial wake received from another sensor device. A second arithmetic unit for generating a second error covariance matrix, and a third error covariance matrix for generating a third error covariance matrix of a target track after starting observation based on the first observation result And an arithmetic unit. In addition, the sensor device compares the third error covariance matrix and the second error covariance matrix, and the first observation result includes an error with respect to the second observation result obtained by another sensor device. An error that estimates an error amount included in the first observation result based on the first error covariance matrix using the determination result of the error covariance determination unit and the error covariance determination unit And an estimation unit.
本発明によれば、センサ装置は、処理量を抑制しつつ、複数のセンサの間で発生する誤差を検出できる、という効果を奏する。 According to the present invention, there is an effect that the sensor device can detect an error occurring between a plurality of sensors while suppressing the processing amount.
以下に、本発明の実施の形態にかかるセンサ装置、誤差検出方法および誤差検出プログラムを図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。 Hereinafter, a sensor device, an error detection method, and an error detection program according to an embodiment of the present invention will be described in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.
実施の形態.
まず、複数のセンサを備えるシステムにおけるシステムアライメント誤差の概念について説明する。図1は、複数のセンサを備えるシステムにおけるシステムアライメント誤差の概念を示す図である。第1のセンサおよび第2のセンサで得られるデータには、位置、方位、時刻などの各要素において、システムアライメント誤差が含まれる可能性がある。システムアライメント誤差は、カルマンフィルタなどの平滑計算によって軽減されるランダム誤差ではなく、センサの設置位置、設定された方位、観測時の基準時刻とのずれなどに内包されるバイアス誤差のことである。図1では、各センサで設定された方位がずれており、方位の要素においてシステムアライメント誤差が含まれる例を示している。
Embodiment.
First, the concept of system alignment error in a system including a plurality of sensors will be described. FIG. 1 is a diagram illustrating a concept of system alignment error in a system including a plurality of sensors. Data obtained by the first sensor and the second sensor may include a system alignment error in each element such as position, direction, and time. The system alignment error is not a random error that is reduced by a smooth calculation such as a Kalman filter, but a bias error included in a sensor installation position, a set orientation, a deviation from a reference time at the time of observation, and the like. FIG. 1 shows an example in which the orientation set by each sensor is shifted and a system alignment error is included in the orientation element.
第1のセンサは、観測した目標の航跡である目標航跡を第2のセンサと共有するため、目標航跡を第2のセンサに送信する。このとき、第1のセンサは、図1の左図に示すように、第2のセンサの方位が第1のセンサの方位と一致しているものとみなして、目標航跡を送信する。第1のセンサから送信される目標航跡は、第1のセンサに設定されている方位に基づいて目標航跡の位置が特定される。しかしながら、実際には、図1の右図に示すように第2のセンサの方位が第1のセンサの方位と異なっている。すなわち、第2のセンサの方位と第1のセンサの方位との間にはシステムアライメント誤差がある。このように、システムアライメント誤差があると、目標航跡を正確に認識できない。図1の例では、第2のセンサは、第1のセンサから受信した目標航跡が図1の右図に示す実線の矢印の位置にあると認識してしまう。そのため、システムアライメント誤差を検出し、補正することが望まれる。 The first sensor transmits the target track to the second sensor in order to share the target track, which is the track of the observed target, with the second sensor. At this time, as shown in the left diagram of FIG. 1, the first sensor considers that the direction of the second sensor coincides with the direction of the first sensor, and transmits the target track. For the target track transmitted from the first sensor, the position of the target track is specified based on the azimuth set in the first sensor. In practice, however, the orientation of the second sensor is different from the orientation of the first sensor, as shown in the right diagram of FIG. That is, there is a system alignment error between the orientation of the second sensor and the orientation of the first sensor. Thus, if there is a system alignment error, the target track cannot be recognized accurately. In the example of FIG. 1, the second sensor recognizes that the target track received from the first sensor is at the position of the solid arrow shown in the right diagram of FIG. Therefore, it is desirable to detect and correct system alignment errors.
本実施の形態のセンサシステムでは、センサ装置において、システムアライメント誤差を検出する。以下、本実施の形態のセンサシステムの構成および動作について説明する。以降の説明において、システムアライメント誤差を単に誤差と呼ぶ場合がある。 In the sensor system of the present embodiment, a system alignment error is detected in the sensor device. Hereinafter, the configuration and operation of the sensor system of the present embodiment will be described. In the following description, the system alignment error may be simply referred to as an error.
図2は、本実施の形態にかかるセンサシステム1の構成例を示すブロック図である。センサシステム1は、センサ装置100,101と、指揮統制装置110と、を備える。まず、センサ装置100の構成について説明する。センサ装置100は、センサ10と、第1の演算部20と、システムアライメント誤差推定部30と、送信判定部40と、第2の演算部50と、システムアライメント誤差検出装置120と、を備える。システムアライメント誤差検出装置120は、第3の演算部60と、誤差共分散判定部70と、を備える。
FIG. 2 is a block diagram illustrating a configuration example of the
センサ10は、目標80を観測し、目標80の観測位置などを含む観測結果を第1の演算部20および第3の演算部60に出力する。センサ10は、例えば、飛しょう体を観測するレーダであるが、これに限定されない。センサ10で得られた観測結果を第1の観測結果と呼ぶ場合がある。
The
第1の演算部20は、センサ10から出力された観測結果に対して平滑処理および予測処理を行い、第1の期間における目標80の航跡である部分航跡を生成する。第1の期間は、センサ装置100においてセンサ10が観測を開始してから現在までの期間、または第1の演算部20が保持する観測結果をリセットすなわち0にしてから現在までの期間である。また、第1の演算部20は、部分航跡の誤差共分散行列である第1の誤差共分散行列を生成する。第1の演算部20の動作の詳細については後述する。第1の演算部20は、部分航跡および第1の誤差共分散行列をシステムアライメント誤差推定部30に出力する。
The first calculation unit 20 performs smoothing processing and prediction processing on the observation result output from the
システムアライメント誤差推定部30は、誤差共分散判定部70から判定結果を取得し、判定結果および第1の誤差共分散行列を用いて、観測結果に含まれる誤差量を推定する誤差推定部である。システムアライメント誤差推定部30は、推定した誤差量に基づいて、部分航跡および第1の誤差共分散行列を補正する。システムアライメント誤差推定部30は、補正した部分航跡および補正した第1の誤差共分散行列を送信判定部40に出力する。なお、システムアライメント誤差推定部30は、推定した誤差量に基づいて部分航跡のみを補正し、第1の誤差共分散行列については補正しなくてもよい。
The system
送信判定部40は、システムアライメント誤差推定部30から部分航跡および第1の誤差共分散行列を取得し、第2の演算部50から航跡情報および第2の誤差共分散行列を取得し、部分航跡を送信するか否かを判定する。航跡情報は、第2の演算部50で生成された航跡であり、センサ装置100においてセンサ10が観測を開始してから現在までの期間における目標80の航跡である。送信判定部40は、部分航跡、航跡情報、第1の誤差共分散行列、および第2の誤差共分散行列に基づいて、部分航跡を用いることで第2の演算部50において航跡情報の精度が向上すると判定した場合、部分航跡を第2の演算部50に送信する。このとき、送信判定部40は、部分航跡を、センサ装置101が備える第2の演算部51、および指揮統制装置110が備える第2の演算部52にも送信する。
The
第2の演算部50は、送信判定部40から受信した部分航跡、および後述するセンサ装置101の送信判定部41から受信した部分航跡に基づいて、第1の演算部20と同様の平滑処理および予測処理を行い、航跡情報を生成、すなわち更新する。また、第2の演算部50は、航跡情報の誤差共分散行列である第2の誤差共分散行列を生成、すなわち更新する。第2の演算部50は、送信判定部40から部分航跡を受信したことを第1の演算部20に通知する。この場合、第1の演算部20は、第2の演算部50から部分航跡を受信したことの通知を受けて、センサ10から取得して保持している観測結果をリセットすなわち0にする。また、第2の演算部50は、更新した航跡情報および第2の誤差共分散行列を送信判定部40に出力する。また、第2の演算部50は、更新した第2の誤差共分散行列を誤差共分散判定部70に出力する。
Based on the partial track received from the
第3の演算部60は、センサ10から出力された観測結果に基づいて、第1の演算部20と同様の平滑処理および予測処理を行い、センサ装置100においてセンサ10が観測を開始してから現在までの期間における目標80の航跡を生成する。第3の演算部60は、生成した航跡の誤差共分散行列である第3の誤差共分散行列を生成する。第3の演算部60は、第3の誤差共分散行列を誤差共分散判定部70に出力する。
The
誤差共分散判定部70は、第3の演算部60から出力された第3の誤差共分散行列と第2の演算部50から出力された第2の誤差共分散行列とを比較し、センサ10で得られる観測結果にシステムアライメント誤差が含まれるか否かを判定する。すなわち、誤差共分散判定部70は、センサ装置101のセンサ11で得られる観測結果に対して、センサ10で得られる観測結果が誤差を含むか否かを判定する。誤差共分散判定部70は、判定結果をシステムアライメント誤差推定部30に出力する。誤差共分散判定部70の動作の詳細については後述する。
The error
つぎに、センサ装置101の構成について説明する。センサ装置101は、センサ11と、第1の演算部21と、システムアライメント誤差推定部31と、送信判定部41と、第2の演算部51と、を備える。センサ11、第1の演算部21、送信判定部41、および第2の演算部51は、センサ装置100のセンサ10、第1の演算部20、送信判定部40、および第2の演算部50と同様の構成である。システムアライメント誤差推定部31は、第1の誤差共分散行列を用いて、観測結果に含まれる誤差量を推定する。送信判定部41は、部分航跡を第2の演算部51に送信する場合、センサ装置100が備える第2の演算部50、および指揮統制装置110が備える第2の演算部52にも部分航跡を送信する。センサ11で得られた観測結果を第2の観測結果と呼ぶ場合がある。
Next, the configuration of the sensor device 101 will be described. The sensor device 101 includes a sensor 11, a
つぎに、指揮統制装置110の構成について説明する。指揮統制装置110は、第2の演算部52を備える。第2の演算部52は、センサ装置100の第2の演算部50と同様の構成である。センサシステム1は、指揮統制装置110に替えて、射撃管制装置などの他の装置を備えてもよい。
Next, the configuration of the command and
つづいて、センサ装置100の動作について説明する。図3は、本実施の形態にかかるセンサ装置100においてシステムアライメント誤差を検出する動作を示すフローチャートである。センサ10は、目標80を観測する(ステップS1)。センサ10は、目標80の観測位置などを含む観測結果を第1の演算部20および第3の演算部60に出力する。
Next, the operation of the sensor device 100 will be described. FIG. 3 is a flowchart showing an operation of detecting a system alignment error in the sensor device 100 according to the present embodiment. The
第1の演算部20は、センサ10から出力された観測結果に対して平滑処理および予測処理を行い、未来時刻における目標80の位置、速度、および加速度の予測結果を含む部分航跡、および第1の誤差共分散行列を生成する(ステップS2)。未来時刻は、現在時刻から規定された時間だけ先の時刻である。第1の演算部20における平滑処理および予測処理は、一般的な手法による。第1の演算部20は、例えば、目標80の運動に対して感度の低いカルマンフィルタ処理、または目標80の運動に対して感度の高いM3(Multiple Maneuver Model)フィルタ処理などの処理を適用することができる。ここで、第1の演算部20において、平滑処理および予測処理の一例として、カルマンフィルタ処理を適用した場合の動作について説明する。
The first computing unit 20 performs a smoothing process and a prediction process on the observation result output from the
センサ10から出力された観測結果に含まれる観測値および観測精度をベクトル量として、それぞれ「z→ k」および「v→ k」で表す。観測値には、目標80の位置、速度、加速度などがあるが、説明を簡潔にするため、ここでは、目標80の位置、および速度を対象とする。観測値ベクトルz→ kは、観測時刻tkにおいてセンサ10で観測された目標80に対する観測値を表すベクトルである。観測精度ベクトルv→ kは、観測時刻tkにおいてセンサ10で観測された目標80に対する観測値の観測精度を表すベクトルである。ここで、「z→ k」という表記は、「z」の上部に矢印記号「→」が配置された文字の代替表記である。式を除く文章内では当該代替表記を使用する。
The observation value and the observation accuracy included in the observation result output from the
観測時刻tkにおける観測値ベクトルz→ kおよび観測精度ベクトルv→ kは、それぞれ、以下の(1)式および(2)式で表すことができる。ここで、観測値ベクトルz→ kは、基準となる直交座標系である追尾基準座標系で定義されたベクトルとする。追尾基準座標系の一例は、北基準直交座標系である。また、観測精度ベクトルv→ kは、センサ10を基準とする極座標系であるセンサ基準極座標系で定義されたベクトルとする。
The observation vector z → k and the observation accuracy vector v → k at the observation time t k can be expressed by the following equations (1) and (2), respectively. Here, the observed value vector z → k is a vector defined in a tracking reference coordinate system which is a reference orthogonal coordinate system. An example of the tracking reference coordinate system is the north reference orthogonal coordinate system. The observation accuracy vector v → k is a vector defined in a sensor reference polar coordinate system that is a polar coordinate system with the
(1)式において、「xok」は、観測時刻tkにおける観測値のx軸成分である。「yok」は、観測時刻tkにおける観測値のy軸成分である。「zok」は、観測時刻tkにおける観測値のz軸成分である。記号「T」は、転置を表す。この表記は、後述の数式においても同様である。また、(2)式において、「σrk」は、観測時刻tkにおける観測精度の距離方向の成分である。「σek」は、観測時刻tkにおける観測精度の仰角方向の成分である。「σbyk」は、観測時刻tkにおける観測精度の方位角方向の成分である。なお、観測精度の距離方向の成分を「距離精度」と呼び、観測精度の仰角方向の成分を「仰角精度」と呼び、観測精度の方位角方向の成分を「方位角精度」と呼ぶ場合がある。 (1) In the formula, "x ok" is x-axis component of the observed value at the measurement time t k. "Y ok" is a y-axis component of the observed value at the observation time t k. "Z ok" is a z-axis component of the observed value at the observation time t k. The symbol “T” represents transposition. This notation is the same in mathematical formulas described later. In the equation (2), “σ rk ” is a component in the distance direction of the observation accuracy at the observation time t k . “Σ ek ” is a component in the elevation direction of the observation accuracy at the observation time t k . "Sigma BYK" is a component of azimuthal measurement accuracy at the measurement time t k. The component of the observation accuracy in the distance direction is called “distance accuracy”, the component of the observation accuracy in the elevation direction is called “elevation accuracy”, and the component of the observation accuracy in the azimuth direction is called “azimuth accuracy”. is there.
観測誤差共分散行列を「Rk」で表す。観測誤差共分散行列Rkは、目標運動諸元の真値が存在すると考えられる範囲を表す行列である。観測誤差共分散行列Rkは、以下の(3)式で表すことができる。 The observation error covariance matrix is represented by “R k ”. The observation error covariance matrix R k is a matrix that represents a range in which the true value of the target motion specification is considered to exist. The observation error covariance matrix R k can be expressed by the following equation (3).
(3)式に示されるように、観測誤差共分散行列Rkは、(2)式に示した観測精度ベクトルv→ kの距離精度σrk、仰角精度σek及び方位角精度σbykの2乗成分を対角要素とする行列と、座標変換行列Gkとを用いて表すことができる。座標変換行列Gkは、センサ基準極座標系から基準となる直交座標系への変換行列である。 As shown in the equation (3), the observation error covariance matrix R k is the distance accuracy σ rk , elevation accuracy σ ek, and azimuth accuracy σ byk of the observation accuracy vector v → k shown in equation (2). a matrix with the diagonal elements component multiplication can be represented by using the coordinate transformation matrix G k. The coordinate transformation matrix Gk is a transformation matrix from the sensor reference polar coordinate system to the reference orthogonal coordinate system.
観測時刻tkにおける予測値のベクトルを「X→ k|k−1」で表す。観測時刻tkにおける予測値ベクトルX→ k|k−1は、以下の(4)式で表すことができる。 A vector of predicted values at the observation time t k is represented by “X → k | k−1 ”. The predicted value vector X → k | k−1 at the observation time t k can be expressed by the following equation (4).
(4)式において、「xk|k−1」は、観測時刻tkにおける位置予測値のx軸成分である。「yk|k−1」は、観測時刻tkにおける位置予測値のy軸成分である。「zk|k−1」は、観測時刻tkにおける位置予測値のz軸成分である。「x・ k|k−1」は、観測時刻tkにおける速度予測値のx軸成分である。「y・ k|k−1」は、観測時刻tkにおける速度予測値のy軸成分である。「z・ k|k−1」は、観測時刻tkにおける速度予測値のz軸成分である。ここで、「x・ k|k−1」という表記は、「x」の上部にドット記号「・」が配置された文字の代替表記である。「y」および「z」についても同様である。式を除く文章内では当該代替表記を使用する。 In the equation (4), “x k | k−1 ” is the x-axis component of the position predicted value at the observation time t k . “Y k | k−1 ” is the y-axis component of the predicted position value at the observation time t k . “Z k | k−1 ” is a z-axis component of the predicted position value at the observation time t k . "X · k | k-1" is the x-axis component of the velocity predicted value at the observation time t k. "Y · k | k-1" is a y-axis component of the velocity estimated value at the measurement time t k. "Z · k | k-1" is the z-axis component of the velocity estimated value at the measurement time t k. Here, the notation “x · k | k−1 ” is an alternative notation of a character in which a dot symbol “·” is arranged above “x”. The same applies to “y” and “z”. Use the alternative notation in the text excluding the formula.
観測時刻tk−1における平滑値のベクトルを「X→ k−1|k−1」で表す。観測時刻tk−1は、観測時刻tkから見ると、前回の観測時刻である。なお、観測時刻tkを「今回の観測時刻」と呼ぶ場合がある。前回の観測時刻tk−1における平滑値ベクトルX→ k−1|k−1は、以下の(5)式で表すことができる。 A vector of smooth values at the observation time t k−1 is represented by “X → k−1 | k−1 ”. Observation time t k-1, when viewed from the observation time t k, is the last of the observation time. In addition, the observation time t k may be referred to as "this time of observation time". The smooth value vector X → k−1 | k−1 at the previous observation time t k−1 can be expressed by the following equation (5).
(5)式において、「xk−1|k−1」は、前回の観測時刻tk−1における位置平滑値のx軸成分である。「yk−1|k−1」は、前回の観測時刻tk−1における位置平滑値のy軸成分である。「zk−1|k−1」は、前回の観測時刻tk−1における位置平滑値のz軸成分である。「x・ k−1|k−1」は、前回の観測時刻tk−1における速度平滑値のx軸成分である。「y・ k−1|k−1」は、前回の観測時刻tk−1における速度平滑値のy軸成分である。「z・ k−1|k−1」は、前回の観測時刻tk−1における速度平滑値のz軸成分である。 In the equation (5), “x k−1 | k−1 ” is an x-axis component of the position smooth value at the previous observation time t k−1 . “Y k−1 | k−1 ” is the y-axis component of the position smooth value at the previous observation time t k−1 . “Z k−1 | k−1 ” is the z-axis component of the position smooth value at the previous observation time t k−1 . “X · k−1 | k−1 ” is an x-axis component of the velocity smooth value at the previous observation time t k−1 . “Y · k−1 | k−1 ” is the y-axis component of the velocity smooth value at the previous observation time t k−1 . “Z · k−1 | k−1 ” is the z-axis component of the velocity smooth value at the previous observation time t k−1 .
前回の観測時刻tk−1における平滑値ベクトルX→ k−1|k−1と、今回の観測時刻tkにおける予測値ベクトルX→ k|k−1との関係は、以下の(6)式で表すことができる。 The relationship between the smoothed value vector X → k−1 | k−1 at the previous observation time t k−1 and the predicted value vector X → k | k−1 at the current observation time t k is expressed by the following (6). It can be expressed by a formula.
(6)式において、Φ(tk,tk−1)は、前回の観測時刻tk−1から今回の観測時刻tkまでの経過時間による目標諸元の変化を表す行列である。以下、この行列を「状態遷移行列」と呼ぶ。 In the equation (6), Φ (t k , t k−1 ) is a matrix representing a change in the target specification according to the elapsed time from the previous observation time t k−1 to the current observation time t k . Hereinafter, this matrix is referred to as a “state transition matrix”.
(6)式に示した状態遷移行列Φ(tk,tk−1)を用いると、第1の演算部20によって演算される観測時刻tkにおける予測誤差共分散行列Pk|k−1は、以下の(7)式を用いて表すことができる。 When the state transition matrix Φ (t k , t k−1 ) shown in the equation (6) is used, the prediction error covariance matrix P k | k−1 at the observation time t k calculated by the first calculator 20 is used. Can be expressed using the following equation (7).
(7)式において、「Pk−1|k−1」は、前回の観測時刻tk−1における平滑誤差共分散行列であり、「Qk−1」は、前回の観測時刻tk−1におけるシステム雑音を表すシステム雑音共分散行列である。また、観測時刻tkにおけるカルマンゲイン行列を「Kk」で表す。カルマンゲイン行列Kkは、以下の(8)式で表すことができる。 In equation (7), “P k−1 | k−1 ” is the smoothing error covariance matrix at the previous observation time t k−1 , and “Q k−1 ” is the previous observation time t k−. 2 is a system noise covariance matrix representing system noise at 1 . Further, the Kalman gain matrix at the observation time t k is represented by “K k ”. The Kalman gain matrix K k can be expressed by the following equation (8).
(8)式において、「Pk|k−1」は、(7)式で表される観測時刻tkにおける予測誤差共分散行列であり、「Rk」は、(3)式で表される観測時刻tkにおける観測誤差共分散行列である。また、「Hk」は、観測時刻tkにおける位置のセンサ観測行列である。センサ観測行列Hkは、以下の(9)式で表すことができる。 In the equation (8), “P k | k−1 ” is a prediction error covariance matrix at the observation time t k represented by the equation (7), and “R k ” is represented by the equation (3). it is the observation error covariance matrix in that observation time t k. “H k ” is a sensor observation matrix of positions at the observation time t k . The sensor observation matrix H k can be expressed by the following equation (9).
(9)式において、「O3×3」は、3行3列の零行列である。位置のセンサ観測行列Hkは、位置と速度の成分からなるベクトルからx軸、y軸及びz軸の位置成分を取り出すための行列である。 In the equation (9), “O 3 × 3 ” is a zero matrix of 3 rows and 3 columns. The position sensor observation matrix H k is a matrix for extracting the position components of the x axis, the y axis, and the z axis from the vector composed of the position and velocity components.
(8)式および(9)式を用いると、観測時刻tkにおける平滑値ベクトルX→ k|k、および観測時刻tkにおける平滑誤差共分散行列Pk|kは、それぞれ、以下の(10)式および(11)式で表すことができる。 (8) Using the formulas and (9), the observation time t smoothed value of k vector X → k | k, and the observation time t error covariance matrix P k in k | k, respectively, the following (10 ) And (11).
図3のフローチャートの説明に戻る。システムアライメント誤差推定部30は、後述する処理によって誤差共分散判定部70で得られた判定結果、具体的には、システムアライメント誤差を含む位置、方位、時刻の各要素、および軸の推定結果を初期値として、第1の演算部20から出力された部分航跡および第1の誤差共分散行列に対してシステムアライメント誤差の誤差量を推定する(ステップS3)。ここで、センサ10が目標80を観測した時点での観測結果は、センサ10基準の極座標系すなわち相対距離、方位角、および仰角を成分とする座標系で定義されたものである。ただし、センサ10は、各演算部に出力するまでの間に極座標系から直交座標系に座標変換して観測結果を出力している。システムアライメント誤差推定部30は、センサ10基準の極座標系において、相対距離、方位角、および仰角の各成分に対してどの程度のシステムアライメント誤差が生じているかを推測する。そして、システムアライメント誤差推定部30は、部分航跡を直交座標系から極座標系に変換し、極座標系において推定したシステムアライメント誤差の誤差量に基づいて部分航跡を補正し、補正した部分航跡を極座標系から直交座標系に変換する。システムアライメント誤差推定部30は、補正した部分航跡を極座標系から直交座標系に変換したものを、送信判定部40に出力する補正した部分航跡とする。なお、システムアライメント誤差推定部30は、第1の誤差共分散行列に対しても部分航跡と同様の方法で補正することができる。また、システムアライメント誤差推定部30は、誤差共分散判定部70で得られた判定結果を初期値として利用することで、システムアライメント誤差の誤差量を推定する際の誤差候補の範囲を限定することができ、処理負荷を低減することができるとともに、誤差の収束性を向上させることができる。システムアライメント誤差推定部30は、補正した部分航跡および補正した第1の誤差共分散行列を送信判定部40に出力する。
Returning to the flowchart of FIG. The system
送信判定部40は、システムアライメント誤差推定部30から部分航跡および第1の誤差共分散行列を取得し、第2の演算部50から航跡情報および第2の誤差共分散行列を取得する。送信判定部40は、当該部分航跡を用いることで、第2の演算部50が生成する航跡情報の精度が向上するか否かを判定する(ステップS4)。送信判定部40は、第2の演算部50において航跡情報の精度が規定された閾値以下に劣化することが見込まれる場合、または、部分航跡を送信することで第2の演算部50において航跡情報の精度が規定された閾値以上改善することが見込まれる場合、部分航跡を送信すると判定する。第2の演算部50において航跡情報の精度が規定された閾値以下に劣化することが見込まれる場合とは、例えば、第2の演算部50で演算された第2の誤差共分散行列の速度成分の最大固有値が閾値以上になった場合である。また、部分航跡を送信することで第2の演算部50において航跡情報の精度が規定された閾値以上改善することが見込まれる場合とは、部分航跡を送信しなかった場合の第2の演算部50の航跡精度、すなわち第2の演算部50で演算された第2の誤差共分散行列の速度成分の最大固有値と、部分航跡を送信した場合の第2の演算部50の航跡情報の精度、すなわち部分航跡の第1の誤差共分散行列および第2の演算部50の第2の誤差共分散行列から演算された平滑誤差共分散行列の速度成分の最大固有値と、を比較して規定された閾値以上の差が生じている場合である。送信判定部40は、当該部分航跡を用いることで第2の演算部50において航跡情報の精度が向上すると判定した場合(ステップS4:Yes)、部分航跡を第2の演算部50〜52に送信する(ステップS5)。送信判定部40は、当該部分航跡を用いても第2の演算部50において航跡情報の精度が向上しないと判定した場合(ステップS4:No)、部分航跡を第2の演算部50〜52に出力せず処理を終了する。
The
第2の演算部50は、送信判定部40,41の少なくとも1つから部分航跡を受信した場合、部分航跡に対して平滑処理および予測処理を行い、航跡情報を生成すなわち更新する。また、第2の演算部50は、航跡情報の第2の誤差共分散行列を生成すなわち更新する(ステップS6)。第2の演算部50における平滑処理および予測処理は、第1の演算部20における平滑処理および予測処理と同様である。これにより、センサシステム1では、各第2の演算部50〜52において、部分航跡を共有し、航跡情報の等価性を確保することができる。なお、第2の演算部50は、送信判定部40から部分航跡を取得した場合、送信判定部40から部分航跡を取得した旨を第1の演算部20に通知する。第1の演算部20は、第2の演算部50から部分航跡を取得した旨の通知を受けると、リセット処理を行う。この場合、第1の演算部20は、リセット処理後の時刻から、部分航跡および第1の誤差共分散行列を生成する。また、第2の演算部50は、更新した航跡情報および第2の誤差共分散行列を送信判定部40に出力する。また、第2の演算部50は、更新した第2の誤差共分散行列を誤差共分散判定部70に出力する。
When the second
第3の演算部60は、第1の演算部20と同様、センサ10から出力された観測結果に対して平滑処理および予測処理を行い、目標80の未来時刻における位置、速度、および加速度を予測し、第3の誤差共分散行列を生成する(ステップS7)。第3の演算部60が第3の誤差共分散行列を生成する処理は、前述の第1の演算部20の処理と同様である。なお、第3の演算部60は、第1の演算部20と異なり、第2の演算部50が部分航跡を取得した場合でも、第2の演算部50が航跡情報を維持している間はリセット処理されない。ステップS7の処理については、ステップS2からステップS6の処理と並行して行われてもよい。第1の誤差共分散行列、第2の誤差共分散行列、および第3の誤差共分散行列を区別しない場合、誤差共分散行列と呼ぶ場合がある。
Similar to the first calculation unit 20, the
誤差共分散判定部70は、第3の演算部60から出力された第3の誤差共分散行列と第2の演算部50から出力された第2の誤差共分散行列とを比較し、観測結果にシステムアライメント誤差が含まれているか否かを判定する(ステップS8)。誤差共分散判定部70は、判定結果をシステムアライメント誤差推定部30に出力する(ステップS9)。
The error
ここで、誤差共分散行列について説明する。図4は、本実施の形態にかかるセンサ装置100で生成される誤差共分散行列の例を示す図である。図4に示す誤差共分散行列は、位置と速度に関する誤差量の相関関係を示す行列である。図4において、枠Aで示される箇所の誤差成分は、位置に関する成分の誤差量を示す成分である。また、枠B,Dで示される箇所の誤差成分は、位置と速度の相関成分の誤差量を示す成分である。また、枠Cで示される箇所の誤差成分は、速度に関する成分の誤差量を示す成分である。図4に示すように、位置と速度の誤差成分の成分は、x成分、y成分、およびz成分によって表される。誤差共分散行列では、図4に示す各成分の大きさによって、誤差が発生している要素および誤差の大きさを示すことができる。誤差共分散行列において、各成分が目標80の位置を特定する座標系の軸毎、具体的にはx成分、y成分、およびz成分で表される。
Here, the error covariance matrix will be described. FIG. 4 is a diagram illustrating an example of an error covariance matrix generated by the sensor device 100 according to the present embodiment. The error covariance matrix shown in FIG. 4 is a matrix that shows the correlation between the error amounts related to position and velocity. In FIG. 4, an error component at a location indicated by a frame A is a component indicating an error amount of a component related to the position. Further, the error components at the locations indicated by the frames B and D are components indicating the error amount of the correlation component between the position and the speed. Further, the error component at the location indicated by the frame C is a component indicating the error amount of the component relating to the speed. As shown in FIG. 4, the components of the position and velocity error components are represented by an x component, a y component, and a z component. In the error covariance matrix, the element in which the error is generated and the magnitude of the error can be indicated by the size of each component shown in FIG. In the error covariance matrix, each component is represented for each axis of the coordinate system that specifies the position of the
図5は、本実施の形態にかかる誤差共分散判定部70においてシステムアライメント誤差が含まれるか否かを判定する処理を示すフローチャートである。誤差共分散判定部70は、第3の演算部60で生成された第3の誤差共分散行列の各成分と第2の演算部50で生成された第2の誤差共分散行列の各成分とを比較し、誤差共分散行列の特定の成分において差異が生じているか否かを判定する(ステップS21)。誤差共分散判定部70は、誤差共分散行列の特定の成分において差異が生じていないと判定した場合(ステップS21:No)、システムアライメント誤差は無いと判定し(ステップS22)、処理を終了する。
FIG. 5 is a flowchart showing processing for determining whether or not a system alignment error is included in the error
誤差共分散判定部70は、誤差共分散行列の特定の成分において差異が生じていると判定した場合(ステップS21:Yes)、誤差共分散行列の特徴量について、複数の目標間における相関関係を分析する。誤差共分散判定部70は、センサ装置100が探知対象としている目標80に対する誤差共分散行列で差異が生じている成分と、目標80と異なる目標である異目標に対する誤差共分散行列で差異が生じている成分とが同一か否かを判定する。すなわち、誤差共分散判定部70は、異目標においても目標80と同一成分で差異が生じているか否かを判定する(ステップS23)。
When the error
誤差共分散判定部70は、異目標においても同一成分で差異が生じていると判定した場合(ステップS23:Yes)、位置に関するシステムアライメント誤差が発生していると判定し(ステップS24)、処理を終了する。誤差共分散判定部70は、異目標において同一成分で差異が生じていないと判定した場合(ステップS23:No)、センサ10と各目標の位置関係から誤差共分散行列において差異が生じている成分によって特定される方位を計算する。誤差共分散判定部70は、異目標において差異が生じている成分が方位に相関があるか否かを判定する(ステップS25)。誤差共分散判定部70は、図4の例では、誤差共分散行列のうち枠Aで示される位置に関する成分を用いる。
The error
誤差共分散判定部70は、異目標において差異が生じている成分が方位に相関があると判定した場合(ステップS25:Yes)、方位に関するシステムアライメント誤差が発生していると判定し(ステップS26)、処理を終了する。誤差共分散判定部70は、異目標において差異が生じている成分が方位に相関がないと判定した場合(ステップS25:No)、今回生成された目標80についての誤差共分散行列の特徴量と、過去に生成された同一目標80についての誤差共分散行列の特徴量とを比較する。誤差共分散判定部70は、同一目標80において、誤差共分散行列で差異が生じている成分の時系列変化と目標進行方向との間に相関があるか否かを判定する(ステップS27)。誤差共分散判定部70は、図4の例では、誤差共分散行列のうち枠Cで示される速度に関する成分を用いる。
The error
誤差共分散判定部70は、誤差共分散行列で差異が生じている成分の時系列変化と目標進行方向との間に相関があると判定した場合(ステップS27:Yes)、時刻に関するシステムアライメント誤差が発生していると判定し(ステップS28)、処理を終了する。誤差共分散判定部70は、誤差共分散行列で差異が生じている成分の時系列変化と目標進行方向との間に相関がないと判定した場合(ステップS27:No)、システムアライメント誤差は発生しているが、複数の要因が複合して発生しているなどの状態で発生要因を特定することは困難であり、発生要因は不明と判定し(ステップS29)、処理を終了する。
When the error
誤差共分散判定部70は、システムアライメント誤差の発生要因が、位置、方位、または時刻のどの要素であるかを判定できた場合、システムアライメント誤差が発生していると判定した要素、および誤差共分散行列においてシステムアライメント誤差が発生している軸を判定結果としてシステムアライメント誤差推定部30に出力する。
The error
このように、誤差共分散判定部70は、第3の誤差共分散行列および第2の誤差共分散行列の対応する各成分から得られる特徴量に基づいて、観測結果において位置、方位、および時刻の各要素に誤差が含まれるか否かを判定する。誤差共分散判定部70は、誤差が含まれると判定した要素について誤差が含まれる要素の成分の軸を推定する。誤差共分散判定部70は、誤差が含まれると判定した要素、および推定した軸を判定結果としてシステムアライメント誤差推定部30に出力する。システムアライメント誤差推定部30は、誤差共分散判定部70から取得した判定結果を、システムアライメント誤差を推定する際の初期値として使用し、システムアライメント誤差の誤差量を推定する。これにより、システムアライメント誤差推定部30は、システムアライメント誤差推定の際の処理負荷を低減できるとともに、誤差の収束性を向上させることができる。
As described above, the error
つづいて、センサ装置100のハードウェア構成について説明する。センサ装置100において、センサ10は計測器である。送信判定部40において部分航跡をセンサ装置101および指揮統制装置110に出力する機能、および第2の演算部50においてセンサ装置101から部分航跡を取得する機能はインタフェース回路により実現される。第1の演算部20、システムアライメント誤差推定部30、送信判定部40のその他の機能、第2の演算部50、第3の演算部60、および誤差共分散判定部70は、処理回路により実現される。処理回路は、メモリに格納されるプログラムを実行するプロセッサおよびメモリであってもよいし、専用のハードウェアであってもよい。
Next, the hardware configuration of the sensor device 100 will be described. In the sensor device 100, the
図6は、本実施の形態にかかるセンサ装置100が備える処理回路をプロセッサおよびメモリで構成する場合の例を示す図である。処理回路がプロセッサ91およびメモリ92で構成される場合、センサ装置100の処理回路の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ92に格納される。処理回路では、メモリ92に記憶されたプログラムをプロセッサ91が読み出して実行することにより、各機能を実現する。すなわち、処理回路は、センサ装置100の各構成要素の処理が結果的に実行されることになるプログラムを格納するためのメモリ92を備える。また、これらのプログラムは、センサ装置100の各構成要素の手順および方法をコンピュータに実行させるものであるともいえる。図6において、計測器94は前述の計測器である。インタフェース回路95は前述のインタフェース回路である。
FIG. 6 is a diagram illustrating an example in which the processing circuit included in the sensor device 100 according to the present embodiment is configured with a processor and a memory. When the processing circuit includes the processor 91 and the
ここで、プロセッサ91は、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、またはDSP(Digital Signal Processor)などであってもよい。また、メモリ92には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(登録商標)(Electrically EPROM)などの、不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、またはDVD(Digital Versatile Disc)などが該当する。
Here, the processor 91 may be a CPU (Central Processing Unit), a processing device, an arithmetic device, a microprocessor, a microcomputer, a DSP (Digital Signal Processor), or the like. The
図7は、実施の形態1にかかるセンサ装置100が備える処理回路を専用のハードウェアで構成する場合の例を示す図である。処理回路が専用のハードウェアで構成される場合、図7に示す処理回路93は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものが該当する。センサ装置100の各構成要素の各機能を機能別に処理回路93で実現してもよいし、各機能をまとめて処理回路93で実現してもよい。 FIG. 7 is a diagram illustrating an example of a case where the processing circuit included in the sensor device 100 according to the first embodiment is configured with dedicated hardware. When the processing circuit is configured by dedicated hardware, the processing circuit 93 shown in FIG. 7 includes, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), An FPGA (Field Programmable Gate Array) or a combination thereof is applicable. Each function of each component of the sensor device 100 may be realized by the processing circuit 93 according to function, or each function may be realized by the processing circuit 93 collectively.
なお、センサ装置100の各構成要素の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、処理回路は、専用のハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。 In addition, about each function of each component of the sensor apparatus 100, a part may be implement | achieved by exclusive hardware and a part may be implement | achieved by software or firmware. As described above, the processing circuit can realize the above-described functions by dedicated hardware, software, firmware, or a combination thereof.
以上説明したように、本実施の形態によれば、センサシステム1において、センサ装置100は、センサ10で得られた観測結果に基づいて部分航跡および第1の誤差共分散行列を生成し、部分航跡および他のセンサ装置101から受信した部分航跡に基づいて航跡情報および第2の誤差共分散行列を生成し、観測結果に基づいて観測を開始してからの第3の誤差共分散行列を生成する。センサ装置100は、第3の誤差共分散行列と第2の誤差共分散行列とを比較して、観測結果にシステムアライメント誤差が含まれているか否かを判定し、判定結果を用いてシステムアライメント誤差を推定することとした。これにより、センサ装置100は、装置の規模の増大を抑制しつつ、複数のセンサ装置の間で発生する誤差を検出できることができる。
As described above, according to the present embodiment, in the
なお、本実施の形態では、センサシステム1が2つのセンサ装置を備え、2つのセンサ装置のうちセンサ装置100がシステムアライメント誤差検出装置120を備える構成について説明したが、これに限定されない。センサシステム1は、3つ以上のセンサ装置を備えてもよい。また、センサシステム1では、複数のセンサ装置のうち、システムアライメント誤差検出装置120を備えるセンサ装置の数は1つでもよいし、複数でもよい。
In the present embodiment, the configuration in which the
以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。 The configuration described in the above embodiment shows an example of the contents of the present invention, and can be combined with another known technique, and can be combined with other configurations without departing from the gist of the present invention. It is also possible to omit or change the part.
1 センサシステム、10,11 センサ、20,21 第1の演算部、30,31 システムアライメント誤差推定部、40,41 送信判定部、50,51,52 第2の演算部、60 第3の演算部、70 誤差共分散判定部、80 目標、100,101 センサ装置、110 指揮統制装置、120 システムアライメント誤差検出装置。
DESCRIPTION OF
Claims (9)
目標を観測するセンサの第1の観測結果に基づいて、第1の期間における前記目標の航跡である部分航跡を生成し、前記部分航跡の第1の誤差共分散行列を生成する第1の演算部と、
前記部分航跡を送信するか否かを判定する送信判定部と、
前記送信判定部から受信した前記部分航跡、および前記他のセンサ装置から受信した部分航跡に基づいて、観測を開始してからの前記目標の航跡である航跡情報を生成し、前記航跡情報の第2の誤差共分散行列を生成する第2の演算部と、
前記第1の観測結果に基づいて、観測を開始してからの前記目標の航跡の第3の誤差共分散行列を生成する第3の演算部と、
前記第3の誤差共分散行列と前記第2の誤差共分散行列とを比較し、前記他のセンサ装置で得られる第2の観測結果に対して前記第1の観測結果が誤差を含むか否かを判定する誤差共分散判定部と、
前記誤差共分散判定部の判定結果を用いて、前記第1の誤差共分散行列に基づいて、前記第1の観測結果に含まれる誤差量を推定する誤差推定部と、
を備えることを特徴とするセンサ装置。 A sensor device that constitutes a sensor system together with other sensor devices,
A first calculation that generates a partial wake that is a wake of the target in a first period based on a first observation result of a sensor that observes the target, and generates a first error covariance matrix of the partial wake And
A transmission determination unit for determining whether to transmit the partial wake;
Based on the partial wake received from the transmission determination unit and the partial wake received from the other sensor device, wake information that is the target wake after the start of observation is generated, and the wake information A second arithmetic unit for generating an error covariance matrix of 2;
A third arithmetic unit that generates a third error covariance matrix of the target track from the start of observation based on the first observation result;
The third error covariance matrix is compared with the second error covariance matrix, and whether or not the first observation result includes an error with respect to the second observation result obtained by the other sensor device. An error covariance determination unit for determining whether or not
An error estimation unit that estimates an error amount included in the first observation result based on the first error covariance matrix using the determination result of the error covariance determination unit;
A sensor device comprising:
前記誤差共分散判定部は、前記第3の誤差共分散行列および前記第2の誤差共分散行列の対応する各成分から得られる特徴量に基づいて、前記第1の観測結果において位置、方位、および時刻の各要素に誤差が含まれるか否かを判定し、誤差が含まれると判定した要素について誤差が含まれる要素の成分の軸を推定し、誤差が含まれると判定した要素、および推定した軸を前記判定結果として前記誤差推定部に出力し、
前記誤差推定部は、前記誤差共分散判定部から前記判定結果として取得した要素および軸を初期値として、前記誤差量を推定する、
ことを特徴とする請求項1に記載のセンサ装置。 The components representing the third error covariance matrix and the second error covariance matrix include position, azimuth, and time elements, and each component is represented for each axis of the coordinate system that specifies the target position. If
The error covariance determination unit, based on feature amounts obtained from corresponding components of the third error covariance matrix and the second error covariance matrix, in the first observation result, And whether each element of time and time includes an error, estimates the component axis of the element including the error for the element determined to include the error, and the element determined to include the error, and the estimation Output the determined axis to the error estimation unit as the determination result,
The error estimation unit estimates the error amount using an element and an axis acquired as the determination result from the error covariance determination unit as initial values.
The sensor device according to claim 1.
ことを特徴とする請求項1または2に記載のセンサ装置。 In the first period, the transmission determination unit transmits the partial wake to the second calculation unit, and the first calculation unit notifies that the partial wake has been received from the second calculation unit. It is a period after receiving and resetting, or a period after the sensor starts observation,
The sensor device according to claim 1, wherein:
ことを特徴とする請求項1から3のいずれか1つに記載のセンサ装置。 The transmission determination unit includes the partial wake and the first error covariance matrix acquired from the first calculation unit via the error estimation unit, the wake information acquired from the second calculation unit, and the first wake information. When it is determined that the accuracy of the wake information is improved by using the partial wake based on the error covariance matrix of 2, the partial wake is transmitted to the second arithmetic unit and the other sensor device.
The sensor device according to any one of claims 1 to 3, wherein
第1の演算部が、目標を観測するセンサの第1の観測結果に基づいて、第1の期間における前記目標の航跡である部分航跡を生成し、前記部分航跡の第1の誤差共分散行列を生成する第1のステップと、
送信判定部が、前記部分航跡を送信するか否かを判定する第2のステップと、
第2の演算部が、前記送信判定部から受信した前記部分航跡、および前記他のセンサ装置から受信した部分航跡に基づいて、観測を開始してからの前記目標の航跡である航跡情報を生成し、前記航跡情報の第2の誤差共分散行列を生成する第3のステップと、
第3の演算部が、前記第1の観測結果に基づいて、観測を開始してからの前記目標の航跡の第3の誤差共分散行列を生成する第4のステップと、
誤差共分散判定部が、前記第3の誤差共分散行列と前記第2の誤差共分散行列とを比較し、前記他のセンサ装置で得られる第2の観測結果に対して前記第1の観測結果が誤差を含むか否かを判定する第5のステップと、
誤差推定部が、前記誤差共分散判定部の判定結果を用いて、前記第1の誤差共分散行列に基づいて、前記第1の観測結果に含まれる誤差量を推定する第6のステップと、
を含むことを特徴とする誤差検出方法。 An error detection method for a sensor device that constitutes a sensor system together with another sensor device,
A first calculation unit generates a partial wake that is a wake of the target in a first period based on a first observation result of a sensor that observes the target, and a first error covariance matrix of the partial wake A first step of generating
A second step of determining whether or not the transmission determination unit transmits the partial wake;
Based on the partial wake received from the transmission determination unit and the partial wake received from the other sensor device, a second calculation unit generates wake information that is the target wake after the start of observation. A third step of generating a second error covariance matrix of the wake information;
A fourth step in which a third calculation unit generates a third error covariance matrix of the target track after starting observation based on the first observation result;
An error covariance determination unit compares the third error covariance matrix with the second error covariance matrix, and performs the first observation on the second observation result obtained by the other sensor device. A fifth step of determining whether the result includes an error;
A sixth step in which an error estimation unit estimates an error amount included in the first observation result based on the first error covariance matrix using the determination result of the error covariance determination unit;
An error detection method comprising:
前記第5のステップにおいて、前記誤差共分散判定部は、前記第3の誤差共分散行列および前記第2の誤差共分散行列の対応する各成分から得られる特徴量に基づいて、前記第1の観測結果において位置、方位、および時刻の各要素に誤差が含まれるか否かを判定し、誤差が含まれると判定した要素について誤差が含まれる要素の成分の軸を推定し、誤差が含まれると判定した要素、および推定した軸を前記判定結果として前記誤差推定部に出力し、
前記第6のステップにおいて、前記誤差推定部は、前記誤差共分散判定部から前記判定結果として取得した要素および軸を初期値として、前記誤差量を推定する、
ことを特徴とする請求項5に記載の誤差検出方法。 The components representing the third error covariance matrix and the second error covariance matrix include position, azimuth, and time elements, and each component is represented for each axis of the coordinate system that specifies the target position. If
In the fifth step, the error covariance determination unit determines the first coherence based on the feature amount obtained from the corresponding components of the third error covariance matrix and the second error covariance matrix. In the observation results, determine whether each element of position, orientation, and time includes an error, estimate the component axis of the element that includes the error for the element determined to include the error, and include the error Output the determined element and the estimated axis to the error estimation unit as the determination result,
In the sixth step, the error estimation unit estimates the error amount using an element and an axis acquired as the determination result from the error covariance determination unit as initial values.
The error detection method according to claim 5.
ことを特徴とする請求項5または6に記載の誤差検出方法。 In the first period, the transmission determination unit transmits the partial wake to the second calculation unit, and the first calculation unit notifies that the partial wake has been received from the second calculation unit. It is a period after receiving and resetting, or a period after the sensor starts observation,
The error detection method according to claim 5 or 6, characterized in that:
ことを特徴とする請求項5から7のいずれか1つに記載の誤差検出方法。 In the second step, the transmission determination unit includes the partial wake and the first error covariance matrix acquired from the first calculation unit via the error estimation unit, and the second calculation unit. When it is determined that the accuracy of the wake information is improved by using the partial wake based on the acquired wake information and the second error covariance matrix, the partial wake is converted to the second arithmetic unit and the other To the sensor device
The error detection method according to claim 5, wherein the error detection method is an error detection method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018073786A JP6861663B2 (en) | 2018-04-06 | 2018-04-06 | Sensor device, error detection method and error detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018073786A JP6861663B2 (en) | 2018-04-06 | 2018-04-06 | Sensor device, error detection method and error detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019184360A true JP2019184360A (en) | 2019-10-24 |
JP6861663B2 JP6861663B2 (en) | 2021-04-21 |
Family
ID=68340733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018073786A Active JP6861663B2 (en) | 2018-04-06 | 2018-04-06 | Sensor device, error detection method and error detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6861663B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6359586B1 (en) * | 1997-11-03 | 2002-03-19 | Saab Ab | Bias estimating method for a target tracking system |
JP2008534983A (en) * | 2005-04-04 | 2008-08-28 | レイセオン・カンパニー | System and method for coherently combining multiple radars |
JP2010281782A (en) * | 2009-06-08 | 2010-12-16 | Mitsubishi Electric Corp | Target tracking apparatus |
JP2011064484A (en) * | 2009-09-15 | 2011-03-31 | Mitsubishi Electric Corp | Sensor bias estimation device |
CN106680806A (en) * | 2016-11-24 | 2017-05-17 | 清华大学 | Multi-radar plot fusion method |
WO2017138119A1 (en) * | 2016-02-10 | 2017-08-17 | 三菱電機株式会社 | Target tracking device |
-
2018
- 2018-04-06 JP JP2018073786A patent/JP6861663B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6359586B1 (en) * | 1997-11-03 | 2002-03-19 | Saab Ab | Bias estimating method for a target tracking system |
JP2008534983A (en) * | 2005-04-04 | 2008-08-28 | レイセオン・カンパニー | System and method for coherently combining multiple radars |
JP2010281782A (en) * | 2009-06-08 | 2010-12-16 | Mitsubishi Electric Corp | Target tracking apparatus |
JP2011064484A (en) * | 2009-09-15 | 2011-03-31 | Mitsubishi Electric Corp | Sensor bias estimation device |
WO2017138119A1 (en) * | 2016-02-10 | 2017-08-17 | 三菱電機株式会社 | Target tracking device |
CN106680806A (en) * | 2016-11-24 | 2017-05-17 | 清华大学 | Multi-radar plot fusion method |
Non-Patent Citations (1)
Title |
---|
松崎貴史 亀田洋志 内田惇一 広嶋文哉: "MKGBE法によるバイアス誤差推定の検討", 電子情報通信学会技術研究報告, vol. 第110巻 第46号, JPN6021006617, 14 May 2010 (2010-05-14), JP, pages 1 - 6, ISSN: 0004455811 * |
Also Published As
Publication number | Publication date |
---|---|
JP6861663B2 (en) | 2021-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11465643B2 (en) | Obstacle recognition device and obstacle recognition method | |
JP5460148B2 (en) | Positioning device and program | |
US11120562B2 (en) | Posture estimation method, posture estimation apparatus and computer readable storage medium | |
US9126338B2 (en) | Robot system and method for driving the same | |
JP2009098125A (en) | System and method for gyrocompass alignment using dynamically calibrated sensor data and iterative extended kalman filter within navigation system | |
US20140285794A1 (en) | Measuring device | |
JP2011064484A (en) | Sensor bias estimation device | |
JP2017194460A (en) | Navigation system and method for error correction | |
KR20210013526A (en) | Apparatus and method for terrain aided navigation using inertial position | |
JP5664059B2 (en) | Vehicle trajectory estimation device | |
CN106291530B (en) | A kind of probabilistic data association optimization method based on nearest neighbor method | |
JP6861663B2 (en) | Sensor device, error detection method and error detection program | |
WO2019239524A1 (en) | Path estimating device and portable information terminal | |
JP2008175683A (en) | Apparatus for bias error prediction of sensor | |
JP4882544B2 (en) | TRACKING PROCESSING DEVICE, ITS METHOD, AND PROGRAM | |
US9245343B1 (en) | Real-time image geo-registration processing | |
JP6041547B2 (en) | Tracking device | |
US8963766B2 (en) | Target tracking system and method using data of angle sensors | |
JP6906409B2 (en) | Tracking processing device and tracking processing method | |
JP6986980B2 (en) | Tracking processing device and tracking processing method | |
JP5569276B2 (en) | Current position detection device for vehicle | |
JP7415090B1 (en) | Target state estimation device and target state estimation method | |
EP1749183A1 (en) | Alignment of a flicht vehicle based on recursive matrix inversion | |
JP2004037262A (en) | Target tracking system | |
CN116380056B (en) | Inertial positioning method, inertial positioning device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210302 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210330 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6861663 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |