JP7034353B2 - Positioning system and positioning method - Google Patents

Positioning system and positioning method Download PDF

Info

Publication number
JP7034353B2
JP7034353B2 JP2021055652A JP2021055652A JP7034353B2 JP 7034353 B2 JP7034353 B2 JP 7034353B2 JP 2021055652 A JP2021055652 A JP 2021055652A JP 2021055652 A JP2021055652 A JP 2021055652A JP 7034353 B2 JP7034353 B2 JP 7034353B2
Authority
JP
Japan
Prior art keywords
intersection
angle measuring
angle
azimuth
likelihood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021055652A
Other languages
Japanese (ja)
Other versions
JP2021101193A (en
Inventor
泰郎 藤島
喜一 杉本
淳 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Publication of JP2021101193A publication Critical patent/JP2021101193A/en
Application granted granted Critical
Publication of JP7034353B2 publication Critical patent/JP7034353B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Fixing By Use Of Radio Waves (AREA)

Description

本発明は、測角センサを用いて対象の位置を推定する位置標定システム、および位置標定方法に関する。 The present invention relates to a position determination system that estimates the position of an object using an angle measuring sensor, and a position determination method.

一般に、捜索対象や欠陥などの対象物(目標ともいう)の位置を推定する場合、対象物に対する方位角を測定する測角センサを複数用いて、三角測量の原理に基づき、各測角センサから対象物に延びる方位線の交点から推定することできる。一方で、対象物が複数存在する場合には、測角センサから各対象物にそれぞれ延びる方位線は、対象物の個数が求められるため、各方位線の交点が対象物の真の位置以外の箇所(以下、虚像という)にも現れることとなる。このため、この虚像の存在により、実際よりも多くの個数の対象物が存在すると誤認識し、対象物の位置の推定精度が著しく劣化する問題がある。 Generally, when estimating the position of an object (also called a target) such as a search target or a defect, multiple angle measuring sensors that measure the azimuth angle with respect to the object are used, and each angle measuring sensor is used based on the principle of triangulation. It can be estimated from the intersection of the azimuth lines extending to the object. On the other hand, when there are a plurality of objects, the number of directional lines extending from the angle measurement sensor to each object is obtained, so the intersection of the directional lines is other than the true position of the object. It will also appear in places (hereinafter referred to as virtual images). Therefore, due to the existence of this virtual image, there is a problem that it is erroneously recognized that there are more objects than the actual number, and the estimation accuracy of the position of the objects is significantly deteriorated.

このような問題を解決するために、従来、各目標の実測データとセンサ位置と実測データがどの目標から得られるかの可能性係数を目標毎に設定した分類データを入力とし、実測値との差を少なくするよう、目標の仮の位置の集まりで表されるクラスタ特性データを出力するクラスタ特性データ最適化手段と、クラスタ特性データと実測データとセンサ位置とを入力とし、実測値との差を少なくするよう、各実測データが各目標から得られる新しい可能性係数を目標毎に再設定し新しい分類データとしてクラスタ特性データ最適化手段と分類評価値算出手段に出力する分類データ最適化手段と、これらを入力とし、分類評価値を算出する分類評価値算出手段を備えた技術が提案されている(例えば、特許文献1参照)。複数の目標に対する状態推定を行う技術として、カルマンフィルタをベースとするPHDフィルタが知られている(例えば、非特許文献1参照)。 In order to solve such a problem, conventionally, the actual measurement data of each target, the sensor position, and the classification data in which the possibility coefficient from which the actual measurement data is obtained are set for each target are input, and the actual measurement value is used. In order to reduce the difference, the cluster characteristic data optimization means that outputs the cluster characteristic data represented by a set of temporary positions of the target, and the difference between the actual measurement value and the cluster characteristic data, the actual measurement data, and the sensor position are input. With the classification data optimization means that resets the new possibility coefficient obtained from each target for each target and outputs it to the cluster characteristic data optimization means and the classification evaluation value calculation means as new classification data. , A technique provided with a classification evaluation value calculation means for calculating a classification evaluation value by using these as inputs has been proposed (see, for example, Patent Document 1). A PHD filter based on a Kalman filter is known as a technique for estimating a state for a plurality of targets (see, for example, Non-Patent Document 1).

特開平09-304520号公報Japanese Unexamined Patent Publication No. 09-304520

B-N. Vo and W-K. Ma, “The Gaussian Mixture Probability Hypothesis Density Filter,” IEEE Trans. Signal Processing, vol.54, no.11, pp.4091-4104, Nov., 2006.B-N. Vo and W-K. Ma, “The Gaussian Mixture Probability Hypothesis Density Filter,” IEEE Trans. Signal Processing, vol.54, no.11, pp.4091-4104, Nov., 2006.

特許文献1に記載の技術は、同一対象を指し示すと推定した方位線の組み合わせを出力し、虚像を排除することを目的としている。しかしながら、現実には、測角センサが計測した方位角の実測値には観測誤差が存在するため、仮に虚像をすべて排除できたとしても、対象物の位置推定には誤差が含まれ、推定精度の低下が懸念される。さらに、上記特許文献1に記載の技術は、対象物の位置推定にあたり、対象物の数の真値を予め入力する必要があり、対象物の数が不明の場合や変化する場合には、対象物の位置推定が困難であった。 The technique described in Patent Document 1 aims to output a combination of directional lines presumed to point to the same object and eliminate a virtual image. However, in reality, there is an observation error in the measured value of the azimuth measured by the angle measuring sensor, so even if all the virtual images can be eliminated, the position estimation of the object contains an error and the estimation accuracy. There is a concern that the price will decline. Further, in the technique described in Patent Document 1, it is necessary to input the true value of the number of objects in advance in order to estimate the position of the object, and when the number of objects is unknown or changes, the position of the object is estimated. Was difficult.

本発明は、上記の事情に鑑みてなされたものであり、複数の対象物の位置推定精度の向上を図った位置標定システム、および位置標定方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a position determination system and a position orientation method for improving the position estimation accuracy of a plurality of objects.

上述した課題を解決し、目的を達成するために、本発明に係る位置標定システムは、互いに独立して配置され、複数の対象物に対する方位角をそれぞれ測定する少なくとも3つの測角センサと、3つの測角センサから各対象物へそれぞれ延びる3つの方位線が交差するか否かを判定する交差判定部と、交差判定部が3つの方位線が交差すると判定した場合に、3つの方位線からみなし交点を算出し、このみなし交点を対象物の位置と推定する位置推定部と、を備えたことを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the position positioning system according to the present invention is arranged independently of each other, and has at least three angle measuring sensors for measuring azimuths with respect to a plurality of objects, and three. An intersection determination unit that determines whether or not three azimuth lines extending from one angle sensor to each object intersect, and an intersection determination unit that determines that the three azimuth lines intersect, from the three azimuth lines. It is characterized by being provided with a position estimation unit that calculates a deemed intersection and estimates this deemed intersection as the position of an object.

この構成によれば、3つの方位線からみなし交点を算出し、このみなし交点を対象物の位置と推定するため、対象物の位置を精度良く推定することができる。また、3つの方位線が交差するか否かを判定することで対象物の位置を推定するため、従来のように、対象物の数の真値を予め入力する必要はなく、対象物の数が不明の場合や変化する場合でも容易に対象物の位置推定ができる。 According to this configuration, the deemed intersections are calculated from the three azimuth lines, and the deemed intersections are estimated as the positions of the objects, so that the positions of the objects can be estimated accurately. Further, since the position of the object is estimated by determining whether or not the three azimuth lines intersect, it is not necessary to input the true value of the number of objects in advance as in the conventional case, and the number of objects is unknown. The position of the object can be easily estimated even if it changes.

この構成において、交差判定部は、任意に選択された2つの測角センサから各対象物へそれぞれ延びる2つの方位線の交点を算出し、この交点を中心とする所定の誤差半径の円の内側を、残りの測角センサから該対象物へ延びる方位線が通過する場合に、3つの方位線は交差すると判定してもよい。 In this configuration, the intersection determination unit calculates the intersection of two azimuth lines extending from two arbitrarily selected angle measuring sensors to each object, and inside a circle having a predetermined error radius centered on this intersection. May determine that the three azimuth lines intersect when the azimuth lines extending from the remaining angle measuring sensors to the object pass.

また、交差判定部は、任意に選択された2つの測角センサから各対象物へそれぞれ延びる2つの方位線の交点と、残りの測角センサから該対象物へ延びる方位線との距離を算出し、この距離が交点を中心とする円の所定の誤差半径よりも小さい場合に、3つの方位線は交差すると判定してもよい。 Further, the intersection determination unit calculates the distance between the intersection of two azimuth lines extending from two arbitrarily selected angle measuring sensors to each object and the azimuth line extending from the remaining angle measuring sensors to the object. However, if this distance is smaller than a predetermined error radius of the circle centered on the intersection, it may be determined that the three azimuth lines intersect.

また、誤差半径は、測角センサの測角誤差の標準偏差の値に基づいて設定されてもよい。また、誤差半径は、任意に選択された2つの測角センサのうち、測角誤差の大きい測角センサにおける測角誤差の標準偏差の値に基づいて設定されてもよい。 Further, the error radius may be set based on the value of the standard deviation of the angle measurement error of the angle measurement sensor. Further, the error radius may be set based on the value of the standard deviation of the angle measurement error in the angle measurement sensor having a large angle measurement error among the two arbitrarily selected angle measurement sensors.

また、位置推定部は、3つの方位線から最小二乗法を用いてみなし交点を算出してもよい。また、所定の運動モデルに基づく状態推定フィルタを用いた対象物の状態推定によって、みなし交点の値を補正する補正部を備えてもよい。 Further, the position estimation unit may calculate the deemed intersection from the three azimuth lines by using the least squares method. Further, a correction unit may be provided for correcting the value of the deemed intersection by estimating the state of the object using the state estimation filter based on a predetermined motion model.

また、本発明に係る位置標定システムは、互いに独立して配置され、複数の対象物に対する方位線の方向ベクトルを規定する方位角及び天頂角をそれぞれ測定する少なくとも3つの測角センサと、現在または過去の所定期間内に、すべての測角センサから一の対象物へそれぞれ延びるすべての方位線が交差した全線交差点を記憶する記憶部と、任意に選択された複数の測角センサから該対象物へそれぞれ延びる方位線が交差する複数の交点を算出する交点算出部と、全線交差点に基づき、複数の交点の尤度をそれぞれ判定する尤度判定部と、尤度の大きさに基づいて一の交点を抽出し、該交点を一の対象物の位置と推定する位置推定部と、を備えたことを特徴とする。 Further, the position positioning system according to the present invention is arranged independently of each other, and has at least three angle measuring sensors that measure the azimuth angle and the zenith angle that define the direction vector of the azimuth line with respect to a plurality of objects, and presently or A storage unit that stores all line intersections where all azimuth lines extending from all angle measuring sensors to one object intersect within a predetermined period in the past, and the object from a plurality of arbitrarily selected angle measuring sensors. An intersection calculation unit that calculates multiple intersections where azimuth lines extending to each intersect, a likelihood determination unit that determines the likelihood of multiple intersections based on all line intersections, and one based on the magnitude of the likelihood. It is characterized by including a position estimation unit for extracting an intersection and estimating the intersection as the position of one object.

この構成によれば、現在または過去の全線交差点に基づいて交点の尤度を判定し、この尤度の大きさから交点の位置を対象物の位置と推定するため、測角センサが対象物を常時検出できなくても、対象物の位置を精度良く推定することができる。 According to this configuration, the likelihood of the intersection is determined based on the current or past all-line intersection, and the position of the intersection is estimated as the position of the object from the magnitude of the likelihood, so that the angle measuring sensor determines the object. Even if it cannot be detected at all times, the position of the object can be estimated accurately.

また、尤度判定部は、全線交差点との距離が最も短い交点の尤度を最も高く判定する構成としてもよい。 Further, the likelihood determination unit may be configured to determine the highest likelihood of the intersection having the shortest distance from the whole line intersection.

また、予め複数の対象物が近接して存在することが判明している場合、尤度判定部は、一の交点の尤度を、該交点の所定範囲内に存在する他の交点の数に応じて高める補正をしてもよい。 Further, when it is known in advance that a plurality of objects exist in close proximity to each other, the likelihood determination unit sets the likelihood of one intersection to the number of other intersections existing within a predetermined range of the intersection. Corrections may be made to increase accordingly.

また、交点算出部は、測角センサが対象物を検出する検出確率が高くなるにつれて、選択される測角センサの数を増やしてもよい。 Further, the intersection calculation unit may increase the number of angle measuring sensors selected as the detection probability that the angle measuring sensor detects an object increases.

また、記憶部は、対象物と測角センサとの相対速度と、測角センサの測定周期との積が大きくなるにつれて、所定期間を短くしてもよい。 Further, the storage unit may shorten the predetermined period as the product of the relative speed between the object and the angle measurement sensor and the measurement cycle of the angle measurement sensor increases.

また、すべての測角センサから一の対象物へそれぞれ延びるすべての方位線の最接近点を算出すると共に、この最接近点を中心とした所定の誤差領域内を、すべての方位線が通過する場合に、該最接近点を全線交差点と判定する交差判定部を備えてもよい。 In addition, the closest points of all the directional lines extending from all the angle measuring sensors to one object are calculated, and all the directional lines pass within a predetermined error region centered on this closest point. In some cases, an intersection determination unit that determines the closest approach point as an all-line intersection may be provided.

本発明に係る位置標定方法は、少なくとも3つの測角センサを用いて、複数の対象物に対する方位角をそれぞれ測定する測角ステップと、3つの測角センサから各対象物へそれぞれ延びる3つの方位線が交差するか否かを判定する交差判定ステップと、3つの方位線が交差すると判定された場合に、3つの方位線からみなし交点を算出し、このみなし交点を対象物の位置と推定する位置推定ステップと、を備えたことを特徴とする。 The position determination method according to the present invention uses at least three angle measuring sensors to measure an azimuth angle with respect to a plurality of objects, and three orientations extending from the three angle measuring sensors to each object. An intersection determination step for determining whether or not the lines intersect, and when it is determined that the three azimuth lines intersect, a deemed intersection is calculated from the three azimuth lines, and this deemed intersection is estimated as the position of the object. It is characterized by having a position estimation step.

この構成において、交差判定ステップは、任意に選択された2つの測角センサから各対象物へそれぞれ延びる2つの方位線の交点を算出し、この交点を中心とする所定の誤差半径の円の内側を、残りの測角センサから該対象物へ延びる方位線が通過する場合に、3つの方位線は交差すると判定してもよい。 In this configuration, the intersection determination step calculates the intersection of two azimuth lines extending from two arbitrarily selected angle measuring sensors to each object, and inside a circle having a predetermined error radius centered on this intersection. May determine that the three azimuth lines intersect when the azimuth lines extending from the remaining angle measuring sensors to the object pass.

また、交差判定ステップは、任意に選択された2つの測角センサから各対象物へそれぞれ延びる2つの方位線の交点と、残りの測角センサから該対象物へ延びる方位線との距離を算出し、この距離が交点を中心とする円の所定の誤差半径よりも小さい場合に、3つの方位線は交差すると判定してもよい。 Further, in the intersection determination step, the distance between the intersection of two azimuth lines extending from two arbitrarily selected angle measuring sensors to each object and the azimuth line extending from the remaining angle measuring sensors to the object is calculated. However, if this distance is smaller than a predetermined error radius of the circle centered on the intersection, it may be determined that the three azimuth lines intersect.

また、交差判定ステップにおいて、誤差半径は、測角センサの測角誤差の標準偏差の値に基づいて設定されてもよい。また、交差判定ステップにおいて、誤差半径は、任意に選択された2つの測角センサのうち、測角誤差の大きい測角センサにおける測角誤差の標準偏差の値に基づいて設定されてもよい。 Further, in the intersection determination step, the error radius may be set based on the value of the standard deviation of the angle measurement error of the angle measurement sensor. Further, in the intersection determination step, the error radius may be set based on the value of the standard deviation of the angle measurement error in the angle measurement sensor having the larger angle measurement error among the two arbitrarily selected angle measurement sensors.

また、位置推定ステップは、3つの方位線から最小二乗法を用いてみなし交点を算出してもよい。また、所定の運動モデルに基づく状態推定フィルタを用いた対象物の状態推定によって、みなし交点の値を補正する補正ステップを備えてもよい。 Further, in the position estimation step, the deemed intersection may be calculated from the three azimuth lines using the least squares method. Further, a correction step may be provided in which the value of the deemed intersection is corrected by estimating the state of the object using the state estimation filter based on a predetermined motion model.

本発明に係る位置標定方法は、少なくとも3つの測角センサを用いて、複数の対象物に対する方位線の方向ベクトルを規定する方位角及び天頂角をそれぞれ測定する測角ステップと、現在または過去の所定期間内に、すべての測角センサから一の対象物へそれぞれ延びるすべての方位線が交差した全線交差点を算出して記憶する全線交差点記憶ステップと、任意に選択された複数の測角センサから該対象物へそれぞれ延びる方位線が交差する複数の交点を算出する交点算出ステップと、全線交差点に基づき、複数の交点の尤度をそれぞれ判定する尤度判定ステップと、尤度の大きさに基づいて一の交点を抽出し、該交点を一の対象物の位置と推定する位置推定ステップと、を備えたことを特徴とする。 The position determination method according to the present invention includes an angle measurement step of measuring an azimuth angle and a zenith angle that define direction vectors of azimuth lines with respect to a plurality of objects by using at least three angle measurement sensors, and present or past angle measurement steps. From a full-line intersection storage step that calculates and stores all-line intersections where all azimuth lines extending from all angle-finding sensors to one object intersect within a predetermined period, and from a plurality of arbitrarily selected angle-measurement sensors. An intersection calculation step for calculating a plurality of intersections where azimuth lines extending to the object intersect, a likelihood determination step for determining the likelihood of each of the plurality of intersections based on all line intersections, and a magnitude of the likelihood. It is characterized by comprising a position estimation step of extracting one intersection and estimating the intersection as the position of one object.

また、尤度判定ステップにおいて、全線交差点との距離が最も短い交点の尤度を最も高く判定してもよい。 Further, in the likelihood determination step, the likelihood of the intersection having the shortest distance from the whole line intersection may be determined to be the highest.

また、予め複数の対象物が近接して存在することが判明している場合、尤度判定ステップにおいて、一の交点の尤度を、該交点の所定範囲内に存在する他の交点の数に応じて高める補正をしてもよい。 Further, when it is known in advance that a plurality of objects exist in close proximity to each other, in the likelihood determination step, the likelihood of one intersection is set to the number of other intersections existing within a predetermined range of the intersection. Corrections may be made to increase accordingly.

また、交点算出ステップにおいて、測角センサが対象物を検出する検出確率が高くなるにつれて、選択される測角センサの数を増やしてもよい。 Further, in the intersection calculation step, the number of angle measuring sensors selected may be increased as the detection probability that the angle measuring sensor detects an object increases.

また、全線交差点記憶ステップは、対象物と測角センサとの相対速度と、測角センサの測定周期との積が大きくなるにつれて、所定期間が短く設定されてもよい。 Further, the full-line intersection storage step may be set to a shorter predetermined period as the product of the relative speed between the object and the angle measuring sensor and the measurement cycle of the angle measuring sensor increases.

すべての測角センサから一の対象物へそれぞれ延びるすべての方位線の最接近点を算出すると共に、この最接近点を中心とした所定の誤差領域内を、すべての方位線が通過する場合に、該最接近点を全線交差点と判定する交差判定ステップを備えてもよい。 When all the directional lines pass within a predetermined error region centered on this closest point while calculating the closest points of all the directional lines extending from all the angle measurement sensors to one object. , The intersection determination step for determining the closest approach point as an all-line intersection may be provided.

本発明によれば、3つの方位線からみなし交点を算出し、このみなし交点を対象物の位置と推定するため、対象物の位置を精度良く推定することができる。また、3つの方位線が交差するか否かを判定することで対象物の位置を推定するため、従来のように、対象物の数の真値を予め入力する必要はなく、対象物の数が不明の場合や変化する場合でも容易に対象物の位置推定ができる。 According to the present invention, since the deemed intersection is calculated from the three azimuth lines and the deemed intersection is estimated as the position of the object, the position of the object can be estimated accurately. Further, since the position of the object is estimated by determining whether or not the three azimuth lines intersect, it is not necessary to input the true value of the number of objects in advance as in the conventional case, and the number of objects is unknown. The position of the object can be easily estimated even if it changes.

また、本発明によれば、現在または過去の全線交差点に基づいて交点の尤度を判定し、この尤度の大きさから交点の位置を対象物の位置と推定するため、測角センサが対象物を常時検出できなくても、対象物の位置を精度良く推定することができる。 Further, according to the present invention, since the likelihood of the intersection is determined based on the current or past all-line intersection and the position of the intersection is estimated as the position of the object from the magnitude of the likelihood, the angle measuring sensor is the target. Even if the object cannot be detected at all times, the position of the object can be estimated accurately.

図1は、第1実施形態に係る位置標定システムの概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a position orientation system according to a first embodiment. 図2は、位置標定システムが対象物の位置推定を行う手順を示すフローチャートである。FIG. 2 is a flowchart showing a procedure in which the position determination system estimates the position of an object. 図3は、交差判定ステップの判定手順を説明する図である。FIG. 3 is a diagram illustrating a determination procedure of the intersection determination step. 図4は、第2実施形態に係る位置標定システムの概略構成を示すブロック図である。FIG. 4 is a block diagram showing a schematic configuration of the position orientation system according to the second embodiment. 図5は、方向ベクトルを規定する方位角と天頂角とを説明するための図である。FIG. 5 is a diagram for explaining an azimuth angle and a zenith angle that define a direction vector. 図6は、位置標定システムが対象物の位置推定を行う手順を示すフローチャートである。FIG. 6 is a flowchart showing a procedure in which the position determination system estimates the position of an object. 図7は、PHDフィルタを用いた演算処理の手順を示すフローチャートである。FIG. 7 is a flowchart showing a procedure of arithmetic processing using a PHD filter. 図8は、交差判定ステップの判定手順を説明する図である。FIG. 8 is a diagram illustrating a determination procedure of the intersection determination step. 図9は、全線交差点と各方位線の交点との配置関係の一例を示す図である。FIG. 9 is a diagram showing an example of the arrangement relationship between the intersection of all lines and the intersection of each azimuth line. 図10は、検出確率と選択される測角センサの数との関係の一例を示すグラフである。FIG. 10 is a graph showing an example of the relationship between the detection probability and the number of angle measuring sensors selected. 図11は、時間窓幅と、測角センサに対する測角センサの相対速度と測角センサの測定周期との積と、の関係を示すグラフである。FIG. 11 is a graph showing the relationship between the time window width, the relative speed of the angle measurement sensor with respect to the angle measurement sensor, and the product of the measurement cycle of the angle measurement sensor.

以下に、本発明に係る実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。さらに、以下に記載した構成要素は適宜組み合わせることが可能である。 Hereinafter, embodiments according to the present invention will be described in detail with reference to the drawings. The present invention is not limited to this embodiment. In addition, the components in the embodiment include those that can be easily replaced by those skilled in the art, or those that are substantially the same. Furthermore, the components described below can be combined as appropriate.

[第1実施形態]
図1は、第1実施形態に係る位置標定システムの概略構成を示すブロック図である。位置標定システム1は、測角センサを用いて、例えば、捜索対象や欠陥などの対象物の位置を推定する。図1には、一例として、3つの測角センサS,S,Sを用いて、2つの対象物M,Mの位置を推定する場合について説明する。本実施形態では、測角センサから対象物へと向かう所定の一方向をX方向とし、このX方向に水平方向に直交する方向をY方向とする。測角センサは、少なくとも3つ備えていれば数を限るものではなく、また、対象物についても、複数であれば数を限るものではない。ここで、2つの対象物M,Mは、例えば、地表面のような同一平面(XY平面)上に存在する物体であり、静止するものであっても、自由に移動するものであってもよい。
[First Embodiment]
FIG. 1 is a block diagram showing a schematic configuration of a position orientation system according to a first embodiment. The position determination system 1 estimates the position of an object such as a search target or a defect by using an angle measuring sensor. FIG. 1 describes a case where the positions of two objects M 1 and M 2 are estimated by using three angle measuring sensors S 1 , S 2 and S 3 as an example. In the present embodiment, a predetermined direction from the angle measuring sensor toward the object is the X direction, and the direction orthogonal to the horizontal direction in the X direction is the Y direction. The number of angle measuring sensors is not limited if at least three are provided, and the number of objects is not limited if there are a plurality of objects. Here, the two objects M 1 and M 2 are objects existing on the same plane (XY plane) such as the ground surface, and even if they are stationary, they can move freely. You may.

位置標定システム1は、図1に示すように、3つの測角センサS,S,Sと、これら測角センサS,S,Sの計測値に基づき演算処理を行う演算処理部10とを備える。測角センサS~Sは、Y方向に所定間隔をあけ、互いに独立して配置されており、演算処理部10と有線または無線により通信可能に接続されている。測角センサS,S,Sは、対象物M,Mからの信号(音波、光波、電波など)を受信して、この信号の発信方向を方位角として計測する。例えば、測角センサとして、対象物M,Mが発する音声信号を受信するマイクを用いることができる。また、測角センサとして、周囲を撮影するカメラを用いて、撮影した画像情報に対象物を示す所定形状が存在するか否かを画像処理などにて識別する構成としてもよい。 As shown in FIG. 1, the position setting system 1 performs arithmetic processing based on three angle measuring sensors S 1 , S 2 , S 3 and the measured values of these angle measuring sensors S 1 , S 2 , and S 3 . It is provided with a processing unit 10. The angle measuring sensors S 1 to S 3 are arranged independently of each other at predetermined intervals in the Y direction, and are connected to the arithmetic processing unit 10 so as to be able to communicate with each other by wire or wirelessly. The angle measuring sensors S 1 , S 2 , and S 3 receive signals (sound waves, light waves, radio waves, etc.) from the objects M 1 and M 2 and measure the transmission direction of these signals as the azimuth angle. For example, as the angle measuring sensor, a microphone that receives audio signals emitted by the objects M 1 and M 2 can be used. Further, as the angle measuring sensor, a camera that captures the surroundings may be used, and whether or not a predetermined shape indicating an object exists in the captured image information may be identified by image processing or the like.

方位角は、図1に示すX方向に延びる基準線5となす角として定義され、例えば、測角センサSから対象物M,Mにそれぞれ延びる方位線l11,l12(l1p,p=1、2)の方位角は、方位角θ11,θ12(θ1p,p=1、2)として表される。同様に、測角センサSから対象物M,Mにそれぞれ延びる方位線l21,l22(l2q,q=1、2)の方位角は、方位角θ21,θ22(θ2q,q=1、2)として表され、測角センサSから対象物M,Mにそれぞれ延びる方位線l31,l32(l3r,r=1、2)の方位角は、方位角θ31,θ32(θ3r,r=1、2)として表される。測角センサS~Sは、それぞれ自己の位置情報を既知の情報として有しており、この位置情報と同時に計測した方位角(計測値)θ1p,θ2q,θ3rとを演算処理部10に順次送信する。なお、本実施形態では、測角センサS~Sは、所定位置に固定設置されたものとするが、例えば、GPS(Global Positioning System)信号に基づき、自己の位置情報を取得可能な構成とすれば、測角センサS~Sを移動体に搭載してもよい。 The azimuth angle is defined as an angle formed by the reference line 5 extending in the X direction shown in FIG. 1, for example, the azimuth lines l 11 and l 12 (l 1p ) extending from the angle measuring sensor S 1 to the objects M 1 and M 2 , respectively. , P = 1, 2) azimuths are represented as azimuths θ 11 and θ 121p , p = 1, 2). Similarly, the azimuths of the azimuth lines l 21 , l 22 (l 2q , q = 1, 2) extending from the angle measuring sensor S 2 to the objects M 1 and M 2 , respectively, are the azimuth angles θ 21 and θ 22 (θ). 2q , q = 1, 2), and the azimuths of the azimuth lines l 31 , l 32 (l 3r , r = 1, 2) extending from the angle measuring sensor S 3 to the objects M 1 and M 2 , respectively, are It is expressed as azimuth angles θ 31 and θ 323r , r = 1, 2). The angle measuring sensors S 1 to S 3 each have their own position information as known information, and arithmetically process the azimuth angles (measured values) θ 1p , θ 2q , and θ 3r measured at the same time as this position information. It is sequentially transmitted to the unit 10. In the present embodiment, the angle measuring sensors S1 to S3 are fixedly installed at predetermined positions, but for example, they can acquire their own position information based on a GPS (Global Positioning System) signal. If so, the angle measuring sensors S1 to S3 may be mounted on the moving body.

演算処理部10は、図1に示すように、データ受信部11、交差判定部12、位置推定部13、補正部14、表示部15、および制御部16とを備える。データ受信部11は、測角センサS,S,Sから順次送信される方位角θ1p,θ2q,θ3rを受信する。交差判定部12は、受信した方位角θ1p,θ2q,θ3rの情報に基づいて、測角センサS,S,Sから対象物M,Mに向けてそれぞれ延びる方位線l1p,l2q,l3rが交差するか否かを判定する。本実施形態では、交差するとは、方位線l1p,l2q,l3rが1点で交差するだけでなく、各方位線が所定領域内に存在する(所定領域内を通過する)場合を含む。位置推定部13は、交差判定部12が3本の方位線l1p,l2q,l3rが交差すると判定した場合、その交差した位置を対象物M,Mと推定する。また、交差判定部12が3本の方位線l1p,l2q,l3rのうち、2本の方位線のみが交差すると判定した場合には、位置推定部13は、その交点20,21,22は虚像であると推定する。 As shown in FIG. 1, the arithmetic processing unit 10 includes a data receiving unit 11, an intersection determination unit 12, a position estimation unit 13, a correction unit 14, a display unit 15, and a control unit 16. The data receiving unit 11 receives the azimuth angles θ 1p , θ 2q , and θ 3r sequentially transmitted from the angle measuring sensors S 1 , S 2 , and S 3 . The intersection determination unit 12 extends from the angle measuring sensors S 1 , S 2 , S 3 toward the objects M 1 and M 2 , respectively, based on the received information of the azimuth angles θ 1p , θ 2q , and θ 3r . It is determined whether or not l 1p , l 2q , and l 3r intersect. In the present embodiment, crossing includes not only the case where the directional lines l 1p , l 2q , l 3r intersect at one point, but also the case where each directional line exists in a predetermined region (passes in the predetermined region). .. When the position estimation unit 13 determines that the intersection determination unit 12 intersects the three azimuth lines l 1p , l 2q , l 3r , the position estimation unit 13 estimates the intersecting positions as the objects M 1 and M 2 . Further, when the intersection determination unit 12 determines that only two of the three direction lines l 1p , l 2q , and l 3r intersect, the position estimation unit 13 determines that the intersections 20, 21, and are crossed. 22 is presumed to be a virtual image.

補正部14は、所定の運動モデルに基づく状態推定フィルタを用いた状態推定によって、位置推定部13が推定した対象物M,Mの位置を補正する。状態推定フィルタとして、例えば、カルマンフィルタや粒子フィルタを用いることができる。測角センサS,S,Sが計測する方位角は瞬時値であるため、この状態推定により、瞬時値のばらつきを抑圧することができ、測角誤差に起因する位置推定誤差を抑圧できる。 The correction unit 14 corrects the positions of the objects M 1 and M 2 estimated by the position estimation unit 13 by state estimation using a state estimation filter based on a predetermined motion model. As the state estimation filter, for example, a Kalman filter or a particle filter can be used. Since the azimuths measured by the angle measurement sensors S 1 , S 2 , and S 3 are instantaneous values, this state estimation can suppress the variation in the instantaneous values and suppress the position estimation error caused by the angle measurement error. can.

表示部15は、例えば、ディスプレイ装置であり、推定した対象物M,Mの位置情報を表示する。制御部16は、位置標定システム1の動作を司るものであり、測角センサS,S,S、データ受信部11、交差判定部12、位置推定部13、補正部14を制御して、対象物M,Mの位置を推定する動作を実行する。次に、位置標定方法の動作手順について説明する。 The display unit 15 is, for example, a display device, and displays the estimated position information of the objects M 1 and M 2 . The control unit 16 controls the operation of the position determination system 1 , and controls the angle measurement sensors S1, S2, S3 , the data reception unit 11, the intersection determination unit 12, the position estimation unit 13, and the correction unit 14. Then, the operation of estimating the positions of the objects M 1 and M 2 is executed. Next, the operation procedure of the position positioning method will be described.

図2は、位置標定システムが対象物の位置推定を行う手順を示すフローチャートである。制御部16の制御下、3つの測角センサS,S,Sは、すべての対象物M,Mに対する方位角θ1p,θ2q,θ3rを計測する(ステップS1)。本実施形態では、説明の便宜上、対象物M,Mを2つとしているが、実際の計測動作では、対象物の個数は不明である。このため、測角センサS,S,Sがそれぞれ受信した受信信号に基づき、受信信号が発せられた方向に位置する対象物を仮定し、この対象物に対する方位角θ1p,θ2q,θ3rを計測する。 FIG. 2 is a flowchart showing a procedure in which the position determination system estimates the position of an object. Under the control of the control unit 16, the three angle measuring sensors S 1 , S 2 , and S 3 measure the azimuth angles θ 1p , θ 2q , and θ 3r with respect to all the objects M 1 and M 2 (step S1). In this embodiment, for convenience of explanation, the number of objects M 1 and M 2 is two, but the number of objects is unknown in the actual measurement operation. Therefore, based on the received signals received by the angle measuring sensors S 1 , S 2 , and S 3 , an object located in the direction in which the received signal is emitted is assumed, and the azimuth angles θ 1p and θ 2q with respect to this object. , Θ 3r is measured.

次に、各測角センサS,S,Sの計測情報を演算処理部10に集約する(ステップS2)。この計測情報には、測角センサS,S,Sが計測した方位角θ1p,θ2q,θ3r(計測値)のみならず、測角センサS,S,Sの位置情報が含まれる。これらの計測情報により、測角センサS,S,Sから対象物M,Mへと延びる方位線l1p,l2q,l3rが想定される。 Next, the measurement information of each angle measuring sensor S 1 , S 2 , S 3 is aggregated in the arithmetic processing unit 10 (step S2). This measurement information includes not only the azimuth angles θ 1p , θ 2q , and θ 3r (measured values) measured by the angle measuring sensors S 1 , S 2 , and S 3 , but also the angle measuring sensors S 1 , S 2 , and S 3 . Contains location information. Based on these measurement information, directional lines l 1p , l 2q , l 3r extending from the angle measurement sensors S 1 , S 2 , S 3 to the objects M 1 and M 2 are assumed.

次に、交差判定部12は、測角センサSが計測した方位角θ1pから1つの方位角θ11を選択する(ステップS3)。この場合、方位角θ11の選択に伴い、方位角θ11に対応する方位線l11が選択される。次に、交差判定部12は、測角センサSが計測した方位角θ2qから1つの方位角θ21を選択する(ステップS4)。この場合、方位角θ21の選択に伴い、方位角θ21に対応する方位線l21が選択される。ステップS4で選択された方位角θ21(方位線l21)は、上記した方位角θ11(方位線l11)と組つけて後述する判定処理を行う。 Next, the intersection determination unit 12 selects one azimuth angle θ 11 from the azimuth angle θ 1p measured by the angle measurement sensor S 1 (step S3). In this case, with the selection of the azimuth angle θ 11 , the azimuth line l 11 corresponding to the azimuth angle θ 11 is selected. Next, the intersection determination unit 12 selects one azimuth angle θ 21 from the azimuth angle θ 2q measured by the angle measurement sensor S 2 (step S4). In this case, with the selection of the azimuth angle θ 21 , the azimuth line l 21 corresponding to the azimuth angle θ 21 is selected. The azimuth angle θ 21 (direction line l 21 ) selected in step S4 is combined with the above-mentioned azimuth angle θ 11 (direction line l 11 ) to perform a determination process described later.

交差判定部12は、選択した方位角θ21(θ2q)は既に使用済であるかを判定する(ステップS5)。具体的には、選択された方位角θ21が既に他の方位角と組みつけられているかを判定する。既に使用済であれば(ステップS5;Yes)、qに1を加える処置を施した(ステップS6)のち、処理をステップS4に戻して方位角θ2qから次の方位角θ22を選択する。また、使用済でなければ(ステップS5;No)、選択された2つの方位線の交点Ppq(この例では交点P12)の座標を算出する(ステップS7)。 The intersection determination unit 12 determines whether the selected azimuth angle θ 212q ) has already been used (step S5). Specifically, it is determined whether the selected azimuth θ 21 is already combined with another azimuth. If it has already been used (step S5; Yes), a procedure of adding 1 to q is performed (step S6), and then the process is returned to step S4 to select the next azimuth angle θ 22 from the azimuth angle θ 2q . If it is not used (step S5; No), the coordinates of the intersection P pq (intersection point P 12 in this example) of the two selected azimuth lines are calculated (step S7).

ここで、本実施形態では、測角センサS,Sの位置情報、および測角センサS,Sから対象物M,Mへと延びる2本の方位線l11,l21の方位角θ11,θ21が判っているため、2本の方位線l11,l21を示す一次関数式に基づいて、交点Ppq(この例では交点P12)の座標(X12,Y12)が算出される。 Here, in the present embodiment, the position information of the angle measuring sensors S 1 and S 2 and the two azimuth lines l 11 and l 21 extending from the angle measuring sensors S 1 and S 2 to the objects M 1 and M 2 . Since the azimuth angles θ 11 and θ 21 of are known, the coordinates (X 12 , of the intersection P pq (in this example, the intersection P 12 ) are based on the linear function equation showing the two azimuth lines l 11 and l 21 . Y 12 ) is calculated.

次に、測角センサSのすべての方位線l3rと交点Ppqとの距離drを算出する(ステップS8)。この場合、方位線l3rは、測角センサSの座標を(X,Yとすると、式(1)で表すことができる。 Next, the distance dr between all the azimuth lines l 3r of the angle measuring sensor S 3 and the intersection point P pq is calculated (step S8). In this case, the azimuth line l 3r can be expressed by the equation (1), where the coordinates of the angle measuring sensor S 3 are (X 3 , Y 3 ) T.

Figure 0007034353000001
Figure 0007034353000001

このため、方位線l3rと交点Ppqとの距離drは、式(2)で表すことができる。

Figure 0007034353000002
Therefore, the distance dr between the azimuth line l 3r and the intersection P pq can be expressed by the equation (2).
Figure 0007034353000002

この式(2)に基づき、方位線l31,l32と、交点P12との各距離d,dを算出し、この中から最短距離dminを抽出する(ステップS9)。 Based on this equation (2), the distances d 1 and d 2 between the azimuth lines l 31 and l 32 and the intersection P 12 are calculated, and the shortest distance d min is extracted from these distances d 1 and d 2 (step S9).

次に、交差判定部12は、3本の方位線l11,l21,l31が交差するか否かを判定する。測角センサS,S,Sで測定された方位角は測定誤差があるため、1点で交わることは難しい。このため、本実施形態では、3本の方位線l11,l21,l31が交差するか否かを簡易的に判定している。具体的には、図3に示すように、判定に際し、交点Ppq(交点P12)を中心とする円50の誤差半径Rerrを算出する(ステップS10)。誤差半径Rerrは、測角センサS,Sの測角誤差の標準偏差σに基づいて設定されるものであり、例えば、本実施形態では、標準偏差σの3倍である3σまで考慮した値となっている。この誤差半径Rerrは、適宜変更することができ、例えば、測角センサS,Sの測角誤差が異なる場合には、測角誤差が大きい方の測角センサの測角誤差の標準偏差σを用いるのが好ましい。この構成では、測角誤差に考慮した誤差半径Rerrを設定できる。 Next, the intersection determination unit 12 determines whether or not the three azimuth lines l 11 , l 21 , and l 31 intersect. Since the azimuths measured by the angle measuring sensors S1, S2 , and S3 have measurement errors, it is difficult to intersect at one point. Therefore, in the present embodiment, it is simply determined whether or not the three directional lines l 11 , l 21 , and l 31 intersect. Specifically, as shown in FIG. 3, the error radius R err of the circle 50 centered on the intersection P pq (intersection P 12 ) is calculated at the time of determination (step S10). The error radius R err is set based on the standard deviation σ of the angle measurement errors of the angle measurement sensors S1 and S2. For example, in the present embodiment, up to 3σ, which is three times the standard deviation σ, is considered. It is the value that was set. This error radius R err can be changed as appropriate. For example, when the angle measurement errors of the angle measurement sensors S1 and S2 are different, the standard of the angle measurement error of the angle measurement sensor having the larger angle measurement error. It is preferable to use the deviation σ. In this configuration, the error radius Rerr can be set in consideration of the angle measurement error.

次に、交差判定部12は、式(3)に基づいて、最短距離dminと誤差半径Rerrとの大きさを比較する。 Next, the intersection determination unit 12 compares the magnitudes of the shortest distance d min and the error radius R err based on the equation (3).

Figure 0007034353000003
Figure 0007034353000003

すなわち、方位線l31が誤差半径Rerrの円50内を通過するか否かを判定する。この判定において、距離dmin≦誤差半径Rerrでなければ(ステップS11;No)、方位線l31が誤差半径Rerrの円50内を通過しないため、3本の方位線l11,l21,l31は交差しないと判定し、処理をステップS6に移行する。 That is, it is determined whether or not the azimuth line l 31 passes through the circle 50 having the error radius R err . In this determination, unless the distance d min ≤ error radius R err (step S11; No), the azimuth line l 31 does not pass through the circle 50 of the error radius R erra , so that the three azimuth lines l 11 and l 21 , L 31 are determined not to intersect, and the process proceeds to step S6.

一方、距離dmin≦誤差半径Rerrであれば(ステップS11;Yes)、3本の方位線l11,l21,l31が交差するみなし交点Ppqr(この例では交点P123)を算出する(ステップS12)。本実施形態では、みなし交点pqrは最小二乗法によって算出される。具体的には、交差すると判定された3本の方位線l11,l21,l31(便宜上、方位線l,l,lと記す)が得られた場合、各方位線は、式(4)で示すことができる。 On the other hand, if the distance d min ≤ error radius R err (step S11; Yes), the deemed intersection P pqr (in this example, the intersection P 123 ) at which the three azimuth lines l 11 , l 21 , and l 31 intersect is calculated. (Step S12). In this embodiment, the deemed intersection point pqr is calculated by the method of least squares. Specifically, when three directional lines l 11 , l 21 , l 31 (referred to as directional lines l 1 , l 2 , l 3 for convenience) determined to intersect are obtained, each directional line is It can be expressed by the formula (4).

Figure 0007034353000004
Figure 0007034353000004

図3に示すように、方位線l11,l21は、交差するものの、方位線l31も含めた3つの直線の最近傍点は交点Ppq(交点P12)と一致せず、改めて計算する必要がある。これらの最近傍点をみなし交点Ppqr(xpqr,ypqrとすると、式(5)が成立する。 As shown in FIG. 3, although the azimuth lines l 11 and l 21 intersect, the nearest points of the three straight lines including the azimuth line l 31 do not coincide with the intersection point P pq (intersection point P 12 ) and are calculated again. There is a need. Assuming that these nearest neighbor points are the intersections P pqr (x pqr , y pqr ) T , the equation (5) holds.

Figure 0007034353000005
Figure 0007034353000005

この式(5)は、いわゆる優決定系であるため、最小二乗法を用いることにより、みなし交点Ppqr(交点P123)の座標を算出することができ、このみなし交点P123に対象物が存在すると推定できる。これにより、誤差の影響で確実に交わらない3本の方位線を仮想的に交わったものとみなすことができ、みなし交点Ppqrの位置から対象物の存在する位置を推定できる。また、この構成では、3本の方位線l11,l21,l31が交差するみなし交点Ppqrに対象物が存在すると推定するため、対象物の個数が不明な場合であっても、対象物Mの位置を精度良く推定することができる。なお、式(3)において、距離dminが0であった場合には、交点Ppq(交点P12)上で3本の方位線l11,l21,l31が交差するため、この交点Ppqをみなし交点Ppqrとすればよい。 Since this equation (5) is a so-called dominant decision system, the coordinates of the deemed intersection P pqr (intersection P 123 ) can be calculated by using the least squares method, and the object is at this deemed intersection P 123 . It can be estimated that it exists. As a result, it can be regarded as a virtual intersection of three azimuth lines that do not surely intersect due to the influence of an error, and the position where the object exists can be estimated from the position of the deemed intersection P pqr . Further, in this configuration, it is estimated that the object exists at the deemed intersection P pqr where the three azimuth lines l 11 , l 21 , and l 31 intersect, so even if the number of objects is unknown, the object is targeted. The position of the object M 1 can be estimated accurately. In the equation (3), when the distance d min is 0, the three azimuth lines l 11 , l 21 , l 31 intersect at the intersection P pq (intersection P 12 ), and thus this intersection. P pq may be regarded as the intersection P pqr .

さて、上記した計算により、測角センサS,S,Sを用いて対象物の位置を計測することができる。特に、最小二乗法を用いることにより、みなし交点Ppqr(交点P123)の座標を算出することで、このみなし交点P123に対象物が存在すると精度良く推定することができる。一方で、上記したみなし交点Ppqr(交点P123)の値は、測角センサS,S,Sの測角誤差の影響を受けた瞬時値であるため、時系列で評価すると、対象物M,Mの位置変化が急峻であるなど、実際の対象物M,Mの挙動とは大きく異なっている可能性がある。また、対象物M,Mが移動体であり、位置だけでなくその速度や加速度などの運動パラメータを推定しなければならない場合には、差分処理の影響で更にばらつきが大きくなる。 By the above calculation, the position of the object can be measured by using the angle measuring sensors S 1 , S 2 , and S 3 . In particular, by calculating the coordinates of the deemed intersection P pqr (intersection P 123 ) by using the least squares method, it is possible to accurately estimate that an object exists at this deemed intersection P 123 . On the other hand, the value of the above-mentioned deemed intersection P pqr (intersection P 123 ) is an instantaneous value affected by the angle measurement error of the angle measurement sensors S 1 , S 2 , S 3 , and therefore, when evaluated in time series, There is a possibility that the behavior of the objects M 1 and M 2 is significantly different from the actual behavior of the objects M 1 and M 2 , such as a steep change in the position of the objects M 1 and M 2. Further, when the objects M 1 and M 2 are moving objects and it is necessary to estimate not only the position but also the motion parameters such as the velocity and acceleration thereof, the variation becomes larger due to the influence of the difference processing.

このため、本実施形態では、みなし交点Ppqrに状態推定による平滑化処理を施す(ステップS13)。具体的には、対象物M,Mの運動モデルを導入して状態推定を行い、誤差の影響を抑圧している。その運動モデルは、式(6)の状態方程式で示される。 Therefore, in the present embodiment, the deemed intersection P pqr is subjected to a smoothing process by state estimation (step S13). Specifically, the motion models of the objects M 1 and M 2 are introduced to estimate the state, and the influence of the error is suppressed. The motion model is shown by the equation of state of equation (6).

Figure 0007034353000006
Figure 0007034353000006

この式は、対象物M,Mの現在の位置が直前の位置と強い相関があることを意味しており、対象物M,Mの動きをこの式で拘束している。これにより、測角誤差の影響を抑圧し、実際の対象の動き(静止を含む)に即した位置推定が可能となる。また、Tsとkは、それぞれ図2のフローチャートを1回実施する際の処理時間とサンプリングのインデクスを表している。 This equation means that the current positions of the objects M 1 and M 2 have a strong correlation with the immediately preceding positions, and the movements of the objects M 1 and M 2 are constrained by this equation. As a result, the influence of the angle measurement error can be suppressed, and the position can be estimated according to the actual movement (including stillness) of the object. Further, Ts and k represent the processing time and the sampling index when the flowchart of FIG. 2 is executed once, respectively.

また、観測方程式は式(7)で示される。 The observation equation is expressed by Eq. (7).

Figure 0007034353000007
Figure 0007034353000007

この場合の観測値は、上記したステップS12で得た位置の瞬時値(xpqr(k),ypqr(k))であり、この観測値と上述の運動モデルに基づいて,カルマンフィルタや粒子フィルタ等の状態推定手法を適用することで、測定された方位角の観測誤差を抑圧して対象物M,Mの位置を含む運動パラメータを推定できる。このため、対象物M,Mの位置をより精度良く推定することができる。なお、この状態推定は、対象物M,Mが移動する場合だけでなく、静止している場合にも適用することができる。 The observed value in this case is the instantaneous value (x pqr (k), y pqr (k)) T of the position obtained in the above-mentioned step S12, and the Kalman filter and the particles are based on this observed value and the above-mentioned motion model. By applying a state estimation method such as a filter, it is possible to suppress the observation error of the measured azimuth and estimate the motion parameters including the positions of the objects M 1 and M 2 . Therefore, the positions of the objects M 1 and M 2 can be estimated more accurately. This state estimation can be applied not only when the objects M 1 and M 2 move but also when they are stationary.

次に、制御部16は、全対象物の位置を推定したか否かを判定する(ステップS14)。具体的には、各測角センサS,S,Sから延びる方位線の数(2本)と同じ数の対象物M,Mの位置が推定されたか否かを判定する。この判定において、全対象物の位置が推定されていない場合(ステップS14;No)には、pに1を加える処置を施した(ステップS15)のち、処理をステップS3に戻して方位角θ1pから次の方位角θ12を選択して処理を実行する。一方、全対象物の位置が推定されている場合(ステップS14;Yes)には、処理を終了する。 Next, the control unit 16 determines whether or not the positions of all the objects have been estimated (step S14). Specifically, it is determined whether or not the positions of the objects M 1 and M 2 having the same number as the number of azimuth lines (2 lines) extending from the angle measuring sensors S 1 , S 2 and S 3 are estimated. In this determination, when the positions of all the objects are not estimated (step S14; No), a procedure of adding 1 to p is performed (step S15), and then the process is returned to step S3 and the azimuth angle θ 1p . The next azimuth angle θ 12 is selected from and the process is executed. On the other hand, when the positions of all the objects are estimated (step S14; Yes), the process ends.

以上、説明したように、本実施形態によれば、3つの方位線l11,l21,l31からみなし交点P123を算出し、このみなし交点P123を対象物Mの位置と推定するため、対象物Mの位置を精度良く推定することができる。また、3つのl11,l21,l31が交差するか否かを判定することで対象物Mの位置を推定するため、従来のように、対象物の数の真値を予め入力する必要はなく、対象物の数が不明の場合や変化する場合でも対象物の位置推定ができる。 As described above, according to the present embodiment, the deemed intersection P 123 is calculated from the three azimuth lines l 11 , l 21 , l 31 , and the deemed intersection P 123 is estimated to be the position of the object M 1 . Therefore, the position of the object M 1 can be estimated accurately. Further, since the position of the object M1 is estimated by determining whether or not the three l 11 , l 21 , and l 31 intersect, it is necessary to input the true value of the number of objects in advance as in the conventional case. Even if the number of objects is unknown or changes, the position of the objects can be estimated.

[第2実施形態]
第1実施形態では、上述のように、少なくとも3つの測角センサS,S,Sから延びる方位線l11,l21,l31からみなし交点P123を算出し、このみなし交点P123を対象物Mの位置と推定している。この構成では、すべて(例えば3つ)の測角センサS,S,Sが常時、対象物Mを検出(観測)する、すなわち検出確率が100%であることを前提としている。しかしながら、現実には、すべての測角センサS,S,Sが常時、すべて(例えば2つ)の対象物M,Mを検出できるとは限らず、センサ処理系の性能に起因した検出確率に応じて、対象物M,Mを見失う可能性がある。特に、対象物M,Mが測角センサS,S,Sから遠い位置に存在する場合には、相対的に検出確率が低くなるため、各測角センサS,S,Sが検出できる対象物M,Mは互いに異なることが想定される。従って、測角センサが対象物を常時検出できない場合には、みなし交点を正確に算出することができず、対象物の位置を推定する精度が悪い可能性があった。このため、第2実施形態では、測角センサが対象物を常時検出できない場合であっても、対象物の位置を精度良く推定できる構成について説明する。
[Second Embodiment]
In the first embodiment, as described above, the deemed intersection P 123 is calculated from the directional lines l 11 , l 21 , l 31 extending from at least three angle measuring sensors S 1 , S 2 , and S 3 , and the deemed intersection P 123 is calculated. 123 is estimated to be the position of the object M1 . In this configuration, it is assumed that all (for example, three) angle measuring sensors S 1 , S 2 , and S 3 always detect (observe) the object M 1 , that is, the detection probability is 100%. However, in reality, not all angle measuring sensors S 1 , S 2 , and S 3 can always detect all (for example, two) objects M 1 and M 2 , and the performance of the sensor processing system is affected. There is a possibility of losing sight of the objects M 1 and M 2 depending on the detection probability caused. In particular, when the objects M 1 and M 2 are located far from the angle measuring sensors S 1 , S 2 and S 3 , the detection probability is relatively low, so that the angle measuring sensors S 1 and S 2 are relatively low. It is assumed that the objects M 1 and M 2 that can be detected by S 3 are different from each other. Therefore, if the angle measuring sensor cannot always detect the object, the deemed intersection cannot be calculated accurately, and the accuracy of estimating the position of the object may be poor. Therefore, in the second embodiment, a configuration will be described in which the position of the object can be estimated accurately even when the angle measuring sensor cannot always detect the object.

図4は、第2実施形態に係る位置標定システムの概略構成を示すブロック図である。図5は、方向ベクトルを規定する方位角と天頂角とを説明するための図である。位置標定システム100は、測角センサを用いて、例えば、捜索対象や欠陥などの対象物の位置を推定する。図4には、U個(一例として4つ)の測角センサSO1,SO2,SO3,SO4を用いて、N個(一例として2つ)の対象物M,Mの位置を推定する場合が記載されている。測角センサの数は、少なくとも3つ備えていれば数を限るものではなく、3<U個であればよい。また、対象物についても、複数であれば数を限るものではなく、2<N個であればよい。第2実施形態では、図4に示すように、測角センサから対象物へと向かう所定の一方向をY方向とし、このY方向に水平方向に直交する方向をX方向とし、これらX方向及びY方向に高さ方向に直交する方向をZ方向とする。2つの対象物M,Mは、3次元空間(XYZ空間)に存在する物体であり、静止するものであっても、自由に移動するものであってもよい。 FIG. 4 is a block diagram showing a schematic configuration of the position orientation system according to the second embodiment. FIG. 5 is a diagram for explaining an azimuth angle and a zenith angle that define a direction vector. The position determination system 100 estimates the position of an object such as a search target or a defect by using an angle measuring sensor. In FIG. 4, the positions of N objects (2 as an example) M 1 and M 2 are shown by using U (4 as an example) angle measuring sensors SO 1 , SO 2 , SO 3 and SO 4 as an example. The case of estimating is described. The number of angle measuring sensors is not limited as long as it is provided with at least three, and may be 3 <U. Further, the number of objects is not limited as long as there are a plurality of objects, and 2 <N objects may be used. In the second embodiment, as shown in FIG. 4, a predetermined one direction from the angle measuring sensor toward the object is defined as the Y direction, and a direction perpendicular to the Y direction in the horizontal direction is defined as the X direction. The direction orthogonal to the height direction in the Y direction is defined as the Z direction. The two objects M 1 and M 2 are objects existing in a three-dimensional space (XYZ space), and may be stationary or freely moving.

位置標定システム100は、図4に示すように、4つの測角センサSO1~SO4と、これら測角センサSO1~SO4の計測値に基づき演算処理を行う演算処理部30とを備える。測角センサSO1~SO4は、3次元空間内に所定間隔をあけ、互いに独立して配置されており、演算処理部30と有線または無線により通信可能に接続されている。測角センサSO1~SO4は、対象物M,Mからの信号(音波、光波、電波など)を受信して、この信号の発信方向の方位ベクトルを規定する方位角及び天頂角を計測する。 As shown in FIG. 4, the position setting system 100 includes four angle measuring sensors SO1 to SO4 and an arithmetic processing unit 30 that performs arithmetic processing based on the measured values of these angular measuring sensors SO1 to SO4 . .. The angle measuring sensors SO1 to SO4 are arranged independently of each other at predetermined intervals in a three-dimensional space, and are connected to the arithmetic processing unit 30 so as to be communicable by wire or wirelessly. The angle measuring sensors SO1 to SO4 receive signals (sound waves, light waves, radio waves, etc.) from the objects M1 and M2 , and determine the azimuth angle and the zenith angle that define the azimuth vector in the transmission direction of this signal. measure.

図5には、m番目の測角センサSOm(m=1、2、・・・U)からn番目の対象物Mに向けて延びる方向ベクトルvmnと、この方向ベクトルvmnに重なる方位線lmnとが示されている。この図5では、説明の便宜上、測角センサSOmを原点Oに配置している。この場合、方位角θmnは、図5に示すように、方向ベクトルvmnをXY平面に投影した線とX軸とのなす角として定義される。また、天頂角φmnは、方向ベクトルvmnとZ軸とのなす角として定義される。 In FIG. 5, the direction vector v mn extending from the m-th angle measuring sensor S Om (m = 1, 2, ... U) toward the n -th object Mn and the direction vector v mn overlap with each other. The azimuth line l mn is shown. In FIG. 5, for convenience of explanation, the angle measuring sensor SOm is arranged at the origin O. In this case, the azimuth angle θ mn is defined as the angle formed by the line projected on the XY plane and the X-axis, as shown in FIG. Further, the zenith angle φ mn is defined as the angle formed by the direction vector v mn and the Z axis.

測角センサSO1~SO4は、それぞれ自己の位置情報を既知の情報として有しており、この位置情報と同時に計測した方位角θmn及び天頂角φmn(計測値)を演算処理部30に順次送信する。なお、本実施形態では、測角センサSO1~SO4は、所定位置に固定設置されたものとするが、例えば、GPS信号に基づき、自己の位置情報を取得可能な構成とすれば、測角センサSO1~SO4を移動体に搭載してもよい。 The angle measuring sensors SO1 to SO4 each have their own position information as known information, and the azimuth angle θ mn and the zenith angle φ mn (measured value) measured at the same time as this position information are calculated by the arithmetic processing unit 30. Sequentially sent to. In the present embodiment, the angle measuring sensors SO1 to SO4 are fixedly installed at predetermined positions. However, for example, if the configuration is such that the self-positioning information can be acquired based on the GPS signal, the measurement can be performed. The angle sensors SO1 to SO4 may be mounted on a moving body.

演算処理部30は、図4に示すように、データ受信部31、交差判定部32、記憶部33、交点算出部34、尤度判定部35、位置推定部36、検出確率算出部37、表示部38、および制御部39とを備える。 As shown in FIG. 4, the arithmetic processing unit 30 includes a data receiving unit 31, an intersection determination unit 32, a storage unit 33, an intersection calculation unit 34, a likelihood determination unit 35, a position estimation unit 36, a detection probability calculation unit 37, and a display. A unit 38 and a control unit 39 are provided.

データ受信部31は、測角センサSO1~SO4から順次送信される方位角θmn及び天頂角φmnを受信する。交差判定部32は、受信した方位角θmn及び天頂角φmnの情報に基づいて、すべての測角センサSO1~SO4から対象物M(一の対象物)に向けてそれぞれ延びるすべての方位線lmn(l11,l21,l31,l41)が交差しているか否かを判定する。本実施形態では、交差するとは、すべての方位線l11,l21,l31,l41が1点で交差するだけでなく、各方位線が所定領域内に存在する(所定領域内を通過する)場合を含む。また、交差判定部32は、すべての方位線l11,l21,l31,l41が所定領域内に存在しない(所定領域内を通過しない)場合には、交差していないと判定する。なお、交差判定部32は、すべての測角センサSO1~SO4から対象物M(一の対象物)に向けてそれぞれ延びるすべての方位線が交差するか否かについても判定するが、図4では、測角センサSO1~SO4から対象物Mに向けて延びる方位線の記載を省略している。 The data receiving unit 31 receives the azimuth angle θ mn and the zenith angle φ mn sequentially transmitted from the angle measuring sensors SO1 to SO4 . The intersection determination unit 32 extends from all the angle measuring sensors SO1 to SO4 toward the object M1 ( one object) based on the received information of the azimuth angle θ mn and the zenith angle φ mn . It is determined whether or not the azimuth lines l mn (l 11 , l 21 , l 31 , l 41 ) of the above intersect. In the present embodiment, crossing means that not only all the directional lines l11 , l21 , l31 , and l41 intersect at one point, but also each directional line exists in a predetermined area (passes in the predetermined area). ) Including the case. Further, when all the azimuth lines l 11 , l 21 , l 31 , and l 41 do not exist in the predetermined area (do not pass through the predetermined area), the intersection determination unit 32 determines that they do not intersect. The intersection determination unit 32 also determines whether or not all the directional lines extending from all the angle measurement sensors SO1 to SO4 toward the object M2 (one object) intersect. In FIG. 4, the description of the directional line extending from the angle measuring sensors SO1 to SO4 toward the object M2 is omitted.

記憶部33は、すべての方位線lmn(l11,l21,l31,l41)が交差した際に、この交差した全線交差点を記憶する。ここで、本実施形態では、すべての測角センサSO1~SO4が、対象物M,Mを常時、検出(観察)できない事情を鑑み、現在のみならず、現在から遡った過去の所定期間内における複数の全線交差点を記憶する。 The storage unit 33 stores the crossed all-line intersection when all the azimuth lines l mn (l 11 , l 21 , l 31 , l 41 ) intersect. Here, in the present embodiment, in view of the situation that all the angle measuring sensors SO1 to SO4 cannot always detect (observe) the objects M1 and M2 , not only the present but also the past retroactive from the present. Memorize multiple all-line intersections within a predetermined period.

交点算出部34は、すべての測角センサSO1~SO4の中から任意に選択された複数(例えば2本)の測角センサSO1,SO2から対象物Mへそれぞれ延びる方位線lmn(l11,l21)が交差する交点を算出する。選択される測角センサの数U´は、2以上U以下であればよい。この場合、交点算出部34は、測角センサの選択される組み合わせ(パターン)の数だけ、繰り返し複数の交点を算出する。例えば、4つの測角センサSO1~SO4の中から任意に2つの測角センサを選択する組み合わせは、6パターンあるため、この6パターン分、方位線の交点を算出する。 The intersection calculation unit 34 is an azimuth line l extending from a plurality of (for example, two) angle measuring sensors SO1 and SO2 arbitrarily selected from all the angle measuring sensors SO1 to SO4 to the object M1. Calculate the intersections where mn (l 11 , l 21 ) intersect. The number of angle measuring sensors U'selected may be 2 or more and U or less. In this case, the intersection calculation unit 34 repeatedly calculates a plurality of intersections by the number of selected combinations (patterns) of the angle measuring sensors. For example, since there are 6 patterns in which two angle measuring sensors are arbitrarily selected from the four angle measuring sensors SO1 to SO4 , the intersection of the directional lines is calculated for these 6 patterns.

尤度判定部35は、PHD(Probabilistic Hypothesis Density)フィルタを用いることにより、記憶部33に記憶された全線交差点の情報に基づいて、算出された複数の交点の尤度を判定する。PHDフィルタは、カルマンフィルタのような状態推定技術を複数の対象物に対して同時に行えるように提案された方法論であり、本願では、上記した非特許文献1のようにカルマンフィルタをベースとした実装方法を採用している。一般に、方位線lmnの数が増えるほど、これら方位線lmnが交差した交点(例えば、全線交差点)に対象物が存在する確率(尤度)が高く、方位線lmnの数が少ないほど、これら方位線lmnが虚像の位置を示す虚像確率が高まることになる。本実施形態では、尤度判定部35は、全線交差点の情報に基づいて、算出された各交点(観測値)の虚像確率を求めることにより、結果として、これら交点の尤度を判定している。 The likelihood determination unit 35 determines the likelihood of a plurality of calculated intersections based on the information of all-line intersections stored in the storage unit 33 by using a PHD (Probabilistic Hypothesis Density) filter. The PHD filter is a methodology proposed so that a state estimation technique such as a Kalman filter can be performed on a plurality of objects at the same time. It is adopted. In general, the larger the number of azimuth lines l mn , the higher the probability (probability) that an object exists at the intersection (for example, all-line intersection) where these azimuth lines l mn intersect, and the smaller the number of azimuth lines l mn . , The imaginary image probability that these azimuth lines l mn indicate the position of the imaginary image is increased. In the present embodiment, the likelihood determination unit 35 determines the likelihood of these intersections as a result by obtaining the virtual image probability of each intersection (observed value) calculated based on the information of the intersections of all lines. ..

位置推定部36は、尤度の大きさに基づいて交点を抽出し、これら交点をそれぞれ対象物M,Mの位置と推定する。また、位置推定部36は、尤度の小さい、すなわち虚像確率の高い交点については、虚像とみなして、対象物の候補から排除する。 The position estimation unit 36 extracts intersections based on the magnitude of the likelihood, and estimates these intersections as the positions of the objects M 1 and M 2 , respectively. Further, the position estimation unit 36 considers an intersection having a low likelihood, that is, a high probability of a virtual image, as a virtual image and excludes it from the candidates of the object.

検出確率算出部37は、測角センサSO1~SO4がそれぞれ対象物M,Mにいずれかを検出する確率(検出確率)を算出する。具体的には、測角センサSO1~SO4はそれぞれ、所定の測定周期ごとに、対象物(MであるかMは問わない)の測定を試みる。この場合、所定の測定回数(例えば10回)に対する対象物が検出された回数を検出確率とする。算出された検出確率は、定期的に制御部39に出力される。 The detection probability calculation unit 37 calculates the probability (detection probability) that the angle measuring sensors SO1 to SO4 detect either of the objects M1 and M2 , respectively . Specifically, each of the angle measuring sensors SO1 to SO4 attempts to measure an object (whether M1 or M2 ) at a predetermined measurement cycle. In this case, the detection probability is the number of times the object is detected for a predetermined number of measurements (for example, 10 times). The calculated detection probability is periodically output to the control unit 39.

表示部38は、例えば、ディスプレイ装置であり、推定した対象物M,Mの位置情報を表示する。制御部39は、位置標定システム100の動作を司るものであり、測角センサSO1~SO4、データ受信部31、交差判定部32、記憶部33、交点算出部34、尤度判定部35、位置推定部36、検出確率算出部37を制御して、対象物M,Mの位置を推定する動作を実行する。次に、位置標定方法の動作手順について説明する。 The display unit 38 is, for example, a display device, and displays the estimated position information of the objects M 1 and M 2 . The control unit 39 controls the operation of the position determination system 100, and is the angle measurement sensors SO1 to SO4 , the data reception unit 31, the intersection determination unit 32, the storage unit 33, the intersection calculation unit 34, and the probability determination unit 35. , The position estimation unit 36 and the detection probability calculation unit 37 are controlled to execute an operation of estimating the positions of the objects M 1 and M 2 . Next, the operation procedure of the position positioning method will be described.

図6は、位置標定システムが対象物の位置推定を行う手順を示すフローチャートである。制御部39の制御下、4つの測角センサSO1~SO4は、すべての対象物M,Mに対する方位角θmn及び天頂角φmnを計測する(ステップS21)。そして、計測した各方位角θmn及び各天頂角φmnを用いて、制御部39は、方向ベクトルvmnと方位線lmnとを算出する(ステップS22)。 FIG. 6 is a flowchart showing a procedure in which the position determination system estimates the position of an object. Under the control of the control unit 39, the four angle measuring sensors SO1 to SO4 measure the azimuth angle θ mn and the zenith angle φ mn with respect to all the objects M 1 and M 2 (step S21). Then, using each of the measured azimuth angles θ mn and each zenith angle φ mn , the control unit 39 calculates the direction vector v mn and the azimuth line l mn (step S22).

本実施形態では、説明の便宜上、対象物M,Mを2つとしているが、実際の計測動作では、対象物の総数の真値Nは不明である。ここで、m番目の測角センサSOmが検出した対象物の数をN(m=1、2・・U)とおく。各測角センサの検出確率が100%である場合には、各測角センサがそれぞれ検出した対象物の数は同一であり、N=・・=N=・・N=Nが成立する。しかし、本実施形態では、検出確率が100%未満である場合を想定しているため、この等式は一般には成立せず、N≦Nとなる。m番目の測角センサSOmが測定した方位角と天頂角とをそれぞれθm1、・・・、θmNmおよびφm1、・・・、φmNmとすると、方向ベクトルvmnは、式(8)で示される。 In the present embodiment, for convenience of explanation, the objects M 1 and M 2 are set to two, but in the actual measurement operation, the true value N of the total number of objects is unknown. Here, the number of objects detected by the m-th angle measuring sensor SOm is set to N m (m = 1, 2, · · U). When the detection probability of each angle measuring sensor is 100%, the number of objects detected by each angle measuring sensor is the same, and N 1 = ... = N m = ... N U = N is established. However, in the present embodiment, since it is assumed that the detection probability is less than 100%, this equation generally does not hold, and N m ≤ N. Assuming that the azimuth angle and the zenith angle measured by the m-th angle measuring sensor SOm are θ m1 , ···, θ mNm and φ m1 , ···, φ mN m, respectively, the direction vector v mn is given by the equation (8). ).

Figure 0007034353000008
Figure 0007034353000008

ここで、m番目の測角センサSOmの位置を、SOm=[xOmOmOmと表せるため、m番目の測角センサSOmが検出したn番目の対象物Mに対応する方位線lmnは、媒介変数tを用いて、式(9)で示される。 Here, since the position of the m-th angle measuring sensor S Om can be expressed as S Om = [x Omy Om z Om ] T , the m-th angle measuring sensor S Om detects the nth object M n . The corresponding azimuth line l mn is represented by Eq. (9) using the parameter t.

Figure 0007034353000009
Figure 0007034353000009

次に、交差判定部32は、U個(例えば4つ)すべての測角センサSO1~SO4から一の対象物M(例えば対象物M)に向かうすべての方位線lmn(l11,l21,l31,l41)の最接近点qを計算する(ステップS23)。理論上、実像(対象物が実際に存在する位置)ではすべて方位線lmnが交わるため、すべての方位線lmnが交わる点(全線交差点)が存在すれば、その点に対象物が存在するとみなすことができる。一方、実際には白色雑音などの測定誤差が生じるため、通常、測定値から算出したすべての方位線lmn(l11,l21,l31,l41)は交わらない。このため、交差判定部32は、複数の方位線lmnの最接近点qを計算した上で、その最接近点qにおいて各方位線lmnが交差したか否かを判定する。 Next, the intersection determination unit 32 has all azimuth lines l mn (l) toward one object M n (for example, object M 1 ) from all U (for example, four) angle measuring sensors SO1 to SO4 . The closest point q of ( 11 , l 21 , l 31 , l 41 ) is calculated (step S23). Theoretically, in the real image (the position where the object actually exists), the azimuth lines l mn intersect, so if there is a point where all the azimuth lines l mn intersect (all-line intersection), the object exists at that point. Can be regarded. On the other hand, since measurement errors such as white noise actually occur, all the azimuth lines l mn (l 11 , l 21 , l 31 , l 41 ) calculated from the measured values do not usually intersect. Therefore, the intersection determination unit 32 calculates the closest approach point q of the plurality of directional lines l mn , and then determines whether or not each azimuth line l mn intersects at the closest approach point q.

複数のlmnの最接近点qを、q=[q]とすると、この最接近点qは、最小二乗法など公知技術を用いて求めることができる。例えば、最小二乗法を用いる場合には、式(10)に示す連立方程式を解く。 Assuming that the closest point q of a plurality of l mns is q = [q x q y q z ] T , this closest point q can be obtained by using a known technique such as the least squares method. For example, when the least squares method is used, the simultaneous equations shown in Eq. (10) are solved.

Figure 0007034353000010
Figure 0007034353000010

ここで、v(m=1、2・・U)は、m番目の測角センサSOmの方向ベクトルの一つである。未知変数を一つのベクトルでまとめると、式(10)は、式(11)のように書き表せる。 Here, v m (m = 1, 2, · · U) is one of the direction vectors of the m-th angle measuring sensor SOm . When unknown variables are put together in one vector, equation (10) can be written as equation (11).

Figure 0007034353000011
Figure 0007034353000011

この連立方程式は、式の数が3U、変数の数が3+Uであり、U≧2の条件では式の数が変数の数よりも多い。式(11)に最小二乗法を適用することにより、最接近点qが得られる。すべての測角センサSOm(m=1、2・・U)からすべての対象物M(n=1、2・・N)に向かう全ての方位線lmnの組合せについて求めた最接近点qの集合を、q、q・・・qとする。 In this simultaneous equation, the number of equations is 3U, the number of variables is 3 + U, and the number of equations is larger than the number of variables under the condition of U ≧ 2. By applying the least squares method to equation (11), the closest point q can be obtained. The closest approach obtained for all combinations of azimuth lines l mn from all angle sensors S Om (m = 1, 2, ... U) to all objects M n (n = 1, 2, ... N m ). Let the set of points q be q 1 , q 2 ... q L.

次に、交差判定部32は、最接近点qに方位線lmnが交差したか否かを判定する(ステップS24)。具体的には、図8に示すように、中心をq(l=1、2・・・L)とし、所定半径を有する誤差球(誤差領域)40を想定し、この誤差球40の内部を一の対象物M(M)に向けて延びるすべての方位線lmn(l11,l21,l31,l41)が通過するか否かを判定する。この誤差球40の半径は、測角センサSO1~SO4の測定誤差に起因して設定される。この判定において、誤差球40の内部をすべての方位線lmn(l11,l21,l31,l41)が通過すれば、その中心が全線交差点qであると判定する。一方、誤差球40の内部をすべての方位線lmn(l11,l21,l31,l41)が通過しない場合には、この最接近点qは虚像であると判定する。なお、誤差球(誤差領域)40は、必ずしも球形状である必要はなく、たとえば奥行方向と横方向とで三角測量の誤差が異なることを利用し、回転楕円形状を有する誤差楕円体(誤差領域)を採用することもできる。このような手法で選定した全線交差点qの集合を、q、q・・・qL´とする(L´<L)。 Next, the intersection determination unit 32 determines whether or not the azimuth line l mn intersects the closest approach point q (step S24). Specifically, as shown in FIG. 8, the center is q l (l = 1, 2 ... L), and an error sphere (error region) 40 having a predetermined radius is assumed, and the inside of the error sphere 40 is assumed. It is determined whether or not all the azimuth lines l mn (l 11 , l 21 , l 31 , l 41 ) extending toward one object M n (M 1 ) pass through. The radius of the error sphere 40 is set due to the measurement error of the angle measuring sensors SO1 to SO4 . In this determination, if all the directional lines l mn (l 11 , l 21 , l 31 , l 41 ) pass through the inside of the error sphere 40, it is determined that the center thereof is the whole line intersection q l . On the other hand, when all the azimuth lines l mn (l 11 , l 21 , l 31 , l 41 ) do not pass through the inside of the error sphere 40, it is determined that this closest approach point q is a virtual image. The error sphere (error region) 40 does not necessarily have to have a spherical shape. For example, an error ellipsoid having a spheroid shape (error region) by utilizing the fact that the error of triangulation differs between the depth direction and the lateral direction. ) Can also be adopted. Let q 1 , q 2 ... q L' be the set of all line intersections q l selected by such a method (L'<L).

交差判定部32は、算出された方位線lmnの情報に基づいて、所定時間ごとに全線交差点qを算出する。記憶部33には、現在の全線交差点qのみならず、過去の所定期間内における複数の全線交差点qが記憶されている。 The intersection determination unit 32 calculates the whole line intersection q l at predetermined time intervals based on the calculated information of the directional line l mn . The storage unit 33 stores not only the current full-line intersection q l but also a plurality of full-line intersection q l within a predetermined period in the past.

次に、交点算出部34は、すべての測角センサSOmの中から選択された複数の測角センサSOm(m=2、・・・U´、U´<U)を用いて、これらの測角センサSOm(例えばSO1,SO2)から一の対象物M(例えばM)へそれぞれ延びる方位線lmn(例えばl11,l21)が交差する交点(観測値)zを算出する(ステップS25)。上述したように、すべての方位線lmnが交わる全線交差点qが存在すれば、この全線交差点qに対象物Mが存在するとみなせるため、全線交差点qをそのまま観測値として用いることができれば対象物Mの位置を容易に推定することができる。 Next, the intersection calculation unit 34 uses a plurality of angle measurement sensors S Om (m = 2, ... U', U'<U) selected from all the angle measurement sensors S Om . Intersection (observed value) z where the azimuth lines l mn (for example, l 11 , l 21 ) extending from the angle measuring sensor SO m (for example, SO 1 , SO 2 ) to one object M n (for example, M 1 ) intersect. Is calculated (step S25). As described above, if there is an all-line intersection q l where all the azimuth lines l mn intersect, it can be considered that the object M n exists at this all-line intersection q l . Therefore, the all-line intersection q l can be used as it is as an observation value. If possible, the position of the object Mn can be easily estimated.

ところが、すべての測角センサSOmがすべての対象物Mを常時検出できない場合、すなわち測角センサSOmの検出確率が低い(100%未満)場合には、そもそも全線交差点qが得られる確率が低いという問題がある。この問題は、測角センサSOmの数が増えれば増えるほど顕著となる。従って、全線交差点qのみを観測値として用いることは現実的ではなく、虚像が多く含まれてしまう可能性はあるものの、選択された数量の測角センサSOmで交点(観測値)zを算出する必要がある。この場合、交点算出部34は、測角センサの選択される組み合わせ(パターン)の数だけ、繰り返し複数の交点zを算出する。 However, when all the angle measuring sensors SOm cannot always detect all the objects Mn , that is, when the detection probability of the angle measuring sensor SOm is low (less than 100%), the whole line intersection q l can be obtained in the first place. There is a problem that the probability is low. This problem becomes more remarkable as the number of angle measuring sensors SOm increases. Therefore, it is not realistic to use only the full-line intersection q l as the observed value, and although there is a possibility that many virtual images are included, the intersection (observed value) z is determined by the selected quantity of angle measuring sensors SOm . Need to calculate. In this case, the intersection calculation unit 34 repeatedly calculates a plurality of intersections z by the number of selected combinations (patterns) of the angle measuring sensors.

次に、PHDフィルタを用いた演算処理を実行する(ステップS26)。本実施形態では、PHDフィルタを用いて、加速度・速度・位置という運動パラメータの推定を行う。このため、状態方程式と観測方程式の組である状態空間表現を導入する。この状態空間表現は、式(12)及び式(13)によって示される。 Next, the arithmetic processing using the PHD filter is executed (step S26). In this embodiment, a PHD filter is used to estimate motion parameters such as acceleration, velocity, and position. Therefore, we introduce a state-space representation that is a set of equations of state and observations. This state-space representation is represented by Eqs. (12) and (13).

Figure 0007034353000012
Figure 0007034353000012

Figure 0007034353000013
Figure 0007034353000013

この式(12)及び式(13)において、Tは測定周期(サンプリング周期)を表す。この例では、簡素化のためTを固定値としているが、測定周期を変動する構成とすることもできる。また、u(k)とw(k)はそれぞれ駆動雑音と観測雑音を表す。 In the equations (12) and (13), TS represents a measurement cycle (sampling cycle). In this example, TS is set as a fixed value for simplification, but the measurement cycle may be varied. Further, u (k) and w (k) represent drive noise and observation noise, respectively.

最後に、時間をkからk+1に更新する(ステップS27)ともに、処理を再びステップS21に戻し、ステップS21からステップS27を繰り返し実行する。 Finally, the time is updated from k to k + 1 (step S27), the process is returned to step S21 again, and steps S21 to S27 are repeatedly executed.

次に、PHDフィルタを用いた演算処理(ステップS26)について説明する。図7は、PHDフィルタを用いた演算処理の手順を示すフローチャートである。本実施形態では、PHDフィルタにより、記憶部33に記憶された全線交差点qの情報に基づいて、状態候補となる複数の交点zの虚像確率をそれぞれ算出し、この虚像確率に基づいて尤度を求めている。ここで尤度とは、算出された交点Zが対象物Mである尤もらしさ表す示量であり、交点zの虚像確率によって変動する。 Next, the arithmetic processing using the PHD filter (step S26) will be described. FIG. 7 is a flowchart showing a procedure of arithmetic processing using a PHD filter. In the present embodiment, the PHD filter calculates the virtual image probabilities of a plurality of intersections z as state candidates based on the information of the full-line intersection q l stored in the storage unit 33, and the likelihood is based on the virtual image probabilities. Seeking. Here, the likelihood is an extensive representation of the likelihood that the calculated intersection Z is the object Mn , and varies depending on the virtual image probability of the intersection z.

尤度判定部35は、時間更新によって新規に発生する状態候補を生成する(ステップS31)。この場合、測角センサSOmの測定可能エリア内に出入りする対象物Mを考慮する。次に、1時刻前(1測定周期前)の状態と相関のある新規状態候補を生成する(ステップS32)。この場合には、例えば、対象物Mが分裂する状態などを考慮する。これらステップS31,S32において、新規の状態候補が発生しなければ、そのまま処理をステップS33に移行する。 The likelihood determination unit 35 generates a state candidate newly generated by time update (step S31). In this case, the object Mn entering and exiting the measurable area of the angle measuring sensor SOm is taken into consideration. Next, a new state candidate that correlates with the state one time before (one measurement cycle before) is generated (step S32). In this case, for example, a state in which the object Mn is split is considered. If no new state candidate is generated in these steps S31 and S32, the process proceeds to step S33 as it is.

次に、尤度判定部35は、1時刻前(1測定周期前)状態候補を遷移させる(ステップS33)。この場合、上記した式(12)の状態方程式を用いて状態を遷移させる。ここで、PHDフィルタでは、状態候補が複数存在するため、これらすべての状態候補に対してそれぞれ状態遷移を行う。 Next, the likelihood determination unit 35 transitions the state candidate one time before (one measurement cycle before) (step S33). In this case, the state is changed using the equation of state of the above equation (12). Here, since there are a plurality of state candidates in the PHD filter, state transitions are performed for all of these state candidates.

次に、尤度判定部35は、測角センサSOmの検出確率に応じて、状態候補の重みを減衰する(ステップS34)。具体的は、検出確率の高い対象物Mの状態候補については重み付けを大きくし、逆に検出確率の低い対象物Mの状態候補については小さくする。この場合、例えば、測角センサSOmが検出できなくなった対象物Mについても所定時間、状態候補を存続させておく。 Next, the likelihood determination unit 35 attenuates the weight of the state candidate according to the detection probability of the angle measuring sensor SOm (step S34). Specifically, the weighting is increased for the state candidate of the object Mn having a high detection probability, and conversely, the weighting is decreased for the state candidate of the object Mn having a low detection probability. In this case, for example, the state candidate is kept alive for a predetermined time even for the object Mn that cannot be detected by the angle measuring sensor SOm .

次に、尤度判定部35は、式(13)の観測方程式を用いて、交点(観測値)zの推定値y(k)とカルマンゲインの計算を行う(ステップS35)。そして、尤度判定部35は、すべての状態候補に対して存在するカルマンゲインK(k)∈R9×3と交点z(k)を用いることで、式(14)に示すように、状態の候補を補正する(ステップS36)。この場合、一度、検出できなくなった対象物Mを再検出することができる。 Next, the likelihood determination unit 35 calculates the estimated value y (k) of the intersection (observed value) z and the Kalman gain using the observation equation of the equation (13) (step S35). Then, the likelihood determination unit 35 uses the Kalman gain K (k) ∈ R 9 × 3 and the intersection z (k) existing for all the state candidates, so that the state is shown in the equation (14). (Step S36). In this case, it is possible to rediscover the object Mn that cannot be detected once.

Figure 0007034353000014
Figure 0007034353000014

このような交点(観測値)z(k)と紐付いた状態の第j候補に対して、PHDフィルタでは尤度wを式(15)のように計算して都度更新する(ステップS37)。 With respect to the jth candidate in a state associated with such an intersection (observed value) z (k), the PHD filter calculates the likelihood wj as in the equation (15) and updates it each time (step S37).

Figure 0007034353000015
Figure 0007034353000015

この式(15)において、κ(z(k),Q(k))は、交点(観測値)z(k)の虚像確率であり、Q(k)は、現在時刻kから遡る過去の所定時間(過去数ステップ前から現在時刻kまで時間窓幅;所定期間)の全線交差点qの集合である。この式(15)に示すように、尤度wは、虚像確率が高いほど小さくなるように設定されている。このため、算出された虚像確率の大きさに基づいて、尤度wを求めることができる。 In this equation (15), κ (z (k), Q (k)) is the imaginary probability of the intersection (observed value) z (k), and Q (k) is a predetermined value in the past that goes back from the present time k. It is a set of all line intersections q l of time (time window width from a few steps before the past to the present time k; a predetermined period). As shown in this equation (15), the likelihood w j is set so that the higher the virtual image probability is, the smaller the likelihood is. Therefore, the likelihood w j can be obtained based on the calculated magnitude of the virtual image probability.

次に、尤度判定部35は、尤度wの低い状態候補を棄却したり、類似する状態候補を集約する(ステップS38)。これにより、目標の数と状態をある程度推定することができる。 Next, the likelihood determination unit 35 rejects the state candidates having a low likelihood wj or aggregates similar state candidates (step S38). This makes it possible to estimate the number and status of targets to some extent.

最後に、位置推定部36は、尤度wの大きさに基づいて、複数の交点(観測値)zの中から1つを抽出し、この抽出した交点zを対象物Mの位置と推定する(ステップS39)。位置推定部36は、尤度wの最も高い状態候補を抽出し、複数の対象物Mの状態(位置などの運動パラメータ)を推定する。この構成によれば、現在または過去の全線交差点qに基づいて交点zの尤度wを判定し、この尤度wの大きさから交点zの位置を対象物Mの位置と推定するため、測角センサSOmが対象物を常時検出できなくても、対象物Mの位置を精度良く推定することができる。 Finally, the position estimation unit 36 extracts one from a plurality of intersections (observed values) z based on the magnitude of the likelihood w j , and uses the extracted intersection z as the position of the object Mn . Estimate (step S39). The position estimation unit 36 extracts the state candidate having the highest likelihood w j and estimates the state (motion parameter such as position) of a plurality of objects M n . According to this configuration, the likelihood w j of the intersection z is determined based on the current or past all-line intersection q l , and the position of the intersection z is estimated to be the position of the object M n from the magnitude of this likelihood w j . Therefore, even if the angle measuring sensor SOm cannot always detect the object, the position of the object Mn can be estimated accurately.

本実施形態によれば、現在または過去の全線交差点qの情報に基づいて交点(観測値)zの尤度wを判定し、この尤度wの大きさから交点(観測値)zの位置を対象物Mの位置と推定するため、測角センサSOmが対象物Mを常時検出できなくても、対象物Mの位置を精度良く推定することができる。 According to the present embodiment, the likelihood w j of the intersection (observed value) z is determined based on the information of the current or past all-line intersection q l , and the intersection (observed value) z is determined from the magnitude of the likelihood w j . Since the position of the object Mn is estimated as the position of the object Mn, the position of the object Mn can be estimated accurately even if the angle measuring sensor SOm cannot always detect the object Mn .

[第3実施形態]
この第3実施形態では、上記した第2実施形態の式(15)における虚像確率κ(z(k),Q(k))を、交点(観測値)zと全線交差点Q(k)との距離に基づいて算出する。図9は、全線交差点と各方位線の交点との配置関係の一例を示す図である。全線交差点qの位置は、対象物の位置と考えられるため、この全線交差点qに近い交点zほど虚像確率が低く、尤度が高いと考えられる。そこで、本実施形態では、選択された少数の測角センサで得た交点zと、全線交差点qとの距離dをそれぞれ測定する。全線交差点qの集合Q(k)はL´個の要素からなるため、虚像確率κ(z(k),Q(k))を、式(16)で定義することができる。
[Third Embodiment]
In this third embodiment, the virtual image probability κ (z (k), Q (k)) in the equation (15) of the second embodiment described above is set to the intersection (observed value) z and the full-line intersection Q (k). Calculated based on the distance. FIG. 9 is a diagram showing an example of the arrangement relationship between the intersection of all lines and the intersection of each azimuth line. Since the position of the all-line intersection q l is considered to be the position of the object, it is considered that the closer the intersection z is to the all-line intersection q l , the lower the virtual image probability and the higher the likelihood. Therefore, in the present embodiment, the distance d between the intersection z obtained by a small number of selected angle measuring sensors and the full-line intersection q l is measured. Since the set Q (k) of all line intersections q l consists of L'elements, the virtual image probability κ (z (k), Q (k)) can be defined by the equation (16).

Figure 0007034353000016
Figure 0007034353000016

すなわち、本実施形態では、全線交差点qに最も近い交点zとの距離で虚像確率を定義している。ただし、式(16)のままでは絶対値によって、虚像確率の値が大きく変化するため、式(17)により、虚像確率の総和が1となるよう正規化することが好ましい。 That is, in the present embodiment, the virtual image probability is defined by the distance from the intersection z closest to the full-line intersection q l . However, since the value of the virtual image probability changes greatly depending on the absolute value as it is in the equation (16), it is preferable to normalize it so that the total sum of the virtual image probabilities is 1 by the equation (17).

Figure 0007034353000017
Figure 0007034353000017

本実施形態では、全線交差点qに最も近い交点zとの距離dで虚像確率を定義するため、尤度判定部35は、全線交差点qとの距離dが最も短い交点zの尤度wを最も高く判定するため、測角センサの検出確率が低くても、虚像確率を適切に計算することでき、虚像を排除して対象物Mの位置を精度良く推定することができる。 In the present embodiment, since the virtual image probability is defined by the distance d from the intersection z closest to the all-line intersection q l , the likelihood determination unit 35 determines the likelihood w of the intersection z having the shortest distance d from the all-line intersection q l . Since j is determined to be the highest, even if the detection probability of the angle measuring sensor is low, the virtual image probability can be appropriately calculated, and the virtual image can be excluded and the position of the object M n can be estimated accurately.

[第4実施形態]
第4実施形態は、複数の対象物Mが所定の範囲内に近接していることが判明している場合に有効な手法である。通常、複数の対象物Mが所定の範囲内に近接している場合、観測誤差の影響を受けるため、各対象物Mの分離検出が困難となる。一方、他のセンサもしくは、外部情報によって、複数の対象物Mが所定の範囲内に近接していることが予め判明している場合には、その情報を位置状態の推定に利用することができる。具体的には、式(18)に示すように、一の状態候補(交点)の尤度wを、その状態候補の所定範囲内に存在する他の状態候補(交点)の数n(x )に応じて高める補正をする。この式(18)において、Gが補正値であり、G>1である。
[Fourth Embodiment]
The fourth embodiment is an effective method when it is known that a plurality of objects Mn are close to each other within a predetermined range. Normally, when a plurality of objects Mn are close to each other within a predetermined range, it is difficult to separate and detect each object Mn because it is affected by an observation error. On the other hand, when it is known in advance by another sensor or external information that a plurality of objects Mn are close to each other within a predetermined range, that information can be used for estimating the position state. can. Specifically, as shown in the equation (18), the likelihood w j of one state candidate (intersection point) is set to the number n (x) of other state candidates (intersection points) existing within a predetermined range of the state candidate. Make corrections that increase according to j T ). In this equation (18), G is a correction value, and G> 1.

Figure 0007034353000018
Figure 0007034353000018

この構成によれば、一の状態候補(交点)の近傍に存在する他の状態候補の数n(x )が多ければ多いほど、一の状態候補の尤度wが上方に補正されるため、複数の対象物Mが近接して存在していても、各対象物Mを精度良く位置推定することができる。 According to this configuration, the larger the number n (x j T ) of other state candidates existing in the vicinity of one state candidate (intersection), the higher the likelihood w j of one state candidate is corrected upward. Therefore, even if a plurality of objects M n are present in close proximity to each other, the position of each object M n can be estimated with high accuracy.

[第5実施形態]
第5実施形態では、第2実施形態のステップS25において、交点(観測値)zを算出するために選択される測角センサSOmの数を検出確率に応じて変化させる。図10は、検出確率と選択される測角センサの数との関係の一例を示すグラフである。
[Fifth Embodiment]
In the fifth embodiment, in step S25 of the second embodiment, the number of angle measurement sensors SOm selected for calculating the intersection (observed value) z is changed according to the detection probability. FIG. 10 is a graph showing an example of the relationship between the detection probability and the number of angle measuring sensors selected.

上記した第2実施形態では、測角センサSOmの検出確率が常時100%ではないことを想定し、選択された少ない数の測角センサSOmを用いて方位線lmnの交点zを求めている。しかし、検出確率は、例えば対象物Mとの距離に応じて変動する。一般に、検出確率が高い場合、使用する測角センサSOmの数を増やした方が、方位線の数が増えて虚像を排除できるため、対象物Mの位置を精度良く推定できる。また、検出確率が高いにも関わらず、少数の測角センサSOmを用いた場合には、交点(観測値)zが膨大となり計算負荷が増すことがある。 In the second embodiment described above, assuming that the detection probability of the angle measuring sensor S Om is not always 100%, the intersection z of the azimuth line l mn is obtained using a small number of selected angle measuring sensors S Om . ing. However, the detection probability varies depending on, for example, the distance from the object Mn . In general, when the detection probability is high, increasing the number of angle measuring sensors SOm used increases the number of directional lines and eliminates a virtual image, so that the position of the object Mn can be estimated accurately. Further, when a small number of angle measuring sensors SOm are used even though the detection probability is high, the intersection (observed value) z may become enormous and the calculation load may increase.

このため、本実施形態では、交点算出部34は、測角センサSOmが対象物Mを検出する検出確率が高くなるにつれて、選択される測角センサSOmの数を増やしている。図10の例では、検出確率が50%の場合には、半分の数(U/2)の測角センサSOmを選択し、検出確率が100%の場合にすべての測角センサSOmを選択している。ここで、測角センサSOmの数を決めるための検出確率は、例えば、すべての測角センサSOmの検出確率の中で、最も低い測角センサSOmの検出確率を採用する。また、すべての測角センサSOmの検出確率の中央値や、平均値を用いても良い。 Therefore, in the present embodiment, the intersection calculation unit 34 increases the number of the angle measuring sensors SOm selected as the detection probability that the angle measuring sensor SOm detects the object Mn increases. In the example of FIG. 10, when the detection probability is 50%, half the number (U / 2) of the angle measuring sensors S Om is selected, and when the detection probability is 100%, all the angle measuring sensors S Om are selected. You have selected. Here, as the detection probability for determining the number of the angle measuring sensor S Om , for example, the detection probability of the lowest angle measuring sensor S Om among all the detection probabilities of the angle measuring sensor S Om is adopted. Further, the median value or the average value of the detection probabilities of all the angle measuring sensors SO may be used.

本実施形態によれば、検出確率に応じて、使用する測角センサSOmの数が変化し、検出確率が高くなるにつれて、測角センサSOmの数を増やしているため、検出確率が低い場合は、交点(観測数)zを増やせる一方、検出確率が高い場合には、交点(観測数)zの増大を避けつつ、尤度の高い交点(観測数)zを得ることができる。この結果、検出確率に関わらず精度良く対象物Mの位置を推定できる。 According to the present embodiment, the number of angle measuring sensors S Om used changes according to the detection probability, and as the detection probability increases, the number of angle measuring sensors S Om increases, so that the detection probability is low. In this case, the intersection (number of observations) z can be increased, while when the detection probability is high, the intersection (number of observations) z with high likelihood can be obtained while avoiding the increase in the intersection (number of observations) z. As a result, the position of the object Mn can be estimated accurately regardless of the detection probability.

[第6実施形態]
第6実施形態では、第2実施形態における全線交差点qの情報を過去に遡って保持する時間窓幅TM(所定期間)を対象物Mの状態によって変更する。図11は、時間窓幅と、測角センサに対する測角センサの相対速度と測角センサの測定周期との積と、の関係を示すグラフである。上述したように、全線交差点qの集合Q(k)は、現在時刻kのみならず過去の時刻k-1、k-2、・・の全線交差点qも含まれる。これは、検出確率が低い(100%未満)場合であっても、一定数の全線交差点qを確保するための処置である。ここで、対象物Mが測角センサSOmに対して相対的に移動している場合、過去の全線交差点qは対象物Mの位置に対応しない。
[Sixth Embodiment]
In the sixth embodiment, the time window width TM (predetermined period) for holding the information of the whole line intersection q l in the second embodiment retroactively is changed according to the state of the object Mn . FIG. 11 is a graph showing the relationship between the time window width, the relative speed of the angle measurement sensor with respect to the angle measurement sensor, and the product of the measurement cycle of the angle measurement sensor. As described above, the set Q (k) of all line intersections q l includes not only the current time k but also all line intersections q l at past times k-1, k-2, .... This is a measure for securing a certain number of all-line intersections q l even when the detection probability is low (less than 100%). Here, when the object M n is moving relative to the angle measuring sensor SOm , the past all-line intersection q l does not correspond to the position of the object M n .

本実施形態では、対象物Mと測角センサSOmとの相対速度と、測角センサSOmの測定周期(サンプリング周期)との積が大きくなるにつれて、全線交差点qの情報を過去に遡って保持する時間窓幅TMを短くしている。この場合、他のセンサもしくは、外部情報によって、対象物Mの最大速度が予め想定できる場合には、その情報を利用して時間窓幅TMを決定する。この構成によれば、対象物Mの相対移動速度に応じて、全線交差点qの情報を保持する時間窓幅TMを適切に調整できるため、対象物Mが移動しても該対象物Mの位置を精度良く推定できる。 In the present embodiment, as the product of the relative velocity between the object Mn and the angle measuring sensor SOm and the measurement cycle (sampling cycle) of the angle measuring sensor SOm increases, the information of the whole line intersection q l is obtained in the past. The time window width TM to be held retroactively is shortened. In this case, if the maximum speed of the object Mn can be estimated in advance by another sensor or external information, the time window width TM is determined using that information. According to this configuration, the time window width TM for holding the information of the full-line intersection q l can be appropriately adjusted according to the relative moving speed of the object M n , so that the object M n moves even if the object M n moves. The position of Mn can be estimated accurately.

本発明の一実施形態を説明したが、本実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。本実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。本実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。上記した第1実施形態では、任意に選択された2本の方位線l11,l21の交点P12と、残りの方位線l31との距離が所定の誤差半径Rerrよりも小さいか否かで3本の方位線l11,l21,31が交差しているか否かを判定している。このため、他の2組の方位線と交点についても、距離を算出し、最短距離を示した方位線と交点の組み合わせについて、交差の判定および位置の推定を行うことが好ましい。この構成では、3本の方位線l11,l21,31の交点をより精度良く算出できるため、対象物M,Mの位置をより精度良く推定することができる。 Although one embodiment of the present invention has been described, the present embodiment is presented as an example and is not intended to limit the scope of the invention. This embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. The present embodiment and its modifications are included in the scope and gist of the invention as well as the invention described in the claims and the equivalent scope thereof. In the first embodiment described above, whether or not the distance between the intersection P 12 of the two arbitrarily selected directional lines l 11 and l 21 and the remaining directional lines l 31 is smaller than the predetermined error radius R err . It is determined whether or not the three azimuth lines l 11 , l 21, and l 31 intersect each other. Therefore, it is preferable to calculate the distances for the other two sets of directional lines and intersections, determine the intersection, and estimate the position of the combination of the directional lines and the intersections showing the shortest distance. In this configuration, since the intersections of the three azimuth lines l 11 , l 21, and l 31 can be calculated more accurately, the positions of the objects M 1 and M 2 can be estimated more accurately.

1,100 位置標定システム
10,30 演算処理部
12,32 交差判定部
13,36 位置推定部
14 補正部
16,39 制御部
33 記憶部
34 交点算出部
35 尤度判定部
123,Ppqr みなし交点
12,Ppq 交点
err 誤差半径
min 距離
,M,M 対象物
,S,S,SO1,SO2,SO3,SO4,SOm 測角センサ
1,100 Positioning system 10,30 Arithmetic processing unit 12,32 Crossing determination unit 13,36 Position estimation unit 14 Correction unit 16,39 Control unit 33 Storage unit 34 Intersection point calculation unit 35 Probability determination unit P 123 , P pqr deemed Intersection points P 12 , P pq Intersection points R erra Error radius d min Distance M 1 , M 2 , M n Objects S 1 , S 2 , S 3 , SO 1 , SO 2 , SO 3 , SO 4 , SO m Angle sensor

Claims (12)

互いに独立して配置され、複数の対象物に対する方位線の方向ベクトルを規定する方位角及び天頂角をそれぞれ測定する少なくとも3つの測角センサと、
現在または過去の所定期間内に、すべての前記測角センサから一の対象物へそれぞれ延びるすべての前記方位線が交差した全線交差点を記憶する記憶部と、
任意に選択された複数の前記測角センサから該対象物へそれぞれ延びる前記方位線が交差する複数の交点を算出する交点算出部と、
前記全線交差点に基づき、複数の前記交点の尤度をそれぞれ判定する尤度判定部と、
尤度の大きさに基づいて一の交点を抽出し、該交点を一の前記対象物の位置と推定する位置推定部と、
を備えたことを特徴とする位置標定システム。
At least three angle measuring sensors, which are arranged independently of each other and measure the azimuth and zenith angle that define the direction vector of the azimuth line for a plurality of objects, respectively.
A storage unit that stores all line intersections where all the azimuth lines extending from all the angle measuring sensors to one object, respectively, within a predetermined period of the present or the past.
An intersection calculation unit that calculates a plurality of intersections at which the azimuth lines extending from a plurality of arbitrarily selected angle measuring sensors to the object intersect.
A likelihood determination unit that determines the likelihood of each of a plurality of the intersections based on the whole line intersection,
A position estimation unit that extracts one intersection based on the magnitude of the likelihood and estimates the intersection as the position of one object.
A positioning system characterized by being equipped with.
前記尤度判定部は、前記全線交差点との距離が最も短い前記交点の尤度を最も高く判定することを特徴とする請求項1に記載の位置標定システム。 The position determination system according to claim 1, wherein the likelihood determination unit determines the highest likelihood of the intersection having the shortest distance to the all-line intersection. 予め複数の対象物が近接して存在することが判明している場合、
前記尤度判定部は、一の交点の尤度を、該交点の所定範囲内に存在する他の交点の数に応じて高める補正をすることを特徴とする請求項1または2に記載の位置標定システム。
If it is known in advance that multiple objects are in close proximity,
The position according to claim 1 or 2, wherein the likelihood determination unit makes a correction for increasing the likelihood of one intersection according to the number of other intersections existing within a predetermined range of the intersection. Positioning system.
前記交点算出部は、前記測角センサが前記対象物を検出する検出確率が高くなるにつれて、選択される前記測角センサの数を増やすことを特徴とする請求項1から3のいずれか一項に記載の位置標定システム。 One of claims 1 to 3, wherein the intersection calculation unit increases the number of the angle measuring sensors selected as the detection probability that the angle measuring sensor detects the object increases. Positioning system described in. 前記記憶部は、前記対象物と前記測角センサとの相対速度と、前記測角センサの測定周期との積が大きくなるにつれて、前記所定期間を短くすることを特徴とする請求項1から4のいずれか一項に記載の位置標定システム。 Claims 1 to 4 are characterized in that the storage unit shortens the predetermined period as the product of the relative speed between the object and the angle measuring sensor and the measuring cycle of the angle measuring sensor increases. The position determination system according to any one of the above. すべての前記測角センサから一の前記対象物へそれぞれ延びるすべての前記方位線の最接近点を算出すると共に、この最接近点を中心とした所定の誤差領域内を、すべての方位線が通過する場合に、該最接近点を前記全線交差点と判定する交差判定部を備えることを特徴とする請求項1から5のいずれか一項に記載の位置標定システム。 The closest points of all the directional lines extending from all the angle measuring sensors to one of the objects are calculated, and all the directional lines pass within a predetermined error region centered on the closest points. The position determination system according to any one of claims 1 to 5, further comprising an intersection determination unit for determining the closest approach point as the all-line intersection. 少なくとも3つの測角センサと演算処理部とを備えた位置標定システムを用いて対象物の位置を推定する位置標定方法であって、
前記演算処理部が、前記測角センサを用いて、複数の対象物に対する方位線の方向ベクトルを規定する方位角及び天頂角をそれぞれ測定する測角ステップと、
現在または過去の所定期間内に、すべての前記測角センサから一の対象物へそれぞれ延びるすべての前記方位線が交差した全線交差点を算出して記憶する全線交差点記憶ステップと、
任意に選択された複数の前記測角センサから該対象物へそれぞれ延びる前記方位線が交差する複数の交点を算出する交点算出ステップと、
前記全線交差点に基づき、複数の前記交点の尤度をそれぞれ判定する尤度判定ステップと、
尤度の大きさに基づいて一の交点を抽出し、該交点を一の前記対象物の位置と推定する位置推定ステップと、
実行することを特徴とする位置標定方法。
It is a position positioning method that estimates the position of an object using a position setting system equipped with at least three angle measuring sensors and an arithmetic processing unit.
An angle measurement step in which the arithmetic processing unit measures the azimuth angle and the zenith angle that define the direction vector of the azimuth line with respect to a plurality of objects by using the angle measurement sensor.
An all-line intersection storage step that calculates and stores all-line intersections where all the azimuth lines extending from all the angle-finding sensors to one object, respectively, within a predetermined period of the present or the past.
An intersection calculation step for calculating a plurality of intersections at which the azimuth lines extending from a plurality of arbitrarily selected angle measuring sensors to the object intersect.
A likelihood determination step for determining the likelihood of each of the plurality of intersections based on the whole line intersection, and
A position estimation step of extracting one intersection based on the magnitude of the likelihood and estimating the intersection as the position of one of the objects.
A positioning method characterized by performing .
前記演算処理部は、前記尤度判定ステップにおいて、前記全線交差点との距離が最も短い前記交点の尤度を最も高く判定することを特徴とする請求項7に記載の位置標定方法。 The position determination method according to claim 7, wherein the arithmetic processing unit determines in the likelihood determination step the likelihood of the intersection having the shortest distance to the all-line intersection. 予め複数の対象物が近接して存在することが判明している場合、
前記演算処理部は、前記尤度判定ステップにおいて、一の交点の尤度を、該交点の所定範囲内に存在する他の交点の数に応じて高める補正をすることを特徴とする請求項7または8に記載の位置標定方法。
If it is known in advance that multiple objects are in close proximity,
7. The arithmetic processing unit is characterized in that, in the likelihood determination step, the likelihood of one intersection is corrected according to the number of other intersections existing in a predetermined range of the intersection. Or the position determination method according to 8.
前記演算処理部は、前記交点算出ステップにおいて、前記測角センサが前記対象物を検出する検出確率が高くなるにつれて、選択される前記測角センサの数を増やすことを特徴とする請求項7から9のいずれか一項に記載の位置標定方法。 The calculation processing unit is characterized in that, in the intersection calculation step, the number of the angle measurement sensors selected is increased as the detection probability that the angle measurement sensor detects the object increases . The position determination method according to any one of 9. 前記演算処理部は、前記全線交差点記憶ステップにおいて、前記対象物と前記測角センサとの相対速度と、前記測角センサの測定周期との積が大きくなるにつれて、前記所定期間短く設定ることを特徴とする請求項7から10のいずれか一項に記載の位置標定方法。 The arithmetic processing unit sets the predetermined period shorter as the product of the relative speed between the object and the angle measuring sensor and the measurement cycle of the angle measuring sensor increases in the all-line intersection storage step. The position determination method according to any one of claims 7 to 10, characterized in that. 前記演算処理部が、すべての前記測角センサから一の前記対象物へそれぞれ延びるすべての前記方位線の最接近点を算出すると共に、この最接近点を中心とした所定の誤差領域内を、すべての方位線が通過する場合に、該最接近点を前記全線交差点と判定する交差判定ステップを備えることを特徴とする請求項7から11のいずれか一項に記載の位置標定方法。 The arithmetic processing unit calculates the closest points of all the azimuth lines extending from all the angle measuring sensors to one of the objects, and within a predetermined error region centered on the closest points. The position determination method according to any one of claims 7 to 11, further comprising an intersection determination step of determining the closest approach point as the all-line intersection when all the directional lines pass.
JP2021055652A 2016-08-03 2021-03-29 Positioning system and positioning method Active JP7034353B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016152833 2016-08-03
JP2016152833 2016-08-03

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017149091A Division JP2018025556A (en) 2016-08-03 2017-08-01 Positioning system, and positioning method

Publications (2)

Publication Number Publication Date
JP2021101193A JP2021101193A (en) 2021-07-08
JP7034353B2 true JP7034353B2 (en) 2022-03-11

Family

ID=61195189

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017149091A Pending JP2018025556A (en) 2016-08-03 2017-08-01 Positioning system, and positioning method
JP2021055652A Active JP7034353B2 (en) 2016-08-03 2021-03-29 Positioning system and positioning method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017149091A Pending JP2018025556A (en) 2016-08-03 2017-08-01 Positioning system, and positioning method

Country Status (1)

Country Link
JP (2) JP2018025556A (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020012575A1 (en) * 2018-07-11 2020-01-16 三菱電機株式会社 Position estimation device
US20240329185A1 (en) * 2021-10-28 2024-10-03 Nec Corporation Signal source position estimation apparatus, system, and method
JP7415090B1 (en) 2023-05-09 2024-01-16 三菱電機株式会社 Target state estimation device and target state estimation method
JP7433560B1 (en) 2023-06-30 2024-02-19 三菱電機株式会社 Target trajectory estimation device and target trajectory estimation method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56137171A (en) * 1980-03-31 1981-10-26 Tech Res & Dev Inst Of Japan Def Agency Processing system of position range
US4806936A (en) * 1986-06-20 1989-02-21 Hughes Aircraft Company Method of determining the position of multiple targets using bearing-only sensors
JPH03282279A (en) * 1990-03-30 1991-12-12 Taiyo Musen Kk Radio wave emitting source indicator
JP3307146B2 (en) * 1995-03-27 2002-07-24 三菱電機株式会社 Positioning device
JP3179355B2 (en) * 1996-11-07 2001-06-25 三菱電機株式会社 Multi-target tracking method and multi-target tracking device
JPH10307178A (en) * 1997-05-06 1998-11-17 Mitsubishi Electric Corp Position detector
JP2011141125A (en) * 2010-01-05 2011-07-21 Nec Corp Target motion analysis method and target motion analysis device
JP5679856B2 (en) * 2011-02-14 2015-03-04 三菱電機株式会社 Positioning device and positioning method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
満上育久 浮田宗伯 木戸出正継,視線情報を用いた注視点の3次元位置推定,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2003年01月09日,第102巻 第554号,Pages: 1-6,ISSN: 0913-5685

Also Published As

Publication number Publication date
JP2021101193A (en) 2021-07-08
JP2018025556A (en) 2018-02-15

Similar Documents

Publication Publication Date Title
JP7034353B2 (en) Positioning system and positioning method
JP6239664B2 (en) Ambient environment estimation apparatus and ambient environment estimation method
US10006772B2 (en) Map production method, mobile robot, and map production system
KR101663650B1 (en) Apparatus for reconizing location using range signal and method thereof
US20200216076A1 (en) Method for determining the location of an ego-vehicle
JP6707575B2 (en) Wireless positioning method for locating a target device contained within a region of space
JPWO2018181974A1 (en) Judgment device, judgment method, and program
EP3851870A1 (en) Method for determining position data and/or motion data of a vehicle
CN113108791A (en) Navigation positioning method and navigation positioning equipment
US20170146349A1 (en) Landmark location determination
KR20150123735A (en) Trajectory matching using ambient signals
EP3693759B1 (en) System and method for tracking motion of target in indoor environment
KR101908534B1 (en) Apparatus and method for determining position and attitude of a vehicle
Ibrahim et al. Inertial measurement unit based indoor localization for construction applications
CN109769206B (en) Indoor positioning fusion method and device, storage medium and terminal equipment
Chen et al. An optimal selection of sensors in multi-sensor fusion navigation with factor graph
KR101929681B1 (en) Method and Apparatus for Peripheral Vehicle Location Estimation using V2V and Environment Scanning Sensor
KR101390776B1 (en) Localization device, method and robot using fuzzy extended kalman filter algorithm
CN109945864B (en) Indoor driving positioning fusion method and device, storage medium and terminal equipment
JP3750859B2 (en) Radar tracking device and radar tracking processing method
CN111678513A (en) Ultra-wideband/inertial navigation tight coupling indoor positioning device and system
WO2024120187A1 (en) Method for estimating dynamic target of unmanned aerial vehicle in information rejection environment
KR20190081334A (en) Method for tracking moving trajectory based on complex positioning and apparatus thereof
CN114608560A (en) Passive combined indoor positioning system and method based on intelligent terminal sensor
RU2562616C1 (en) Method of acquiring radio information and radio system therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220301

R150 Certificate of patent or registration of utility model

Ref document number: 7034353

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150