JP2017146893A - Self-position estimation method - Google Patents
Self-position estimation method Download PDFInfo
- Publication number
- JP2017146893A JP2017146893A JP2016029765A JP2016029765A JP2017146893A JP 2017146893 A JP2017146893 A JP 2017146893A JP 2016029765 A JP2016029765 A JP 2016029765A JP 2016029765 A JP2016029765 A JP 2016029765A JP 2017146893 A JP2017146893 A JP 2017146893A
- Authority
- JP
- Japan
- Prior art keywords
- self
- distance sensor
- position estimation
- viewpoint
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000005259 measurement Methods 0.000 claims abstract description 14
- 230000007613 environmental effect Effects 0.000 claims description 14
- 238000012545 processing Methods 0.000 description 8
- 239000006185 dispersion Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000005484 gravity Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
Images
Abstract
Description
本発明は自己位置推定方法に関し、特に点群のマッチングを行って自己位置を推定する自己位置推定方法に関する。 The present invention relates to a self-position estimation method, and more particularly, to a self-position estimation method for estimating a self-position by performing point cloud matching.
地図を用いて自律的に移動する自律移動ロボットが知られている。このような自律移動ロボットは、距離センサから得られた情報と地図に示される情報とのマッチングを行って、自己位置を推定する。例えば、特許文献1は、距離センサの測定結果から得られた距離和データに対して、地図データ内におけるこれに近似した距離和データを検索し、その結果に基づいて自律移動ロボットの位置・姿勢を推定するマッチング処理を行うことについて開示している。 An autonomous mobile robot that moves autonomously using a map is known. Such an autonomous mobile robot estimates its own position by matching information obtained from the distance sensor with information shown on the map. For example, Patent Document 1 searches for distance sum data approximated in map data for distance sum data obtained from the measurement results of a distance sensor, and based on the result, the position / posture of the autonomous mobile robot It is disclosed that a matching process for estimating is performed.
ところで、例えば、地図中に示されている物体が自己位置推定時には移動していたり、地図に示されていなかった人が自己位置推定時に出現していたりすることによって、地図に示される環境の情報と、自己位置推定時の実際の環境が異なることが起こりうる。これは、自己位置推定精度の低下を招く。 By the way, for example, when the object shown on the map moves at the time of self-position estimation, or the person who was not shown on the map appears at the time of self-position estimation, information on the environment shown on the map It can happen that the actual environment at the time of self-position estimation is different. This leads to a decrease in self-position estimation accuracy.
本発明は、このような問題を解決するためになされたものであり、自己位置推定時の環境が地図作成時の環境から変動している場合において自己位置推定精度が低下することを抑制することができる自己位置推定方法を提供することを目的とする。 The present invention has been made to solve such a problem, and suppresses a decrease in self-position estimation accuracy when the environment at the time of self-position estimation varies from the environment at the time of map creation. An object of the present invention is to provide a self-position estimation method capable of
本発明の一態様に係る自己位置推定方法は、環境地図に示される点群と距離センサから得られた点群をマッチングして自己位置推定を行う自己位置推定方法であって、前記距離センサの計測方向毎に、前記距離センサから取得される点群について、予め定められた指標に基づく好適度を算出し、前記好適度が予め定められた基準を満たすような点群が取得される前記計測方向において前記距離センサから取得される点群を前記環境地図に示される点群とのマッチングに用いる方法である。
この方法によれば、環境が、環境地図の作成時から変動している場合に、その変動による影響が小さいデータを選んで自己位置推定を行うことが可能となる。このため、自己位置推定の精度の低下が抑制される。
A self-position estimation method according to an aspect of the present invention is a self-position estimation method for performing self-position estimation by matching a point group shown on an environment map and a point group obtained from a distance sensor, For each point direction obtained from the distance sensor for each measurement direction, a degree of suitability based on a predetermined index is calculated, and the point group is obtained such that the degree of suitability satisfies a predetermined standard. This is a method of using a point cloud acquired from the distance sensor in a direction for matching with a point cloud shown on the environmental map.
According to this method, when the environment has changed since the creation of the environment map, it is possible to perform self-position estimation by selecting data that is less affected by the change. For this reason, the fall of the precision of self-position estimation is suppressed.
本発明によれば、自己位置推定時の環境が地図作成時の環境から変動している場合において自己位置推定精度が低下することを抑制することができる自己位置推定方法を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, when the environment at the time of self-position estimation has fluctuate | varied from the environment at the time of map preparation, the self-position estimation method which can suppress that self-position estimation precision falls can be provided.
本発明の実施の形態について説明する前に、まず、特許文献1に記載された自己位置推定方法を基に発明者が検討した比較例について説明する。 Before describing the embodiment of the present invention, first, a comparative example examined by the inventor based on the self-position estimation method described in Patent Document 1 will be described.
この比較例では、まず、環境地図を作成する際に、距離センサにより取得される点群と、この点群の距離の和の値である距離和と、自律移動体の自己位置とを紐づけて一緒に保存する。そして、自己位置推定の際、図7に示されるように、距離センサから取得される点群から算出される距離和に対して、環境地図の中から一番近い距離点群を取り出す。図7に示した例では、距離センサデータから算出される距離和が10であり、環境地図の中から、この距離和に最も近い距離和である11を有する距離点群が取り出される。続いて、取り出された距離点群に対応する自己位置を初期値に使い、点群同士のマッチングを行って、自己位置推定を行う。 In this comparative example, when creating an environmental map, first, the point cloud acquired by the distance sensor, the distance sum that is the sum of the distances of the point cloud, and the self-position of the autonomous mobile body are linked. And save together. Then, when self-position estimation is performed, as shown in FIG. 7, the closest distance point group is extracted from the environment map with respect to the distance sum calculated from the point group acquired from the distance sensor. In the example shown in FIG. 7, the distance sum calculated from the distance sensor data is 10, and a distance point group having 11 which is the distance sum closest to the distance sum is extracted from the environment map. Subsequently, using the self-position corresponding to the extracted distance point group as an initial value, the point groups are matched to perform self-position estimation.
このような自己位置推定方法の場合、次のような問題があることを発明者は見出した。例えば、環境地図を作成した時に比べて物体の配置が変更されている場合や環境地図を作成した時に存在していなかった物体(人間等)が自己推定時に存在している場合など、環境地図を作成した時と比較して自己位置推定時に計測する環境に変化があった場合において、変化があった部分が、距離センサデータの中で大部分を占めるようなときには、以下の問題がある。すなわち、距離和のみで初期値を取ろうとすると、誤った点群とマッチしてしまい、自己位置推定に失敗する可能性がある。このような問題への対策として、距離センサの向きを変えながら、自己位置推定に成功するまで、処理を続けるという方法も考えられるが、推定結果の自己位置の精度が悪い恐れがある。また、自律移動体の位置の真値が分からず、かつ、環境の変化した部分がどこか分からないため、自己位置推定結果の精度の良し悪しの評価を行うことができない。これは、環境変化部分の割合が大きい距離センサデータが入力されても、その入力に基づく自己位置推定結果を採用せざるを得ないことに起因している。 The inventor has found that such a self-position estimation method has the following problems. For example, if the location of an object has changed compared to when the environment map was created, or if an object (such as a person) that did not exist when the environment map was created exists at the time of self-estimation, In the case where there is a change in the environment measured at the time of self-position estimation compared to the time when the position is created, the following problem occurs when the changed part occupies most of the distance sensor data. That is, if an initial value is obtained only by the sum of distances, it may match an incorrect point cloud and self-position estimation may fail. As a countermeasure to such a problem, a method of continuing the process until the self-position estimation is successful while changing the direction of the distance sensor is conceivable, but the accuracy of the self-position of the estimation result may be poor. In addition, since the true value of the position of the autonomous mobile body is not known and the part where the environment has changed is unknown, it is impossible to evaluate the accuracy of the self-position estimation result. This is because even if distance sensor data having a large proportion of the environment change portion is input, a self-position estimation result based on the input must be adopted.
したがって、自己位置推定を行う際に、自己位置推定の良し悪しの評価を行うことができる基準を導入し、その基準を元に評価を行うことができれば、上記の問題が発生する可能性が低くなることが期待される。 Therefore, if a standard that can evaluate whether the self-position estimation is good or bad is introduced when self-position estimation is performed, and the evaluation can be performed based on the standard, the possibility of the above problem occurring is low. Is expected to be.
実施の形態1
以下、本発明の実施の形態について図面を参照して詳細に説明する。図1には、実施の形態にかかる自己位置推定装置の一例として自律移動ロボット1が示されている。自律移動ロボット1は、距離センサ11と、センサ移動制御部12と、制御装置13と、車輪14とを有しており、車輪14を駆動させることにより移動する。なお、本実施の形態では、自律移動ロボット1は、車輪14の駆動により移動するが、他の手段により移動を実現してもよい。
Embodiment 1
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 shows an autonomous mobile robot 1 as an example of a self-position estimation apparatus according to an embodiment. The autonomous mobile robot 1 includes a
距離センサ11は、自律移動ロボット1の周辺の3次元の検出領域S内にある環境(物体)と自律移動ロボット1との距離情報を検出する。距離センサ11として、例えば、レーザレンジファインダが用いられるが、距離センサ11は、これに限らず、例えば、デプスセンサ、超音波センサ、赤外線センサ、カメラ等の任意の距離センサであってもよい。
The
センサ移動制御部12は、距離センサ11の視点パターン、すなわち計測方向を変更するよう距離センサ11の向きを変更する。センサ移動制御部12は、例えば、制御信号に基づいてアクチュエータを駆動することにより、距離センサ11の向きを移動させる。
The sensor
制御装置13は、例えば、制御処理、演算処理等を行うCPU(Central Processing Unit)、CPUによって実行される制御プログラム、演算プログラム、処理データ等を記憶する、ROM(Read Only Memory)及びRAM(Random Access Memory)などにより構成される記憶装置等からなるマイクロコンピュータを中心にして、ハードウェア構成されている。
The
制御装置13は、自律移動ロボット1の全体を制御する。例えば、制御装置13は、センサ移動制御部12の制御、及び車輪14の駆動制御といった各種制御を行うとともに、図2に示される構成により以下に示す処理を実行する。
The
図2は、制御装置13の機能構成の一例を示すブロック図である。なお、図2に示される各構成は、例えば、上記制御プログラム又は演算プログラムがCPUにより実行されることで実現される。
FIG. 2 is a block diagram illustrating an example of a functional configuration of the
制御装置13は、環境地図記憶部130と、視点選択部131と、距離センサデータ取得部132と、自己位置推定部133とを有している。本実施の形態では、距離センサデータが自己位置推定に好適なものであるかどうかの指標(以下、好適度という)を導入し、自律移動ロボット1が距離センサデータを取得するごとに、この距離センサデータに対応する好適度を計算する。自律移動ロボット1は、センサ移動制御部12の制御により距離センサ11を動かしながら、距離センサ11の姿勢、距離センサ11から取得される距離センサデータ、及びこの距離センサデータに対する好適度からなる種々の組み合わせを収集し、好適度が最適となる距離センサ11の姿勢を選択する。そして、選択された距離センサ11の姿勢から取得される距離センサデータと、環境地図との照合を行い、自己位置の計算を行う。以下、これを実現する各構成について説明する。
The
環境地図記憶部130は、例えば上述の記憶装置により実現され、自律移動ロボット1が動作する環境についての地図情報である環境地図を記憶している。この環境地図は、予め、自律移動ロボット1が移動する範囲について距離センサ11の検出結果に基づいて作成され、環境地図記憶部130に記憶されている。この環境地図には、地図作成の際に距離センサ11により取得された点群の情報(点群の座標及び各点の距離)が含まれる。
The environment
視点選択部131は、センサ移動制御部12に指示することにより距離センサ11を動かし、距離センサ11の視点パターン(計測方向)毎に、距離センサ11から取得される点群について、予め定められた指標に基づく好適度を算出する。そして、視点選択部131は、好適度が予め定められた基準を満たす点群が取得される視点を選択する。また、視点選択部131は、選択された視点へと距離センサ11を向ける。
The
距離センサデータ取得部132は、視点選択部131により選択された視点において距離センサ11から取得された距離センサデータを取得する。
The distance sensor
自己位置推定部133は、距離センサデータ取得部132が取得した距離センサデータと、環境地図との照合を行い、自己位置を推定する。
The self-position estimating
以下、好適度について具体的に説明する。本実施の形態では、自己位置推定の好適度を、距離センサ11から得られた点群の情報のみから規定する。好適度をC、距離センサ11から得られたn点の点群分布を表す行列をPとすると、好適度は以下の式(1)に示す通り、関数fを用いて一意に計算される。なお、行列Pは、以下の式(2)のように表される。
Hereinafter, the suitability will be specifically described. In the present embodiment, the suitability for self-position estimation is defined only from the point cloud information obtained from the
以下、好適度Cの具体的な例について説明する。従来手法における問題は、環境地図に対して変化した物体の割合が大きい場合に生じる。すなわち、変化した物体の割合が小さくなるよう、自己位置推定に用いるデータを選択することにより、自己位置推定精度の低下を抑制することができる。したがって、そのようなデータである場合に好適度Cの値が大きくなるようにすればよい。変化する物体の割合が小さくなるようにするには、例えば、距離センサ11が、なるべく遠くから、なるべく縦横に広い分布をなす点群を見ることが好ましいと考えられる。なぜならば、このようにすることで、分布の中で一部の物体が動いても、全体の分布の中での動いた点の割合は小さくなるからである。なお、縦方向は、例えば鉛直方向であり、横方向は例えば水平方向である。
Hereinafter, a specific example of the degree of preference C will be described. The problem with the conventional method occurs when the ratio of changed objects to the environment map is large. That is, by selecting data used for self-position estimation so that the ratio of changed objects becomes small, it is possible to suppress a decrease in self-position estimation accuracy. Therefore, it is only necessary to increase the value of the degree of suitability C in the case of such data. In order to reduce the ratio of the changing object, for example, it is considered preferable that the
この考え方を式に表すと、好適度Cは例えば以下の式(3)のように表される。なお、以下の式(3)において、図3に示されるように、Gは、距離センサ11を中心とした座標系における距離センサデータの点群位置のなす重心であり、LGは距離センサ11と重心Gとの距離であり、VX、VY、VZは、それぞれ重心Gを中心とする点群の分布のばらつき具合を表す分散である。ここで、VXは縦方向の分散を示し、VYは横方向の分散を示し、VZは奥行方向の分散を示す。また、m、nは、それぞれ調整ゲインである。
When this idea is expressed in an equation, the degree of suitability C is expressed as the following equation (3), for example. In the following formula (3), as shown in FIG. 3, G is the center of gravity formed by the point group position of the distance sensor data in the coordinate system centered on the
式(3)に示した例では、好適度Cは、距離センサ11からの点群分布の距離を表す指標(以下、距離指標という)と点群分布の縦横への広がりの大きさを表す指標(以下、分散指標という)との和により定義される。式(3)に示される好適度Cの式の第一項は、点群分布が距離センサ11から遠くにあるほど好適であることを表す成分を示している。また、第二項は、分布の縦横への広がり具合が大きいほど好適であることを表す成分を示している。ただし、距離センサ11からの距離は異なるが縦横の広がり具合は同じ大きさである分布について、距離センサ11から遠い分布ほど、相対的に分布が小さくなるようにする必要がある。このため、第二項においては、縦方向の分散と横方向の分散の積を、重心への距離LGで割り、距離の影響をキャンセルするようにしている。なお、調整ゲインm、nの値を調整することにより、好適度Cにおける、距離指標の寄与度合い及び分散指標の寄与度合いを調整することができる。
In the example shown in Expression (3), the degree of suitability C is an index that represents the distance of the point cloud distribution from the distance sensor 11 (hereinafter referred to as a distance index) and an index that represents the size of the vertical and horizontal spread of the point cloud distribution. (Hereinafter referred to as the dispersion index). The first term of the formula of the degree of preference C shown in the formula (3) indicates a component representing that the point cloud distribution is more suitable as it is farther from the
次に、本実施の形態にかかる自己位置推定方法による動作の一例を説明する。図4は、本実施の形態にかかる自己位置推定方法による自律移動ロボット1の動作の一例を示すフローチャートである。なお、環境地図については、予め作成されているものとする。 Next, an example of the operation by the self-position estimation method according to this embodiment will be described. FIG. 4 is a flowchart showing an example of the operation of the autonomous mobile robot 1 by the self-position estimation method according to the present embodiment. It is assumed that the environmental map is created in advance.
図4に示される例では、ステップ100(S100)及びステップ101(S101)により、最適な視点の選出についての動作がなされ、その後、ステップ102(S102)で取得されたデータに基づいて、ステップ103(S103)及びステップ104(S104)により、自己位置推定処理を行う動作がなされる。以下、詳細に説明する。 In the example shown in FIG. 4, an operation for selecting an optimal viewpoint is performed in step 100 (S100) and step 101 (S101), and then, based on the data acquired in step 102 (S102), step 103 is performed. An operation of performing self-position estimation processing is performed by (S103) and step 104 (S104). Details will be described below.
ステップ100において、視点選択部131は、自己位置推定にもっとも好適な距離センサ視点を選出する。視点選択部131は、距離センサ11を動かし、視点パターンを変更し、視点パターン毎に好適度を計算し、好適度が一番大きくなる視点を選出する。なお、ステップ100の詳細については、図5を用いてさらに説明する。
In
ステップ101において、次に、センサ移動制御部12が、ステップ100で選出された視点に距離センサ11を向けるよう距離センサ11の位置を変更する。
Next, in
ステップ102において、距離センサデータ取得部132が、ステップ101で設定された視点による距離センサデータを取得し、自己位置推定部133に出力する。
In
ステップ103において、自己位置推定部133は、環境地図記憶部130に記憶された環境地図に示される点群と、ステップ102で取得された距離センサデータに示される点群をマッチングして、距離センサ11に固定された座標系における位置と、移動空間に固定された座標系(世界座標系)における位置との間の変換を行う三次元変換を求める。
In step 103, the self-
ステップ104において、自己位置推定部133は、三次元変換により、環境地図上における自己位置を推定する。
In
このように、本実施の形態にかかる自律移動ロボット1(自己位置推定装置)によれば、環境地図に示される点群と距離センサ11から得られた点群をマッチングして自己位置推定を行う自己位置推定方法であって、次のステップを含む方法が提供される。すなわち、距離センサ11の計測方向毎に、距離センサ11から取得される点群について、予め定められた指標に基づく好適度を算出するステップ(ステップ100)と、好適度が予め定められた基準を満たすような点群が取得される計測方向において距離センサ11から取得される点群を環境地図に示される点群とのマッチングに用いるステップ(ステップ103)とを含む自己位置推定方法が提供される。
As described above, according to the autonomous mobile robot 1 (self-position estimation apparatus) according to the present embodiment, the point group indicated by the environment map and the point group obtained from the
次に、上記ステップ100における動作の詳細について説明する。図5は、図4に示されるフローチャートのステップ100の動作の具体的な一例を示すフローチャートである。図5に示す例では、視点選択部131は、全ての視点パターンのうち、好適度Cが最大となる視点パターンを探し出すことにより、視点パターンを決定する。具体的には、以下の動作がなされる。
Next, details of the operation in
ステップ111(S111)において、視点選択部131は、距離センサ11から距離センサデータ(点群センサデータ)を取得する。
In step 111 (S111), the
ステップ112(S112)において、視点選択部131は、ステップ111において取得された点群について好適度の値を計算し、計算結果を一時的にメモリ等に蓄積する。
In step 112 (S112), the
ステップ113(S113)において、視点選択部131は、全ての視点パターンについて計測が完了したか否かを判定する。すなわち、全ての視点パターンについて好適度の値が計算された場合、処理はステップ115に移行し、全ての視点パターンについて好適度の値が計算されていない場合、処理はステップ114に移行する。
In step 113 (S113), the
ステップ114(S114)において、視点選択部131は、好適度の値が算出されていない視点パターンへと変更するよう、センサ移動制御部12に指示する。これにより、距離センサ11の視点が動かされ、再び、処理はステップ111に戻る。
In step 114 (S114), the
ステップ115(S115)において、視点選択部131は、全ての視点パターンに対する各好適度の値のうち最大値を求める。具体的には、視点選択部131は、ステップ112において蓄積された各値を比較して最大値を求める。
In step 115 (S115), the
ステップ116(S116)において、視点選択部131は、好適度の値が最大となるセンサ視点を出力する。これにより、視点選択部131により視点の選択が完了する。
In step 116 (S116), the
以上、実施の形態1について説明した。実施の形態1にかかる自己位置推定方法によれば、自己位置推定への好適度が一番大きい距離センサデータが選出される。このため、取得される距離センサデータのうち、変化した物体の割合が他よりも小さそうなデータを選んで、自己位置推定を行うことが可能となる。つまり、環境が、環境地図の作成時から変動している場合に、その変動による影響が小さいデータを選んで自己位置推定を行うことが可能となる。その結果、自己位置推定時の環境が地図作成時の環境から変動している場合において、自己位置推定の成功率又は精度が低下することを抑制することができる。なお、予め作成した環境地図と距離センサデータとを用いて、データの適正を判断する指標の計算を行うことも考えられるが、このような手法の場合、距離センサで計測する環境が変化した際に、環境地図とのマッチングがうまくいかない。これに対し、上記実施の形態にかかる自己位置推定方法によれば、距離センサデータのみから好適度の計算を行うため、複数の視点のうち環境の変化の小さそうな視点で得られたデータを選択でき、環境地図とうまくマッチングさせることが可能となる。 The first embodiment has been described above. According to the self-position estimation method according to the first embodiment, distance sensor data having the highest degree of suitability for self-position estimation is selected. For this reason, it is possible to perform self-position estimation by selecting data in which the ratio of the changed object is likely to be smaller than others among the acquired distance sensor data. That is, when the environment has changed since the creation of the environment map, it is possible to perform self-position estimation by selecting data that is less affected by the change. As a result, when the environment at the time of self-position estimation changes from the environment at the time of map creation, it can suppress that the success rate or precision of self-position estimation falls. It is also possible to calculate an index for judging the appropriateness of data using the environmental map and distance sensor data created in advance, but in such a method, when the environment measured by the distance sensor changes Also, matching with the environmental map does not work. On the other hand, according to the self-position estimation method according to the above embodiment, since the degree of suitability is calculated only from the distance sensor data, data obtained from a viewpoint that seems to have a small environmental change among a plurality of viewpoints. It can be selected and matched well with the environmental map.
また、好適度を自己位置推定の尤度の計算に使用することにより、推定した結果がどのくらい確からしいかという指標を上位処理系が知ることができ、以後の処理に利用することも可能となる。 In addition, by using the favorableness degree for the calculation of the likelihood of self-position estimation, the higher processing system can know an index of how probable the estimated result is, and it can be used for subsequent processing. .
実施の形態2
次に、実施の形態2について説明する。実施の形態1では、図5で示したように、視点選択部131は、好適度の値が最大となる視点パターンを選択する。これに対し、本実施の形態では、視点選択部131は、好適度の値が予め定められた閾値を超える視点パターンを選択する。本実施の形態は、この点において異なり、他については実施の形態1と同様であるため、異なる部分についてのみ説明し、重複する点については説明を省略する。
Embodiment 2
Next, a second embodiment will be described. In the first embodiment, as illustrated in FIG. 5, the
図6は、図4に示されるフローチャートのステップ100の動作の具体的な他の一例を示すフローチャートである。図6に示す例では、視点選択部131は、好適度の値が予め定められた閾値を超える視点パターンを探し出すことにより、視点パターンを決定する。具体的には、以下の動作がなされる。
FIG. 6 is a flowchart showing another specific example of the operation in
ステップ121(S121)において、図5のステップ111と同様、視点選択部131は、距離センサ11から距離センサデータ(点群センサデータ)を取得する。
In step 121 (S 121), the
ステップ122(S122)において、視点選択部131は、ステップ121において取得された点群について好適度の値を計算する。そして、ステップ123(S123)において、視点選択部131は、算出された値が、予め定められた閾値を超えるか否かを判定する。好適度の値が閾値を超える場合、処理はステップ127へ移行する。これに対し、好適度の値が閾値を超えない場合、処理はステップ124へ移行する。
In step 122 (S122), the
ステップ124(S124)において、図5のステップ113と同様、視点選択部131は、全ての視点パターンについて計測が完了したか否かを判定する。全ての視点パターンについて好適度の値が計算された場合、処理はステップ125に移行し、全ての視点パターンについて好適度の値が計算されていない場合、処理はステップ126に移行する。
In step 124 (S124), similarly to step 113 in FIG. 5, the
ステップ125(S125)では、全ての視点パターンにおいて、好適度の値が閾値未満であったとして、視点選択部131は、処理の失敗を通知し、処理を終了する。これに対し、ステップ126(S126)では、図5のステップ114と同様、視点選択部131は、好適度の値が算出されていない視点パターンへと変更するよう、センサ移動制御部12に指示する。これにより、距離センサ11の視点が動かされ、再び、処理はステップ121に戻る。
In step 125 (S125), the
ステップ127(S127)において、ステップ123において、好適度の値が閾値を超えると判定された視点を出力する。これにより、視点選択部131により視点の選択が完了する。
In step 127 (S127), the viewpoint determined in step 123 that the value of the suitability exceeds the threshold value is output. Thereby, the
本実施形態にかかる自己位置推定方法によれば、自己位置推定への好適度が所定の基準を満たす距離センサデータが選出される。このため、取得される距離センサデータのうち、変化した物体の割合が基準以下であるデータを選んで、自己位置推定を行うことが可能となる。その結果、自己位置推定時の環境が地図作成時の環境から変動している場合において、自己位置推定の成功率又は精度が低下することを抑制することができる。 According to the self-position estimation method according to the present embodiment, distance sensor data whose degree of suitability for self-position estimation satisfies a predetermined criterion is selected. For this reason, it is possible to perform self-position estimation by selecting data in which the ratio of the changed object is equal to or less than the reference from the acquired distance sensor data. As a result, when the environment at the time of self-position estimation changes from the environment at the time of map creation, it can suppress that the success rate or precision of self-position estimation falls.
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記実施の形態では、環境地図に対して変化した物体の割合が小さくなるような好適度Cを例に挙げているが、その他にも様々な目的に応じて好適度を設定し、上記の実施形態と同様に自己位置推定に適用することができる。例えば、特定の範囲の距離の計測精度が他の範囲の距離の計測精度よりも良いという特性を距離センサ11が有している場合、距離センサ11で取得した点群の重心と距離センサ11との間の距離が、この特定の範囲に近いほど好適度の値が大きくなるように好適度を設定する、などといったことが考えられる。
Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention. For example, in the above-described embodiment, the degree of preference C is set as an example in which the ratio of the object that has changed with respect to the environmental map is reduced. However, the degree of preference is set according to various other purposes, It can be applied to self-position estimation as in the embodiment. For example, when the
1 自律移動ロボット
11 距離センサ
12 センサ移動制御部
13 制御装置
14 車輪
130 環境地図記憶部
131 視点選択部
132 距離センサデータ取得部
133 自己位置推定部
DESCRIPTION OF SYMBOLS 1 Autonomous
Claims (1)
前記距離センサの計測方向毎に、前記距離センサから取得される点群について、予め定められた指標に基づく好適度を算出し、
前記好適度が予め定められた基準を満たすような点群が取得される前記計測方向において前記距離センサから取得される点群を前記環境地図に示される点群とのマッチングに用いる
自己位置推定方法。 A self-position estimation method for performing self-position estimation by matching a point cloud shown on an environmental map and a point cloud obtained from a distance sensor,
For each measurement direction of the distance sensor, for a point group acquired from the distance sensor, calculate a degree of suitability based on a predetermined index,
Self-position estimation method using a point cloud acquired from the distance sensor in matching with a point cloud shown in the environmental map in the measurement direction in which a point cloud with which the degree of preference satisfies a predetermined criterion is acquired .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016029765A JP2017146893A (en) | 2016-02-19 | 2016-02-19 | Self-position estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016029765A JP2017146893A (en) | 2016-02-19 | 2016-02-19 | Self-position estimation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017146893A true JP2017146893A (en) | 2017-08-24 |
Family
ID=59681624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016029765A Pending JP2017146893A (en) | 2016-02-19 | 2016-02-19 | Self-position estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017146893A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019069921A1 (en) * | 2017-10-04 | 2019-04-11 | 日本電産シンポ株式会社 | Mobile body |
WO2019194079A1 (en) * | 2018-04-02 | 2019-10-10 | 日本電産株式会社 | Position estimation system, moving body comprising said position estimation system, and computer program |
JP2020030721A (en) * | 2018-08-24 | 2020-02-27 | 株式会社ダイヘン | Moving vehicle |
CN112824994A (en) * | 2019-11-15 | 2021-05-21 | 株式会社东芝 | Position estimation device, position estimation method, and program |
JP2021081851A (en) * | 2019-11-15 | 2021-05-27 | 株式会社東芝 | Location estimation device, location estimation method, and program |
-
2016
- 2016-02-19 JP JP2016029765A patent/JP2017146893A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019069921A1 (en) * | 2017-10-04 | 2019-04-11 | 日本電産シンポ株式会社 | Mobile body |
WO2019194079A1 (en) * | 2018-04-02 | 2019-10-10 | 日本電産株式会社 | Position estimation system, moving body comprising said position estimation system, and computer program |
CN111971633A (en) * | 2018-04-02 | 2020-11-20 | 日本电产株式会社 | Position estimation system, mobile object having the same, and computer program |
CN111971633B (en) * | 2018-04-02 | 2023-10-20 | 日本电产株式会社 | Position estimation system, mobile body having the position estimation system, and recording medium |
JP2020030721A (en) * | 2018-08-24 | 2020-02-27 | 株式会社ダイヘン | Moving vehicle |
JP7153505B2 (en) | 2018-08-24 | 2022-10-14 | 株式会社ダイヘン | moving body |
CN112824994A (en) * | 2019-11-15 | 2021-05-21 | 株式会社东芝 | Position estimation device, position estimation method, and program |
JP2021081851A (en) * | 2019-11-15 | 2021-05-27 | 株式会社東芝 | Location estimation device, location estimation method, and program |
JP2021081850A (en) * | 2019-11-15 | 2021-05-27 | 株式会社東芝 | Location estimation device, location estimation method, and program |
JP7199337B2 (en) | 2019-11-15 | 2023-01-05 | 株式会社東芝 | Position estimation device, position estimation method and program |
US11662740B2 (en) | 2019-11-15 | 2023-05-30 | Kabushiki Kaisha Toshiba | Position estimating apparatus, method for determining position of movable apparatus, and non-transitory computer readable medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017146893A (en) | Self-position estimation method | |
US9995589B2 (en) | Path plan generating apparatus for mobile body | |
US10127677B1 (en) | Using observations from one or more robots to generate a spatio-temporal model that defines pose values for a plurality of objects in an environment | |
KR101776621B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
US10955852B2 (en) | Navigation system based on slow feature gradients | |
EP3347171B1 (en) | Using sensor-based observations of agents in an environment to estimate the pose of an object in the environment and to estimate an uncertainty measure for the pose | |
JP5782708B2 (en) | Driving support device | |
KR101475826B1 (en) | Leader-Follower Formation Device, Method and Mobile robot using Backstepping Method | |
US10013762B2 (en) | Method and control unit for detecting a change of a relative yaw angle within a stereo-video system for a vehicle | |
JP6773471B2 (en) | Autonomous mobile and environmental map updater | |
JP5817611B2 (en) | Mobile robot | |
US20170151672A1 (en) | Workpiece position/posture calculation system and handling system | |
JP6240595B2 (en) | Self-position estimation apparatus and mobile body equipped with self-position estimation apparatus | |
JP2011054082A (en) | Autonomous moving apparatus | |
KR101551701B1 (en) | Method and Apparatus for Path Planning of Unmanned Ground Vehicle in Dynamic Environment | |
JP2015215651A (en) | Robot and own position estimation method | |
JP2017043279A (en) | Vehicle controller and travel path reliability determination method | |
KR20110097344A (en) | Apparatus and method for double-updating in simultaneous localization and mapping for a mobile robot | |
CN108225271A (en) | Method, system, storage medium and the equipment of detection are toppled over by a kind of robot | |
JP6765156B1 (en) | Mobile control device, mobile control method, mobile control program and mobile control system | |
JP6438354B2 (en) | Self-position estimation apparatus and mobile body equipped with self-position estimation apparatus | |
JP2017167974A (en) | Estimation apparatus, method and program | |
JP2022011821A (en) | Information processing device, information processing method and mobile robot | |
JP6260509B2 (en) | robot | |
KR20230082885A (en) | Performance evaluation methods and perfromace evaluation system for autonomous driving robot |