JP2017146893A - Self-position estimation method - Google Patents

Self-position estimation method Download PDF

Info

Publication number
JP2017146893A
JP2017146893A JP2016029765A JP2016029765A JP2017146893A JP 2017146893 A JP2017146893 A JP 2017146893A JP 2016029765 A JP2016029765 A JP 2016029765A JP 2016029765 A JP2016029765 A JP 2016029765A JP 2017146893 A JP2017146893 A JP 2017146893A
Authority
JP
Japan
Prior art keywords
self
distance sensor
position estimation
viewpoint
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016029765A
Other languages
Japanese (ja)
Inventor
和仁 田中
Kazuhito Tanaka
和仁 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016029765A priority Critical patent/JP2017146893A/en
Publication of JP2017146893A publication Critical patent/JP2017146893A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a self-position estimation method with which it is possible to suppress a reduction in the accuracy of self-position estimation when an environment at self-position estimation time has changed from an environment at map creation time.SOLUTION: The self-position estimation method estimates a self-position by matching of point groups obtained from a point group shown on environment map and a distance sensor. In this self-position estimation method, a degree of suitableness with respect to a point group obtained from the distance sensor that is based on a predetermined index is calculated for each measurement direction of the distance sensor, and a point group acquired from the distance sensor in a measurement direction in which is acquired a point group whose suitableness satisfies a predetermined criterion is used for matching with a point group shown on the environment map.SELECTED DRAWING: Figure 4

Description

本発明は自己位置推定方法に関し、特に点群のマッチングを行って自己位置を推定する自己位置推定方法に関する。   The present invention relates to a self-position estimation method, and more particularly, to a self-position estimation method for estimating a self-position by performing point cloud matching.

地図を用いて自律的に移動する自律移動ロボットが知られている。このような自律移動ロボットは、距離センサから得られた情報と地図に示される情報とのマッチングを行って、自己位置を推定する。例えば、特許文献1は、距離センサの測定結果から得られた距離和データに対して、地図データ内におけるこれに近似した距離和データを検索し、その結果に基づいて自律移動ロボットの位置・姿勢を推定するマッチング処理を行うことについて開示している。   An autonomous mobile robot that moves autonomously using a map is known. Such an autonomous mobile robot estimates its own position by matching information obtained from the distance sensor with information shown on the map. For example, Patent Document 1 searches for distance sum data approximated in map data for distance sum data obtained from the measurement results of a distance sensor, and based on the result, the position / posture of the autonomous mobile robot It is disclosed that a matching process for estimating is performed.

特開2013−020345号公報JP2013-020345A

ところで、例えば、地図中に示されている物体が自己位置推定時には移動していたり、地図に示されていなかった人が自己位置推定時に出現していたりすることによって、地図に示される環境の情報と、自己位置推定時の実際の環境が異なることが起こりうる。これは、自己位置推定精度の低下を招く。   By the way, for example, when the object shown on the map moves at the time of self-position estimation, or the person who was not shown on the map appears at the time of self-position estimation, information on the environment shown on the map It can happen that the actual environment at the time of self-position estimation is different. This leads to a decrease in self-position estimation accuracy.

本発明は、このような問題を解決するためになされたものであり、自己位置推定時の環境が地図作成時の環境から変動している場合において自己位置推定精度が低下することを抑制することができる自己位置推定方法を提供することを目的とする。   The present invention has been made to solve such a problem, and suppresses a decrease in self-position estimation accuracy when the environment at the time of self-position estimation varies from the environment at the time of map creation. An object of the present invention is to provide a self-position estimation method capable of

本発明の一態様に係る自己位置推定方法は、環境地図に示される点群と距離センサから得られた点群をマッチングして自己位置推定を行う自己位置推定方法であって、前記距離センサの計測方向毎に、前記距離センサから取得される点群について、予め定められた指標に基づく好適度を算出し、前記好適度が予め定められた基準を満たすような点群が取得される前記計測方向において前記距離センサから取得される点群を前記環境地図に示される点群とのマッチングに用いる方法である。
この方法によれば、環境が、環境地図の作成時から変動している場合に、その変動による影響が小さいデータを選んで自己位置推定を行うことが可能となる。このため、自己位置推定の精度の低下が抑制される。
A self-position estimation method according to an aspect of the present invention is a self-position estimation method for performing self-position estimation by matching a point group shown on an environment map and a point group obtained from a distance sensor, For each point direction obtained from the distance sensor for each measurement direction, a degree of suitability based on a predetermined index is calculated, and the point group is obtained such that the degree of suitability satisfies a predetermined standard. This is a method of using a point cloud acquired from the distance sensor in a direction for matching with a point cloud shown on the environmental map.
According to this method, when the environment has changed since the creation of the environment map, it is possible to perform self-position estimation by selecting data that is less affected by the change. For this reason, the fall of the precision of self-position estimation is suppressed.

本発明によれば、自己位置推定時の環境が地図作成時の環境から変動している場合において自己位置推定精度が低下することを抑制することができる自己位置推定方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, when the environment at the time of self-position estimation has fluctuate | varied from the environment at the time of map preparation, the self-position estimation method which can suppress that self-position estimation precision falls can be provided.

実施の形態にかかる自律移動ロボットを示す模式図である。It is a schematic diagram which shows the autonomous mobile robot concerning embodiment. 実施の形態にかかる制御装置の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of the control apparatus concerning embodiment. 好適度の算出に用いられる各変数について示す模式図である。It is a schematic diagram shown about each variable used for calculation of a suitable degree. 実施の形態にかかる自己位置推定方法による自律移動ロボットの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the autonomous mobile robot by the self-position estimation method concerning embodiment. 図4に示されるフローチャートのステップ100の動作の具体的な一例を示すフローチャートである。It is a flowchart which shows a specific example of operation | movement of step 100 of the flowchart shown by FIG. 図4に示されるフローチャートのステップ100の動作の具体的な他の一例を示すフローチャートである。5 is a flowchart showing another specific example of the operation of Step 100 of the flowchart shown in FIG. 4. 比較例にかかる自己位置推定方法について説明する模式図である。It is a schematic diagram explaining the self-position estimation method concerning a comparative example.

本発明の実施の形態について説明する前に、まず、特許文献1に記載された自己位置推定方法を基に発明者が検討した比較例について説明する。   Before describing the embodiment of the present invention, first, a comparative example examined by the inventor based on the self-position estimation method described in Patent Document 1 will be described.

この比較例では、まず、環境地図を作成する際に、距離センサにより取得される点群と、この点群の距離の和の値である距離和と、自律移動体の自己位置とを紐づけて一緒に保存する。そして、自己位置推定の際、図7に示されるように、距離センサから取得される点群から算出される距離和に対して、環境地図の中から一番近い距離点群を取り出す。図7に示した例では、距離センサデータから算出される距離和が10であり、環境地図の中から、この距離和に最も近い距離和である11を有する距離点群が取り出される。続いて、取り出された距離点群に対応する自己位置を初期値に使い、点群同士のマッチングを行って、自己位置推定を行う。   In this comparative example, when creating an environmental map, first, the point cloud acquired by the distance sensor, the distance sum that is the sum of the distances of the point cloud, and the self-position of the autonomous mobile body are linked. And save together. Then, when self-position estimation is performed, as shown in FIG. 7, the closest distance point group is extracted from the environment map with respect to the distance sum calculated from the point group acquired from the distance sensor. In the example shown in FIG. 7, the distance sum calculated from the distance sensor data is 10, and a distance point group having 11 which is the distance sum closest to the distance sum is extracted from the environment map. Subsequently, using the self-position corresponding to the extracted distance point group as an initial value, the point groups are matched to perform self-position estimation.

このような自己位置推定方法の場合、次のような問題があることを発明者は見出した。例えば、環境地図を作成した時に比べて物体の配置が変更されている場合や環境地図を作成した時に存在していなかった物体(人間等)が自己推定時に存在している場合など、環境地図を作成した時と比較して自己位置推定時に計測する環境に変化があった場合において、変化があった部分が、距離センサデータの中で大部分を占めるようなときには、以下の問題がある。すなわち、距離和のみで初期値を取ろうとすると、誤った点群とマッチしてしまい、自己位置推定に失敗する可能性がある。このような問題への対策として、距離センサの向きを変えながら、自己位置推定に成功するまで、処理を続けるという方法も考えられるが、推定結果の自己位置の精度が悪い恐れがある。また、自律移動体の位置の真値が分からず、かつ、環境の変化した部分がどこか分からないため、自己位置推定結果の精度の良し悪しの評価を行うことができない。これは、環境変化部分の割合が大きい距離センサデータが入力されても、その入力に基づく自己位置推定結果を採用せざるを得ないことに起因している。   The inventor has found that such a self-position estimation method has the following problems. For example, if the location of an object has changed compared to when the environment map was created, or if an object (such as a person) that did not exist when the environment map was created exists at the time of self-estimation, In the case where there is a change in the environment measured at the time of self-position estimation compared to the time when the position is created, the following problem occurs when the changed part occupies most of the distance sensor data. That is, if an initial value is obtained only by the sum of distances, it may match an incorrect point cloud and self-position estimation may fail. As a countermeasure to such a problem, a method of continuing the process until the self-position estimation is successful while changing the direction of the distance sensor is conceivable, but the accuracy of the self-position of the estimation result may be poor. In addition, since the true value of the position of the autonomous mobile body is not known and the part where the environment has changed is unknown, it is impossible to evaluate the accuracy of the self-position estimation result. This is because even if distance sensor data having a large proportion of the environment change portion is input, a self-position estimation result based on the input must be adopted.

したがって、自己位置推定を行う際に、自己位置推定の良し悪しの評価を行うことができる基準を導入し、その基準を元に評価を行うことができれば、上記の問題が発生する可能性が低くなることが期待される。   Therefore, if a standard that can evaluate whether the self-position estimation is good or bad is introduced when self-position estimation is performed, and the evaluation can be performed based on the standard, the possibility of the above problem occurring is low. Is expected to be.

実施の形態1
以下、本発明の実施の形態について図面を参照して詳細に説明する。図1には、実施の形態にかかる自己位置推定装置の一例として自律移動ロボット1が示されている。自律移動ロボット1は、距離センサ11と、センサ移動制御部12と、制御装置13と、車輪14とを有しており、車輪14を駆動させることにより移動する。なお、本実施の形態では、自律移動ロボット1は、車輪14の駆動により移動するが、他の手段により移動を実現してもよい。
Embodiment 1
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 shows an autonomous mobile robot 1 as an example of a self-position estimation apparatus according to an embodiment. The autonomous mobile robot 1 includes a distance sensor 11, a sensor movement control unit 12, a control device 13, and wheels 14, and moves by driving the wheels 14. In the present embodiment, the autonomous mobile robot 1 moves by driving the wheels 14, but the movement may be realized by other means.

距離センサ11は、自律移動ロボット1の周辺の3次元の検出領域S内にある環境(物体)と自律移動ロボット1との距離情報を検出する。距離センサ11として、例えば、レーザレンジファインダが用いられるが、距離センサ11は、これに限らず、例えば、デプスセンサ、超音波センサ、赤外線センサ、カメラ等の任意の距離センサであってもよい。   The distance sensor 11 detects distance information between the environment (object) in the three-dimensional detection region S around the autonomous mobile robot 1 and the autonomous mobile robot 1. For example, a laser range finder is used as the distance sensor 11, but the distance sensor 11 is not limited thereto, and may be an arbitrary distance sensor such as a depth sensor, an ultrasonic sensor, an infrared sensor, or a camera.

センサ移動制御部12は、距離センサ11の視点パターン、すなわち計測方向を変更するよう距離センサ11の向きを変更する。センサ移動制御部12は、例えば、制御信号に基づいてアクチュエータを駆動することにより、距離センサ11の向きを移動させる。   The sensor movement control unit 12 changes the direction of the distance sensor 11 so as to change the viewpoint pattern of the distance sensor 11, that is, the measurement direction. The sensor movement control unit 12 moves the direction of the distance sensor 11 by driving an actuator based on the control signal, for example.

制御装置13は、例えば、制御処理、演算処理等を行うCPU(Central Processing Unit)、CPUによって実行される制御プログラム、演算プログラム、処理データ等を記憶する、ROM(Read Only Memory)及びRAM(Random Access Memory)などにより構成される記憶装置等からなるマイクロコンピュータを中心にして、ハードウェア構成されている。   The control device 13 includes, for example, a CPU (Central Processing Unit) that performs control processing, arithmetic processing, and the like, a ROM (Read Only Memory) and a RAM (Random) that store control programs, arithmetic programs, processing data, and the like executed by the CPU. Hardware is configured around a microcomputer composed of a storage device or the like composed of an Access Memory).

制御装置13は、自律移動ロボット1の全体を制御する。例えば、制御装置13は、センサ移動制御部12の制御、及び車輪14の駆動制御といった各種制御を行うとともに、図2に示される構成により以下に示す処理を実行する。   The control device 13 controls the entire autonomous mobile robot 1. For example, the control device 13 performs various types of control such as control of the sensor movement control unit 12 and drive control of the wheels 14, and executes the following processing with the configuration shown in FIG.

図2は、制御装置13の機能構成の一例を示すブロック図である。なお、図2に示される各構成は、例えば、上記制御プログラム又は演算プログラムがCPUにより実行されることで実現される。   FIG. 2 is a block diagram illustrating an example of a functional configuration of the control device 13. 2 is realized by the CPU executing the control program or the arithmetic program, for example.

制御装置13は、環境地図記憶部130と、視点選択部131と、距離センサデータ取得部132と、自己位置推定部133とを有している。本実施の形態では、距離センサデータが自己位置推定に好適なものであるかどうかの指標(以下、好適度という)を導入し、自律移動ロボット1が距離センサデータを取得するごとに、この距離センサデータに対応する好適度を計算する。自律移動ロボット1は、センサ移動制御部12の制御により距離センサ11を動かしながら、距離センサ11の姿勢、距離センサ11から取得される距離センサデータ、及びこの距離センサデータに対する好適度からなる種々の組み合わせを収集し、好適度が最適となる距離センサ11の姿勢を選択する。そして、選択された距離センサ11の姿勢から取得される距離センサデータと、環境地図との照合を行い、自己位置の計算を行う。以下、これを実現する各構成について説明する。   The control device 13 includes an environment map storage unit 130, a viewpoint selection unit 131, a distance sensor data acquisition unit 132, and a self-position estimation unit 133. In the present embodiment, an index indicating whether or not the distance sensor data is suitable for self-position estimation (hereinafter referred to as “preferability”) is introduced, and each time the autonomous mobile robot 1 acquires the distance sensor data, this distance is calculated. A suitable degree corresponding to the sensor data is calculated. While the autonomous mobile robot 1 moves the distance sensor 11 under the control of the sensor movement control unit 12, the autonomous mobile robot 1 includes various attitudes including the attitude of the distance sensor 11, distance sensor data acquired from the distance sensor 11, and suitability for the distance sensor data. The combinations are collected, and the posture of the distance sensor 11 with the optimum degree of preference is selected. And the distance sensor data acquired from the attitude | position of the selected distance sensor 11 and the environmental map are collated, and a self-position is calculated. Hereinafter, each structure which implement | achieves this is demonstrated.

環境地図記憶部130は、例えば上述の記憶装置により実現され、自律移動ロボット1が動作する環境についての地図情報である環境地図を記憶している。この環境地図は、予め、自律移動ロボット1が移動する範囲について距離センサ11の検出結果に基づいて作成され、環境地図記憶部130に記憶されている。この環境地図には、地図作成の際に距離センサ11により取得された点群の情報(点群の座標及び各点の距離)が含まれる。   The environment map storage unit 130 is realized by, for example, the above-described storage device, and stores an environment map that is map information about an environment in which the autonomous mobile robot 1 operates. This environment map is created in advance based on the detection result of the distance sensor 11 for the range in which the autonomous mobile robot 1 moves, and is stored in the environment map storage unit 130. This environment map includes point cloud information (point cloud coordinates and distances between points) acquired by the distance sensor 11 when the map is created.

視点選択部131は、センサ移動制御部12に指示することにより距離センサ11を動かし、距離センサ11の視点パターン(計測方向)毎に、距離センサ11から取得される点群について、予め定められた指標に基づく好適度を算出する。そして、視点選択部131は、好適度が予め定められた基準を満たす点群が取得される視点を選択する。また、視点選択部131は、選択された視点へと距離センサ11を向ける。   The viewpoint selection unit 131 moves the distance sensor 11 by instructing the sensor movement control unit 12, and a point group acquired from the distance sensor 11 is determined in advance for each viewpoint pattern (measurement direction) of the distance sensor 11. A suitable degree based on the index is calculated. Then, the viewpoint selection unit 131 selects a viewpoint from which a point group that satisfies a predetermined criterion for the degree of suitability is acquired. In addition, the viewpoint selection unit 131 directs the distance sensor 11 toward the selected viewpoint.

距離センサデータ取得部132は、視点選択部131により選択された視点において距離センサ11から取得された距離センサデータを取得する。   The distance sensor data acquisition unit 132 acquires the distance sensor data acquired from the distance sensor 11 at the viewpoint selected by the viewpoint selection unit 131.

自己位置推定部133は、距離センサデータ取得部132が取得した距離センサデータと、環境地図との照合を行い、自己位置を推定する。   The self-position estimating unit 133 compares the distance sensor data acquired by the distance sensor data acquiring unit 132 with the environment map, and estimates the self-position.

以下、好適度について具体的に説明する。本実施の形態では、自己位置推定の好適度を、距離センサ11から得られた点群の情報のみから規定する。好適度をC、距離センサ11から得られたn点の点群分布を表す行列をPとすると、好適度は以下の式(1)に示す通り、関数fを用いて一意に計算される。なお、行列Pは、以下の式(2)のように表される。   Hereinafter, the suitability will be specifically described. In the present embodiment, the suitability for self-position estimation is defined only from the point cloud information obtained from the distance sensor 11. Assuming that the degree of preference is C and the matrix representing the point group distribution of n points obtained from the distance sensor 11 is P, the degree of preference is uniquely calculated using the function f as shown in the following equation (1). The matrix P is expressed as the following formula (2).

Figure 2017146893
Figure 2017146893

Figure 2017146893
Figure 2017146893

以下、好適度Cの具体的な例について説明する。従来手法における問題は、環境地図に対して変化した物体の割合が大きい場合に生じる。すなわち、変化した物体の割合が小さくなるよう、自己位置推定に用いるデータを選択することにより、自己位置推定精度の低下を抑制することができる。したがって、そのようなデータである場合に好適度Cの値が大きくなるようにすればよい。変化する物体の割合が小さくなるようにするには、例えば、距離センサ11が、なるべく遠くから、なるべく縦横に広い分布をなす点群を見ることが好ましいと考えられる。なぜならば、このようにすることで、分布の中で一部の物体が動いても、全体の分布の中での動いた点の割合は小さくなるからである。なお、縦方向は、例えば鉛直方向であり、横方向は例えば水平方向である。   Hereinafter, a specific example of the degree of preference C will be described. The problem with the conventional method occurs when the ratio of changed objects to the environment map is large. That is, by selecting data used for self-position estimation so that the ratio of changed objects becomes small, it is possible to suppress a decrease in self-position estimation accuracy. Therefore, it is only necessary to increase the value of the degree of suitability C in the case of such data. In order to reduce the ratio of the changing object, for example, it is considered preferable that the distance sensor 11 sees a point group having a wide distribution as far as possible from as far away as possible. This is because, by doing this, even if some objects move in the distribution, the ratio of the moved points in the entire distribution becomes small. The vertical direction is, for example, the vertical direction, and the horizontal direction is, for example, the horizontal direction.

この考え方を式に表すと、好適度Cは例えば以下の式(3)のように表される。なお、以下の式(3)において、図3に示されるように、Gは、距離センサ11を中心とした座標系における距離センサデータの点群位置のなす重心であり、Lは距離センサ11と重心Gとの距離であり、V、V、Vは、それぞれ重心Gを中心とする点群の分布のばらつき具合を表す分散である。ここで、Vは縦方向の分散を示し、Vは横方向の分散を示し、Vは奥行方向の分散を示す。また、m、nは、それぞれ調整ゲインである。 When this idea is expressed in an equation, the degree of suitability C is expressed as the following equation (3), for example. In the following formula (3), as shown in FIG. 3, G is the center of gravity formed by the point group position of the distance sensor data in the coordinate system centered on the distance sensor 11, and LG is the distance sensor 11. And V X , V Y , and V Z are variances representing the degree of variation in the distribution of point groups centered on the center of gravity G. Here, V X represents the vertical dispersion, V Y represents the horizontal dispersion, and V Z represents the depth dispersion. M and n are adjustment gains, respectively.

Figure 2017146893
Figure 2017146893

式(3)に示した例では、好適度Cは、距離センサ11からの点群分布の距離を表す指標(以下、距離指標という)と点群分布の縦横への広がりの大きさを表す指標(以下、分散指標という)との和により定義される。式(3)に示される好適度Cの式の第一項は、点群分布が距離センサ11から遠くにあるほど好適であることを表す成分を示している。また、第二項は、分布の縦横への広がり具合が大きいほど好適であることを表す成分を示している。ただし、距離センサ11からの距離は異なるが縦横の広がり具合は同じ大きさである分布について、距離センサ11から遠い分布ほど、相対的に分布が小さくなるようにする必要がある。このため、第二項においては、縦方向の分散と横方向の分散の積を、重心への距離Lで割り、距離の影響をキャンセルするようにしている。なお、調整ゲインm、nの値を調整することにより、好適度Cにおける、距離指標の寄与度合い及び分散指標の寄与度合いを調整することができる。 In the example shown in Expression (3), the degree of suitability C is an index that represents the distance of the point cloud distribution from the distance sensor 11 (hereinafter referred to as a distance index) and an index that represents the size of the vertical and horizontal spread of the point cloud distribution. (Hereinafter referred to as the dispersion index). The first term of the formula of the degree of preference C shown in the formula (3) indicates a component representing that the point cloud distribution is more suitable as it is farther from the distance sensor 11. The second term indicates a component representing that the distribution is more suitable as the degree of spread in the vertical and horizontal directions is larger. However, with respect to a distribution in which the distance from the distance sensor 11 is different but the spread in the vertical and horizontal directions is the same, the distribution needs to be relatively smaller as the distribution is farther from the distance sensor 11. Therefore, in the second term, the product of longitudinal dispersion and lateral dispersion, divided by the distance L G to the center of gravity, so that to cancel the influence of the distance. It should be noted that by adjusting the values of the adjustment gains m and n, it is possible to adjust the contribution degree of the distance index and the contribution degree of the dispersion index in the appropriateness C.

次に、本実施の形態にかかる自己位置推定方法による動作の一例を説明する。図4は、本実施の形態にかかる自己位置推定方法による自律移動ロボット1の動作の一例を示すフローチャートである。なお、環境地図については、予め作成されているものとする。   Next, an example of the operation by the self-position estimation method according to this embodiment will be described. FIG. 4 is a flowchart showing an example of the operation of the autonomous mobile robot 1 by the self-position estimation method according to the present embodiment. It is assumed that the environmental map is created in advance.

図4に示される例では、ステップ100(S100)及びステップ101(S101)により、最適な視点の選出についての動作がなされ、その後、ステップ102(S102)で取得されたデータに基づいて、ステップ103(S103)及びステップ104(S104)により、自己位置推定処理を行う動作がなされる。以下、詳細に説明する。   In the example shown in FIG. 4, an operation for selecting an optimal viewpoint is performed in step 100 (S100) and step 101 (S101), and then, based on the data acquired in step 102 (S102), step 103 is performed. An operation of performing self-position estimation processing is performed by (S103) and step 104 (S104). Details will be described below.

ステップ100において、視点選択部131は、自己位置推定にもっとも好適な距離センサ視点を選出する。視点選択部131は、距離センサ11を動かし、視点パターンを変更し、視点パターン毎に好適度を計算し、好適度が一番大きくなる視点を選出する。なお、ステップ100の詳細については、図5を用いてさらに説明する。   In step 100, the viewpoint selecting unit 131 selects a distance sensor viewpoint that is most suitable for self-position estimation. The viewpoint selection unit 131 moves the distance sensor 11, changes the viewpoint pattern, calculates the appropriateness for each viewpoint pattern, and selects the viewpoint with the highest appropriateness. The details of step 100 will be further described with reference to FIG.

ステップ101において、次に、センサ移動制御部12が、ステップ100で選出された視点に距離センサ11を向けるよう距離センサ11の位置を変更する。   Next, in step 101, the sensor movement control unit 12 changes the position of the distance sensor 11 so that the distance sensor 11 is directed to the viewpoint selected in step 100.

ステップ102において、距離センサデータ取得部132が、ステップ101で設定された視点による距離センサデータを取得し、自己位置推定部133に出力する。   In step 102, the distance sensor data acquisition unit 132 acquires distance sensor data based on the viewpoint set in step 101, and outputs it to the self-position estimation unit 133.

ステップ103において、自己位置推定部133は、環境地図記憶部130に記憶された環境地図に示される点群と、ステップ102で取得された距離センサデータに示される点群をマッチングして、距離センサ11に固定された座標系における位置と、移動空間に固定された座標系(世界座標系)における位置との間の変換を行う三次元変換を求める。   In step 103, the self-position estimation unit 133 matches the point group shown in the environmental map stored in the environmental map storage unit 130 with the point group shown in the distance sensor data acquired in step 102, and the distance sensor 3D conversion is performed to perform conversion between the position in the coordinate system fixed to 11 and the position in the coordinate system (world coordinate system) fixed in the movement space.

ステップ104において、自己位置推定部133は、三次元変換により、環境地図上における自己位置を推定する。   In step 104, the self-position estimation unit 133 estimates the self-position on the environment map by three-dimensional conversion.

このように、本実施の形態にかかる自律移動ロボット1(自己位置推定装置)によれば、環境地図に示される点群と距離センサ11から得られた点群をマッチングして自己位置推定を行う自己位置推定方法であって、次のステップを含む方法が提供される。すなわち、距離センサ11の計測方向毎に、距離センサ11から取得される点群について、予め定められた指標に基づく好適度を算出するステップ(ステップ100)と、好適度が予め定められた基準を満たすような点群が取得される計測方向において距離センサ11から取得される点群を環境地図に示される点群とのマッチングに用いるステップ(ステップ103)とを含む自己位置推定方法が提供される。   As described above, according to the autonomous mobile robot 1 (self-position estimation apparatus) according to the present embodiment, the point group indicated by the environment map and the point group obtained from the distance sensor 11 are matched to perform self-position estimation. A self-position estimation method is provided that includes the following steps. That is, for each measurement direction of the distance sensor 11, for a point group acquired from the distance sensor 11, a step (step 100) for calculating the degree of preference based on a predetermined index and a criterion for which the degree of preference is predetermined There is provided a self-position estimation method including a step (step 103) of using a point cloud acquired from the distance sensor 11 for matching with a point cloud shown on the environment map in a measurement direction in which a satisfying point cloud is acquired. .

次に、上記ステップ100における動作の詳細について説明する。図5は、図4に示されるフローチャートのステップ100の動作の具体的な一例を示すフローチャートである。図5に示す例では、視点選択部131は、全ての視点パターンのうち、好適度Cが最大となる視点パターンを探し出すことにより、視点パターンを決定する。具体的には、以下の動作がなされる。   Next, details of the operation in step 100 will be described. FIG. 5 is a flowchart showing a specific example of the operation in step 100 of the flowchart shown in FIG. In the example illustrated in FIG. 5, the viewpoint selection unit 131 determines a viewpoint pattern by searching for a viewpoint pattern with the highest degree of suitability C among all viewpoint patterns. Specifically, the following operations are performed.

ステップ111(S111)において、視点選択部131は、距離センサ11から距離センサデータ(点群センサデータ)を取得する。   In step 111 (S111), the viewpoint selection unit 131 acquires distance sensor data (point cloud sensor data) from the distance sensor 11.

ステップ112(S112)において、視点選択部131は、ステップ111において取得された点群について好適度の値を計算し、計算結果を一時的にメモリ等に蓄積する。   In step 112 (S112), the viewpoint selection unit 131 calculates a suitableness value for the point group acquired in step 111, and temporarily stores the calculation result in a memory or the like.

ステップ113(S113)において、視点選択部131は、全ての視点パターンについて計測が完了したか否かを判定する。すなわち、全ての視点パターンについて好適度の値が計算された場合、処理はステップ115に移行し、全ての視点パターンについて好適度の値が計算されていない場合、処理はステップ114に移行する。   In step 113 (S113), the viewpoint selection unit 131 determines whether measurement has been completed for all viewpoint patterns. That is, when the appropriateness value is calculated for all viewpoint patterns, the process proceeds to step 115, and when the appropriateness value is not calculated for all viewpoint patterns, the process proceeds to step 114.

ステップ114(S114)において、視点選択部131は、好適度の値が算出されていない視点パターンへと変更するよう、センサ移動制御部12に指示する。これにより、距離センサ11の視点が動かされ、再び、処理はステップ111に戻る。   In step 114 (S114), the viewpoint selecting unit 131 instructs the sensor movement control unit 12 to change to a viewpoint pattern for which a value of the suitability is not calculated. Thereby, the viewpoint of the distance sensor 11 is moved, and the process returns to Step 111 again.

ステップ115(S115)において、視点選択部131は、全ての視点パターンに対する各好適度の値のうち最大値を求める。具体的には、視点選択部131は、ステップ112において蓄積された各値を比較して最大値を求める。   In step 115 (S115), the viewpoint selection unit 131 obtains the maximum value among the values of suitability for all viewpoint patterns. Specifically, the viewpoint selection unit 131 compares the values accumulated in step 112 to obtain the maximum value.

ステップ116(S116)において、視点選択部131は、好適度の値が最大となるセンサ視点を出力する。これにより、視点選択部131により視点の選択が完了する。   In step 116 (S116), the viewpoint selection unit 131 outputs the sensor viewpoint that maximizes the value of suitability. Thereby, the viewpoint selection unit 131 completes the selection of the viewpoint.

以上、実施の形態1について説明した。実施の形態1にかかる自己位置推定方法によれば、自己位置推定への好適度が一番大きい距離センサデータが選出される。このため、取得される距離センサデータのうち、変化した物体の割合が他よりも小さそうなデータを選んで、自己位置推定を行うことが可能となる。つまり、環境が、環境地図の作成時から変動している場合に、その変動による影響が小さいデータを選んで自己位置推定を行うことが可能となる。その結果、自己位置推定時の環境が地図作成時の環境から変動している場合において、自己位置推定の成功率又は精度が低下することを抑制することができる。なお、予め作成した環境地図と距離センサデータとを用いて、データの適正を判断する指標の計算を行うことも考えられるが、このような手法の場合、距離センサで計測する環境が変化した際に、環境地図とのマッチングがうまくいかない。これに対し、上記実施の形態にかかる自己位置推定方法によれば、距離センサデータのみから好適度の計算を行うため、複数の視点のうち環境の変化の小さそうな視点で得られたデータを選択でき、環境地図とうまくマッチングさせることが可能となる。   The first embodiment has been described above. According to the self-position estimation method according to the first embodiment, distance sensor data having the highest degree of suitability for self-position estimation is selected. For this reason, it is possible to perform self-position estimation by selecting data in which the ratio of the changed object is likely to be smaller than others among the acquired distance sensor data. That is, when the environment has changed since the creation of the environment map, it is possible to perform self-position estimation by selecting data that is less affected by the change. As a result, when the environment at the time of self-position estimation changes from the environment at the time of map creation, it can suppress that the success rate or precision of self-position estimation falls. It is also possible to calculate an index for judging the appropriateness of data using the environmental map and distance sensor data created in advance, but in such a method, when the environment measured by the distance sensor changes Also, matching with the environmental map does not work. On the other hand, according to the self-position estimation method according to the above embodiment, since the degree of suitability is calculated only from the distance sensor data, data obtained from a viewpoint that seems to have a small environmental change among a plurality of viewpoints. It can be selected and matched well with the environmental map.

また、好適度を自己位置推定の尤度の計算に使用することにより、推定した結果がどのくらい確からしいかという指標を上位処理系が知ることができ、以後の処理に利用することも可能となる。   In addition, by using the favorableness degree for the calculation of the likelihood of self-position estimation, the higher processing system can know an index of how probable the estimated result is, and it can be used for subsequent processing. .

実施の形態2
次に、実施の形態2について説明する。実施の形態1では、図5で示したように、視点選択部131は、好適度の値が最大となる視点パターンを選択する。これに対し、本実施の形態では、視点選択部131は、好適度の値が予め定められた閾値を超える視点パターンを選択する。本実施の形態は、この点において異なり、他については実施の形態1と同様であるため、異なる部分についてのみ説明し、重複する点については説明を省略する。
Embodiment 2
Next, a second embodiment will be described. In the first embodiment, as illustrated in FIG. 5, the viewpoint selection unit 131 selects a viewpoint pattern that maximizes the degree of suitability. On the other hand, in the present embodiment, the viewpoint selection unit 131 selects a viewpoint pattern whose suitability value exceeds a predetermined threshold value. The present embodiment is different in this point, and the other parts are the same as those in the first embodiment. Therefore, only different parts will be described, and description of overlapping points will be omitted.

図6は、図4に示されるフローチャートのステップ100の動作の具体的な他の一例を示すフローチャートである。図6に示す例では、視点選択部131は、好適度の値が予め定められた閾値を超える視点パターンを探し出すことにより、視点パターンを決定する。具体的には、以下の動作がなされる。   FIG. 6 is a flowchart showing another specific example of the operation in step 100 of the flowchart shown in FIG. In the example illustrated in FIG. 6, the viewpoint selection unit 131 determines a viewpoint pattern by searching for a viewpoint pattern whose suitability value exceeds a predetermined threshold. Specifically, the following operations are performed.

ステップ121(S121)において、図5のステップ111と同様、視点選択部131は、距離センサ11から距離センサデータ(点群センサデータ)を取得する。   In step 121 (S 121), the viewpoint selection unit 131 acquires distance sensor data (point cloud sensor data) from the distance sensor 11 as in step 111 of FIG.

ステップ122(S122)において、視点選択部131は、ステップ121において取得された点群について好適度の値を計算する。そして、ステップ123(S123)において、視点選択部131は、算出された値が、予め定められた閾値を超えるか否かを判定する。好適度の値が閾値を超える場合、処理はステップ127へ移行する。これに対し、好適度の値が閾値を超えない場合、処理はステップ124へ移行する。   In step 122 (S122), the viewpoint selection unit 131 calculates a value of the suitability for the point group acquired in step 121. In step 123 (S123), the viewpoint selection unit 131 determines whether the calculated value exceeds a predetermined threshold. If the preference value exceeds the threshold value, the process proceeds to step 127. On the other hand, if the preference value does not exceed the threshold value, the process proceeds to step 124.

ステップ124(S124)において、図5のステップ113と同様、視点選択部131は、全ての視点パターンについて計測が完了したか否かを判定する。全ての視点パターンについて好適度の値が計算された場合、処理はステップ125に移行し、全ての視点パターンについて好適度の値が計算されていない場合、処理はステップ126に移行する。   In step 124 (S124), similarly to step 113 in FIG. 5, the viewpoint selection unit 131 determines whether or not measurement has been completed for all viewpoint patterns. If the preference value has been calculated for all viewpoint patterns, the process proceeds to step 125, and if the preference value has not been calculated for all viewpoint patterns, the process proceeds to step 126.

ステップ125(S125)では、全ての視点パターンにおいて、好適度の値が閾値未満であったとして、視点選択部131は、処理の失敗を通知し、処理を終了する。これに対し、ステップ126(S126)では、図5のステップ114と同様、視点選択部131は、好適度の値が算出されていない視点パターンへと変更するよう、センサ移動制御部12に指示する。これにより、距離センサ11の視点が動かされ、再び、処理はステップ121に戻る。   In step 125 (S125), the viewpoint selection unit 131 notifies the failure of the process and ends the process, assuming that the value of the suitability is less than the threshold value in all viewpoint patterns. On the other hand, in step 126 (S126), as in step 114 of FIG. 5, the viewpoint selection unit 131 instructs the sensor movement control unit 12 to change to a viewpoint pattern for which the value of the suitability is not calculated. . As a result, the viewpoint of the distance sensor 11 is moved, and the process returns to step 121 again.

ステップ127(S127)において、ステップ123において、好適度の値が閾値を超えると判定された視点を出力する。これにより、視点選択部131により視点の選択が完了する。   In step 127 (S127), the viewpoint determined in step 123 that the value of the suitability exceeds the threshold value is output. Thereby, the viewpoint selection unit 131 completes the selection of the viewpoint.

本実施形態にかかる自己位置推定方法によれば、自己位置推定への好適度が所定の基準を満たす距離センサデータが選出される。このため、取得される距離センサデータのうち、変化した物体の割合が基準以下であるデータを選んで、自己位置推定を行うことが可能となる。その結果、自己位置推定時の環境が地図作成時の環境から変動している場合において、自己位置推定の成功率又は精度が低下することを抑制することができる。   According to the self-position estimation method according to the present embodiment, distance sensor data whose degree of suitability for self-position estimation satisfies a predetermined criterion is selected. For this reason, it is possible to perform self-position estimation by selecting data in which the ratio of the changed object is equal to or less than the reference from the acquired distance sensor data. As a result, when the environment at the time of self-position estimation changes from the environment at the time of map creation, it can suppress that the success rate or precision of self-position estimation falls.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記実施の形態では、環境地図に対して変化した物体の割合が小さくなるような好適度Cを例に挙げているが、その他にも様々な目的に応じて好適度を設定し、上記の実施形態と同様に自己位置推定に適用することができる。例えば、特定の範囲の距離の計測精度が他の範囲の距離の計測精度よりも良いという特性を距離センサ11が有している場合、距離センサ11で取得した点群の重心と距離センサ11との間の距離が、この特定の範囲に近いほど好適度の値が大きくなるように好適度を設定する、などといったことが考えられる。   Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention. For example, in the above-described embodiment, the degree of preference C is set as an example in which the ratio of the object that has changed with respect to the environmental map is reduced. However, the degree of preference is set according to various other purposes, It can be applied to self-position estimation as in the embodiment. For example, when the distance sensor 11 has a characteristic that the measurement accuracy of the distance in a specific range is better than the measurement accuracy of the distance in another range, the center of gravity of the point group acquired by the distance sensor 11 and the distance sensor 11 It is conceivable that the degree of preference is set so that the value of the degree of preference increases as the distance between the two is closer to the specific range.

1 自律移動ロボット
11 距離センサ
12 センサ移動制御部
13 制御装置
14 車輪
130 環境地図記憶部
131 視点選択部
132 距離センサデータ取得部
133 自己位置推定部
DESCRIPTION OF SYMBOLS 1 Autonomous mobile robot 11 Distance sensor 12 Sensor movement control part 13 Control apparatus 14 Wheel 130 Environmental map memory | storage part 131 Viewpoint selection part 132 Distance sensor data acquisition part 133 Self-position estimation part

Claims (1)

環境地図に示される点群と距離センサから得られた点群をマッチングして自己位置推定を行う自己位置推定方法であって、
前記距離センサの計測方向毎に、前記距離センサから取得される点群について、予め定められた指標に基づく好適度を算出し、
前記好適度が予め定められた基準を満たすような点群が取得される前記計測方向において前記距離センサから取得される点群を前記環境地図に示される点群とのマッチングに用いる
自己位置推定方法。
A self-position estimation method for performing self-position estimation by matching a point cloud shown on an environmental map and a point cloud obtained from a distance sensor,
For each measurement direction of the distance sensor, for a point group acquired from the distance sensor, calculate a degree of suitability based on a predetermined index,
Self-position estimation method using a point cloud acquired from the distance sensor in matching with a point cloud shown in the environmental map in the measurement direction in which a point cloud with which the degree of preference satisfies a predetermined criterion is acquired .
JP2016029765A 2016-02-19 2016-02-19 Self-position estimation method Pending JP2017146893A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016029765A JP2017146893A (en) 2016-02-19 2016-02-19 Self-position estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016029765A JP2017146893A (en) 2016-02-19 2016-02-19 Self-position estimation method

Publications (1)

Publication Number Publication Date
JP2017146893A true JP2017146893A (en) 2017-08-24

Family

ID=59681624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016029765A Pending JP2017146893A (en) 2016-02-19 2016-02-19 Self-position estimation method

Country Status (1)

Country Link
JP (1) JP2017146893A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019069921A1 (en) * 2017-10-04 2019-04-11 日本電産シンポ株式会社 Mobile body
WO2019194079A1 (en) * 2018-04-02 2019-10-10 日本電産株式会社 Position estimation system, moving body comprising said position estimation system, and computer program
JP2020030721A (en) * 2018-08-24 2020-02-27 株式会社ダイヘン Moving vehicle
CN112824994A (en) * 2019-11-15 2021-05-21 株式会社东芝 Position estimation device, position estimation method, and program
JP2021081851A (en) * 2019-11-15 2021-05-27 株式会社東芝 Location estimation device, location estimation method, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019069921A1 (en) * 2017-10-04 2019-04-11 日本電産シンポ株式会社 Mobile body
WO2019194079A1 (en) * 2018-04-02 2019-10-10 日本電産株式会社 Position estimation system, moving body comprising said position estimation system, and computer program
CN111971633A (en) * 2018-04-02 2020-11-20 日本电产株式会社 Position estimation system, mobile object having the same, and computer program
CN111971633B (en) * 2018-04-02 2023-10-20 日本电产株式会社 Position estimation system, mobile body having the position estimation system, and recording medium
JP2020030721A (en) * 2018-08-24 2020-02-27 株式会社ダイヘン Moving vehicle
JP7153505B2 (en) 2018-08-24 2022-10-14 株式会社ダイヘン moving body
CN112824994A (en) * 2019-11-15 2021-05-21 株式会社东芝 Position estimation device, position estimation method, and program
JP2021081851A (en) * 2019-11-15 2021-05-27 株式会社東芝 Location estimation device, location estimation method, and program
JP2021081850A (en) * 2019-11-15 2021-05-27 株式会社東芝 Location estimation device, location estimation method, and program
JP7199337B2 (en) 2019-11-15 2023-01-05 株式会社東芝 Position estimation device, position estimation method and program
US11662740B2 (en) 2019-11-15 2023-05-30 Kabushiki Kaisha Toshiba Position estimating apparatus, method for determining position of movable apparatus, and non-transitory computer readable medium

Similar Documents

Publication Publication Date Title
JP2017146893A (en) Self-position estimation method
US9995589B2 (en) Path plan generating apparatus for mobile body
US10127677B1 (en) Using observations from one or more robots to generate a spatio-temporal model that defines pose values for a plurality of objects in an environment
KR101776621B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
US10955852B2 (en) Navigation system based on slow feature gradients
EP3347171B1 (en) Using sensor-based observations of agents in an environment to estimate the pose of an object in the environment and to estimate an uncertainty measure for the pose
JP5782708B2 (en) Driving support device
KR101475826B1 (en) Leader-Follower Formation Device, Method and Mobile robot using Backstepping Method
US10013762B2 (en) Method and control unit for detecting a change of a relative yaw angle within a stereo-video system for a vehicle
JP6773471B2 (en) Autonomous mobile and environmental map updater
JP5817611B2 (en) Mobile robot
US20170151672A1 (en) Workpiece position/posture calculation system and handling system
JP6240595B2 (en) Self-position estimation apparatus and mobile body equipped with self-position estimation apparatus
JP2011054082A (en) Autonomous moving apparatus
KR101551701B1 (en) Method and Apparatus for Path Planning of Unmanned Ground Vehicle in Dynamic Environment
JP2015215651A (en) Robot and own position estimation method
JP2017043279A (en) Vehicle controller and travel path reliability determination method
KR20110097344A (en) Apparatus and method for double-updating in simultaneous localization and mapping for a mobile robot
CN108225271A (en) Method, system, storage medium and the equipment of detection are toppled over by a kind of robot
JP6765156B1 (en) Mobile control device, mobile control method, mobile control program and mobile control system
JP6438354B2 (en) Self-position estimation apparatus and mobile body equipped with self-position estimation apparatus
JP2017167974A (en) Estimation apparatus, method and program
JP2022011821A (en) Information processing device, information processing method and mobile robot
JP6260509B2 (en) robot
KR20230082885A (en) Performance evaluation methods and perfromace evaluation system for autonomous driving robot