JP2009223757A - Autonomous mobile body, control system, and self-position estimation method - Google Patents
Autonomous mobile body, control system, and self-position estimation method Download PDFInfo
- Publication number
- JP2009223757A JP2009223757A JP2008069289A JP2008069289A JP2009223757A JP 2009223757 A JP2009223757 A JP 2009223757A JP 2008069289 A JP2008069289 A JP 2008069289A JP 2008069289 A JP2008069289 A JP 2008069289A JP 2009223757 A JP2009223757 A JP 2009223757A
- Authority
- JP
- Japan
- Prior art keywords
- self
- mobile body
- autonomous mobile
- calculated
- laser beam
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000007613 environmental effect Effects 0.000 claims abstract description 30
- 239000000463 material Substances 0.000 claims abstract description 14
- 238000004364 calculation method Methods 0.000 claims description 26
- 238000005259 measurement Methods 0.000 claims description 24
- 230000001678 irradiating effect Effects 0.000 claims description 2
- 239000011521 glass Substances 0.000 abstract description 37
- 238000001579 optical reflectometry Methods 0.000 abstract 1
- 239000002245 particle Substances 0.000 description 59
- 238000012952 Resampling Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、特定の移動領域内において移動する自律移動体、その制御システム、自律移動体の制御などに用いる自己位置推定方法に関する。 The present invention relates to an autonomous mobile body that moves within a specific moving area, a control system for the autonomous mobile body, and a self-position estimation method used for controlling the autonomous mobile body.
近年、建物内部や屋外の限定された領域内を、周囲の環境情報に基づいて自律的に移動可能な自律移動型ロボット等の移動体が開発されつつある。このような移動体は、移動領域に関して予め記憶された移動マップ上において、現在の自己の位置から特定の目標地点までの移動経路を作成することで自律移動を可能とする。このため、一般的に、移動領域内における自己位置を認識する機能を備えている。 In recent years, mobile bodies such as autonomous mobile robots that can move autonomously within a limited area inside a building or outdoors based on surrounding environmental information are being developed. Such a moving body enables autonomous movement by creating a movement route from the current position to a specific target point on a movement map stored in advance with respect to the movement area. For this reason, generally, it has a function of recognizing its own position in the moving area.
このような自律移動体を制御するために、自律移動体に自己位置を認識させる技術として、例えば特許文献1及び2に記載の技術が知られている。特許文献1に開示された無人搬送車システムは、環境に設置された反射板をレーザレンジスキャナで計測することによって、無人搬送車の自己位置を推定するものである。反射板の設置された位置は既知であるため、計測した反射板の位置から、三角測量の原理により自己位置を算出することができる。
しかしながら、特許文献1記載の従来技術では、反射板を設置するために煩雑な作業が必要となり、自己位置推定のため大掛かりな設備工事が必要になるという問題がある。このため、大掛かりな設備工事を必要としないインフラレスの自己位置推定手法が求められている。
However, the conventional technique described in
インフラレスで自己位置を推定する手法としては、移動領域の地図情報と取得した環境情報との比較により自己位置を推定する手法が提案されている。例えば特許文献2に記載の自律移動装置は、レーザーレーダで取得した環境情報を地図情報と比較して、自己の位置を認識するものである。また、このような自己位置推定手法としては、グリッドマップを利用する手法が良く用いられている。グリッドマップは移動領域を模擬的に示す地図であり、マップ上には壁や障害物などの存在情報が登録されている(例えば、マップ上の所定のエリアが壁であるか否かを、0又は1のデジタル情報により登録している)。 As a method of estimating the self-location without infrastructure, a method of estimating the self-location by comparing the map information of the moving area and the acquired environment information has been proposed. For example, the autonomous mobile device described in Patent Document 2 recognizes its own position by comparing environmental information acquired by a laser radar with map information. As such a self-position estimation method, a method using a grid map is often used. The grid map is a map showing a moving region in a simulated manner, and presence information such as walls and obstacles is registered on the map (for example, whether or not a predetermined area on the map is a wall is 0). Or it is registered with one digital information).
グリッドマップを利用した自己位置推定方法では、実際の環境において自律移動体が計測したデータと、グリッドマップ上において仮想的に自律移動体が計測したデータとを比較することにより、自律移動体の実際の自己位置を推定する。自律移動体がレーザレンジファインダを備えている場合には、レーザレンジファインダにより取得したデータと、グリッドマップ上で仮想的に計測したデータとを比較することで、自律移動体の実際の自己位置を精度良く算出することができる。 In the self-location estimation method using the grid map, the actual data of the autonomous mobile body is compared by comparing the data measured by the autonomous mobile body in the actual environment with the data measured by the autonomous mobile body on the grid map. Estimate the self-position. If the autonomous mobile body is equipped with a laser range finder, the actual self-position of the autonomous mobile body can be determined by comparing the data acquired by the laser range finder with the data virtually measured on the grid map. It is possible to calculate with high accuracy.
しかし、レーザレンジファインダを用いた自己位置推定手法では、移動領域内にガラスなどの光学的に特殊な素材が存在する場合には、自己位置推定を正確に行うことができないという問題があった。レーザレンジファインダはレーザ光の反射により距離を計測するセンサであるため、レーザは、浅い入射角でガラスに入射すると全反射するが、正面など深い角度で入射するとガラスを通過してガラス自体を計測するという性質を持つ。従って、移動領域内にガラスなどの光学的に特殊な素材が存在する場合には、レーザの反射を考慮しないグリッドマップを用いては、自己位置推定を正確に行うことができないものであった。 However, the self-position estimation method using the laser range finder has a problem that self-position estimation cannot be performed accurately when an optically special material such as glass exists in the moving region. Since the laser range finder is a sensor that measures the distance by reflecting the laser beam, the laser totally reflects when it is incident on the glass at a shallow incident angle, but when it is incident at a deep angle such as the front, it passes through the glass and measures the glass itself. It has the property of doing. Therefore, when an optically special material such as glass is present in the moving region, self-position estimation cannot be performed accurately using a grid map that does not consider laser reflection.
図11を参照して具体的に説明する。図11(a)は、自律移動体10が実際の環境Pにおいてレーザにより環境情報を取得する様子を示す図であり、図11(b)は、図11(a)に示した状況に対応して、グリッドマップ20上においてレーザを仮想的に計測する様子を示す図である。図11(a)に示すように実際の環境Pでは、レーザはガラスG1で反射して自律移動体10の前方に存在する物体B1を計測するのに対して、図11(b)に示すようにグリッドマップ20上では、グリッドマップ20はガラスG1に関する情報を有していないため、レーザは直進して物体B1を計測することができない。即ち、グリッドマップ20上においてはレーザの反射を考慮していないため、グリッドマップ20上では物体B1までの距離を計測することができない。このため、図11(a)に示す実際の環境Pでは、レーザは角度θの方向に距離(d1+d2)を計測するが、図11(b)に示すグリッドマップ20上では、それとは全く異なる距離(d3)を計測してしまう。従って、互いの計測距離を比較した場合には、計測距離データが殆どマッチせずに、正確な自己位置推定結果を得ることができない。
This will be specifically described with reference to FIG. FIG. 11A is a diagram illustrating a state in which the autonomous
このように、レーザレンジファインダを用いた自己位置推定手法では、移動領域内にガラスなどの光学的に特殊な素材が存在する場合には、実際の環境において自律移動体が計測したデータと、グリッドマップ上において仮想的に自律移動体が計測したデータとを正確に比較することができず、自律移動体の自己位置推定を正確に行うことができないものであった。 As described above, in the self-position estimation method using the laser range finder, when an optically special material such as glass exists in the moving region, the data measured by the autonomous moving body in the actual environment and the grid It was impossible to accurately compare the data measured by the autonomous mobile body virtually on the map, and the self-position estimation of the autonomous mobile body could not be performed accurately.
本発明は、かかる課題を解決するためになされたものであり、自己位置推定の精度を向上させることが可能な自律移動体、自律移動体の制御システム、自己位置推定方法を提供することを目的とする。 The present invention has been made to solve such a problem, and an object thereof is to provide an autonomous mobile body, an autonomous mobile body control system, and a self-position estimation method capable of improving the accuracy of self-position estimation. And
本発明にかかる自律移動体は、移動領域に存在する物体の位置・形状を示す環境情報を取得するレーザレンジファインダを備え、前記移動領域に関する移動マップを用いて、前記レーザレンジファインダで取得した環境情報に基づいて自己位置を認識しつつ移動可能な自律移動体であって、前記移動マップが、前記物体の光反射率属性を示す情報を含むものである。 The autonomous mobile body according to the present invention includes a laser range finder that acquires environmental information indicating the position and shape of an object existing in a moving area, and uses the movement map related to the moving area to acquire the environment acquired by the laser range finder. An autonomous mobile body that can move while recognizing its own position based on information, wherein the movement map includes information indicating a light reflectance attribute of the object.
これにより、移動領域内にガラスなどの光学的に特殊な素材が存在する場合においても、物体の光反射率属性を示す情報を考慮して自己位置を推定することができるため、自律移動体の自己位置推定の精度を向上させることができる。 As a result, even when there is an optically special material such as glass in the moving area, the self-position can be estimated in consideration of the information indicating the light reflectance attribute of the object. The accuracy of self-position estimation can be improved.
また、前記レーザレンジファインダからレーザ光を照射し、前記照射したレーザ光の反射に基づいて環境情報を取得する取得部と、前記自律移動体の自己位置候補を算出する自己位置候補算出部と、前記取得した環境情報と前記算出した自己位置候補とに基づいて推定自己位置を認識する自己位置推定部とを備え、前記自己位置推定部が、前記移動マップ上において前記物体の光反射率属性を示す情報に基づいて前記レーザ光を仮想的に反射させ、前記仮想的に反射させたレーザ光と前記取得部で取得した環境情報とに基づいて、前記自己位置候補算出部により算出した自己位置候補を修正し、修正後の自己位置候補を推定自己位置として前記移動マップ上において認識するようにしてもよい。このように、移動マップ上において物体の光反射率属性を示す情報に基づいてレーザ光を反射させることで、実際の環境において自律移動体が取得したデータと、移動マップ上において仮想的に計測したデータとに基づいて、自律移動体の自己位置推定をより精度よく実行することができる。 In addition, an acquisition unit that irradiates laser light from the laser range finder, acquires environmental information based on reflection of the irradiated laser light, a self-position candidate calculation unit that calculates a self-position candidate of the autonomous mobile body, A self-position estimating unit that recognizes an estimated self-position based on the acquired environment information and the calculated self-position candidate, and the self-position estimating unit sets a light reflectance attribute of the object on the movement map. Self-position candidate calculated by the self-position candidate calculation unit based on the reflected laser light and the environment information acquired by the acquisition unit based on the reflected information And the corrected self-position candidate may be recognized on the movement map as the estimated self-position. Thus, by reflecting the laser beam based on the information indicating the light reflectance attribute of the object on the movement map, the data acquired by the autonomous mobile body in the actual environment and the virtual measurement on the movement map were performed. Based on the data, the self-position estimation of the autonomous mobile body can be executed with higher accuracy.
さらにまた、前記自己位置推定部が、前記移動マップ上において、前記自己位置候補算出部により算出した推定自己位置から前記物体に対して前記レーザ光を仮想的に描写し、前記描写したレーザ光の入射角度が所定の閾値以上である場合に、前記レーザ光を反射させ、前記仮想的に描写したレーザ光の計測距離と、前記取得部で取得したレーザ光の計測距離とに基づいて、前記自己位置候補算出部により算出した自己位置候補を修正し、修正後の自己位置候補を推定自己位置として前記移動マップ上において認識するようにしてもよい。このように、移動マップ上において入射角度が所定の閾値以上の場合にレーザ光を反射させることで、移動マップ上においてより正確にデータを計測することができ、自律移動体の自己位置推定をより精度よく実行することができる。 Furthermore, the self-position estimation unit virtually depicts the laser beam with respect to the object from the estimated self-position calculated by the self-position candidate calculation unit on the movement map, and When the incident angle is equal to or greater than a predetermined threshold, the laser beam is reflected, and the self-imaging is performed based on the laser beam measurement distance virtually depicted and the laser beam measurement distance acquired by the acquisition unit. The self-position candidate calculated by the position candidate calculation unit may be corrected, and the corrected self-position candidate may be recognized on the movement map as an estimated self-position. In this way, by reflecting the laser beam when the incident angle is greater than or equal to a predetermined threshold on the movement map, data can be measured more accurately on the movement map, and the self-position estimation of the autonomous mobile body can be performed more accurately. It can be executed with high accuracy.
また、前記所定の閾値が、前記物体の素材に応じて可変であるようにしてもよい。物体の素材に応じて閾値を変更することで、移動マップ上においてより精度良くデータを計測することができる。 The predetermined threshold value may be variable according to the material of the object. By changing the threshold value according to the material of the object, it is possible to measure the data more accurately on the movement map.
さらにまた、前記自己位置推定部が、前記仮想的に描写したレーザ光の計測距離と、前記取得部で取得したレーザ光の計測距離とに基づいて、前記自己位置候補算出部により算出した自己位置候補の重みを前記計測距離の相関値に応じて算出し、前記算出した重みに基づいて前記自己位置候補から推定自己位置を決定して前記移動マップ上において認識するようにしてもよい。このように、仮想的に描写したレーザ光の計測距離と、実際に取得したレーザ光の計測距離との相関値に応じて、推定自己位置を決定することで、自律移動体の自己位置推定を容易かつ精度よく実行することができる。 Furthermore, the self-position estimation unit calculates the self-position calculated by the self-position candidate calculation unit based on the virtually measured laser light measurement distance and the laser light measurement distance acquired by the acquisition unit. The weight of the candidate may be calculated according to the correlation value of the measured distance, and the estimated self position may be determined from the self position candidate based on the calculated weight and recognized on the movement map. As described above, the self-position estimation of the autonomous mobile object is performed by determining the estimated self-position according to the correlation value between the virtually measured laser light measurement distance and the actually obtained laser light measurement distance. It can be executed easily and accurately.
また、前記自己位置候補算出部が、前記自律移動体の移動した方向及び距離に基づいて自己位置候補を算出するようにしてもよい。自己位置候補算出部としては、いわゆるオドメトリ法などの自律移動体の移動方向及び距離に基づいて自己位置候補を算出するものであってもよい。このような外部からの信号を用いない自己位置算出方法によれば、障害物などに起因する、信号が得られない状況が低減するため、継続的な自律移動を良好に実行することができる。 The self-position candidate calculation unit may calculate a self-position candidate based on the direction and distance of movement of the autonomous mobile body. The self-position candidate calculation unit may calculate a self-position candidate based on the moving direction and distance of the autonomous mobile body such as a so-called odometry method. According to such a self-position calculation method that does not use a signal from the outside, the situation in which a signal cannot be obtained due to an obstacle or the like is reduced, so that continuous autonomous movement can be performed well.
さらにまた、前記移動マップが、前記移動領域内において略一定間隔に配置された格子点を結ぶグリッド線を仮想的に描写することで作成されるグリッドマップであるようにしてもよい。このようなグリッドマップを自律移動体の移動経路を判断するマップ情報として利用すると、自律移動体の位置を正確かつ容易に把握可能であるとともに、当該マップ上における移動経路を簡単に作成することができる。 Furthermore, the movement map may be a grid map created by virtually depicting grid lines connecting lattice points arranged at substantially constant intervals in the movement area. When such a grid map is used as map information for determining the movement path of an autonomous mobile body, the position of the autonomous mobile body can be grasped accurately and easily, and a movement path on the map can be easily created. it can.
本発明にかかる自律移動体の制御システムは、移動領域に存在する物体の位置・形状を示す環境情報を取得するレーザレンジファインダを備え、前記レーザレンジファインダからレーザ光を照射し、前記照射したレーザ光の反射に基づいて環境情報を取得する取得手段と、前記自律移動体の自己位置候補を算出する自己位置候補算出手段と、前記取得した環境情報と前記算出した自己位置候補とに基づいて推定自己位置を認識する自己位置推定手段とを備え、前記移動領域に関する移動マップを用いて、前記取得手段で取得した環境情報に基づいて自己位置を認識しつつ移動可能な自律移動体の制御システムであって、前記自己位置推定手段が、前記移動マップ上において前記物体の光反射率属性を示す情報に基づいて前記レーザ光を仮想的に反射させ、前記取得手段で取得した環境情報に基づいて、前記自己位置候補算出手段により算出した自己位置候補を修正し、修正後の自己位置候補を推定自己位置として前記移動マップ上において認識するものである。 An autonomous mobile body control system according to the present invention includes a laser range finder that acquires environmental information indicating the position and shape of an object existing in a moving region, irradiates a laser beam from the laser range finder, and the irradiated laser. Estimation based on acquisition means for acquiring environment information based on reflection of light, self-position candidate calculation means for calculating a self-position candidate of the autonomous mobile body, the acquired environment information and the calculated self-position candidate A self-position estimating means for recognizing the self-position, and using a movement map related to the movement area, an autonomous mobile body control system capable of moving while recognizing the self-position based on the environmental information acquired by the acquisition means And the self-position estimation means virtually transmits the laser beam based on information indicating a light reflectance attribute of the object on the movement map. Reflecting and correcting the self-position candidate calculated by the self-position candidate calculation means based on the environment information acquired by the acquisition means and recognizing the corrected self-position candidate as the estimated self-position on the movement map It is.
本発明にかかる自己位置推定方法は、移動領域に存在する物体の位置・形状を示す環境情報を取得するレーザレンジファインダを備えた自律移動体において、前記移動領域に関する移動マップを用いて、前記レーザレンジファインダで取得した環境情報に基づいて前記自律移動体の自己位置を認識する自己位置推定方法であって、前記移動マップが、前記物体の光反射率属性を示す情報を含むものである。 The self-position estimation method according to the present invention is an autonomous mobile body including a laser range finder that acquires environmental information indicating the position and shape of an object existing in a moving area, and uses the movement map related to the moving area to A self-position estimation method for recognizing the self-position of the autonomous mobile body based on environmental information acquired by a range finder, wherein the movement map includes information indicating a light reflectance attribute of the object.
本発明によれば、移動領域内にガラスなどの光学的に特殊な素材が存在する場合においても、自律移動体の自己位置推定の精度を向上させることが可能な自律移動体、自律移動体の制御システム、自己位置推定方法を提供することを目的とする。 According to the present invention, even when an optically special material such as glass is present in the moving region, the autonomous moving body capable of improving the self-position estimation accuracy of the autonomous moving body, It is an object to provide a control system and a self-position estimation method.
発明の実施の形態1.
本実施の形態1に係る自律移動体は、移動領域に存在する物体の位置・形状を示す環境情報を取得するレーザレンジファインダを備えており、移動領域に関する移動マップを用いて、レーザレンジファインダで取得した環境情報に基づいて自己位置を認識しつつ移動可能な自律移動体である。ここで、本実施の形態1に係る自律移動体は、物体の光反射率属性を示す情報を移動マップに含むことを特徴とする。
The autonomous mobile body according to the first embodiment includes a laser range finder that acquires environmental information indicating the position and shape of an object existing in the moving area. It is an autonomous mobile body that can move while recognizing its own position based on the acquired environmental information. Here, the autonomous moving body according to the first embodiment is characterized in that the movement map includes information indicating the light reflectance attribute of the object.
以下に、図面を参照しながら本発明の実施の形態1に係る自律移動体について説明する。本実施の形態1においては、自律移動体は、1対の車輪を駆動することで平面上を自律的に移動する車輪駆動型である例を示すものとする。
The autonomous mobile body according to
図1は、床部1上の限られた移動領域P(破線に囲まれた領域)内を、車両型の自律移動体10が移動する一実施形態を概略的に示すものである。図1においては、床部1上の移動領域P内には特に物体が載置されていない状態を示すものとし、自律移動体10が移動領域P内を任意に移動することができるものとする。
FIG. 1 schematically shows an embodiment in which a vehicle-type autonomous
図2に示すように、自律移動体10は、箱型の移動体本体10aと、1対の対向する車輪11、11と、キャスタ12を備える対向2輪型の移動体であり、これらの車輪11、11、キャスタ12とで移動体本体10aを水平に支持するものである。さらに、移動体本体10aの内部には、車輪11、11をそれぞれ駆動する駆動部(モータ)13、13と、車輪の回転数を検出するためのカウンタ14と、車輪を駆動するための制御信号を作成し、駆動部13、13にその制御信号を送信する演算部15、及びこれらの構成要素に電力を供給するためのバッテリー16が備えられている。そして、演算部15内部に備えられた記憶部としてのメモリなどの記憶領域15aには、制御信号に基づいて自律移動体10の移動速度や移動方向、移動距離などを制御するためのプログラムとともに、マップ情報Pの形状及び大きさが記憶されている。
As shown in FIG. 2, the autonomous
さらに、移動体本体10aの前面には、移動する方向(前方)の環境情報を認識するためのレーザレンジファインダ17や、同じく環境情報を認識するための超音波センサ18を備えている。尚、このレーザレンジファインダ17と超音波センサ18は、その取り付け位置がほぼ同じ位置になるように構成されているが、図面上では便宜上異なる位置に取り付けられているように描写するものとする。
Further, a
レーザレンジファインダ17は、詳細な構造については省略するが、移動体本体10aの前方に対して所定の広がり角度でレーザ光を照射するための光源と、光源より照射されたレーザ光の反射光を受光するための受光部とを備えている。そして、レーザ光の照射した角度と、反射するまでに要した時間に基づいて、レーザ光の反射した物体の位置を検出する、いわゆるTOF(Time of flight)の原理による物体検知(センシング)が行われる。尚、レーザレンジファインダ17により環境情報(センシングされる物体の位置及び形状)を得る手順の詳細については後述する。
Although the detailed structure of the
超音波センサ18は、移動体本体10aの前方について所定の広がり角度で同時に超音波を照射する超音波照射部と、照射された超音波の反射を受信する受信部とを備えている。そして、受信した超音波の強度に基づいて、超音波を照射した領域に存在する物体の大まかな位置及び形状をセンシングする。
The
また、自律移動体10は、自己の位置を取得するための自己位置取得部を備えている。この自己位置取得部は、前述したカウンタ14及び演算部15とから構成される。すなわち、カウンタ14で検知された車輪11、11の回転数を演算部15において積算することで、自律移動体10の移動した速度や距離などの情報を求め、これらの情報から、移動領域内における自律移動体10の自己位置(オドメトリ位置)を算出する。
Moreover, the autonomous
そして、これらの自己位置取得部より得られた自己位置候補としての位置情報は、後述するレーザレンジファンダ17により得られる環境情報に基づいて適宜修正される。尚、この位置情報を修正する手法の詳細については後述する。
And the positional information as a self-position candidate obtained from these self-position acquisition parts is suitably corrected based on environment information obtained by a
このように構成された自律移動体10は、1対の車輪11、11の駆動量をそれぞれ独立に制御することで、直進や曲線移動(旋回)、後退、その場回転(両車輪の中点を中心とした旋回)などの移動動作を行うことができる。そして、自律移動体10は、移動場所を指定する外部に設けられたサーバ等(図示せず)からの指令にしたがって、移動領域P内の指定された目的地までの移動経路を自律的に作成し、その移動経路に追従するように移動することで、目的地に到達する。
The autonomous
次に、記憶領域15aの内部に記憶された、移動領域Pの形状や、その内部に含まれる物体(壁などの障害物)に基づいて作成される移動マップとしてのグリッドマップについて説明する。演算部15内部に備えられた記憶領域15aには、床部1上の移動領域P全体の形状を外枠として、その内部に略一定間隔m(例えば10cm)に配置された格子点を結ぶグリッド線を仮想的に描写することで得られるグリッドマップが記憶されている。
Next, a grid map as a movement map created based on the shape of the movement area P stored in the
図3に、前述のグリッドマップの一例を図示する。グリッドマップ20は、マップ情報Pの形状を模した外枠21の内部を、略一定間隔mに配置された格子点を結ぶグリッド線22を描写したものである。そして、このグリッド線22で囲まれたグリッド単位23を用いて、自律移動体10の自己位置に相当する場所、及び目的地である移動終了点、及び移動終了点における自律移動体10の移動方向が特定される。尚、間隔mは、自律移動体10の移動可能な曲率や絶対位置を認識する精度などの条件に応じて、適宜変更可能であり、スリップしたと判定される際の閾値としても用いることができる。また、移動領域P内において、壁や障害物等の固定物体が存在していることが既知である場合は、それらの既知の物体の位置が予めグリッドマップ20上に登録された形で記憶領域15aに記憶されているものとする。
FIG. 3 illustrates an example of the grid map described above. The
そして、グリッドマップ20上における各グリッド単位に相当する位置の状態は、壁(すなわち障害物)を示す評価値と、物体の光反射率属性を示す情報とを用いて表現する。前記グリッド単位が壁(すなわち障害物)であることを示す評価値wall_LRFは、壁である場合には1、壁でない場合は0の値をとる。前記グリッド単位における物体の光反射率属性を示す情報は、前記物体がガラスなどの光学的に特殊な素材を示す評価値と、前記物体の配置された向きを示す角度を含む。前記物体がガラスである場合に、そのグリッド単位における物体がガラスであることを示す評価値glass_LRFは、ガラスである場合には1、ガラスでない場合には0の値をとる。また、前記物体がガラスである場合に、そのグリッド単位におけるガラスの配置された向きを示す角度[deg]は、ガラス面の向きを示すα[deg]の値をとる。尚、このようなグリッド単位の評価値は、自律移動体10がレーザレンジファインダ17によりセンシングした結果、グリッドマップに記憶するようにしてもよいし、予めユーザにより登録するようにしてもよい。
The state of the position corresponding to each grid unit on the
また、演算部15は、グリッドマップ20上において特定された自己位置を移動始点とし、この移動始点から目的地である移動終点までの移動経路を作成することができる。さらに自律移動体10は、前述のように自己位置をリアルタイムに求めつつ(例えば10[msec]毎にマップ情報上における自己の位置情報を取得)、作成された移動経路に沿って移動を行う。詳細には、図4に示すように、自律移動体10は移動始点Q0を認識し、この移動始点から目的とする移動終点Qnまでの移動経路を、所定の間隔で中間点Q1,Q2,・・・をグリッドマップ20上に定め、これらの中間点をつなぎ合わせることでグリッドマップ20上に移動経路を作成する。この移動経路の特定手法の詳細については説明を省略するが、マップ情報上に追加された障害物の位置等を考慮した上で、現在位置から目的地点までの新たな移動経路を作成する等の手法が好適に用いられる。
In addition, the
次に、前述したレーザレンジファインダ17を用いて自律移動体10の前面の環境情報を取得する手法について、詳細に説明する。
Next, a method for acquiring environmental information on the front surface of the autonomous
まず、自律移動体10は、その前面に対してレーザ光Lを照射し、自律移動体10から所定距離内に位置するセンシング領域S1に存在する、レーザ光Lを反射した物体の位置SP(センシングポイント)を検出する。具体的には、本実施の形態1におけるレーザレンジファインダ17は、所定の広がり角度で発せられ、自律移動体10から所定の距離Lの領域を計測可能範囲とする。即ち、レーザレンジファインダ17から照射されたレーザ光Lの反射光が受光されると、レーザ光Lを照射したときの自律移動体10の自己位置と、レーザレンジファインダ17から照射されるレーザ光の照射方向と、レーザ光の照射から反射光を受光するまでの時間とから、照射したレーザ光が反射した地点が特定される。
First, the autonomous
レーザレンジファインダ17によって計測されるデータは、レーザ中心からの距離d及びレーザの照射方向の角度φにより規定される極座標系として出力される。自律移動体10の進行方向前方180度を計測する際の分解能を1.0度とした場合には、一度のスキャンにより181個のデータを計測する。このようなレーザレンジファインダ17によるセンシング結果が記憶部15aに記憶される。
Data measured by the
図5は、移動領域内Pにおいて、自律移動体10の前面に壁W1が設けられている様子を示している。図5に示すように、自律移動体10はその前面にレーザレンジファインダ17からレーザ光を照射している。このとき、レーザレンジファインダ17のセンシング領域内には壁W1が含まれている。このような場合、レーザレンジファインダ17によりセンシングされた壁W1までの距離が記憶される。
FIG. 5 shows a state where a wall W <b> 1 is provided in front of the autonomous
次に、図6乃至10を参照して、レーザレンジファインダにより取得した環境情報を用いて、オドメトリ法により算出した自己位置候補の中から現時点の自己位置を推定する手法について説明する。本実施の形態1では、自己位置推定方法としてMCL(Monte Carlo Localization)と呼ばれる手法を採用する。これは、ロボットの存在位置の確率表現を、パーティクルと呼ばれる位置候補点により表現する手法である。図6は、MCLを用いた自己位置推定手法の概要を表すフローチャートである。 Next, with reference to FIGS. 6 to 10, a method for estimating the current self-position from among self-position candidates calculated by the odometry method using the environment information acquired by the laser range finder will be described. In the first embodiment, a method called MCL (Monte Carlo Localization) is adopted as a self-position estimation method. This is a technique for expressing the probability expression of the position of the robot using position candidate points called particles. FIG. 6 is a flowchart showing an outline of a self-position estimation method using MCL.
まず、移動領域内において移動を開始した自律移動体10は、移動を開始する地点のグリッドマップ20上における自己位置を認識し、予め記憶したグリッドマップ20上に記憶する(ステップS101)。
First, the autonomous
その後、移動体本体10aに設けられた車輪を駆動することにより移動を継続しつつ、オドメトリ情報による自己位置候補を算出する(ステップS102)。具体的には、まず、自律移動体10の車輪の回転角度から、その移動量を算出する。ここで、自律移動体10の移動量dX=(dx,dy,dθ)は、車輪の回転角度をエンコーダにより取得し、順運動学を解くことにより簡単に算出することができる。そして、オドメトリ情報により、位置情報としての複数のパーティクル位置を抽出する。そして、自律移動体10の移動量に関するノイズを考慮して、各パーティクル位置を移動させる。即ち、算出したロボットの移動量に対して、ノイズを加味したものをパーティクルに与えることによって移動させる。ここで、パーティクル位置は、自律移動体10の自己位置の候補点として表される。このように移動させた複数のパーティクルEPは、例えば図7に示すように、自律移動体10の周囲に分布して、ある程度のばらつきを有する離散変数の集合としての座標点で表される。
Thereafter, the self-position candidate based on the odometry information is calculated while continuing to move by driving the wheel provided on the moving
そして、自律移動体10が移動を継続する一方で、レーザレンジファインダ17により環境情報を取得する(ステップS103)。移動領域内に存在する物体に対して、レーザ中心からの距離dと、そのときのレーザの照射方向の角度φとが取得され、これらd及びφとが関連付けられて環境情報として記憶される。
And while the autonomous
そして、レーザレンジファインダ17により取得した環境情報に基づいて、制御コンピュータとしての演算部15は、各パーティクルの重みを決定する(ステップS104)。即ち、その位置における自己位置となりうる確率を各々求める。以下、図8及び9を参照して、パーティクルの重みを決定する方法について詳細に説明する。図8は、パーティクルの重み決定処理を表すフローチャートである。
Then, based on the environment information acquired by the
まず、制御コンピュータ15は、グリッドマップ20上において、各パーティクル位置から、レーザレンジファインダ17の計測方向に沿って直線を延ばす(ステップS201)。即ち、グリッドマップ20上において、各パーティクル位置から、レーザレンジファインダ17のレーザ光を仮想的に描写する。尚、前記直線は、レーザレンジファインダ17の計測方向に沿って所定の距離単位で延長させてゆく。例えば図9(a)に示すように、グリッドマップ20上において、パーティクル位置part_1から、レーザレンジファインダ17の計測方向L_D1に沿って、所定の距離単位d0ごとに直線を延長してゆく。
First, the
そして、制御コンピュータ15は、レーザレンジファインダ17の計測方向に沿って直線を延長させつつ、その直線上において、パーティクルから所定の距離離れた点のグリッド単位について、そのグリッド単位がガラスであるか否かを判定する(ステップS202)。判定の結果、ガラスでない場合には、ステップS207へと進む。
Then, the
一方、判定の結果、そのグリッド単位がガラスである場合(即ち、仮想的に描写したレーザ光が、ガラスであると記録されたグリッド単位に遭遇した場合)には、制御コンピュータ15は、そのグリッド単位に記録されているガラス面の向きαを読み出す(ステップS203)。
On the other hand, as a result of the determination, if the grid unit is glass (that is, if the virtually drawn laser beam encounters a grid unit recorded as glass), the
そして、制御コンピュータ15は、自律移動体10から照射されたレーザ光の角度をβとして、ガラス面の向きαとレーザ光の角度βとを比較して、ガラス面に対するレーザ光の入射角度を計算する(ステップS204)。角度α及びβは、所定の基準座標からの角度であり、例えば図9(b)においては、パーティクル位置part_1からガラスのグリッド単位Gに向かう方向を基準として、当該方向とガラスのグリッド単位Gとのなす角度をαとし、当該方向とレーザ光のなす角度をβとしている。
Then, the
そして、制御コンピュータ15は、ガラス面の向きαとレーザ光の角度βとがなす角度(即ち入射角度)が所定の閾値以上であるか否かを判定する(ステップS205)。入射角度が所定の閾値より小さい場合には、レーザ光は全反射しない角度であるものと判定して、ガラスのグリッド単位を壁のグリッド単位を計測したものとして扱う。
Then, the
一方、入射角度が所定の閾値以上である場合には、ガラス面に対する入射角度は浅いものであると判定して、レーザ光の方向を反射させるように変更する(ステップS206)。例えば図9(b)に示すように、パーティクル位置part_1から延長した直線を、ガラスのグリッド単位Gで反射させ、その方向L_D1を反射後の方向L_D1_Rへと変更して、再び延長させる。尚、入射角度に関する所定の閾値は、物体の素材に応じて適宜調整するようにしてもよい。即ち、各グリッド単位それぞれに、素材に応じた閾値を設定することで、グリッドマップ上においてより精度良く反射を再現することができる。 On the other hand, if the incident angle is equal to or greater than the predetermined threshold, it is determined that the incident angle with respect to the glass surface is shallow, and the laser beam direction is changed to reflect (step S206). For example, as shown in FIG. 9B, the straight line extended from the particle position part_1 is reflected by the glass grid unit G, the direction L_D1 is changed to the reflected direction L_D1_R, and extended again. Note that the predetermined threshold regarding the incident angle may be appropriately adjusted according to the material of the object. That is, by setting a threshold corresponding to the material for each grid unit, reflection can be reproduced more accurately on the grid map.
このように、パーティクル位置からレーザレンジファインダ17の計測方向に沿って直線を延ばす過程において、ガラスを示すグリッド単位に遭遇した場合には、その光反射率情報と直線の角度情報とに基づいて、その直線を反射させる。そして、制御コンピュータ15は、延長させた直線が壁に到達したか否かを判定する(ステップS207)。判定の結果、壁に到達していない場合には、ステップS201へと戻り、更に直線を延長させる。
Thus, in the process of extending a straight line along the measurement direction of the
尚、前記所定の距離単位で直線を延長させた結果、直線が壁に到達した場合には、壁に到達する直前のグリッド単位まで戻って、より細かい距離単位で同様の調査を行うようにしてもよい。即ち、前記直前のグリッド単位から、より細かい距離単位離れたグリッド単位が壁か否かを判定してゆくようにしてもよい。このように、パーティクル位置から徐々に離れていった点が、壁に到達しているか否かをより詳細な距離単位で調べていく。これにより、壁までの距離をより精度良く計測することができる。例えば図9(a)に示すように、パーティクル位置part_1から、レーザレンジファインダ17の計測方向L_D1に沿って、所定の距離単位d0で直線を延長した後、壁Wに到達した場合には、より細かい距離単位d1で再び直線を延長させてゆくものである。
As a result of extending the straight line by the predetermined distance unit, when the straight line reaches the wall, return to the grid unit immediately before reaching the wall and perform the same investigation in a finer distance unit. Also good. In other words, it may be determined whether or not a grid unit that is separated by a finer distance unit from the immediately preceding grid unit is a wall. In this way, it is examined in more detailed distance units whether or not the point gradually moving away from the particle position has reached the wall. Thereby, the distance to the wall can be measured with higher accuracy. For example, as shown in FIG. 9A, when a straight line is extended by a predetermined distance unit d0 from the particle position part_1 along the measurement direction L_D1 of the
一方、直線が壁に到達した場合には、制御コンピュータ15は、その直線の距離をパーティクル位置の計測距離dとする(ステップS208)。そして、制御コンピュータ15は、以下の数1に示す計測モデルを用いて、ある照射角度における、パーティクルの距離データ間の相関値を計算する(ステップS209)。ここで、P(dk)は、k番目のレーザ光の照射角度φにおける、グリッドマップ20上における計測距離dkとレーザレンジファインダ17により実際に計測された距離zkとの相関値を示す。また、数1に示す計測モデルはセンサモデルとも呼ばれ、数1は、レーザ光のある照射角度における距離データdkが、距離データzkを平均とする正規分布に従うことを意味する。
さらに、制御コンピュータ15は、パーティクル位置から、全てのレーザ光の照射角度について、パーティクルの距離データ間の相関値を計算する(即ち、ステップS210における判定条件を満足するまでの間、ステップS201乃至209における処理を繰り返す)。
Further, the
制御コンピュータ15は、全ての照射角度について距離データ間の相関値を計算した後(即ち、距離データ間の相関値を181個全ての距離データ間について算出した後)、全てのパーティクルについて、その重みを計算する(ステップS211)。まず、制御コンピュータ15は、以下の数2を用いて、各パーティクルについて、各照射角度の距離データ間の相関値P(dk)を全て乗算する。ここで、wi'は、i番目のパーティクルの仮の重みを示す。
更に、制御コンピュータ15は、全てのパーティクルについてそれぞれ仮の重みwi'を計算した後、以下の数3を用いて、各パーティクルの重みwiを計算する。ここで、i番目のパーティクルの仮の重みwi'の値は、全てのパーティクルの仮の重みwi'の総和により正規化される。尚、Nはパーティクルの個数を示す。
このようにして、制御コンピュータ15は、グリッドマップ20上において、各パーティクルについて計測した距離データと、自律移動体10がレーザレンジファインダ17により実際に計測した距離データとに基づいて、各パーティクルの重みを決定する。
In this way, the
図6に戻り説明を続ける。次に、制御コンピュータ15は、最も大きな重みを持つパーティクル位置を、自律移動体10の推定自己位置として認識する(ステップS105)。そして、推定自己位置として認識したパーティクル位置の座標を、自己位置としてグリッドマップ20上に記憶する(ステップS106)。
Returning to FIG. Next, the
更に、制御コンピュータ15は、決定したパーティクル位置の重みに基づいて、パーティクル位置のリサンプリングを実行する(ステップS107)。具体的には、リサンプリングの実行は、例えば図10に示すような、各パーティクル位置の重みの累積和に基づいて実行することができる。まず、制御コンピュータ15は、0〜1の間でランダムな値を計算する。そして、計算されたそのランダム値に対応するパーティクル位置を、新たなパーティクル位置として引き継ぐものとする。例えば、ランダムな値が0.15であった場合には、図10に照らし合わせると5番目のパーティクル位置part_5が該当するため、そのパーティクルの位置(x,y,θ)を引き継ぐ。このリサンプリング処理を、パーティクル位置の個数分繰り返して、新しいパーティクル群を作成する。このような手法によれば、重みが大きなパーティクル位置ほど選択され易い構成となっているため、パーティクル位置の重みに応じて容易にリサンプリングを実行することができる。尚、図10では、例えば、1番目のパーティクル位置part_1の重みが0.04、2番目のパーティクル位置part_2の重みが0.03、3番目のパーティクル位置part_3の重みが0.01、4番目のパーティクル位置part_4の重みが0.05、5番目のパーティクル位置part_1の重みが0.07、・・・であるものとし、これらパーティクル位置の重みの総和は1である。
Further, the
そして、制御コンピュータ15は、ステップS108に進んで移動を終了するか否かを判断した後、移動を継続する場合はステップS102に戻って再度オドメトリ法に基づくパーティクル位置を求める。また、ステップS108において移動を終了させると判断した場合は、移動停止処理を行った後、次の指令を受けるまで待機する。
Then, the
このように、オドメトリ法により算出された自己位置の候補地点にパーティクルフィルタ処理を施す際に、ガラスなどの光学的に特殊な素材の光反射率属性情報を用いて、レーザ光の反射を仮想的に描写しながら自己位置推定を実施する。グリッドマップ20上においてパーティクル位置からレーザ光を延ばしたときに、途中のグリッド単位がガラスとして記録されており、かつ、レーザ光の入射角度とそのガラス面とのなす角度が閾値以上である場合には(入射角度が浅い場合には)、レーザ光を反射させて実際のレーザの原理を仮想的に再現することで、自己位置推定精度を向上させることができる。
As described above, when performing the particle filter processing on the candidate point of the self-position calculated by the odometry method, the reflection of the laser beam is virtually controlled using the light reflectance attribute information of the optically special material such as glass. The self-position estimation is performed while depicting When the laser beam is extended from the particle position on the
その他の実施の形態.
上述した実施の形態においては、自律移動体を平面上を自律的に移動する車輪駆動型の移動体であるものとしたが、本発明は、脚型の移動体でも適用可能である。
Other embodiments.
In the above-described embodiment, the autonomous mobile body is a wheel-driven mobile body that autonomously moves on a plane, but the present invention can also be applied to a leg-type mobile body.
尚、本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。 It should be noted that the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention already described.
1 床部、10 自律移動体、10a 移動体本体、
11 車輪、12 キャスタ、13 駆動部、14 カウンタ、
15 制御コンピュータ(演算部)、15a 記憶領域(記憶部)、16 バッテリー、
17 レーザレンジファインダ、18 超音波センサ、
20 グリッドマップ、21 外枠、22 グリッド線、
P 移動領域、S1 センシング領域、SP センシングポイント、
W 壁、G ガラス、B 物体、EP パーティクル位置
1 floor, 10 autonomous mobile body, 10a mobile body,
11 wheels, 12 casters, 13 drive units, 14 counters,
15 control computer (arithmetic unit), 15a storage area (storage unit), 16 battery,
17 Laser range finder, 18 Ultrasonic sensor,
20 grid map, 21 outer frame, 22 grid lines,
P movement area, S1 sensing area, SP sensing point,
W wall, G glass, B object, EP particle position
Claims (16)
前記移動マップが、前記物体の光反射率属性を示す情報を含む
ことを特徴とする自律移動体。 A laser range finder that acquires environmental information indicating the position and shape of an object present in the moving area is provided, and the self-position is recognized based on the environmental information acquired by the laser range finder using a moving map related to the moving area. An autonomous mobile body that can move while
The autonomous moving body, wherein the movement map includes information indicating a light reflectance attribute of the object.
前記自己位置推定部が、前記移動マップ上において前記物体の光反射率属性を示す情報に基づいて前記レーザ光を仮想的に反射させ、前記仮想的に反射させたレーザ光と前記取得部で取得した環境情報とに基づいて、前記自己位置候補算出部により算出した自己位置候補を修正し、修正後の自己位置候補を推定自己位置として前記移動マップ上において認識する
ことを特徴とする請求項1記載の自律移動体。 An acquisition unit that irradiates laser light from the laser range finder and acquires environmental information based on reflection of the irradiated laser light, a self-position candidate calculation unit that calculates a self-position candidate of the autonomous mobile body, and the acquisition A self-position estimation unit that recognizes an estimated self-position based on the environmental information and the calculated self-position candidate,
The self-position estimation unit virtually reflects the laser beam based on information indicating the light reflectance attribute of the object on the movement map, and is acquired by the virtually reflected laser beam and the acquisition unit. The self-position candidate calculated by the self-position candidate calculation unit is corrected based on the environmental information, and the corrected self-position candidate is recognized on the movement map as an estimated self-position. The autonomous mobile body described.
ことを特徴とする請求項2記載の自律移動体。 The self-position estimation unit virtually depicts the laser light with respect to the object from the estimated self-position calculated by the self-position candidate calculation unit on the movement map, and the incident angle of the depicted laser light is The self-position candidate calculation based on the measured distance of the laser beam virtually reflected and the measured distance of the laser beam acquired by the acquisition unit when the laser beam is reflected when the predetermined threshold value is exceeded The autonomous mobile body according to claim 2, wherein the self-position candidate calculated by the unit is corrected, and the corrected self-position candidate is recognized on the movement map as an estimated self-position.
ことを特徴とする請求項3記載の自律移動体。 The autonomous mobile body according to claim 3, wherein the predetermined threshold is variable according to a material of the object.
ことを特徴とする請求項2記載の自律移動体。 The self-position estimation unit calculates the weight of the self-position candidate calculated by the self-position candidate calculation unit based on the virtually measured laser light measurement distance and the laser light measurement distance acquired by the acquisition unit. The autonomous system according to claim 2, wherein a self-position is calculated from the self-position candidate based on the calculated weight and recognized on the movement map. Moving body.
ことを特徴とする請求項2記載の自律移動体。 The autonomous mobile body according to claim 2, wherein the self-position candidate calculation unit calculates a self-position candidate based on a direction and a distance traveled by the autonomous mobile body.
ことを特徴とする請求項1乃至6いずれか1項記載の自律移動体。 7. The grid map created by virtually depicting grid lines connecting lattice points arranged at substantially constant intervals in the movement region. 7. The autonomous mobile body according to item 1.
前記自己位置推定手段が、前記移動マップ上において前記物体の光反射率属性を示す情報に基づいて前記レーザ光を仮想的に反射させ、前記仮想的に反射させたレーザ光と前記取得手段で取得した環境情報とに基づいて、前記自己位置候補算出手段により算出した自己位置候補を修正し、修正後の自己位置候補を推定自己位置として前記移動マップ上において認識する
ことを特徴とする自律移動体の制御システム。 A laser range finder that acquires environmental information indicating the position and shape of an object existing in a moving region is provided, and laser light is emitted from the laser range finder, and environmental information is acquired based on reflection of the irradiated laser light. Means, self-position candidate calculation means for calculating a self-position candidate for the autonomous mobile body, and self-position estimation means for recognizing an estimated self-position based on the acquired environment information and the calculated self-position candidate. A control system for an autonomous mobile body that can move while recognizing its own position based on environmental information acquired by the acquisition means using a movement map relating to the movement area,
The self-position estimation unit virtually reflects the laser beam based on information indicating the light reflectance attribute of the object on the movement map, and is acquired by the virtually reflected laser beam and the acquisition unit. An autonomous mobile body that corrects the self-position candidate calculated by the self-position candidate calculating means based on the environmental information and recognizes the corrected self-position candidate as an estimated self-position on the movement map. Control system.
ことを特徴とする請求項8記載の自律移動体の制御システム。 The self-position estimation means virtually depicts the laser beam with respect to the object from the estimated self-position calculated by the self-position candidate calculation means on the movement map, and the incident angle of the depicted laser light is The self-position candidate calculation based on the measured distance of the laser beam virtually reflected and the measured distance of the laser beam acquired by the acquisition unit when the laser beam is reflected when the predetermined threshold value is exceeded The autonomous mobile control system according to claim 8, wherein the self-position candidate calculated by the means is corrected, and the corrected self-position candidate is recognized on the movement map as an estimated self-position.
前記移動マップが、前記物体の光反射率属性を示す情報を含む
ことを特徴とする自己位置推定方法。 In an autonomous mobile body equipped with a laser range finder that acquires environmental information indicating the position and shape of an object existing in the moving area, based on the environmental information acquired by the laser range finder using a movement map related to the moving area. A self-position estimation method for recognizing the self-position of the autonomous mobile body,
The self-position estimation method, wherein the movement map includes information indicating a light reflectance attribute of the object.
前記自己位置を認識するステップでは、前記移動マップ上において前記物体の光反射率属性を示す情報に基づいて前記レーザ光を仮想的に反射させ、前記仮想的に反射させたレーザ光と前記取得部で取得した環境情報とに基づいて、前記算出した自己位置候補を修正し、修正後の自己位置候補を推定自己位置として前記移動マップ上において認識する
ことを特徴とする請求項10記載の自己位置推定方法。 Irradiating a laser beam from the laser range finder, acquiring environmental information based on reflection of the irradiated laser beam, calculating a self-position candidate of the autonomous mobile body, the acquired environmental information, and the Recognizing an estimated self-position based on the calculated self-position candidate,
In the step of recognizing the self-position, the laser beam is virtually reflected on the movement map based on information indicating the light reflectance attribute of the object, and the virtually reflected laser beam and the acquisition unit The self-location according to claim 10, wherein the calculated self-location candidate is corrected based on the environment information acquired in step S, and the corrected self-position candidate is recognized as an estimated self-location on the movement map. Estimation method.
ことを特徴とする請求項11記載の自己位置推定方法。 In the step of recognizing the self-position, the laser beam is virtually depicted with respect to the object from the calculated estimated self-position on the movement map, and the incident angle of the depicted laser light is equal to or greater than a predetermined threshold value If the laser beam is reflected, the calculated self-position candidate is corrected based on the virtually measured laser beam measurement distance and the laser beam measurement distance acquired by the acquisition unit. The self-position estimation method according to claim 11, wherein the corrected self-position candidate is recognized on the movement map as an estimated self-position.
ことを特徴とする請求項12記載の自己位置推定方法。 The self-position estimation method according to claim 12, wherein the predetermined threshold value is variable according to a material of the object.
ことを特徴とする請求項11記載の自己位置推定方法。 In the step of recognizing the self-position, the weight of the calculated self-position candidate is calculated based on the virtually measured laser light measurement distance and the laser light measurement distance acquired by the acquisition unit. The self-position estimation method according to claim 11, wherein the self-position is calculated according to the correlation value, and an estimated self-position is determined from the self-position candidates based on the calculated weight and recognized on the movement map.
ことを特徴とする請求項11記載の自己位置推定方法。 The self-position estimation method according to claim 11, wherein in the step of recognizing the self-position, a self-position candidate is calculated based on a direction and a distance in which the autonomous mobile body has moved.
ことを特徴とする請求項10乃至15いずれか1項記載の自己位置推定方法。 16. The grid map created by virtually depicting grid lines connecting lattice points arranged at substantially constant intervals in the movement region. The self-position estimation method according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008069289A JP2009223757A (en) | 2008-03-18 | 2008-03-18 | Autonomous mobile body, control system, and self-position estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008069289A JP2009223757A (en) | 2008-03-18 | 2008-03-18 | Autonomous mobile body, control system, and self-position estimation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009223757A true JP2009223757A (en) | 2009-10-01 |
Family
ID=41240438
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008069289A Pending JP2009223757A (en) | 2008-03-18 | 2008-03-18 | Autonomous mobile body, control system, and self-position estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009223757A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011100306A (en) * | 2009-11-06 | 2011-05-19 | Hitachi Ltd | Simulation system |
WO2014012351A1 (en) * | 2012-07-16 | 2014-01-23 | 苏州科瓴精密机械科技有限公司 | Positioning system of mobile robot and positioning method thereof |
JP2015001820A (en) * | 2013-06-14 | 2015-01-05 | シャープ株式会社 | Autonomous mobile body, control system of the same, and own position detection method |
JP2015105046A (en) * | 2013-11-29 | 2015-06-08 | Idec株式会社 | Ground movable body, control circuit, measuring device and setting program |
CN106646513A (en) * | 2016-12-29 | 2017-05-10 | 上海遥薇(集团)有限公司 | Map construction system based on intelligent robot and map navigation method based on intelligent robot |
KR101778028B1 (en) * | 2010-12-20 | 2017-09-13 | 삼성전자주식회사 | Robot and method for planning path of the same |
CN111345735A (en) * | 2018-12-24 | 2020-06-30 | 江苏美的清洁电器股份有限公司 | Map construction method and device of sweeper |
WO2020183658A1 (en) * | 2019-03-13 | 2020-09-17 | 学校法人 千葉工業大学 | Information processing device and mobile robot |
WO2020207001A1 (en) * | 2019-04-10 | 2020-10-15 | 苏州科瓴精密机械科技有限公司 | Method for improving resolution of laser turntable, and robot system |
-
2008
- 2008-03-18 JP JP2008069289A patent/JP2009223757A/en active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011100306A (en) * | 2009-11-06 | 2011-05-19 | Hitachi Ltd | Simulation system |
KR101778028B1 (en) * | 2010-12-20 | 2017-09-13 | 삼성전자주식회사 | Robot and method for planning path of the same |
WO2014012351A1 (en) * | 2012-07-16 | 2014-01-23 | 苏州科瓴精密机械科技有限公司 | Positioning system of mobile robot and positioning method thereof |
CN103542846A (en) * | 2012-07-16 | 2014-01-29 | 苏州科瓴精密机械科技有限公司 | Locating system and method of mobile robot |
JP2015001820A (en) * | 2013-06-14 | 2015-01-05 | シャープ株式会社 | Autonomous mobile body, control system of the same, and own position detection method |
JP2015105046A (en) * | 2013-11-29 | 2015-06-08 | Idec株式会社 | Ground movable body, control circuit, measuring device and setting program |
CN106646513A (en) * | 2016-12-29 | 2017-05-10 | 上海遥薇(集团)有限公司 | Map construction system based on intelligent robot and map navigation method based on intelligent robot |
CN111345735A (en) * | 2018-12-24 | 2020-06-30 | 江苏美的清洁电器股份有限公司 | Map construction method and device of sweeper |
WO2020183658A1 (en) * | 2019-03-13 | 2020-09-17 | 学校法人 千葉工業大学 | Information processing device and mobile robot |
CN113490973A (en) * | 2019-03-13 | 2021-10-08 | 千叶工业大学 | Information processing device and mobile robot |
JPWO2020183658A1 (en) * | 2019-03-13 | 2021-11-18 | 学校法人千葉工業大学 | Information processing equipment and mobile robots |
JP7095929B2 (en) | 2019-03-13 | 2022-07-05 | 学校法人千葉工業大学 | Information processing equipment and mobile robots |
TWI773964B (en) * | 2019-03-13 | 2022-08-11 | 日本千葉工業大學 | Information processing device and mobile robot |
WO2020207001A1 (en) * | 2019-04-10 | 2020-10-15 | 苏州科瓴精密机械科技有限公司 | Method for improving resolution of laser turntable, and robot system |
CN111812667A (en) * | 2019-04-10 | 2020-10-23 | 苏州科瓴精密机械科技有限公司 | Method for improving resolution of laser turntable and robot system |
CN111812667B (en) * | 2019-04-10 | 2023-06-06 | 苏州科瓴精密机械科技有限公司 | Method for improving resolution of laser turntable and robot system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009223757A (en) | Autonomous mobile body, control system, and self-position estimation method | |
CN107976999B (en) | Mobile robot and obstacle avoidance and path planning method and system thereof | |
JP2009031884A (en) | Autonomous mobile body, map information creation method in autonomous mobile body and moving route specification method in autonomous mobile body | |
KR100772912B1 (en) | Robot using absolute azimuth and method for mapping by the robot | |
EP2094452B1 (en) | Surroundings mapping apparatus capable of applying quickly changed surroundings information in mobile robot and method thereof | |
JP5826795B2 (en) | Autonomous mobile body, its control system, and self-position detection method | |
JP6079415B2 (en) | Autonomous mobile | |
US8676429B2 (en) | Autonomous mobile device | |
JP5278283B2 (en) | Autonomous mobile device and control method thereof | |
JP6202517B2 (en) | Map creation device, map creation program, and map creation method | |
KR20170088228A (en) | Map building system and its method based on multi-robot localization | |
JP6962007B2 (en) | Driving control device for autonomous driving trolley, autonomous driving trolley | |
JP2016024598A (en) | Control method of autonomous mobile apparatus | |
WO2014178273A1 (en) | Movement control device for autonomous moving body, autonomous moving body, and movement control method | |
CN108303989A (en) | A kind of method and apparatus moved along wall for mobile robot | |
JP2011209845A (en) | Autonomous mobile body, self-position estimation method and map information creation system | |
JP2011059905A (en) | Robot, control program, and recording medium | |
JP7133251B2 (en) | Information processing device and mobile robot | |
JP2010061484A (en) | Mobile object and recovery method from position prediction error state of mobile object | |
RU2740229C1 (en) | Method of localizing and constructing navigation maps of mobile service robot | |
JP2018185767A (en) | Environment maintenance robot, and control program of the same | |
JP5553220B2 (en) | Moving body | |
Tsai et al. | Use of ultrasonic sensors to enable wheeled mobile robots to avoid obstacles | |
CN113566808A (en) | Navigation path planning method, device, equipment and readable storage medium | |
CN113490973B (en) | Information processing device and mobile robot |