JP2009223757A - Autonomous mobile body, control system, and self-position estimation method - Google Patents

Autonomous mobile body, control system, and self-position estimation method Download PDF

Info

Publication number
JP2009223757A
JP2009223757A JP2008069289A JP2008069289A JP2009223757A JP 2009223757 A JP2009223757 A JP 2009223757A JP 2008069289 A JP2008069289 A JP 2008069289A JP 2008069289 A JP2008069289 A JP 2008069289A JP 2009223757 A JP2009223757 A JP 2009223757A
Authority
JP
Japan
Prior art keywords
self
mobile body
autonomous mobile
calculated
laser beam
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008069289A
Other languages
Japanese (ja)
Inventor
Yoshiaki Asahara
佳昭 朝原
Hidenori Yabushita
英典 藪下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008069289A priority Critical patent/JP2009223757A/en
Publication of JP2009223757A publication Critical patent/JP2009223757A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an autonomous mobile body, capable of accurately estimating its self-position with improved accuracy even if an optically special material such as glass is present in a moving area, and to provide a control system of the autonomous mobile body, and a self-position estimation method. <P>SOLUTION: The autonomous mobile body 10 includes a laser range finder 17 which acquires environmental information indicating the position and shape of an object present in the moving area P, and can move while recognizing the self-position based on the environmental information acquired by the laser range finder 17 by use of a movement map 20 related to the moving are P. In the mobile body 10, the movement map 20 includes information indicating the optical reflectivity attribute of the object. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、特定の移動領域内において移動する自律移動体、その制御システム、自律移動体の制御などに用いる自己位置推定方法に関する。   The present invention relates to an autonomous mobile body that moves within a specific moving area, a control system for the autonomous mobile body, and a self-position estimation method used for controlling the autonomous mobile body.

近年、建物内部や屋外の限定された領域内を、周囲の環境情報に基づいて自律的に移動可能な自律移動型ロボット等の移動体が開発されつつある。このような移動体は、移動領域に関して予め記憶された移動マップ上において、現在の自己の位置から特定の目標地点までの移動経路を作成することで自律移動を可能とする。このため、一般的に、移動領域内における自己位置を認識する機能を備えている。   In recent years, mobile bodies such as autonomous mobile robots that can move autonomously within a limited area inside a building or outdoors based on surrounding environmental information are being developed. Such a moving body enables autonomous movement by creating a movement route from the current position to a specific target point on a movement map stored in advance with respect to the movement area. For this reason, generally, it has a function of recognizing its own position in the moving area.

このような自律移動体を制御するために、自律移動体に自己位置を認識させる技術として、例えば特許文献1及び2に記載の技術が知られている。特許文献1に開示された無人搬送車システムは、環境に設置された反射板をレーザレンジスキャナで計測することによって、無人搬送車の自己位置を推定するものである。反射板の設置された位置は既知であるため、計測した反射板の位置から、三角測量の原理により自己位置を算出することができる。
特許3316841号公報 特開2006−79325号公報
In order to control such an autonomous mobile body, techniques described in Patent Documents 1 and 2, for example, are known as techniques for causing an autonomous mobile body to recognize its own position. The automatic guided vehicle system disclosed in Patent Document 1 estimates the self-position of the automatic guided vehicle by measuring a reflector installed in the environment with a laser range scanner. Since the position where the reflecting plate is installed is known, the self position can be calculated from the measured position of the reflecting plate by the principle of triangulation.
Japanese Patent No. 3316841 JP 2006-79325 A

しかしながら、特許文献1記載の従来技術では、反射板を設置するために煩雑な作業が必要となり、自己位置推定のため大掛かりな設備工事が必要になるという問題がある。このため、大掛かりな設備工事を必要としないインフラレスの自己位置推定手法が求められている。   However, the conventional technique described in Patent Document 1 has a problem that a complicated operation is required to install the reflector, and a large-scale facility work is required for self-position estimation. For this reason, there is a need for an infrastructureless self-position estimation method that does not require extensive construction work.

インフラレスで自己位置を推定する手法としては、移動領域の地図情報と取得した環境情報との比較により自己位置を推定する手法が提案されている。例えば特許文献2に記載の自律移動装置は、レーザーレーダで取得した環境情報を地図情報と比較して、自己の位置を認識するものである。また、このような自己位置推定手法としては、グリッドマップを利用する手法が良く用いられている。グリッドマップは移動領域を模擬的に示す地図であり、マップ上には壁や障害物などの存在情報が登録されている(例えば、マップ上の所定のエリアが壁であるか否かを、0又は1のデジタル情報により登録している)。   As a method of estimating the self-location without infrastructure, a method of estimating the self-location by comparing the map information of the moving area and the acquired environment information has been proposed. For example, the autonomous mobile device described in Patent Document 2 recognizes its own position by comparing environmental information acquired by a laser radar with map information. As such a self-position estimation method, a method using a grid map is often used. The grid map is a map showing a moving region in a simulated manner, and presence information such as walls and obstacles is registered on the map (for example, whether or not a predetermined area on the map is a wall is 0). Or it is registered with one digital information).

グリッドマップを利用した自己位置推定方法では、実際の環境において自律移動体が計測したデータと、グリッドマップ上において仮想的に自律移動体が計測したデータとを比較することにより、自律移動体の実際の自己位置を推定する。自律移動体がレーザレンジファインダを備えている場合には、レーザレンジファインダにより取得したデータと、グリッドマップ上で仮想的に計測したデータとを比較することで、自律移動体の実際の自己位置を精度良く算出することができる。   In the self-location estimation method using the grid map, the actual data of the autonomous mobile body is compared by comparing the data measured by the autonomous mobile body in the actual environment with the data measured by the autonomous mobile body on the grid map. Estimate the self-position. If the autonomous mobile body is equipped with a laser range finder, the actual self-position of the autonomous mobile body can be determined by comparing the data acquired by the laser range finder with the data virtually measured on the grid map. It is possible to calculate with high accuracy.

しかし、レーザレンジファインダを用いた自己位置推定手法では、移動領域内にガラスなどの光学的に特殊な素材が存在する場合には、自己位置推定を正確に行うことができないという問題があった。レーザレンジファインダはレーザ光の反射により距離を計測するセンサであるため、レーザは、浅い入射角でガラスに入射すると全反射するが、正面など深い角度で入射するとガラスを通過してガラス自体を計測するという性質を持つ。従って、移動領域内にガラスなどの光学的に特殊な素材が存在する場合には、レーザの反射を考慮しないグリッドマップを用いては、自己位置推定を正確に行うことができないものであった。   However, the self-position estimation method using the laser range finder has a problem that self-position estimation cannot be performed accurately when an optically special material such as glass exists in the moving region. Since the laser range finder is a sensor that measures the distance by reflecting the laser beam, the laser totally reflects when it is incident on the glass at a shallow incident angle, but when it is incident at a deep angle such as the front, it passes through the glass and measures the glass itself. It has the property of doing. Therefore, when an optically special material such as glass is present in the moving region, self-position estimation cannot be performed accurately using a grid map that does not consider laser reflection.

図11を参照して具体的に説明する。図11(a)は、自律移動体10が実際の環境Pにおいてレーザにより環境情報を取得する様子を示す図であり、図11(b)は、図11(a)に示した状況に対応して、グリッドマップ20上においてレーザを仮想的に計測する様子を示す図である。図11(a)に示すように実際の環境Pでは、レーザはガラスG1で反射して自律移動体10の前方に存在する物体B1を計測するのに対して、図11(b)に示すようにグリッドマップ20上では、グリッドマップ20はガラスG1に関する情報を有していないため、レーザは直進して物体B1を計測することができない。即ち、グリッドマップ20上においてはレーザの反射を考慮していないため、グリッドマップ20上では物体B1までの距離を計測することができない。このため、図11(a)に示す実際の環境Pでは、レーザは角度θの方向に距離(d1+d2)を計測するが、図11(b)に示すグリッドマップ20上では、それとは全く異なる距離(d3)を計測してしまう。従って、互いの計測距離を比較した場合には、計測距離データが殆どマッチせずに、正確な自己位置推定結果を得ることができない。   This will be specifically described with reference to FIG. FIG. 11A is a diagram illustrating a state in which the autonomous mobile body 10 acquires environment information with a laser in the actual environment P, and FIG. 11B corresponds to the situation illustrated in FIG. FIG. 8 is a diagram showing a state where a laser is virtually measured on a grid map 20. As shown in FIG. 11 (a), in the actual environment P, the laser reflects the glass G1 and measures the object B1 existing in front of the autonomous mobile body 10, whereas as shown in FIG. 11 (b). On the grid map 20, since the grid map 20 does not have information regarding the glass G1, the laser cannot go straight and measure the object B1. That is, since the reflection of the laser is not taken into consideration on the grid map 20, the distance to the object B1 cannot be measured on the grid map 20. For this reason, in the actual environment P shown in FIG. 11A, the laser measures the distance (d1 + d2) in the direction of the angle θ. However, on the grid map 20 shown in FIG. (D3) is measured. Therefore, when the measured distances are compared with each other, the measured distance data hardly match and an accurate self-position estimation result cannot be obtained.

このように、レーザレンジファインダを用いた自己位置推定手法では、移動領域内にガラスなどの光学的に特殊な素材が存在する場合には、実際の環境において自律移動体が計測したデータと、グリッドマップ上において仮想的に自律移動体が計測したデータとを正確に比較することができず、自律移動体の自己位置推定を正確に行うことができないものであった。   As described above, in the self-position estimation method using the laser range finder, when an optically special material such as glass exists in the moving region, the data measured by the autonomous moving body in the actual environment and the grid It was impossible to accurately compare the data measured by the autonomous mobile body virtually on the map, and the self-position estimation of the autonomous mobile body could not be performed accurately.

本発明は、かかる課題を解決するためになされたものであり、自己位置推定の精度を向上させることが可能な自律移動体、自律移動体の制御システム、自己位置推定方法を提供することを目的とする。   The present invention has been made to solve such a problem, and an object thereof is to provide an autonomous mobile body, an autonomous mobile body control system, and a self-position estimation method capable of improving the accuracy of self-position estimation. And

本発明にかかる自律移動体は、移動領域に存在する物体の位置・形状を示す環境情報を取得するレーザレンジファインダを備え、前記移動領域に関する移動マップを用いて、前記レーザレンジファインダで取得した環境情報に基づいて自己位置を認識しつつ移動可能な自律移動体であって、前記移動マップが、前記物体の光反射率属性を示す情報を含むものである。   The autonomous mobile body according to the present invention includes a laser range finder that acquires environmental information indicating the position and shape of an object existing in a moving area, and uses the movement map related to the moving area to acquire the environment acquired by the laser range finder. An autonomous mobile body that can move while recognizing its own position based on information, wherein the movement map includes information indicating a light reflectance attribute of the object.

これにより、移動領域内にガラスなどの光学的に特殊な素材が存在する場合においても、物体の光反射率属性を示す情報を考慮して自己位置を推定することができるため、自律移動体の自己位置推定の精度を向上させることができる。   As a result, even when there is an optically special material such as glass in the moving area, the self-position can be estimated in consideration of the information indicating the light reflectance attribute of the object. The accuracy of self-position estimation can be improved.

また、前記レーザレンジファインダからレーザ光を照射し、前記照射したレーザ光の反射に基づいて環境情報を取得する取得部と、前記自律移動体の自己位置候補を算出する自己位置候補算出部と、前記取得した環境情報と前記算出した自己位置候補とに基づいて推定自己位置を認識する自己位置推定部とを備え、前記自己位置推定部が、前記移動マップ上において前記物体の光反射率属性を示す情報に基づいて前記レーザ光を仮想的に反射させ、前記仮想的に反射させたレーザ光と前記取得部で取得した環境情報とに基づいて、前記自己位置候補算出部により算出した自己位置候補を修正し、修正後の自己位置候補を推定自己位置として前記移動マップ上において認識するようにしてもよい。このように、移動マップ上において物体の光反射率属性を示す情報に基づいてレーザ光を反射させることで、実際の環境において自律移動体が取得したデータと、移動マップ上において仮想的に計測したデータとに基づいて、自律移動体の自己位置推定をより精度よく実行することができる。   In addition, an acquisition unit that irradiates laser light from the laser range finder, acquires environmental information based on reflection of the irradiated laser light, a self-position candidate calculation unit that calculates a self-position candidate of the autonomous mobile body, A self-position estimating unit that recognizes an estimated self-position based on the acquired environment information and the calculated self-position candidate, and the self-position estimating unit sets a light reflectance attribute of the object on the movement map. Self-position candidate calculated by the self-position candidate calculation unit based on the reflected laser light and the environment information acquired by the acquisition unit based on the reflected information And the corrected self-position candidate may be recognized on the movement map as the estimated self-position. Thus, by reflecting the laser beam based on the information indicating the light reflectance attribute of the object on the movement map, the data acquired by the autonomous mobile body in the actual environment and the virtual measurement on the movement map were performed. Based on the data, the self-position estimation of the autonomous mobile body can be executed with higher accuracy.

さらにまた、前記自己位置推定部が、前記移動マップ上において、前記自己位置候補算出部により算出した推定自己位置から前記物体に対して前記レーザ光を仮想的に描写し、前記描写したレーザ光の入射角度が所定の閾値以上である場合に、前記レーザ光を反射させ、前記仮想的に描写したレーザ光の計測距離と、前記取得部で取得したレーザ光の計測距離とに基づいて、前記自己位置候補算出部により算出した自己位置候補を修正し、修正後の自己位置候補を推定自己位置として前記移動マップ上において認識するようにしてもよい。このように、移動マップ上において入射角度が所定の閾値以上の場合にレーザ光を反射させることで、移動マップ上においてより正確にデータを計測することができ、自律移動体の自己位置推定をより精度よく実行することができる。   Furthermore, the self-position estimation unit virtually depicts the laser beam with respect to the object from the estimated self-position calculated by the self-position candidate calculation unit on the movement map, and When the incident angle is equal to or greater than a predetermined threshold, the laser beam is reflected, and the self-imaging is performed based on the laser beam measurement distance virtually depicted and the laser beam measurement distance acquired by the acquisition unit. The self-position candidate calculated by the position candidate calculation unit may be corrected, and the corrected self-position candidate may be recognized on the movement map as an estimated self-position. In this way, by reflecting the laser beam when the incident angle is greater than or equal to a predetermined threshold on the movement map, data can be measured more accurately on the movement map, and the self-position estimation of the autonomous mobile body can be performed more accurately. It can be executed with high accuracy.

また、前記所定の閾値が、前記物体の素材に応じて可変であるようにしてもよい。物体の素材に応じて閾値を変更することで、移動マップ上においてより精度良くデータを計測することができる。   The predetermined threshold value may be variable according to the material of the object. By changing the threshold value according to the material of the object, it is possible to measure the data more accurately on the movement map.

さらにまた、前記自己位置推定部が、前記仮想的に描写したレーザ光の計測距離と、前記取得部で取得したレーザ光の計測距離とに基づいて、前記自己位置候補算出部により算出した自己位置候補の重みを前記計測距離の相関値に応じて算出し、前記算出した重みに基づいて前記自己位置候補から推定自己位置を決定して前記移動マップ上において認識するようにしてもよい。このように、仮想的に描写したレーザ光の計測距離と、実際に取得したレーザ光の計測距離との相関値に応じて、推定自己位置を決定することで、自律移動体の自己位置推定を容易かつ精度よく実行することができる。   Furthermore, the self-position estimation unit calculates the self-position calculated by the self-position candidate calculation unit based on the virtually measured laser light measurement distance and the laser light measurement distance acquired by the acquisition unit. The weight of the candidate may be calculated according to the correlation value of the measured distance, and the estimated self position may be determined from the self position candidate based on the calculated weight and recognized on the movement map. As described above, the self-position estimation of the autonomous mobile object is performed by determining the estimated self-position according to the correlation value between the virtually measured laser light measurement distance and the actually obtained laser light measurement distance. It can be executed easily and accurately.

また、前記自己位置候補算出部が、前記自律移動体の移動した方向及び距離に基づいて自己位置候補を算出するようにしてもよい。自己位置候補算出部としては、いわゆるオドメトリ法などの自律移動体の移動方向及び距離に基づいて自己位置候補を算出するものであってもよい。このような外部からの信号を用いない自己位置算出方法によれば、障害物などに起因する、信号が得られない状況が低減するため、継続的な自律移動を良好に実行することができる。   The self-position candidate calculation unit may calculate a self-position candidate based on the direction and distance of movement of the autonomous mobile body. The self-position candidate calculation unit may calculate a self-position candidate based on the moving direction and distance of the autonomous mobile body such as a so-called odometry method. According to such a self-position calculation method that does not use a signal from the outside, the situation in which a signal cannot be obtained due to an obstacle or the like is reduced, so that continuous autonomous movement can be performed well.

さらにまた、前記移動マップが、前記移動領域内において略一定間隔に配置された格子点を結ぶグリッド線を仮想的に描写することで作成されるグリッドマップであるようにしてもよい。このようなグリッドマップを自律移動体の移動経路を判断するマップ情報として利用すると、自律移動体の位置を正確かつ容易に把握可能であるとともに、当該マップ上における移動経路を簡単に作成することができる。   Furthermore, the movement map may be a grid map created by virtually depicting grid lines connecting lattice points arranged at substantially constant intervals in the movement area. When such a grid map is used as map information for determining the movement path of an autonomous mobile body, the position of the autonomous mobile body can be grasped accurately and easily, and a movement path on the map can be easily created. it can.

本発明にかかる自律移動体の制御システムは、移動領域に存在する物体の位置・形状を示す環境情報を取得するレーザレンジファインダを備え、前記レーザレンジファインダからレーザ光を照射し、前記照射したレーザ光の反射に基づいて環境情報を取得する取得手段と、前記自律移動体の自己位置候補を算出する自己位置候補算出手段と、前記取得した環境情報と前記算出した自己位置候補とに基づいて推定自己位置を認識する自己位置推定手段とを備え、前記移動領域に関する移動マップを用いて、前記取得手段で取得した環境情報に基づいて自己位置を認識しつつ移動可能な自律移動体の制御システムであって、前記自己位置推定手段が、前記移動マップ上において前記物体の光反射率属性を示す情報に基づいて前記レーザ光を仮想的に反射させ、前記取得手段で取得した環境情報に基づいて、前記自己位置候補算出手段により算出した自己位置候補を修正し、修正後の自己位置候補を推定自己位置として前記移動マップ上において認識するものである。   An autonomous mobile body control system according to the present invention includes a laser range finder that acquires environmental information indicating the position and shape of an object existing in a moving region, irradiates a laser beam from the laser range finder, and the irradiated laser. Estimation based on acquisition means for acquiring environment information based on reflection of light, self-position candidate calculation means for calculating a self-position candidate of the autonomous mobile body, the acquired environment information and the calculated self-position candidate A self-position estimating means for recognizing the self-position, and using a movement map related to the movement area, an autonomous mobile body control system capable of moving while recognizing the self-position based on the environmental information acquired by the acquisition means And the self-position estimation means virtually transmits the laser beam based on information indicating a light reflectance attribute of the object on the movement map. Reflecting and correcting the self-position candidate calculated by the self-position candidate calculation means based on the environment information acquired by the acquisition means and recognizing the corrected self-position candidate as the estimated self-position on the movement map It is.

本発明にかかる自己位置推定方法は、移動領域に存在する物体の位置・形状を示す環境情報を取得するレーザレンジファインダを備えた自律移動体において、前記移動領域に関する移動マップを用いて、前記レーザレンジファインダで取得した環境情報に基づいて前記自律移動体の自己位置を認識する自己位置推定方法であって、前記移動マップが、前記物体の光反射率属性を示す情報を含むものである。   The self-position estimation method according to the present invention is an autonomous mobile body including a laser range finder that acquires environmental information indicating the position and shape of an object existing in a moving area, and uses the movement map related to the moving area to A self-position estimation method for recognizing the self-position of the autonomous mobile body based on environmental information acquired by a range finder, wherein the movement map includes information indicating a light reflectance attribute of the object.

本発明によれば、移動領域内にガラスなどの光学的に特殊な素材が存在する場合においても、自律移動体の自己位置推定の精度を向上させることが可能な自律移動体、自律移動体の制御システム、自己位置推定方法を提供することを目的とする。   According to the present invention, even when an optically special material such as glass is present in the moving region, the autonomous moving body capable of improving the self-position estimation accuracy of the autonomous moving body, It is an object to provide a control system and a self-position estimation method.

発明の実施の形態1.
本実施の形態1に係る自律移動体は、移動領域に存在する物体の位置・形状を示す環境情報を取得するレーザレンジファインダを備えており、移動領域に関する移動マップを用いて、レーザレンジファインダで取得した環境情報に基づいて自己位置を認識しつつ移動可能な自律移動体である。ここで、本実施の形態1に係る自律移動体は、物体の光反射率属性を示す情報を移動マップに含むことを特徴とする。
Embodiment 1 of the Invention
The autonomous mobile body according to the first embodiment includes a laser range finder that acquires environmental information indicating the position and shape of an object existing in the moving area. It is an autonomous mobile body that can move while recognizing its own position based on the acquired environmental information. Here, the autonomous moving body according to the first embodiment is characterized in that the movement map includes information indicating the light reflectance attribute of the object.

以下に、図面を参照しながら本発明の実施の形態1に係る自律移動体について説明する。本実施の形態1においては、自律移動体は、1対の車輪を駆動することで平面上を自律的に移動する車輪駆動型である例を示すものとする。   The autonomous mobile body according to Embodiment 1 of the present invention will be described below with reference to the drawings. In this Embodiment 1, an autonomous mobile body shall show the example which is a wheel drive type which moves on a plane autonomously by driving a pair of wheels.

図1は、床部1上の限られた移動領域P(破線に囲まれた領域)内を、車両型の自律移動体10が移動する一実施形態を概略的に示すものである。図1においては、床部1上の移動領域P内には特に物体が載置されていない状態を示すものとし、自律移動体10が移動領域P内を任意に移動することができるものとする。   FIG. 1 schematically shows an embodiment in which a vehicle-type autonomous mobile body 10 moves in a limited movement region P (region surrounded by a broken line) on the floor 1. In FIG. 1, it is assumed that an object is not particularly placed in the movement area P on the floor 1, and the autonomous mobile body 10 can arbitrarily move in the movement area P. .

図2に示すように、自律移動体10は、箱型の移動体本体10aと、1対の対向する車輪11、11と、キャスタ12を備える対向2輪型の移動体であり、これらの車輪11、11、キャスタ12とで移動体本体10aを水平に支持するものである。さらに、移動体本体10aの内部には、車輪11、11をそれぞれ駆動する駆動部(モータ)13、13と、車輪の回転数を検出するためのカウンタ14と、車輪を駆動するための制御信号を作成し、駆動部13、13にその制御信号を送信する演算部15、及びこれらの構成要素に電力を供給するためのバッテリー16が備えられている。そして、演算部15内部に備えられた記憶部としてのメモリなどの記憶領域15aには、制御信号に基づいて自律移動体10の移動速度や移動方向、移動距離などを制御するためのプログラムとともに、マップ情報Pの形状及び大きさが記憶されている。   As shown in FIG. 2, the autonomous mobile body 10 is an opposing two-wheeled mobile body including a box-shaped mobile body 10 a, a pair of opposing wheels 11 and 11, and casters 12. 11, 11 and the caster 12 support the movable body main body 10a horizontally. Furthermore, inside the mobile body 10a, there are drive units (motors) 13 and 13 for driving the wheels 11 and 11, respectively, a counter 14 for detecting the rotation speed of the wheels, and a control signal for driving the wheels. And a calculation unit 15 for transmitting the control signal to the drive units 13 and 13 and a battery 16 for supplying power to these components. And in the storage area 15a such as a memory as a storage unit provided inside the calculation unit 15, along with a program for controlling the moving speed, moving direction, moving distance, etc. of the autonomous mobile body 10 based on the control signal, The shape and size of the map information P are stored.

さらに、移動体本体10aの前面には、移動する方向(前方)の環境情報を認識するためのレーザレンジファインダ17や、同じく環境情報を認識するための超音波センサ18を備えている。尚、このレーザレンジファインダ17と超音波センサ18は、その取り付け位置がほぼ同じ位置になるように構成されているが、図面上では便宜上異なる位置に取り付けられているように描写するものとする。   Further, a laser range finder 17 for recognizing environmental information in a moving direction (front) and an ultrasonic sensor 18 for recognizing environmental information are provided on the front surface of the moving body 10a. Although the laser range finder 17 and the ultrasonic sensor 18 are configured so that their attachment positions are substantially the same, they are depicted as being attached at different positions for convenience in the drawings.

レーザレンジファインダ17は、詳細な構造については省略するが、移動体本体10aの前方に対して所定の広がり角度でレーザ光を照射するための光源と、光源より照射されたレーザ光の反射光を受光するための受光部とを備えている。そして、レーザ光の照射した角度と、反射するまでに要した時間に基づいて、レーザ光の反射した物体の位置を検出する、いわゆるTOF(Time of flight)の原理による物体検知(センシング)が行われる。尚、レーザレンジファインダ17により環境情報(センシングされる物体の位置及び形状)を得る手順の詳細については後述する。   Although the detailed structure of the laser range finder 17 is omitted, a light source for irradiating laser light at a predetermined spread angle with respect to the front of the moving body 10a and reflected light of the laser light emitted from the light source. A light receiving unit for receiving light. Then, object detection (sensing) based on the principle of so-called TOF (Time of Flight) is performed, which detects the position of the object reflected by the laser beam based on the angle irradiated with the laser beam and the time required for reflection. Is called. Details of the procedure for obtaining environmental information (position and shape of the object to be sensed) by the laser range finder 17 will be described later.

超音波センサ18は、移動体本体10aの前方について所定の広がり角度で同時に超音波を照射する超音波照射部と、照射された超音波の反射を受信する受信部とを備えている。そして、受信した超音波の強度に基づいて、超音波を照射した領域に存在する物体の大まかな位置及び形状をセンシングする。   The ultrasonic sensor 18 includes an ultrasonic irradiation unit that irradiates ultrasonic waves simultaneously at a predetermined spread angle with respect to the front of the moving body 10a, and a reception unit that receives a reflection of the irradiated ultrasonic waves. And based on the intensity | strength of the received ultrasonic wave, the rough position and shape of the object which exist in the area | region which irradiated the ultrasonic wave are sensed.

また、自律移動体10は、自己の位置を取得するための自己位置取得部を備えている。この自己位置取得部は、前述したカウンタ14及び演算部15とから構成される。すなわち、カウンタ14で検知された車輪11、11の回転数を演算部15において積算することで、自律移動体10の移動した速度や距離などの情報を求め、これらの情報から、移動領域内における自律移動体10の自己位置(オドメトリ位置)を算出する。   Moreover, the autonomous mobile body 10 includes a self-position acquisition unit for acquiring its own position. This self-position acquisition unit includes the counter 14 and the calculation unit 15 described above. That is, by calculating the rotational speed of the wheels 11, 11 detected by the counter 14 in the calculation unit 15, information such as the moving speed and distance of the autonomous mobile body 10 is obtained. The self position (odometry position) of the autonomous mobile body 10 is calculated.

そして、これらの自己位置取得部より得られた自己位置候補としての位置情報は、後述するレーザレンジファンダ17により得られる環境情報に基づいて適宜修正される。尚、この位置情報を修正する手法の詳細については後述する。   And the positional information as a self-position candidate obtained from these self-position acquisition parts is suitably corrected based on environment information obtained by a laser range funder 17 described later. Details of the method for correcting the position information will be described later.

このように構成された自律移動体10は、1対の車輪11、11の駆動量をそれぞれ独立に制御することで、直進や曲線移動(旋回)、後退、その場回転(両車輪の中点を中心とした旋回)などの移動動作を行うことができる。そして、自律移動体10は、移動場所を指定する外部に設けられたサーバ等(図示せず)からの指令にしたがって、移動領域P内の指定された目的地までの移動経路を自律的に作成し、その移動経路に追従するように移動することで、目的地に到達する。   The autonomous mobile body 10 configured in this way independently controls the drive amount of the pair of wheels 11 and 11 so that the vehicle travels straight, moves in a curve (turns), moves backward, and rotates on the spot (the midpoint of both wheels). Movement such as turning around the center. Then, the autonomous mobile body 10 autonomously creates a movement route to the designated destination in the movement area P in accordance with a command from an external server (not shown) that designates the movement location. Then, the vehicle reaches the destination by moving so as to follow the movement route.

次に、記憶領域15aの内部に記憶された、移動領域Pの形状や、その内部に含まれる物体(壁などの障害物)に基づいて作成される移動マップとしてのグリッドマップについて説明する。演算部15内部に備えられた記憶領域15aには、床部1上の移動領域P全体の形状を外枠として、その内部に略一定間隔m(例えば10cm)に配置された格子点を結ぶグリッド線を仮想的に描写することで得られるグリッドマップが記憶されている。   Next, a grid map as a movement map created based on the shape of the movement area P stored in the storage area 15a and an object (an obstacle such as a wall) included in the movement area P will be described. The storage area 15a provided inside the calculation unit 15 has a grid that connects the lattice points arranged at substantially constant intervals m (for example, 10 cm) inside the moving area P on the floor 1 as an outer frame. A grid map obtained by virtually depicting a line is stored.

図3に、前述のグリッドマップの一例を図示する。グリッドマップ20は、マップ情報Pの形状を模した外枠21の内部を、略一定間隔mに配置された格子点を結ぶグリッド線22を描写したものである。そして、このグリッド線22で囲まれたグリッド単位23を用いて、自律移動体10の自己位置に相当する場所、及び目的地である移動終了点、及び移動終了点における自律移動体10の移動方向が特定される。尚、間隔mは、自律移動体10の移動可能な曲率や絶対位置を認識する精度などの条件に応じて、適宜変更可能であり、スリップしたと判定される際の閾値としても用いることができる。また、移動領域P内において、壁や障害物等の固定物体が存在していることが既知である場合は、それらの既知の物体の位置が予めグリッドマップ20上に登録された形で記憶領域15aに記憶されているものとする。   FIG. 3 illustrates an example of the grid map described above. The grid map 20 depicts grid lines 22 that connect lattice points arranged at substantially constant intervals m inside the outer frame 21 simulating the shape of the map information P. Then, using the grid unit 23 surrounded by the grid line 22, the location corresponding to the self-position of the autonomous mobile body 10, the movement end point that is the destination, and the movement direction of the autonomous mobile body 10 at the movement end point Is identified. The interval m can be appropriately changed according to conditions such as the curvature of the autonomous mobile body 10 that can be moved and the accuracy of recognizing the absolute position, and can also be used as a threshold value when it is determined that the vehicle has slipped. . In addition, when it is known that fixed objects such as walls and obstacles exist in the moving area P, the storage area is stored in a form in which the positions of these known objects are registered in advance on the grid map 20. It is assumed that it is stored in 15a.

そして、グリッドマップ20上における各グリッド単位に相当する位置の状態は、壁(すなわち障害物)を示す評価値と、物体の光反射率属性を示す情報とを用いて表現する。前記グリッド単位が壁(すなわち障害物)であることを示す評価値wall_LRFは、壁である場合には1、壁でない場合は0の値をとる。前記グリッド単位における物体の光反射率属性を示す情報は、前記物体がガラスなどの光学的に特殊な素材を示す評価値と、前記物体の配置された向きを示す角度を含む。前記物体がガラスである場合に、そのグリッド単位における物体がガラスであることを示す評価値glass_LRFは、ガラスである場合には1、ガラスでない場合には0の値をとる。また、前記物体がガラスである場合に、そのグリッド単位におけるガラスの配置された向きを示す角度[deg]は、ガラス面の向きを示すα[deg]の値をとる。尚、このようなグリッド単位の評価値は、自律移動体10がレーザレンジファインダ17によりセンシングした結果、グリッドマップに記憶するようにしてもよいし、予めユーザにより登録するようにしてもよい。   The state of the position corresponding to each grid unit on the grid map 20 is expressed using an evaluation value indicating a wall (that is, an obstacle) and information indicating a light reflectance attribute of the object. The evaluation value wall_LRF indicating that the grid unit is a wall (that is, an obstacle) takes a value of 1 if it is a wall and 0 if it is not a wall. The information indicating the light reflectance attribute of the object in the grid unit includes an evaluation value indicating that the object is an optically special material such as glass, and an angle indicating the direction in which the object is arranged. When the object is glass, the evaluation value glass_LRF indicating that the object in the grid unit is glass takes a value of 1 when the object is glass and 0 when it is not glass. In addition, when the object is glass, an angle [deg] indicating the direction in which the glass is arranged in the grid unit takes a value of α [deg] indicating the direction of the glass surface. The evaluation value in units of grids may be stored in the grid map as a result of sensing by the autonomous mobile body 10 with the laser range finder 17 or may be registered in advance by the user.

また、演算部15は、グリッドマップ20上において特定された自己位置を移動始点とし、この移動始点から目的地である移動終点までの移動経路を作成することができる。さらに自律移動体10は、前述のように自己位置をリアルタイムに求めつつ(例えば10[msec]毎にマップ情報上における自己の位置情報を取得)、作成された移動経路に沿って移動を行う。詳細には、図4に示すように、自律移動体10は移動始点Q0を認識し、この移動始点から目的とする移動終点Qnまでの移動経路を、所定の間隔で中間点Q1,Q2,・・・をグリッドマップ20上に定め、これらの中間点をつなぎ合わせることでグリッドマップ20上に移動経路を作成する。この移動経路の特定手法の詳細については説明を省略するが、マップ情報上に追加された障害物の位置等を考慮した上で、現在位置から目的地点までの新たな移動経路を作成する等の手法が好適に用いられる。   In addition, the calculation unit 15 can create a movement route from the movement start point to the movement end point that is the destination, with the self-position specified on the grid map 20 as a movement start point. Furthermore, the autonomous mobile body 10 moves along the created movement route while obtaining its own position in real time as described above (for example, acquiring its own position information on the map information every 10 [msec]). In detail, as shown in FIG. 4, the autonomous mobile body 10 recognizes the movement start point Q0, and moves the movement path from the movement start point to the target movement end point Qn at intermediate points Q1, Q2,. .. Is defined on the grid map 20, and a moving path is created on the grid map 20 by connecting these intermediate points. The details of the method for identifying this movement route will be omitted, but taking into account the position of obstacles added on the map information, etc., creating a new movement route from the current position to the destination point, etc. A technique is preferably used.

次に、前述したレーザレンジファインダ17を用いて自律移動体10の前面の環境情報を取得する手法について、詳細に説明する。   Next, a method for acquiring environmental information on the front surface of the autonomous mobile body 10 using the laser range finder 17 described above will be described in detail.

まず、自律移動体10は、その前面に対してレーザ光Lを照射し、自律移動体10から所定距離内に位置するセンシング領域S1に存在する、レーザ光Lを反射した物体の位置SP(センシングポイント)を検出する。具体的には、本実施の形態1におけるレーザレンジファインダ17は、所定の広がり角度で発せられ、自律移動体10から所定の距離Lの領域を計測可能範囲とする。即ち、レーザレンジファインダ17から照射されたレーザ光Lの反射光が受光されると、レーザ光Lを照射したときの自律移動体10の自己位置と、レーザレンジファインダ17から照射されるレーザ光の照射方向と、レーザ光の照射から反射光を受光するまでの時間とから、照射したレーザ光が反射した地点が特定される。   First, the autonomous mobile body 10 irradiates the front surface with the laser light L, and the position SP (sensing) of the object that reflects the laser light L that exists in the sensing region S1 located within a predetermined distance from the autonomous mobile body 10. Point). Specifically, the laser range finder 17 according to the first embodiment emits at a predetermined spread angle and sets a region at a predetermined distance L from the autonomous mobile body 10 as a measurable range. That is, when the reflected light of the laser beam L irradiated from the laser range finder 17 is received, the self-position of the autonomous mobile body 10 when the laser beam L is irradiated and the laser beam irradiated from the laser range finder 17. The point where the irradiated laser light is reflected is specified from the irradiation direction and the time from the irradiation of the laser light to the reception of the reflected light.

レーザレンジファインダ17によって計測されるデータは、レーザ中心からの距離d及びレーザの照射方向の角度φにより規定される極座標系として出力される。自律移動体10の進行方向前方180度を計測する際の分解能を1.0度とした場合には、一度のスキャンにより181個のデータを計測する。このようなレーザレンジファインダ17によるセンシング結果が記憶部15aに記憶される。   Data measured by the laser range finder 17 is output as a polar coordinate system defined by the distance d from the laser center and the angle φ in the laser irradiation direction. When the resolution when measuring 180 degrees forward of the traveling direction of the autonomous mobile body 10 is 1.0 degree, 181 data are measured by one scan. The sensing result obtained by the laser range finder 17 is stored in the storage unit 15a.

図5は、移動領域内Pにおいて、自律移動体10の前面に壁W1が設けられている様子を示している。図5に示すように、自律移動体10はその前面にレーザレンジファインダ17からレーザ光を照射している。このとき、レーザレンジファインダ17のセンシング領域内には壁W1が含まれている。このような場合、レーザレンジファインダ17によりセンシングされた壁W1までの距離が記憶される。   FIG. 5 shows a state where a wall W <b> 1 is provided in front of the autonomous mobile body 10 in the movement area P. As shown in FIG. 5, the autonomous mobile body 10 irradiates the front surface with laser light from a laser range finder 17. At this time, the wall W <b> 1 is included in the sensing region of the laser range finder 17. In such a case, the distance to the wall W1 sensed by the laser range finder 17 is stored.

次に、図6乃至10を参照して、レーザレンジファインダにより取得した環境情報を用いて、オドメトリ法により算出した自己位置候補の中から現時点の自己位置を推定する手法について説明する。本実施の形態1では、自己位置推定方法としてMCL(Monte Carlo Localization)と呼ばれる手法を採用する。これは、ロボットの存在位置の確率表現を、パーティクルと呼ばれる位置候補点により表現する手法である。図6は、MCLを用いた自己位置推定手法の概要を表すフローチャートである。   Next, with reference to FIGS. 6 to 10, a method for estimating the current self-position from among self-position candidates calculated by the odometry method using the environment information acquired by the laser range finder will be described. In the first embodiment, a method called MCL (Monte Carlo Localization) is adopted as a self-position estimation method. This is a technique for expressing the probability expression of the position of the robot using position candidate points called particles. FIG. 6 is a flowchart showing an outline of a self-position estimation method using MCL.

まず、移動領域内において移動を開始した自律移動体10は、移動を開始する地点のグリッドマップ20上における自己位置を認識し、予め記憶したグリッドマップ20上に記憶する(ステップS101)。   First, the autonomous mobile body 10 that has started moving within the moving area recognizes its own position on the grid map 20 at the point where movement starts, and stores it on the grid map 20 stored in advance (step S101).

その後、移動体本体10aに設けられた車輪を駆動することにより移動を継続しつつ、オドメトリ情報による自己位置候補を算出する(ステップS102)。具体的には、まず、自律移動体10の車輪の回転角度から、その移動量を算出する。ここで、自律移動体10の移動量dX=(dx,dy,dθ)は、車輪の回転角度をエンコーダにより取得し、順運動学を解くことにより簡単に算出することができる。そして、オドメトリ情報により、位置情報としての複数のパーティクル位置を抽出する。そして、自律移動体10の移動量に関するノイズを考慮して、各パーティクル位置を移動させる。即ち、算出したロボットの移動量に対して、ノイズを加味したものをパーティクルに与えることによって移動させる。ここで、パーティクル位置は、自律移動体10の自己位置の候補点として表される。このように移動させた複数のパーティクルEPは、例えば図7に示すように、自律移動体10の周囲に分布して、ある程度のばらつきを有する離散変数の集合としての座標点で表される。   Thereafter, the self-position candidate based on the odometry information is calculated while continuing to move by driving the wheel provided on the moving body 10a (step S102). Specifically, first, the amount of movement is calculated from the rotation angle of the wheels of the autonomous mobile body 10. Here, the movement amount dX = (dx, dy, dθ) of the autonomous mobile body 10 can be easily calculated by obtaining the rotation angle of the wheel with an encoder and solving the forward kinematics. Then, a plurality of particle positions as position information are extracted from the odometry information. Then, each particle position is moved in consideration of noise related to the movement amount of the autonomous mobile body 10. That is, the calculated movement amount of the robot is moved by giving a particle with noise added thereto. Here, the particle position is represented as a candidate point for the self position of the autonomous mobile body 10. The plurality of particles EP moved in this way are represented by coordinate points as a set of discrete variables distributed around the autonomous mobile body 10 and having a certain degree of variation, for example, as shown in FIG.

そして、自律移動体10が移動を継続する一方で、レーザレンジファインダ17により環境情報を取得する(ステップS103)。移動領域内に存在する物体に対して、レーザ中心からの距離dと、そのときのレーザの照射方向の角度φとが取得され、これらd及びφとが関連付けられて環境情報として記憶される。   And while the autonomous mobile body 10 continues a movement, environmental information is acquired by the laser range finder 17 (step S103). The distance d from the laser center and the angle φ of the laser irradiation direction at that time are acquired for the object existing in the moving region, and these d and φ are associated and stored as environment information.

そして、レーザレンジファインダ17により取得した環境情報に基づいて、制御コンピュータとしての演算部15は、各パーティクルの重みを決定する(ステップS104)。即ち、その位置における自己位置となりうる確率を各々求める。以下、図8及び9を参照して、パーティクルの重みを決定する方法について詳細に説明する。図8は、パーティクルの重み決定処理を表すフローチャートである。   Then, based on the environment information acquired by the laser range finder 17, the calculation unit 15 as a control computer determines the weight of each particle (step S104). That is, the probability that can be a self-position at that position is obtained. Hereinafter, a method for determining the weights of particles will be described in detail with reference to FIGS. FIG. 8 is a flowchart showing a particle weight determination process.

まず、制御コンピュータ15は、グリッドマップ20上において、各パーティクル位置から、レーザレンジファインダ17の計測方向に沿って直線を延ばす(ステップS201)。即ち、グリッドマップ20上において、各パーティクル位置から、レーザレンジファインダ17のレーザ光を仮想的に描写する。尚、前記直線は、レーザレンジファインダ17の計測方向に沿って所定の距離単位で延長させてゆく。例えば図9(a)に示すように、グリッドマップ20上において、パーティクル位置part_1から、レーザレンジファインダ17の計測方向L_D1に沿って、所定の距離単位d0ごとに直線を延長してゆく。   First, the control computer 15 extends a straight line from each particle position along the measurement direction of the laser range finder 17 on the grid map 20 (step S201). That is, the laser beam of the laser range finder 17 is virtually depicted from each particle position on the grid map 20. The straight line is extended by a predetermined distance unit along the measurement direction of the laser range finder 17. For example, as shown in FIG. 9A, on the grid map 20, a straight line is extended from the particle position part_1 along the measurement direction L_D1 of the laser range finder 17 every predetermined distance unit d0.

そして、制御コンピュータ15は、レーザレンジファインダ17の計測方向に沿って直線を延長させつつ、その直線上において、パーティクルから所定の距離離れた点のグリッド単位について、そのグリッド単位がガラスであるか否かを判定する(ステップS202)。判定の結果、ガラスでない場合には、ステップS207へと進む。   Then, the control computer 15 extends the straight line along the measurement direction of the laser range finder 17 and, for the grid unit at a point away from the particle by a predetermined distance on the straight line, whether the grid unit is glass or not. Is determined (step S202). As a result of the determination, if it is not glass, the process proceeds to step S207.

一方、判定の結果、そのグリッド単位がガラスである場合(即ち、仮想的に描写したレーザ光が、ガラスであると記録されたグリッド単位に遭遇した場合)には、制御コンピュータ15は、そのグリッド単位に記録されているガラス面の向きαを読み出す(ステップS203)。   On the other hand, as a result of the determination, if the grid unit is glass (that is, if the virtually drawn laser beam encounters a grid unit recorded as glass), the control computer 15 determines the grid unit. The direction α of the glass surface recorded in the unit is read (step S203).

そして、制御コンピュータ15は、自律移動体10から照射されたレーザ光の角度をβとして、ガラス面の向きαとレーザ光の角度βとを比較して、ガラス面に対するレーザ光の入射角度を計算する(ステップS204)。角度α及びβは、所定の基準座標からの角度であり、例えば図9(b)においては、パーティクル位置part_1からガラスのグリッド単位Gに向かう方向を基準として、当該方向とガラスのグリッド単位Gとのなす角度をαとし、当該方向とレーザ光のなす角度をβとしている。   Then, the control computer 15 calculates the incident angle of the laser beam on the glass surface by comparing the glass surface direction α with the laser beam angle β, where β is the angle of the laser beam emitted from the autonomous mobile body 10. (Step S204). The angles α and β are angles from a predetermined reference coordinate. For example, in FIG. 9B, the direction and the grid unit G of the glass with respect to the direction from the particle position part_1 to the grid unit G of the glass Is defined as α, and the angle formed between the direction and the laser beam is defined as β.

そして、制御コンピュータ15は、ガラス面の向きαとレーザ光の角度βとがなす角度(即ち入射角度)が所定の閾値以上であるか否かを判定する(ステップS205)。入射角度が所定の閾値より小さい場合には、レーザ光は全反射しない角度であるものと判定して、ガラスのグリッド単位を壁のグリッド単位を計測したものとして扱う。   Then, the control computer 15 determines whether or not the angle formed by the glass surface direction α and the laser beam angle β (that is, the incident angle) is equal to or greater than a predetermined threshold (step S205). When the incident angle is smaller than a predetermined threshold value, it is determined that the laser beam is an angle that does not totally reflect, and the glass grid unit is treated as a measurement of the wall grid unit.

一方、入射角度が所定の閾値以上である場合には、ガラス面に対する入射角度は浅いものであると判定して、レーザ光の方向を反射させるように変更する(ステップS206)。例えば図9(b)に示すように、パーティクル位置part_1から延長した直線を、ガラスのグリッド単位Gで反射させ、その方向L_D1を反射後の方向L_D1_Rへと変更して、再び延長させる。尚、入射角度に関する所定の閾値は、物体の素材に応じて適宜調整するようにしてもよい。即ち、各グリッド単位それぞれに、素材に応じた閾値を設定することで、グリッドマップ上においてより精度良く反射を再現することができる。   On the other hand, if the incident angle is equal to or greater than the predetermined threshold, it is determined that the incident angle with respect to the glass surface is shallow, and the laser beam direction is changed to reflect (step S206). For example, as shown in FIG. 9B, the straight line extended from the particle position part_1 is reflected by the glass grid unit G, the direction L_D1 is changed to the reflected direction L_D1_R, and extended again. Note that the predetermined threshold regarding the incident angle may be appropriately adjusted according to the material of the object. That is, by setting a threshold corresponding to the material for each grid unit, reflection can be reproduced more accurately on the grid map.

このように、パーティクル位置からレーザレンジファインダ17の計測方向に沿って直線を延ばす過程において、ガラスを示すグリッド単位に遭遇した場合には、その光反射率情報と直線の角度情報とに基づいて、その直線を反射させる。そして、制御コンピュータ15は、延長させた直線が壁に到達したか否かを判定する(ステップS207)。判定の結果、壁に到達していない場合には、ステップS201へと戻り、更に直線を延長させる。   Thus, in the process of extending a straight line along the measurement direction of the laser range finder 17 from the particle position, when encountering a grid unit indicating glass, based on the light reflectance information and the angle information of the straight line, Reflect the straight line. Then, the control computer 15 determines whether or not the extended straight line has reached the wall (step S207). If the result of determination is that the wall has not been reached, the process returns to step S201 to further extend the straight line.

尚、前記所定の距離単位で直線を延長させた結果、直線が壁に到達した場合には、壁に到達する直前のグリッド単位まで戻って、より細かい距離単位で同様の調査を行うようにしてもよい。即ち、前記直前のグリッド単位から、より細かい距離単位離れたグリッド単位が壁か否かを判定してゆくようにしてもよい。このように、パーティクル位置から徐々に離れていった点が、壁に到達しているか否かをより詳細な距離単位で調べていく。これにより、壁までの距離をより精度良く計測することができる。例えば図9(a)に示すように、パーティクル位置part_1から、レーザレンジファインダ17の計測方向L_D1に沿って、所定の距離単位d0で直線を延長した後、壁Wに到達した場合には、より細かい距離単位d1で再び直線を延長させてゆくものである。   As a result of extending the straight line by the predetermined distance unit, when the straight line reaches the wall, return to the grid unit immediately before reaching the wall and perform the same investigation in a finer distance unit. Also good. In other words, it may be determined whether or not a grid unit that is separated by a finer distance unit from the immediately preceding grid unit is a wall. In this way, it is examined in more detailed distance units whether or not the point gradually moving away from the particle position has reached the wall. Thereby, the distance to the wall can be measured with higher accuracy. For example, as shown in FIG. 9A, when a straight line is extended by a predetermined distance unit d0 from the particle position part_1 along the measurement direction L_D1 of the laser range finder 17, when the wall W is reached, The straight line is extended again by the fine distance unit d1.

一方、直線が壁に到達した場合には、制御コンピュータ15は、その直線の距離をパーティクル位置の計測距離dとする(ステップS208)。そして、制御コンピュータ15は、以下の数1に示す計測モデルを用いて、ある照射角度における、パーティクルの距離データ間の相関値を計算する(ステップS209)。ここで、P(dk)は、k番目のレーザ光の照射角度φにおける、グリッドマップ20上における計測距離dkとレーザレンジファインダ17により実際に計測された距離zkとの相関値を示す。また、数1に示す計測モデルはセンサモデルとも呼ばれ、数1は、レーザ光のある照射角度における距離データdkが、距離データzkを平均とする正規分布に従うことを意味する。

Figure 2009223757
On the other hand, when the straight line reaches the wall, the control computer 15 sets the distance of the straight line as the measurement distance d of the particle position (step S208). Then, the control computer 15 calculates a correlation value between the distance data of the particles at a certain irradiation angle by using the measurement model shown in the following equation 1 (step S209). Here, P (dk) represents a correlation value between the measurement distance dk on the grid map 20 and the distance zk actually measured by the laser range finder 17 at the irradiation angle φ of the k-th laser beam. The measurement model shown in Equation 1 is also called a sensor model, and Equation 1 means that the distance data dk at a certain irradiation angle of the laser light follows a normal distribution with the distance data zk as an average.
Figure 2009223757

さらに、制御コンピュータ15は、パーティクル位置から、全てのレーザ光の照射角度について、パーティクルの距離データ間の相関値を計算する(即ち、ステップS210における判定条件を満足するまでの間、ステップS201乃至209における処理を繰り返す)。   Further, the control computer 15 calculates the correlation value between the particle distance data for all the laser beam irradiation angles from the particle position (ie, until the determination condition in step S210 is satisfied, steps S201 to S209). Repeat the process in step 2).

制御コンピュータ15は、全ての照射角度について距離データ間の相関値を計算した後(即ち、距離データ間の相関値を181個全ての距離データ間について算出した後)、全てのパーティクルについて、その重みを計算する(ステップS211)。まず、制御コンピュータ15は、以下の数2を用いて、各パーティクルについて、各照射角度の距離データ間の相関値P(dk)を全て乗算する。ここで、wi'は、i番目のパーティクルの仮の重みを示す。

Figure 2009223757
The control computer 15 calculates the correlation value between the distance data for all the irradiation angles (that is, after calculating the correlation value between the distance data for all the 181 distance data) and then weights all the particles. Is calculated (step S211). First, the control computer 15 multiplies all correlation values P (dk) between the distance data of each irradiation angle for each particle using the following formula 2. Here, wi ′ indicates a temporary weight of the i-th particle.
Figure 2009223757

更に、制御コンピュータ15は、全てのパーティクルについてそれぞれ仮の重みwi'を計算した後、以下の数3を用いて、各パーティクルの重みwiを計算する。ここで、i番目のパーティクルの仮の重みwi'の値は、全てのパーティクルの仮の重みwi'の総和により正規化される。尚、Nはパーティクルの個数を示す。

Figure 2009223757
Further, the control computer 15 calculates the temporary weight wi ′ for all the particles, and then calculates the weight wi of each particle using the following equation 3. Here, the value of the temporary weight wi ′ of the i-th particle is normalized by the sum of the temporary weights wi ′ of all the particles. N represents the number of particles.
Figure 2009223757

このようにして、制御コンピュータ15は、グリッドマップ20上において、各パーティクルについて計測した距離データと、自律移動体10がレーザレンジファインダ17により実際に計測した距離データとに基づいて、各パーティクルの重みを決定する。   In this way, the control computer 15 determines the weight of each particle based on the distance data measured for each particle on the grid map 20 and the distance data actually measured by the autonomous mobile body 10 using the laser range finder 17. To decide.

図6に戻り説明を続ける。次に、制御コンピュータ15は、最も大きな重みを持つパーティクル位置を、自律移動体10の推定自己位置として認識する(ステップS105)。そして、推定自己位置として認識したパーティクル位置の座標を、自己位置としてグリッドマップ20上に記憶する(ステップS106)。   Returning to FIG. Next, the control computer 15 recognizes the particle position having the largest weight as the estimated self-position of the autonomous mobile body 10 (step S105). Then, the coordinates of the particle position recognized as the estimated self position are stored on the grid map 20 as the self position (step S106).

更に、制御コンピュータ15は、決定したパーティクル位置の重みに基づいて、パーティクル位置のリサンプリングを実行する(ステップS107)。具体的には、リサンプリングの実行は、例えば図10に示すような、各パーティクル位置の重みの累積和に基づいて実行することができる。まず、制御コンピュータ15は、0〜1の間でランダムな値を計算する。そして、計算されたそのランダム値に対応するパーティクル位置を、新たなパーティクル位置として引き継ぐものとする。例えば、ランダムな値が0.15であった場合には、図10に照らし合わせると5番目のパーティクル位置part_5が該当するため、そのパーティクルの位置(x,y,θ)を引き継ぐ。このリサンプリング処理を、パーティクル位置の個数分繰り返して、新しいパーティクル群を作成する。このような手法によれば、重みが大きなパーティクル位置ほど選択され易い構成となっているため、パーティクル位置の重みに応じて容易にリサンプリングを実行することができる。尚、図10では、例えば、1番目のパーティクル位置part_1の重みが0.04、2番目のパーティクル位置part_2の重みが0.03、3番目のパーティクル位置part_3の重みが0.01、4番目のパーティクル位置part_4の重みが0.05、5番目のパーティクル位置part_1の重みが0.07、・・・であるものとし、これらパーティクル位置の重みの総和は1である。   Further, the control computer 15 executes resampling of the particle position based on the determined weight of the particle position (step S107). Specifically, resampling can be performed based on the cumulative sum of the weights of the particle positions as shown in FIG. First, the control computer 15 calculates a random value between 0 and 1. Then, the particle position corresponding to the calculated random value is taken over as a new particle position. For example, if the random value is 0.15, the fifth particle position part_5 corresponds to FIG. 10, and the position (x, y, θ) of the particle is taken over. This resampling process is repeated for the number of particle positions to create a new particle group. According to such a method, since a particle position having a larger weight is more easily selected, resampling can be easily performed according to the weight of the particle position. In FIG. 10, for example, the weight of the first particle position part_1 is 0.04, the weight of the second particle position part_2 is 0.03, the weight of the third particle position part_3 is 0.01, It is assumed that the weight of the particle position part_4 is 0.05, the weight of the fifth particle position part_1 is 0.07,..., And the sum of the weights of these particle positions is 1.

そして、制御コンピュータ15は、ステップS108に進んで移動を終了するか否かを判断した後、移動を継続する場合はステップS102に戻って再度オドメトリ法に基づくパーティクル位置を求める。また、ステップS108において移動を終了させると判断した場合は、移動停止処理を行った後、次の指令を受けるまで待機する。   Then, the control computer 15 proceeds to step S108 and determines whether or not to end the movement. If the movement is to be continued, the control computer 15 returns to step S102 to obtain the particle position based on the odometry method again. If it is determined in step S108 that the movement is to be ended, after the movement stop process is performed, the process waits until the next command is received.

このように、オドメトリ法により算出された自己位置の候補地点にパーティクルフィルタ処理を施す際に、ガラスなどの光学的に特殊な素材の光反射率属性情報を用いて、レーザ光の反射を仮想的に描写しながら自己位置推定を実施する。グリッドマップ20上においてパーティクル位置からレーザ光を延ばしたときに、途中のグリッド単位がガラスとして記録されており、かつ、レーザ光の入射角度とそのガラス面とのなす角度が閾値以上である場合には(入射角度が浅い場合には)、レーザ光を反射させて実際のレーザの原理を仮想的に再現することで、自己位置推定精度を向上させることができる。   As described above, when performing the particle filter processing on the candidate point of the self-position calculated by the odometry method, the reflection of the laser beam is virtually controlled using the light reflectance attribute information of the optically special material such as glass. The self-position estimation is performed while depicting When the laser beam is extended from the particle position on the grid map 20, the grid unit in the middle is recorded as glass, and the angle formed between the incident angle of the laser beam and the glass surface is equal to or greater than the threshold value. (When the incident angle is shallow), the self-position estimation accuracy can be improved by reflecting the laser light and virtually reproducing the principle of the actual laser.

その他の実施の形態.
上述した実施の形態においては、自律移動体を平面上を自律的に移動する車輪駆動型の移動体であるものとしたが、本発明は、脚型の移動体でも適用可能である。
Other embodiments.
In the above-described embodiment, the autonomous mobile body is a wheel-driven mobile body that autonomously moves on a plane, but the present invention can also be applied to a leg-type mobile body.

尚、本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。   It should be noted that the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention already described.

第1の実施の形態に係る自律移動体が、移動する移動領域内に位置する様子を示す概略図である。It is the schematic which shows a mode that the autonomous mobile body which concerns on 1st Embodiment is located in the moving area which moves. 図1に示す自律移動体の内部構成を簡易的に表す概略図である。It is the schematic showing the internal structure of the autonomous mobile body shown in FIG. 1 simply. 図3に示す移動体本体に記憶されたグリッドマップの一例表す図である。It is a figure showing an example of the grid map memorize | stored in the mobile body main body shown in FIG. 図4に示すグリッドマップ上において、自律移動体が移動を行うための移動経路を作成する様子を示す図である。It is a figure which shows a mode that the movement path | route for an autonomous mobile body to move on the grid map shown in FIG. 4 is produced. 移動領域内において自律移動体がレーザレンジファインダを用いてセンシングを行う様子を簡易的に示す概略図である。It is the schematic which shows a mode that an autonomous mobile body performs sensing using a laser range finder within a movement area | region. 第1の実施形態に係る自律移動体において、自律移動体の自己位置を推定するための手順を示すフローチャートである。It is a flowchart which shows the procedure for estimating the self-position of an autonomous mobile body in the autonomous mobile body which concerns on 1st Embodiment. 自律移動体が移動を継続した際に算出されたパーティクル位置の例を示す概略図である。It is the schematic which shows the example of the particle position calculated when the autonomous mobile body continued a movement. パーティクル位置の重みを計算するための手順を示すフローチャートである。It is a flowchart which shows the procedure for calculating the weight of a particle position. パーティクル位置の計測距離を計算する様子を簡易的に示す概略図である。It is the schematic which shows a mode that the measurement distance of a particle position is calculated. パーティクル位置のリサンプリング処理を実行する様子を簡易的に示す概略図である。It is the schematic which shows a mode that the resampling process of a particle position is performed. 移動領域内において従来の自律移動体がレーザレンジファインダを用いてセンシングを行う様子を簡易的に示す概略図である。It is the schematic which shows a mode that the conventional autonomous mobile body performs sensing using a laser range finder within a movement area | region.

符号の説明Explanation of symbols

1 床部、10 自律移動体、10a 移動体本体、
11 車輪、12 キャスタ、13 駆動部、14 カウンタ、
15 制御コンピュータ(演算部)、15a 記憶領域(記憶部)、16 バッテリー、
17 レーザレンジファインダ、18 超音波センサ、
20 グリッドマップ、21 外枠、22 グリッド線、
P 移動領域、S1 センシング領域、SP センシングポイント、
W 壁、G ガラス、B 物体、EP パーティクル位置
1 floor, 10 autonomous mobile body, 10a mobile body,
11 wheels, 12 casters, 13 drive units, 14 counters,
15 control computer (arithmetic unit), 15a storage area (storage unit), 16 battery,
17 Laser range finder, 18 Ultrasonic sensor,
20 grid map, 21 outer frame, 22 grid lines,
P movement area, S1 sensing area, SP sensing point,
W wall, G glass, B object, EP particle position

Claims (16)

移動領域に存在する物体の位置・形状を示す環境情報を取得するレーザレンジファインダを備え、前記移動領域に関する移動マップを用いて、前記レーザレンジファインダで取得した環境情報に基づいて自己位置を認識しつつ移動可能な自律移動体であって、
前記移動マップが、前記物体の光反射率属性を示す情報を含む
ことを特徴とする自律移動体。
A laser range finder that acquires environmental information indicating the position and shape of an object present in the moving area is provided, and the self-position is recognized based on the environmental information acquired by the laser range finder using a moving map related to the moving area. An autonomous mobile body that can move while
The autonomous moving body, wherein the movement map includes information indicating a light reflectance attribute of the object.
前記レーザレンジファインダからレーザ光を照射し、前記照射したレーザ光の反射に基づいて環境情報を取得する取得部と、前記自律移動体の自己位置候補を算出する自己位置候補算出部と、前記取得した環境情報と前記算出した自己位置候補とに基づいて推定自己位置を認識する自己位置推定部とを備え、
前記自己位置推定部が、前記移動マップ上において前記物体の光反射率属性を示す情報に基づいて前記レーザ光を仮想的に反射させ、前記仮想的に反射させたレーザ光と前記取得部で取得した環境情報とに基づいて、前記自己位置候補算出部により算出した自己位置候補を修正し、修正後の自己位置候補を推定自己位置として前記移動マップ上において認識する
ことを特徴とする請求項1記載の自律移動体。
An acquisition unit that irradiates laser light from the laser range finder and acquires environmental information based on reflection of the irradiated laser light, a self-position candidate calculation unit that calculates a self-position candidate of the autonomous mobile body, and the acquisition A self-position estimation unit that recognizes an estimated self-position based on the environmental information and the calculated self-position candidate,
The self-position estimation unit virtually reflects the laser beam based on information indicating the light reflectance attribute of the object on the movement map, and is acquired by the virtually reflected laser beam and the acquisition unit. The self-position candidate calculated by the self-position candidate calculation unit is corrected based on the environmental information, and the corrected self-position candidate is recognized on the movement map as an estimated self-position. The autonomous mobile body described.
前記自己位置推定部が、前記移動マップ上において、前記自己位置候補算出部により算出した推定自己位置から前記物体に対して前記レーザ光を仮想的に描写し、前記描写したレーザ光の入射角度が所定の閾値以上である場合に、前記レーザ光を反射させ、前記仮想的に描写したレーザ光の計測距離と、前記取得部で取得したレーザ光の計測距離とに基づいて、前記自己位置候補算出部により算出した自己位置候補を修正し、修正後の自己位置候補を推定自己位置として前記移動マップ上において認識する
ことを特徴とする請求項2記載の自律移動体。
The self-position estimation unit virtually depicts the laser light with respect to the object from the estimated self-position calculated by the self-position candidate calculation unit on the movement map, and the incident angle of the depicted laser light is The self-position candidate calculation based on the measured distance of the laser beam virtually reflected and the measured distance of the laser beam acquired by the acquisition unit when the laser beam is reflected when the predetermined threshold value is exceeded The autonomous mobile body according to claim 2, wherein the self-position candidate calculated by the unit is corrected, and the corrected self-position candidate is recognized on the movement map as an estimated self-position.
前記所定の閾値が、前記物体の素材に応じて可変である
ことを特徴とする請求項3記載の自律移動体。
The autonomous mobile body according to claim 3, wherein the predetermined threshold is variable according to a material of the object.
前記自己位置推定部が、前記仮想的に描写したレーザ光の計測距離と、前記取得部で取得したレーザ光の計測距離とに基づいて、前記自己位置候補算出部により算出した自己位置候補の重みを前記計測距離の相関値に応じて算出し、前記算出した重みに基づいて前記自己位置候補から推定自己位置を決定して前記移動マップ上において認識する
ことを特徴とする請求項2記載の自律移動体。
The self-position estimation unit calculates the weight of the self-position candidate calculated by the self-position candidate calculation unit based on the virtually measured laser light measurement distance and the laser light measurement distance acquired by the acquisition unit. The autonomous system according to claim 2, wherein a self-position is calculated from the self-position candidate based on the calculated weight and recognized on the movement map. Moving body.
前記自己位置候補算出部が、前記自律移動体の移動した方向及び距離に基づいて自己位置候補を算出する
ことを特徴とする請求項2記載の自律移動体。
The autonomous mobile body according to claim 2, wherein the self-position candidate calculation unit calculates a self-position candidate based on a direction and a distance traveled by the autonomous mobile body.
前記移動マップが、前記移動領域内において略一定間隔に配置された格子点を結ぶグリッド線を仮想的に描写することで作成されるグリッドマップである
ことを特徴とする請求項1乃至6いずれか1項記載の自律移動体。
7. The grid map created by virtually depicting grid lines connecting lattice points arranged at substantially constant intervals in the movement region. 7. The autonomous mobile body according to item 1.
移動領域に存在する物体の位置・形状を示す環境情報を取得するレーザレンジファインダを備え、前記レーザレンジファインダからレーザ光を照射し、前記照射したレーザ光の反射に基づいて環境情報を取得する取得手段と、前記自律移動体の自己位置候補を算出する自己位置候補算出手段と、前記取得した環境情報と前記算出した自己位置候補とに基づいて推定自己位置を認識する自己位置推定手段とを備え、前記移動領域に関する移動マップを用いて、前記取得手段で取得した環境情報に基づいて自己位置を認識しつつ移動可能な自律移動体の制御システムであって、
前記自己位置推定手段が、前記移動マップ上において前記物体の光反射率属性を示す情報に基づいて前記レーザ光を仮想的に反射させ、前記仮想的に反射させたレーザ光と前記取得手段で取得した環境情報とに基づいて、前記自己位置候補算出手段により算出した自己位置候補を修正し、修正後の自己位置候補を推定自己位置として前記移動マップ上において認識する
ことを特徴とする自律移動体の制御システム。
A laser range finder that acquires environmental information indicating the position and shape of an object existing in a moving region is provided, and laser light is emitted from the laser range finder, and environmental information is acquired based on reflection of the irradiated laser light. Means, self-position candidate calculation means for calculating a self-position candidate for the autonomous mobile body, and self-position estimation means for recognizing an estimated self-position based on the acquired environment information and the calculated self-position candidate. A control system for an autonomous mobile body that can move while recognizing its own position based on environmental information acquired by the acquisition means using a movement map relating to the movement area,
The self-position estimation unit virtually reflects the laser beam based on information indicating the light reflectance attribute of the object on the movement map, and is acquired by the virtually reflected laser beam and the acquisition unit. An autonomous mobile body that corrects the self-position candidate calculated by the self-position candidate calculating means based on the environmental information and recognizes the corrected self-position candidate as an estimated self-position on the movement map. Control system.
前記自己位置推定手段が、前記移動マップ上において、前記自己位置候補算出手段により算出した推定自己位置から前記物体に対して前記レーザ光を仮想的に描写し、前記描写したレーザ光の入射角度が所定の閾値以上である場合に、前記レーザ光を反射させ、前記仮想的に描写したレーザ光の計測距離と、前記取得部で取得したレーザ光の計測距離とに基づいて、前記自己位置候補算出手段により算出した自己位置候補を修正し、修正後の自己位置候補を推定自己位置として前記移動マップ上において認識する
ことを特徴とする請求項8記載の自律移動体の制御システム。
The self-position estimation means virtually depicts the laser beam with respect to the object from the estimated self-position calculated by the self-position candidate calculation means on the movement map, and the incident angle of the depicted laser light is The self-position candidate calculation based on the measured distance of the laser beam virtually reflected and the measured distance of the laser beam acquired by the acquisition unit when the laser beam is reflected when the predetermined threshold value is exceeded The autonomous mobile control system according to claim 8, wherein the self-position candidate calculated by the means is corrected, and the corrected self-position candidate is recognized on the movement map as an estimated self-position.
移動領域に存在する物体の位置・形状を示す環境情報を取得するレーザレンジファインダを備えた自律移動体において、前記移動領域に関する移動マップを用いて、前記レーザレンジファインダで取得した環境情報に基づいて前記自律移動体の自己位置を認識する自己位置推定方法であって、
前記移動マップが、前記物体の光反射率属性を示す情報を含む
ことを特徴とする自己位置推定方法。
In an autonomous mobile body equipped with a laser range finder that acquires environmental information indicating the position and shape of an object existing in the moving area, based on the environmental information acquired by the laser range finder using a movement map related to the moving area. A self-position estimation method for recognizing the self-position of the autonomous mobile body,
The self-position estimation method, wherein the movement map includes information indicating a light reflectance attribute of the object.
前記レーザレンジファインダからレーザ光を照射し、前記照射したレーザ光の反射に基づいて環境情報を取得するステップと、前記自律移動体の自己位置候補を算出するステップと、前記取得した環境情報と前記算出した自己位置候補に基づいて推定自己位置を認識するステップとを備え、
前記自己位置を認識するステップでは、前記移動マップ上において前記物体の光反射率属性を示す情報に基づいて前記レーザ光を仮想的に反射させ、前記仮想的に反射させたレーザ光と前記取得部で取得した環境情報とに基づいて、前記算出した自己位置候補を修正し、修正後の自己位置候補を推定自己位置として前記移動マップ上において認識する
ことを特徴とする請求項10記載の自己位置推定方法。
Irradiating a laser beam from the laser range finder, acquiring environmental information based on reflection of the irradiated laser beam, calculating a self-position candidate of the autonomous mobile body, the acquired environmental information, and the Recognizing an estimated self-position based on the calculated self-position candidate,
In the step of recognizing the self-position, the laser beam is virtually reflected on the movement map based on information indicating the light reflectance attribute of the object, and the virtually reflected laser beam and the acquisition unit The self-location according to claim 10, wherein the calculated self-location candidate is corrected based on the environment information acquired in step S, and the corrected self-position candidate is recognized as an estimated self-location on the movement map. Estimation method.
前記自己位置を認識するステップでは、前記移動マップ上において、前記算出した推定自己位置から前記物体に対して前記レーザ光を仮想的に描写し、前記描写したレーザ光の入射角度が所定の閾値以上である場合に、前記レーザ光を反射させ、前記仮想的に描写したレーザ光の計測距離と、前記取得部で取得したレーザ光の計測距離とに基づいて、前記算出した自己位置候補を修正し、修正後の自己位置候補を推定自己位置として前記移動マップ上において認識する
ことを特徴とする請求項11記載の自己位置推定方法。
In the step of recognizing the self-position, the laser beam is virtually depicted with respect to the object from the calculated estimated self-position on the movement map, and the incident angle of the depicted laser light is equal to or greater than a predetermined threshold value If the laser beam is reflected, the calculated self-position candidate is corrected based on the virtually measured laser beam measurement distance and the laser beam measurement distance acquired by the acquisition unit. The self-position estimation method according to claim 11, wherein the corrected self-position candidate is recognized on the movement map as an estimated self-position.
前記所定の閾値が、前記物体の素材に応じて可変である
ことを特徴とする請求項12記載の自己位置推定方法。
The self-position estimation method according to claim 12, wherein the predetermined threshold value is variable according to a material of the object.
前記自己位置を認識するステップでは、前記仮想的に描写したレーザ光の計測距離と、前記取得部で取得したレーザ光の計測距離とに基づいて、前記算出した自己位置候補の重みを前記計測距離の相関値に応じて算出し、前記算出した重みに基づいて前記自己位置候補から推定自己位置を決定して前記移動マップ上において認識する
ことを特徴とする請求項11記載の自己位置推定方法。
In the step of recognizing the self-position, the weight of the calculated self-position candidate is calculated based on the virtually measured laser light measurement distance and the laser light measurement distance acquired by the acquisition unit. The self-position estimation method according to claim 11, wherein the self-position is calculated according to the correlation value, and an estimated self-position is determined from the self-position candidates based on the calculated weight and recognized on the movement map.
前記自己位置を認識するステップでは、前記自律移動体の移動した方向及び距離に基づいて自己位置候補を算出する
ことを特徴とする請求項11記載の自己位置推定方法。
The self-position estimation method according to claim 11, wherein in the step of recognizing the self-position, a self-position candidate is calculated based on a direction and a distance in which the autonomous mobile body has moved.
前記移動マップが、前記移動領域内において略一定間隔に配置された格子点を結ぶグリッド線を仮想的に描写することで作成されるグリッドマップである
ことを特徴とする請求項10乃至15いずれか1項記載の自己位置推定方法。
16. The grid map created by virtually depicting grid lines connecting lattice points arranged at substantially constant intervals in the movement region. The self-position estimation method according to claim 1.
JP2008069289A 2008-03-18 2008-03-18 Autonomous mobile body, control system, and self-position estimation method Pending JP2009223757A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008069289A JP2009223757A (en) 2008-03-18 2008-03-18 Autonomous mobile body, control system, and self-position estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008069289A JP2009223757A (en) 2008-03-18 2008-03-18 Autonomous mobile body, control system, and self-position estimation method

Publications (1)

Publication Number Publication Date
JP2009223757A true JP2009223757A (en) 2009-10-01

Family

ID=41240438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008069289A Pending JP2009223757A (en) 2008-03-18 2008-03-18 Autonomous mobile body, control system, and self-position estimation method

Country Status (1)

Country Link
JP (1) JP2009223757A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011100306A (en) * 2009-11-06 2011-05-19 Hitachi Ltd Simulation system
WO2014012351A1 (en) * 2012-07-16 2014-01-23 苏州科瓴精密机械科技有限公司 Positioning system of mobile robot and positioning method thereof
JP2015001820A (en) * 2013-06-14 2015-01-05 シャープ株式会社 Autonomous mobile body, control system of the same, and own position detection method
JP2015105046A (en) * 2013-11-29 2015-06-08 Idec株式会社 Ground movable body, control circuit, measuring device and setting program
CN106646513A (en) * 2016-12-29 2017-05-10 上海遥薇(集团)有限公司 Map construction system based on intelligent robot and map navigation method based on intelligent robot
KR101778028B1 (en) * 2010-12-20 2017-09-13 삼성전자주식회사 Robot and method for planning path of the same
CN111345735A (en) * 2018-12-24 2020-06-30 江苏美的清洁电器股份有限公司 Map construction method and device of sweeper
WO2020183658A1 (en) * 2019-03-13 2020-09-17 学校法人 千葉工業大学 Information processing device and mobile robot
WO2020207001A1 (en) * 2019-04-10 2020-10-15 苏州科瓴精密机械科技有限公司 Method for improving resolution of laser turntable, and robot system

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011100306A (en) * 2009-11-06 2011-05-19 Hitachi Ltd Simulation system
KR101778028B1 (en) * 2010-12-20 2017-09-13 삼성전자주식회사 Robot and method for planning path of the same
WO2014012351A1 (en) * 2012-07-16 2014-01-23 苏州科瓴精密机械科技有限公司 Positioning system of mobile robot and positioning method thereof
CN103542846A (en) * 2012-07-16 2014-01-29 苏州科瓴精密机械科技有限公司 Locating system and method of mobile robot
JP2015001820A (en) * 2013-06-14 2015-01-05 シャープ株式会社 Autonomous mobile body, control system of the same, and own position detection method
JP2015105046A (en) * 2013-11-29 2015-06-08 Idec株式会社 Ground movable body, control circuit, measuring device and setting program
CN106646513A (en) * 2016-12-29 2017-05-10 上海遥薇(集团)有限公司 Map construction system based on intelligent robot and map navigation method based on intelligent robot
CN111345735A (en) * 2018-12-24 2020-06-30 江苏美的清洁电器股份有限公司 Map construction method and device of sweeper
WO2020183658A1 (en) * 2019-03-13 2020-09-17 学校法人 千葉工業大学 Information processing device and mobile robot
CN113490973A (en) * 2019-03-13 2021-10-08 千叶工业大学 Information processing device and mobile robot
JPWO2020183658A1 (en) * 2019-03-13 2021-11-18 学校法人千葉工業大学 Information processing equipment and mobile robots
JP7095929B2 (en) 2019-03-13 2022-07-05 学校法人千葉工業大学 Information processing equipment and mobile robots
TWI773964B (en) * 2019-03-13 2022-08-11 日本千葉工業大學 Information processing device and mobile robot
WO2020207001A1 (en) * 2019-04-10 2020-10-15 苏州科瓴精密机械科技有限公司 Method for improving resolution of laser turntable, and robot system
CN111812667A (en) * 2019-04-10 2020-10-23 苏州科瓴精密机械科技有限公司 Method for improving resolution of laser turntable and robot system
CN111812667B (en) * 2019-04-10 2023-06-06 苏州科瓴精密机械科技有限公司 Method for improving resolution of laser turntable and robot system

Similar Documents

Publication Publication Date Title
JP2009223757A (en) Autonomous mobile body, control system, and self-position estimation method
CN107976999B (en) Mobile robot and obstacle avoidance and path planning method and system thereof
JP2009031884A (en) Autonomous mobile body, map information creation method in autonomous mobile body and moving route specification method in autonomous mobile body
KR100772912B1 (en) Robot using absolute azimuth and method for mapping by the robot
EP2094452B1 (en) Surroundings mapping apparatus capable of applying quickly changed surroundings information in mobile robot and method thereof
JP5826795B2 (en) Autonomous mobile body, its control system, and self-position detection method
JP6079415B2 (en) Autonomous mobile
US8676429B2 (en) Autonomous mobile device
JP5278283B2 (en) Autonomous mobile device and control method thereof
JP6202517B2 (en) Map creation device, map creation program, and map creation method
KR20170088228A (en) Map building system and its method based on multi-robot localization
JP6962007B2 (en) Driving control device for autonomous driving trolley, autonomous driving trolley
JP2016024598A (en) Control method of autonomous mobile apparatus
WO2014178273A1 (en) Movement control device for autonomous moving body, autonomous moving body, and movement control method
CN108303989A (en) A kind of method and apparatus moved along wall for mobile robot
JP2011209845A (en) Autonomous mobile body, self-position estimation method and map information creation system
JP2011059905A (en) Robot, control program, and recording medium
JP7133251B2 (en) Information processing device and mobile robot
JP2010061484A (en) Mobile object and recovery method from position prediction error state of mobile object
RU2740229C1 (en) Method of localizing and constructing navigation maps of mobile service robot
JP2018185767A (en) Environment maintenance robot, and control program of the same
JP5553220B2 (en) Moving body
Tsai et al. Use of ultrasonic sensors to enable wheeled mobile robots to avoid obstacles
CN113566808A (en) Navigation path planning method, device, equipment and readable storage medium
CN113490973B (en) Information processing device and mobile robot