JP2011238104A - Mobile robot - Google Patents
Mobile robot Download PDFInfo
- Publication number
- JP2011238104A JP2011238104A JP2010110160A JP2010110160A JP2011238104A JP 2011238104 A JP2011238104 A JP 2011238104A JP 2010110160 A JP2010110160 A JP 2010110160A JP 2010110160 A JP2010110160 A JP 2010110160A JP 2011238104 A JP2011238104 A JP 2011238104A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- mobile robot
- angle
- condition
- obstacle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 137
- 238000004364 calculation method Methods 0.000 abstract description 8
- 230000000295 complement effect Effects 0.000 description 16
- 238000013500 data storage Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Abstract
Description
本発明は、移動ロボットに関する。特に、障害物センサによって周囲の障害物を検知し、障害物を回避しながら移動することのできる移動ロボットに関する。 The present invention relates to a mobile robot. In particular, the present invention relates to a mobile robot capable of detecting surrounding obstacles with an obstacle sensor and moving while avoiding the obstacles.
高度な移動ロボットは、障害物センサを搭載しており、障害物を回避しながら移動するアルゴリズムを実装している。移動経路が予め定められていても、移動ロボットは、障害物と衝突の虞がある場合は移動経路をリアルタイムに修正する。通常、移動機構は、脚、或いは車輪である。障害物センサは、例えば、レーザレンジセンサやカメラ(画像処理装置)である。 Advanced mobile robots are equipped with obstacle sensors and implement algorithms that move while avoiding obstacles. Even if the movement path is predetermined, the mobile robot corrects the movement path in real time when there is a possibility of collision with an obstacle. Usually, the moving mechanism is a leg or a wheel. The obstacle sensor is, for example, a laser range sensor or a camera (image processing apparatus).
1回のセンシングでセンサが検知できる範囲は限られている。そこで、例えば特許文献1には、移動中に繰り返し周囲の障害物を検知し、各検知地点のセンサデータを統合して用いる移動ロボットが開示されている。特許文献1の移動ロボットは、各検知地点における障害物センサのセンサデータを統一の座標系に写像した環境マップを生成する。
The range that the sensor can detect with one sensing is limited. Thus, for example,
繰り返し取得したセンサデータを全て保存しておくとデータ量が膨大となる。近年は記憶装置の容量が飛躍的に増大しているので、センサデータを保存しておくことは可能であるかもしれない。しかしながら、データ量が膨大となると、環境マップの生成に要する計算コストが嵩んでしまう。計算コストとは、計算時間が嵩むこと、或いは、短時間で計算するには高い処理能力が要求されること、を意味する。 If all the sensor data acquired repeatedly is stored, the amount of data becomes enormous. In recent years, the capacity of storage devices has increased dramatically, so it may be possible to store sensor data. However, when the amount of data becomes enormous, the calculation cost required for generating the environment map increases. The calculation cost means that the calculation time is increased, or that a high processing capacity is required to calculate in a short time.
環境マップ生成に用いる元データを削減する単純なアルゴリズムとしては、古いセンサデータを削除することが考えられる。しかしながら、単純に古いセンサデータを削除してしまうと不都合が生じる場合がある。例えば、障害物センサは、移動ロボットの足元が計測できない場合がある。そのような場合、移動ロボットは、現在移動ロボットが位置する場所(足元)を過去において計測したセンサデータに依拠して足元の障害物を把握する。そのような移動ロボットが一定時間以上過去のセンサデータを破棄してしまうと、移動ロボットが静止している場合(或いはその場で足踏みしている場合)、一定時間後には足元を障害物に関する情報が失われてしまう。また、過去の検知地点では検知範囲に属するが新しい検知地点では死角となる領域が存在する場合も、過去のセンサデータを破棄してしまうと環境マップに死角が生じてしまう。典型的には前述したように、過去のセンサデータを破棄してしまうと足元が死角となってしまう虞がある。本発明は、上記課題に鑑みて創作された。本発明は、できるだけ死角を生じさせることなく、過去のセンサデータを統合した環境マップを生成するのに要する計算コストを低減する技術を提供する。 As a simple algorithm for reducing the original data used for environment map generation, it is conceivable to delete old sensor data. However, simply deleting old sensor data may cause inconvenience. For example, the obstacle sensor may not be able to measure the feet of the mobile robot. In such a case, the mobile robot grasps the obstacle at the step based on the sensor data obtained by measuring the location (the step) where the mobile robot is currently located in the past. If such a mobile robot discards past sensor data for more than a certain period of time, if the mobile robot is stationary (or is stepping on the spot), the information about the obstacle will be displayed after a certain period of time. Will be lost. In addition, even if there is an area that belongs to the detection range at the past detection point but becomes a blind spot at the new detection spot, if the past sensor data is discarded, a blind spot occurs in the environment map. Typically, as described above, if past sensor data is discarded, there is a possibility that the step becomes a blind spot. The present invention has been created in view of the above problems. The present invention provides a technique for reducing the calculation cost required to generate an environment map that integrates past sensor data without causing blind spots as much as possible.
発明者は、検討の結果、過去のセンサデータのうち、将来利用される可能性が高い条件を見出した。その条件は、時間に依存しない。その条件とは、一つは、検知地点が最新の検知地点に近いという条件であり、もう一つは、センサの向いていた方向(検知方向)が最新の検知地点における検知方向と大きく異なる、という条件である。少なくともいずれか一方の条件を満足する検知地点にて計測されたセンサデータを環境マップの元データとして採用し、そうでない過去のセンサデータは環境マップ生成から除外すれば、死角を生じる可能性を抑制しつつ、過去のセンサデータを統合した環境マップを生成するのに要する計算コストを低減できる。 As a result of the study, the inventor has found out conditions that are likely to be used in the future among past sensor data. The condition is independent of time. One of the conditions is that the detection point is close to the latest detection point, and the other is that the direction the sensor is facing (detection direction) is significantly different from the detection direction at the latest detection point. This is the condition. If sensor data measured at a detection point that satisfies at least one of the conditions is used as the original data of the environment map, and past sensor data that is not so is excluded from the environment map generation, the possibility of blind spots is suppressed. However, the calculation cost required to generate an environment map that integrates past sensor data can be reduced.
上記した条件を満足する過去のセンサデータを環境マップ生成に必ずしも使う必要はないことに留意されたい。例えば、上記した条件を満足する過去のセンサデータであっても、検知範囲が当面の進行方向から外れている場合にはそのセンサデータを用いる必要はない。従って、上記のアルゴリズムを実装する場合は、最新の検知地点との距離が既定の距離閾値より大きいという距離条件、及び、最新の検知地点における検知方向との角度が既定の角度閾値よりも小さいという角度条件、を共に満足する過去の検知地点におけるセンサデータを、環境マップを生成するための元データから除外する、というアルゴリズムで与えるのが好適である。 It should be noted that past sensor data that satisfies the above-described conditions does not necessarily have to be used for environment map generation. For example, even in the case of past sensor data that satisfies the above conditions, it is not necessary to use the sensor data if the detection range is out of the current traveling direction. Therefore, when the above algorithm is implemented, the distance condition that the distance to the latest detection point is larger than the predetermined distance threshold, and the angle with the detection direction at the latest detection point is smaller than the predetermined angle threshold. It is preferable to provide the sensor data at the past detection points that satisfy both the angle conditions by an algorithm that excludes the sensor data from the original data for generating the environment map.
本明細書が開示する一つの技術的教示は、次の移動ロボットを提供する。移動ロボットは、障害物センサとオドメトリモジュールと環境マップ生成モジュールを備えている。障害物センサは、移動中に繰り返し周囲の障害物を検知する。即ち移動ロボットは異なる検知地点で障害物を検知する。オドメトリモジュールは、障害物検知を行った検知地点間の距離と夫々の検知地点における検知方向(障害物センサの向き)の間の角度を記録する。なお、「オドメトリ」とは、移動経路の記録(経路上各地点における進行方向の情報を含む)を意味し、移動ロボットの技術分野ではよく使われる技術用語である。検知地点間の距離と検知方向間の角度は、「オドメトリ」から算出できる。マップ生成モジュールは、記録された距離と角度に基づいて、各検知地点における障害物センサのセンサデータを統一の座標系に写像した環境マップを生成する。「統一の座標系」は、典型的には、絶対座標系、或いは、現在位置における移動ロボット固定の座標系である。ここで、マップ生成モジュールは、次の2つの条件、即ち、距離条件:「最新の検知地点との距離が既定の距離閾値より大きいこと」、及び、角度条件:「最新の検知地点における検知方向との角度が既定の角度閾値よりも小さいこと」、を共に満足する過去の検知地点におけるセンサデータを、環境マップを生成するための元データから除外する。「除外する」とは、典型的には記憶装置から削除することである。或いは記憶装置の容量に余裕がある場合は、「除外する」とは、記憶装置からは削除しないが、環境マップを生成する元データとして採用はしないことであってもよい。 One technical teaching disclosed herein provides the following mobile robot. The mobile robot includes an obstacle sensor, an odometry module, and an environment map generation module. The obstacle sensor repeatedly detects surrounding obstacles while moving. That is, the mobile robot detects an obstacle at different detection points. The odometry module records the angle between the distance between the detection points where the obstacle is detected and the detection direction (direction of the obstacle sensor) at each detection point. “Odometry” means recording of a travel route (including information on the direction of travel at each point on the route), and is a technical term often used in the technical field of mobile robots. The distance between the detection points and the angle between the detection directions can be calculated from “odometry”. Based on the recorded distance and angle, the map generation module generates an environment map in which the sensor data of the obstacle sensor at each detection point is mapped to a unified coordinate system. The “unified coordinate system” is typically an absolute coordinate system or a coordinate system fixed to the mobile robot at the current position. Here, the map generation module uses the following two conditions: distance condition: “the distance to the latest detection point is greater than a predetermined distance threshold”, and angle condition: “the detection direction at the latest detection point. The sensor data at the past detection points that satisfy both “the angle with the angle smaller than the predetermined angle threshold” is excluded from the original data for generating the environment map. “Exclude” typically means deletion from the storage device. Alternatively, when there is a capacity in the storage device, “exclude” may not be deleted from the storage device, but may not be adopted as the original data for generating the environment map.
上記距離条件の相補的な条件、即ち、最新の検知地点との距離が既定の距離閾値より小さいという条件を相補距離条件と称することにする。同様に、上記角度条件の相補的な条件、即ち、最新の検知地点における検知方向との角度が既定の角度閾値よりも大きいという条件を相補角度条件と称することにする。上記のマップ生成モジュールのセンサデータ選択アルゴリズムは、別言すれば、相補距離条件、又は、相補角度条件の少なくとも一方を満足する過去のデータを環境マップ生成のための元データの候補とすることである。ここで、「候補とする」とは、相補距離条件と相補角度条件の少なくとも一方を満足する過去の全てのセンサデータを環境マップ生成のために使う必要は必ずしもないことを意味することに留意されたい。 A condition complementary to the above distance condition, that is, a condition that the distance to the latest detection point is smaller than a predetermined distance threshold will be referred to as a complementary distance condition. Similarly, a condition complementary to the above angle condition, that is, a condition that the angle with the detection direction at the latest detection point is larger than a predetermined angle threshold is referred to as a complementary angle condition. In other words, the sensor data selection algorithm of the map generation module described above is based on the assumption that past data satisfying at least one of the complementary distance condition and the complementary angle condition is a candidate of the original data for generating the environment map. is there. Here, it is noted that “candidate” means that it is not always necessary to use all the past sensor data satisfying at least one of the complementary distance condition and the complementary angle condition for generating the environment map. I want.
相補距離条件は、現在の移動ロボットの近くを検知した過去のセンサデータを環境マップ生成の元データ候補とすることを保証する。相補角度条件は、現在の移動ロボットにおける検知方向から大きく外れている方向を検知範囲に有する過去のセンサデータは環境マップ生成の元データ候補とすることを保証する。特に後者は、障害物の背後に回り込む旋回動作を行うときに有効である。そのような旋回動作は死角を生じ易いからである。移動ロボットが旋回するとき、障害物センサの向いている方向が大きく変化するので、相補角度条件は、広角の範囲の障害物データを環境マップ生成の元データ候補に残すことを保証する。即ち、逆にいえば、上記した距離条件と角度条件を共に満足する過去のデータは、今後利用される可能性が低い。このように上記の移動ロボットは、死角が生じることを抑えながら、利用価値の低い過去のセンサデータをマップ生成から除外する。 The complementary distance condition ensures that past sensor data detected near the current mobile robot is used as an original data candidate for environment map generation. The complementary angle condition ensures that past sensor data having a detection range in a direction greatly deviating from the detection direction in the current mobile robot is an original data candidate for environment map generation. In particular, the latter is effective when performing a turning motion around the obstacle. This is because such a turning operation tends to cause a blind spot. Since the direction in which the obstacle sensor faces changes greatly when the mobile robot turns, the complementary angle condition ensures that obstacle data in a wide angle range is left as an original data candidate for environment map generation. In other words, the past data that satisfies both the distance condition and the angle condition described above is unlikely to be used in the future. As described above, the mobile robot excludes past sensor data having low utility value from the map generation while suppressing the occurrence of blind spots.
発明者は、別の観点から、時間に依存しないが、利用価値が高いセンサデータの他の条件を見出した。そのような条件は、換言すれば、古いデータである可能性があるが、利用価値が高い条件である。その条件とは、移動ロボットのこれからの予定経路が検知範囲に含まれている、という条件である。例えば、一旦通過した交差点を後に別の方向から再度通過する場合である。そのような場合は、初回通過したときに検知したセンサデータは、次に別方向から通過する際に有用である。そのような過去データは環境マップ生成の元データの候補として残しておくことが好ましい。そのようなデータ選択アルゴリズムは、次のように実装することができる。即ち、マップ生成モジュールは、検知範囲に移動ロボットの予定経路(これから辿る予定の経路)が含まれているという(相補)予定経路条件を満足する過去の検知地点におけるセンサデータを、環境マップを生成するための元データ候補として残しておく。ここで、「(相補)予定経路条件」としたのは、前記した相補距離条件と相補角度条件との整合性を保つためである。上記の相補予定経路条件に対して、「予定経路条件」は、検知範囲に移動ロボットの予定経路が含まれていない、という条件に相当する。 The inventor has found another condition of sensor data that is not time-dependent but has high utility value from another viewpoint. In other words, such a condition may be old data but has a high utility value. The condition is a condition that the planned route of the mobile robot is included in the detection range. For example, it is a case where an intersection that has passed once is passed again from another direction later. In such a case, the sensor data detected at the first pass is useful for the next pass from another direction. Such past data is preferably left as a candidate for the original data for generating the environment map. Such a data selection algorithm can be implemented as follows. That is, the map generation module generates an environment map based on sensor data at past detection points that satisfy the (complementary) planned route condition that the detection range includes the planned route of the mobile robot (the route to be followed). It is left as a candidate of original data for doing so. Here, the “(complementary) planned path condition” is used to maintain the consistency between the complementary distance condition and the complementary angle condition. In contrast to the complementary planned route condition described above, the “scheduled route condition” corresponds to a condition that the planned range of the mobile robot is not included in the detection range.
前記した距離条件と角度条件と合わせると、マップ生成モジュールは、次のアルゴリズムを実装していることが好適である。即ち、マップ生成モジュールは、前記した距離条件と角度条件に加えて、検知範囲に移動ロボットの予定経路が含まれていないという予定経路条件を満足する過去の検知地点におけるセンサデータを、環境マップを生成するための元データから除外する。予定経路条件まで含めた移動ロボットは、一層効率よく、計算コストを低減しつつ、死角範囲を生じる可能性を抑制することができる。 When combined with the distance condition and the angle condition described above, the map generation module preferably implements the following algorithm. That is, in addition to the distance condition and the angle condition described above, the map generation module converts the sensor data at the past detection points that satisfy the planned route condition that the planned route of the mobile robot is not included in the detection range into the environment map. Exclude from the original data to generate. The mobile robot including the planned route condition can more efficiently reduce the calculation cost and suppress the possibility of generating a blind spot range.
図1に、移動ロボット10の模式図を示す。移動ロボット10は、2本の脚で歩行することができる脚式ロボットである。脚には関節を駆動するアクチュエータ16が内蔵されている。コントローラ20が駆動系センサ14のセンサデータに基づいてアクチュエータ16を制御し、歩行動作が実現する。例えば駆動系センサ14は、各関節の角度を計測する角度センサや、足の接地を検知する接地センサなどである。それらのセンサは、移動ロボット10を駆動制御するために用いるセンサであるから駆動系センサ14と総称する。
FIG. 1 shows a schematic diagram of the
移動ロボット10はさらに、障害物センサ12を備える。障害物センサ12は、2個のカメラで撮影した画像からステレオ立体視の原理で被写体(障害物)の方向と距離を計測する画像センサである。移動ロボット10は、移動しながら障害物センサ12で繰り返し周囲の障害物(例えば図1のW1、W2、及び、W3)を検知しながら、それら障害物を回避する。例えば移動ロボット10には、予定経路R_defaultが与えられている。しかし、障害物W3が予定経路上に存在する。移動ロボット10は、予定経路R_defaultに沿って進みながら、障害物センサ12によって周囲、特に予定経路上に存在する障害物W1やW2を検知する。障害物W1とW2には衝突しないことが判明すると、移動ロボット10は予定経路R_defaultに沿って進む。障害物W3に近づき、障害物W3が障害物センサ12の検知範囲に入ると、移動ロボット10は、予定経路を進むと障害物W3と衝突することを検出する。このとき、移動ロボット10は、障害物W3を回避するよう、予定経路R_defaultの一部を修正経路R_modifiedにリアルタイムに変更し、修正経路R_modifiedに沿って進む。
The
図2に、移動ロボット10の制御系に関するブロック図を示す。以下、図1と図2を参照して、移動ロボット10における障害物の検知について説明する。なお、図2における「M」は「モジュール」を意味する。モジュールは、主としてソフトウエア(プログラム)としてコントローラ20に実装される。
FIG. 2 is a block diagram relating to the control system of the
移動ロボット10は、脚に備えられた駆動系センサ14によって、移動してきた経路を特定する。前述したように、駆動系センサ14は、各関節の角度を計測する角度センサや、足の接地を検知する接地センサなどである。各関節の角度から足の位置が求まり、足の向きからロボットの方向が求まる。また、足の着地毎に、前後の足の位置から移動距離が求まる。このように駆動系センサ14は、アクチュエータ16の制御に用いられるだけでなく、移動してきた経路の各位置におけるロボットの向きと、移動距離を特定するのにも用いられる。なお、ロボットの向きは、障害物センサ12の向き(検知方向)に等価である。駆動系センサ14のセンサデータは、オドメトリモジュール202に入力される。オドメトリモジュール202が、駆動系センサ14のセンサデータから着地毎の足の位置を算出し、各位置における向きと移動距離を記録する。またオドメトリモジュール202には障害物センサ12の検知タイミングが通知される。オドメトリモジュール202は、障害物センサ12の検知タイミングにおける移動ロボット10の位置(即ち検知位置)と向き(即ち障害物センサ12の検知方向)を特定する。さらにオドメトリモジュール202は、障害物検知を行った検知地点間の距離と夫々の検知地点における検知方向の間の角度を算出し、センサデータ記憶部204に記録する。センサデータ記憶部204にはまた、障害物センサ12が計測した障害物の位置に関するデータ(障害物センサ12のセンサデータ、以下、障害物センサデータと称する)が記録される。
The
障害物センサ12自体が移動ロボット10とともに移動するので、検知地点毎に障害物センサ12の位置と検知方向は異なる。即ち、障害物の位置を特定するための座標系が障害物センサデータ毎に異なる。マップ生成モジュール210が、障害物センサデータ毎に異なる座標系を統一の座標系に変換し、各検知地点における障害物センサデータを統一の座標系に写像した環境マップを生成する。環境マップ生成までの具体的な処理は次の通りである。
Since the
マップ生成モジュール210内のデータ選択部207が、センサデータ記憶部204から検知地点毎の障害物センサデータと、その検知地点の位置(検知位置)及び検知方向を読み出す。データ選択部207はまた、センサデータ記憶部204から、最新の検知地点の検知位置と検知方向を読み出す。データ選択部207は、読み出した過去の検知位置と最新の検知位置との間の距離、及び、過去の検知方向と最新の検知方向との間の角度を算出する。データ選択部207は、算出した距離が既定の距離閾値よりも大きく、かつ、算出した角度が既定の角度閾値よりも小さい場合、読み出した障害物センサをセンサデータ記憶部204から消去する。「算出した距離が既定の距離閾値よりも大きい」という条件が距離条件に相当し、「算出した角度が既定の角度閾値よりも小さい」という条件が角度条件に相当する。即ち、データ選択部207は、距離条件と角度条件を共に満足する過去の検知地点における障害物センサデータを消去する。データ選択部207は、距離条件と角度条件の少なくとも一方を満足しなかった検知地点における障害物センサデータを座標変換部208へ送る。データ選択部207は、センサデータ記憶部204に記録されている障害物センサデータ毎に上記の処理を繰り返す。なお、距離閾値と角度閾値は、予め与えられている。例えば距離閾値は5mであり、角度閾値は45degである。
The
座標変換部208は、検知位置と検知方向を、予め定められた一つの絶対座標系に変換する変換式を特定し、その変換式を用いて障害物センサデータを一つの絶対座標系(統一の座標系)に写像する。写像結果はマップ合成部209に送られる。マップ合成部209は、座標変換部208から送られる写像後の障害物センサデータを蓄積する。ここで、マップ合成部209は、既に蓄積された障害物センサデータが検知対象とする地理的範囲と、新たに送られた障害物センサデータが検知対象とする地理的範囲が重なる場合、新たに送られた障害物センサデータで既に蓄積された障害物センサデータを書き換える。こうして、各検知地点における障害物センサデータを一つの絶対座標系(統一の座標系)に写像して合成した環境マップが完成する。完成した環境マップのデータはマップ記憶部206に記録される。
The coordinate
経路決定モジュール212は、前述した予定経路R_defaultに沿って進みながら、環境マップを参照して直近の予定経路に沿って進めるか否か、或いは障害物に衝突する虞がないか否かを判断する。障害物に衝突する虞がある場合は、障害物を避けるように予定経路R_defaultをリアルタイムに修正する。駆動制御モジュール214は、経路決定モジュール212が計画した修正した経路に沿って進むようにアクチュエータ16を制御する。
The
図3と図4を用いて、障害物センサデータの選択処理を具体的に説明する。なお、以降の図では、図を簡単化するために移動ロボット10を三角で示している。図のP(t)、P(t−1)、P(t−2)、及び、P(i)は、移動ロボット10における障害物検知位置を示す。t、t−1、t−2、及び、iは時系列を意味し、「t」が最新の検知位置を示している。S(t)、S(t−1)、S(t−2)、及び、S(i)は、障害物の計測範囲(検知範囲)を示している。図3が示すように、検知範囲にはロボット自体は含まれない。移動ロボット10が位置P(t)に位置するときは、時刻t−2のときに取得した障害物センサデータ、即ち、検知範囲S(t−2)の障害物センサデータを用いることによって、身近の障害物の存在を移動ロボット10は把握する。
The obstacle sensor data selection process will be specifically described with reference to FIGS. 3 and 4. In the following drawings, the
図4のAZ(i)は、時刻iにおける移動ロボット10の方向、即ち、障害物センサ12が向いている方向(検知方向)を示している。AZ(i)は過去の時刻iにおける検知方向を示しており、AZ(t)は最新の検知位置P(t)における検知方向を示している。検知方向AZ(i)と検知位置P(i)は駆動系センサ14のセンサデータに基づいてオドメトリモジュール202が特定する。
AZ (i) in FIG. 4 indicates the direction of the
マップ生成モジュール210内のデータ選択部207は、過去の検知位置P(i)と最新の検知位置P(t)との間の距離DL(i)を算出するとともに、過去の検知方向AZ(i)と最新の検知方向AZ(t)の間の角度DA(i)を算出する。データ選択部207は、距離DL(i)と角度DA(i)を使って、過去の時刻iにおける検知地点が前記した距離条件と角度条件を共に満足するか否かを判断する。データ選択部207は、両条件を共に満足する場合、その検知地点における障害物センサデータをセンサデータ記憶部204から消去する。即ちデータ選択部207は、「距離DL(i)>距離閾値、かつ、角度DA(i)<角度閾値」が満たされる検知位置における障害物センサデータ(S(i)のデータ)を削除する。データ選択部207は、i=0〜nまで、即ち、センサデータ記憶部204に残されている全ての障害物センサデータについ上記処理を繰り返す。
The
移動ロボット10の利点を述べる。移動ロボット10は、距離条件と角度条件の双方を満足する検知地点における障害物センサデータを、環境マップ生成のための元データとして採用しない。そのため、取得した全ての障害物センサデータを環境マップに用いる場合と比較すると環境マップ生成に要する計算コスト低減できる。元データとして採用しない障害物センサデータは、上記した距離条件と角度条件を共に満足する検知位置で計測された障害物センサデータである。すなわち、最新の検知地点から距離閾値よりも遠く、かつ、最新の検知方向との方位差が角度閾値よりも小さい過去の検知地点の障害物センサデータが採用されない。そのような障害物センサデータは、別言すれば最新の検知位置から距離閾値以上後方の範囲を対象としたデータである。そのような障害物データは将来に亘って利用される可能性が低い。そのため、将来に亘って死角(その障害物センサデータがなければ予定経路に沿って無事進めるか否かが判断できない領域)が生じる可能性が小さい。
The advantages of the
次に、上記した移動ロボット10をさらに向上した変形例を説明する。マップ生成モジュール210(データ選択部207)は、前記した距離条件と角度条件に加えて、検知範囲に移動ロボットの予定経路が含まれていないという予定経路条件を満足する過去の検知地点におけるセンサデータを、センサデータ記憶部204から削除する処理を備えるのが好適である。そのような処理の利点を、図5を参照して説明する。移動ロボット10は現在位置P(t)に位置する。過去の時刻iの検知位置P(i)と現在位置P(t)との間の距離DL(i)と、過去の時刻iにおける検知方向と現在の検知方向との角度DA(i)は、前記した距離条件と角度条件を共に満足すると仮定する。なお、角度DA(i)は図示していないが、図からDA(i)はゼロである。上記した処理では、検知位置P(i)における検知範囲S(i)の障害物センサデータは削除される。しかし、検知範囲S(i)は、これから移動ロボット10が進む予定経路R_defaultが含まれている。予定経路条件を加えたマップ生成モジュール210(データ選択部207)は、検知範囲S(i)の障害物センサデータを削除せず、環境マップ生成の元データ候補とする。なお、図5におけるR_pastは既に通過した経路を示す。例えば既に通過した経路R_pastと今後の予定経路R_defaultの交点が壁などによって見通しが悪い場合、過去に計測した検知範囲S(i)の障害物センサデータが有用である。
Next, a modified example in which the above-described
次に、障害物センサデータを選択するための別の条件を、図6を参照しながら説明する。図中のP(goal)は、予定経路の目的位置を示している。AZ(Goal)は、目的位置における移動ロボット10の予定された向きを示している。図6に示した移動ロボット10のマップ生成モジュールは、次の2つの条件、即ち、予定された目的地との距離(図6のDL(i))が既定の距離閾値より大きいという距離条件(第2距離条件)、及び、目的地における移動ロボットの予定された向きとの角度(図6におけるDA(i))が既定の角度閾値よりも小さいという角度条件(第2角度条件)を共に満足する過去の検知地点/検知方向におけるセンサデータを、環境マップを生成するための元データから除外する。
Next, another condition for selecting obstacle sensor data will be described with reference to FIG. P (goal) in the figure indicates the target position of the planned route. AZ (Goal) indicates the planned orientation of the
さらに、移動ロボット10の好適な変形例を図7を参照して説明する。移動ロボット50は、障害物センサ12の首を振ることができるように構成されている。即ち、移動ロボット50は、その本体に対して相対的に障害物センサ12の検知方向を変更できるように構成されている。移動ロボット50は、目的地P(goal)と、目的地P(goal)における移動ロボット50の予定された向きAZ(goal)を記憶している。移動ロボット50は、移動中、検知方向を、現在の移動ロボット50の進行方向AZ(t)と前述の予定された向きAZ(goal)との間の所定の方向As(t)を向くように障害物センサ12の方向を制御する。所定の方向As(t)は、目的地P(goal)に向かう方向に、現在の移動ロボット50の進行方向AZ(t)と前述の予定された向きAZ(goal)との間の角度DA(goal)にゼロより大きく1以下の既定の係数を乗じた角度である。即ち、移動ロボット50は、目的位置P(goal)に向かう方向に、現在の移動ロボット50の進行方向AZ(t)と前述の予定された向きAZ(goal)との間の角度DA(goal)にゼロより大きく1以下の既定の係数を乗じた角度だけシフトした方向に障害物センサ12の検知方向を向ける。
Furthermore, a preferred modification of the
図7の符号S(t)は、障害物センサ12を移動ロボット50の進行方向AZ(t)に向けたときの検知範囲を示している。符号Ss(t)は、障害物センサ12を、目的地P(goal)に向かう方向に、現在の移動ロボット50の進行方向AZ(t)と目的地にて予定された向きAZ(goal)との間の角度DA(goal)に前記した既定の係数を乗じた角度だけ振ったときの検知範囲を示している。そのような障害物センサの方向制御を行うと、常に目的地に近い方向にシフトした範囲を検知範囲(即ち障害物を計測する範囲)とすることができる。
A symbol S (t) in FIG. 7 indicates a detection range when the
実施例に関する留意点を述べる。実施例の移動ロボット10は、距離条件と角度条件を共に満足する過去の検知地点におけるセンサデータを削除した。記憶容量に余裕があれば削除せずとも、環境マップを生成するための元データから除外すればよい。また、実施例の移動ロボットは脚で歩行するロボットである。本明細書が開示する技術は、車輪で移動するロボット、或いは、ホバークラフトのように浮上して移動するロボットに適用することも好適である。また、「最新の検知位置」と「最新の検知方向」は、本発明の技術思想的には「現在の障害物センサの位置」と「現在の障害物センサの向いている方向」と等価である。障害物検知は数十msec〜数sec毎に行われる。従って、「最新の検知位置」と「現在の検知位置」との間には数十msec〜数secの時間差が存在するが、障害物検知の観点からはそのような時間差は無視し得る程小さい。
Points to be noted regarding the embodiment are described. The
以上、本発明の具体例を詳細に説明したが、これらは例示に過ぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成し得るものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。 Specific examples of the present invention have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above. The technical elements described in this specification or the drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology exemplified in this specification or the drawings can achieve a plurality of objects at the same time, and has technical usefulness by achieving one of the objects.
10:移動ロボット
12:障害物センサ
14:駆動系センサ
16:アクチュエータ
20:コントローラ
50:移動ロボット
202:オドメトリモジュール
204:センサデータ記憶部
206:マップ記憶部
207:データ選択部
208:座標変換部
209:マップ合成部
210:マップ生成モジュール
212:経路決定モジュール
214:駆動制御モジュール
10: Mobile robot 12: Obstacle sensor 14: Drive system sensor 16: Actuator 20: Controller 50: Mobile robot 202: Odometry module 204: Sensor data storage unit 206: Map storage unit 207: Data selection unit 208: Coordinate conversion unit 209 : Map synthesis unit 210: Map generation module 212: Route determination module 214: Drive control module
Claims (2)
障害物検知を行った検知地点間の距離と夫々の検知地点における検知方向の間の角度を記録するオドメトリモジュールと、
記録された前記距離と前記角度に基づいて、各検知地点における障害物センサのセンサデータを統一の座標系に写像した環境マップを生成するマップ生成モジュールと、を備えており、
前記マップ生成モジュールは、次の2つの条件、即ち、最新の検知地点との間の距離が既定の距離閾値より大きいという距離条件、及び、前記最新の検知地点における検知方向との間の角度が既定の角度閾値よりも小さいという角度条件、を共に満足する過去の検知地点におけるセンサデータを、環境マップを生成するための元データから除外することを特徴とする移動ロボット。 An obstacle sensor that repeatedly detects surrounding obstacles while moving;
An odometry module that records the angle between the detection points where obstacle detection was performed and the detection direction at each detection point;
A map generation module that generates an environment map in which sensor data of obstacle sensors at each detection point is mapped to a unified coordinate system based on the recorded distance and the angle;
The map generation module has the following two conditions: a distance condition that the distance to the latest detection point is larger than a predetermined distance threshold, and an angle between the detection direction at the latest detection point. A mobile robot characterized by excluding sensor data at past detection points that satisfy an angle condition smaller than a predetermined angle threshold from the original data for generating an environment map.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010110160A JP2011238104A (en) | 2010-05-12 | 2010-05-12 | Mobile robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010110160A JP2011238104A (en) | 2010-05-12 | 2010-05-12 | Mobile robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011238104A true JP2011238104A (en) | 2011-11-24 |
Family
ID=45325999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010110160A Pending JP2011238104A (en) | 2010-05-12 | 2010-05-12 | Mobile robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011238104A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017520415A (en) * | 2014-06-03 | 2017-07-27 | アルティミンズ ロボティクス ゲーエムベーハー | Method and system for programming a robot |
JP2017157087A (en) * | 2016-03-03 | 2017-09-07 | 株式会社デンソー | Occupied grid map generation device |
JP2018025880A (en) * | 2016-08-08 | 2018-02-15 | シャープ株式会社 | Autonomous travel device and autonomous travel control method and control program |
JP2018097528A (en) * | 2016-12-12 | 2018-06-21 | 株式会社Ihiエアロスペース | Unmanned mobile body and control method of unmanned mobile body |
CN112130569A (en) * | 2020-09-27 | 2020-12-25 | 上海木木聚枞机器人科技有限公司 | Ultrasonic wave range setting method and system |
CN112352272A (en) * | 2018-07-30 | 2021-02-09 | 千叶工业大学 | Map generation system and moving object |
WO2022179270A1 (en) * | 2021-02-23 | 2022-09-01 | 京东科技信息技术有限公司 | Robot traveling method and apparatus, and electronic device, storage medium and program product |
-
2010
- 2010-05-12 JP JP2010110160A patent/JP2011238104A/en active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017520415A (en) * | 2014-06-03 | 2017-07-27 | アルティミンズ ロボティクス ゲーエムベーハー | Method and system for programming a robot |
US10279476B2 (en) | 2014-06-03 | 2019-05-07 | ArtiMinds Robotics GmbH | Method and system for programming a robot |
JP2017157087A (en) * | 2016-03-03 | 2017-09-07 | 株式会社デンソー | Occupied grid map generation device |
JP7014508B2 (en) | 2016-08-08 | 2022-02-01 | シャープ株式会社 | Autonomous driving device and autonomous driving control method and control program |
JP2018025880A (en) * | 2016-08-08 | 2018-02-15 | シャープ株式会社 | Autonomous travel device and autonomous travel control method and control program |
JP2018097528A (en) * | 2016-12-12 | 2018-06-21 | 株式会社Ihiエアロスペース | Unmanned mobile body and control method of unmanned mobile body |
CN112352272A (en) * | 2018-07-30 | 2021-02-09 | 千叶工业大学 | Map generation system and moving object |
JPWO2020026294A1 (en) * | 2018-07-30 | 2021-05-13 | 学校法人千葉工業大学 | Map generation system and mobile |
US20210270633A1 (en) * | 2018-07-30 | 2021-09-02 | Chiba Institute Of Technology | Map generation system and mobile object |
JP7123430B2 (en) | 2018-07-30 | 2022-08-23 | 学校法人千葉工業大学 | Map generation system and moving object |
US11802779B2 (en) | 2018-07-30 | 2023-10-31 | Chiba Institute Of Technology | Map generation system and mobile object |
CN112130569A (en) * | 2020-09-27 | 2020-12-25 | 上海木木聚枞机器人科技有限公司 | Ultrasonic wave range setting method and system |
CN112130569B (en) * | 2020-09-27 | 2024-03-26 | 上海木木聚枞机器人科技有限公司 | Ultrasonic wave range setting method and system |
WO2022179270A1 (en) * | 2021-02-23 | 2022-09-01 | 京东科技信息技术有限公司 | Robot traveling method and apparatus, and electronic device, storage medium and program product |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011238104A (en) | Mobile robot | |
US8515612B2 (en) | Route planning method, route planning device and autonomous mobile device | |
JP6842519B2 (en) | Data collection method and its system | |
CN107992052B (en) | Target tracking method and device, mobile device and storage medium | |
EP3460614B1 (en) | Combined robot and cruising path generation method therefor | |
JP4316477B2 (en) | Tracking method of mobile robot | |
KR101976241B1 (en) | Map building system and its method based on multi-robot localization | |
JP6032163B2 (en) | 3D object recognition apparatus, 3D object recognition method, and moving body | |
JP5112666B2 (en) | Mobile device | |
US7873438B2 (en) | Mobile apparatus and control program therefor | |
JP2009193240A (en) | Mobile robot and method for generating environment map | |
JP4738472B2 (en) | Mobility control device having obstacle avoidance function | |
JP2011175393A (en) | Route planning apparatus, autonomous mobile robot, and method for planning movement path | |
JP6052045B2 (en) | Autonomous mobile | |
JP5287051B2 (en) | Autonomous mobile device | |
JP2009031884A (en) | Autonomous mobile body, map information creation method in autonomous mobile body and moving route specification method in autonomous mobile body | |
JP5902275B1 (en) | Autonomous mobile device | |
JP2008142841A (en) | Mobile robot | |
JP5287060B2 (en) | Route planning device and autonomous mobile device | |
JP6680614B2 (en) | Surveying device, moving body, surveying method and program | |
KR20090126414A (en) | Robot and method for planning path of the same | |
JP6520048B2 (en) | Moving body | |
JP5212939B2 (en) | Autonomous mobile device | |
CN113485362A (en) | Robot movement method and device and electronic equipment | |
JP2010061483A (en) | Self-traveling moving object and method for setting target position of the same |