JP2011238104A - Mobile robot - Google Patents

Mobile robot Download PDF

Info

Publication number
JP2011238104A
JP2011238104A JP2010110160A JP2010110160A JP2011238104A JP 2011238104 A JP2011238104 A JP 2011238104A JP 2010110160 A JP2010110160 A JP 2010110160A JP 2010110160 A JP2010110160 A JP 2010110160A JP 2011238104 A JP2011238104 A JP 2011238104A
Authority
JP
Japan
Prior art keywords
detection
mobile robot
angle
condition
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010110160A
Other languages
Japanese (ja)
Inventor
Yutaka Takaoka
豊 高岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2010110160A priority Critical patent/JP2011238104A/en
Publication of JP2011238104A publication Critical patent/JP2011238104A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a mobile robot for reducing a calculation cost to be required for generating an environment map where data of an obstacle sensor, which are repetitively acquired during a movement, are integrated.SOLUTION: The mobile robot repetitively detects obstacles in a circumference thereof during the movement. An odometry part records distances between detection spots where the obstacles are detected and angles between detection directions at the respective detection spots. A map generation part generates the environment map, where the data of the obstacle sensor at the respective detection spots are mapped to an integrated coordinate system, based on the recorded distances and angles. Further, the map generation part excludes from original data for generating the environment map, sensor data at past detection spots that satisfies both of a distance condition that the distance from a latest detection spot is larger than a predetermined distance threshold and an angle condition that an angle with the detection direction at the latest detection spot is smaller than a predetermined angle threshold.

Description

本発明は、移動ロボットに関する。特に、障害物センサによって周囲の障害物を検知し、障害物を回避しながら移動することのできる移動ロボットに関する。   The present invention relates to a mobile robot. In particular, the present invention relates to a mobile robot capable of detecting surrounding obstacles with an obstacle sensor and moving while avoiding the obstacles.

高度な移動ロボットは、障害物センサを搭載しており、障害物を回避しながら移動するアルゴリズムを実装している。移動経路が予め定められていても、移動ロボットは、障害物と衝突の虞がある場合は移動経路をリアルタイムに修正する。通常、移動機構は、脚、或いは車輪である。障害物センサは、例えば、レーザレンジセンサやカメラ(画像処理装置)である。   Advanced mobile robots are equipped with obstacle sensors and implement algorithms that move while avoiding obstacles. Even if the movement path is predetermined, the mobile robot corrects the movement path in real time when there is a possibility of collision with an obstacle. Usually, the moving mechanism is a leg or a wheel. The obstacle sensor is, for example, a laser range sensor or a camera (image processing apparatus).

1回のセンシングでセンサが検知できる範囲は限られている。そこで、例えば特許文献1には、移動中に繰り返し周囲の障害物を検知し、各検知地点のセンサデータを統合して用いる移動ロボットが開示されている。特許文献1の移動ロボットは、各検知地点における障害物センサのセンサデータを統一の座標系に写像した環境マップを生成する。   The range that the sensor can detect with one sensing is limited. Thus, for example, Patent Document 1 discloses a mobile robot that repeatedly detects surrounding obstacles during movement and uses sensor data at each detection point in an integrated manner. The mobile robot of Patent Document 1 generates an environment map in which sensor data of obstacle sensors at each detection point is mapped to a unified coordinate system.

特開2008−276348号公報JP 2008-276348 A

繰り返し取得したセンサデータを全て保存しておくとデータ量が膨大となる。近年は記憶装置の容量が飛躍的に増大しているので、センサデータを保存しておくことは可能であるかもしれない。しかしながら、データ量が膨大となると、環境マップの生成に要する計算コストが嵩んでしまう。計算コストとは、計算時間が嵩むこと、或いは、短時間で計算するには高い処理能力が要求されること、を意味する。   If all the sensor data acquired repeatedly is stored, the amount of data becomes enormous. In recent years, the capacity of storage devices has increased dramatically, so it may be possible to store sensor data. However, when the amount of data becomes enormous, the calculation cost required for generating the environment map increases. The calculation cost means that the calculation time is increased, or that a high processing capacity is required to calculate in a short time.

環境マップ生成に用いる元データを削減する単純なアルゴリズムとしては、古いセンサデータを削除することが考えられる。しかしながら、単純に古いセンサデータを削除してしまうと不都合が生じる場合がある。例えば、障害物センサは、移動ロボットの足元が計測できない場合がある。そのような場合、移動ロボットは、現在移動ロボットが位置する場所(足元)を過去において計測したセンサデータに依拠して足元の障害物を把握する。そのような移動ロボットが一定時間以上過去のセンサデータを破棄してしまうと、移動ロボットが静止している場合(或いはその場で足踏みしている場合)、一定時間後には足元を障害物に関する情報が失われてしまう。また、過去の検知地点では検知範囲に属するが新しい検知地点では死角となる領域が存在する場合も、過去のセンサデータを破棄してしまうと環境マップに死角が生じてしまう。典型的には前述したように、過去のセンサデータを破棄してしまうと足元が死角となってしまう虞がある。本発明は、上記課題に鑑みて創作された。本発明は、できるだけ死角を生じさせることなく、過去のセンサデータを統合した環境マップを生成するのに要する計算コストを低減する技術を提供する。   As a simple algorithm for reducing the original data used for environment map generation, it is conceivable to delete old sensor data. However, simply deleting old sensor data may cause inconvenience. For example, the obstacle sensor may not be able to measure the feet of the mobile robot. In such a case, the mobile robot grasps the obstacle at the step based on the sensor data obtained by measuring the location (the step) where the mobile robot is currently located in the past. If such a mobile robot discards past sensor data for more than a certain period of time, if the mobile robot is stationary (or is stepping on the spot), the information about the obstacle will be displayed after a certain period of time. Will be lost. In addition, even if there is an area that belongs to the detection range at the past detection point but becomes a blind spot at the new detection spot, if the past sensor data is discarded, a blind spot occurs in the environment map. Typically, as described above, if past sensor data is discarded, there is a possibility that the step becomes a blind spot. The present invention has been created in view of the above problems. The present invention provides a technique for reducing the calculation cost required to generate an environment map that integrates past sensor data without causing blind spots as much as possible.

発明者は、検討の結果、過去のセンサデータのうち、将来利用される可能性が高い条件を見出した。その条件は、時間に依存しない。その条件とは、一つは、検知地点が最新の検知地点に近いという条件であり、もう一つは、センサの向いていた方向(検知方向)が最新の検知地点における検知方向と大きく異なる、という条件である。少なくともいずれか一方の条件を満足する検知地点にて計測されたセンサデータを環境マップの元データとして採用し、そうでない過去のセンサデータは環境マップ生成から除外すれば、死角を生じる可能性を抑制しつつ、過去のセンサデータを統合した環境マップを生成するのに要する計算コストを低減できる。   As a result of the study, the inventor has found out conditions that are likely to be used in the future among past sensor data. The condition is independent of time. One of the conditions is that the detection point is close to the latest detection point, and the other is that the direction the sensor is facing (detection direction) is significantly different from the detection direction at the latest detection point. This is the condition. If sensor data measured at a detection point that satisfies at least one of the conditions is used as the original data of the environment map, and past sensor data that is not so is excluded from the environment map generation, the possibility of blind spots is suppressed. However, the calculation cost required to generate an environment map that integrates past sensor data can be reduced.

上記した条件を満足する過去のセンサデータを環境マップ生成に必ずしも使う必要はないことに留意されたい。例えば、上記した条件を満足する過去のセンサデータであっても、検知範囲が当面の進行方向から外れている場合にはそのセンサデータを用いる必要はない。従って、上記のアルゴリズムを実装する場合は、最新の検知地点との距離が既定の距離閾値より大きいという距離条件、及び、最新の検知地点における検知方向との角度が既定の角度閾値よりも小さいという角度条件、を共に満足する過去の検知地点におけるセンサデータを、環境マップを生成するための元データから除外する、というアルゴリズムで与えるのが好適である。   It should be noted that past sensor data that satisfies the above-described conditions does not necessarily have to be used for environment map generation. For example, even in the case of past sensor data that satisfies the above conditions, it is not necessary to use the sensor data if the detection range is out of the current traveling direction. Therefore, when the above algorithm is implemented, the distance condition that the distance to the latest detection point is larger than the predetermined distance threshold, and the angle with the detection direction at the latest detection point is smaller than the predetermined angle threshold. It is preferable to provide the sensor data at the past detection points that satisfy both the angle conditions by an algorithm that excludes the sensor data from the original data for generating the environment map.

本明細書が開示する一つの技術的教示は、次の移動ロボットを提供する。移動ロボットは、障害物センサとオドメトリモジュールと環境マップ生成モジュールを備えている。障害物センサは、移動中に繰り返し周囲の障害物を検知する。即ち移動ロボットは異なる検知地点で障害物を検知する。オドメトリモジュールは、障害物検知を行った検知地点間の距離と夫々の検知地点における検知方向(障害物センサの向き)の間の角度を記録する。なお、「オドメトリ」とは、移動経路の記録(経路上各地点における進行方向の情報を含む)を意味し、移動ロボットの技術分野ではよく使われる技術用語である。検知地点間の距離と検知方向間の角度は、「オドメトリ」から算出できる。マップ生成モジュールは、記録された距離と角度に基づいて、各検知地点における障害物センサのセンサデータを統一の座標系に写像した環境マップを生成する。「統一の座標系」は、典型的には、絶対座標系、或いは、現在位置における移動ロボット固定の座標系である。ここで、マップ生成モジュールは、次の2つの条件、即ち、距離条件:「最新の検知地点との距離が既定の距離閾値より大きいこと」、及び、角度条件:「最新の検知地点における検知方向との角度が既定の角度閾値よりも小さいこと」、を共に満足する過去の検知地点におけるセンサデータを、環境マップを生成するための元データから除外する。「除外する」とは、典型的には記憶装置から削除することである。或いは記憶装置の容量に余裕がある場合は、「除外する」とは、記憶装置からは削除しないが、環境マップを生成する元データとして採用はしないことであってもよい。   One technical teaching disclosed herein provides the following mobile robot. The mobile robot includes an obstacle sensor, an odometry module, and an environment map generation module. The obstacle sensor repeatedly detects surrounding obstacles while moving. That is, the mobile robot detects an obstacle at different detection points. The odometry module records the angle between the distance between the detection points where the obstacle is detected and the detection direction (direction of the obstacle sensor) at each detection point. “Odometry” means recording of a travel route (including information on the direction of travel at each point on the route), and is a technical term often used in the technical field of mobile robots. The distance between the detection points and the angle between the detection directions can be calculated from “odometry”. Based on the recorded distance and angle, the map generation module generates an environment map in which the sensor data of the obstacle sensor at each detection point is mapped to a unified coordinate system. The “unified coordinate system” is typically an absolute coordinate system or a coordinate system fixed to the mobile robot at the current position. Here, the map generation module uses the following two conditions: distance condition: “the distance to the latest detection point is greater than a predetermined distance threshold”, and angle condition: “the detection direction at the latest detection point. The sensor data at the past detection points that satisfy both “the angle with the angle smaller than the predetermined angle threshold” is excluded from the original data for generating the environment map. “Exclude” typically means deletion from the storage device. Alternatively, when there is a capacity in the storage device, “exclude” may not be deleted from the storage device, but may not be adopted as the original data for generating the environment map.

上記距離条件の相補的な条件、即ち、最新の検知地点との距離が既定の距離閾値より小さいという条件を相補距離条件と称することにする。同様に、上記角度条件の相補的な条件、即ち、最新の検知地点における検知方向との角度が既定の角度閾値よりも大きいという条件を相補角度条件と称することにする。上記のマップ生成モジュールのセンサデータ選択アルゴリズムは、別言すれば、相補距離条件、又は、相補角度条件の少なくとも一方を満足する過去のデータを環境マップ生成のための元データの候補とすることである。ここで、「候補とする」とは、相補距離条件と相補角度条件の少なくとも一方を満足する過去の全てのセンサデータを環境マップ生成のために使う必要は必ずしもないことを意味することに留意されたい。   A condition complementary to the above distance condition, that is, a condition that the distance to the latest detection point is smaller than a predetermined distance threshold will be referred to as a complementary distance condition. Similarly, a condition complementary to the above angle condition, that is, a condition that the angle with the detection direction at the latest detection point is larger than a predetermined angle threshold is referred to as a complementary angle condition. In other words, the sensor data selection algorithm of the map generation module described above is based on the assumption that past data satisfying at least one of the complementary distance condition and the complementary angle condition is a candidate of the original data for generating the environment map. is there. Here, it is noted that “candidate” means that it is not always necessary to use all the past sensor data satisfying at least one of the complementary distance condition and the complementary angle condition for generating the environment map. I want.

相補距離条件は、現在の移動ロボットの近くを検知した過去のセンサデータを環境マップ生成の元データ候補とすることを保証する。相補角度条件は、現在の移動ロボットにおける検知方向から大きく外れている方向を検知範囲に有する過去のセンサデータは環境マップ生成の元データ候補とすることを保証する。特に後者は、障害物の背後に回り込む旋回動作を行うときに有効である。そのような旋回動作は死角を生じ易いからである。移動ロボットが旋回するとき、障害物センサの向いている方向が大きく変化するので、相補角度条件は、広角の範囲の障害物データを環境マップ生成の元データ候補に残すことを保証する。即ち、逆にいえば、上記した距離条件と角度条件を共に満足する過去のデータは、今後利用される可能性が低い。このように上記の移動ロボットは、死角が生じることを抑えながら、利用価値の低い過去のセンサデータをマップ生成から除外する。   The complementary distance condition ensures that past sensor data detected near the current mobile robot is used as an original data candidate for environment map generation. The complementary angle condition ensures that past sensor data having a detection range in a direction greatly deviating from the detection direction in the current mobile robot is an original data candidate for environment map generation. In particular, the latter is effective when performing a turning motion around the obstacle. This is because such a turning operation tends to cause a blind spot. Since the direction in which the obstacle sensor faces changes greatly when the mobile robot turns, the complementary angle condition ensures that obstacle data in a wide angle range is left as an original data candidate for environment map generation. In other words, the past data that satisfies both the distance condition and the angle condition described above is unlikely to be used in the future. As described above, the mobile robot excludes past sensor data having low utility value from the map generation while suppressing the occurrence of blind spots.

発明者は、別の観点から、時間に依存しないが、利用価値が高いセンサデータの他の条件を見出した。そのような条件は、換言すれば、古いデータである可能性があるが、利用価値が高い条件である。その条件とは、移動ロボットのこれからの予定経路が検知範囲に含まれている、という条件である。例えば、一旦通過した交差点を後に別の方向から再度通過する場合である。そのような場合は、初回通過したときに検知したセンサデータは、次に別方向から通過する際に有用である。そのような過去データは環境マップ生成の元データの候補として残しておくことが好ましい。そのようなデータ選択アルゴリズムは、次のように実装することができる。即ち、マップ生成モジュールは、検知範囲に移動ロボットの予定経路(これから辿る予定の経路)が含まれているという(相補)予定経路条件を満足する過去の検知地点におけるセンサデータを、環境マップを生成するための元データ候補として残しておく。ここで、「(相補)予定経路条件」としたのは、前記した相補距離条件と相補角度条件との整合性を保つためである。上記の相補予定経路条件に対して、「予定経路条件」は、検知範囲に移動ロボットの予定経路が含まれていない、という条件に相当する。   The inventor has found another condition of sensor data that is not time-dependent but has high utility value from another viewpoint. In other words, such a condition may be old data but has a high utility value. The condition is a condition that the planned route of the mobile robot is included in the detection range. For example, it is a case where an intersection that has passed once is passed again from another direction later. In such a case, the sensor data detected at the first pass is useful for the next pass from another direction. Such past data is preferably left as a candidate for the original data for generating the environment map. Such a data selection algorithm can be implemented as follows. That is, the map generation module generates an environment map based on sensor data at past detection points that satisfy the (complementary) planned route condition that the detection range includes the planned route of the mobile robot (the route to be followed). It is left as a candidate of original data for doing so. Here, the “(complementary) planned path condition” is used to maintain the consistency between the complementary distance condition and the complementary angle condition. In contrast to the complementary planned route condition described above, the “scheduled route condition” corresponds to a condition that the planned range of the mobile robot is not included in the detection range.

前記した距離条件と角度条件と合わせると、マップ生成モジュールは、次のアルゴリズムを実装していることが好適である。即ち、マップ生成モジュールは、前記した距離条件と角度条件に加えて、検知範囲に移動ロボットの予定経路が含まれていないという予定経路条件を満足する過去の検知地点におけるセンサデータを、環境マップを生成するための元データから除外する。予定経路条件まで含めた移動ロボットは、一層効率よく、計算コストを低減しつつ、死角範囲を生じる可能性を抑制することができる。   When combined with the distance condition and the angle condition described above, the map generation module preferably implements the following algorithm. That is, in addition to the distance condition and the angle condition described above, the map generation module converts the sensor data at the past detection points that satisfy the planned route condition that the planned route of the mobile robot is not included in the detection range into the environment map. Exclude from the original data to generate. The mobile robot including the planned route condition can more efficiently reduce the calculation cost and suppress the possibility of generating a blind spot range.

移動ロボットの模式図を示す。A schematic diagram of a mobile robot is shown. 移動ロボットのブロック図を示す。A block diagram of a mobile robot is shown. 障害物センサの検知範囲の推移を説明する図である。It is a figure explaining transition of the detection range of an obstacle sensor. センサデータ選択アルゴリズムを説明する図である。It is a figure explaining a sensor data selection algorithm. 他のセンサデータ選択アルゴリズムを説明する図である。It is a figure explaining another sensor data selection algorithm. 参考のセンサデータ選択アルゴリズムを説明する図である。It is a figure explaining a reference sensor data selection algorithm. 障害物センサの方向制御を説明する図である。It is a figure explaining direction control of an obstacle sensor.

図1に、移動ロボット10の模式図を示す。移動ロボット10は、2本の脚で歩行することができる脚式ロボットである。脚には関節を駆動するアクチュエータ16が内蔵されている。コントローラ20が駆動系センサ14のセンサデータに基づいてアクチュエータ16を制御し、歩行動作が実現する。例えば駆動系センサ14は、各関節の角度を計測する角度センサや、足の接地を検知する接地センサなどである。それらのセンサは、移動ロボット10を駆動制御するために用いるセンサであるから駆動系センサ14と総称する。   FIG. 1 shows a schematic diagram of the mobile robot 10. The mobile robot 10 is a legged robot that can walk with two legs. An actuator 16 for driving the joint is built in the leg. The controller 20 controls the actuator 16 based on the sensor data of the drive system sensor 14, and the walking motion is realized. For example, the drive system sensor 14 is an angle sensor that measures the angle of each joint, a grounding sensor that detects the grounding of the foot, or the like. Since these sensors are sensors used for driving and controlling the mobile robot 10, they are collectively referred to as a drive system sensor 14.

移動ロボット10はさらに、障害物センサ12を備える。障害物センサ12は、2個のカメラで撮影した画像からステレオ立体視の原理で被写体(障害物)の方向と距離を計測する画像センサである。移動ロボット10は、移動しながら障害物センサ12で繰り返し周囲の障害物(例えば図1のW1、W2、及び、W3)を検知しながら、それら障害物を回避する。例えば移動ロボット10には、予定経路R_defaultが与えられている。しかし、障害物W3が予定経路上に存在する。移動ロボット10は、予定経路R_defaultに沿って進みながら、障害物センサ12によって周囲、特に予定経路上に存在する障害物W1やW2を検知する。障害物W1とW2には衝突しないことが判明すると、移動ロボット10は予定経路R_defaultに沿って進む。障害物W3に近づき、障害物W3が障害物センサ12の検知範囲に入ると、移動ロボット10は、予定経路を進むと障害物W3と衝突することを検出する。このとき、移動ロボット10は、障害物W3を回避するよう、予定経路R_defaultの一部を修正経路R_modifiedにリアルタイムに変更し、修正経路R_modifiedに沿って進む。   The mobile robot 10 further includes an obstacle sensor 12. The obstacle sensor 12 is an image sensor that measures the direction and distance of a subject (obstacle) from the images taken by two cameras based on the principle of stereo stereoscopic vision. The mobile robot 10 avoids these obstacles while repeatedly detecting surrounding obstacles (for example, W1, W2, and W3 in FIG. 1) with the obstacle sensor 12 while moving. For example, the mobile robot 10 is given a scheduled route R_default. However, the obstacle W3 exists on the planned route. The mobile robot 10 detects obstacles W1 and W2 that are present on the surroundings, particularly on the planned route, with the obstacle sensor 12 while proceeding along the planned route R_default. If it is determined that the obstacles W1 and W2 do not collide, the mobile robot 10 moves along the scheduled route R_default. When approaching the obstacle W3 and the obstacle W3 enters the detection range of the obstacle sensor 12, the mobile robot 10 detects that it collides with the obstacle W3 when traveling along the planned route. At this time, the mobile robot 10 changes part of the planned route R_default to the modified route R_modified in real time so as to avoid the obstacle W3, and proceeds along the modified route R_modified.

図2に、移動ロボット10の制御系に関するブロック図を示す。以下、図1と図2を参照して、移動ロボット10における障害物の検知について説明する。なお、図2における「M」は「モジュール」を意味する。モジュールは、主としてソフトウエア(プログラム)としてコントローラ20に実装される。   FIG. 2 is a block diagram relating to the control system of the mobile robot 10. Hereinafter, detection of an obstacle in the mobile robot 10 will be described with reference to FIGS. 1 and 2. Note that “M” in FIG. 2 means “module”. The module is mounted on the controller 20 mainly as software (program).

移動ロボット10は、脚に備えられた駆動系センサ14によって、移動してきた経路を特定する。前述したように、駆動系センサ14は、各関節の角度を計測する角度センサや、足の接地を検知する接地センサなどである。各関節の角度から足の位置が求まり、足の向きからロボットの方向が求まる。また、足の着地毎に、前後の足の位置から移動距離が求まる。このように駆動系センサ14は、アクチュエータ16の制御に用いられるだけでなく、移動してきた経路の各位置におけるロボットの向きと、移動距離を特定するのにも用いられる。なお、ロボットの向きは、障害物センサ12の向き(検知方向)に等価である。駆動系センサ14のセンサデータは、オドメトリモジュール202に入力される。オドメトリモジュール202が、駆動系センサ14のセンサデータから着地毎の足の位置を算出し、各位置における向きと移動距離を記録する。またオドメトリモジュール202には障害物センサ12の検知タイミングが通知される。オドメトリモジュール202は、障害物センサ12の検知タイミングにおける移動ロボット10の位置(即ち検知位置)と向き(即ち障害物センサ12の検知方向)を特定する。さらにオドメトリモジュール202は、障害物検知を行った検知地点間の距離と夫々の検知地点における検知方向の間の角度を算出し、センサデータ記憶部204に記録する。センサデータ記憶部204にはまた、障害物センサ12が計測した障害物の位置に関するデータ(障害物センサ12のセンサデータ、以下、障害物センサデータと称する)が記録される。   The mobile robot 10 specifies the route that has been moved by the drive system sensor 14 provided on the leg. As described above, the drive system sensor 14 is an angle sensor that measures the angle of each joint, a grounding sensor that detects the grounding of the foot, or the like. The position of the foot is obtained from the angle of each joint, and the direction of the robot is obtained from the direction of the foot. Further, for each foot landing, the moving distance is obtained from the positions of the front and rear feet. Thus, the drive system sensor 14 is used not only for controlling the actuator 16 but also for specifying the orientation and movement distance of the robot at each position of the route traveled. The direction of the robot is equivalent to the direction (detection direction) of the obstacle sensor 12. Sensor data of the drive system sensor 14 is input to the odometry module 202. The odometry module 202 calculates the position of the foot for each landing from the sensor data of the drive system sensor 14, and records the direction and the moving distance at each position. The odometry module 202 is notified of the detection timing of the obstacle sensor 12. The odometry module 202 specifies the position (that is, the detection position) and the direction (that is, the detection direction of the obstacle sensor 12) of the mobile robot 10 at the detection timing of the obstacle sensor 12. Further, the odometry module 202 calculates an angle between the distance between the detection points where the obstacle is detected and the detection direction at each detection point, and records the angle in the sensor data storage unit 204. The sensor data storage unit 204 also records data related to the position of the obstacle measured by the obstacle sensor 12 (sensor data of the obstacle sensor 12, hereinafter referred to as obstacle sensor data).

障害物センサ12自体が移動ロボット10とともに移動するので、検知地点毎に障害物センサ12の位置と検知方向は異なる。即ち、障害物の位置を特定するための座標系が障害物センサデータ毎に異なる。マップ生成モジュール210が、障害物センサデータ毎に異なる座標系を統一の座標系に変換し、各検知地点における障害物センサデータを統一の座標系に写像した環境マップを生成する。環境マップ生成までの具体的な処理は次の通りである。   Since the obstacle sensor 12 itself moves together with the mobile robot 10, the position and the detection direction of the obstacle sensor 12 are different for each detection point. That is, the coordinate system for specifying the position of the obstacle is different for each obstacle sensor data. The map generation module 210 converts a different coordinate system for each obstacle sensor data into a unified coordinate system, and generates an environment map in which the obstacle sensor data at each detection point is mapped to the unified coordinate system. The specific processing up to the generation of the environment map is as follows.

マップ生成モジュール210内のデータ選択部207が、センサデータ記憶部204から検知地点毎の障害物センサデータと、その検知地点の位置(検知位置)及び検知方向を読み出す。データ選択部207はまた、センサデータ記憶部204から、最新の検知地点の検知位置と検知方向を読み出す。データ選択部207は、読み出した過去の検知位置と最新の検知位置との間の距離、及び、過去の検知方向と最新の検知方向との間の角度を算出する。データ選択部207は、算出した距離が既定の距離閾値よりも大きく、かつ、算出した角度が既定の角度閾値よりも小さい場合、読み出した障害物センサをセンサデータ記憶部204から消去する。「算出した距離が既定の距離閾値よりも大きい」という条件が距離条件に相当し、「算出した角度が既定の角度閾値よりも小さい」という条件が角度条件に相当する。即ち、データ選択部207は、距離条件と角度条件を共に満足する過去の検知地点における障害物センサデータを消去する。データ選択部207は、距離条件と角度条件の少なくとも一方を満足しなかった検知地点における障害物センサデータを座標変換部208へ送る。データ選択部207は、センサデータ記憶部204に記録されている障害物センサデータ毎に上記の処理を繰り返す。なお、距離閾値と角度閾値は、予め与えられている。例えば距離閾値は5mであり、角度閾値は45degである。   The data selection unit 207 in the map generation module 210 reads the obstacle sensor data for each detection point, the position (detection position) and the detection direction of the detection point from the sensor data storage unit 204. The data selection unit 207 also reads the detection position and detection direction of the latest detection point from the sensor data storage unit 204. The data selection unit 207 calculates the distance between the read past detection position and the latest detection position, and the angle between the past detection direction and the latest detection direction. The data selection unit 207 deletes the read obstacle sensor from the sensor data storage unit 204 when the calculated distance is larger than the predetermined distance threshold and the calculated angle is smaller than the predetermined angle threshold. The condition that “the calculated distance is larger than the predetermined distance threshold” corresponds to the distance condition, and the condition that “the calculated angle is smaller than the predetermined angle threshold” corresponds to the angle condition. That is, the data selection unit 207 erases the obstacle sensor data at the past detection points that satisfy both the distance condition and the angle condition. The data selection unit 207 sends the obstacle sensor data at the detection point that does not satisfy at least one of the distance condition and the angle condition to the coordinate conversion unit 208. The data selection unit 207 repeats the above processing for each obstacle sensor data recorded in the sensor data storage unit 204. The distance threshold value and the angle threshold value are given in advance. For example, the distance threshold is 5 m and the angle threshold is 45 deg.

座標変換部208は、検知位置と検知方向を、予め定められた一つの絶対座標系に変換する変換式を特定し、その変換式を用いて障害物センサデータを一つの絶対座標系(統一の座標系)に写像する。写像結果はマップ合成部209に送られる。マップ合成部209は、座標変換部208から送られる写像後の障害物センサデータを蓄積する。ここで、マップ合成部209は、既に蓄積された障害物センサデータが検知対象とする地理的範囲と、新たに送られた障害物センサデータが検知対象とする地理的範囲が重なる場合、新たに送られた障害物センサデータで既に蓄積された障害物センサデータを書き換える。こうして、各検知地点における障害物センサデータを一つの絶対座標系(統一の座標系)に写像して合成した環境マップが完成する。完成した環境マップのデータはマップ記憶部206に記録される。   The coordinate conversion unit 208 specifies a conversion formula for converting the detection position and the detection direction into a predetermined absolute coordinate system, and uses the conversion formula to convert the obstacle sensor data into a single absolute coordinate system (a unified coordinate system). Map to the coordinate system. The mapping result is sent to the map composition unit 209. The map composition unit 209 accumulates the obstacle sensor data after mapping sent from the coordinate conversion unit 208. In this case, the map composition unit 209 newly adds the geographic range that is already detected by the obstacle sensor data and the geographic range that is newly detected by the obstacle sensor data to be detected. The obstacle sensor data already accumulated is rewritten with the sent obstacle sensor data. In this way, an environment map in which obstacle sensor data at each detection point is mapped to one absolute coordinate system (unified coordinate system) and synthesized is completed. The data of the completed environment map is recorded in the map storage unit 206.

経路決定モジュール212は、前述した予定経路R_defaultに沿って進みながら、環境マップを参照して直近の予定経路に沿って進めるか否か、或いは障害物に衝突する虞がないか否かを判断する。障害物に衝突する虞がある場合は、障害物を避けるように予定経路R_defaultをリアルタイムに修正する。駆動制御モジュール214は、経路決定モジュール212が計画した修正した経路に沿って進むようにアクチュエータ16を制御する。   The route determination module 212 refers to the environment map while proceeding along the aforementioned planned route R_default, and determines whether to proceed along the latest planned route or whether there is a possibility of colliding with an obstacle. . If there is a possibility of colliding with an obstacle, the scheduled route R_default is corrected in real time so as to avoid the obstacle. The drive control module 214 controls the actuator 16 to travel along the modified path planned by the path determination module 212.

図3と図4を用いて、障害物センサデータの選択処理を具体的に説明する。なお、以降の図では、図を簡単化するために移動ロボット10を三角で示している。図のP(t)、P(t−1)、P(t−2)、及び、P(i)は、移動ロボット10における障害物検知位置を示す。t、t−1、t−2、及び、iは時系列を意味し、「t」が最新の検知位置を示している。S(t)、S(t−1)、S(t−2)、及び、S(i)は、障害物の計測範囲(検知範囲)を示している。図3が示すように、検知範囲にはロボット自体は含まれない。移動ロボット10が位置P(t)に位置するときは、時刻t−2のときに取得した障害物センサデータ、即ち、検知範囲S(t−2)の障害物センサデータを用いることによって、身近の障害物の存在を移動ロボット10は把握する。   The obstacle sensor data selection process will be specifically described with reference to FIGS. 3 and 4. In the following drawings, the mobile robot 10 is indicated by a triangle to simplify the drawings. P (t), P (t-1), P (t-2), and P (i) in the figure indicate obstacle detection positions in the mobile robot 10. t, t-1, t-2, and i mean time series, and "t" indicates the latest detection position. S (t), S (t-1), S (t-2), and S (i) indicate the measurement range (detection range) of the obstacle. As shown in FIG. 3, the detection range does not include the robot itself. When the mobile robot 10 is located at the position P (t), the obstacle sensor data acquired at the time t-2, that is, the obstacle sensor data in the detection range S (t-2) is used. The mobile robot 10 grasps the presence of the obstacle.

図4のAZ(i)は、時刻iにおける移動ロボット10の方向、即ち、障害物センサ12が向いている方向(検知方向)を示している。AZ(i)は過去の時刻iにおける検知方向を示しており、AZ(t)は最新の検知位置P(t)における検知方向を示している。検知方向AZ(i)と検知位置P(i)は駆動系センサ14のセンサデータに基づいてオドメトリモジュール202が特定する。   AZ (i) in FIG. 4 indicates the direction of the mobile robot 10 at time i, that is, the direction (detection direction) in which the obstacle sensor 12 faces. AZ (i) indicates the detection direction at the past time i, and AZ (t) indicates the detection direction at the latest detection position P (t). The odometry module 202 identifies the detection direction AZ (i) and the detection position P (i) based on the sensor data of the drive system sensor 14.

マップ生成モジュール210内のデータ選択部207は、過去の検知位置P(i)と最新の検知位置P(t)との間の距離DL(i)を算出するとともに、過去の検知方向AZ(i)と最新の検知方向AZ(t)の間の角度DA(i)を算出する。データ選択部207は、距離DL(i)と角度DA(i)を使って、過去の時刻iにおける検知地点が前記した距離条件と角度条件を共に満足するか否かを判断する。データ選択部207は、両条件を共に満足する場合、その検知地点における障害物センサデータをセンサデータ記憶部204から消去する。即ちデータ選択部207は、「距離DL(i)>距離閾値、かつ、角度DA(i)<角度閾値」が満たされる検知位置における障害物センサデータ(S(i)のデータ)を削除する。データ選択部207は、i=0〜nまで、即ち、センサデータ記憶部204に残されている全ての障害物センサデータについ上記処理を繰り返す。   The data selection unit 207 in the map generation module 210 calculates the distance DL (i) between the past detection position P (i) and the latest detection position P (t) and also detects the past detection direction AZ (i ) And the latest detection direction AZ (t), an angle DA (i) is calculated. The data selection unit 207 uses the distance DL (i) and the angle DA (i) to determine whether or not the detection point at the past time i satisfies both the distance condition and the angle condition. When both conditions are satisfied, the data selection unit 207 deletes the obstacle sensor data at the detection point from the sensor data storage unit 204. That is, the data selection unit 207 deletes the obstacle sensor data (S (i) data) at the detection position where “distance DL (i)> distance threshold and angle DA (i) <angle threshold” is satisfied. The data selection unit 207 repeats the above processing for i = 0 to n, that is, all obstacle sensor data remaining in the sensor data storage unit 204.

移動ロボット10の利点を述べる。移動ロボット10は、距離条件と角度条件の双方を満足する検知地点における障害物センサデータを、環境マップ生成のための元データとして採用しない。そのため、取得した全ての障害物センサデータを環境マップに用いる場合と比較すると環境マップ生成に要する計算コスト低減できる。元データとして採用しない障害物センサデータは、上記した距離条件と角度条件を共に満足する検知位置で計測された障害物センサデータである。すなわち、最新の検知地点から距離閾値よりも遠く、かつ、最新の検知方向との方位差が角度閾値よりも小さい過去の検知地点の障害物センサデータが採用されない。そのような障害物センサデータは、別言すれば最新の検知位置から距離閾値以上後方の範囲を対象としたデータである。そのような障害物データは将来に亘って利用される可能性が低い。そのため、将来に亘って死角(その障害物センサデータがなければ予定経路に沿って無事進めるか否かが判断できない領域)が生じる可能性が小さい。   The advantages of the mobile robot 10 will be described. The mobile robot 10 does not use the obstacle sensor data at the detection point that satisfies both the distance condition and the angle condition as the original data for generating the environment map. Therefore, compared with the case where all the acquired obstacle sensor data is used for the environment map, the calculation cost required for generating the environment map can be reduced. Obstacle sensor data not employed as original data is obstacle sensor data measured at a detection position that satisfies both the distance condition and the angle condition described above. That is, the obstacle sensor data of the past detection points that are farther than the distance threshold value from the latest detection point and whose azimuth difference from the latest detection direction is smaller than the angle threshold value are not adopted. In other words, the obstacle sensor data is data for a range beyond the distance threshold from the latest detection position. Such obstacle data is unlikely to be used in the future. Therefore, there is a low possibility that a blind spot (an area in which it is impossible to determine whether or not to proceed safely along the planned route without the obstacle sensor data) will occur in the future.

次に、上記した移動ロボット10をさらに向上した変形例を説明する。マップ生成モジュール210(データ選択部207)は、前記した距離条件と角度条件に加えて、検知範囲に移動ロボットの予定経路が含まれていないという予定経路条件を満足する過去の検知地点におけるセンサデータを、センサデータ記憶部204から削除する処理を備えるのが好適である。そのような処理の利点を、図5を参照して説明する。移動ロボット10は現在位置P(t)に位置する。過去の時刻iの検知位置P(i)と現在位置P(t)との間の距離DL(i)と、過去の時刻iにおける検知方向と現在の検知方向との角度DA(i)は、前記した距離条件と角度条件を共に満足すると仮定する。なお、角度DA(i)は図示していないが、図からDA(i)はゼロである。上記した処理では、検知位置P(i)における検知範囲S(i)の障害物センサデータは削除される。しかし、検知範囲S(i)は、これから移動ロボット10が進む予定経路R_defaultが含まれている。予定経路条件を加えたマップ生成モジュール210(データ選択部207)は、検知範囲S(i)の障害物センサデータを削除せず、環境マップ生成の元データ候補とする。なお、図5におけるR_pastは既に通過した経路を示す。例えば既に通過した経路R_pastと今後の予定経路R_defaultの交点が壁などによって見通しが悪い場合、過去に計測した検知範囲S(i)の障害物センサデータが有用である。   Next, a modified example in which the above-described mobile robot 10 is further improved will be described. The map generation module 210 (data selection unit 207), in addition to the distance condition and the angle condition described above, sensor data at past detection points that satisfy the planned route condition that the detection range of the mobile robot is not included in the detection range. Is preferably included in the sensor data storage unit 204. The advantage of such processing will be described with reference to FIG. The mobile robot 10 is located at the current position P (t). The distance DL (i) between the detection position P (i) at the past time i and the current position P (t) and the angle DA (i) between the detection direction at the past time i and the current detection direction are: It is assumed that both the distance condition and the angle condition described above are satisfied. Although the angle DA (i) is not shown, DA (i) is zero from the figure. In the processing described above, the obstacle sensor data in the detection range S (i) at the detection position P (i) is deleted. However, the detection range S (i) includes the planned route R_default that the mobile robot 10 will travel from now on. The map generation module 210 (data selection unit 207) to which the planned route condition is added does not delete the obstacle sensor data in the detection range S (i), but sets it as the original data candidate for the environment map generation. Note that R_past in FIG. 5 indicates a route that has already passed. For example, when the prospect of the intersection of the route R_past that has already passed and the future planned route R_default is poor due to a wall or the like, the obstacle sensor data of the detection range S (i) measured in the past is useful.

次に、障害物センサデータを選択するための別の条件を、図6を参照しながら説明する。図中のP(goal)は、予定経路の目的位置を示している。AZ(Goal)は、目的位置における移動ロボット10の予定された向きを示している。図6に示した移動ロボット10のマップ生成モジュールは、次の2つの条件、即ち、予定された目的地との距離(図6のDL(i))が既定の距離閾値より大きいという距離条件(第2距離条件)、及び、目的地における移動ロボットの予定された向きとの角度(図6におけるDA(i))が既定の角度閾値よりも小さいという角度条件(第2角度条件)を共に満足する過去の検知地点/検知方向におけるセンサデータを、環境マップを生成するための元データから除外する。   Next, another condition for selecting obstacle sensor data will be described with reference to FIG. P (goal) in the figure indicates the target position of the planned route. AZ (Goal) indicates the planned orientation of the mobile robot 10 at the target position. The map generation module of the mobile robot 10 shown in FIG. 6 has the following two conditions, that is, a distance condition (DL (i) in FIG. 6) that is greater than a predetermined distance threshold (DL (i) in FIG. 6). The second distance condition) and the angle condition (second angle condition) that the angle with the planned orientation of the mobile robot at the destination (DA (i) in FIG. 6) is smaller than the predetermined angle threshold are satisfied. Sensor data at the past detection point / detection direction is excluded from the original data for generating the environment map.

さらに、移動ロボット10の好適な変形例を図7を参照して説明する。移動ロボット50は、障害物センサ12の首を振ることができるように構成されている。即ち、移動ロボット50は、その本体に対して相対的に障害物センサ12の検知方向を変更できるように構成されている。移動ロボット50は、目的地P(goal)と、目的地P(goal)における移動ロボット50の予定された向きAZ(goal)を記憶している。移動ロボット50は、移動中、検知方向を、現在の移動ロボット50の進行方向AZ(t)と前述の予定された向きAZ(goal)との間の所定の方向As(t)を向くように障害物センサ12の方向を制御する。所定の方向As(t)は、目的地P(goal)に向かう方向に、現在の移動ロボット50の進行方向AZ(t)と前述の予定された向きAZ(goal)との間の角度DA(goal)にゼロより大きく1以下の既定の係数を乗じた角度である。即ち、移動ロボット50は、目的位置P(goal)に向かう方向に、現在の移動ロボット50の進行方向AZ(t)と前述の予定された向きAZ(goal)との間の角度DA(goal)にゼロより大きく1以下の既定の係数を乗じた角度だけシフトした方向に障害物センサ12の検知方向を向ける。   Furthermore, a preferred modification of the mobile robot 10 will be described with reference to FIG. The mobile robot 50 is configured to be able to swing the head of the obstacle sensor 12. That is, the mobile robot 50 is configured to be able to change the detection direction of the obstacle sensor 12 relative to its main body. The mobile robot 50 stores a destination P (goal) and a planned orientation AZ (goal) of the mobile robot 50 at the destination P (goal). During the movement, the mobile robot 50 faces the detection direction in a predetermined direction As (t) between the current traveling direction AZ (t) of the mobile robot 50 and the above-mentioned predetermined direction AZ (goal). The direction of the obstacle sensor 12 is controlled. The predetermined direction As (t) is an angle DA () between the current traveling direction AZ (t) of the mobile robot 50 and the above-mentioned predetermined direction AZ (goal) in the direction toward the destination P (goal). (goal) multiplied by a predetermined coefficient greater than zero and less than or equal to 1. That is, the mobile robot 50 has an angle DA (goal) between the current traveling direction AZ (t) of the mobile robot 50 and the above-mentioned predetermined direction AZ (goal) in the direction toward the target position P (goal). The detection direction of the obstacle sensor 12 is directed in a direction shifted by an angle obtained by multiplying by a predetermined coefficient greater than zero and equal to or less than 1.

図7の符号S(t)は、障害物センサ12を移動ロボット50の進行方向AZ(t)に向けたときの検知範囲を示している。符号Ss(t)は、障害物センサ12を、目的地P(goal)に向かう方向に、現在の移動ロボット50の進行方向AZ(t)と目的地にて予定された向きAZ(goal)との間の角度DA(goal)に前記した既定の係数を乗じた角度だけ振ったときの検知範囲を示している。そのような障害物センサの方向制御を行うと、常に目的地に近い方向にシフトした範囲を検知範囲(即ち障害物を計測する範囲)とすることができる。   A symbol S (t) in FIG. 7 indicates a detection range when the obstacle sensor 12 is directed in the traveling direction AZ (t) of the mobile robot 50. Reference sign Ss (t) indicates that the obstacle sensor 12 is moved in the direction toward the destination P (goal) and the current traveling direction AZ (t) of the mobile robot 50 and the direction AZ (goal) planned at the destination. The detection range is shown when the angle DA (goal) is multiplied by the angle obtained by multiplying the predetermined coefficient described above. When the direction control of the obstacle sensor is performed, a range that is always shifted in a direction close to the destination can be set as a detection range (that is, a range in which the obstacle is measured).

実施例に関する留意点を述べる。実施例の移動ロボット10は、距離条件と角度条件を共に満足する過去の検知地点におけるセンサデータを削除した。記憶容量に余裕があれば削除せずとも、環境マップを生成するための元データから除外すればよい。また、実施例の移動ロボットは脚で歩行するロボットである。本明細書が開示する技術は、車輪で移動するロボット、或いは、ホバークラフトのように浮上して移動するロボットに適用することも好適である。また、「最新の検知位置」と「最新の検知方向」は、本発明の技術思想的には「現在の障害物センサの位置」と「現在の障害物センサの向いている方向」と等価である。障害物検知は数十msec〜数sec毎に行われる。従って、「最新の検知位置」と「現在の検知位置」との間には数十msec〜数secの時間差が存在するが、障害物検知の観点からはそのような時間差は無視し得る程小さい。   Points to be noted regarding the embodiment are described. The mobile robot 10 of the example deleted sensor data at past detection points that satisfy both the distance condition and the angle condition. What is necessary is just to exclude from the original data for producing | generating an environment map, without deleting if there is room in storage capacity. The mobile robot of the embodiment is a robot that walks with legs. The technology disclosed in this specification is also preferably applied to a robot that moves by wheels, or a robot that floats and moves like a hovercraft. In addition, “the latest detection position” and “the latest detection direction” are equivalent to “the current position of the obstacle sensor” and “the direction in which the current obstacle sensor is directed” in the technical concept of the present invention. is there. Obstacle detection is performed every tens of milliseconds to several seconds. Accordingly, there is a time difference of several tens of milliseconds to several seconds between the “latest detection position” and the “current detection position”, but such a time difference is negligibly small from the viewpoint of obstacle detection. .

以上、本発明の具体例を詳細に説明したが、これらは例示に過ぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成し得るものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。   Specific examples of the present invention have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above. The technical elements described in this specification or the drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology exemplified in this specification or the drawings can achieve a plurality of objects at the same time, and has technical usefulness by achieving one of the objects.

10:移動ロボット
12:障害物センサ
14:駆動系センサ
16:アクチュエータ
20:コントローラ
50:移動ロボット
202:オドメトリモジュール
204:センサデータ記憶部
206:マップ記憶部
207:データ選択部
208:座標変換部
209:マップ合成部
210:マップ生成モジュール
212:経路決定モジュール
214:駆動制御モジュール
10: Mobile robot 12: Obstacle sensor 14: Drive system sensor 16: Actuator 20: Controller 50: Mobile robot 202: Odometry module 204: Sensor data storage unit 206: Map storage unit 207: Data selection unit 208: Coordinate conversion unit 209 : Map synthesis unit 210: Map generation module 212: Route determination module 214: Drive control module

Claims (2)

移動中に繰り返し周囲の障害物を検知する障害物センサと、
障害物検知を行った検知地点間の距離と夫々の検知地点における検知方向の間の角度を記録するオドメトリモジュールと、
記録された前記距離と前記角度に基づいて、各検知地点における障害物センサのセンサデータを統一の座標系に写像した環境マップを生成するマップ生成モジュールと、を備えており、
前記マップ生成モジュールは、次の2つの条件、即ち、最新の検知地点との間の距離が既定の距離閾値より大きいという距離条件、及び、前記最新の検知地点における検知方向との間の角度が既定の角度閾値よりも小さいという角度条件、を共に満足する過去の検知地点におけるセンサデータを、環境マップを生成するための元データから除外することを特徴とする移動ロボット。
An obstacle sensor that repeatedly detects surrounding obstacles while moving;
An odometry module that records the angle between the detection points where obstacle detection was performed and the detection direction at each detection point;
A map generation module that generates an environment map in which sensor data of obstacle sensors at each detection point is mapped to a unified coordinate system based on the recorded distance and the angle;
The map generation module has the following two conditions: a distance condition that the distance to the latest detection point is larger than a predetermined distance threshold, and an angle between the detection direction at the latest detection point. A mobile robot characterized by excluding sensor data at past detection points that satisfy an angle condition smaller than a predetermined angle threshold from the original data for generating an environment map.
前記マップ生成モジュールは、前記距離条件と前記角度条件に加えて、検知範囲に移動ロボットの予定経路が含まれていないという予定経路条件を満足する過去の検知地点におけるセンサデータを、環境マップを生成するための元データから除外することを特徴とする請求項1に記載の移動ロボット。   The map generation module generates an environment map of sensor data at past detection points that satisfy a predetermined route condition that the detection route does not include a predetermined route of the mobile robot in addition to the distance condition and the angle condition. The mobile robot according to claim 1, wherein the mobile robot is excluded from the original data for performing.
JP2010110160A 2010-05-12 2010-05-12 Mobile robot Pending JP2011238104A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010110160A JP2011238104A (en) 2010-05-12 2010-05-12 Mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010110160A JP2011238104A (en) 2010-05-12 2010-05-12 Mobile robot

Publications (1)

Publication Number Publication Date
JP2011238104A true JP2011238104A (en) 2011-11-24

Family

ID=45325999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010110160A Pending JP2011238104A (en) 2010-05-12 2010-05-12 Mobile robot

Country Status (1)

Country Link
JP (1) JP2011238104A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017520415A (en) * 2014-06-03 2017-07-27 アルティミンズ ロボティクス ゲーエムベーハー Method and system for programming a robot
JP2017157087A (en) * 2016-03-03 2017-09-07 株式会社デンソー Occupied grid map generation device
JP2018025880A (en) * 2016-08-08 2018-02-15 シャープ株式会社 Autonomous travel device and autonomous travel control method and control program
JP2018097528A (en) * 2016-12-12 2018-06-21 株式会社Ihiエアロスペース Unmanned mobile body and control method of unmanned mobile body
CN112130569A (en) * 2020-09-27 2020-12-25 上海木木聚枞机器人科技有限公司 Ultrasonic wave range setting method and system
CN112352272A (en) * 2018-07-30 2021-02-09 千叶工业大学 Map generation system and moving object
WO2022179270A1 (en) * 2021-02-23 2022-09-01 京东科技信息技术有限公司 Robot traveling method and apparatus, and electronic device, storage medium and program product

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017520415A (en) * 2014-06-03 2017-07-27 アルティミンズ ロボティクス ゲーエムベーハー Method and system for programming a robot
US10279476B2 (en) 2014-06-03 2019-05-07 ArtiMinds Robotics GmbH Method and system for programming a robot
JP2017157087A (en) * 2016-03-03 2017-09-07 株式会社デンソー Occupied grid map generation device
JP7014508B2 (en) 2016-08-08 2022-02-01 シャープ株式会社 Autonomous driving device and autonomous driving control method and control program
JP2018025880A (en) * 2016-08-08 2018-02-15 シャープ株式会社 Autonomous travel device and autonomous travel control method and control program
JP2018097528A (en) * 2016-12-12 2018-06-21 株式会社Ihiエアロスペース Unmanned mobile body and control method of unmanned mobile body
CN112352272A (en) * 2018-07-30 2021-02-09 千叶工业大学 Map generation system and moving object
JPWO2020026294A1 (en) * 2018-07-30 2021-05-13 学校法人千葉工業大学 Map generation system and mobile
US20210270633A1 (en) * 2018-07-30 2021-09-02 Chiba Institute Of Technology Map generation system and mobile object
JP7123430B2 (en) 2018-07-30 2022-08-23 学校法人千葉工業大学 Map generation system and moving object
US11802779B2 (en) 2018-07-30 2023-10-31 Chiba Institute Of Technology Map generation system and mobile object
CN112130569A (en) * 2020-09-27 2020-12-25 上海木木聚枞机器人科技有限公司 Ultrasonic wave range setting method and system
CN112130569B (en) * 2020-09-27 2024-03-26 上海木木聚枞机器人科技有限公司 Ultrasonic wave range setting method and system
WO2022179270A1 (en) * 2021-02-23 2022-09-01 京东科技信息技术有限公司 Robot traveling method and apparatus, and electronic device, storage medium and program product

Similar Documents

Publication Publication Date Title
JP2011238104A (en) Mobile robot
US8515612B2 (en) Route planning method, route planning device and autonomous mobile device
JP6842519B2 (en) Data collection method and its system
CN107992052B (en) Target tracking method and device, mobile device and storage medium
EP3460614B1 (en) Combined robot and cruising path generation method therefor
JP4316477B2 (en) Tracking method of mobile robot
KR101976241B1 (en) Map building system and its method based on multi-robot localization
JP6032163B2 (en) 3D object recognition apparatus, 3D object recognition method, and moving body
JP5112666B2 (en) Mobile device
US7873438B2 (en) Mobile apparatus and control program therefor
JP2009193240A (en) Mobile robot and method for generating environment map
JP4738472B2 (en) Mobility control device having obstacle avoidance function
JP2011175393A (en) Route planning apparatus, autonomous mobile robot, and method for planning movement path
JP6052045B2 (en) Autonomous mobile
JP5287051B2 (en) Autonomous mobile device
JP2009031884A (en) Autonomous mobile body, map information creation method in autonomous mobile body and moving route specification method in autonomous mobile body
JP5902275B1 (en) Autonomous mobile device
JP2008142841A (en) Mobile robot
JP5287060B2 (en) Route planning device and autonomous mobile device
JP6680614B2 (en) Surveying device, moving body, surveying method and program
KR20090126414A (en) Robot and method for planning path of the same
JP6520048B2 (en) Moving body
JP5212939B2 (en) Autonomous mobile device
CN113485362A (en) Robot movement method and device and electronic equipment
JP2010061483A (en) Self-traveling moving object and method for setting target position of the same