JP4678007B2 - Environmental map generation method and mobile robot - Google Patents
Environmental map generation method and mobile robot Download PDFInfo
- Publication number
- JP4678007B2 JP4678007B2 JP2007116503A JP2007116503A JP4678007B2 JP 4678007 B2 JP4678007 B2 JP 4678007B2 JP 2007116503 A JP2007116503 A JP 2007116503A JP 2007116503 A JP2007116503 A JP 2007116503A JP 4678007 B2 JP4678007 B2 JP 4678007B2
- Authority
- JP
- Japan
- Prior art keywords
- plane
- current frame
- position data
- dimensional position
- mobile robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 43
- 230000007613 environmental effect Effects 0.000 title claims description 25
- 238000001514 detection method Methods 0.000 claims description 26
- 238000006243 chemical reaction Methods 0.000 claims description 20
- 238000005259 measurement Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 7
- 238000002372 labelling Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 239000013589 supplement Substances 0.000 claims description 2
- 210000002683 foot Anatomy 0.000 description 29
- 210000002414 leg Anatomy 0.000 description 15
- 238000010586 diagram Methods 0.000 description 7
- 239000013598 vector Substances 0.000 description 5
- 210000000544 articulatio talocruralis Anatomy 0.000 description 4
- 210000000629 knee joint Anatomy 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
Description
本発明は環境地図生成方法、及び移動ロボットに関する。 The present invention relates to an environment map generation method and a mobile robot.
自律移動ロボットは、自ら移動経路の環境を認識して、目的地へと移動する。このため、移動ロボットは、ステレオカメラやレンジセンサなどの視覚センサによって得られる計測データを用いて環境地図を生成し、その環境地図を参照して目的地へと移動する。
自律移動ロボットが2足歩行ロボットである場合には、環境地図を用いて足平を着地可能な領域を判断し、足平の着地位置を順次計画することによって歩行を計画する。
従って、移動ロボットの安定した歩行を計画するためには、データ抜けの少ない密な環境地図を生成することが必要である。
The autonomous mobile robot recognizes the environment of the movement route and moves to the destination. For this reason, the mobile robot generates an environment map using measurement data obtained by a visual sensor such as a stereo camera or a range sensor, and moves to the destination with reference to the environment map.
If the autonomous mobile robot is a biped walking robot, walking is planned by determining an area where the foot can land using an environmental map and sequentially planning the landing position of the foot.
Therefore, in order to plan a stable walking of the mobile robot, it is necessary to generate a dense environmental map with little data missing.
環境地図は、視覚センサによって得られた視差画像や、計測対象との距離画像などの計測情報をもとに算出される3次元位置データ群から平面群を検出することによって生成することができる。3次元位置データ群から平面を検出する方法としては、ハフ変換を用いた平面検出手法や、ランダムサンプリングによる平面検出手法などが良く知られている。例えば特許文献1には、ハフ変換を利用して3次元位置データ群から平面パラメータを算出することによって、2足歩行ロボットの足平が接している床面を含む複数平面を検出し、これら複数平面の検出結果を用いて障害物領域と移動可能領域とが特定された環境地図を生成する技術が開示されている。
また、特許文献2には、外部状態から、3次元障害物地図及び2次元の基準面からの高さを示す対基準面高さ地図を作成し、3次元障害物地図に基づいて対基準面高さ地図を変更する環境地図生成方法が開示されている。
Further, in Patent Document 2, a 3D obstacle map and a reference height map indicating the height from a 2D reference plane are created from an external state, and the reference plane is determined based on the 3D obstacle map. An environmental map generation method for changing a height map is disclosed.
しかしながら、従来知られているいずれの環境地図生成方法によっても、計測データの分解能が低い場合や、視覚センサとの通信エラーなどによるデータ抜け・データ不足が発生した場合などにおいては、データ抜けの少ない密な環境地図を得ることはできないものであった。例えば、環境地図にデータ抜けがある場合に、本来は着地可能な領域に対して着地することができないときには、最適な経路以外の他の経路を生成しなければならず、不要な方向転換などが発生するという問題がある。
一方、このようなデータ抜けを補完する手法としては、計測データがプロットされた現フレームに対して、現フレームより前に取得された前フレームを重ね合わせることによりデータ抜けを補完する手法が考えられる。前フレームを現フレームへと重ね合わせる際には、前フレームをオドメトリによって座標変換することにより現フレームへと対応させる。しかし、このような対応付けにより重ね合わせを実行した場合には、オドメトリの誤差によって、座標変換後の前フレーム及び現フレームのデータについて整合性がとれなくなり、このような現フレーム及び前フレームを重ねあわせたフレームからでは、精度の高い平面を検出することができない。
特に、移動ロボットが2足歩行ロボットである場合には、高さ、ピッチ、及びロール方向への変動が大きいため、オドメトリの誤差によって高さ方向の精度が失われてしまう。このため、例えば、移動ロボットが段差などの平面に足平を着地する際に特に重要となる、平面の高さ成分を精度良く検出することができない。
However, with any known environmental map generation method, there is little data loss when the resolution of measurement data is low or when data loss or data shortage occurs due to a communication error with the visual sensor. A dense environmental map could not be obtained. For example, when there is missing data in the environmental map, if it is not possible to land on an area that can be landed originally, a route other than the optimum route must be generated, and unnecessary direction changes may occur. There is a problem that occurs.
On the other hand, as a method of complementing such data omission, a method of complementing data omission by superimposing the previous frame acquired before the current frame on the current frame on which the measurement data is plotted can be considered. . When the previous frame is superimposed on the current frame, the previous frame is coordinated by odometry to correspond to the current frame. However, when superposition is performed by such association, consistency of the data of the previous frame and the current frame after coordinate conversion cannot be obtained due to an odometry error, and such current frame and previous frame are overlapped. A highly accurate plane cannot be detected from the combined frames.
In particular, when the mobile robot is a biped robot, the height, pitch, and roll direction fluctuations are large, and accuracy in the height direction is lost due to odometry errors. For this reason, for example, the height component of the plane, which is particularly important when the mobile robot lands on a plane such as a step, cannot be detected with high accuracy.
このように、現フレーム及び前フレームを重ねあわせたフレームから検出された平面を環境地図生成のために使用しては不十分なものであると共に、データ抜け・データ不足を含む環境地図を参照しては、移動ロボットの動作計画を安定させることができないという問題がある。
本発明は、かかる課題を解決するためになされたものであり、オドメトリによる誤差の影響を低減させ、データ抜けの少ない密な環境地図を生成することができる環境地図生成方法、及び移動ロボットを提供することを目的とする。
As described above, it is insufficient to use the plane detected from the frame obtained by superimposing the current frame and the previous frame for generating the environmental map, and also refer to the environmental map including missing data and insufficient data. Therefore, there is a problem that the operation plan of the mobile robot cannot be stabilized.
The present invention has been made to solve such a problem, and provides an environment map generation method and a mobile robot that can reduce the influence of errors caused by odometry and generate a dense environment map with less data loss. The purpose is to do.
本発明にかかる環境地図生成方法は、移動ロボットが参照し、データ抜けを補完した環境地図を生成するための環境地図生成方法であって、現フレームのみから平面情報を検出するステップと、前記移動ロボットの移動量に基づいて、前記現フレームの前に取得された前フレームの座標系を前記現フレームの座標系に変換するステップと、座標変換された前記前フレームを前記現フレームに重ね合わせるステップと、検出された前記平面情報と、重ね合わされた前記現フレームとに基づいて前記環境地図を生成するステップとを有するものである。 Environmental map generation method according to the present invention, the mobile robot with reference to a environment map generating method for generating an environmental map complementing data loss, a step of detecting plane information only from the current frame, the mobile Based on the amount of movement of the robot, converting the coordinate system of the previous frame acquired before the current frame to the coordinate system of the current frame, and superimposing the coordinate-converted previous frame on the current frame And generating the environment map based on the detected plane information and the superimposed current frame.
これにより、現フレームの3次元位置データ群のデータ抜けを前フレームの3次元位置データ群によって補完することができ、データ抜けの少ない密な環境地図を生成することができる。また、現フレームのみから平面を検出するため、現フレーム及び前フレームを重ね合わされたフレームから平面を検出する場合と比較して、オドメトリによる誤差の影響を受けずに精度の高い平面を検出することができる。
従って、このようにして検出された平面情報と、重ね合わされた現フレームの3次元位置データ群とによれば、データ抜けの少ない密な環境地図を生成することができ、移動ロボットの動作計画の解を安定させることができる。
As a result, the data omission in the 3D position data group of the current frame can be complemented by the 3D position data group of the previous frame, and a dense environmental map with less data omission can be generated. In addition, since the plane is detected only from the current frame, it is possible to detect a plane with higher accuracy without being affected by errors due to odometry, compared to the case of detecting the plane from the frame in which the current frame and the previous frame are overlapped. Can do.
Therefore, the plane information detected in this way and the superimposed three-dimensional position data group of the current frame can generate a dense environment map with little data loss, The solution can be stabilized.
また、前記重ね合わせステップは、座標変換された前記前フレームにおける平面について、前記現フレームにおいて対応する平面を特定し、座標変換された前記前フレームにおける平面の3次元位置データの高さ成分を、前記現フレームにおいて特定された前記平面の3次元位置データの高さ成分により置き換えることにより、重ね合わせ処理を実行するようにしてもよい。これにより、現フレームの特定された平面の高さを基準高さとして、前フレームの3次元位置データを置き換えることができるため、オドメトリによる誤差の影響を受けて、置き換えによって3次元位置データの整合性が崩れてしまう場合であっても、高さ方向のズレを補正することができる。 The superimposing step specifies a corresponding plane in the current frame with respect to the plane in the previous frame subjected to coordinate conversion, and calculates a height component of the three-dimensional position data of the plane in the previous frame subjected to coordinate conversion, The superposition process may be executed by replacing with the height component of the three-dimensional position data of the plane specified in the current frame. As a result, the three-dimensional position data of the previous frame can be replaced with the height of the specified plane of the current frame as the reference height. Even in the case where the characteristics are lost, the deviation in the height direction can be corrected.
さらにまた、前記平面情報の検出ステップは、3次元位置データ群から2点の3次元位置データの組をサンプリングし、該2点の3次元位置データの組に基づいて平面パラメータを算出するステップと、算出された平面パラメータからなる平面に対して、3次元位置データが属する平面を決定するステップとを備えるようにしてもよい。これにより、ハフ変換を利用する手法と比較して、正確かつ安定に平面を抽出することができる。例えば、環境に階段などの複数の平面が存在する場合には、ハフ変換による手法に比べて、より多くの平面を安定して正確に検出することができる。 Furthermore, the step of detecting plane information samples a set of two-dimensional three-dimensional position data from a three-dimensional position data group and calculates a plane parameter based on the two-point three-dimensional position data set; A step of determining a plane to which the three-dimensional position data belongs with respect to the plane composed of the calculated plane parameters. Thereby, a plane can be extracted accurately and stably compared with the method using the Hough transform. For example, when there are a plurality of planes such as stairs in the environment, more planes can be detected stably and accurately than the method using the Hough transform.
また、前記移動ロボットが、移動手段としての2つの脚部を備え、2足歩行運動により移動を行うようにしてもよい。移動ロボットが二足歩行ロボットである場合には、オドメトリによる誤差によって高さ方向の精度が失われてしまうものの、かかる場合であっても、高さ方向の誤差を補正することができる。 The mobile robot may be provided with two legs as moving means and move by bipedal walking motion. When the mobile robot is a biped robot, the accuracy in the height direction is lost due to an error due to odometry, but even in such a case, the error in the height direction can be corrected.
本発明にかかる移動ロボットは、データ抜けを補完した環境地図を参照して移動する移動ロボットであって、前記環境を視覚的に認識する視覚センサと、前記視覚センサにより得られる計測データを用いて、前記環境に存在する計測対象の位置を示す3次元位置データ群を生成する3次元位置データ生成部と、現フレームの3次元位置データ群のみから平面情報を検出する平面検出部と、前記移動ロボットの移動量に基づいて、前記現フレームの前に取得された前フレームの座標系を前記現フレームの座標系に変換する座標変換部と、座標変換された前記前フレームを前記現フレームに重ね合わせる重ね合わせ部と、検出された前記平面情報と、重ね合わされた前記現フレームとに基づいて前記環境地図を生成する環境地図生成部とを備えるものである。
A mobile robot according to the present invention is a mobile robot that moves by referring to an environmental map supplemented with missing data, and uses a visual sensor that visually recognizes the environment and measurement data obtained by the visual sensor. A three-dimensional position data generation unit that generates a three-dimensional position data group indicating a position of a measurement target existing in the environment, a plane detection unit that detects plane information only from the three-dimensional position data group of the current frame, and the movement Based on the amount of movement of the robot, a coordinate conversion unit that converts the coordinate system of the previous frame acquired before the current frame to the coordinate system of the current frame, and superimposing the coordinate-converted previous frame on the current frame A superposition unit for matching, and an environmental map generation unit for generating the environmental map based on the detected plane information and the superposed current frame. Than is.
これにより、現フレームのデータ抜けを前フレームによって補完することができ、データ抜けの少ない密な環境地図を生成することができる。また、現フレームのみから平面を検出するため、現フレーム及び前フレームを重ね合わされたフレームから平面を検出する場合と比較して、オドメトリによる誤差の影響を受けずに精度の高い平面を検出することができる。
従って、このようにして検出された平面情報と、重ね合わされた現フレームの3次元位置データ群とによれば、データ抜けの少ない密な環境地図を生成することができ、移動ロボットの動作計画の解を安定させることができる。
Thereby, data omission in the current frame can be complemented by the previous frame, and a dense environmental map with less data omission can be generated. In addition, since the plane is detected only from the current frame, it is possible to detect a plane with higher accuracy without being affected by errors due to odometry, compared to the case of detecting the plane from the frame in which the current frame and the previous frame are overlapped. Can do.
Therefore, the plane information detected in this way and the superimposed three-dimensional position data group of the current frame can generate a dense environment map with little data loss, The solution can be stabilized.
また、前記重ね合わせ部は、座標変換された前記前フレームにおける平面について、前記現フレームにおいて対応する平面を特定し、座標変換された前記前フレームにおける平面の3次元位置データの高さ成分を、前記現フレームにおいて特定された前記平面の3次元位置データの高さ成分により置き換えることにより、重ね合わせ処理を実行するようにしてもよい。これにより、現フレームの特定された平面の高さを基準高さとして、前フレームの3次元位置データを置き換えることができるため、オドメトリによる誤差の影響を受けて、置き換えによって3次元位置データの整合性が崩れてしまう場合であっても、高さ方向のズレを補正することができる。 Further, the superposition unit specifies a corresponding plane in the current frame with respect to the plane in the previous frame subjected to coordinate transformation, and calculates a height component of the three-dimensional position data of the plane in the previous frame subjected to coordinate transformation, The superposition process may be executed by replacing with the height component of the three-dimensional position data of the plane specified in the current frame. As a result, the three-dimensional position data of the previous frame can be replaced with the height of the specified plane of the current frame as the reference height, so that the matching of the three-dimensional position data by the replacement is affected by the error due to odometry. Even in the case where the characteristics are lost, the deviation in the height direction can be corrected.
さらにまた、前記平面検出部は、3次元位置データ群から2点の3次元位置データの組をサンプリングし、該2点の3次元位置データの組に基づいて平面パラメータを算出する平面パラメータ算出部と、算出された平面パラメータからなる平面に対して、3次元位置データが属する平面を決定するラベリング処理部とを備えるようにしてもよい。これにより、ハフ変換を利用する手法と比較して、正確かつ安定に平面を抽出することができる。例えば、環境に階段などの複数の平面が存在する場合には、ハフ変換による手法に比べて、より多くの平面を安定して正確に検出することができる。 Furthermore, the plane detection unit samples a set of two-dimensional three-dimensional position data from the three-dimensional position data group, and calculates a plane parameter based on the two-point three-dimensional position data set. And a labeling processing unit for determining a plane to which the three-dimensional position data belongs with respect to the plane composed of the calculated plane parameters. Thereby, a plane can be extracted accurately and stably as compared with the method using the Hough transform. For example, when there are a plurality of planes such as stairs in the environment, more planes can be detected stably and accurately than the method using the Hough transform.
また、前記移動ロボットが、移動手段としての2つの脚部を備え、2足歩行運動により移動を行うようにしてもよい。移動ロボットが二足歩行ロボットである場合には、オドメトリによる誤差によって高さ方向の精度が失われてしまうものの、かかる場合であっても、高さ方向の誤差を補正することができる。 The mobile robot may be provided with two legs as moving means and move by bipedal walking motion. When the mobile robot is a biped robot, the accuracy in the height direction is lost due to an error due to odometry, but even in such a case, the error in the height direction can be corrected.
本発明によれば、オドメトリによる誤差の影響を低減させ、データ抜けの少ない密な環境地図を生成することができる環境地図生成方法、及び移動ロボットを提供することができる。
According to the present invention reduces the influence of errors due to odometry, the environment map generation method capable of generating a less dense environment map of data loss, and it is possible to provide a mobile robot.
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。尚、各図面において、同一要素には同一の符号を付しており、説明の明確化のため、必要に応じて重複説明を省略する。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In addition, in each drawing, the same code | symbol is attached | subjected to the same element, and duplication description is abbreviate | omitted as needed for clarification of description.
発明の実施の形態1.
本実施の形態にかかる移動ロボットは、2つの脚リンクを有する脚式移動ロボットである。さらに、移動ロボットは環境地図生成装置を有する。環境地図生成装置は、現フレームより平面情報を検出し、移動ロボットの移動量に基づいて、現フレームの前に取得された前フレームの座標系を現フレームの座標系に変換する。次いで、座標変換された前フレームの3次元位置データ群を現フレームの3次元位置データ群に重ね合わせ、検出された平面情報と、重ね合わされた現フレームの3次元位置データ群とに基づいて環境地図を生成する装置である。
移動ロボットは、環境地図生成装置によって生成された環境地図を参照して、移動ロボットの2つの脚リンクそれぞれの先端に設けられた足平の着地位置を決定する。
さらに、移動ロボットは、決定された足平着地位置を実現するための動作データを生成し、生成された動作データをもとに移動ロボットの関節群をアクチュエータによって駆動することで歩行する。
The mobile robot according to the present embodiment is a legged mobile robot having two leg links. Furthermore, the mobile robot has an environment map generation device. The environment map generation device detects plane information from the current frame, and converts the coordinate system of the previous frame acquired before the current frame into the coordinate system of the current frame based on the movement amount of the mobile robot. Next, the coordinate-converted three-dimensional position data group of the previous frame is superimposed on the three-dimensional position data group of the current frame, and the environment is determined based on the detected plane information and the superimposed three-dimensional position data group of the current frame. A device that generates a map.
The mobile robot refers to the environment map generated by the environment map generation device and determines the landing position of the foot provided at the tip of each of the two leg links of the mobile robot.
Further, the mobile robot generates motion data for realizing the determined foot landing position, and walks by driving a joint group of the mobile robot by an actuator based on the generated motion data.
図1を用いて、本発明にかかる移動ロボット100の構成について説明する。図1は、移動ロボット100を側方(移動ロボット100の移動する方向を向いて左方向)から見た様子を概略的に表す概略図であり、移動ロボット100に搭乗者Pが搭乗している様子を表している。図1に示すように、視覚センサとしてのレーザレンジファインダ10が移動ロボット100に取り付けられる。
尚、図1においては、説明の便宜上、移動体1が進行する向き(前後方向)をx軸、移動体1が進行する方向について水平方向に直交する向き(左右方向)をy軸、移動体の移動する平面から鉛直方向に延びる向き(上下方向)をz軸とし、これらの3軸からなる座標系を用いて説明する。すなわち、図1中において、前記x軸は紙面に向かって左右方向、y軸は紙面の奥行方法、z軸は紙面中の上下方向を示す。
The configuration of the
In FIG. 1, for convenience of explanation, the direction in which the moving
図1に示すように、移動ロボット100は、搭乗者Pが搭乗する載置台(図示せず)を含む上体部101と、上体部101を支持する腰部(図示せず)を介して回動自在に固定される脚部104と、腰部に取り付けられたレーザレンジファインダ10とにより構成される。
脚部104は、右脚102及び左脚103により構成され、右脚102は、右膝関節102c、右足首関節102e、右足平102fを備え、同様に、左脚103は、左膝関節103c、左足首関節103e、左足平103fを備える。
図示しないモータからの駆動力が、同じく図示しないプーリ及びベルトを介して伝達されることで、各関節が所望の角度に駆動され、その結果、右脚102及び左脚103に所望の動きをさせることができる。
As shown in FIG. 1, the
The
A driving force from a motor (not shown) is transmitted through a pulley and a belt (not shown), so that each joint is driven to a desired angle. As a result, the
移動ロボット100の上体部101には、腰部(図示せず)を介して移動ロボット100が歩行する環境の距離画像データを検出するレーザレンジファインダ10が設けられている。より具体的には、例えば図1においては、レーザレンジファインダ10を、水平方向から移動ロボット100の足元に向けて傾斜させて設置し、移動ロボット100の足元近傍を含む前方に向けて赤外線などのレーザ光を照射し、その反射光を受光させる。
このようにすると、移動ロボット100の足元近傍の距離画像データについて高い分解能を確保することができ、密度の高い足元近傍の距離画像データを取得することができる。
The
In this way, high resolution can be secured for the distance image data near the feet of the
レーザレンジファインダ10は、床面上の障害物を含む外部環境の距離画像データを取得する。尚、距離画像データとは、環境に存在する計測対象までの距離値を各画素の画素値として有する2次元データである。後述するように、距離画像データの座標変換を行うことにより、外界の3次元の点群データを生成することができる。
The
さらに、レーザレンジファインダ10は、移動ロボット100の腰部に備えられており、鉛直軸を中心に揺動可能な構成となっている。これにより、移動ロボット100の移動方向前方をスキャンすることができる。
このようにすると、上面視では、レーザ光によるスキャン範囲を移動ロボット100の移動方向前方に向かって、左右に広がった扇形形状となるように構成することができ、移動に必要な領域のみを効率的にスキャンすることができる。
Further, the
In this way, in the top view, the scanning range by the laser beam can be configured to have a fan-shaped shape that spreads to the left and right toward the front in the moving direction of the
ここで、レーザレンジファインダ10が、2次元の距離画像データから3次元の点群データを生成する方法について説明する。
まず、レーザレンジファインダ10を左右に揺動せずに固定した場合に、レーザ光を床面に垂直に移動方向前方に向かって上下に照射することで、床面に垂直な平面上における障害物の距離画像データを取得する。そして、レーザレンジファインダ10を移動ロボット100の鉛直軸を中心に、移動方向前方に向かって左右に揺動しながらスキャンすることで、複数の異なる平面上における距離画像データを取得する。次いで、レーザレンジファインダ10を揺動可能に支持する関節の角度に基づいて複数の距離画像データを座標変換して位置合わせする。これにより、複数平面上で得られた距離画像データの統合を行うことができる。または、複数の距離画像データから対応点を求めることによって、距離画像データ相互の位置合わせを行ってもよい。
このようにして、前方の領域に含まれる3次元の距離画像データを簡便な構成によって容易に取得することができる。
Here, a method in which the
First, when the
In this way, the three-dimensional distance image data included in the front area can be easily acquired with a simple configuration.
続いて以下では、本実施の形態にかかる移動ロボット100の制御系について説明する。移動ロボット100の制御系の構成を図2に示す。図2に示すように、環境地図生成装置1は、平面検出部12、座標変換部13、重ね合わせ部14、及び環境地図生成部15を有する。
Subsequently, a control system of the
図2において、レーザレンジファインダ10は、上述したように、移動ロボット100の外部環境の距離画像データを取得する。より具体的には、例えば図3に示すように、移動ロボット100が移動方向(ここではx軸方向)へ移動する際に、レーザレンジファインダ10より移動方向前方に向けてレーザ光を照射することにより、移動方向前方の距離画像データを検出する。
尚、視覚センサとして、レーザレンジファインダに代えてステレオカメラを用いてもよい。つまり、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を備えた複数のカメラを備え、これら複数のカメラによって撮影された画像の視差を利用して距離画像データを生成してもよい。より具体的には、複数のカメラによって撮影した画像データから対応点を検出し、ステレオ視によって対応点の3次元位置を復元する。ここで、複数の撮影画像における対応点の探索は、複数の撮影画像に対する時空間微分の拘束式を用いた勾配法や相関法等の公知の手法を適用して行えばよい。
In FIG. 2, the
As a visual sensor, a stereo camera may be used instead of the laser range finder. That is, a distance image is obtained by using a plurality of cameras including an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and using parallax of images captured by the plurality of cameras. Data may be generated. More specifically, corresponding points are detected from image data captured by a plurality of cameras, and the three-dimensional positions of the corresponding points are restored by stereo vision. Here, the search for corresponding points in a plurality of captured images may be performed by applying a known method such as a gradient method or a correlation method using a time-space differential constraint formula for the plurality of captured images.
3次元位置データ生成部11は、距離画像データの座標変換を行って3次元位置データ群を生成する。尚、3次元位置データ群とは、距離画像データに含まれる多数の計測点の位置ベクトルを3次元直交座標系で表したデータの集合である。
例えば図4の画像は、移動ロボット100により生成される3次元位置データ群の一例を示している。尚、図4は、床面に平行なxy平面に3次元位置データ群がプロットされたものであり、プロットされた各点について高さ情報(z軸方向の位置情報)が存在する。また、図4において破線で囲まれた領域162は、センサとの通信エラーなどにより発生したデータ抜け領域を表している。
ここで、図4の画像をフレームと呼ぶ。移動ロボット100により処理対象となる現在のフレームを現フレームと呼び、現フレームの以前に生成されたフレームを前フレームと呼ぶ。移動ロボット100が移動することで、前フレームと現フレームとでは3次元位置データ群が変化する。
The three-dimensional position
For example, the image in FIG. 4 shows an example of a three-dimensional position data group generated by the
Here, the image of FIG. 4 is called a frame. A current frame to be processed by the
また、3次元位置データ生成部11は、オドメトリを用いて、生成した3次元位置データの歪みを補正する。より具体的には、レーザレンジセンサ10によるスキャン中に、移動ロボット100が移動することによって発生する検出誤差を補正する。即ち、レーザレンジセンサ10によるスキャン中に移動ロボット100が移動するため、検出される床面形状データは、移動ロボット100の移動量に応じた検出誤差を含む。オドメトリにより、各関節軸に設けられたエンコーダ20などの出力に基づいて移動ロボット100の移動量を算出して、移動ロボット100が移動することによる検出誤差を補正する。
さらにまた、3次元位置データ生成部11は、移動ロボット100の上体部101に設けられたジャイロ(図示せず)からの出力に基づいて、3次元位置データ群のピッチ方向の歪みを補正する。即ち、移動ロボット100の腰部に設けられたジャイロ(図示せず)の出力からピッチ方向の回転成分を検出し、3次元位置データのピッチ方向の検出誤差を補正する。これにより、歩行ロボットにおいて3次元位置データに与える影響が大きいピッチ方向の検出誤差を補正する。
Further, the three-dimensional position
Furthermore, the three-dimensional position
平面検出部12は、3次元位置データ生成部11により生成された3次元位置データ群より平面を検出する。より具体的には、平面検出部12は、3次元位置データ群から2点の3次元位置データの組をサンプリングし、その2点の3次元位置データの組に基づいて平面パラメータを算出する平面パラメータ算出部と、算出された平面パラメータからなる平面に対して、3次元位置データが属する平面を決定するラベリング処理部とを備える。
このような2点ランダムサンプリング法は、ハフ変換を利用する手法と比較して、正確かつ安定に平面を抽出することができる。例えば、環境に階段などの複数の平面が存在する場合には、ハフ変換による手法に比べて、より多くの平面を安定して正確に検出することができる。
尚、平面検出方法はこれに限定されず、従来知られているハフ変換を利用する手法を用いて平面を検出してもよい。
The
Such a two-point random sampling method can extract a plane accurately and stably as compared with a method using a Hough transform. For example, when there are a plurality of planes such as stairs in the environment, more planes can be detected stably and accurately than the method using the Hough transform.
Note that the plane detection method is not limited to this, and a plane may be detected by using a conventionally known method using Hough transform.
座標変換部13は、移動ロボット100の移動量に基づいて、前フレームの座標系を現フレームの座標系に変換する。本実施の形態においては、現フレームの直前に生成されたフレームを前フレームとして利用する。
オドメトリによる誤差は累積してゆくため、現フレームに対してより以前に生成されたフレームほどオドメトリによる誤差の影響を大きく受ける。このため、現フレームに対してオドメトリによる誤差が相対的に少ない直前のフレームを重ね合わせに利用することが好ましい。
The coordinate
Since errors due to odometry accumulate, frames generated earlier than the current frame are greatly affected by errors due to odometry. For this reason, it is preferable to use the immediately preceding frame for overlaying with a relatively small error due to odometry with respect to the current frame.
重ね合わせ部14は、座標変換された前フレームを現フレームに重ね合わせる。さらに、重ね合わせ部14は、座標変換された前フレームにおける平面について、現フレームにおいて対応する平面を特定し、座標変換された前フレームにおける平面の3次元位置データの高さ成分を、現フレームにおいて特定された平面の3次元位置データの高さ成分により置き換えることにより、重ね合わせ処理を実行する。
尚、重ね合わせ部14による現フレームへの重ね合わせ処理の詳細は後述する。
The superimposing
The details of the overlay process on the current frame by the
環境地図生成部15は、平面検出部12により検出された平面情報と、重ね合わせ部14により重ね合わされた現フレームとに基づいて、複数の平面の集合としての環境地図を生成する。
より具体的には、まず、平面検出部12による平面検出結果をもとに、床面領域を移動ロボット100が歩行可能な移動可能領域として認識し、床面とは別の平面が含まれる領域を障害物領域として認識する。
尚、床面とは、移動ロボット100の右足平102f及び左足平103fが接している平面を意味する。ただし、このような領域認識は一例である。例えば、床面とは高さが異なる平面や斜面であっても、床面との高さの差が所定の値より小さい場合に右足平102f及び左足平103fを着地させることが可能であれば、これらの平面を移動可能領域として認識してもよい。さらにまた、検出された平面の面積と右足平102f及び左足平103fの面積とを比較した結果によって、その平面を移動可能領域として認識するかを決定してもよい。
次いで、環境地図更新生成部15は、認識された移動可能領域及び障害物領域と、重ね合わせ部14により重ね合わされた現フレームの3次元位置データ群とを統合して環境地図を生成する。
The environment
More specifically, first, based on the plane detection result by the
The floor surface means a plane on which the
Next, the environment map
ここで、本実施の形態における環境地図は、2次元平面(xy平面とする)を格子状に分割したグリッドデータとして生成される。環境地図の各グリッドに対応するデータとして、各グリッドのxy平面に垂直なz軸方向の高さ、各グリッドが属する平面を一意に識別可能な平面ID、及び、各グリッドが属する平面の法線ベクトルが保持される。環境地図生成部15は、ほぼ同じ高さの隣接するグリッドの集合を1つの平面と認識し、認識した1つの平面に対して一意な平面IDを付与する。
Here, the environment map in the present embodiment is generated as grid data obtained by dividing a two-dimensional plane (referred to as an xy plane) into a grid pattern. As data corresponding to each grid of the environmental map, the height in the z-axis direction perpendicular to the xy plane of each grid, the plane ID that can uniquely identify the plane to which each grid belongs, and the normal of the plane to which each grid belongs Vector is retained. The environment
例えば、図5(a)に示す環境160を移動ロボット100が歩行する場合、床面に相当する平面P11及び障害物161の上面に相当する平面P12が平面検出部12により検出される。そして、環境地図生成部15によって、平面P11が移動可能領域として認識され、平面P12が障害物領域として認識される。このとき、環境地図生成部15によって生成される環境地図200は、図5(b)に示すようになる。
図5(b)の環境地図200は、各グリッドのデータとして、各平面のそれぞれを一意に識別可能な平面ID、各グリッドのz軸方向の高さ、及び法線ベクトル(na,nb,nc)が保持される。
尚、隣接するグリッド間の平面IDの違い、及びz軸方向の高さの違いによって右足平102f及び左足平103fの着地位置における路面の凹凸を検出するため、環境地図200を構成する各グリッドの面積は、右足平102f及び左足平103fの底面の面積より十分に小さくなるよう選択するとよい。
For example, when the
The
In addition, in order to detect the unevenness of the road surface at the landing positions of the
さらに、図5(b)の環境地図200は、各グリッドのデータとして領域種別を示す情報、つまり移動可能領域であるか障害物領域であるかを示す識別情報が保持される。図5(b)の例では、床面P11に対応する領域R11が移動可能領域であり、障害物161に対応する領域R12(図5(b)の斜線領域)が障害物領域である。
Furthermore, the
歩行計画部16は、環境地図生成装置1によって生成された環境地図を参照して目標位置を決定し、決定した目標位置に到達するための右足平102f及び左足平103fの着地位置を算出する。
The
動作生成部17は、歩行計画部16によって生成された右足平102f及び左足平103fの着地位置を実現するための動作データを生成する。ここで、動作データとは、移動ロボット100のZMP位置、重心位置、右足平102f及び左足平103fの位置及び姿勢、並びに、移動ロボット100の上体部101の位置及び姿勢を含む。
The
制御部18は、動作生成部17によって生成された動作データを入力し、逆運動学演算によって各関節の目標関節角度を算出する。さらに、制御部18は、算出した目標関節角度とエンコーダ20によって計測した現在の関節角度をもとに各関節を駆動するためのトルク制御値を算出する。制御部18によって算出されたトルク制御値に従って各関節を駆動するためのアクチュエータ19を動作させることにより、移動ロボット100の歩行が行われる。
The
続いて以下では、環境地図生成装置1による環境地図生成方法の詳細を図6乃至9を用いて説明する。図6は、環境地図生成装置1による環境地図生成手順を示すフローチャートである。図7は、前フレーム及び現フレームの重ね合わせ処理を説明するための図である。図8は、前フレームの平面に対応する現フレームの平面を特定する処理を説明するための図である。図9は、前フレームにおける3次元位置データの高さ成分を、現フレームにおける3次元位置データの高さ成分として置き換えるようすを説明するための概念図である。尚、図7及び8は、床面に平行なxy平面に3次元位置データ群がプロットされたものであり、プロットされた各点について高さ情報(z軸方向の位置情報)が存在する。
Next, details of the environment map generation method performed by the environment
まず、ステップS101では、平面検出部12が、現フレームにおける3次元位置データ群より平面を検出する。即ち、平面情報としての複数の平面についての平面パラメータが算出され、現フレームにおける各3次元位置データが属する平面が決定される。
前フレーム及び現フレームを重ね合わせたフレームから平面を検出する場合には、平面検出に要する処理時間が従来の2倍程度となるため、移動ロボット100の高速移動についての制約となる。このため、現フレームのみから平面を検出することにより、平面検出処理に要する処理時間を増加させずに、従来同様の処理時間を維持することができる。
また、前フレーム及び現フレームを重ね合わせたフレームから平面を検出する場合には、オドメトリによる誤差のため、重ね合わせ後のフレームにおける3次元位置データ群の整合性がとれず、精度の高い平面を検出することができない。このため、現フレームのみから平面を検出することがより好ましい。
尚、現フレームにはデータ抜けが含まれているものの、平面検出処理に際して問題となる程度ではなく、所望の精度の平面を検出することができる。
First, in step S101, the
When a plane is detected from a frame obtained by superimposing the previous frame and the current frame, the processing time required for plane detection is about twice that of the conventional method, which is a restriction on high-speed movement of the
Also, when a plane is detected from a frame obtained by superimposing the previous frame and the current frame, due to an error caused by odometry, the consistency of the three-dimensional position data group in the frame after superposition cannot be obtained, and a plane with high accuracy is obtained. It cannot be detected. For this reason, it is more preferable to detect the plane only from the current frame.
Although the current frame includes missing data, it does not cause a problem in plane detection processing, and a plane with desired accuracy can be detected.
ステップS102では、座標変換部13が、移動ロボット100の移動量に基づいて、前フレームの座標系を現フレームの座標系に変換する。ここで、現フレームをMi、前フレームをMi−1と表した場合に、前フレームMi−1の座標変換F(Mi−1)は以下の(1)式により一般的に表される。(1)式において、Rは回転行列であり、tは平行移動ベクトルである。回転行列R及び平行移動ベクトルtは、エンコーダ20などの計測情報より得られる移動ロボット100の移動量及び姿勢変化を反映して決定される。
F(Mi−1)=RMi−1+t (1)
In step S102, the coordinate
F (M i-1 ) = RM i-1 + t (1)
ステップS103では、重ね合わせ部14が、座標変換された前フレームを現フレームに重ね合わせる。より具体的には、座標変換された前フレームの3次元位置データを、現フレームに重ね合わせる。
図7(a)の画像は現フレームを表し、図7(b)の画像は現フレームの前に生成された前フレームを表している。図7(b)に示した移動ロボット100が前方(白抜矢印D方向)に移動することで、前フレームと現フレームとでは3次元位置データ群が変化し、データ抜けが発生した領域も変化する。
図7(c)の画像は、図7(b)に示した前フレームを座標変換して、図7(a)に示した現フレームと重ね合わせた後のフレームを示している。
In step S103, the superimposing
The image in FIG. 7A represents the current frame, and the image in FIG. 7B represents the previous frame generated before the current frame. When the
The image of FIG. 7C shows a frame after the coordinate conversion is performed on the previous frame shown in FIG. 7B and the current frame shown in FIG.
ステップS104では、重ね合わせ部14が、座標変換された前フレームにおける平面について、現フレームにおいて対応する平面を特定する。例えば、平面のパラメータに基づいて、前フレームにおける平面Aiに対応する現フレームにおける平面Ajを特定する。平面パラメータとして、平面高さをh、傾きをφ及びθとして表し、平面パラメータを比較するための閾値をそれぞれTHh、THφ、及びTHθとする。前フレームにおける平面Aiに対して、以下の(2)〜(4)式の全てを満足する現フレーム平面Ajを特定する。
|Aj(h)−Ai(h)|<THh (2)
|Aj(φ)−Ai(φ)|<THφ (3)
|Aj(θ)−Ai(θ)|<THθ (4)
このように、平面パラメータを用いて対応する平面を特定することにより、速やかに対応する平面を特定することができる。
例えば図8(a)に示す前フレームの平面Ai(図において破線で囲まれた領域Ai)に対して、図8(b)に示す現フレームにおける平面Aj(図において破線で囲まれた領域Aj)が特定される。
In step S <b> 104, the superimposing
| A j (h) −A i (h) | <TH h (2)
| A j (φ) −A i (φ) | <TH φ (3)
| A j (θ) −A i (θ) | <TH θ (4)
Thus, by specifying the corresponding plane using the plane parameter, the corresponding plane can be specified quickly.
For example, with respect to the plane A i of the previous frame shown in FIG. 8A (region A i surrounded by a broken line in the figure), the plane A j in the current frame shown in FIG. Region A j ) is identified.
ステップS105では、座標変換された前フレームにおける平面の3次元位置データの高さ成分を、現フレームにおいて特定された平面の3次元位置データの高さ成分により置き換える。即ち、前フレームにおける平面Aiに属する3次元位置データ(Aix,Aiy,Aiz)について、その高さ成分Aizを現フレームにおける平面Ajの高さ成分Ajzにより置き換える。
図9(a)の画像は、座標変換した前フレームを現フレームに重ね合わせたようすを、高さ方向(図においてはz軸方向)について示す概念図である。図9(a)に示すように、オドメトリによる誤差のため、前フレームにおける平面Aiに属する3次元位置データは、現フレームにおける平面Ajに属する3次元位置データに対して整合性が崩れたものとなる。
一方、図9(b)の画像は、座標変換した前フレームを現フレームに重ね合わせ、前フレームの平面Aiに対応する現フレームの平面Ajを特定した上で、3次元位置データの高さ成分を置き換えたようす示す概念図である。図9(b)に示すように、前フレームの平面Aiに属する3次元位置データの高さ成分を、現フレームの平面Ajに属する3次元位置データの高さ成分により置き換えることにより、重ね合わせたフレームにおける平面の高さ成分が水平となり整合性がとれたものとなる。
例えば、図7(d)の画像は、図7(c)に示した重ね合わせ後のフレームにおいて、平面の高さ成分を現フレームの高さ成分により置き換えたフレームを示している。
これにより、現フレームの特定された平面の高さを基準高さとして、前フレームの3次元位置データを置き換えることができるため、オドメトリによる誤差のため、置き換えによって3次元位置データの整合性が崩れてしまう場合であっても、高さ方向のズレを補正することができる。
In step S105, the height component of the plane three-dimensional position data in the previous frame subjected to coordinate conversion is replaced with the height component of the plane three-dimensional position data specified in the current frame. That is, for the three-dimensional position data (A ix , A iy , A iz ) belonging to the plane A i in the previous frame, the height component A iz is replaced with the height component A jz of the plane A j in the current frame.
The image in FIG. 9A is a conceptual diagram showing the height direction (z-axis direction in the drawing) as if the previous frame after coordinate conversion was superimposed on the current frame. As shown in FIG. 9A, due to an error due to odometry, the 3D position data belonging to the plane A i in the previous frame is not consistent with the 3D position data belonging to the plane A j in the current frame. It will be a thing.
On the other hand, the image of FIG. 9B is obtained by superimposing the coordinate-converted previous frame on the current frame, specifying the plane A j of the current frame corresponding to the plane A i of the previous frame, It is a conceptual diagram which shows that the thickness component was replaced. As shown in FIG. 9B, the height component of the three-dimensional position data belonging to the plane A i of the previous frame is replaced with the height component of the three-dimensional position data belonging to the plane A j of the current frame. The height components of the planes in the combined frames are horizontal and consistent.
For example, the image of FIG. 7D shows a frame in which the height component of the plane is replaced with the height component of the current frame in the frame after superposition shown in FIG. 7C.
As a result, the three-dimensional position data of the previous frame can be replaced with the height of the specified plane of the current frame as the reference height, so that the consistency of the three-dimensional position data is lost due to the error due to odometry. Even in such a case, the deviation in the height direction can be corrected.
ステップS106では、環境地図生成部15が、平面検出部12により検出された平面情報と、重ね合わせ部14により重ね合わされた現フレームとに基づいて、環境地図を生成する。
In step S <b> 106, the environment
尚、上述した3次元位置データ生成部11、平面検出部12、座標変換部13、重ね合わせ部14及び環境地図生成部15により実行される処理は、典型的なコンピュータシステムを用いて実現可能である。具体的には、一定の時間間隔で発生するタイマ割り込みに応じて、図6のフローチャートに示した処理をコンピュータシステムに行わせるためのプログラムをコンピュータシステムに実行させればよい。なお、図6のフローチャートに示した処理をコンピュータシステムに実行させるためのプログラムは、1のプログラムである必要はなく、処理内容により分割された複数のプログラムモジュールによって構成されてもよい。
Note that the processing executed by the above-described three-dimensional position
以上に説明したように、本実施の形態にかかる移動ロボット100は、現フレームの3次元位置データ群のデータ抜けを前フレームの3次元位置データ群によって補完することができ、データ抜けの少ない密な環境地図を生成することができる。また、現フレームのみから平面を検出するため、現フレーム及び前フレームを重ね合わされたフレームから平面を検出する場合と比較して、オドメトリによる誤差の影響を受けずに精度の高い平面を検出することができる。従って、このようにして検出された平面情報と、重ね合わされた現フレームの3次元位置データ群とによれば、データ抜けの少ない密な環境地図を生成することができ、移動ロボット100の動作計画の解を安定させることができる。
また、現フレームのみから得られる環境地図に比べて、前フレームを用いることによって認識範囲が拡大されるため、例えば現フレームのみからでは認識できない移動ロボット100の後方についても環境地図に反映することができ、より安定した歩行計画を立てることができる。
As described above, the
In addition, since the recognition range is expanded by using the previous frame as compared to the environment map obtained only from the current frame, for example, the back of the
その他の実施の形態.
発明の実施の形態1は、脚式移動ロボットに本発明を適用した一例を示したが、車輪等のその他の移動手段を有する移動ロボットに対しても本発明を適用可能である。
Other embodiments.
さらに、本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。 Furthermore, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention described above.
1 環境地図生成装置、
10 レーザレンジファインダ、11 3次元位置データ生成部、
12 平面検出部、13 座標変換部、14 重ね合わせ部、
15 環境地図生成部、
16 歩行計画部、17 動作生成部、
18 制御部、19 アクチュエータ、20 エンコーダ
100 移動ロボット、104 脚部、
102 右脚、102c 右膝関節、102e 右足首関節、102f 右足平、
103 左脚、103c 左膝関節、103e 左足首関節、103f 左足平、
160 環境、161 障害物、162 データ抜け領域、
P11、12 床面、200 環境地図、
P 搭乗者、R11、12 領域
1 Environmental map generator,
10 laser range finder, 11 3D position data generator,
12 plane detection unit, 13 coordinate conversion unit, 14 superposition unit,
15 Environmental map generator,
16 walking planning unit, 17 motion generating unit,
18 control unit, 19 actuator, 20 encoder
100 mobile robots, 104 legs,
102 right leg, 102c right knee joint, 102e right ankle joint, 102f right foot,
103 left leg, 103c left knee joint, 103e left ankle joint, 103f left foot,
160 environment, 161 obstacle, 162 data missing area,
P11, 12 Floor, 200 Environmental map,
P Passenger, R11, 12 area
Claims (8)
現フレームのみから平面情報を検出するステップと、
前記移動ロボットの移動量に基づいて、前記現フレームの前に取得された前フレームの座標系を前記現フレームの座標系に変換するステップと、
座標変換された前記前フレームを前記現フレームに重ね合わせるステップと、
検出された前記平面情報と、重ね合わされた前記現フレームとに基づいて前記環境地図を生成するステップとを
有する環境地図生成方法。 An environment map generation method for generating an environment map that is referenced by a mobile robot and supplements data loss ,
Detecting plane information from only the current frame;
Converting the coordinate system of the previous frame acquired before the current frame to the coordinate system of the current frame based on the movement amount of the mobile robot;
Superimposing the coordinate-transformed previous frame on the current frame;
An environment map generation method comprising: generating the environment map based on the detected plane information and the superimposed current frame.
座標変換された前記前フレームにおける平面について、前記現フレームにおいて対応する平面を特定し、座標変換された前記前フレームにおける平面の3次元位置データの高さ成分を、前記現フレームにおいて特定された前記平面の3次元位置データの高さ成分により置き換えることにより、重ね合わせ処理を実行する
ことを特徴とする請求項1記載の環境地図生成方法。 The overlapping step includes
For the plane in the previous frame that has undergone coordinate transformation, the corresponding plane is identified in the current frame, and the height component of the three-dimensional position data of the plane in the previous frame that has undergone coordinate transformation is identified in the current frame. The environment map generation method according to claim 1, wherein the overlay process is executed by replacing the height component of the three-dimensional position data of the plane.
3次元位置データ群から2点の3次元位置データの組をサンプリングし、該2点の3次元位置データの組に基づいて平面パラメータを算出するステップと、
算出された平面パラメータからなる平面に対して、3次元位置データが属する平面を決定するステップと
を備えることを特徴とする請求項1記載の環境地図生成方法。 The step of detecting the plane information includes:
Sampling a set of two-dimensional three-dimensional position data from the three-dimensional position data group, and calculating plane parameters based on the two-point three-dimensional position data set;
The environmental map generation method according to claim 1, further comprising: determining a plane to which the three-dimensional position data belongs for a plane composed of the calculated plane parameters.
ことを特徴とする請求項1乃至3記載の環境地図生成方法。 The method for generating an environmental map according to any one of claims 1 to 3, wherein the mobile robot has two legs as moving means, and moves by biped walking.
前記環境を視覚的に認識する視覚センサと、
前記視覚センサにより得られる計測データを用いて、前記環境に存在する計測対象の位置を示す3次元位置データ群を生成する3次元位置データ生成部と、
現フレームの3次元位置データ群のみから平面情報を検出する平面検出部と、
前記移動ロボットの移動量に基づいて、前記現フレームの前に取得された前フレームの座標系を前記現フレームの座標系に変換する座標変換部と、
座標変換された前記前フレームを前記現フレームに重ね合わせる重ね合わせ部と、
検出された前記平面情報と、重ね合わされた前記現フレームとに基づいて前記環境地図を生成する環境地図生成部と
を備える移動ロボット。 A mobile robot that moves with reference to an environmental map that complements missing data ,
A visual sensor for visually recognizing the environment;
Using the measurement data obtained by the visual sensor, a three-dimensional position data generation unit that generates a three-dimensional position data group indicating the position of the measurement target existing in the environment;
A plane detection unit that detects plane information only from the three-dimensional position data group of the current frame;
A coordinate conversion unit that converts the coordinate system of the previous frame acquired before the current frame into the coordinate system of the current frame based on the movement amount of the mobile robot;
A superimposing unit that superimposes the coordinate-converted previous frame on the current frame;
A mobile robot comprising: an environment map generation unit that generates the environment map based on the detected plane information and the superimposed current frame.
座標変換された前記前フレームにおける平面について、前記現フレームにおいて対応する平面を特定し、座標変換された前記前フレームにおける平面の3次元位置データの高さ成分を、前記現フレームにおいて特定された前記平面の3次元位置データの高さ成分により置き換えることにより、重ね合わせ処理を実行する
ことを特徴とする請求項5記載の移動ロボット。 The overlapping portion is
For the plane in the previous frame that has undergone coordinate transformation, the corresponding plane is identified in the current frame, and the height component of the three-dimensional position data of the plane in the previous frame that has undergone coordinate transformation is identified in the current frame. The mobile robot according to claim 5, wherein the superposition process is executed by replacing with a height component of the three-dimensional position data of the plane.
3次元位置データ群から2点の3次元位置データの組をサンプリングし、該2点の3次元位置データの組に基づいて平面パラメータを算出する平面パラメータ算出部と、
算出された平面パラメータからなる平面に対して、3次元位置データが属する平面を決定するラベリング処理部と
を備えることを特徴とする請求項5記載の移動ロボット。 The plane detector is
A plane parameter calculation unit that samples a set of three-dimensional position data of two points from a group of three-dimensional position data and calculates a plane parameter based on the set of three-dimensional position data of the two points;
The mobile robot according to claim 5, further comprising: a labeling processing unit that determines a plane to which the three-dimensional position data belongs with respect to a plane composed of the calculated plane parameters.
ことを特徴とする請求項5乃至7記載の移動ロボット。 The mobile robot according to any one of claims 5 to 7, wherein the mobile robot includes two legs as moving means, and moves by biped walking motion.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007116503A JP4678007B2 (en) | 2007-04-26 | 2007-04-26 | Environmental map generation method and mobile robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007116503A JP4678007B2 (en) | 2007-04-26 | 2007-04-26 | Environmental map generation method and mobile robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008276348A JP2008276348A (en) | 2008-11-13 |
JP4678007B2 true JP4678007B2 (en) | 2011-04-27 |
Family
ID=40054252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007116503A Expired - Fee Related JP4678007B2 (en) | 2007-04-26 | 2007-04-26 | Environmental map generation method and mobile robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4678007B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9062980B2 (en) | 2011-11-22 | 2015-06-23 | Hitachi, Ltd. | Autonomous mobile system |
AU2012376428B2 (en) | 2012-04-05 | 2015-06-25 | Hitachi, Ltd. | Map data creation device, autonomous movement system and autonomous movement control device |
US11922649B2 (en) | 2018-11-30 | 2024-03-05 | Arithmer Inc. | Measurement data calculation apparatus, product manufacturing apparatus, information processing apparatus, silhouette image generating apparatus, and terminal apparatus |
JP6792273B2 (en) * | 2019-04-26 | 2020-11-25 | Arithmer株式会社 | Dimension data calculation device, product manufacturing device, and silhouette image generation device |
CN117078869A (en) * | 2022-10-27 | 2023-11-17 | 北京石头创新科技有限公司 | Color three-dimensional map display method and device |
CN115546348B (en) * | 2022-11-24 | 2023-03-24 | 上海擎朗智能科技有限公司 | Robot mapping method and device, robot and storage medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006239844A (en) * | 2005-03-04 | 2006-09-14 | Sony Corp | Obstacle avoiding device, obstacle avoiding method, obstacle avoiding program and mobile robot device |
JP2007041656A (en) * | 2005-07-29 | 2007-02-15 | Sony Corp | Moving body control method, and moving body |
-
2007
- 2007-04-26 JP JP2007116503A patent/JP4678007B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006239844A (en) * | 2005-03-04 | 2006-09-14 | Sony Corp | Obstacle avoiding device, obstacle avoiding method, obstacle avoiding program and mobile robot device |
JP2007041656A (en) * | 2005-07-29 | 2007-02-15 | Sony Corp | Moving body control method, and moving body |
Also Published As
Publication number | Publication date |
---|---|
JP2008276348A (en) | 2008-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5067215B2 (en) | Mobile robot and environmental map generation method | |
JP4645601B2 (en) | Environmental map generation method and mobile robot | |
JP2009136987A (en) | Mobile robot and method of correcting floor surface shape data | |
JP4678007B2 (en) | Environmental map generation method and mobile robot | |
KR101913332B1 (en) | Mobile apparatus and localization method of mobile apparatus | |
US9482754B2 (en) | Detection apparatus, detection method and manipulator | |
US20120155775A1 (en) | Walking robot and simultaneous localization and mapping method thereof | |
US20110123135A1 (en) | Method and device of mapping and localization method using the same | |
JP4715787B2 (en) | Mobile robot and robot movement control method | |
JP2009258779A (en) | Mobile robot and footprint planning method | |
JP2009193240A (en) | Mobile robot and method for generating environment map | |
KR20080093460A (en) | Mobile robot | |
JP2009157430A (en) | Coordinate correction method, coordinate correction program and autonomous mobile robot | |
JP4844459B2 (en) | Plane detection method and mobile robot | |
KR101379787B1 (en) | An apparatus and a method for calibration of camera and laser range finder using a structure with a triangular hole | |
WO2018055861A1 (en) | Mobile object control device and mobile object control system | |
CN112068152A (en) | Method and system for simultaneous 2D localization and 2D map creation using a 3D scanner | |
Kumar et al. | Sensor fusion of laser and stereo vision camera for depth estimation and obstacle avoidance | |
US20220214696A1 (en) | Simultaneous Localization and Mapping | |
JP2010066595A (en) | Environment map generating device and environment map generating method | |
JP2008264946A (en) | Mobile robot and correcting method for data of floor surface shape | |
JP2009168750A (en) | Floor surface detection system, mobile robot, and floor surface detection method | |
JP2008126333A (en) | Biped mobile robot, and method of its walking plan | |
CN106595502A (en) | Structured light-based motion compensation 3D measurement method | |
Lee et al. | Dynamic humanoid locomotion over rough terrain with streamlined perception-control pipeline |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090807 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110104 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110117 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4678007 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140210 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |