JP4678007B2 - Environmental map generation method and mobile robot - Google Patents

Environmental map generation method and mobile robot Download PDF

Info

Publication number
JP4678007B2
JP4678007B2 JP2007116503A JP2007116503A JP4678007B2 JP 4678007 B2 JP4678007 B2 JP 4678007B2 JP 2007116503 A JP2007116503 A JP 2007116503A JP 2007116503 A JP2007116503 A JP 2007116503A JP 4678007 B2 JP4678007 B2 JP 4678007B2
Authority
JP
Japan
Prior art keywords
plane
current frame
position data
dimensional position
mobile robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007116503A
Other languages
Japanese (ja)
Other versions
JP2008276348A (en
Inventor
豊 高岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2007116503A priority Critical patent/JP4678007B2/en
Publication of JP2008276348A publication Critical patent/JP2008276348A/en
Application granted granted Critical
Publication of JP4678007B2 publication Critical patent/JP4678007B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Description

本発明は環境地図生成方法、及び移動ロボットに関する。   The present invention relates to an environment map generation method and a mobile robot.

自律移動ロボットは、自ら移動経路の環境を認識して、目的地へと移動する。このため、移動ロボットは、ステレオカメラやレンジセンサなどの視覚センサによって得られる計測データを用いて環境地図を生成し、その環境地図を参照して目的地へと移動する。
自律移動ロボットが2足歩行ロボットである場合には、環境地図を用いて足平を着地可能な領域を判断し、足平の着地位置を順次計画することによって歩行を計画する。
従って、移動ロボットの安定した歩行を計画するためには、データ抜けの少ない密な環境地図を生成することが必要である。
The autonomous mobile robot recognizes the environment of the movement route and moves to the destination. For this reason, the mobile robot generates an environment map using measurement data obtained by a visual sensor such as a stereo camera or a range sensor, and moves to the destination with reference to the environment map.
If the autonomous mobile robot is a biped walking robot, walking is planned by determining an area where the foot can land using an environmental map and sequentially planning the landing position of the foot.
Therefore, in order to plan a stable walking of the mobile robot, it is necessary to generate a dense environmental map with little data missing.

環境地図は、視覚センサによって得られた視差画像や、計測対象との距離画像などの計測情報をもとに算出される3次元位置データ群から平面群を検出することによって生成することができる。3次元位置データ群から平面を検出する方法としては、ハフ変換を用いた平面検出手法や、ランダムサンプリングによる平面検出手法などが良く知られている。例えば特許文献1には、ハフ変換を利用して3次元位置データ群から平面パラメータを算出することによって、2足歩行ロボットの足平が接している床面を含む複数平面を検出し、これら複数平面の検出結果を用いて障害物領域と移動可能領域とが特定された環境地図を生成する技術が開示されている。
また、特許文献2には、外部状態から、3次元障害物地図及び2次元の基準面からの高さを示す対基準面高さ地図を作成し、3次元障害物地図に基づいて対基準面高さ地図を変更する環境地図生成方法が開示されている。
特開2005−92820号公報 特開2006−11880号公報
The environment map can be generated by detecting a plane group from a three-dimensional position data group calculated based on measurement information such as a parallax image obtained by a visual sensor and a distance image with a measurement target. As a method for detecting a plane from a three-dimensional position data group, a plane detection method using Hough transform, a plane detection method using random sampling, and the like are well known. For example, Patent Document 1 detects a plurality of planes including a floor surface on which a foot of a biped walking robot is in contact by calculating a plane parameter from a three-dimensional position data group using a Hough transform. A technique for generating an environmental map in which an obstacle area and a movable area are specified using a detection result of a plane is disclosed.
Further, in Patent Document 2, a 3D obstacle map and a reference height map indicating the height from a 2D reference plane are created from an external state, and the reference plane is determined based on the 3D obstacle map. An environmental map generation method for changing a height map is disclosed.
JP 2005-92820 A JP 2006-11880 A

しかしながら、従来知られているいずれの環境地図生成方法によっても、計測データの分解能が低い場合や、視覚センサとの通信エラーなどによるデータ抜け・データ不足が発生した場合などにおいては、データ抜けの少ない密な環境地図を得ることはできないものであった。例えば、環境地図にデータ抜けがある場合に、本来は着地可能な領域に対して着地することができないときには、最適な経路以外の他の経路を生成しなければならず、不要な方向転換などが発生するという問題がある。
一方、このようなデータ抜けを補完する手法としては、計測データがプロットされた現フレームに対して、現フレームより前に取得された前フレームを重ね合わせることによりデータ抜けを補完する手法が考えられる。前フレームを現フレームへと重ね合わせる際には、前フレームをオドメトリによって座標変換することにより現フレームへと対応させる。しかし、このような対応付けにより重ね合わせを実行した場合には、オドメトリの誤差によって、座標変換後の前フレーム及び現フレームのデータについて整合性がとれなくなり、このような現フレーム及び前フレームを重ねあわせたフレームからでは、精度の高い平面を検出することができない。
特に、移動ロボットが2足歩行ロボットである場合には、高さ、ピッチ、及びロール方向への変動が大きいため、オドメトリの誤差によって高さ方向の精度が失われてしまう。このため、例えば、移動ロボットが段差などの平面に足平を着地する際に特に重要となる、平面の高さ成分を精度良く検出することができない。
However, with any known environmental map generation method, there is little data loss when the resolution of measurement data is low or when data loss or data shortage occurs due to a communication error with the visual sensor. A dense environmental map could not be obtained. For example, when there is missing data in the environmental map, if it is not possible to land on an area that can be landed originally, a route other than the optimum route must be generated, and unnecessary direction changes may occur. There is a problem that occurs.
On the other hand, as a method of complementing such data omission, a method of complementing data omission by superimposing the previous frame acquired before the current frame on the current frame on which the measurement data is plotted can be considered. . When the previous frame is superimposed on the current frame, the previous frame is coordinated by odometry to correspond to the current frame. However, when superposition is performed by such association, consistency of the data of the previous frame and the current frame after coordinate conversion cannot be obtained due to an odometry error, and such current frame and previous frame are overlapped. A highly accurate plane cannot be detected from the combined frames.
In particular, when the mobile robot is a biped robot, the height, pitch, and roll direction fluctuations are large, and accuracy in the height direction is lost due to odometry errors. For this reason, for example, the height component of the plane, which is particularly important when the mobile robot lands on a plane such as a step, cannot be detected with high accuracy.

このように、現フレーム及び前フレームを重ねあわせたフレームから検出された平面を環境地図生成のために使用しては不十分なものであると共に、データ抜け・データ不足を含む環境地図を参照しては、移動ロボットの動作計画を安定させることができないという問題がある。
本発明は、かかる課題を解決するためになされたものであり、オドメトリによる誤差の影響を低減させ、データ抜けの少ない密な環境地図を生成することができる環境地図生成方法、及び移動ロボットを提供することを目的とする。
As described above, it is insufficient to use the plane detected from the frame obtained by superimposing the current frame and the previous frame for generating the environmental map, and also refer to the environmental map including missing data and insufficient data. Therefore, there is a problem that the operation plan of the mobile robot cannot be stabilized.
The present invention has been made to solve such a problem, and provides an environment map generation method and a mobile robot that can reduce the influence of errors caused by odometry and generate a dense environment map with less data loss. The purpose is to do.

本発明にかかる環境地図生成方法は、移動ロボットが参照し、データ抜けを補完した環境地図を生成するための環境地図生成方法であって、現フレームのみから平面情報を検出するステップと、前記移動ロボットの移動量に基づいて、前記現フレームの前に取得された前フレームの座標系を前記現フレームの座標系に変換するステップと、座標変換された前記前フレームを前記現フレームに重ね合わせるステップと、検出された前記平面情報と、重ね合わされた前記現フレームとに基づいて前記環境地図を生成するステップとを有するものである。 Environmental map generation method according to the present invention, the mobile robot with reference to a environment map generating method for generating an environmental map complementing data loss, a step of detecting plane information only from the current frame, the mobile Based on the amount of movement of the robot, converting the coordinate system of the previous frame acquired before the current frame to the coordinate system of the current frame, and superimposing the coordinate-converted previous frame on the current frame And generating the environment map based on the detected plane information and the superimposed current frame.

これにより、現フレームの3次元位置データ群のデータ抜けを前フレームの3次元位置データ群によって補完することができ、データ抜けの少ない密な環境地図を生成することができる。また、現フレームのみから平面を検出するため、現フレーム及び前フレームを重ね合わされたフレームから平面を検出する場合と比較して、オドメトリによる誤差の影響を受けずに精度の高い平面を検出することができる。
従って、このようにして検出された平面情報と、重ね合わされた現フレームの3次元位置データ群とによれば、データ抜けの少ない密な環境地図を生成することができ、移動ロボットの動作計画の解を安定させることができる。
As a result, the data omission in the 3D position data group of the current frame can be complemented by the 3D position data group of the previous frame, and a dense environmental map with less data omission can be generated. In addition, since the plane is detected only from the current frame, it is possible to detect a plane with higher accuracy without being affected by errors due to odometry, compared to the case of detecting the plane from the frame in which the current frame and the previous frame are overlapped. Can do.
Therefore, the plane information detected in this way and the superimposed three-dimensional position data group of the current frame can generate a dense environment map with little data loss, The solution can be stabilized.

また、前記重ね合わせステップは、座標変換された前記前フレームにおける平面について、前記現フレームにおいて対応する平面を特定し、座標変換された前記前フレームにおける平面の3次元位置データの高さ成分を、前記現フレームにおいて特定された前記平面の3次元位置データの高さ成分により置き換えることにより、重ね合わせ処理を実行するようにしてもよい。これにより、現フレームの特定された平面の高さを基準高さとして、前フレームの3次元位置データを置き換えることができるため、オドメトリによる誤差の影響を受けて、置き換えによって3次元位置データの整合性が崩れてしまう場合であっても、高さ方向のズレを補正することができる。   The superimposing step specifies a corresponding plane in the current frame with respect to the plane in the previous frame subjected to coordinate conversion, and calculates a height component of the three-dimensional position data of the plane in the previous frame subjected to coordinate conversion, The superposition process may be executed by replacing with the height component of the three-dimensional position data of the plane specified in the current frame. As a result, the three-dimensional position data of the previous frame can be replaced with the height of the specified plane of the current frame as the reference height. Even in the case where the characteristics are lost, the deviation in the height direction can be corrected.

さらにまた、前記平面情報の検出ステップは、3次元位置データ群から2点の3次元位置データの組をサンプリングし、該2点の3次元位置データの組に基づいて平面パラメータを算出するステップと、算出された平面パラメータからなる平面に対して、3次元位置データが属する平面を決定するステップとを備えるようにしてもよい。これにより、ハフ変換を利用する手法と比較して、正確かつ安定に平面を抽出することができる。例えば、環境に階段などの複数の平面が存在する場合には、ハフ変換による手法に比べて、より多くの平面を安定して正確に検出することができる。   Furthermore, the step of detecting plane information samples a set of two-dimensional three-dimensional position data from a three-dimensional position data group and calculates a plane parameter based on the two-point three-dimensional position data set; A step of determining a plane to which the three-dimensional position data belongs with respect to the plane composed of the calculated plane parameters. Thereby, a plane can be extracted accurately and stably compared with the method using the Hough transform. For example, when there are a plurality of planes such as stairs in the environment, more planes can be detected stably and accurately than the method using the Hough transform.

また、前記移動ロボットが、移動手段としての2つの脚部を備え、2足歩行運動により移動を行うようにしてもよい。移動ロボットが二足歩行ロボットである場合には、オドメトリによる誤差によって高さ方向の精度が失われてしまうものの、かかる場合であっても、高さ方向の誤差を補正することができる。   The mobile robot may be provided with two legs as moving means and move by bipedal walking motion. When the mobile robot is a biped robot, the accuracy in the height direction is lost due to an error due to odometry, but even in such a case, the error in the height direction can be corrected.

本発明にかかる移動ロボットは、データ抜けを補完した環境地図を参照して移動する移動ロボットであって、前記環境を視覚的に認識する視覚センサと、前記視覚センサにより得られる計測データを用いて、前記環境に存在する計測対象の位置を示す3次元位置データ群を生成する3次元位置データ生成部と、現フレームの3次元位置データ群のみから平面情報を検出する平面検出部と、前記移動ロボットの移動量に基づいて、前記現フレームの前に取得された前フレームの座標系を前記現フレームの座標系に変換する座標変換部と、座標変換された前記前フレームを前記現フレームに重ね合わせる重ね合わせ部と、検出された前記平面情報と、重ね合わされた前記現フレームとに基づいて前記環境地図を生成する環境地図生成部とを備えるものである。

A mobile robot according to the present invention is a mobile robot that moves by referring to an environmental map supplemented with missing data, and uses a visual sensor that visually recognizes the environment and measurement data obtained by the visual sensor. A three-dimensional position data generation unit that generates a three-dimensional position data group indicating a position of a measurement target existing in the environment, a plane detection unit that detects plane information only from the three-dimensional position data group of the current frame, and the movement Based on the amount of movement of the robot, a coordinate conversion unit that converts the coordinate system of the previous frame acquired before the current frame to the coordinate system of the current frame, and superimposing the coordinate-converted previous frame on the current frame A superposition unit for matching, and an environmental map generation unit for generating the environmental map based on the detected plane information and the superposed current frame. Than is.

これにより、現フレームのデータ抜けを前フレームによって補完することができ、データ抜けの少ない密な環境地図を生成することができる。また、現フレームのみから平面を検出するため、現フレーム及び前フレームを重ね合わされたフレームから平面を検出する場合と比較して、オドメトリによる誤差の影響を受けずに精度の高い平面を検出することができる。
従って、このようにして検出された平面情報と、重ね合わされた現フレームの3次元位置データ群とによれば、データ抜けの少ない密な環境地図を生成することができ、移動ロボットの動作計画の解を安定させることができる。
Thereby, data omission in the current frame can be complemented by the previous frame, and a dense environmental map with less data omission can be generated. In addition, since the plane is detected only from the current frame, it is possible to detect a plane with higher accuracy without being affected by errors due to odometry, compared to the case of detecting the plane from the frame in which the current frame and the previous frame are overlapped. Can do.
Therefore, the plane information detected in this way and the superimposed three-dimensional position data group of the current frame can generate a dense environment map with little data loss, The solution can be stabilized.

また、前記重ね合わせ部は、座標変換された前記前フレームにおける平面について、前記現フレームにおいて対応する平面を特定し、座標変換された前記前フレームにおける平面の3次元位置データの高さ成分を、前記現フレームにおいて特定された前記平面の3次元位置データの高さ成分により置き換えることにより、重ね合わせ処理を実行するようにしてもよい。これにより、現フレームの特定された平面の高さを基準高さとして、前フレームの3次元位置データを置き換えることができるため、オドメトリによる誤差の影響を受けて、置き換えによって3次元位置データの整合性が崩れてしまう場合であっても、高さ方向のズレを補正することができる。   Further, the superposition unit specifies a corresponding plane in the current frame with respect to the plane in the previous frame subjected to coordinate transformation, and calculates a height component of the three-dimensional position data of the plane in the previous frame subjected to coordinate transformation, The superposition process may be executed by replacing with the height component of the three-dimensional position data of the plane specified in the current frame. As a result, the three-dimensional position data of the previous frame can be replaced with the height of the specified plane of the current frame as the reference height, so that the matching of the three-dimensional position data by the replacement is affected by the error due to odometry. Even in the case where the characteristics are lost, the deviation in the height direction can be corrected.

さらにまた、前記平面検出部は、3次元位置データ群から2点の3次元位置データの組をサンプリングし、該2点の3次元位置データの組に基づいて平面パラメータを算出する平面パラメータ算出部と、算出された平面パラメータからなる平面に対して、3次元位置データが属する平面を決定するラベリング処理部とを備えるようにしてもよい。これにより、ハフ変換を利用する手法と比較して、正確かつ安定に平面を抽出することができる。例えば、環境に階段などの複数の平面が存在する場合には、ハフ変換による手法に比べて、より多くの平面を安定して正確に検出することができる。   Furthermore, the plane detection unit samples a set of two-dimensional three-dimensional position data from the three-dimensional position data group, and calculates a plane parameter based on the two-point three-dimensional position data set. And a labeling processing unit for determining a plane to which the three-dimensional position data belongs with respect to the plane composed of the calculated plane parameters. Thereby, a plane can be extracted accurately and stably as compared with the method using the Hough transform. For example, when there are a plurality of planes such as stairs in the environment, more planes can be detected stably and accurately than the method using the Hough transform.

また、前記移動ロボットが、移動手段としての2つの脚部を備え、2足歩行運動により移動を行うようにしてもよい。移動ロボットが二足歩行ロボットである場合には、オドメトリによる誤差によって高さ方向の精度が失われてしまうものの、かかる場合であっても、高さ方向の誤差を補正することができる。   The mobile robot may be provided with two legs as moving means and move by bipedal walking motion. When the mobile robot is a biped robot, the accuracy in the height direction is lost due to an error due to odometry, but even in such a case, the error in the height direction can be corrected.

本発明によれば、オドメトリによる誤差の影響を低減させ、データ抜けの少ない密な環境地図を生成することができる環境地図生成方法、及び移動ロボットを提供することができる



According to the present invention reduces the influence of errors due to odometry, the environment map generation method capable of generating a less dense environment map of data loss, and it is possible to provide a mobile robot.



以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。尚、各図面において、同一要素には同一の符号を付しており、説明の明確化のため、必要に応じて重複説明を省略する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In addition, in each drawing, the same code | symbol is attached | subjected to the same element, and duplication description is abbreviate | omitted as needed for clarification of description.

発明の実施の形態1.
本実施の形態にかかる移動ロボットは、2つの脚リンクを有する脚式移動ロボットである。さらに、移動ロボットは環境地図生成装置を有する。環境地図生成装置は、現フレームより平面情報を検出し、移動ロボットの移動量に基づいて、現フレームの前に取得された前フレームの座標系を現フレームの座標系に変換する。次いで、座標変換された前フレームの3次元位置データ群を現フレームの3次元位置データ群に重ね合わせ、検出された平面情報と、重ね合わされた現フレームの3次元位置データ群とに基づいて環境地図を生成する装置である。
移動ロボットは、環境地図生成装置によって生成された環境地図を参照して、移動ロボットの2つの脚リンクそれぞれの先端に設けられた足平の着地位置を決定する。
さらに、移動ロボットは、決定された足平着地位置を実現するための動作データを生成し、生成された動作データをもとに移動ロボットの関節群をアクチュエータによって駆動することで歩行する。
Embodiment 1 of the Invention
The mobile robot according to the present embodiment is a legged mobile robot having two leg links. Furthermore, the mobile robot has an environment map generation device. The environment map generation device detects plane information from the current frame, and converts the coordinate system of the previous frame acquired before the current frame into the coordinate system of the current frame based on the movement amount of the mobile robot. Next, the coordinate-converted three-dimensional position data group of the previous frame is superimposed on the three-dimensional position data group of the current frame, and the environment is determined based on the detected plane information and the superimposed three-dimensional position data group of the current frame. A device that generates a map.
The mobile robot refers to the environment map generated by the environment map generation device and determines the landing position of the foot provided at the tip of each of the two leg links of the mobile robot.
Further, the mobile robot generates motion data for realizing the determined foot landing position, and walks by driving a joint group of the mobile robot by an actuator based on the generated motion data.

図1を用いて、本発明にかかる移動ロボット100の構成について説明する。図1は、移動ロボット100を側方(移動ロボット100の移動する方向を向いて左方向)から見た様子を概略的に表す概略図であり、移動ロボット100に搭乗者Pが搭乗している様子を表している。図1に示すように、視覚センサとしてのレーザレンジファインダ10が移動ロボット100に取り付けられる。
尚、図1においては、説明の便宜上、移動体1が進行する向き(前後方向)をx軸、移動体1が進行する方向について水平方向に直交する向き(左右方向)をy軸、移動体の移動する平面から鉛直方向に延びる向き(上下方向)をz軸とし、これらの3軸からなる座標系を用いて説明する。すなわち、図1中において、前記x軸は紙面に向かって左右方向、y軸は紙面の奥行方法、z軸は紙面中の上下方向を示す。
The configuration of the mobile robot 100 according to the present invention will be described with reference to FIG. FIG. 1 is a schematic view schematically showing a state in which the mobile robot 100 is viewed from the side (leftward when facing the direction in which the mobile robot 100 moves). A passenger P is on the mobile robot 100. It represents the situation. As shown in FIG. 1, a laser range finder 10 as a visual sensor is attached to a mobile robot 100.
In FIG. 1, for convenience of explanation, the direction in which the moving body 1 travels (front-rear direction) is the x-axis, and the direction in which the moving body 1 travels is orthogonal to the horizontal direction (left-right direction), the y-axis. The direction (vertical direction) extending in the vertical direction from the plane on which the lens moves is defined as the z-axis, and will be described using a coordinate system composed of these three axes. That is, in FIG. 1, the x-axis indicates the left-right direction toward the paper surface, the y-axis indicates the depth method of the paper surface, and the z-axis indicates the vertical direction in the paper surface.

図1に示すように、移動ロボット100は、搭乗者Pが搭乗する載置台(図示せず)を含む上体部101と、上体部101を支持する腰部(図示せず)を介して回動自在に固定される脚部104と、腰部に取り付けられたレーザレンジファインダ10とにより構成される。
脚部104は、右脚102及び左脚103により構成され、右脚102は、右膝関節102c、右足首関節102e、右足平102fを備え、同様に、左脚103は、左膝関節103c、左足首関節103e、左足平103fを備える。
図示しないモータからの駆動力が、同じく図示しないプーリ及びベルトを介して伝達されることで、各関節が所望の角度に駆動され、その結果、右脚102及び左脚103に所望の動きをさせることができる。
As shown in FIG. 1, the mobile robot 100 rotates via a body part 101 including a mounting table (not shown) on which the passenger P is boarded, and a waist part (not shown) that supports the body part 101. It is comprised by the leg part 104 fixed movably, and the laser range finder 10 attached to the waist | hip | lumbar part.
The leg 104 includes a right leg 102 and a left leg 103. The right leg 102 includes a right knee joint 102c, a right ankle joint 102e, and a right foot 102f. Similarly, the left leg 103 includes a left knee joint 103c, A left ankle joint 103e and a left foot 103f are provided.
A driving force from a motor (not shown) is transmitted through a pulley and a belt (not shown), so that each joint is driven to a desired angle. As a result, the right leg 102 and the left leg 103 are caused to perform a desired movement. be able to.

移動ロボット100の上体部101には、腰部(図示せず)を介して移動ロボット100が歩行する環境の距離画像データを検出するレーザレンジファインダ10が設けられている。より具体的には、例えば図1においては、レーザレンジファインダ10を、水平方向から移動ロボット100の足元に向けて傾斜させて設置し、移動ロボット100の足元近傍を含む前方に向けて赤外線などのレーザ光を照射し、その反射光を受光させる。
このようにすると、移動ロボット100の足元近傍の距離画像データについて高い分解能を確保することができ、密度の高い足元近傍の距離画像データを取得することができる。
The upper body 101 of the mobile robot 100 is provided with a laser range finder 10 that detects distance image data of an environment in which the mobile robot 100 walks through a waist (not shown). More specifically, for example, in FIG. 1, the laser range finder 10 is tilted from the horizontal direction toward the feet of the mobile robot 100 and infrared rays or the like are directed toward the front including the vicinity of the feet of the mobile robot 100. Laser light is irradiated and the reflected light is received.
In this way, high resolution can be secured for the distance image data near the feet of the mobile robot 100, and the distance image data near the feet with high density can be acquired.

レーザレンジファインダ10は、床面上の障害物を含む外部環境の距離画像データを取得する。尚、距離画像データとは、環境に存在する計測対象までの距離値を各画素の画素値として有する2次元データである。後述するように、距離画像データの座標変換を行うことにより、外界の3次元の点群データを生成することができる。   The laser range finder 10 acquires distance image data of the external environment including an obstacle on the floor surface. The distance image data is two-dimensional data having a distance value to a measurement target existing in the environment as a pixel value of each pixel. As described later, by performing coordinate conversion of the distance image data, it is possible to generate external three-dimensional point cloud data.

さらに、レーザレンジファインダ10は、移動ロボット100の腰部に備えられており、鉛直軸を中心に揺動可能な構成となっている。これにより、移動ロボット100の移動方向前方をスキャンすることができる。
このようにすると、上面視では、レーザ光によるスキャン範囲を移動ロボット100の移動方向前方に向かって、左右に広がった扇形形状となるように構成することができ、移動に必要な領域のみを効率的にスキャンすることができる。
Further, the laser range finder 10 is provided on the waist of the mobile robot 100 and is configured to be swingable about the vertical axis. As a result, the front of the mobile robot 100 in the moving direction can be scanned.
In this way, in the top view, the scanning range by the laser beam can be configured to have a fan-shaped shape that spreads to the left and right toward the front in the moving direction of the mobile robot 100, and only the area necessary for movement is efficiently used. Can be scanned automatically.

ここで、レーザレンジファインダ10が、2次元の距離画像データから3次元の点群データを生成する方法について説明する。
まず、レーザレンジファインダ10を左右に揺動せずに固定した場合に、レーザ光を床面に垂直に移動方向前方に向かって上下に照射することで、床面に垂直な平面上における障害物の距離画像データを取得する。そして、レーザレンジファインダ10を移動ロボット100の鉛直軸を中心に、移動方向前方に向かって左右に揺動しながらスキャンすることで、複数の異なる平面上における距離画像データを取得する。次いで、レーザレンジファインダ10を揺動可能に支持する関節の角度に基づいて複数の距離画像データを座標変換して位置合わせする。これにより、複数平面上で得られた距離画像データの統合を行うことができる。または、複数の距離画像データから対応点を求めることによって、距離画像データ相互の位置合わせを行ってもよい。
このようにして、前方の領域に含まれる3次元の距離画像データを簡便な構成によって容易に取得することができる。
Here, a method in which the laser range finder 10 generates three-dimensional point cloud data from two-dimensional distance image data will be described.
First, when the laser range finder 10 is fixed without swinging left and right, an obstacle on a plane perpendicular to the floor surface is irradiated by irradiating laser light vertically to the front in the movement direction perpendicular to the floor surface. Get the distance image data. Then, the range image data on a plurality of different planes is acquired by scanning the laser range finder 10 while swinging left and right about the vertical axis of the mobile robot 100 toward the front in the moving direction. Next, the plurality of distance image data are coordinate-converted and aligned based on the angle of the joint that supports the laser range finder 10 so as to be swingable. Thereby, the range image data obtained on a plurality of planes can be integrated. Alternatively, the distance image data may be aligned with each other by obtaining corresponding points from a plurality of distance image data.
In this way, the three-dimensional distance image data included in the front area can be easily acquired with a simple configuration.

続いて以下では、本実施の形態にかかる移動ロボット100の制御系について説明する。移動ロボット100の制御系の構成を図2に示す。図2に示すように、環境地図生成装置1は、平面検出部12、座標変換部13、重ね合わせ部14、及び環境地図生成部15を有する。   Subsequently, a control system of the mobile robot 100 according to the present embodiment will be described below. The configuration of the control system of the mobile robot 100 is shown in FIG. As illustrated in FIG. 2, the environment map generation device 1 includes a plane detection unit 12, a coordinate conversion unit 13, an overlay unit 14, and an environment map generation unit 15.

図2において、レーザレンジファインダ10は、上述したように、移動ロボット100の外部環境の距離画像データを取得する。より具体的には、例えば図3に示すように、移動ロボット100が移動方向(ここではx軸方向)へ移動する際に、レーザレンジファインダ10より移動方向前方に向けてレーザ光を照射することにより、移動方向前方の距離画像データを検出する。
尚、視覚センサとして、レーザレンジファインダに代えてステレオカメラを用いてもよい。つまり、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を備えた複数のカメラを備え、これら複数のカメラによって撮影された画像の視差を利用して距離画像データを生成してもよい。より具体的には、複数のカメラによって撮影した画像データから対応点を検出し、ステレオ視によって対応点の3次元位置を復元する。ここで、複数の撮影画像における対応点の探索は、複数の撮影画像に対する時空間微分の拘束式を用いた勾配法や相関法等の公知の手法を適用して行えばよい。
In FIG. 2, the laser range finder 10 acquires distance image data of the external environment of the mobile robot 100 as described above. More specifically, for example, as shown in FIG. 3, when the mobile robot 100 moves in the moving direction (here, the x-axis direction), the laser range finder 10 emits laser light forward in the moving direction. Thus, distance image data ahead in the movement direction is detected.
As a visual sensor, a stereo camera may be used instead of the laser range finder. That is, a distance image is obtained by using a plurality of cameras including an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and using parallax of images captured by the plurality of cameras. Data may be generated. More specifically, corresponding points are detected from image data captured by a plurality of cameras, and the three-dimensional positions of the corresponding points are restored by stereo vision. Here, the search for corresponding points in a plurality of captured images may be performed by applying a known method such as a gradient method or a correlation method using a time-space differential constraint formula for the plurality of captured images.

3次元位置データ生成部11は、距離画像データの座標変換を行って3次元位置データ群を生成する。尚、3次元位置データ群とは、距離画像データに含まれる多数の計測点の位置ベクトルを3次元直交座標系で表したデータの集合である。
例えば図4の画像は、移動ロボット100により生成される3次元位置データ群の一例を示している。尚、図4は、床面に平行なxy平面に3次元位置データ群がプロットされたものであり、プロットされた各点について高さ情報(z軸方向の位置情報)が存在する。また、図4において破線で囲まれた領域162は、センサとの通信エラーなどにより発生したデータ抜け領域を表している。
ここで、図4の画像をフレームと呼ぶ。移動ロボット100により処理対象となる現在のフレームを現フレームと呼び、現フレームの以前に生成されたフレームを前フレームと呼ぶ。移動ロボット100が移動することで、前フレームと現フレームとでは3次元位置データ群が変化する。
The three-dimensional position data generation unit 11 performs coordinate conversion of the distance image data to generate a three-dimensional position data group. The three-dimensional position data group is a set of data in which position vectors of a large number of measurement points included in the distance image data are represented in a three-dimensional orthogonal coordinate system.
For example, the image in FIG. 4 shows an example of a three-dimensional position data group generated by the mobile robot 100. FIG. 4 is a plot of a three-dimensional position data group on an xy plane parallel to the floor surface, and height information (position information in the z-axis direction) exists for each plotted point. Further, an area 162 surrounded by a broken line in FIG. 4 represents a data missing area generated due to a communication error with the sensor.
Here, the image of FIG. 4 is called a frame. A current frame to be processed by the mobile robot 100 is called a current frame, and a frame generated before the current frame is called a previous frame. As the mobile robot 100 moves, the three-dimensional position data group changes between the previous frame and the current frame.

また、3次元位置データ生成部11は、オドメトリを用いて、生成した3次元位置データの歪みを補正する。より具体的には、レーザレンジセンサ10によるスキャン中に、移動ロボット100が移動することによって発生する検出誤差を補正する。即ち、レーザレンジセンサ10によるスキャン中に移動ロボット100が移動するため、検出される床面形状データは、移動ロボット100の移動量に応じた検出誤差を含む。オドメトリにより、各関節軸に設けられたエンコーダ20などの出力に基づいて移動ロボット100の移動量を算出して、移動ロボット100が移動することによる検出誤差を補正する。
さらにまた、3次元位置データ生成部11は、移動ロボット100の上体部101に設けられたジャイロ(図示せず)からの出力に基づいて、3次元位置データ群のピッチ方向の歪みを補正する。即ち、移動ロボット100の腰部に設けられたジャイロ(図示せず)の出力からピッチ方向の回転成分を検出し、3次元位置データのピッチ方向の検出誤差を補正する。これにより、歩行ロボットにおいて3次元位置データに与える影響が大きいピッチ方向の検出誤差を補正する。
Further, the three-dimensional position data generation unit 11 corrects distortion of the generated three-dimensional position data using odometry. More specifically, the detection error generated by the movement of the mobile robot 100 during the scan by the laser range sensor 10 is corrected. That is, since the mobile robot 100 moves during the scan by the laser range sensor 10, the detected floor surface shape data includes a detection error corresponding to the movement amount of the mobile robot 100. The amount of movement of the mobile robot 100 is calculated by odometry based on the output of the encoder 20 provided on each joint axis, and the detection error due to the movement of the mobile robot 100 is corrected.
Furthermore, the three-dimensional position data generation unit 11 corrects the distortion in the pitch direction of the three-dimensional position data group based on an output from a gyro (not shown) provided in the upper body 101 of the mobile robot 100. . That is, the rotation component in the pitch direction is detected from the output of a gyro (not shown) provided on the waist of the mobile robot 100, and the detection error in the pitch direction of the three-dimensional position data is corrected. As a result, the detection error in the pitch direction that has a large influence on the three-dimensional position data in the walking robot is corrected.

平面検出部12は、3次元位置データ生成部11により生成された3次元位置データ群より平面を検出する。より具体的には、平面検出部12は、3次元位置データ群から2点の3次元位置データの組をサンプリングし、その2点の3次元位置データの組に基づいて平面パラメータを算出する平面パラメータ算出部と、算出された平面パラメータからなる平面に対して、3次元位置データが属する平面を決定するラベリング処理部とを備える。
このような2点ランダムサンプリング法は、ハフ変換を利用する手法と比較して、正確かつ安定に平面を抽出することができる。例えば、環境に階段などの複数の平面が存在する場合には、ハフ変換による手法に比べて、より多くの平面を安定して正確に検出することができる。
尚、平面検出方法はこれに限定されず、従来知られているハフ変換を利用する手法を用いて平面を検出してもよい。
The plane detection unit 12 detects a plane from the 3D position data group generated by the 3D position data generation unit 11. More specifically, the plane detection unit 12 samples two sets of three-dimensional position data from the three-dimensional position data group, and calculates a plane parameter based on the two sets of three-dimensional position data. A parameter calculation unit; and a labeling processing unit that determines a plane to which the three-dimensional position data belongs with respect to the plane including the calculated plane parameters.
Such a two-point random sampling method can extract a plane accurately and stably as compared with a method using a Hough transform. For example, when there are a plurality of planes such as stairs in the environment, more planes can be detected stably and accurately than the method using the Hough transform.
Note that the plane detection method is not limited to this, and a plane may be detected by using a conventionally known method using Hough transform.

座標変換部13は、移動ロボット100の移動量に基づいて、前フレームの座標系を現フレームの座標系に変換する。本実施の形態においては、現フレームの直前に生成されたフレームを前フレームとして利用する。
オドメトリによる誤差は累積してゆくため、現フレームに対してより以前に生成されたフレームほどオドメトリによる誤差の影響を大きく受ける。このため、現フレームに対してオドメトリによる誤差が相対的に少ない直前のフレームを重ね合わせに利用することが好ましい。
The coordinate conversion unit 13 converts the coordinate system of the previous frame into the coordinate system of the current frame based on the movement amount of the mobile robot 100. In the present embodiment, a frame generated immediately before the current frame is used as the previous frame.
Since errors due to odometry accumulate, frames generated earlier than the current frame are greatly affected by errors due to odometry. For this reason, it is preferable to use the immediately preceding frame for overlaying with a relatively small error due to odometry with respect to the current frame.

重ね合わせ部14は、座標変換された前フレームを現フレームに重ね合わせる。さらに、重ね合わせ部14は、座標変換された前フレームにおける平面について、現フレームにおいて対応する平面を特定し、座標変換された前フレームにおける平面の3次元位置データの高さ成分を、現フレームにおいて特定された平面の3次元位置データの高さ成分により置き換えることにより、重ね合わせ処理を実行する。
尚、重ね合わせ部14による現フレームへの重ね合わせ処理の詳細は後述する。
The superimposing unit 14 superimposes the previous frame after coordinate conversion on the current frame. Further, the superposition unit 14 specifies a corresponding plane in the current frame with respect to the plane in the previous frame subjected to coordinate conversion, and calculates the height component of the three-dimensional position data of the plane in the previous frame subjected to coordinate conversion in the current frame. The superposition process is executed by replacing with the height component of the three-dimensional position data of the specified plane.
The details of the overlay process on the current frame by the overlay unit 14 will be described later.

環境地図生成部15は、平面検出部12により検出された平面情報と、重ね合わせ部14により重ね合わされた現フレームとに基づいて、複数の平面の集合としての環境地図を生成する。
より具体的には、まず、平面検出部12による平面検出結果をもとに、床面領域を移動ロボット100が歩行可能な移動可能領域として認識し、床面とは別の平面が含まれる領域を障害物領域として認識する。
尚、床面とは、移動ロボット100の右足平102f及び左足平103fが接している平面を意味する。ただし、このような領域認識は一例である。例えば、床面とは高さが異なる平面や斜面であっても、床面との高さの差が所定の値より小さい場合に右足平102f及び左足平103fを着地させることが可能であれば、これらの平面を移動可能領域として認識してもよい。さらにまた、検出された平面の面積と右足平102f及び左足平103fの面積とを比較した結果によって、その平面を移動可能領域として認識するかを決定してもよい。
次いで、環境地図更新生成部15は、認識された移動可能領域及び障害物領域と、重ね合わせ部14により重ね合わされた現フレームの3次元位置データ群とを統合して環境地図を生成する。
The environment map generation unit 15 generates an environment map as a set of a plurality of planes based on the plane information detected by the plane detection unit 12 and the current frame superimposed by the overlapping unit 14.
More specifically, first, based on the plane detection result by the plane detection unit 12, the floor area is recognized as a movable area where the mobile robot 100 can walk, and an area including a plane different from the floor is included. Is recognized as an obstacle area.
The floor surface means a plane on which the right foot 102f and the left foot 103f of the mobile robot 100 are in contact. However, such region recognition is an example. For example, even if it is a flat surface or a slope with a different height from the floor surface, if the difference in height from the floor surface is smaller than a predetermined value, it is possible to land the right foot 103f and the left foot 103f. These planes may be recognized as movable areas. Furthermore, it may be determined whether to recognize the plane as a movable region based on the result of comparing the area of the detected plane with the areas of the right foot 103f and the left foot 103f.
Next, the environment map update generation unit 15 integrates the recognized movable region and obstacle region with the three-dimensional position data group of the current frame superimposed by the overlapping unit 14 to generate an environment map.

ここで、本実施の形態における環境地図は、2次元平面(xy平面とする)を格子状に分割したグリッドデータとして生成される。環境地図の各グリッドに対応するデータとして、各グリッドのxy平面に垂直なz軸方向の高さ、各グリッドが属する平面を一意に識別可能な平面ID、及び、各グリッドが属する平面の法線ベクトルが保持される。環境地図生成部15は、ほぼ同じ高さの隣接するグリッドの集合を1つの平面と認識し、認識した1つの平面に対して一意な平面IDを付与する。   Here, the environment map in the present embodiment is generated as grid data obtained by dividing a two-dimensional plane (referred to as an xy plane) into a grid pattern. As data corresponding to each grid of the environmental map, the height in the z-axis direction perpendicular to the xy plane of each grid, the plane ID that can uniquely identify the plane to which each grid belongs, and the normal of the plane to which each grid belongs Vector is retained. The environment map generation unit 15 recognizes a set of adjacent grids having substantially the same height as one plane, and assigns a unique plane ID to the recognized plane.

例えば、図5(a)に示す環境160を移動ロボット100が歩行する場合、床面に相当する平面P11及び障害物161の上面に相当する平面P12が平面検出部12により検出される。そして、環境地図生成部15によって、平面P11が移動可能領域として認識され、平面P12が障害物領域として認識される。このとき、環境地図生成部15によって生成される環境地図200は、図5(b)に示すようになる。
図5(b)の環境地図200は、各グリッドのデータとして、各平面のそれぞれを一意に識別可能な平面ID、各グリッドのz軸方向の高さ、及び法線ベクトル(na,nb,nc)が保持される。
尚、隣接するグリッド間の平面IDの違い、及びz軸方向の高さの違いによって右足平102f及び左足平103fの着地位置における路面の凹凸を検出するため、環境地図200を構成する各グリッドの面積は、右足平102f及び左足平103fの底面の面積より十分に小さくなるよう選択するとよい。
For example, when the mobile robot 100 walks in the environment 160 shown in FIG. 5A, the plane detection unit 12 detects the plane P11 corresponding to the floor surface and the plane P12 corresponding to the upper surface of the obstacle 161. Then, the environment map generator 15 recognizes the plane P11 as a movable area and recognizes the plane P12 as an obstacle area. At this time, the environment map 200 generated by the environment map generation unit 15 is as shown in FIG.
The environment map 200 in FIG. 5B includes, as data of each grid, a plane ID that can uniquely identify each plane, the height of each grid in the z-axis direction, and a normal vector (na, nb, nc). ) Is held.
In addition, in order to detect the unevenness of the road surface at the landing positions of the right foot 102f and the left foot 103f by the difference in the plane ID between adjacent grids and the difference in the height in the z-axis direction, each grid constituting the environment map 200 is detected. The area may be selected to be sufficiently smaller than the areas of the bottom surfaces of the right foot 102f and the left foot 103f.

さらに、図5(b)の環境地図200は、各グリッドのデータとして領域種別を示す情報、つまり移動可能領域であるか障害物領域であるかを示す識別情報が保持される。図5(b)の例では、床面P11に対応する領域R11が移動可能領域であり、障害物161に対応する領域R12(図5(b)の斜線領域)が障害物領域である。   Furthermore, the environment map 200 in FIG. 5B holds information indicating the area type as data of each grid, that is, identification information indicating whether the area is a movable area or an obstacle area. In the example of FIG. 5B, a region R11 corresponding to the floor surface P11 is a movable region, and a region R12 corresponding to the obstacle 161 (shaded area in FIG. 5B) is an obstacle region.

歩行計画部16は、環境地図生成装置1によって生成された環境地図を参照して目標位置を決定し、決定した目標位置に到達するための右足平102f及び左足平103fの着地位置を算出する。   The walking plan unit 16 determines a target position with reference to the environment map generated by the environment map generation device 1, and calculates the landing positions of the right foot 103f and the left foot 103f for reaching the determined target position.

動作生成部17は、歩行計画部16によって生成された右足平102f及び左足平103fの着地位置を実現するための動作データを生成する。ここで、動作データとは、移動ロボット100のZMP位置、重心位置、右足平102f及び左足平103fの位置及び姿勢、並びに、移動ロボット100の上体部101の位置及び姿勢を含む。   The motion generation unit 17 generates motion data for realizing the landing positions of the right foot 102f and the left foot 103f generated by the walking plan unit 16. Here, the motion data includes the ZMP position, the gravity center position, the position and posture of the right foot 102f and the left foot 103f, and the position and posture of the upper body 101 of the mobile robot 100.

制御部18は、動作生成部17によって生成された動作データを入力し、逆運動学演算によって各関節の目標関節角度を算出する。さらに、制御部18は、算出した目標関節角度とエンコーダ20によって計測した現在の関節角度をもとに各関節を駆動するためのトルク制御値を算出する。制御部18によって算出されたトルク制御値に従って各関節を駆動するためのアクチュエータ19を動作させることにより、移動ロボット100の歩行が行われる。   The control unit 18 receives the motion data generated by the motion generation unit 17 and calculates a target joint angle of each joint by inverse kinematics calculation. Further, the control unit 18 calculates a torque control value for driving each joint based on the calculated target joint angle and the current joint angle measured by the encoder 20. The mobile robot 100 is walked by operating the actuator 19 for driving each joint according to the torque control value calculated by the control unit 18.

続いて以下では、環境地図生成装置1による環境地図生成方法の詳細を図6乃至9を用いて説明する。図6は、環境地図生成装置1による環境地図生成手順を示すフローチャートである。図7は、前フレーム及び現フレームの重ね合わせ処理を説明するための図である。図8は、前フレームの平面に対応する現フレームの平面を特定する処理を説明するための図である。図9は、前フレームにおける3次元位置データの高さ成分を、現フレームにおける3次元位置データの高さ成分として置き換えるようすを説明するための概念図である。尚、図7及び8は、床面に平行なxy平面に3次元位置データ群がプロットされたものであり、プロットされた各点について高さ情報(z軸方向の位置情報)が存在する。   Next, details of the environment map generation method performed by the environment map generation apparatus 1 will be described below with reference to FIGS. FIG. 6 is a flowchart showing an environment map generation procedure by the environment map generation apparatus 1. FIG. 7 is a diagram for explaining the process of superimposing the previous frame and the current frame. FIG. 8 is a diagram for explaining the process of specifying the plane of the current frame corresponding to the plane of the previous frame. FIG. 9 is a conceptual diagram for explaining how to replace the height component of the three-dimensional position data in the previous frame with the height component of the three-dimensional position data in the current frame. 7 and 8 are obtained by plotting a three-dimensional position data group on an xy plane parallel to the floor surface, and height information (position information in the z-axis direction) exists for each plotted point.

まず、ステップS101では、平面検出部12が、現フレームにおける3次元位置データ群より平面を検出する。即ち、平面情報としての複数の平面についての平面パラメータが算出され、現フレームにおける各3次元位置データが属する平面が決定される。
前フレーム及び現フレームを重ね合わせたフレームから平面を検出する場合には、平面検出に要する処理時間が従来の2倍程度となるため、移動ロボット100の高速移動についての制約となる。このため、現フレームのみから平面を検出することにより、平面検出処理に要する処理時間を増加させずに、従来同様の処理時間を維持することができる。
また、前フレーム及び現フレームを重ね合わせたフレームから平面を検出する場合には、オドメトリによる誤差のため、重ね合わせ後のフレームにおける3次元位置データ群の整合性がとれず、精度の高い平面を検出することができない。このため、現フレームのみから平面を検出することがより好ましい。
尚、現フレームにはデータ抜けが含まれているものの、平面検出処理に際して問題となる程度ではなく、所望の精度の平面を検出することができる。
First, in step S101, the plane detection unit 12 detects a plane from the three-dimensional position data group in the current frame. That is, plane parameters for a plurality of planes as plane information are calculated, and a plane to which each three-dimensional position data in the current frame belongs is determined.
When a plane is detected from a frame obtained by superimposing the previous frame and the current frame, the processing time required for plane detection is about twice that of the conventional method, which is a restriction on high-speed movement of the mobile robot 100. For this reason, by detecting a plane from only the current frame, it is possible to maintain the same processing time as before without increasing the processing time required for the plane detection process.
Also, when a plane is detected from a frame obtained by superimposing the previous frame and the current frame, due to an error caused by odometry, the consistency of the three-dimensional position data group in the frame after superposition cannot be obtained, and a plane with high accuracy is obtained. It cannot be detected. For this reason, it is more preferable to detect the plane only from the current frame.
Although the current frame includes missing data, it does not cause a problem in plane detection processing, and a plane with desired accuracy can be detected.

ステップS102では、座標変換部13が、移動ロボット100の移動量に基づいて、前フレームの座標系を現フレームの座標系に変換する。ここで、現フレームをM、前フレームをMi−1と表した場合に、前フレームMi−1の座標変換F(Mi−1)は以下の(1)式により一般的に表される。(1)式において、Rは回転行列であり、tは平行移動ベクトルである。回転行列R及び平行移動ベクトルtは、エンコーダ20などの計測情報より得られる移動ロボット100の移動量及び姿勢変化を反映して決定される。
F(Mi−1)=RMi−1+t (1)
In step S102, the coordinate conversion unit 13 converts the coordinate system of the previous frame into the coordinate system of the current frame based on the movement amount of the mobile robot 100. Table Here, the current frame M i, the previous frame when expressed as M i-1, the previous frame M i-1 of the coordinate transformation F (M i-1) generally by the following formula (1) Is done. In Equation (1), R is a rotation matrix and t is a translation vector. The rotation matrix R and the translation vector t are determined by reflecting the movement amount and posture change of the mobile robot 100 obtained from measurement information such as the encoder 20.
F (M i-1 ) = RM i-1 + t (1)

ステップS103では、重ね合わせ部14が、座標変換された前フレームを現フレームに重ね合わせる。より具体的には、座標変換された前フレームの3次元位置データを、現フレームに重ね合わせる。
図7(a)の画像は現フレームを表し、図7(b)の画像は現フレームの前に生成された前フレームを表している。図7(b)に示した移動ロボット100が前方(白抜矢印D方向)に移動することで、前フレームと現フレームとでは3次元位置データ群が変化し、データ抜けが発生した領域も変化する。
図7(c)の画像は、図7(b)に示した前フレームを座標変換して、図7(a)に示した現フレームと重ね合わせた後のフレームを示している。
In step S103, the superimposing unit 14 superimposes the previous frame after coordinate conversion on the current frame. More specifically, the coordinate-converted three-dimensional position data of the previous frame is superimposed on the current frame.
The image in FIG. 7A represents the current frame, and the image in FIG. 7B represents the previous frame generated before the current frame. When the mobile robot 100 shown in FIG. 7B moves forward (in the direction of the white arrow D), the three-dimensional position data group changes between the previous frame and the current frame, and the region where data loss has occurred also changes. To do.
The image of FIG. 7C shows a frame after the coordinate conversion is performed on the previous frame shown in FIG. 7B and the current frame shown in FIG.

ステップS104では、重ね合わせ部14が、座標変換された前フレームにおける平面について、現フレームにおいて対応する平面を特定する。例えば、平面のパラメータに基づいて、前フレームにおける平面Aに対応する現フレームにおける平面Aを特定する。平面パラメータとして、平面高さをh、傾きをφ及びθとして表し、平面パラメータを比較するための閾値をそれぞれTH、THφ、及びTHθとする。前フレームにおける平面Aに対して、以下の(2)〜(4)式の全てを満足する現フレーム平面Aを特定する。
|A(h)−A(h)|<TH (2)
|A(φ)−A(φ)|<THφ (3)
|A(θ)−A(θ)|<THθ (4)
このように、平面パラメータを用いて対応する平面を特定することにより、速やかに対応する平面を特定することができる。
例えば図8(a)に示す前フレームの平面A(図において破線で囲まれた領域A)に対して、図8(b)に示す現フレームにおける平面A(図において破線で囲まれた領域A)が特定される。
In step S <b> 104, the superimposing unit 14 identifies a plane corresponding to the current frame with respect to the plane in the previous frame subjected to coordinate conversion. For example, the plane A j in the current frame corresponding to the plane A i in the previous frame is specified based on the plane parameters. As the plane parameters, the plane height is represented as h, the inclination is represented as φ and θ, and the thresholds for comparing the plane parameters are TH h , TH φ , and TH θ , respectively. For the plane A i in the previous frame, a current frame plane A j that satisfies all of the following expressions (2) to (4) is specified.
| A j (h) −A i (h) | <TH h (2)
| A j (φ) −A i (φ) | <TH φ (3)
| A j (θ) −A i (θ) | <TH θ (4)
Thus, by specifying the corresponding plane using the plane parameter, the corresponding plane can be specified quickly.
For example, with respect to the plane A i of the previous frame shown in FIG. 8A (region A i surrounded by a broken line in the figure), the plane A j in the current frame shown in FIG. Region A j ) is identified.

ステップS105では、座標変換された前フレームにおける平面の3次元位置データの高さ成分を、現フレームにおいて特定された平面の3次元位置データの高さ成分により置き換える。即ち、前フレームにおける平面Aに属する3次元位置データ(Aix,Aiy,Aiz)について、その高さ成分Aizを現フレームにおける平面Aの高さ成分Ajzにより置き換える。
図9(a)の画像は、座標変換した前フレームを現フレームに重ね合わせたようすを、高さ方向(図においてはz軸方向)について示す概念図である。図9(a)に示すように、オドメトリによる誤差のため、前フレームにおける平面Aに属する3次元位置データは、現フレームにおける平面Aに属する3次元位置データに対して整合性が崩れたものとなる。
一方、図9(b)の画像は、座標変換した前フレームを現フレームに重ね合わせ、前フレームの平面Aに対応する現フレームの平面Aを特定した上で、3次元位置データの高さ成分を置き換えたようす示す概念図である。図9(b)に示すように、前フレームの平面Aに属する3次元位置データの高さ成分を、現フレームの平面Aに属する3次元位置データの高さ成分により置き換えることにより、重ね合わせたフレームにおける平面の高さ成分が水平となり整合性がとれたものとなる。
例えば、図7(d)の画像は、図7(c)に示した重ね合わせ後のフレームにおいて、平面の高さ成分を現フレームの高さ成分により置き換えたフレームを示している。
これにより、現フレームの特定された平面の高さを基準高さとして、前フレームの3次元位置データを置き換えることができるため、オドメトリによる誤差のため、置き換えによって3次元位置データの整合性が崩れてしまう場合であっても、高さ方向のズレを補正することができる。
In step S105, the height component of the plane three-dimensional position data in the previous frame subjected to coordinate conversion is replaced with the height component of the plane three-dimensional position data specified in the current frame. That is, for the three-dimensional position data (A ix , A iy , A iz ) belonging to the plane A i in the previous frame, the height component A iz is replaced with the height component A jz of the plane A j in the current frame.
The image in FIG. 9A is a conceptual diagram showing the height direction (z-axis direction in the drawing) as if the previous frame after coordinate conversion was superimposed on the current frame. As shown in FIG. 9A, due to an error due to odometry, the 3D position data belonging to the plane A i in the previous frame is not consistent with the 3D position data belonging to the plane A j in the current frame. It will be a thing.
On the other hand, the image of FIG. 9B is obtained by superimposing the coordinate-converted previous frame on the current frame, specifying the plane A j of the current frame corresponding to the plane A i of the previous frame, It is a conceptual diagram which shows that the thickness component was replaced. As shown in FIG. 9B, the height component of the three-dimensional position data belonging to the plane A i of the previous frame is replaced with the height component of the three-dimensional position data belonging to the plane A j of the current frame. The height components of the planes in the combined frames are horizontal and consistent.
For example, the image of FIG. 7D shows a frame in which the height component of the plane is replaced with the height component of the current frame in the frame after superposition shown in FIG. 7C.
As a result, the three-dimensional position data of the previous frame can be replaced with the height of the specified plane of the current frame as the reference height, so that the consistency of the three-dimensional position data is lost due to the error due to odometry. Even in such a case, the deviation in the height direction can be corrected.

ステップS106では、環境地図生成部15が、平面検出部12により検出された平面情報と、重ね合わせ部14により重ね合わされた現フレームとに基づいて、環境地図を生成する。   In step S <b> 106, the environment map generation unit 15 generates an environment map based on the plane information detected by the plane detection unit 12 and the current frame superimposed by the overlay unit 14.

尚、上述した3次元位置データ生成部11、平面検出部12、座標変換部13、重ね合わせ部14及び環境地図生成部15により実行される処理は、典型的なコンピュータシステムを用いて実現可能である。具体的には、一定の時間間隔で発生するタイマ割り込みに応じて、図6のフローチャートに示した処理をコンピュータシステムに行わせるためのプログラムをコンピュータシステムに実行させればよい。なお、図6のフローチャートに示した処理をコンピュータシステムに実行させるためのプログラムは、1のプログラムである必要はなく、処理内容により分割された複数のプログラムモジュールによって構成されてもよい。   Note that the processing executed by the above-described three-dimensional position data generation unit 11, plane detection unit 12, coordinate conversion unit 13, superposition unit 14, and environment map generation unit 15 can be realized using a typical computer system. is there. Specifically, a program for causing the computer system to perform the processing shown in the flowchart of FIG. 6 may be executed in response to a timer interrupt that occurs at regular time intervals. Note that the program for causing the computer system to execute the processing shown in the flowchart of FIG. 6 does not have to be a single program, and may be configured by a plurality of program modules divided according to the processing content.

以上に説明したように、本実施の形態にかかる移動ロボット100は、現フレームの3次元位置データ群のデータ抜けを前フレームの3次元位置データ群によって補完することができ、データ抜けの少ない密な環境地図を生成することができる。また、現フレームのみから平面を検出するため、現フレーム及び前フレームを重ね合わされたフレームから平面を検出する場合と比較して、オドメトリによる誤差の影響を受けずに精度の高い平面を検出することができる。従って、このようにして検出された平面情報と、重ね合わされた現フレームの3次元位置データ群とによれば、データ抜けの少ない密な環境地図を生成することができ、移動ロボット100の動作計画の解を安定させることができる。
また、現フレームのみから得られる環境地図に比べて、前フレームを用いることによって認識範囲が拡大されるため、例えば現フレームのみからでは認識できない移動ロボット100の後方についても環境地図に反映することができ、より安定した歩行計画を立てることができる。
As described above, the mobile robot 100 according to the present embodiment can supplement the missing data in the 3D position data group of the current frame with the 3D position data group of the previous frame, and can perform a dense operation with less data missing. A simple environmental map can be generated. In addition, since the plane is detected only from the current frame, it is possible to detect a plane with higher accuracy without being affected by errors due to odometry, compared to the case of detecting the plane from the frame in which the current frame and the previous frame are overlapped. Can do. Therefore, according to the plane information detected in this way and the superimposed three-dimensional position data group of the current frame, it is possible to generate a dense environment map with few data omissions, and the operation plan of the mobile robot 100 The solution of can be stabilized.
In addition, since the recognition range is expanded by using the previous frame as compared to the environment map obtained only from the current frame, for example, the back of the mobile robot 100 that cannot be recognized from only the current frame can be reflected in the environment map. It is possible to make a more stable walking plan.

その他の実施の形態.
発明の実施の形態1は、脚式移動ロボットに本発明を適用した一例を示したが、車輪等のその他の移動手段を有する移動ロボットに対しても本発明を適用可能である。
Other embodiments.
Embodiment 1 of the invention shows an example in which the present invention is applied to a legged mobile robot, but the present invention can also be applied to a mobile robot having other moving means such as wheels.

さらに、本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。   Furthermore, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention described above.

本発明の実施の形態にかかる移動ロボットの構成を示す側面図である。It is a side view which shows the structure of the mobile robot concerning embodiment of this invention. 本発明の実施の形態にかかる移動ロボットが有する制御系のブロック構成図である。It is a block block diagram of the control system which the mobile robot concerning embodiment of this invention has. 本発明の実施の形態にかかる移動ロボットが移動する際にレーザレンジファインダによるスキャンの様子を説明するための図である。It is a figure for demonstrating the mode of the scanning by a laser range finder, when the mobile robot concerning embodiment of this invention moves. 本発明の実施の形態にかかる3次元位置データ群の一例を示す図である。It is a figure which shows an example of the three-dimensional position data group concerning embodiment of this invention. 本発明の実施の形態にかかる移動ロボットが移動する環境の一例及び環境地図の一例を示す図である。It is a figure which shows an example of the environment where the mobile robot concerning embodiment of this invention moves, and an example of an environment map. 本発明の実施の形態にかかる環境地図生成装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the environment map production | generation apparatus concerning embodiment of this invention. 本発明の実施の形態にかかる重ね合わせ処理を説明するための図である。It is a figure for demonstrating the superimposition process concerning embodiment of this invention. 本発明の実施の形態にかかる平面を特定する処理を説明するための図である。It is a figure for demonstrating the process which specifies the plane concerning embodiment of this invention. 本発明の実施の形態にかかる高さ成分を置き換えるようすを説明するための概念図である。It is a conceptual diagram for demonstrating replacing the height component concerning embodiment of this invention.

符号の説明Explanation of symbols

1 環境地図生成装置、
10 レーザレンジファインダ、11 3次元位置データ生成部、
12 平面検出部、13 座標変換部、14 重ね合わせ部、
15 環境地図生成部、
16 歩行計画部、17 動作生成部、
18 制御部、19 アクチュエータ、20 エンコーダ

100 移動ロボット、104 脚部、
102 右脚、102c 右膝関節、102e 右足首関節、102f 右足平、
103 左脚、103c 左膝関節、103e 左足首関節、103f 左足平、

160 環境、161 障害物、162 データ抜け領域、
P11、12 床面、200 環境地図、
P 搭乗者、R11、12 領域
1 Environmental map generator,
10 laser range finder, 11 3D position data generator,
12 plane detection unit, 13 coordinate conversion unit, 14 superposition unit,
15 Environmental map generator,
16 walking planning unit, 17 motion generating unit,
18 control unit, 19 actuator, 20 encoder

100 mobile robots, 104 legs,
102 right leg, 102c right knee joint, 102e right ankle joint, 102f right foot,
103 left leg, 103c left knee joint, 103e left ankle joint, 103f left foot,

160 environment, 161 obstacle, 162 data missing area,
P11, 12 Floor, 200 Environmental map,
P Passenger, R11, 12 area

Claims (8)

移動ロボットが参照し、データ抜けを補完した環境地図を生成するための環境地図生成方法であって、
現フレームのみから平面情報を検出するステップと、
前記移動ロボットの移動量に基づいて、前記現フレームの前に取得された前フレームの座標系を前記現フレームの座標系に変換するステップと、
座標変換された前記前フレームを前記現フレームに重ね合わせるステップと、
検出された前記平面情報と、重ね合わされた前記現フレームとに基づいて前記環境地図を生成するステップとを
有する環境地図生成方法。
An environment map generation method for generating an environment map that is referenced by a mobile robot and supplements data loss ,
Detecting plane information from only the current frame;
Converting the coordinate system of the previous frame acquired before the current frame to the coordinate system of the current frame based on the movement amount of the mobile robot;
Superimposing the coordinate-transformed previous frame on the current frame;
An environment map generation method comprising: generating the environment map based on the detected plane information and the superimposed current frame.
前記重ね合わせステップは、
座標変換された前記前フレームにおける平面について、前記現フレームにおいて対応する平面を特定し、座標変換された前記前フレームにおける平面の3次元位置データの高さ成分を、前記現フレームにおいて特定された前記平面の3次元位置データの高さ成分により置き換えることにより、重ね合わせ処理を実行する
ことを特徴とする請求項1記載の環境地図生成方法。
The overlapping step includes
For the plane in the previous frame that has undergone coordinate transformation, the corresponding plane is identified in the current frame, and the height component of the three-dimensional position data of the plane in the previous frame that has undergone coordinate transformation is identified in the current frame. The environment map generation method according to claim 1, wherein the overlay process is executed by replacing the height component of the three-dimensional position data of the plane.
前記平面情報の検出ステップは、
3次元位置データ群から2点の3次元位置データの組をサンプリングし、該2点の3次元位置データの組に基づいて平面パラメータを算出するステップと、
算出された平面パラメータからなる平面に対して、3次元位置データが属する平面を決定するステップと
を備えることを特徴とする請求項1記載の環境地図生成方法。
The step of detecting the plane information includes:
Sampling a set of two-dimensional three-dimensional position data from the three-dimensional position data group, and calculating plane parameters based on the two-point three-dimensional position data set;
The environmental map generation method according to claim 1, further comprising: determining a plane to which the three-dimensional position data belongs for a plane composed of the calculated plane parameters.
前記移動ロボットが、移動手段としての2つの脚部を備え、2足歩行運動により移動を行う
ことを特徴とする請求項1乃至3記載の環境地図生成方法。
The method for generating an environmental map according to any one of claims 1 to 3, wherein the mobile robot has two legs as moving means, and moves by biped walking.
データ抜けを補完した環境地図を参照して移動する移動ロボットであって、
前記環境を視覚的に認識する視覚センサと、
前記視覚センサにより得られる計測データを用いて、前記環境に存在する計測対象の位置を示す3次元位置データ群を生成する3次元位置データ生成部と、
現フレームの3次元位置データ群のみから平面情報を検出する平面検出部と、
前記移動ロボットの移動量に基づいて、前記現フレームの前に取得された前フレームの座標系を前記現フレームの座標系に変換する座標変換部と、
座標変換された前記前フレームを前記現フレームに重ね合わせる重ね合わせ部と、
検出された前記平面情報と、重ね合わされた前記現フレームとに基づいて前記環境地図を生成する環境地図生成部と
を備える移動ロボット。
A mobile robot that moves with reference to an environmental map that complements missing data ,
A visual sensor for visually recognizing the environment;
Using the measurement data obtained by the visual sensor, a three-dimensional position data generation unit that generates a three-dimensional position data group indicating the position of the measurement target existing in the environment;
A plane detection unit that detects plane information only from the three-dimensional position data group of the current frame;
A coordinate conversion unit that converts the coordinate system of the previous frame acquired before the current frame into the coordinate system of the current frame based on the movement amount of the mobile robot;
A superimposing unit that superimposes the coordinate-converted previous frame on the current frame;
A mobile robot comprising: an environment map generation unit that generates the environment map based on the detected plane information and the superimposed current frame.
前記重ね合わせ部は、
座標変換された前記前フレームにおける平面について、前記現フレームにおいて対応する平面を特定し、座標変換された前記前フレームにおける平面の3次元位置データの高さ成分を、前記現フレームにおいて特定された前記平面の3次元位置データの高さ成分により置き換えることにより、重ね合わせ処理を実行する
ことを特徴とする請求項5記載の移動ロボット。
The overlapping portion is
For the plane in the previous frame that has undergone coordinate transformation, the corresponding plane is identified in the current frame, and the height component of the three-dimensional position data of the plane in the previous frame that has undergone coordinate transformation is identified in the current frame. The mobile robot according to claim 5, wherein the superposition process is executed by replacing with a height component of the three-dimensional position data of the plane.
前記平面検出部は、
3次元位置データ群から2点の3次元位置データの組をサンプリングし、該2点の3次元位置データの組に基づいて平面パラメータを算出する平面パラメータ算出部と、
算出された平面パラメータからなる平面に対して、3次元位置データが属する平面を決定するラベリング処理部と
を備えることを特徴とする請求項5記載の移動ロボット。
The plane detector is
A plane parameter calculation unit that samples a set of three-dimensional position data of two points from a group of three-dimensional position data and calculates a plane parameter based on the set of three-dimensional position data of the two points;
The mobile robot according to claim 5, further comprising: a labeling processing unit that determines a plane to which the three-dimensional position data belongs with respect to a plane composed of the calculated plane parameters.
前記移動ロボットが、移動手段としての2つの脚部を備え、2足歩行運動により移動を行う
ことを特徴とする請求項5乃至7記載の移動ロボット。
The mobile robot according to any one of claims 5 to 7, wherein the mobile robot includes two legs as moving means, and moves by biped walking motion.
JP2007116503A 2007-04-26 2007-04-26 Environmental map generation method and mobile robot Expired - Fee Related JP4678007B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007116503A JP4678007B2 (en) 2007-04-26 2007-04-26 Environmental map generation method and mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007116503A JP4678007B2 (en) 2007-04-26 2007-04-26 Environmental map generation method and mobile robot

Publications (2)

Publication Number Publication Date
JP2008276348A JP2008276348A (en) 2008-11-13
JP4678007B2 true JP4678007B2 (en) 2011-04-27

Family

ID=40054252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007116503A Expired - Fee Related JP4678007B2 (en) 2007-04-26 2007-04-26 Environmental map generation method and mobile robot

Country Status (1)

Country Link
JP (1) JP4678007B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9062980B2 (en) 2011-11-22 2015-06-23 Hitachi, Ltd. Autonomous mobile system
AU2012376428B2 (en) 2012-04-05 2015-06-25 Hitachi, Ltd. Map data creation device, autonomous movement system and autonomous movement control device
US11922649B2 (en) 2018-11-30 2024-03-05 Arithmer Inc. Measurement data calculation apparatus, product manufacturing apparatus, information processing apparatus, silhouette image generating apparatus, and terminal apparatus
JP6792273B2 (en) * 2019-04-26 2020-11-25 Arithmer株式会社 Dimension data calculation device, product manufacturing device, and silhouette image generation device
CN117078869A (en) * 2022-10-27 2023-11-17 北京石头创新科技有限公司 Color three-dimensional map display method and device
CN115546348B (en) * 2022-11-24 2023-03-24 上海擎朗智能科技有限公司 Robot mapping method and device, robot and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006239844A (en) * 2005-03-04 2006-09-14 Sony Corp Obstacle avoiding device, obstacle avoiding method, obstacle avoiding program and mobile robot device
JP2007041656A (en) * 2005-07-29 2007-02-15 Sony Corp Moving body control method, and moving body

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006239844A (en) * 2005-03-04 2006-09-14 Sony Corp Obstacle avoiding device, obstacle avoiding method, obstacle avoiding program and mobile robot device
JP2007041656A (en) * 2005-07-29 2007-02-15 Sony Corp Moving body control method, and moving body

Also Published As

Publication number Publication date
JP2008276348A (en) 2008-11-13

Similar Documents

Publication Publication Date Title
JP5067215B2 (en) Mobile robot and environmental map generation method
JP4645601B2 (en) Environmental map generation method and mobile robot
JP2009136987A (en) Mobile robot and method of correcting floor surface shape data
JP4678007B2 (en) Environmental map generation method and mobile robot
KR101913332B1 (en) Mobile apparatus and localization method of mobile apparatus
US9482754B2 (en) Detection apparatus, detection method and manipulator
US20120155775A1 (en) Walking robot and simultaneous localization and mapping method thereof
US20110123135A1 (en) Method and device of mapping and localization method using the same
JP4715787B2 (en) Mobile robot and robot movement control method
JP2009258779A (en) Mobile robot and footprint planning method
JP2009193240A (en) Mobile robot and method for generating environment map
KR20080093460A (en) Mobile robot
JP2009157430A (en) Coordinate correction method, coordinate correction program and autonomous mobile robot
JP4844459B2 (en) Plane detection method and mobile robot
KR101379787B1 (en) An apparatus and a method for calibration of camera and laser range finder using a structure with a triangular hole
WO2018055861A1 (en) Mobile object control device and mobile object control system
CN112068152A (en) Method and system for simultaneous 2D localization and 2D map creation using a 3D scanner
Kumar et al. Sensor fusion of laser and stereo vision camera for depth estimation and obstacle avoidance
US20220214696A1 (en) Simultaneous Localization and Mapping
JP2010066595A (en) Environment map generating device and environment map generating method
JP2008264946A (en) Mobile robot and correcting method for data of floor surface shape
JP2009168750A (en) Floor surface detection system, mobile robot, and floor surface detection method
JP2008126333A (en) Biped mobile robot, and method of its walking plan
CN106595502A (en) Structured light-based motion compensation 3D measurement method
Lee et al. Dynamic humanoid locomotion over rough terrain with streamlined perception-control pipeline

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110117

R151 Written notification of patent or utility model registration

Ref document number: 4678007

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees