JP2009193240A - Mobile robot and method for generating environment map - Google Patents

Mobile robot and method for generating environment map Download PDF

Info

Publication number
JP2009193240A
JP2009193240A JP2008032010A JP2008032010A JP2009193240A JP 2009193240 A JP2009193240 A JP 2009193240A JP 2008032010 A JP2008032010 A JP 2008032010A JP 2008032010 A JP2008032010 A JP 2008032010A JP 2009193240 A JP2009193240 A JP 2009193240A
Authority
JP
Japan
Prior art keywords
dimensional position
position data
new
map
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008032010A
Other languages
Japanese (ja)
Inventor
Yutaka Takaoka
豊 高岡
Original Assignee
Toyota Motor Corp
トヨタ自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, トヨタ自動車株式会社 filed Critical Toyota Motor Corp
Priority to JP2008032010A priority Critical patent/JP2009193240A/en
Publication of JP2009193240A publication Critical patent/JP2009193240A/en
Application status is Pending legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To generate a detailed environment map without generating an unclear edge section such as a step difference. <P>SOLUTION: An autonomous mobile robot 100 is provided with: a three-dimensional position data generation part 12 for generating three-dimensional position data showing the position of an object to be measured present in a moving space by using a measurement result by a visual sensor 11; and a map generation part 13 for generating the environment map related to the moving space by integrating a plurality of three-dimensional position data measured at different robot positions. When the new three-dimensional position data generated by the three-dimensional position data generation part 12 has predetermined reliability, the map generation part 13 generates a new environment map by overwriting a redundant region in the past environment map with the new three-dimensional position data for update. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、移動ロボットに関し、特に移動ロボットの移動のために参照される環境地図の生成方法に関する。 The present invention relates to a mobile robot, a method for generating an environment map that is specifically referred to for the movement of the mobile robot.

移動ロボットは、環境地図を参照することによって移動経路を計画し、当該移動経路に従って移動を行う。 Mobile robot, planning a travel route by referring to the environment map, to move in accordance with the movement path. 例えば、環境地図は、移動ロボットが移動を行う2次元の移動空間を格子状に分割するとともに、格子に囲まれた各々のセルが、移動ロボットにとって移動可能な領域であるか否かを表したグリッド地図として作成される。 For example, the environment map is a two-dimensional movement space in which the mobile robot to move along with the split in a grid pattern, the cell of each surrounded by lattices were expressed whether the region can move for a mobile robot It is created as a grid map.

環境地図の作成は、例えば、レーザレンジファインダなどの視覚センサを搭載した移動ロボット自身によって行なわれる。 Creating an environment map, for example, performed by the mobile robot itself provided with a visual sensor such as a laser range finder. 具体的には、移動ロボットに搭載された視覚センサを用いて、移動ロボット自身が移動空間内を移動しながら外部環境の3次元位置データを生成する。 Specifically, using a vision sensor mounted on a mobile robot, the mobile robot itself to generate a three-dimensional positional data of the external environment while moving within the moving space. そして、移動ロボットは、複数の異なるロボット位置で計測された3次元位置データを、オドメトリより推定される移動ロボットの位置及び姿勢に基づいて繋ぎ合わせることによって、複数の局所的な3次元位置データが統合された広範囲の環境地図を生成する。 Then, the mobile robot, the three-dimensional position data measured at a plurality of different robot positions, by joining together based on the position and orientation of a mobile robot is estimated from odometry, a plurality of local three-dimensional position data generating an integrated wide range of environmental map. このように移動ロボットの自己位置推定と環境地図の構築を同時に行なう技術は、SLAM(Simultaneous Localization and Mapping)と呼ばれる(例えば、特許文献1〜2を参照)。 This simultaneously technique to build a self-position estimation and a map of the mobile robot as is called SLAM (Simultaneous Localization and Mapping) (e.g., see Patent Documents 1 and 2).

例えば、オドメトリより推定されたロボットの位置及び姿勢に基づいて、複数地点で計測された3次元位置データを移動空間に固定されたグローバル座標系へ座標変換し、これらをグローバル座標上で統合することによって、グローバル座標系での環境地図が生成される。 For example, based on the position and orientation of the robot estimated from odometry, coordinate transformation the three-dimensional position data measured by a plurality of points to a global coordinate system fixed to the moving space, integrating them in the global coordinate the environment map of the global coordinate system is generated. また、各々のロボット位置で得られた3次元位置データに対して平面検出処理や障害物検出処理を行って狭小領域に関する複数の地図(以下、ローカル地図と呼ぶ)を作成した後に、複数のローカル地図をオドメトリに基づいて統合して広範な環境地図を作成する場合もある。 Further, a plurality of maps of narrowing region performs planar detection processing and obstacle detection processing on the three-dimensional position data obtained by each robot position (hereinafter, referred to as the local map) after creating the plurality of local sometimes creating a wide range of environmental map by integrating based on map odometry.

特許文献1には、脚歩行型の移動ロボットの足平が接している床面を含む複数の平面を3次元位置データから検出し、これら複数の平面の検出結果を用いて障害物領域と移動可能領域とが特定された環境地図を生成する技術が開示されている。 Patent Document 1 detects a plurality of planes including the floor surface in contact foot flat of the mobile robot leg walking type from the three-dimensional position data, moving the obstacle region by using the detection results of the plurality of planes and area to produce a particular environment map technique is disclosed.

また、特許文献2に開示された移動ロボット用の環境地図の生成方法は、概略以下の手順(1)〜(5)を含む。 Further, the method of generating the environment map for mobile robot disclosed in Patent Document 2 includes a schematic following steps (1) to (5).
(1)レーザレンジファインダによって得た第Nフレームの3次元位置データをオドメトリより推定されるロボット位置及び姿勢に基づいてグローバル座標系に変換する。 (1) into a global coordinate system based on the three-dimensional position data of the N frame obtained by the laser range finder to the robot position and orientation are estimated from odometry.
(2)グローバル座標系に変換した後の第Nフレームの3次元位置データから複数の線分を認識する。 (2) recognizes the plurality of line segments from the three-dimensional position data of the N frame after converting to the global coordinate system.
(3)認識した複数の線分を、異なるロボット位置で過去に計測された第N−1フレームの3次元位置データから認識された複数の線分と対応付ける。 (3) a plurality of line segments recognized, associated with a plurality of line segments recognized from three-dimensional position data of the N-1 frame which is measured in the past different robot positions.
(4)対応付けられた線分間の位置及び向きの差の平均値を、オドメトリから推定されたロボット位置及び姿勢の推定値の誤差とする。 (4) the average value of the difference in position and orientation between the associated segments, and the error of the estimated estimates of robot position and orientation from the odometry.
(5)ロボット位置及び姿勢の推定値の誤差を打ち消すように第Nフレームの3次元位置データを座標変換した後に、第Nフレームと第N−1フレームの3次元位置データを繋ぎ合わせて統合し、改めて線分抽出を行う。 (5) the 3-dimensional position data of the N frame to cancel the error of the estimated value of the robot position and orientation after the coordinate transformation, combined by integrating together the N-th frame and the three-dimensional position data of the N-1 frame , it carried out anew line segment extraction.
特開2005−92820号公報 JP 2005-92820 JP 特開平10−260724号公報 JP 10-260724 discloses

上述した文献1及び2は、オドメトリを用いて推定される移動ロボットの位置及び姿勢に基づいて3次元位置データを座標変換し、異なるロボット位置で計測された3次元位置データを互いに繋ぎ合わせて広範囲の環境地図を生成する技術を開示している。 Documents 1 and 2 described above, the three-dimensional position data to coordinate transformation based on the position and orientation of a mobile robot is estimated using odometry, by joining the three-dimensional position data measured at different robot positions mutually extensive It discloses a technique for generating the environment map.

しかしながら、オドメトリとして取得される移動ロボット内界の計測データ(車輪回転量、関節角など)は、移動ロボットの移動量が大きくなるにつれて誤差が蓄積されていく。 However, the measurement data (wheel rotation amount, joint angle, etc.) in a mobile robot field is obtained as odometry, an error is accumulated as the moving amount of the robot is increased. さらに、オドメトリに反映されない移動ロボットの揺れや振動のために3次元位置データの信頼性が損なわれる場合がある。 Furthermore, there is a case where the reliability of the three-dimensional position data is lost due to the oscillations and vibrations of the mobile robot are not reflected in the odometry. このため、異なるロボット位置で計測された3次元位置データをオドメトリに基づく座標変換によって単に繋ぎ合わせたのでは、水平な床面と他の水平面(いわゆる段差)の間のエッジ、水平面と斜面の間などの平面間のエッジ、床面と障害物の間のエッジ等が不明瞭となる。 Therefore, than tailored simply connecting the coordinate conversion based three-dimensional position data measured at different robot positions the odometry, an edge between the level surface and the other horizontal surface (so-called step) between the horizontal plane and slope It edges between planes, such as, edge or the like between the floor and the obstacle is unclear.

上述した課題を図7を用いて詳しく説明する。 The problems described above will be described in detail with reference to FIG. 図7に示す3つの3次元位置データ71〜73は、移動ロボットの移動に伴って異なる時間及び場所で得られたものである。 Three three-dimensional position data illustrated in FIG. 7 71 to 73, were obtained at different time and place with the movement of the mobile robot. なお、以下では、移動ロボットの移動に伴って異なる時間及び場所で得られた3次元位置データの各々を「フレーム」と呼ぶ。 In the following description, each of the three-dimensional position data obtained at different time and place with the movement of the mobile robot is called a "frame". 3フレームの3次元位置データ71〜73は、同一の障害物711を捉えている。 3-dimensional position data 71 through 73 of the three frames are captured by the same obstacle 711. しかしながら、オドメトリに基づいて特定される障害物711の位置及び姿勢が誤差を含む場合や、移動ロボットの揺れや振動のために3次元位置データの信頼性が損なわれている場合がある。 However, and if the position and orientation of the obstacle 711 is specified based on odometry contains an error, there is a case where the reliability of the three-dimensional position data for the oscillations and vibrations of the mobile robot is impaired. このために、これら3フレームの3次元位置データを重ね合わせることによって生成された環境地図74における障害物の像(破線741により囲まれた部分)は、エッジが不明瞭となるおそれがある。 For this, the image of the obstacle in the environment map 74 generated by superimposing the three-dimensional position data of the three frames (the portion enclosed by the dashed line 741), there is a risk that the edge becomes unclear.

脚式移動ロボットが、エッジの不明瞭な環境地図を用いて歩行計画を行なうと、エッジの誤認識による着地ミスを招くおそれがある。 Legged mobile robot, when the walking plan with unclear environmental map edges, can lead to landing errors due to erroneous recognition of the edge. また、誤差の大きなエッジ領域をすべて着地不可能な領域とみなして歩行計画を実行してしまうと、移動ロボットの歩行が制約されてしまう。 Further, when thus executed the walking plan considers all landing impossible area large edge region of the error, the walking of the robot is restricted.

本発明は、上述した知見に基づいてなされたものであって、段差等のエッジ部分が不明瞭となることを防いで精細な環境地図を生成することが可能な移動ロボット及び環境地図の生成方法を提供することを目的とする。 The present invention was made based on the findings described above, the method of generating the mobile robot and the environment map capable of edge portions of the step or the like to produce a fine environment map prevents the obscured an object of the present invention is to provide a.

本発明の第1の態様は、環境地図を参照して移動空間内を移動する移動ロボットであり、視覚センサ、3次元位置データ生成部、及び環境地図生成部を備える。 A first aspect of the present invention includes a mobile robot that moves the moving space with reference to the environment map, the visual sensor, the three-dimensional position data generator, and the environmental map generation unit. 前記視覚センサは、前記移動空間を視覚的に認識する。 It said visual sensor is visually recognizes the moving space. 前記3次元位置データ生成部は、前記視覚センサによる計測結果を用いて、前記移動空間に存在する計測対象の位置を示す3次元位置データを生成する。 The three-dimensional position data generating unit uses the measurement result by the visual sensor, to generate a three-dimensional position data indicating the position of the measurement object present in the mobile space. 前記環境地図生成部は、異なるロボット位置で計測された複数の前記3次元位置データを統合することにより、前記移動空間に関する環境地図を生成する。 The environmental map generation unit by integrating a plurality of the three-dimensional position data measured at different robot position, generates an environmental map about the movement space. さらに、前記環境地図生成部は、前記3次元位置データ生成部によって生成された新たな3次元位置データが予め定められた信頼度を有する場合に、前記新たな3次元位置データと重複する過去の環境地図内の領域を、前記新たな3次元位置データで上書き更新することによって新たな環境地図を生成する。 Moreover, the environment map generating unit, when having a confidence that the new 3-dimensional position data generated is predetermined by the 3-dimensional position data generator, past that overlaps with the new three-dimensional position data the area within the environmental map, and generates a new environmental map by overwritten by the new three-dimensional position data.

本発明の第2の態様は、移動ロボットの移動のために参照される環境地図の生成方法であって、以下のステップ(a)及び(b)を含む。 A second aspect of the present invention is a method for generating an environmental map which is referred to for the movement of the mobile robot, comprising the following steps (a) and (b).
視覚センサによる計測結果を用いて、前記移動ロボットの移動空間に存在する計測対象の位置を示す3次元位置データを生成するステップ(a)、及び 異なるロボット位置で計測された複数の前記3次元位置データを統合することにより、前記移動空間に関する環境地図を生成するステップ(b)。 Using the measurement result by the visual sensor, a plurality of the three-dimensional positions measured step of generating a 3-dimensional position data indicating the position of the measurement object existing (a), and at a different robot positions the movement space of the mobile robot by integrating data, the step of generating an environmental map about the movement space (b).
さらに、前記ステップ(b)では、新たな3次元位置データが予め定められた信頼度を有する場合に、前記新たな3次元位置データと重複する過去の環境地図内の領域を、前記新たな3次元位置データで上書き更新することによって新たな環境地図を生成する。 Further, the step (b), when having a new three-dimensional position data is predetermined reliability, the region in the past environmental map overlaps with the new three-dimensional position data, the new 3 It generates a new environmental map by overwriting the dimension position data.

上述した本発明の第1及び第2の態様によれば、最新の3次元位置データの信頼度が高ければ、新たに取得された最新の3次元位置データに含まれる領域については、最新の3次元位置データのみに基づいて移動計画が実行される。 According to the first and second aspects of the present invention described above, the higher the reliability of the latest three-dimensional position data, the area included in the newly acquired latest three-dimensional position data is the latest 3 movement plan is executed based only on the dimension position data. つまり、複数の3次元位置データを重ね合わせることによってエッジが不明瞭となることが無く、精細なエッジ情報を含む環境地図を利用して移動計画を行なうことができる。 In other words, there is no edge by overlapping a plurality of three-dimensional position data is unclear, it is possible to perform the movement plan by using the environment map including a fine edge information. また、新たに取得された最新の3次元位置データに含まれない領域については、過去に取得された3次元位置データに基づいて生成された環境地図を利用して移動計画を行うことができるため、広範囲な移動空間に関して移動計画を実行することができる。 Also, the area not included in the newly acquired latest three-dimensional position data, it is possible to perform movement plan by using the environment map generated based on the three-dimensional position data obtained in the past It may perform movement plans for a wide range of moving space.

なお、上述した本発明の第1及び第2の態様において、前記新たな3次元位置データが前記信頼度を有しない場合に、前記新たな3次元位置データを前記新たな環境地図に反映させないこととしてもよい。 In the first and second aspects of the present invention described above, that the new 3-dimensional position data to the case not having the reliability, it does not reflect the new three-dimensional position data to the new environmental map it may be. これにより、移動ロボットの揺れや振動に起因して3次元位置データの信頼性が損なわれている場合に、これを環境地図の生成から除外することができる。 Thus, when the reliability of the three-dimensional position data due to shaking or vibration of the mobile robot is compromised, which can be excluded from the generation of the environmental map. このため、信頼性の低い3次元位置データを取り込むことによって環境地図の精度が低下することを防止できる。 Therefore, it is possible to prevent the accuracy of the environmental map is reduced by incorporating unreliable three-dimensional position data.

また、上述した本発明の第1及び第2の態様において、前記新たな3次元位置データの信頼度は、以下の(1)〜(3)の少なくとも1つを含んでもよい。 In the first and second aspects of the present invention described above, the reliability of the new three-dimensional position data may include at least one of the following (1) to (3).
(1)前記過去の3次元位置データから検出された平面の位置及び前記移動ロボットの移動量を用いて算出される推定位置と、前記新たな3次元位置データから検出された平面の位置との一致度合い、 (1) the estimated position calculated using the position and movement amount of the mobile robot in the past three-dimensional position data from the detected plane, the position of the detected plane from the new three-dimensional position data matching degree,
(2)前記過去の3次元位置データより検出された平面を規定する平面パラメータと、前記新たな3次元位置データより検出された平面を規定する平面パラメータとの一致度合い、 (2) the degree of matching the plane parameters defining the detected plane from the three-dimensional position data of the past, the plane parameters defining the new three-dimensional position data from the detected plane,
(3)前記新たな3次元位置データを最小二乗法によって平面にフィッティングする際の最小二乗誤差が、予め定められた基準値より小さいこと。 (3) the least square error in fitting plane a new three-dimensional position data by the least square method is less that than a predetermined reference value.

本発明により、段差等のエッジ部分が不明瞭となることを防いで精細な環境地図を生成することが可能な移動ロボット及び環境地図の生成方法を提供できる。 The present invention can provide a method for generating a mobile robot and the environment map capable of edge portions of the step or the like to produce a fine environment map prevents the obscured.

以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. 各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。 In the drawings, the same components are denoted by the same reference numerals, for clarity of description, repeated explanation is omitted as appropriate.

<発明の実施の形態1> <Of the implementation of the invention according to the first>
本実施の形態にかかる自律移動ロボット100(以下、単にロボット100と呼ぶ)の自律移動に関する制御系の構成を図1に示す。 Autonomous mobile robot 100 according to the present embodiment (hereinafter, simply referred to as the robot 100) shown in FIG. 1 the configuration of a control system of Autonomous moving. ロボット100は、脚歩行型の移動ロボットであり、移動機構18として脚リンク181及びこれを駆動するアクチュエータ180を有する。 Robot 100 is a mobile robot leg walking type, having a leg link 181 and actuator 180 for driving it as the moving mechanism 18.

図1において、図1において、視覚センサ11は、ロボット1の外界の距離画像データを取得する。 In Figure 1, 1, the visual sensor 11 acquires the range image data of the outside world of the robot 1. 具体的には、レーザレンジファインダ等のアクティブ距離センサによって距離画像データを取得すればよい。 Specifically, it may acquire a distance image data by an active range sensor such as a laser range finder. なお、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を備えた複数のカメラを備え、これら複数のカメラによって撮影した画像データを用いて距離画像データを生成してもよい。 Incidentally, comprising a plurality of cameras having a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor such as an image sensor, generating the range image data by using the image data captured by the plurality of cameras it may be. 具体的には、複数のカメラによって撮影した画像データから対応点を検出し、ステレオ視によって対応点の3次元位置を復元すればよい。 Specifically, to detect corresponding points from the image data captured by multiple cameras may be restored to three-dimensional positions of the corresponding points by the stereo vision. ここで、複数の撮影画像における対応点の探索は、複数の撮影画像に対する時空間微分の拘束式を用いた勾配法や相関法等の公知の手法を適用して行えばよい。 Here, the search for the corresponding points in the plurality of captured images may be performed by applying a known method of gradient method or correlation method using a constraint equation of time-space derivative for the plural captured images.

3次元位置データ生成部12は、距離画像データの座標変換を行って3次元位置データを生成する。 3-dimensional position data generator 12 generates the three-dimensional position data by performing coordinate transformation of the distance image data. なお、3次元位置データとは、距離画像データに含まれる多数の計測点の位置ベクトルを3次元直交座標系で表したデータの集合である。 Note that the three-dimensional position data, the number of position vectors of the measuring points included in the range image data is a set of data representing a three-dimensional orthogonal coordinate system. ここで、3次元位置データに含まれる点群の座標は、ロボット100に固定されたロボット座標系で表示されていてもよいし、移動空間に固定されたグローバル座標系で表示されていてもよい。 Here, the coordinates of the point group included in the three-dimensional position data may be displayed in the robot coordinate system fixed to the robot 100, may be displayed in the global coordinate system fixed to the moving space .

地図生成部13は、複数のロボット位置で得られた局所的な3次元位置データを統合することにより、広範囲の移動空間に関する環境地図を生成する。 Map generating unit 13, by integrating the local 3-dimensional position data obtained by a plurality of robot position, generates an environmental map to the broader scope of the movement space. 本実施の形態のロボット100は脚歩行型であるため、地図生成部13は、足平を着地可能な平面領域の位置を特定可能な環境地図を生成するものとして説明する。 Robot 100 of this embodiment for a leg walking type, the map generating unit 13 is described as generating an environmental map that can specify the position of the landing possible plane area foot. また、本実施の形態では、環境地図が、二次元グリッド地図であるとして説明する。 Further, in this embodiment, the environment map will be described as a two-dimensional grid map.

地図生成部13によって生成される環境地図の一例を図2に示す。 Figure 2 shows an example of the environment map generated by the map generating unit 13. 図2(a)は、ロボット100の移動空間の一例を示している。 FIG. 2 (a) shows an example of a moving space of the robot 100. 図2(a)の移動空間160は、床面に相当する平面P11と段差161の上面に相当する平面P12を有している。 Figure 2 moving space 160 (a) has a plane P12 that corresponds to the upper surface of the plane P11 and the step 161 corresponding to the floor surface. 図2(b)の環境地図200は、図2(a)に示した移動空間160を表す環境地図の一例である。 Environmental map 200 of FIG. 2 (b) is an example of the environment map representing the movement space 160 shown in FIG. 2 (a). 環境地図200は2次元グリッド地図である。 Environmental map 200 is a two-dimensional grid map. 環境地図200の各セルは、平面ID、z方向の高さ、法線ベクトルを示す値を保持する。 Each cell in the environment map 200 holds the planar ID, z-direction height, the value indicating the normal vector. 図2(b)において領域R11が平面P11に相当し、領域R12が平面P12に相当する。 Region R11 corresponds to the plane P11 in FIG. 2 (b), the region R12 corresponds to the plane P12.

図1に示した地図生成部13は、平面検出部131、信頼度判定部132、及び地図更新部133を含む。 Map generating unit 13 shown in Figure 1 includes flat detector 131, the reliability determination unit 132, and a map update unit 133. 以下では、これらの構成要素について順に説明する。 Hereinafter will be described in order for these components.

平面検出部131は、3次元位置データから平面を検出する。 Flat detector 131 detects a plane from the three-dimensional position data. なお、多数の計測点(3次元位置データ)から平面の方程式を表す平面パラメータ(例えば、法線ベクトル及び法線ベクトルの座標系原点からの距離)を検出するために、ハフ変換法やランダムサンプリング法が従来から用いられている。 In order to detect the plane parameters representing the equation of the plane from a large number of measurement points (three-dimensional position data) (e.g., the distance from the origin of the coordinate system normal vector and the normal vector), the Hough transform method and random sampling the law has been used in the prior art. 本実施の形態における平面検出には、従来から知られているこれらの手法を適用すればよい。 The flat panel detector of this embodiment may be applied to these techniques which are known in the art.

信頼度判定部132は、3次元位置データの信頼度を算出する。 Reliability determining unit 132 calculates the reliability of the three-dimensional position data. レーザレンジファインダ等の視覚センサ10によって得られる距離画像データは、ロボット100の揺れや振動によって移動空間の形状を正確に反映してない場合がある。 Range image data obtained by the visual sensor 10 such as a laser range finder may not accurately reflect the shape of the interior space by oscillations and vibrations of the robot 100. 信頼度判定部132は、このような距離画像データの精度低下を3次元位置データの信頼度として算出する。 Reliability determining unit 132 calculates the reduced accuracy of such range image data as the reliability of the three-dimensional position data. 信頼度算出の具体例については後述する。 It will be described later examples reliability calculation.

地図更新部133は、異なるロボット位置で得られた複数の3次元位置データを繋ぎ合わせて広範囲の環境地図を作成する。 Map update unit 133 creates a wide range of environmental map by connecting a plurality of three-dimensional position data obtained by the different robot positions. 具体的には、地図更新部133は、複数の3次元位置データをオドメトリより推定されるロボット位置及び姿勢に基づいて移動空間に固定されたグローバル座標系に座標変換し、グローバル座標上で連結することによって複数の3次元位置データを統合する。 Specifically, the map updating unit 133, coordinate conversion to a global coordinate system fixed to the moving space based multiple three-dimensional position data to the robot position and orientation are estimated from odometry, which is linked with the global coordinate integrating multiple three-dimensional position data by.

環境地図記憶部14は、地図生成部13により生成された環境地図を記憶する。 Environmental map storage unit 14 stores the environment map generated by the map generating unit 13.

移動計画部15は、地図生成部13によって生成された環境地図を参照して目標位置を決定し、決定した目標位置に到達するための脚リンク181の軌道、具体的には、脚リンク181の先端に設けられた足平の着地位置を算出すればよい。 Movement plan unit 15 determines a target position with reference to the environment map generated by the map generating unit 13, the trajectory of the leg link 181 to reach the determined target position, specifically, the leg link 181 landing position of the foot provided at an end may be calculated.

動作生成部16は、移動計画部15によって生成された足平の着地位置を実現するための動作データを生成する。 Motion generation unit 16 generates operation data for realizing the landing position of the foot produced by the movement plan unit 15. ここで、動作データは、例えば、ロボット100のZMP位置、重心位置、足平の位置及び姿勢等を含む。 The operation data includes, for example, ZMP position of the robot 100, the center of gravity position, the position and orientation, etc. of the foot.

移動制御部17は、動作生成部16によって生成された動作データを入力し、逆運動学演算によって各関節の目標関節角度を算出する。 Movement control unit 17 receives the operation data generated by the motion generating unit 16, calculates the target joint angle of each joint by the inverse kinematics calculation. さらに、移動制御部17は、算出された目標関節角度等の制御目標値とエンコーダ19によって計測される現在の関節角度をもとに各関節を駆動するためのトルク制御値を算出する。 Furthermore, the movement control unit 17 calculates a torque control value for driving the respective joints based on the current joint angles measured by the control target value and the encoder 19 of the target joint angle and the like that are calculated. 移動制御部17によって算出されたトルク制御値に従って、アクチュエータ180が脚リンク181に設けられた関節を駆動することにより、ロボット100の歩行が行われる。 According to the torque control value calculated by the movement control unit 17, by driving the joint which is provided to the actuator 180 leg link 181, the walking of the robot 100 is performed.

続いて以下では、地図生成部13による環境地図の生成手順について図3〜6を参照して詳細に説明する。 Then hereinafter be described in detail with reference to FIGS 3-6 the procedure for generating an environmental map by the map generating unit 13. 図3は、地図生成部13による環境地図の生成手順の具体例を示すフローチャートである。 Figure 3 is a flowchart showing a specific example of a procedure of generating an environmental map by the map generating unit 13. ステップS101では、平面検出部131が、最新(第nフレームとする)の3次元位置データを入力して平面検出を行う。 In step S101, the planar detector 131 performs the flat panel detector by entering the three-dimensional position data of the latest (the n-th frame).

ステップS102では、信頼度判定部132が、最新の3次元位置データの信頼度を算出する。 In step S102, the reliability determination unit 132 calculates the reliability of the latest three-dimensional position data. また、ステップS103では、信頼度判定部132が、算出された信頼度が予め定められた基準を満足しているか否かを判定する。 In step S103, it determines the reliability determination unit 132, whether or not the calculated reliability satisfies the predetermined criteria.

ここで、3次元位置データの信頼度の具体例について説明する。 Here, a specific example of the reliability of the three-dimensional position data. 最新の3次元位置データの信頼度判定には、例えば、以下の(1)〜(3)の基準を用いればよい。 The reliability determination of the latest three-dimensional position data, for example, may be used the following criteria (1) to (3).
(1)前記過去の3次元位置データから検出された平面の位置及び前記移動ロボットの移動量を用いて算出される推定位置と、前記新たな3次元位置データから検出された平面の位置との一致度合い。 (1) the estimated position calculated using the position and movement amount of the mobile robot in the past three-dimensional position data from the detected plane, the position of the detected plane from the new three-dimensional position data matching degree.
(2)前記過去の3次元位置データより検出された平面を規定する平面パラメータと、前記新たな3次元位置データより検出された平面を規定する平面パラメータとの一致度合い。 (2) the degree of matching the plane parameters defining the detected plane from the three-dimensional position data of the past, the plane parameters defining the new three-dimensional position detected plane from the data.
(3)前記新たな3次元位置データを最小二乗法によって平面にフィッティングする際の最小二乗誤差が、予め定められた基準値より小さいこと。 (3) the least square error in fitting plane a new three-dimensional position data by the least square method is less that than a predetermined reference value.

図4は、上述の基準(1)〜(3)により信頼度判定を行う信頼度判定部132の構成例を示すブロック図である。 Figure 4 is a block diagram showing a configuration example of a reliability determination unit 132 that performs reliability determination by the above criteria (1) to (3). 図4において、平面重心算出部1321、平面重心記憶部1322、推定重心算出部1323、及び重心距離判定部1324は、上述の基準(1)による信頼度判定を行うための構成要素である。 4, the planar center of gravity calculating section 1321, the planar center of gravity storage unit 1322, the estimated centroid calculating unit 1323 and the center-of-gravity distance determining unit 1324, is a component for performing reliability determination by the reference (1) above.

平面重心算出部1321は、最新(第nフレーム)の3次元位置データと平面検出部131による平面検出結果とを入力し、検出された平面の重心C を算出する。 Flat centroid calculating unit 1321 inputs the planar detection result by the three-dimensional position data and the flat detector 131 of the latest (n-th frame), it calculates the center of gravity C n of the detected plane. ここで、平面の重心とは、平面と認識された3次元位置データ中の複数の点群の重心を意味する。 Here, the center of gravity of the plane, means the center of gravity of the plurality of point clouds of the three-dimensional position data is recognized as a plane.

平面重心記憶部1322は、平面重心算出部1321によって算出される平面重心C を記憶する。 Flat centroid storage unit 1322 stores the plane centroid C n calculated by the plane centroid calculating unit 1321.

推定重心算出部1323は、1フレーム前、すなわち第n−1フレームの平面重心C n−1を平面重心記憶部1322から読み出し、平面重心C n−1及びロボット100のオドメトリ情報を用いて推定重心Sを算出する。 Estimating the center of gravity calculation section 1323, the previous frame, i.e., the plane center of gravity C n-1 of the (n-1) -th frame read from the plane center of gravity storage unit 1322, the estimated center of gravity by using the odometry information plane centroid C n-1 and the robot 100 to calculate the S. ここで、推定重心Sとは、1フレーム前の平面重心C n−1を、ロボット100の移動量に応じて移動させることによって得られる最新の平面重心C の予想位置である。 Here, the estimated center of gravity S is one frame plane centroid C n-1 prior to, the expected position of the latest plane centroid C n obtained by moving in accordance with the amount of movement of the robot 100. 図5(a)は、過去の第n−1フレームにおける平面P12の重心位置C n−1と、推定重心Sを示す概念図である。 5 (a) is a center-of-gravity position C n-1 of plane P12 in the past of the n-1 frame is a conceptual diagram showing an estimated center of gravity S. 一方、図5(b)は、最新の第nフレームにおける平面P12の重心位置C を示す概念図である。 On the other hand, FIG. 5 (b) is a conceptual diagram illustrating a center of gravity position C n of the plane P12 in the latest of the n-th frame.

重心距離判定部1324は、最新の平面重心C と推定重心Sとの距離が予め定められた距離閾値D TH未満であるかによって、基準(1)の充足を判定する。 Centroid distance determining unit 1324 determines satisfaction of depending the distance between the most recent plane centroid C n and the estimated center of gravity S is smaller than a predetermined distance threshold D TH, the reference (1). 例えば、図5(a)及び(b)のように、最新の平面重心C と推定重心Sとが一致する場合は、基準(1)を充足すると判定される。 For example, as shown in FIG. 5 (a) and (b), in a case where the estimated center of gravity S and latest plane centroid C n match is determined to satisfy the criterion (1).

一方、図4の平面パラメータ比較部1325は、上述の基準(2)による信頼度判定を行う。 On the other hand, the plane parameter comparator 1325 of FIG. 4, performs the reliability determination based on the reference (2) above. 具体的には、平面パラメータ比較部1325は、第nフレームの平面パラメータと第n−1フレームの平面パラメータを比較し、これらの差が予め定められた範囲内であるか否かを判定する。 Specifically, the plane parameter comparator 1325 compares the plane parameter and plane parameters of the n-1 frame of the n-th frame, determines whether these differences are within a predetermined range.

また、図4の最小二乗誤差判定部1326は、上述の基準(3)による信頼度判定を行う。 The minimum square error decision unit 1326 in FIG. 4, performs the reliability determination based on the reference (3) above. 具体的には、最小二乗誤差判定部1326は、第nフレームの最小二乗法誤差が予め定められた基準値より小さいか否かを判定する。 Specifically, the minimum square error decision unit 1326 determines whether the least squares method the error of the n-th frame is less than the predetermined reference value. ここで、第nフレームの最小二乗法誤差とは、平面検出部131において、第nフレームの3次元位置データに含まれる点群の平面フィッティングを最小二乗法により行なった場合における、距離の二乗和の最小値である。 Here, the least squares method the error of the n-th frame, the flat detector 131, in a case where the planar fitting point group included in the three-dimensional position data of the n-th frame was performed by the method of least squares, the square of the distance sum which is the minimum value of.

最後に、総合判定部1327は、上述した基準(1)〜(3)の全てを満足する場合に、第nフレームの3次元位置データが所定の信頼度を満足するものと判定する。 Finally, the overall judgment section 1327, when satisfying all of the above criteria (1) to (3) determines that the three-dimensional position data of the n-th frame satisfies a predetermined level of reliability.

なお、上述した基準(1)〜(3)は、3次元位置データの信頼度の一例に過ぎないことはもちろんである。 Incidentally, the above-mentioned criteria (1) to (3) are of course not only an example of the reliability of the three-dimensional position data. 例えば、基準(1)〜(3)のうち少なくとも1つを用いて信頼度を評価してもよい。 For example, reference (1) to be evaluated the reliability using at least one of (3).

図3のフローチャートに戻り説明を続ける。 Returning to the flowchart of FIG. 3 the description will be continued. ステップS103の信頼度判定において、算出された信頼度が予め定められた基準を満足していると判定された場合(S103でOK)、地図更新部133は第nフレームの3次元位置データの補間処理を行う(ステップS104)。 In the reliability determination in step S103, if the calculated reliability is determined to satisfy the predetermined criteria (OK in S103), the interpolation map update unit 133 of the three-dimensional position data of the n-th frame process is performed (step S104). 具体的には、視覚センサ10の通信エラー等に起因して第nフレームの3次元位置データに含まれる点群にデータ抜けがある場合や、視覚センサ10の空間分解能が低いために3次元位置データの点群密度が疎である場合に、データ抜けのある領域や密度が疎な領域を周囲の点群データによって補間する。 Specifically, and if there is a missing data point group included in the three-dimensional position data of the n-th frame due to a communication error or the like of the visual sensor 10, the three-dimensional position due to the low spatial resolution of the visual sensor 10 If point cloud density data is sparse, area and density with data dropout interpolate the sparse area by the surrounding of the point group data. 当該補間処理は、線形補間などの公知のデータ補間手法を用いて行なえばよい。 The interpolation process may be performed using a known data interpolation method such as linear interpolation.

ステップS105では、地図更新部133が、最新の第nフレームの3次元位置データを旧環境地図に上書きして新たな環境地図を生成する。 In step S105, the map updating unit 133 overwrites the three-dimensional position data of the latest of the n-th frame in the old environment map generating a new environmental map. すなわち、地図更新部133は、最新の第nフレームの3次元位置データの測定領域と重複している旧環境地図の領域内のデータを破棄し、第nフレームの平面データと置き換える。 That is, the map update unit 133 discards the data in the area of ​​the old environment map overlaps with the measurement region of the three-dimensional position data of the latest of the n-th frame, replacing the plane data of the n-th frame.

例えば、図6(a)に示すように、旧環境地図が第(n−1)〜(n−k)フレームまでの過去のk枚のフレームを統合して生成されている場合を考える。 For example, as shown in FIG. 6 (a), consider a case where old environmental map is generated by integrating the first (n-1) ~ (n-k) past k frames to the frame. 旧環境地図は、段差の上面に相当する平面P12を含む。 Old environment map includes a plane P12 that corresponds to the upper surface of the step. 最新の第nフレーム内に平面P12の一部である部分61が含まれる場合、ステップS105の処理によって、部分61に対応する新環境地図上の領域が、最新(第nフレーム)の3次元位置データ、平面検出結果により上書きされる。 If they contain part 61 is a part of the plane P12 in the latest of the n-th frame, the processing of step S105, the region on the new environmental map corresponding to the portion 61, the three-dimensional position of the latest (n-th frame) data is overwritten by the plane detection result.

さらに、図6(b)は、図6(a)に引き続く第(n+1)フレームの処理を示している。 Further, FIG. 6 (b) shows the processing of the subsequent (n + 1) th frame in Figure 6 (a). 平面P12の部分61のさらに一部にあたる部分62が最新の第(n+1)フレーム内に含まれる場合、ステップS105の処理によって、部分62に対応する新環境地図上の領域が、第(n+1)フレームの3次元位置データ、平面検出結果により上書きされる。 If portion 62 further falls part of the portion 61 of the plane P12 is included in the latest (n + 1) th frame, the processing of step S105, the region on the new environmental map corresponding to the portion 62, the (n + 1) th frame three-dimensional position data of, is overwritten by the plane detection result.

一方、ステップS103の信頼度判定において、算出された信頼度が予め定められた基準を満足しないと判定された場合(S103でNG)、第nフレームの3次元位置データを破棄し、第n−1フレームまでの3次元位置データを統合して生成された環境地図を維持する。 On the other hand, the reliability determination in step S103, if the calculated reliability is determined to not satisfy the predefined criteria (in S103 NG), destroys the three-dimensional position data of the n-th frame, the n- the three-dimensional position data to a frame to keep the environment map generated by integrating.

上述したステップS105の処理、すなわち、過去の3次元位置データを元に生成された環境地図の領域を最新の3次元位置データによって上書きする処理によって、段差等のエッジが不明瞭となる弊害を防止し、エッジが精細に特定された環境地図を得ることができる。 The process of step S105 described above, i.e., prevented by the process for overwriting a region of past environmental map generated based on the three-dimensional position data with the latest three-dimensional position data, the adverse effect edge of the step or the like is unclear and, it is possible to obtain an environmental map an edge is identified finely.

また、最新フレームの3次元位置データに含まれない領域については、過去に取得された3次元位置データに基づいて生成された環境地図を利用して移動計画を行うことができるため、広範囲な移動空間に関して移動計画を実行することができる。 Further, since the area not included in the three-dimensional position data of the latest frame, which can perform movement plan by using the environment map generated based on the three-dimensional position data obtained in the past, a wide range of movement it is possible to execute the movement plan in relation to space.

さらに、上述したステップS106の処理、すなわち、信頼度の低い3次元位置データを環境地図に反映させないことによって、環境地図の精度低下を防止できる。 Furthermore, the process of step S106 described above, i.e., the low reliability three-dimensional position data by not reflected in the environment map, it is possible to prevent reduction of accuracy environmental map.

<その他の実施の形態> <Other Embodiments>
発明の実施の形態1では、脚歩行型のロボット100に本願発明を適用した例を示した。 In the first embodiment of the invention, an example of applying the present invention to the robot 100 of the leg walking type. しかしながら、ロボット100が車輪走行型などの脚歩行型以外の移動ロボットであってもよいことは勿論である。 However, the robot 100 may be a mobile robot other than the legs walk-like wheel running type is a matter of course.

また、発明の実施の形態1では、環境地図が平面検出結果を保持するグリッド地図であるとして説明したが、このような環境地図は一例である。 In the first embodiment of the invention, the environmental map is described as a grid map for holding a planar detection result, such an environment map is an example. 例えば、環境地図は、ロボット100が移動可能であるか、あるいは障害物の存在により移動不可能であるかを識別する値が各セルに保持されるグリッド地図でもよい。 For example, the environment map may be a grid map value identifying whether the robot 100 is not moved by the presence of either a movable or obstacle is held in each cell. この場合、地図生成部13は、3次元位置データから障害物を検出できればよく、平面検出処理は必ずしも行う必要がない。 In this case, the map generating unit 13, it is sufficient detects an obstacle from the three-dimensional position data, the planar detection processing is not necessary to always perform. また、このとき、3次元位置データの信頼度は、過去の3次元位置データに基づく障害物の推定位置と、最新の第nフレームにおける障害物位置との一致度合いを利用して評価すればよい。 At this time, the reliability of the three-dimensional position data may be evaluated using the estimated position of the obstacle based on the past three-dimensional position data, a degree of matching between the obstacle position in the latest of the n-th frame .

また、発明の実施の形態1では、環境地図が二次元のグリッド地図であるとして説明を行なった。 In the first embodiment of the invention, the environment map been explained as a grid map of the two-dimensional. しかしながら、環境地図は、三次元のグリッド地図でもよい。 However, the environment map may be a three-dimensional grid map.

さらに、本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。 Furthermore, the present invention is not limited only to the above embodiments, it is needless to say that various modifications may be made without departing from the scope of the present invention described above.

発明の実施の形態1にかかる移動ロボットの制御系を示すブロック図である。 Is a block diagram showing a control system of a mobile robot according to the first embodiment of the invention. 発明の実施の形態1にかかる移動ロボットが移動を行う移動空間の一例及び環境地図の一例を示す図である。 Mobile robot according to the first embodiment of the invention is a diagram showing an example of an example, and the environment map of the mobile space to move. 発明の実施の形態1にかかる移動ロボットによる環境地図の生成手順を示すフローチャートである。 Is a flow chart showing the procedure for generating the environment map by the mobile robot according to the first embodiment of the invention. 信頼度判定部の構成を示すブロック図である。 Is a block diagram showing the configuration of a reliability determination unit. 信頼度判定部による信頼度算出の具体例を説明するための図である。 It is a diagram for explaining a specific example of the reliability calculation by the reliability determination unit. 発明の実施の形態1にかかる移動ロボットによって生成される環境地図の特徴を説明するための図である。 It is a diagram for explaining the characteristics of the environment map generated by the mobile robot to the first embodiment of the invention. 背景技術にかかる環境地図生成方法を説明するための図である。 It is a diagram for explaining the environmental map generation method according to the background art.

符号の説明 DESCRIPTION OF SYMBOLS

100 移動ロボット11 視覚センサ12 3次元位置データ生成部13 地図生成部131 平面検出部132 信頼度判定部133 地図更新部14 環境地図記憶部15 移動計画部16 動作生成部17 移動制御部18 移動機構180 アクチュエータ181 脚リンク19 エンコーダ 100 mobile robot 11 visual sensor 12 three-dimensional position data generator 13 map generating unit 131 flat detector 132 reliability determining unit 133 map update unit 14 environment map storage unit 15 movement plan unit 16 operates generator 17 movement controller 18 moving mechanism 180 actuator 181 leg link 19 encoder

Claims (7)

  1. 環境地図を参照して移動空間内を移動する移動ロボットであって、 A mobile robot that moves the moving space with reference to the environment map,
    前記移動空間を視覚的に認識する視覚センサと、 A visual sensor visually recognizes the moving space,
    前記視覚センサによる計測結果を用いて、前記移動空間に存在する計測対象の位置を示す3次元位置データを生成する3次元位置データ生成部と、 Using the measurement result by the visual sensor, and the three-dimensional position data generator for generating a 3-dimensional position data indicating the position of the measurement object present in the mobile space,
    異なるロボット位置で計測された複数の前記3次元位置データを統合することにより、前記移動空間に関する環境地図を生成する環境地図生成部とを備え、 By integrating a plurality of the three-dimensional position data measured at different robot positions, and a environmental map generation unit for generating an environmental map about the movement space,
    前記環境地図生成部は、前記3次元位置データ生成部によって生成された新たな3次元位置データが予め定められた信頼度を有する場合に、前記新たな3次元位置データと重複する過去の環境地図内の領域を、前記新たな3次元位置データで上書き更新することによって新たな環境地図を生成する、 The environment map generating unit, when having a confidence that the new 3-dimensional position data is predetermined generated by the three-dimensional position data generator, past environmental map overlaps with the new three-dimensional position data the area of ​​the inner, and generates a new environmental map by overwritten by the new three-dimensional position data,
    移動ロボット。 Mobile robot.
  2. 前記新たな3次元位置データが前記信頼度を有しない場合に、前記新たな3次元位置データを前記新たな環境地図に反映させないことを特徴とする、請求項1に記載の移動ロボット。 Wherein when a new three-dimensional position data does not have the reliability, characterized in that it does not reflect the new three-dimensional position data to the new environmental map, the mobile robot according to claim 1.
  3. 前記信頼度は、過去に生成された3次元位置データから検出された平面の位置及び前記移動ロボットの移動量を用いて算出される推定位置と、前記新たな3次元位置データから検出された平面の位置との一致度合いを含む、請求項1又は2に記載の移動ロボット。 The reliability was detected from the estimated position calculated using the moving amount of the position and the mobile robot of the detected plane from the three-dimensional position data generated in the past, the new 3-dimensional position data plane including degree of matching between the positions of the mobile robot according to claim 1 or 2.
  4. 前記信頼度は、過去に生成された3次元位置データより検出された平面を規定する平面パラメータと、前記新たな3次元位置データより検出された平面を規定する平面パラメータとの一致度合いを含む、請求項1乃至3のいずれか1項に記載の移動ロボット。 The reliability includes a plane parameters defining the detected plane from the three-dimensional position data generated in the past, the degree of matching between the plane parameters defining the new three-dimensional position data from the detected plane, mobile robot according to any one of claims 1 to 3.
  5. 前記信頼度は、前記新たな3次元位置データを最小二乗法によって平面にフィッティングする際の最小二乗誤差が、予め定められた基準値より小さいことを含む、請求項1乃至4のいずれか1項に記載の移動ロボット。 The reliability, the least squares error in fitting the new three-dimensional position data on the plane by the least squares method comprises less than a predetermined reference value, any one of claims 1 to 4 moving robot according to.
  6. 移動ロボットの移動のために参照される環境地図の生成方法であって、 A method for generating an environmental map which is referred to for the movement of the mobile robot,
    視覚センサによる計測結果を用いて、前記移動ロボットの移動空間に存在する計測対象の位置を示す3次元位置データを生成するステップ(a)と、 Using the measurement result by the visual sensor, the steps of: (a) generating a three-dimensional position data indicating the position of the measurement object present in the movement space of the mobile robot,
    異なるロボット位置で計測された複数の前記3次元位置データを統合することにより、前記移動空間に関する環境地図を生成するステップ(b)とを備え、 By integrating a plurality of the three-dimensional position data measured at different robot positions, and a step (b) for generating an environmental map about the movement space,
    前記ステップ(b)では、新たな3次元位置データが予め定められた信頼度を有する場合に、前記新たな3次元位置データと重複する過去の環境地図内の領域を、前記新たな3次元位置データで上書き更新することによって新たな環境地図を生成する、 In the step (b), when having a new three-dimensional position data is predetermined reliability, the region in the past environmental map overlaps with the new three-dimensional position data, the new three-dimensional position to generate a new environment map by overwriting updated with the data,
    環境地図の生成方法。 The method of generating the environment map.
  7. 前記ステップ(b)では、前記新たな3次元位置データが前記信頼度を有しない場合に、前記新たな3次元位置データを前記新たな環境地図に反映させないことを特徴とする、請求項6に記載の環境地図の生成方法。 Wherein step (b), when the no new three-dimensional position data is the reliability, characterized in that it does not reflect the new three-dimensional position data to the new environment maps, in claim 6 the method of generating the environment map described.
JP2008032010A 2008-02-13 2008-02-13 Mobile robot and method for generating environment map Pending JP2009193240A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008032010A JP2009193240A (en) 2008-02-13 2008-02-13 Mobile robot and method for generating environment map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008032010A JP2009193240A (en) 2008-02-13 2008-02-13 Mobile robot and method for generating environment map

Publications (1)

Publication Number Publication Date
JP2009193240A true JP2009193240A (en) 2009-08-27

Family

ID=41075208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008032010A Pending JP2009193240A (en) 2008-02-13 2008-02-13 Mobile robot and method for generating environment map

Country Status (1)

Country Link
JP (1) JP2009193240A (en)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011055711A1 (en) * 2009-11-06 2011-05-12 株式会社日立製作所 Mobile robot system
WO2011078264A1 (en) * 2009-12-25 2011-06-30 本田技研工業株式会社 Image processing apparatus, image processing method, computer program, and mobile body
JP2012103819A (en) * 2010-11-08 2012-05-31 Fujitsu Ltd Position estimation method, position estimation device and program
JP2014203145A (en) * 2013-04-02 2014-10-27 パナソニック株式会社 Autonomous mobile apparatus
JP2015521880A (en) * 2012-06-27 2015-08-03 コーニンクレッカ フィリップス エヌ ヴェ Motion parameter estimation
JP2016045330A (en) * 2014-08-22 2016-04-04 株式会社Ihi Method and device for aligning three-dimensional point group data and mobile body system thereof
WO2016094013A1 (en) * 2014-12-11 2016-06-16 Toyota Motor Engineering & Manufacturing North America, Inc. Visual-assist robots
JP2016124401A (en) * 2014-12-26 2016-07-11 アイシン精機株式会社 Parking support device
JP2016180797A (en) * 2015-03-23 2016-10-13 株式会社豊田中央研究所 Road information generation device and program
JP2017501474A (en) * 2013-12-19 2017-01-12 アクチエボラゲット エレクトロルックス Robot vacuum cleaner and landmark recognition method
JP2017111688A (en) * 2015-12-17 2017-06-22 カシオ計算機株式会社 Autonomous mobile device, autonomous mobile method, and program
WO2017169598A1 (en) * 2016-03-30 2017-10-05 株式会社小松製作所 Terminal device, control device, data integration device, work vehicle, image-capturing system, and image-capturing method
US9811089B2 (en) 2013-12-19 2017-11-07 Aktiebolaget Electrolux Robotic cleaning device with perimeter recording function
WO2018038131A1 (en) * 2016-08-26 2018-03-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional information processing method and three-dimensional information processing apparatus
US9939529B2 (en) 2012-08-27 2018-04-10 Aktiebolaget Electrolux Robot positioning system
US9946263B2 (en) 2013-12-19 2018-04-17 Aktiebolaget Electrolux Prioritizing cleaning areas
WO2018131165A1 (en) * 2017-01-16 2018-07-19 富士通株式会社 Information processing program, information processing method, and information processing device
US10045675B2 (en) 2013-12-19 2018-08-14 Aktiebolaget Electrolux Robotic vacuum cleaner with side brush moving in spiral pattern
JP2018163614A (en) * 2017-03-27 2018-10-18 カシオ計算機株式会社 Autonomous mobile device, autonomous mobile method and program
US10108199B2 (en) 2015-12-10 2018-10-23 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
US10149589B2 (en) 2013-12-19 2018-12-11 Aktiebolaget Electrolux Sensing climb of obstacle of a robotic cleaning device
US10209080B2 (en) 2013-12-19 2019-02-19 Aktiebolaget Electrolux Robotic cleaning device
US10219665B2 (en) 2013-04-15 2019-03-05 Aktiebolaget Electrolux Robotic vacuum cleaner with protruding sidebrush
US10231591B2 (en) 2013-12-20 2019-03-19 Aktiebolaget Electrolux Dust container
US10296002B2 (en) 2016-03-14 2019-05-21 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method, and non-transitory recording medium
US10296009B2 (en) 2015-12-16 2019-05-21 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011055711A1 (en) * 2009-11-06 2011-05-12 株式会社日立製作所 Mobile robot system
JP5270767B2 (en) * 2009-11-06 2013-08-21 株式会社日立製作所 Mobile robot system
JP5624998B2 (en) * 2009-12-25 2014-11-12 本田技研工業株式会社 Image processing apparatus, image processing method, a computer program and a mobile
WO2011078264A1 (en) * 2009-12-25 2011-06-30 本田技研工業株式会社 Image processing apparatus, image processing method, computer program, and mobile body
US9488721B2 (en) 2009-12-25 2016-11-08 Honda Motor Co., Ltd. Image processing apparatus, image processing method, computer program, and movable body
JP2012103819A (en) * 2010-11-08 2012-05-31 Fujitsu Ltd Position estimation method, position estimation device and program
JP2015521880A (en) * 2012-06-27 2015-08-03 コーニンクレッカ フィリップス エヌ ヴェ Motion parameter estimation
US9939529B2 (en) 2012-08-27 2018-04-10 Aktiebolaget Electrolux Robot positioning system
JP2014203145A (en) * 2013-04-02 2014-10-27 パナソニック株式会社 Autonomous mobile apparatus
US10219665B2 (en) 2013-04-15 2019-03-05 Aktiebolaget Electrolux Robotic vacuum cleaner with protruding sidebrush
US10149589B2 (en) 2013-12-19 2018-12-11 Aktiebolaget Electrolux Sensing climb of obstacle of a robotic cleaning device
US9946263B2 (en) 2013-12-19 2018-04-17 Aktiebolaget Electrolux Prioritizing cleaning areas
US10209080B2 (en) 2013-12-19 2019-02-19 Aktiebolaget Electrolux Robotic cleaning device
JP2017501474A (en) * 2013-12-19 2017-01-12 アクチエボラゲット エレクトロルックス Robot vacuum cleaner and landmark recognition method
US9811089B2 (en) 2013-12-19 2017-11-07 Aktiebolaget Electrolux Robotic cleaning device with perimeter recording function
US10045675B2 (en) 2013-12-19 2018-08-14 Aktiebolaget Electrolux Robotic vacuum cleaner with side brush moving in spiral pattern
US10231591B2 (en) 2013-12-20 2019-03-19 Aktiebolaget Electrolux Dust container
JP2016045330A (en) * 2014-08-22 2016-04-04 株式会社Ihi Method and device for aligning three-dimensional point group data and mobile body system thereof
US9530058B2 (en) * 2014-12-11 2016-12-27 Toyota Motor Engineering & Manufacturing North America, Inc. Visual-assist robots
WO2016094013A1 (en) * 2014-12-11 2016-06-16 Toyota Motor Engineering & Manufacturing North America, Inc. Visual-assist robots
JP2016124401A (en) * 2014-12-26 2016-07-11 アイシン精機株式会社 Parking support device
JP2016180797A (en) * 2015-03-23 2016-10-13 株式会社豊田中央研究所 Road information generation device and program
US10108199B2 (en) 2015-12-10 2018-10-23 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
US10296009B2 (en) 2015-12-16 2019-05-21 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
US10012989B2 (en) 2015-12-17 2018-07-03 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
JP2017111688A (en) * 2015-12-17 2017-06-22 カシオ計算機株式会社 Autonomous mobile device, autonomous mobile method, and program
US10296002B2 (en) 2016-03-14 2019-05-21 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method, and non-transitory recording medium
WO2017169598A1 (en) * 2016-03-30 2017-10-05 株式会社小松製作所 Terminal device, control device, data integration device, work vehicle, image-capturing system, and image-capturing method
WO2018038131A1 (en) * 2016-08-26 2018-03-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional information processing method and three-dimensional information processing apparatus
WO2018131165A1 (en) * 2017-01-16 2018-07-19 富士通株式会社 Information processing program, information processing method, and information processing device
JP2018163614A (en) * 2017-03-27 2018-10-18 カシオ計算機株式会社 Autonomous mobile device, autonomous mobile method and program

Similar Documents

Publication Publication Date Title
Tardif et al. Monocular visual odometry in urban environments using an omnidirectional camera
Zhang et al. Visual-lidar odometry and mapping: Low-drift, robust, and fast
Wang et al. Simultaneous localization, mapping and moving object tracking
US9952053B2 (en) Adaptive mapping with spatial summaries of sensor data
US9766074B2 (en) Vision-aided inertial navigation
JP5362189B2 (en) The image processing apparatus and processing method
Chen Kalman filter for robot vision: a survey
KR100809352B1 (en) Method and apparatus of pose estimation in a mobile robot based on particle filter
US8233660B2 (en) System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system
US8564657B2 (en) Object motion detection system based on combining 3D warping techniques and a proper object motion detection
EP2112630A1 (en) Method and system for real-time visual odometry
US20110052043A1 (en) Method of mobile platform detecting and tracking dynamic objects and computer-readable medium thereof
US20110044504A1 (en) Information processing device, information processing method and program
US8855819B2 (en) Method and apparatus for simultaneous localization and mapping of robot
US7507948B2 (en) Method of detecting object using structured light and robot using the same
US8744665B2 (en) Control method for localization and navigation of mobile robot and mobile robot using the same
JP3561473B2 (en) Tracking object position-sensing method and vehicle
Levinson et al. Automatic Online Calibration of Cameras and Lasers.
EP2256574B1 (en) Autonomous mobile robot, self-position estimation method, environment map generation method, environment map generating device, and environment map generating computer program
US8218816B2 (en) Moving object detecting device and mobile robot
Koyasu et al. Recognizing moving obstacles for robot navigation using real-time omnidirectional stereo vision
JP5296746B2 (en) Localization method using the map to create a method and an apparatus and its map
Chong et al. Synthetic 2d lidar for precise vehicle localization in 3d urban environment
JP3843119B2 (en) Mobile motion calculation method and apparatus, and a navigation system
US8467902B2 (en) Method and apparatus for estimating pose of mobile robot using particle filter