JP2009169845A - Autonomous mobile robot and map update method - Google Patents

Autonomous mobile robot and map update method Download PDF

Info

Publication number
JP2009169845A
JP2009169845A JP2008009520A JP2008009520A JP2009169845A JP 2009169845 A JP2009169845 A JP 2009169845A JP 2008009520 A JP2008009520 A JP 2008009520A JP 2008009520 A JP2008009520 A JP 2008009520A JP 2009169845 A JP2009169845 A JP 2009169845A
Authority
JP
Japan
Prior art keywords
map
update
captured image
updated
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008009520A
Other languages
Japanese (ja)
Inventor
Yoshiaki Asahara
佳昭 朝原
Kazuhiro Mima
一博 美馬
Hidenori Yabushita
英典 藪下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008009520A priority Critical patent/JP2009169845A/en
Publication of JP2009169845A publication Critical patent/JP2009169845A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent an environmental map from being updated with a less-accurate map containing false recognition. <P>SOLUTION: The autonomous mobile robot 1 which moves within a moving space includes an update point determination part 18, an image display part 20, an adoption/rejection instruction input part 22 and a map update part 23. The update point determination part 18 determines an update point by comparing a new environmental map 131 with an old environmental map 130. The image display part 20 displays a photographic image of a point within the moving space which corresponds to the update point. The adoption/rejection instruction input part 22 inputs an adoption/rejection instruction of the update point by an operator. The map update part 23 creates an environmental map after update in which the update position is adopted or rejected according to the operator's adoption/rejection instruction. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、自律移動ロボットに関し、特に自律移動ロボットに参照される環境地図の更新方法に関する。   The present invention relates to an autonomous mobile robot, and more particularly to a method for updating an environmental map referred to by an autonomous mobile robot.

自律移動ロボット(以下、単に移動ロボットと呼ぶ)は、環境地図を参照することによって移動経路を計画し、当該移動経路に従って移動を行う。環境地図は、例えば、移動ロボットが移動を行う二次元の移動空間を格子状に分割し、格子に囲まれた各々のセルが移動可能なであるか否かを表したグリッド地図として作成される。   An autonomous mobile robot (hereinafter simply referred to as a mobile robot) plans a movement route by referring to an environment map, and moves according to the movement route. The environment map is created, for example, as a grid map that divides a two-dimensional movement space in which the mobile robot moves into a grid, and indicates whether each cell surrounded by the grid is movable. .

環境地図の作成は、例えば、視覚センサを搭載した移動ロボット自身によって行なわれる。具体的には、移動ロボットに搭載された視覚センサを用いて、移動ロボット自身が移動空間内を移動しながら外部環境を計測し、移動ロボットの移動量及び視覚センサによる計測データを用いて環境地図を生成する。移動ロボットの自己位置推定と環境地図の構築を同時に行なう技術は、SLAM(Simultaneous Localization and Mapping)と呼ばれる。移動ロボットは、移動空間の変化に対応するために、例えば定期的に新たな環境地図の生成を行い、新たに生成された環境地図により古い環境地図を更新する。なお、環境地図は、外部から移動ロボットに供給され、環境地図の更新のみを移動ロボットが行なう場合もある。   The environmental map is created, for example, by the mobile robot itself equipped with a visual sensor. Specifically, using the visual sensor mounted on the mobile robot, the mobile robot itself measures the external environment while moving in the mobile space, and uses the movement amount of the mobile robot and the measurement data from the visual sensor to map the environment. Is generated. A technique for simultaneously estimating the position of a mobile robot and constructing an environment map is called SLAM (Simultaneous Localization and Mapping). In order to respond to changes in the moving space, the mobile robot periodically generates a new environment map, for example, and updates the old environment map with the newly generated environment map. The environment map may be supplied to the mobile robot from the outside, and the mobile robot may only update the environment map.

ところで、特許文献1及び2には、自動車、船舶等の航行経路を人に提示するために地図表示を行なうナビゲーションシステムが開示されている。特許文献1及び2に開示されたナビゲーションシステムは、地図の自動更新を行なう機能を有し、さらに、地図の更新後に、更新前の旧地図と更新後の新地図との差分箇所、すなわち更新箇所を強調表示して人に知らせるものである。
特開2002−188926号公報 特開2007−171788号公報
By the way, Patent Documents 1 and 2 disclose a navigation system that displays a map in order to present a navigation route such as an automobile or a ship to a person. The navigation systems disclosed in Patent Documents 1 and 2 have a function of automatically updating a map. Further, after the map is updated, the difference between the old map before the update and the new map after the update, that is, the update location Is highlighted to inform people.
JP 2002-188926 A JP 2007-171788 A

上述したように環境地図を自動的に更新することができる移動ロボットは古くから研究されている。しかしながら、外部環境の誤認識が少なく精度の高い環境地図を安定的に生成することは未だ困難である。このため、誤認識を含む精度の低い地図が新しい環境地図として更新されてしまうという問題がある。例えば、環境地図の作成時に、一時的に移動空間内に存在する人物などの障害物(以下、移動障害物と呼ぶ)を認識してしまうことにより、移動障害物が位置していた領域が移動不可能な障害物領域として新たな環境地図に含まれてしまう。このような精度の低い環境地図に基づいて移動経路の計画を行なうと、最適な移動経路を得られない等の弊害を生じるおそれがある。   As described above, mobile robots that can automatically update the environment map have been studied for a long time. However, it is still difficult to stably generate a highly accurate environmental map with few misrecognitions of the external environment. For this reason, there is a problem that a map with low accuracy including erroneous recognition is updated as a new environment map. For example, when creating an environmental map, the area where the moving obstacle was located moves by recognizing an obstacle such as a person temporarily present in the moving space (hereinafter referred to as a moving obstacle). It will be included in the new environmental map as an impossible obstacle area. If a travel route is planned based on such a low-accuracy environmental map, there is a risk that an adverse effect such as an inability to obtain an optimum travel route will occur.

なお、特許文献1及び2に開示された技術は、更新後の地図を表示する際に更新箇所を強調表示する等して人に知らせるのみである。このため、誤認識を含む精度の低い地図によって旧環境地図が更新されてしまう上記の問題を解決できるものではない。   Note that the techniques disclosed in Patent Documents 1 and 2 only notify a person by highlighting an updated location when displaying an updated map. For this reason, it is not possible to solve the above-described problem that the old environment map is updated by a map with low accuracy including erroneous recognition.

本発明は上述した知見に基づいてなされたものであって、本発明の目的は、誤認識を含む精度の低い地図によって環境地図が更新されることを防止可能な自律移動ロボット及び地図更新方法を提供することである。   The present invention has been made on the basis of the above-described knowledge, and an object of the present invention is to provide an autonomous mobile robot and a map updating method capable of preventing an environmental map from being updated by a map with low accuracy including erroneous recognition. Is to provide.

本発明の第1の態様は、移動空間内を自律移動するとともに、前記移動空間に関する環境地図を更新する機能を有する自律移動ロボットである。当該移動ロボットは、更新箇所判定部、画像表示部、採否指示入力部、及び地図更新部を備える。前記更新箇所判定部は、新環境地図と旧環境地図とを比較して更新箇所を判定する。前記画像表示部は、前記更新箇所に対応する前記移動空間内の地点が撮影された撮影画像を表示する。前記採否指示入力部は、オペレータによる前記更新箇所の採否指示を入力する。また、前記地図更新部は、前記採否指示に従って前記更新箇所が採用又は棄却された更新後の環境地図を生成する。   A first aspect of the present invention is an autonomous mobile robot having a function of autonomously moving in a moving space and updating an environmental map related to the moving space. The mobile robot includes an update location determination unit, an image display unit, an acceptance / rejection instruction input unit, and a map update unit. The update location determination unit compares the new environment map and the old environment map to determine an update location. The said image display part displays the picked-up image by which the point in the said movement space corresponding to the said update location was image | photographed. The acceptance / rejection instruction input unit inputs an acceptance / rejection instruction for the updated portion by an operator. The map update unit generates an updated environment map in which the update location is adopted or rejected according to the acceptance / rejection instruction.

本発明の第2の態様にかかる地図更新方法は、移動空間内を自律移動する自律移動ロボットにおける前記移動空間に関する環境地図の更新方法である。当該方法は、以下のステップ(a)〜(d)を含む。
新環境地図と旧環境地図とを比較して更新箇所を判定するステップ(a)、
前記更新箇所に対応する前記移動空間内の地点が撮影された撮影画像を表示するステップ(b)、
オペレータによる前記更新箇所の採否指示を入力するステップ(c)、及び
前記採否指示に従って前記更新箇所が採用又は棄却された更新後の環境地図を生成するステップ(d)。
The map update method according to the second aspect of the present invention is an update method of an environmental map related to the moving space in an autonomous mobile robot that autonomously moves in the moving space. The method includes the following steps (a) to (d).
A step (a) of comparing the new environment map with the old environment map to determine an update location;
A step (b) of displaying a photographed image obtained by photographing a point in the moving space corresponding to the update location;
A step (c) of inputting an acceptance / rejection instruction of the updated portion by an operator, and a step (d) of generating an updated environmental map in which the updated portion is adopted or rejected in accordance with the acceptance / rejection instruction.

上述した本発明の第1及び第2の態様によれば、例えば、新環境地図の作成の際に一時的に移動空間内に存在していた人物を障害物として誤認識したために、人物が存在していた空間が障害物領域として新環境地図に含まれていた場合であっても、人物が写っている撮影画像をオペレータに提示でき、オペレータに誤認識に基づく更新箇所であるか否かを適確に判断させることができる。そして、撮影画像を閲覧したオペレータの採否判断に基づいて更新箇所が採用又は棄却された更新後の環境地図を生成するため、人物等の移動障害物が更新後の環境地図に障害物領域として登録されてしまうことを防止できる。   According to the first and second aspects of the present invention described above, for example, a person exists because a person who was temporarily present in the moving space at the time of creating the new environment map was erroneously recognized as an obstacle. Even if the space that has been included is included in the new environment map as an obstacle area, it is possible to present the photographed image showing the person to the operator, and whether the operator is an update location based on misrecognition It is possible to make an appropriate judgment. Then, in order to generate an updated environmental map in which the updated part is adopted or rejected based on the acceptance decision of the operator who has viewed the captured image, a moving obstacle such as a person is registered as an obstacle area in the updated environmental map Can be prevented.

なお、上述した本発明の第1の態様にかかる自律移動ロボットは、撮影部、自己位置推定部、記憶部及び表示画像決定部をさらに備えてもよい。ここで、前記撮影部は、前記撮影画像を取得する。前記自己位置推定部は、当該自律移動ロボットの自己位置を推定する。前記記憶部は、前記撮影画像及び前記撮影画像の取得がなされた前記自己位置を示す位置情報を記憶する。前記表示画像決定部は、前記更新箇所に対応する前記移動空間内の地点が撮影された前記撮影画像を前記位置情報に基づいて決定し、決定した撮影画像を前記画像表示部に表示させる。このような構成により、自律移動ロボット自身が、更新箇所に関する撮影画像の生成及び記憶を行なうことができる。   The autonomous mobile robot according to the first aspect of the present invention described above may further include a photographing unit, a self-position estimating unit, a storage unit, and a display image determining unit. Here, the imaging unit acquires the captured image. The self-position estimation unit estimates the self-position of the autonomous mobile robot. The said memory | storage part memorize | stores the positional information which shows the said self-position where the acquisition of the said picked-up image and the said picked-up image was made | formed. The display image determination unit determines, based on the position information, the captured image in which a point in the movement space corresponding to the update location is captured, and causes the image display unit to display the determined captured image. With such a configuration, the autonomous mobile robot itself can generate and store a captured image related to the updated location.

また、上述した本発明の第1の態様にかかる自律移動ロボットは、前記画像表示部による前記撮影画像の表示に連動して前記更新箇所を表示する地図表示部をさらに備えてもよい。このような構成により、更新箇所の位置と撮影画像とを関連付けてオペレータに提示でき、オペレータの採否判断を一層支援できる。   The autonomous mobile robot according to the first aspect of the present invention described above may further include a map display unit that displays the updated location in conjunction with the display of the captured image by the image display unit. With such a configuration, the position of the update location and the captured image can be associated with each other and presented to the operator, and the operator's acceptance decision can be further supported.

本発明により、誤認識を含む精度の低い地図によって環境地図が更新されることを防止可能な自律移動ロボット及び地図更新方法を提供できる。   According to the present invention, it is possible to provide an autonomous mobile robot and a map update method capable of preventing an environmental map from being updated by a map with low accuracy including erroneous recognition.

以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted as necessary for the sake of clarity.

<発明の実施の形態1>
本実施の形態にかかる自律移動ロボット1(以下、単にロボット1と呼ぶ)の自律移動に関する制御系の構成を図1に示す。図1において、視覚センサ11は、ロボット1の外界の距離画像データを取得する。具体的には、レーザレンジファインダ等のアクティブ距離センサによって距離画像データを取得すればよい。なお、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を備えた複数のカメラを備え、これら複数のカメラによって撮影した画像データを用いて距離画像データを生成してもよい。具体的には、複数のカメラによって撮影した画像データから対応点を検出し、ステレオ視によって対応点の3次元位置を復元すればよい。ここで、複数の撮影画像における対応点の探索は、複数の撮影画像に対する時空間微分の拘束式を用いた勾配法や相関法等の公知の手法を適用して行えばよい。
<Embodiment 1 of the Invention>
FIG. 1 shows the configuration of a control system related to autonomous movement of an autonomous mobile robot 1 (hereinafter simply referred to as robot 1) according to the present embodiment. In FIG. 1, the visual sensor 11 acquires distance image data of the outside world of the robot 1. Specifically, distance image data may be acquired by an active distance sensor such as a laser range finder. It has a plurality of cameras equipped with an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and generates distance image data using image data captured by these cameras. May be. Specifically, the corresponding points may be detected from image data captured by a plurality of cameras, and the three-dimensional positions of the corresponding points may be restored by stereo viewing. Here, the search for corresponding points in a plurality of captured images may be performed by applying a known method such as a gradient method or a correlation method using a time-space differential constraint formula for the plurality of captured images.

環境地図生成部12は、距離画像データを用いて、ロボット1が移動を行なう移動空間に関する環境地図を生成する。以下の説明では、環境地図が、移動空間を二次元格子状に分割したグリッド地図であるとして説明する。グリッド地図として作成された環境地図を構成する各セルは、少なくともロボット1が移動可能であるか否かを示す値を保持する。以下では、ロボット1が移動可能なセルを「移動可能セル」と呼び、移動不可能なセルを「壁セル」と呼ぶ。なお、移動不可能なセルをさらに分類してもよく、例えば、ロボット1が位置する場所から見て障害物を介して向こう側に位置し、未観測であるために移動不可能であるセルを「未知セル」として、観測済みの「壁セル」と分類してもよい。   The environment map generation unit 12 generates an environment map related to a moving space in which the robot 1 moves using the distance image data. In the following description, the environment map will be described as a grid map obtained by dividing the movement space into a two-dimensional grid. Each cell constituting the environmental map created as a grid map holds at least a value indicating whether or not the robot 1 is movable. Hereinafter, a cell to which the robot 1 can move is called a “movable cell”, and a cell that cannot move is called a “wall cell”. In addition, cells that cannot be moved may be further classified. For example, cells that are located on the other side through an obstacle as viewed from the position where the robot 1 is located and that cannot be moved because they have not been observed. The “unknown cell” may be classified as an “wall cell” that has been observed.

ロボット1により作成される環境地図の一例を図2に示す。図2の環境地図130は、縦12ピクセル×横16ピクセルのグリッド地図である。図2において、セル1300を含む白抜きのセルは「移動可能セル」を示し、セル1301を含む斜線でハッチングされたセルは「壁セル」を示している。環境地図130の各セルが、「移動可能セル」であるか「壁セル」であるかは、例えば、1ビットの値により識別すればよい。具体的には、セルの値が0のとき「移動可能セル」を示し、1のとき「壁セル」を示すこととすればよい。   An example of the environment map created by the robot 1 is shown in FIG. The environment map 130 of FIG. 2 is a grid map of vertical 12 pixels × horizontal 16 pixels. In FIG. 2, white cells including the cell 1300 indicate “movable cells”, and hatched cells including the cell 1301 indicate “wall cells”. Whether each cell of the environmental map 130 is a “movable cell” or a “wall cell” may be identified by a 1-bit value, for example. Specifically, a “movable cell” may be indicated when the cell value is 0, and a “wall cell” may be indicated when the cell value is 1.

環境地図生成部12による環境地図の生成は、例えば、視覚センサ11の計測から得られる距離画像データと、後述するエンコーダ144により取得されるオドメトリ情報を入力として、例えば、スキャンマッチング又は確率推定手法などの公知の手法を用いて行なえばよい。   For example, the environmental map generation unit 12 generates the environmental map by using, for example, distance image data obtained from the measurement of the visual sensor 11 and odometry information acquired by an encoder 144 described later as an input, for example, scan matching or a probability estimation method. Any known method may be used.

環境地図データベース13は、環境地図データを格納するデータベースである。図1の例では、環境地図データベース13は、旧環境地図130、新環境地図131、及び更新後の環境地図132を格納する。旧環境地図130は、古い環境地図である。新環境地図131は、環境地図生成部12によって新たに生成された環境地図である。また、更新後の環境地図132は、旧環境地図130と新環境地図131の間の複数の更新箇所から移動障害物の誤認識などに起因する更新箇所を除外することによって、新環境地図131に含まれる有意な更新箇所のみが選択的に反映された環境地図である。   The environmental map database 13 is a database that stores environmental map data. In the example of FIG. 1, the environment map database 13 stores an old environment map 130, a new environment map 131, and an updated environment map 132. The old environment map 130 is an old environment map. The new environment map 131 is an environment map newly generated by the environment map generation unit 12. In addition, the updated environment map 132 is changed to the new environment map 131 by excluding the update locations caused by misrecognition of moving obstacles from a plurality of update locations between the old environment map 130 and the new environment map 131. It is an environmental map in which only significant update points included are selectively reflected.

なお、図1では、旧環境地図130、新環境地図131及び更新後の環境地図132が、環境地図データベース13内に同時に格納されているように図示しているが、これは説明のために便宜的に示しているに過ぎない。例えば、旧環境地図130及び新環境地図131は、更新後の環境地図132の生成後に削除されてもよい。新たに新環境地図131の生成が行われた場合には、それまで更新後の環境地図132としてロボット1の自律移動制御に利用されてきた環境地図を、旧環境地図130とすればよい。   In FIG. 1, the old environment map 130, the new environment map 131, and the updated environment map 132 are illustrated as being simultaneously stored in the environment map database 13, but this is for convenience of explanation. It is only an example. For example, the old environment map 130 and the new environment map 131 may be deleted after the updated environment map 132 is generated. When a new environment map 131 is newly generated, the environment map that has been used for the autonomous movement control of the robot 1 as the updated environment map 132 may be used as the old environment map 130.

自律移動部14は、環境地図データベース13に格納された更新後の環境地図132を参照し、自律移動制御を実行する。図3は、ロボット1を車輪走行型とした場合の自律移動部14の一例を示すブロック図である。なお、ロボット1が脚歩行型などの車輪走行型以外の移動ロボットであってもよいことは勿論である。   The autonomous mobile unit 14 refers to the updated environmental map 132 stored in the environmental map database 13 and executes autonomous mobile control. FIG. 3 is a block diagram illustrating an example of the autonomous moving unit 14 when the robot 1 is of a wheel traveling type. Needless to say, the robot 1 may be a mobile robot other than a wheeled type such as a leg-walking type.

図3において、動作計画部140は、更新後の環境地図132、視覚センサ11によって取得された外界情報などに基づいて、ロボット1の動作内容を決定する。より具体的に延べると、動作計画部140は、ロボット1の移動経路、目標移動速度、目標加速度、及びロボット1が備える関節(不図示)の目標角度軌道などを生成する。   In FIG. 3, the motion planning unit 140 determines the motion content of the robot 1 based on the updated environment map 132, external information acquired by the visual sensor 11, and the like. More specifically, the motion planning unit 140 generates a movement path of the robot 1, a target movement speed, a target acceleration, a target angle trajectory of a joint (not shown) included in the robot 1, and the like.

動作制御部141は、動作計画部140により決定された目標移動速度又は目標加速度などの制御目標値と、エンコーダ144によって計測される車輪143の回転量を入力してフィードバック制御を実行し、車輪143を回転駆動するためのトルク制御値を算出する。動作制御部141によって算出されたトルク制御値に従って駆動部142が車輪143を駆動することにより、ロボット1の移動が行なわれる。   The motion control unit 141 executes the feedback control by inputting the control target value such as the target moving speed or the target acceleration determined by the motion planning unit 140 and the rotation amount of the wheel 143 measured by the encoder 144, and executes the wheel control 143. A torque control value for rotationally driving is calculated. The drive unit 142 drives the wheels 143 according to the torque control value calculated by the operation control unit 141, so that the robot 1 is moved.

図1に戻って説明を続ける。撮影部15は、ロボット1の周囲の外部環境を撮影し、撮影画像170を取得する。例えば、撮影部15は、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を備えた1台又は複数台のデジタルカメラとすればよい。また、撮影部15は、ロボット1の周囲360度を撮影可能な全方位カメラとしてもよい。   Returning to FIG. 1, the description will be continued. The imaging unit 15 captures an external environment around the robot 1 and acquires a captured image 170. For example, the photographing unit 15 may be one or a plurality of digital cameras including an image sensor such as a charge coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS) image sensor. Further, the photographing unit 15 may be an omnidirectional camera capable of photographing 360 degrees around the robot 1.

自己位置推定部16は、ロボット1の自己位置、即ち移動空間内におけるロボット1の絶対位置を算出する。自己位置推定部16は、エンコーダ144により取得されるオドメトリから自己位置を推定するとともに、視覚センサ11によって得られた距離画像データと旧環境地図130とのマッチングによってオドメトリの累積誤差を補正し、自己位置をトラッキングするとよい。撮影部15による撮影画像170の取得に合わせて自己位置推定部16がロボット1の自己位置を算出することにより、撮影画像170の取得が行なわれた撮影位置が得られる。なお、ロボット1の自己位置には、二次元床面上におけるロボット1の位置を示す二次元座標Xs及びYsと、ロボット1の向きを示す姿勢角θsを含めるとよい。姿勢角θsを含めるのは、撮影部15による撮影方向を特定するためである。   The self-position estimation unit 16 calculates the self-position of the robot 1, that is, the absolute position of the robot 1 in the movement space. The self-position estimation unit 16 estimates the self-position from the odometry acquired by the encoder 144 and corrects the accumulated error of the odometry by matching the distance image data obtained by the visual sensor 11 with the old environment map 130. It is good to track the position. The self-position estimating unit 16 calculates the self-position of the robot 1 in accordance with the acquisition of the photographed image 170 by the photographing unit 15, thereby obtaining the photographing position where the photographed image 170 is acquired. Note that the self-position of the robot 1 may include two-dimensional coordinates Xs and Ys indicating the position of the robot 1 on the two-dimensional floor surface, and an attitude angle θs indicating the orientation of the robot 1. The reason for including the posture angle θs is to specify the photographing direction by the photographing unit 15.

撮影画像記憶部17は、撮影画像170と撮影時のロボット1の自己位置を示す撮影位置情報171を格納する。例えば、撮影画像記憶部17は、撮影画像170に関連付けられたメタデータとして撮影位置情報171を保持してもよい。また、撮影画像記憶部17は、撮影画像170と撮影位置情報171に共通の識別子(シーケンス番号、撮影時刻情報等)を付与し、この識別子によって撮影画像170と撮影位置情報171の対応付けを行なえるように保持してもよい。また、撮影画像記憶部17には、DRAM、フラッシュメモリ若しくは磁気ディスク又はこれらの組み合わせ等の任意のデータ記録媒体を利用可能である。   The photographed image storage unit 17 stores a photographed image 170 and photographing position information 171 indicating the self position of the robot 1 at the time of photographing. For example, the captured image storage unit 17 may hold the captured position information 171 as metadata associated with the captured image 170. The captured image storage unit 17 assigns a common identifier (sequence number, shooting time information, etc.) to the captured image 170 and the captured position information 171, and can associate the captured image 170 with the captured position information 171 using this identifier. You may hold so that. The photographed image storage unit 17 can use any data recording medium such as a DRAM, a flash memory, a magnetic disk, or a combination thereof.

更新箇所判定部18は、旧環境地図130と新環境地図131との差分に基づいて、新環境地図131における旧環境地図130からの更新箇所を判定する。以下では、更新箇所の判定手順の具体例について、図4を用いて説明する。図4の上段部分の2枚の地図は、旧環境地図130及び新環境地図131の一例を示している。ここで、右下がり斜線でハッチングされたセルは「壁セル」であり、その他の白抜きセルは「移動可能セル」である。   The update location determination unit 18 determines an update location from the old environment map 130 in the new environment map 131 based on the difference between the old environment map 130 and the new environment map 131. Below, the specific example of the determination procedure of an update location is demonstrated using FIG. The two maps in the upper part of FIG. 4 show examples of the old environment map 130 and the new environment map 131. Here, the cells hatched with the downward slanted diagonal lines are “wall cells”, and the other white cells are “movable cells”.

更新箇所判定部18は、これら旧環境地図130及び新環境地図131の差分箇所を算出する。図4の中段の地図41は、更新箇所判定部18により算出された差分箇所411〜413を示している。このうち、差分箇所411及び413は、新環境地図131において新たに登録された壁セルに起因する差分である。このような差分は、家具等の新たな障害物が移動空間内に設置された場合や、人物等の移動障害物が存在している場合に出現する。一方、差分箇所412は、旧環境地図130に存在していた壁セルが新環境地図131において消去されたことに起因する差分である。このような差分は、移動空間内に設置されていた家具等の障害物が移動空間から取り去られた場合に現れる。   The update location determination unit 18 calculates a difference location between the old environment map 130 and the new environment map 131. A map 41 in the middle of FIG. 4 shows the difference points 411 to 413 calculated by the update point determination unit 18. Among these, the difference locations 411 and 413 are differences caused by the newly registered wall cells in the new environment map 131. Such a difference appears when a new obstacle such as furniture is installed in the moving space or when a moving obstacle such as a person exists. On the other hand, the difference portion 412 is a difference caused by the wall cell that existed in the old environment map 130 being deleted in the new environment map 131. Such a difference appears when an obstacle such as furniture installed in the moving space is removed from the moving space.

なお、視覚センサ11により得られる距離画像データ及びエンコーダ情報の積算により得られるオドメトリは、共に誤差を含む。このため、更新箇所判定部18は、図4の中段に示す差分箇所の中から、これらの誤差に起因すると考えられる差分箇所を除いた残りの箇所を更新箇所に決定するとよい。例えば、差分箇所の大きさ(隣接するセル数)に閾値を設定しておき、当該閾値に満たない小さな差分箇所を更新箇所から除外するとよい。具体例を示すと、更新箇所の大きさの下限閾値を3セルとし、大きさが下限閾値に満たない差分箇所を更新箇所から除外すればよい。図4の下段の地図42は、更新箇所判定部18により算出された更新箇所421及び423を示している。地図42では、セル数が1である差分箇所412が削除されている。   The odometry obtained by integrating the distance image data obtained by the visual sensor 11 and the encoder information includes both errors. For this reason, the update location determination part 18 is good to determine the remaining location except the difference location considered to be originated in these errors from the difference locations shown in the middle of FIG. For example, a threshold value may be set for the size of the difference part (number of adjacent cells), and a small difference part that does not satisfy the threshold value may be excluded from the update part. As a specific example, the lower limit threshold of the size of the update location is set to 3 cells, and the difference location whose size is less than the lower limit threshold may be excluded from the update location. A lower map 42 in FIG. 4 shows update locations 421 and 423 calculated by the update location determination unit 18. In the map 42, the difference portion 412 having 1 cell is deleted.

表示画像決定部19は、撮影画像記憶部17に記憶された複数の撮影画像170の中から更新箇所の地点が撮影された撮影画像を選択し、後述する画像表示部20に表示させる。表示画像決定部19による撮影画像選択の具体的手順については後述する。   The display image determination unit 19 selects a captured image in which the location of the updated portion is captured from the plurality of captured images 170 stored in the captured image storage unit 17 and causes the image display unit 20 described later to display the captured image. A specific procedure for selecting a captured image by the display image determination unit 19 will be described later.

画像表示部20は、表示画像決定部19により選択された撮影画像を表示する。画像表示部20には、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)ディスプレイ等の任意の画像表示装置が使用可能である。   The image display unit 20 displays the captured image selected by the display image determination unit 19. As the image display unit 20, any image display device such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube) display can be used.

地図表示部21は、更新箇所判定部18により判定された更新箇所を表示する。地図表示部21は、図4の下段の地図42のように、旧環境地図130及び新環境地図131に対応した地図形式で更新箇所を表示するとよい。画像表示部20と同様に、地図表示部21にもLCD、CRTディスプレイ等の任意の画像表示装置が使用可能である。また、地図表示部21は、上述した画像表示部20と共通の画像表示装置としてもよい。また、共通の画像表示装置の表示画面を分割することによって、更新箇所を示す地図と撮影画像とを同時に表示してもよい。   The map display unit 21 displays the update location determined by the update location determination unit 18. The map display unit 21 may display the update location in a map format corresponding to the old environment map 130 and the new environment map 131, as in the map 42 in the lower part of FIG. Similar to the image display unit 20, any image display device such as an LCD or a CRT display can be used for the map display unit 21. Further, the map display unit 21 may be an image display device common to the image display unit 20 described above. Further, by dividing the display screen of the common image display device, a map indicating the update location and the captured image may be displayed simultaneously.

採否指示入力部22は、オペレータによる更新箇所を採用するか否かを示す採否指示の入力を受け付ける。採否指示入力部22は、マウス、タブレットペン、タッチパネル等の入力デバイスを用いて構成すればよい。   The acceptance / rejection instruction input unit 22 accepts an input of a acceptance / rejection instruction indicating whether or not to adopt an updated part by the operator. The acceptance / rejection instruction input unit 22 may be configured using an input device such as a mouse, a tablet pen, or a touch panel.

地図更新部23は、オペレータの採否指示に応じて更新箇所の採否を決定し、オペレータにより採用された更新箇所を旧環境地図130に反映するとともに、オペレータにより棄却された更新箇所を除外することによって、自律移動部14による自律移動制御に使用される更新後の環境地図132を生成する。   The map updating unit 23 determines whether or not to update the part according to the operator's acceptance instruction, reflects the updated part adopted by the operator in the old environment map 130, and excludes the updated part rejected by the operator. The updated environmental map 132 used for autonomous movement control by the autonomous moving unit 14 is generated.

上述したように、本実施の形態にかかるロボット1は、更新箇所に対応する地点が撮影された撮影画像を表示してオペレータに提示すること、オペレータによる更新箇所の採否指示に従って更新箇所が反映又は棄却された更新後の環境地図132を生成することを特徴としている。以下では、図5のフローチャートを参照して、新環境地図の生成から環境地図の更新までの処理手順を改めて説明する。加えて、図6のフローチャートを参照して、表示画像決定部19による撮影画像の選択手順を詳細に説明する。   As described above, the robot 1 according to the present embodiment displays a captured image in which a spot corresponding to the update location is captured and presents it to the operator, and the update location is reflected in accordance with the update location adoption instruction from the operator. It is characterized by generating an updated updated environmental map 132. Hereinafter, with reference to the flowchart of FIG. 5, a processing procedure from generation of a new environment map to update of the environment map will be described again. In addition, the procedure for selecting a captured image by the display image determination unit 19 will be described in detail with reference to the flowchart of FIG.

図5のステップS11では、環境地図生成部12が新環境地図131を生成する。ステップS12では、撮影部15が撮影画像170を取得する。取得された撮影画像170は、撮影時のロボット1の自己位置を示す撮影位置情報171とともに、撮影画像記憶部17に保存される。なお、図5におけるステップS11とS12の順序は、説明のための便宜的なものである。つまり、撮影画像170の取得は、新環境地図131の生成と並行して行われてもよいし、新環境地図131の生成前に行われてもよい。   In step S <b> 11 of FIG. 5, the environment map generation unit 12 generates a new environment map 131. In step S <b> 12, the imaging unit 15 acquires the captured image 170. The acquired captured image 170 is stored in the captured image storage unit 17 together with the captured position information 171 indicating the self position of the robot 1 at the time of capturing. Note that the order of steps S11 and S12 in FIG. 5 is for convenience of explanation. That is, the captured image 170 may be acquired in parallel with the generation of the new environment map 131 or may be performed before the generation of the new environment map 131.

ステップS13では、更新箇所判定部18が、新環境地図131における旧環境地図130からの更新箇所を判定する。   In step S <b> 13, the update location determination unit 18 determines an update location from the old environment map 130 in the new environment map 131.

ステップS14では、更新箇所判定部18により判定された更新箇所の各々について、画像表示部20に表示すべき表示画像を決定する。ここで、1つの更新箇所に対して1つの表示画像を決定する手順の具体例を図6のフローチャートに従って説明する。   In step S <b> 14, a display image to be displayed on the image display unit 20 is determined for each update location determined by the update location determination unit 18. Here, a specific example of a procedure for determining one display image for one update location will be described with reference to the flowchart of FIG.

ステップS21では、更新箇所の平均座標を算出する。例えば、環境地図面をXY平面とする場合、更新箇所に含まれる複数のセルのX座標の平均値Xm及びY座標の平均値Ymを算出し、(Xm,Ym)を更新箇所の平均座標とすればよい。   In step S21, the average coordinates of the updated location are calculated. For example, when the environmental map plane is an XY plane, the average value Xm of the X coordinates and the average value Ym of the Y coordinates of a plurality of cells included in the update location are calculated, and (Xm, Ym) is set as the average coordinate of the update location. do it.

続いて、ステップS22〜S27では、撮影画像記憶部17に記憶されている全ての撮影位置情報171を順次読み出して、更新箇所の平均座標と撮影位置との距離を算出する。ステップS22では、1つの撮影位置情報を撮影画像記憶部17から取得する。   Subsequently, in steps S22 to S27, all the shooting position information 171 stored in the shot image storage unit 17 is sequentially read out, and the distance between the average coordinates of the updated portion and the shooting position is calculated. In step S <b> 22, one piece of shooting position information is acquired from the shot image storage unit 17.

ステップS23では、S22で取得された撮影位置情報によって示される撮影位置(Xs、Ys、θs)及び撮影部15が有するカメラの画角φを用いて、撮影部15の仮想撮影領域を算出する。ここで、仮想撮影領域とは、図7に斜線で示すように、撮影部15が有するカメラの画角内で、ロボット1の前方に広がる領域である。つまり、仮想撮影領域は、壁等の障害物が存在しないと仮定した場合に、撮影部15の撮影画像に含まれる領域である。   In step S23, the virtual shooting area of the shooting unit 15 is calculated using the shooting position (Xs, Ys, θs) indicated by the shooting position information acquired in S22 and the angle of view φ of the camera of the shooting unit 15. Here, the virtual imaging area is an area that extends in front of the robot 1 within the angle of view of the camera that the imaging unit 15 has, as indicated by hatching in FIG. That is, the virtual shooting area is an area included in the shot image of the shooting unit 15 when it is assumed that there is no obstacle such as a wall.

ステップS24では、更新箇所の平均座標が仮想撮影領域内に含まれるか否かを判定する。更新箇所の平均座標が仮想撮影領域内に含まれる場合にステップS25に進み、そうでなければステップS27に進む。   In step S24, it is determined whether or not the average coordinates of the updated location are included in the virtual imaging area. If the average coordinates of the updated location are included in the virtual imaging area, the process proceeds to step S25, and if not, the process proceeds to step S27.

ステップS25では、撮影位置と平均座標との間に撮影を妨げる壁等の障害物が存在するか否かを判定する。具体的には、旧環境地図130に含まれる壁セル座標を読み出して、撮影位置と平均座標との間に壁セルが存在するか否かを判定すればよい。撮影位置と平均座標との間に障害物が存在しないと判定された場合にステップS26に進み、そうでなければステップS27に進む。   In step S25, it is determined whether there is an obstacle such as a wall that hinders shooting between the shooting position and the average coordinates. Specifically, the wall cell coordinates included in the old environment map 130 may be read out to determine whether or not a wall cell exists between the shooting position and the average coordinates. If it is determined that there is no obstacle between the shooting position and the average coordinates, the process proceeds to step S26, and if not, the process proceeds to step S27.

ステップS26では、撮影位置と更新箇所の平均座標との間の距離を算出する。   In step S26, the distance between the shooting position and the average coordinates of the updated location is calculated.

ステップS27では、全ての撮影位置情報171に対するステップS22〜S26の処理が終了したか否かを判定する。終了していなければ、ステップS22に戻って処理を繰り返す。   In step S27, it is determined whether or not the processing in steps S22 to S26 for all the shooting position information 171 has been completed. If not completed, the process returns to step S22 to repeat the process.

最後に、ステップS28では、更新箇所の平均座標との距離が最小である撮影位置に対応する撮影画像を、画像表示部20に表示させる表示画像に決定する。更新箇所の平均座標との距離が最小と判定された撮影位置で取得された撮影画像は、更新箇所に対応する地点が十分に撮影されている可能性が高いためである。   Finally, in step S28, the captured image corresponding to the imaging position having the smallest distance from the average coordinates of the update location is determined as the display image to be displayed on the image display unit 20. This is because the shot image acquired at the shooting position where the distance from the average coordinate of the update location is determined to be the smallest is likely to have been taken sufficiently at the spot corresponding to the update location.

図5に戻り説明を続ける。ステップS15では、更新箇所と更新箇所に対応する撮影画像を地図表示部21及び画像表示部20に表示する。   Returning to FIG. In step S <b> 15, the updated location and the captured image corresponding to the updated location are displayed on the map display unit 21 and the image display unit 20.

ステップS16では、採否指示入力部22に対する更新箇所の採否指示の入力を受け付ける。オペレータによる採否指示の内容が更新箇所の採用であれば、採用された更新箇所によって旧環境地図130を更新する(ステップS17及びS18)。   In step S <b> 16, an update location adoption instruction input to the acceptance acceptance instruction input unit 22 is accepted. If the content of the acceptance / rejection instruction by the operator is the adoption of an update location, the old environment map 130 is updated with the adopted update location (steps S17 and S18).

ステップS19では、全ての更新箇所に関する撮影画像の表示、オペレータによる採否指示の入力が完了したか否かを判定する。完了していなければステップS15に戻って、上述したS15〜S18の処理を繰り返す。   In step S19, it is determined whether or not the display of the captured image regarding all the update locations and the input of the acceptance / rejection instruction by the operator have been completed. If not completed, the process returns to step S15, and the processes of S15 to S18 described above are repeated.

上述したように、本実施の形態にかかるロボット1は、更新箇所に対応する地点が撮影された撮影画像を表示してオペレータに提示する。つまり、ロボット1は、画像表示部20に表示される撮影画像と地図表示部21に表示される更新箇所をオペレータに閲覧させることによって、人物等の移動障害物が壁セルとして誤認識されていないか、あるいは障害物が存在しないにもかかわらず誤って壁セルとして誤認識されていないか等をオペレータに的確に判断させることができる。   As described above, the robot 1 according to the present embodiment displays a photographed image obtained by photographing a point corresponding to the updated part and presents it to the operator. That is, the robot 1 causes the operator to browse the captured image displayed on the image display unit 20 and the update location displayed on the map display unit 21 so that a moving obstacle such as a person is not erroneously recognized as a wall cell. In addition, it is possible to cause the operator to accurately determine whether the wall cell is erroneously recognized as a wall cell even though there is no obstacle.

さらに、ロボット1は、オペレータの採否指示に基づいて更新箇所の採否を決定し、自律移動制御に使用される更新後の環境地図132を生成する。このため、誤認識された移動障害物等が更新後の環境地図に含まれることを防止できる。   Furthermore, the robot 1 determines whether or not to update the part based on the operator's acceptance instruction, and generates an updated environment map 132 used for autonomous movement control. For this reason, it is possible to prevent erroneously recognized moving obstacles and the like from being included in the updated environment map.

<その他の実施の形態>
上述した発明の実施の形態1では、画像表示部20への撮影画像の表示に合わせて、地図表示部21に更新箇所を表示する例を説明した。しかしながら、更新箇所の表示は必ずしも行なわなくてもよい。つまり、少なくとも更新箇所に対応する地点が撮影された撮影画像をオペレータに対して提示することによって、人物等の移動障害物が誤って壁セルと認識されていないかどうかをオペレータに判断させることができる。
<Other embodiments>
In the first embodiment of the present invention described above, the example in which the update location is displayed on the map display unit 21 in accordance with the display of the captured image on the image display unit 20 has been described. However, it is not always necessary to display the update location. That is, the operator can determine whether or not a moving obstacle such as a person has been mistakenly recognized as a wall cell by presenting to the operator a photographed image in which at least a spot corresponding to the update location is photographed. it can.

また、発明の実施の形態1では、旧環境地図130、新環境地図131、及び更新後の環境地図132が、二次元のグリッド地図であるとして説明を行なった。しかしながら、これらの環境地図は、三次元のグリッド地図でもよい。また、これらの環境地図は、外部環境を撮影した画像から画像認識によって抽出された特徴点の三次元空間での配置が記述された地図でもよい。   In the first embodiment of the invention, the old environment map 130, the new environment map 131, and the updated environment map 132 have been described as being two-dimensional grid maps. However, these environmental maps may be three-dimensional grid maps. In addition, these environment maps may be maps in which arrangements of feature points extracted by image recognition from images obtained by capturing an external environment are described.

また、発明の実施の形態1では、ロボット1が新環境地図131の生成を行うものとして説明した。しかしながら、ロボット1は、外部から供給される新環境地図131を用いて、更新箇所の判定以降の処理(図5のステップS12以降)を行ってもよい。   In the first embodiment of the invention, the robot 1 has been described as generating the new environment map 131. However, the robot 1 may perform processing after determination of the update location (after step S12 in FIG. 5) using the new environment map 131 supplied from the outside.

また、距離画像データを生成するために視覚センサ11に含まれるカメラと、オペレータに提示するための撮影画像を取得するために撮影部15に含まれるカメラとが共通化されてもよい。   Further, the camera included in the visual sensor 11 for generating the distance image data and the camera included in the imaging unit 15 for acquiring the captured image to be presented to the operator may be shared.

さらに、本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。   Furthermore, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention described above.

本発明の実施の形態にかかる自律移動ロボットの制御系を示すブロック図である。It is a block diagram which shows the control system of the autonomous mobile robot concerning embodiment of this invention. グリッド地図として生成された環境地図の一例を示す図である。It is a figure which shows an example of the environmental map produced | generated as a grid map. 自律移動部のブロック図である。It is a block diagram of an autonomous movement part. 更新箇所の算出手順を説明するための概念図である。It is a conceptual diagram for demonstrating the calculation procedure of an update location. 新環境地図の生成から環境地図の更新までの全体的な処理手順を示すフローチャートである。It is a flowchart which shows the whole process sequence from the production | generation of a new environment map to the update of an environment map. 表示画像決定部における表示画像の決定手順を示すフローチャートである。It is a flowchart which shows the determination procedure of the display image in a display image determination part. 撮影部の仮想撮影領域を説明するための図である。It is a figure for demonstrating the virtual imaging | photography area | region of an imaging | photography part.

符号の説明Explanation of symbols

1 自律移動ロボット
11 視覚センサ
12 環境地図生成部
13 環境地図データベース
130 旧環境地図
131 新環境地図
132 更新後の環境地図
14 自律移動部
140 動作計画部
141 動作制御部
142 駆動部
143 車輪
144 エンコーダ
15 撮影部
16 自己位置推定部
17 撮影画像記憶部
170 撮影画像
171 撮影位置情報
18 更新箇所判定部
180 更新箇所情報
19 表示画像決定部
20 画像表示部
21 地図表示部
22 採否指示入力部
23 地図更新部
DESCRIPTION OF SYMBOLS 1 Autonomous mobile robot 11 Visual sensor 12 Environmental map production | generation part 13 Environmental map database 130 Old environmental map 131 New environmental map 132 Updated environmental map 14 Autonomous movement part 140 Operation plan part 141 Operation control part 142 Drive part 143 Wheel 144 Encoder 15 Shooting unit 16 Self-position estimation unit 17 Captured image storage unit 170 Captured image 171 Shooting position information 18 Update location determination unit 180 Update location information 19 Display image determination unit 20 Image display unit 21 Map display unit 22 Acceptance / rejection instruction input unit 23 Map update unit

Claims (6)

移動空間内を自律移動するとともに、前記移動空間に関する環境地図を更新する機能を有する自律移動ロボットであって、
新環境地図と旧環境地図とを比較して更新箇所を判定する更新箇所判定部と、
前記更新箇所に対応する前記移動空間内の地点が撮影された撮影画像を表示する画像表示部と、
オペレータによる前記更新箇所の採否指示を入力する採否指示入力部と、
前記採否指示に従って前記更新箇所が採用又は棄却された更新後の環境地図を生成する地図更新部と、
を備える自律移動ロボット。
An autonomous mobile robot having a function of autonomously moving in a moving space and updating an environmental map related to the moving space,
An update location determination unit that compares the new environment map and the old environment map to determine the update location,
An image display unit that displays a captured image in which a point in the moving space corresponding to the updated location is captured;
An acceptance / rejection instruction input unit for inputting an acceptance / rejection instruction for the updated part by an operator;
A map updating unit for generating an updated environmental map in which the updated part is adopted or rejected according to the acceptance / rejection instruction;
An autonomous mobile robot with
前記撮影画像を取得する撮影部と、
当該自律移動ロボットの自己位置を推定する自己位置推定部と、
前記撮影画像及び前記撮影画像の取得がなされた前記自己位置を示す位置情報を記憶する記憶部と、
前記更新箇所に対応する前記移動空間内の地点が撮影された前記撮影画像を前記位置情報に基づいて決定し、決定した撮影画像を前記画像表示部に表示させる表示画像決定部と、
をさらに備える請求項1に記載の自律移動ロボット。
An imaging unit for acquiring the captured image;
A self-position estimating unit that estimates the self-position of the autonomous mobile robot;
A storage unit that stores position information indicating the self-position where the captured image and the captured image have been acquired;
A display image determination unit that determines the captured image in which the point in the moving space corresponding to the update location is captured based on the position information, and displays the determined captured image on the image display unit;
The autonomous mobile robot according to claim 1, further comprising:
前記画像表示部による前記撮影画像の表示に連動して前記更新箇所を表示する地図表示部をさらに備える請求項1又は2に記載の自律移動ロボット。   The autonomous mobile robot according to claim 1, further comprising a map display unit that displays the updated location in conjunction with display of the captured image by the image display unit. 移動空間内を自律移動する自律移動ロボットにおける前記移動空間に関する環境地図の更新方法であって、
新環境地図と旧環境地図とを比較して更新箇所を判定するステップ(a)と、
前記更新箇所に対応する前記移動空間内の地点が撮影された撮影画像を表示するステップ(b)と、
オペレータによる前記更新箇所の採否指示を入力するステップ(c)と、
前記採否指示に従って前記更新箇所が採用又は棄却された更新後の環境地図を生成するステップ(d)と、
を含む地図更新方法。
An update method of an environmental map related to the moving space in an autonomous mobile robot that autonomously moves in the moving space,
A step (a) of comparing the new environment map and the old environment map to determine an update location;
A step (b) of displaying a photographed image obtained by photographing a point in the moving space corresponding to the update location;
A step (c) of inputting an acceptance / rejection instruction of the updated portion by an operator;
Generating an updated environmental map in which the updated location is adopted or rejected in accordance with the acceptance / rejection instruction;
Map update method including.
前記自律移動ロボットに設置されたカメラによって前記撮影画像を取得するステップ(e)と、
前記撮影画像及び前記撮影画像の取得がなされた前記自律移動ロボットの自己位置を示す位置情報を記憶するステップ(f)と、
前記更新箇所に対応する前記移動空間内の地点が撮影された前記撮影画像を前記位置情報に基づいて決定するステップ(g)とをさらに含み、
前記ステップ(b)では、前記ステップ(g)で決定された撮影画像を前記オペレータに対して表示する請求項4に記載の地図更新方法。
Acquiring the captured image by a camera installed in the autonomous mobile robot;
Storing the captured image and position information indicating the self-location of the autonomous mobile robot from which the captured image was acquired;
Further comprising the step (g) of determining, based on the position information, the captured image in which a point in the moving space corresponding to the update location is captured,
The map update method according to claim 4, wherein in the step (b), the captured image determined in the step (g) is displayed to the operator.
前記ステップ(b)における前記撮影画像の表示に連動して前記更新箇所を表示するステップ(h)をさらに含む請求項4又は5に記載の地図更新方法。   The map update method according to claim 4 or 5, further comprising a step (h) of displaying the update location in conjunction with display of the captured image in the step (b).
JP2008009520A 2008-01-18 2008-01-18 Autonomous mobile robot and map update method Pending JP2009169845A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008009520A JP2009169845A (en) 2008-01-18 2008-01-18 Autonomous mobile robot and map update method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008009520A JP2009169845A (en) 2008-01-18 2008-01-18 Autonomous mobile robot and map update method

Publications (1)

Publication Number Publication Date
JP2009169845A true JP2009169845A (en) 2009-07-30

Family

ID=40970909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008009520A Pending JP2009169845A (en) 2008-01-18 2008-01-18 Autonomous mobile robot and map update method

Country Status (1)

Country Link
JP (1) JP2009169845A (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014078254A (en) * 2009-08-31 2014-05-01 Neato Robotics Inc Method and apparatus for simultaneous localization and mapping of mobile robot environment
JP2014089740A (en) * 2013-12-20 2014-05-15 Hitachi Ltd Robot system and map update method
WO2015025599A1 (en) * 2013-08-21 2015-02-26 シャープ株式会社 Autonomous mobile body
JP2015144013A (en) * 2015-03-31 2015-08-06 株式会社日立製作所 robot system and map update method
JP2017041200A (en) * 2015-08-21 2017-02-23 シャープ株式会社 Autonomous mobile device, autonomous mobile system and circumstance map evaluation method
WO2017148730A1 (en) * 2016-03-03 2017-09-08 Kuka Roboter Gmbh Method for updating an occupancy map and autonomous vehicle
US10012989B2 (en) 2015-12-17 2018-07-03 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
CN108369743A (en) * 2015-08-28 2018-08-03 帝国科技及医学学院 Use multi-directional camera map structuring space
CN108469826A (en) * 2018-04-23 2018-08-31 宁波Gqy视讯股份有限公司 A kind of ground drawing generating method and system based on robot
US10108199B2 (en) 2015-12-10 2018-10-23 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
JP2019023848A (en) * 2017-05-01 2019-02-14 サビオーク インコーポレイテッドSavioke, Inc. Computer system and method for automatic mapping by robot
WO2019069524A1 (en) * 2017-10-02 2019-04-11 ソニー株式会社 Environment information update apparatus, environment information update method, and program
JP2019061452A (en) * 2017-09-26 2019-04-18 株式会社豊田自動織機 Map information update method
US10296009B2 (en) 2015-12-16 2019-05-21 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
US10296002B2 (en) 2016-03-14 2019-05-21 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method, and non-transitory recording medium
WO2019187654A1 (en) * 2018-03-30 2019-10-03 株式会社小松製作所 Construction machine control system, construction machine, and construction machine control method
WO2020255409A1 (en) * 2019-06-21 2020-12-24 株式会社ソニー・インタラクティブエンタテインメント Element data management device, element data management method, program, and data structure of element data
US10877475B2 (en) 2015-05-22 2020-12-29 Fujifilm Corporation Robot device and method of controlling movement of robot device
WO2021059437A1 (en) * 2019-09-26 2021-04-01 ヤマハ発動機株式会社 Environment map creation device and method, local position estimation device, and autonomous moving body
WO2021176863A1 (en) * 2020-03-06 2021-09-10 パナソニックIpマネジメント株式会社 Object image display device, object image display system, and object image display program
CN113942007A (en) * 2020-07-16 2022-01-18 深圳乐动机器人有限公司 Robot control method and device and electronic equipment
JP2023504330A (en) * 2020-11-09 2023-02-03 達闥機器人股▲分▼有限公司 Map calibration method, system, robot and cloud platform based on point cloud
JP2023509231A (en) * 2020-02-28 2023-03-07 アイロボット・コーポレーション Semantic map management in mobile robots
WO2023080062A1 (en) 2021-11-04 2023-05-11 株式会社Ihi Self-position estimation device, autonomous driving vehicle, and self-position estimation method
DE102023201820A1 (en) 2022-03-07 2023-09-07 Hitachi High-Tech Corporation Robot stopping position adjustment device and mobile robot system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296229A (en) * 1998-02-13 1999-10-29 Komatsu Ltd Vehicle guide device
JP2004033340A (en) * 2002-07-01 2004-02-05 Hitachi Home & Life Solutions Inc Robot vacuum cleaner and robot vacuum cleaner control program
JP2004171165A (en) * 2002-11-19 2004-06-17 Honda Motor Co Ltd Moving apparatus
JP2006113858A (en) * 2004-10-15 2006-04-27 Mitsubishi Heavy Ind Ltd Method and system for supporting remote operation for mobile object
JP2007120949A (en) * 2005-10-25 2007-05-17 Nissan Motor Co Ltd Road information update apparatus
JP2007323402A (en) * 2006-06-01 2007-12-13 Matsushita Electric Ind Co Ltd Self-propelled equipment and its program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296229A (en) * 1998-02-13 1999-10-29 Komatsu Ltd Vehicle guide device
JP2004033340A (en) * 2002-07-01 2004-02-05 Hitachi Home & Life Solutions Inc Robot vacuum cleaner and robot vacuum cleaner control program
JP2004171165A (en) * 2002-11-19 2004-06-17 Honda Motor Co Ltd Moving apparatus
JP2006113858A (en) * 2004-10-15 2006-04-27 Mitsubishi Heavy Ind Ltd Method and system for supporting remote operation for mobile object
JP2007120949A (en) * 2005-10-25 2007-05-17 Nissan Motor Co Ltd Road information update apparatus
JP2007323402A (en) * 2006-06-01 2007-12-13 Matsushita Electric Ind Co Ltd Self-propelled equipment and its program

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014078254A (en) * 2009-08-31 2014-05-01 Neato Robotics Inc Method and apparatus for simultaneous localization and mapping of mobile robot environment
CN104699099A (en) * 2009-08-31 2015-06-10 Neato机器人技术公司 Method and apparatus for simultaneous localization and mapping of mobile robot environment
WO2015025599A1 (en) * 2013-08-21 2015-02-26 シャープ株式会社 Autonomous mobile body
JP2015041203A (en) * 2013-08-21 2015-03-02 シャープ株式会社 Autonomous moving body
CN105247431A (en) * 2013-08-21 2016-01-13 夏普株式会社 Autonomous mobile body
CN105247431B (en) * 2013-08-21 2017-09-19 夏普株式会社 Autonomous body
US9804598B2 (en) 2013-08-21 2017-10-31 Sharp Kabushiki Kaisha Autonomous mobile body
JP2014089740A (en) * 2013-12-20 2014-05-15 Hitachi Ltd Robot system and map update method
JP2015144013A (en) * 2015-03-31 2015-08-06 株式会社日立製作所 robot system and map update method
US10877475B2 (en) 2015-05-22 2020-12-29 Fujifilm Corporation Robot device and method of controlling movement of robot device
JP2017041200A (en) * 2015-08-21 2017-02-23 シャープ株式会社 Autonomous mobile device, autonomous mobile system and circumstance map evaluation method
JP2018529175A (en) * 2015-08-28 2018-10-04 インペリアル・カレッジ・オブ・サイエンス・テクノロジー・アンド・メディスン Mapping a space using a multidirectional camera
CN108369743A (en) * 2015-08-28 2018-08-03 帝国科技及医学学院 Use multi-directional camera map structuring space
US10796151B2 (en) 2015-08-28 2020-10-06 Imperial College Of Science, Technology And Medicine Mapping a space using a multi-directional camera
CN108369743B (en) * 2015-08-28 2023-10-24 帝国理工学院创新有限公司 Mapping a space using a multi-directional camera
US10108199B2 (en) 2015-12-10 2018-10-23 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
US10296009B2 (en) 2015-12-16 2019-05-21 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
US10012989B2 (en) 2015-12-17 2018-07-03 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and non-transitory recording medium
EP3423911B1 (en) * 2016-03-03 2021-01-20 KUKA Deutschland GmbH Method for updating an occupancy map and autonomous vehicle
WO2017148730A1 (en) * 2016-03-03 2017-09-08 Kuka Roboter Gmbh Method for updating an occupancy map and autonomous vehicle
US10296002B2 (en) 2016-03-14 2019-05-21 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method, and non-transitory recording medium
JP2019023848A (en) * 2017-05-01 2019-02-14 サビオーク インコーポレイテッドSavioke, Inc. Computer system and method for automatic mapping by robot
JP2019061452A (en) * 2017-09-26 2019-04-18 株式会社豊田自動織機 Map information update method
JP7003531B2 (en) 2017-09-26 2022-01-20 株式会社豊田自動織機 How to update map information
US11687089B2 (en) 2017-10-02 2023-06-27 Sony Corporation Environmental information update apparatus, environmental information update method, and program for updating information regarding an obstacle in a space
KR20200054977A (en) * 2017-10-02 2020-05-20 소니 주식회사 Environmental information update device, environmental information update method and program
WO2019069524A1 (en) * 2017-10-02 2019-04-11 ソニー株式会社 Environment information update apparatus, environment information update method, and program
JPWO2019069524A1 (en) * 2017-10-02 2020-11-05 ソニー株式会社 Environmental information update device, environmental information update method and program
JP7136114B2 (en) 2017-10-02 2022-09-13 ソニーグループ株式会社 ENVIRONMENTAL INFORMATION UPDATE DEVICE, ENVIRONMENTAL INFORMATION UPDATE METHOD AND PROGRAM
KR102629762B1 (en) 2017-10-02 2024-01-29 소니그룹주식회사 Environmental information update device, environmental information update method and program
US20200391767A1 (en) * 2018-03-30 2020-12-17 Komatsu Ltd. Work machine control system, work machine, and work machine control method
WO2019187654A1 (en) * 2018-03-30 2019-10-03 株式会社小松製作所 Construction machine control system, construction machine, and construction machine control method
US11745767B2 (en) 2018-03-30 2023-09-05 Komatsu Ltd. Work machine control system, work machine, and work machine control method
JP2019179512A (en) * 2018-03-30 2019-10-17 株式会社小松製作所 Work machine control system, work machine, and work machine control method
JP7103824B2 (en) 2018-03-30 2022-07-20 株式会社小松製作所 Work machine control system, work machine, and work machine control method
CN108469826A (en) * 2018-04-23 2018-08-31 宁波Gqy视讯股份有限公司 A kind of ground drawing generating method and system based on robot
WO2020255409A1 (en) * 2019-06-21 2020-12-24 株式会社ソニー・インタラクティブエンタテインメント Element data management device, element data management method, program, and data structure of element data
JPWO2020255409A1 (en) * 2019-06-21 2021-12-23 株式会社ソニー・インタラクティブエンタテインメント Element data management device, element data management method, program and data structure of element data
JP7232909B2 (en) 2019-06-21 2023-03-03 株式会社ソニー・インタラクティブエンタテインメント Element data management device, element data management method, program and data structure of element data
WO2021059437A1 (en) * 2019-09-26 2021-04-01 ヤマハ発動機株式会社 Environment map creation device and method, local position estimation device, and autonomous moving body
JP7214881B2 (en) 2019-09-26 2023-01-30 ヤマハ発動機株式会社 Environmental mapping device and method, self-localization device, autonomous mobile body
JPWO2021059437A1 (en) * 2019-09-26 2021-04-01
US20220276659A1 (en) * 2019-09-26 2022-09-01 Yamaha Hatsudoki Kabushiki Kaisha Environment map creation device and method, local position estimation device, and autonomous moving body
JP2023509231A (en) * 2020-02-28 2023-03-07 アイロボット・コーポレーション Semantic map management in mobile robots
JP7459277B2 (en) 2020-02-28 2024-04-01 アイロボット・コーポレーション Semantic map management in mobile robots
JP7281716B2 (en) 2020-03-06 2023-05-26 パナソニックIpマネジメント株式会社 Object image display device, object image display system, and object image display program
JP2021140583A (en) * 2020-03-06 2021-09-16 パナソニックIpマネジメント株式会社 Object image display device, object image display system, and object image display program
WO2021176863A1 (en) * 2020-03-06 2021-09-10 パナソニックIpマネジメント株式会社 Object image display device, object image display system, and object image display program
CN113942007A (en) * 2020-07-16 2022-01-18 深圳乐动机器人有限公司 Robot control method and device and electronic equipment
JP2023504330A (en) * 2020-11-09 2023-02-03 達闥機器人股▲分▼有限公司 Map calibration method, system, robot and cloud platform based on point cloud
JP7465290B2 (en) 2020-11-09 2024-04-10 達闥機器人股▲分▼有限公司 Point cloud based map calibration method, system, robot and cloud platform
WO2023080062A1 (en) 2021-11-04 2023-05-11 株式会社Ihi Self-position estimation device, autonomous driving vehicle, and self-position estimation method
DE102023201820A1 (en) 2022-03-07 2023-09-07 Hitachi High-Tech Corporation Robot stopping position adjustment device and mobile robot system

Similar Documents

Publication Publication Date Title
JP2009169845A (en) Autonomous mobile robot and map update method
CN110312912B (en) Automatic vehicle parking system and method
US10096129B2 (en) Three-dimensional mapping of an environment
CN111024066B (en) Unmanned aerial vehicle vision-inertia fusion indoor positioning method
CN108290294B (en) Mobile robot and control method thereof
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
JP2021152662A (en) Method and device for real-time mapping and location
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
KR101784183B1 (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
CN111664843A (en) SLAM-based intelligent storage checking method
JP2009193240A (en) Mobile robot and method for generating environment map
JP7036400B2 (en) Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program
WO2016077703A1 (en) Gyroscope assisted scalable visual simultaneous localization and mapping
JP2015532077A (en) Method for determining the position and orientation of an apparatus associated with an imaging apparatus that captures at least one image
KR20150144727A (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
JP2013025401A (en) Self-position estimation device, self-position estimation method and program
Caballero et al. Improving vision-based planar motion estimation for unmanned aerial vehicles through online mosaicing
CN112652001A (en) Underwater robot multi-sensor fusion positioning system based on extended Kalman filtering
CN112506200A (en) Robot positioning method, device, robot and storage medium
CN115049910A (en) Foot type robot mapping and navigation method based on binocular vision odometer
CN117433515A (en) Indoor factory unmanned aerial vehicle positioning method and system based on multi-base-station UWB and dotted line visual inertia
CN117330052A (en) Positioning and mapping method and system based on infrared vision, millimeter wave radar and IMU fusion
CN116804553A (en) Odometer system and method based on event camera/IMU/natural road sign
Camurri et al. Real-time depth and inertial fusion for local SLAM on dynamic legged robots
KR102506411B1 (en) Method and apparatus for estimation of location and pose on vehicle and record medium for this

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120529

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120911